KR102264219B1 - Method and system for providing mixed reality contents related to underground facilities - Google Patents

Method and system for providing mixed reality contents related to underground facilities Download PDF

Info

Publication number
KR102264219B1
KR102264219B1 KR1020190101741A KR20190101741A KR102264219B1 KR 102264219 B1 KR102264219 B1 KR 102264219B1 KR 1020190101741 A KR1020190101741 A KR 1020190101741A KR 20190101741 A KR20190101741 A KR 20190101741A KR 102264219 B1 KR102264219 B1 KR 102264219B1
Authority
KR
South Korea
Prior art keywords
information
reference point
terminal
underground
mixed reality
Prior art date
Application number
KR1020190101741A
Other languages
Korean (ko)
Other versions
KR20210022343A (en
Inventor
하태진
Original Assignee
주식회사 버넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 버넥트 filed Critical 주식회사 버넥트
Priority to KR1020190101741A priority Critical patent/KR102264219B1/en
Publication of KR20210022343A publication Critical patent/KR20210022343A/en
Application granted granted Critical
Publication of KR102264219B1 publication Critical patent/KR102264219B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

실시예에 따른 지하시설물 관련 혼합현실 제공방법은, 단말의 프로세서에서 지하시설물 관련 데이터와 혼합현실 기술을 기반으로 지하에 매설된 시설물을 관리 및 감독하는 지하시설물 관련 혼합현실을 제공하는 방법으로서, 카메라를 제어하여 촬영 영상을 획득하는 단계; 상기 촬영 영상을 이미지 처리하여 기준점 오브젝트를 디텍팅하는 단계; 상기 기준점 오브젝트에서 기준점에 표시된 코드를 인식하는 단계; 상기 인식된 코드와 매칭되는 3차원 공간모델 정보를 획득하는 단계; 상기 획득된 3차원 공간모델 정보를 기초로 상기 촬영 영상에 대한 3차원 공간정보를 설정하는 단계; 및 상기 3차원 공간정보에 따라서 상기 촬영 영상 상에 가상객체를 렌더링하여 생성된 혼합현실(MR) 영상을 디스플레이하는 단계를 포함한다.The method for providing mixed reality related to underground facilities according to the embodiment is a method of providing mixed reality related to underground facilities in which a processor of a terminal manages and supervises facilities buried underground based on data related to underground facilities and mixed reality technology, and a camera controlling to obtain a captured image; detecting a reference point object by image processing the captured image; recognizing a code displayed on a reference point in the reference point object; obtaining 3D spatial model information matching the recognized code; setting 3D spatial information for the captured image based on the obtained 3D spatial model information; and displaying a mixed reality (MR) image generated by rendering a virtual object on the captured image according to the 3D spatial information.

Description

지하시설물 관련 혼합현실 제공방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING MIXED REALITY CONTENTS RELATED TO UNDERGROUND FACILITIES}METHOD AND SYSTEM FOR PROVIDING MIXED REALITY CONTENTS RELATED TO UNDERGROUND FACILITIES

본 발명은 지하시설물 관련 혼합현실(MR, Mixed Reality) 제공방법 및 시스템에 관한 것이다. 보다 상세하게는, 단말과 연동하여 지하시설물 관련 데이터와 혼합현실 기술을 융합해 지하에 매설된 시설물을 관리 및 감독하는 지하시설물 관련 혼합현실 제공방법 및 시스템에 관한 것이다. The present invention relates to a method and system for providing mixed reality (MR) related to underground facilities. More specifically, it relates to a method and system for providing a mixed reality related to an underground facility for managing and supervising facilities buried underground by fusion of data related to underground facilities and mixed reality technology in conjunction with a terminal.

일반적으로, 상수도 시설, 하수도시설, 가스시설, 통신시설 및 전기시설 등의 지하에 매설되는 시설로 정의되는 지하시설물은, 도시를 운영하기 위한 필수 기반시설로서, 지상시설물들과는 달리 땅속에 묻혀 있으며 종류가 다양함에 따라 관리가 용이하지 않을 뿐만 아니라, 사고 발생 시 그 대처방안 또한 도출하기 어렵다는 특징이 있다.In general, underground facilities, which are defined as facilities buried underground, such as water supply facilities, sewage facilities, gas facilities, communication facilities, and electric facilities, are essential infrastructure for operating a city. It is not only difficult to manage due to the variety of accidents, but also has the characteristic that it is difficult to derive countermeasures in case of an accident.

특히, 지하시설물에 대한 예기치 못한 사고가 발생하는 경우, 인명이나 재산상의 손실이 초래됨에 따라 이에 대한 체계적인 관리가 매우 중요하다고 할 수 있다.In particular, in the case of an unexpected accident with an underground facility, it can be said that systematic management is very important as it causes loss of life or property.

이에, 지하시설물의 매설 시 지상으로 지상지표를 설치하거나, 지하에 지하지표를 설치하여 지진, 산사태 및 홍수 등과 같은 자연 재해 발생에도 지하시설물의 위치이동을 용이하게 탐지할 수 있는 정보인식 수단을 제공하는 다양한 관리 시스템이 제안되었다.Accordingly, it provides an information recognition means that can easily detect the movement of underground facilities even when natural disasters such as earthquakes, landslides and floods occur by installing a ground level surface above ground or installing an underground level surface when underground facilities are buried. Various management systems have been proposed.

종래의 관리 시스템에서는, 지하시설물에 대응하는 위치를 위성항법장치(GPS, Global Positioning System)를 통해 인식하거나, 지상에 바코드 또는 QR 코드 등과 같은 정보인식 수단을 설치하고 정보인식 수단과 매칭된 지하시설물과 관련된 데이터들로 데이터 베이스를 구축함으로써 지하시설물 위치를 인식하고 있다. In the conventional management system, a location corresponding to an underground facility is recognized through a global positioning system (GPS), or an information recognition means such as a barcode or a QR code is installed on the ground and an underground facility matched with the information recognition means By building a database with related data, the location of underground facilities is recognized.

이후, 현장 작업자 또는 관리자는, 단말을 이용하여 전술한 GPS 위치정보, 정보인식 수단에 대한 태그인식 또는 무선통신방식의 태그인식을 통해 위치정보 및 속성정보를 획득하고, 이를 이용하여 데이터 베이스를 검색함으로써 저장된 지하시설물 정보를 전송받아 지하시설물에 대한 관리작업을 수행할 수 있게 된다.Thereafter, the field worker or manager acquires location information and attribute information through tag recognition or wireless communication method tag recognition for the above-described GPS location information and information recognition means using the terminal, and searches the database using this. By doing so, it is possible to receive the stored underground facility information and perform management work on the underground facility.

그러나, 현재 제공되는 지하시설물 정보에 의해서는 해당 지하시설물에 대한 지도 상의 단순 맵핑(mapping)하여 그 위치 및 대략적인 형상만을 표시하는 수준에 머물러 있어, 지하공간 내 시설물들이 어떠한 입체적 형태로 배치되어 있는지 용이하게 식별하기 어렵다는 한계가 있다.However, according to the currently provided information on underground facilities, it remains at the level of displaying only the location and approximate shape of the underground facility by simply mapping the corresponding underground facility on the map, so it is possible to determine the three-dimensional shape of the facilities in the underground space. There is a limitation in that it is difficult to identify easily.

또한, 오차가 필연적으로 발생하는 위성항법장치를 통해 인식된 위치를 기반으로 지하시설물을 맵핑할 경우, 상기 오차로 인해 정확한 지하시설물의 위치를 표시할 수 없어 지하시설물에 대한 관리작업을 수행하기 어려운 문제가 있으며, 위성항법장치가 잘 동작하지 않는 도심지역에서는 사용이 어려운 문제가 있다. In addition, if an underground facility is mapped based on the location recognized through the satellite navigation system, which inevitably causes an error, the location of the underground facility cannot be accurately displayed due to the error, making it difficult to perform management work on the underground facility. There is a problem, and there is a problem that it is difficult to use in an urban area where the satellite navigation system does not work well.

또한, 지상에 바코드나 QR 코드와 같은 정보인식 수단을 별도로 표지를 일일이 설치하기에 어려움이 있으며, 지상에 노출된 정보인식 수단이 훼손될 경우 무용지물이 되는 문제가 있다. In addition, there is a problem in that it is difficult to separately install information recognition means such as barcodes or QR codes on the ground one by one, and if the information recognition means exposed on the ground is damaged, there is a problem of becoming useless.

또한, 종래의 관리 시스템은 기저장된 지하시설물 정보를 지도 상에 맵핑하여 제공하나, 지하시설물 정보를 이용하는 사용자 단말의 위치 및/또는 방위(자세)의 실시간 변화를 고려하여 지하시설물에 관련된 정보를 인터렉션(interaction)하게 제공하기에 미흡함이 있다. In addition, the conventional management system maps and provides pre-stored underground facility information on a map, but interacts with information related to underground facilities in consideration of real-time changes in the location and/or orientation (attitude) of the user terminal using the underground facility information. There is insufficient to provide (interaction).

특히, 종래 관리 시스템은 GPS의 부재 시, 사용자의 위치 및/또는 단말의 카메라 방위(자세)의 변화에 따라 인터렉션된 지하시설물 정보를 정확하게 제공하는데 어려움이 있어 이를 해결하기 위한 기술적 도입이 필요한 상황이다. In particular, in the absence of GPS, the conventional management system has difficulty in accurately providing information about underground facilities interacted with according to a change in the user's location and/or the camera orientation (posture) of the terminal, so technical introduction is required to solve this problem. .

뿐만 아니라, 민간업체에서 제공하는 전자지도는 지도상에 등장하는 지형 및 건물 등의 오브젝트(object)의 위치가 상대좌표로 설정되어 있어, 해당 좌표에서 지하시설물 간의 거리 및 서로의 방위각이 일치하지 않는 경우가 종종 발생하게 된다.In addition, in the electronic map provided by private companies, the locations of objects such as terrain and buildings appearing on the map are set in relative coordinates, so the distance between underground facilities and each other's azimuth angles do not match in the coordinates. case often occurs.

더하여, 종래 지하시설물 관리 시스템의 데이터 베이스에 저장된 지하시설물 정보는 민간업체에 의뢰하거나, 해당 업체가 자체적으로 구축한 2D 또는 3D 전자지도상에 지하시설물들의 위치정보, 지형정보 및 속성정보 등을 맵핑하여 제작된 것으로서 그 정확도가 현저히 낮다는 한계가 있다.In addition, the underground facility information stored in the database of the conventional underground facility management system is requested by a private company, or the location information, topographic information, and attribute information of the underground facilities are mapped on the 2D or 3D electronic map built by the company itself. There is a limit in that the accuracy is significantly low as it is manufactured in this way.

한편, 최근 들어 카메라 모듈을 이용한 촬영 시, 현실 세계에 가상 세계가 접목되어 현실의 물리적 객체와 가상 객체가 상호 작용할 수 있는 환경을 제공하는 혼합 현실(MR, Mixed Reality) 기법을 이용한 컨텐츠 제공이 활발히 연구되고 있다. On the other hand, recently, when shooting using a camera module, the virtual world is grafted onto the real world to provide an environment in which real physical and virtual objects can interact, providing content using the Mixed Reality (MR) technique. is being studied.

자세히, 혼합 현실(MR)은, 현실을 기반으로 가상 정보를 부가하는 증강 현실(AR: Augmented Reality)과 가상 환경에 현실 정보를 부가하는 증강 가상(AV: Augmented Virtuality)의 의미를 포함하며, 현실과 가상이 자연스럽게 연결되는 스마트 환경을 제공해 사용자가 풍부한 체험을 하게 할 수 있다.In detail, mixed reality (MR) includes the meaning of augmented reality (AR: Augmented   Reality) that adds virtual information based on reality and augmented virtual (AV:   Augmented   Virtuality) that adds real information to a virtual environment. By providing a smart environment in which virtual and virtual are naturally connected, users can have a rich experience.

10-2018-0132183 A10-2018-0132183 A

본 발명은, 위와 같은 문제점을 해결하기 위해 안출된 것으로서, 사용자의 단말과 연동하여 지하시설물 관련 데이터와 혼합현실(MR, Mixed Reality) 기술을 융합해 지하시설물을 용이하게 관리 및 감독하는 지하시설물 관련 혼합현실 제공방법 및 시스템을 제공하는데 그 목적이 있다. The present invention has been devised to solve the above problems, and it is related to underground facilities that easily manage and supervise underground facilities by fusion of data related to underground facilities and mixed reality (MR, Mixed Reality) technology in conjunction with the user's terminal. An object of the present invention is to provide a method and system for providing mixed reality.

자세히, 본 발명의 실시예는, 사용자의 단말과 실시간으로 상호작용하여 사용자 단말의 위치 및/또는 방위(자세)의 변화에 따른 지하시설물 정보를 혼합현실을 이용하여 제공하는데 그 목적이 있다. In detail, an embodiment of the present invention has an object to provide information about underground facilities according to a change in the location and/or orientation (attitude) of the user terminal by using a mixed reality by interacting with the user's terminal in real time.

또한, 본 발명의 실시예는, 지하시설물 정보를 제공하기 위한 이미지 인식·추적·학습 기술 및 3차원 공간인식·카메라 추적 기술을 구현하는 지하시설물 관련 혼합현실 제공방법 및 시스템을 제공하는데 그 목적이 있다. In addition, an embodiment of the present invention aims to provide a method and system for providing an underground facility-related mixed reality that implements image recognition/tracking/learning technology and 3D spatial recognition/camera tracking technology for providing information on underground facilities. have.

또한, 본 발명의 실시예는, 위성항법장치(GPS)의 부재 시에도 사용자 단말의 위치 및/또는 방위(자세)의 변화에 따른 지하시설물 정보를 혼합현실로 용이하게 제공하는 지하시설물 관련 혼합현실 제공방법 및 시스템을 제공하는데 그 목적이 있다. In addition, an embodiment of the present invention provides an underground facility-related mixed reality that easily provides information about underground facilities according to a change in the location and/or orientation (attitude) of a user terminal in a mixed reality even in the absence of a global positioning system (GPS). An object of the present invention is to provide a providing method and system.

다만, 본 발명 및 본 발명의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the present invention and embodiments of the present invention are not limited to the technical problems as described above, and other technical problems may exist.

실시예에 따른 지하시설물 관련 혼합현실 제공방법은, 단말의 프로세서에서 지하시설물 관련 데이터와 혼합현실 기술을 기반으로 지하에 매설된 시설물을 관리 및 감독하는 지하시설물 관련 혼합현실을 제공하는 방법으로서, 카메라를 제어하여 촬영 영상을 획득하는 단계; 상기 촬영 영상을 이미지 처리하여 기준점 오브젝트를 디텍팅하는 단계; 상기 기준점 오브젝트에서 기준점에 표시된 코드를 인식하는 단계; 상기 인식된 코드와 매칭되는 3차원 공간모델 정보를 획득하는 단계; 상기 획득된 3차원 공간모델 정보를 기초로 상기 촬영 영상에 대한 3차원 공간정보를 설정하는 단계; 및 상기 3차원 공간정보에 따라서 상기 촬영 영상 상에 가상객체를 렌더링하여 생성된 혼합현실(MR) 영상을 디스플레이하는 단계를 포함한다. The method for providing mixed reality related to underground facilities according to the embodiment is a method of providing mixed reality related to underground facilities in which a processor of a terminal manages and supervises facilities buried underground based on data related to underground facilities and mixed reality technology, and a camera controlling to obtain a captured image; detecting a reference point object by image processing the captured image; recognizing a code displayed on a reference point in the reference point object; obtaining 3D spatial model information matching the recognized code; setting 3D spatial information for the captured image based on the obtained 3D spatial model information; and displaying a mixed reality (MR) image generated by rendering a virtual object on the captured image according to the 3D spatial information.

이때, 상기 인식된 코드와 매칭되는 3차원 공간모델 정보를 획득하는 단계는, 상기 촬영 영상의 3차원 공간을 특정하는 상기 기준점 오브젝트의 3차원 좌표를 획득하는 단계를 포함할 수 있다. In this case, the obtaining of the three-dimensional space model information matching the recognized code may include obtaining the three-dimensional coordinates of the reference point object specifying the three-dimensional space of the captured image.

또한, 상기 촬영 영상에 대한 3차원 공간정보를 설정하는 단계는, 상기 획득된 기준점 오브젝트의 3차원 좌표를 기초로 상기 촬영 영상에 대한 3차원 공간 좌표계를 설정하는 단계를 포함할 수 있다. Also, the setting of the 3D spatial information for the captured image may include setting a 3D spatial coordinate system for the captured image based on the obtained 3D coordinates of the reference point object.

또한, 상기 인식된 코드와 매칭되는 3차원 공간모델 정보를 획득하는 단계는, 상기 기준점 오브젝트의 크기(scale)를 획득하는 단계를 더 포함하고, 상기 촬영 영상에 대한 3차원 공간정보를 설정하는 단계는, 상기 기준점 오브젝트의 크기와 상기 기준점 오브젝트를 표시하는 픽셀을 기반으로 상기 기준점 스케일 정보를 획득하는 단계를 포함할 수 있다. In addition, the step of obtaining 3D spatial model information matching the recognized code further includes obtaining a scale of the reference point object, and setting 3D spatial information for the captured image. may include obtaining the reference point scale information based on a size of the reference point object and a pixel displaying the reference point object.

또한, 상기 3차원 공간정보에 따라서 상기 촬영 영상 상에 가상객체를 렌더링하여 생성된 혼합현실(MR) 영상을 디스플레이하는 단계는, 상기 촬영 영상의 3차원 공간에 매칭되는 상기 가상객체의 크기를 상기 기준점 스케일 정보에 따라서 상기 촬영 영상에 증강하는 단계를 포함할 수 있다. In addition, the displaying of a mixed reality (MR) image generated by rendering a virtual object on the captured image according to the three-dimensional spatial information may include determining the size of the virtual object matching the three-dimensional space of the captured image. The method may include augmenting the captured image according to reference point scale information.

또한, 상기 카메라의 위치 및 방위 변화를 트래킹(tracking)하여 상기 3차원 공간정보를 업데이트하는 단계와, 상기 업데이트된 3차원 공간정보에 따라 갱신된 가상객체를 상기 촬영 영상에 렌더링하여 디스플레이하는 단계를 더 포함할 수 있다. In addition, the steps of updating the 3D spatial information by tracking changes in the position and orientation of the camera, and rendering and displaying the updated virtual object on the captured image according to the updated 3D spatial information. may include more.

또한, 상기 카메라의 위치 및 방위 변화를 트래킹(tracking)하여 상기 3차원 공간정보를 업데이트하는 단계는, 관성센서(IMU)의 실시간 센싱 데이터에 기초하여 상기 3차원 공간정보를 업데이트하는 단계와, 상기 업데이트된 3차원 공간정보를 시각적 관성 거리계(VIO, Visual Inertial Odometry) 기술에 기반하여 인식된 기준점 오브젝트의 위치 및 방향을 기초로 상기 업데이트된 3차원 공간정보를 보정하는 단계를 포함할 수 있다. In addition, the step of updating the 3D spatial information by tracking changes in the position and orientation of the camera may include updating the 3D spatial information based on real-time sensing data of an inertial sensor (IMU); The method may include correcting the updated 3D spatial information based on the position and direction of a reference point object recognized based on a visual inertial odometry (VIO) technology.

본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, 사용자의 단말과 연동하여 지하시설물 관련 데이터와 혼합현실(MR, Mixed Reality) 기술을 융합해 지하시설물을 용이하게 관리 및 감독하게 함으로써, 혼합현실 기술에 기반해 상·하수도, 전기, 통신, 가스관, 건물 전기 배선, 냉난방 배관 등의 지하시설물에 대한 실시간 정보를 3차원 시각화하여 사용자에게 제공할 수 있고, 지하 매설물 및 건물 매립물 점검·정비에 특화된 실증 콘텐츠를 제공하는 혼합현실 서비스 인프라를 구축할 수 있는 효과가 있다. The method and system for providing mixed reality related to underground facilities according to an embodiment of the present invention integrates data related to underground facilities and mixed reality (MR, Mixed Reality) technology in conjunction with a user's terminal to facilitate management and supervision of underground facilities Based on mixed reality technology, it is possible to provide users with 3D visualization of real-time information on underground facilities such as water and sewage, electricity, communication, gas pipelines, building electrical wiring, and heating and cooling piping, and to provide users with underground facilities and landfills. It has the effect of building a mixed reality service infrastructure that provides demonstration contents specialized for inspection and maintenance.

또한, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, 사용자의 단말과 실시간으로 상호작용하여 사용자 단말의 위치 및/또는 방위(자세)의 변화에 따라서 실시간 업데이트된 지하시설물 정보를 혼합현실을 이용해 제공함으로써, 사용자가 지하시설물 정보를 확인하고자 하는 공간에 매칭되는 지하시설물 정보를 정확하고 편리하게 제공할 수 있는 효과가 있다. In addition, the method and system for providing a mixed reality related to an underground facility according to an embodiment of the present invention interact with the user's terminal in real time to update the underground facility information in real time according to a change in the location and/or orientation (attitude) of the user terminal by using mixed reality, there is an effect that it is possible to accurately and conveniently provide information on underground facilities that matches the space in which the user wants to check information on underground facilities.

또한, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, DGPS(Differential Global Positioning System, 고정밀 GPS)를 활용하여 3차원 공간과 지하시설물을 매칭해 정합함으로써, 보다 향상된 정확도를 가지는 지하시설물 정보를 제공할 수 있는 효과가 있다. In addition, the method and system for providing mixed reality related to underground facilities according to an embodiment of the present invention utilizes DGPS (Differential Global Positioning System, high-precision GPS) to match and match a three-dimensional space with an underground facility, thereby having improved accuracy. It has the effect of providing information on underground facilities.

또한, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, 지하시설물 정보를 제공하기 위한 이미지 인식·추적·학습 기술 및 3차원 공간인식·카메라 추적 기술을 구현함으로써, 퀄리티 높은 지하시설물 정보를 제공할 수 있고, 이를 통해 지하시설물 조사, 분석, 설계, 교육 예방, 감리 업무 등의 효율성을 극대화할 수 있는 효과가 있다. In addition, the method and system for providing underground facility-related mixed reality according to an embodiment of the present invention implements image recognition/tracking/learning technology and 3D spatial recognition/camera tracking technology for providing information on underground facilities, thereby providing high quality underground It is possible to provide facility information, which has the effect of maximizing the efficiency of underground facility investigation, analysis, design, prevention of education, and supervision.

또한, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, 단말의 카메라 및/또는 관성센서(IMU, Inertial Measurement Unit)를 활용해 사용자 단말의 위치 및/또는 방위(자세)의 변화에 따른 지하시설물 정보를 제공함으로써, 별도의 위치추적 장치가 없어도 자체적인 알고리즘 및 프로세스를 통해 사용자 단말의 상태변화에 따른 지하시설물 정보를 제공할 수 있는 효과가 있다. In addition, the method and system for providing mixed reality related to underground facilities according to an embodiment of the present invention utilizes a camera and/or an inertial sensor (IMU, Inertial Measurement Unit) of the terminal to determine the position and/or orientation (posture) of the user terminal. By providing information on underground facilities according to changes, there is an effect that it is possible to provide information on underground facilities according to changes in the state of the user terminal through its own algorithm and process without a separate location tracking device.

또한, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, 국가공간정보 플랫폼(V-WORLD)에서 제공하는 3D 공간정보에 기반하여 지하에 매설된 지하시설물을 전자지도 도면 상에 맵핑함으로써, 수치지형을 포함하여 보다 사실적이고 정확한 지하시설물의 형상을 제공할 수 있고, 기존 인프라 및 신규 소프트웨어(S/W)의 호환 및 성능을 보장할 수 있는 효과가 있다. In addition, the method and system for providing mixed reality related to underground facilities according to an embodiment of the present invention is based on the 3D spatial information provided by the national spatial information platform (V-WORLD), the underground facilities buried underground on the electronic map drawing. By mapping, it is possible to provide a more realistic and accurate shape of underground facilities including numerical topography, and to ensure compatibility and performance of existing infrastructure and new software (S/W).

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 명확하게 이해될 수 있다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood from the description below.

도 1은 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템의 개념도이다.
도 2는 본 발명의 실시예에 따른 단말의 내부 블록도이다.
도 3은 본 발명의 실시예에 따른 지하시설물 콘텐츠 제공서버의 내부 블록도이다.
도 4는 본 발명의 실시예에 따른 지하시설물 데이터 베이스를 구축하는 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시예에 따른 GPS 비연동 기반의 지하시설물 관련 혼합현실 제공방법을 설명하기 위한 개념도이다.
도 6은 본 발명의 실시예에 따른 GPS 비연동 기반의 지하시설물 관련 혼합현실 제공방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 실시예에 따른 기준점의 일례이며, 기준점으로부터 유효 영역을 자동 추출하는 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 Intersection Of Union(IOU)을 통하여 유효한 타원영역을 선택하는 예시도이다.
도 9는 본 발명의 실시예에 따른 타원형의 기준점을 정원(正圓)형의 기준점으로 변환하기 위하여 호모그래피(Homography) 변환을 진행하는 과정을 설명하기 위한 도면이다.
도 10은 본 발명의 실시예에 따른 기준점의 3차원 공간모델 정보를 나타내는 일례이다.
도 11은 본 발명의 실시예에 따른 렌더링된 가상객체가 촬영 영상 상에 디스플레이된 모습을 나타내는 일례이다.
도 12는 본 발명의 다른 실시예에 따른 GPS 연동 기반의 지하시설물 관련 혼합현실 제공방법을 설명하기 위한 흐름도이다.
도 13은 본 발명의 다른 실시예에 따른 DGPS(고정밀 GPS)를 기반으로 3차원 공간정보를 획득하는 모습의 일례이다.
도 14는 본 발명의 다른 실시예에 따른 VIO(Visual Inertial Odometry) 기술을 기반으로 복수의 기준점에 기초하여 단말의 이동에 따른 위치 및 방위변화를 트래킹(tracking)하는 모습의 일례이다.
1 is a conceptual diagram of a method and system for providing a mixed reality related to an underground facility according to an embodiment of the present invention.
2 is an internal block diagram of a terminal according to an embodiment of the present invention.
3 is an internal block diagram of an underground facility content providing server according to an embodiment of the present invention.
4 is a flowchart illustrating a method of constructing an underground facility database according to an embodiment of the present invention.
5 is a conceptual diagram for explaining a method for providing a mixed reality related to an underground facility based on GPS non-interworking according to an embodiment of the present invention.
6 is a flowchart illustrating a method for providing a mixed reality related to an underground facility based on GPS non-interworking according to an embodiment of the present invention.
7 is an example of a reference point according to an embodiment of the present invention, and is a diagram for explaining a method of automatically extracting an effective area from the reference point.
8 is an exemplary diagram for selecting an effective elliptical region through an Intersection Of Union (IOU) according to an embodiment of the present invention.
9 is a view for explaining a process of performing homography transformation in order to convert an elliptical reference point into a circular reference point according to an embodiment of the present invention.
10 is an example showing 3D spatial model information of a reference point according to an embodiment of the present invention.
11 is an example illustrating a state in which a rendered virtual object is displayed on a captured image according to an embodiment of the present invention.
12 is a flowchart for explaining a method for providing a mixed reality related to an underground facility based on GPS linkage according to another embodiment of the present invention.
13 is an example of obtaining 3D spatial information based on DGPS (High Precision GPS) according to another embodiment of the present invention.
14 is an example of tracking a position and orientation change according to the movement of a terminal based on a plurality of reference points based on a VIO (Visual Inertial Odometry) technology according to another embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and a method of achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first, second, etc. are used for the purpose of distinguishing one component from another, not in a limiting sense. Also, the singular expression includes the plural expression unless the context clearly dictates otherwise. In addition, terms such as include or have means that the features or components described in the specification are present, and do not preclude the possibility that one or more other features or components will be added. In addition, in the drawings, the size of the components may be exaggerated or reduced for convenience of description. For example, since the size and thickness of each component shown in the drawings are arbitrarily indicated for convenience of description, the present invention is not necessarily limited to the illustrated bar.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when described with reference to the drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted. .

도 1은 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템의 개념도이다. 1 is a conceptual diagram of a method and system for providing a mixed reality related to an underground facility according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, 단말(100) 및 지하시설물 콘텐츠 제공서버(200, 이하, 콘텐츠 제공서버)를 포함할 수 있다. Referring to FIG. 1 , a method and system for providing a mixed reality related to an underground facility according to an embodiment of the present invention may include a terminal 100 and an underground facility content providing server 200 (hereinafter referred to as a content providing server).

여기서, 도 1의 각 구성요소는, 네트워크(Network)를 통해 연결될 수 있다. 네트워크는 단말(100) 및 콘텐츠 제공서버(200) 등과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다. Here, each component of FIG. 1 may be connected through a network. The network means a connection structure in which information can be exchanged between each node, such as the terminal 100 and the content providing server 200, and an example of such a network is a 3rd Generation Partnership Project (3GPP) network, a Long Term (LTE) network, and the like. Evolution) network, WIMAX (World Interoperability for Microwave Access) network, Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (Bluetooth) network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, and the like are included, but are not limited thereto.

- 단말 - terminal

먼저, 본 발명의 실시예에서 단말(100)은, 각 지역의 지하시설물이 매설된 현장에서 작업을 수행하는 사용자가 소지하는 휴대용 컴퓨팅 장치로서, 지하시설물 관련 혼합현실 제공 서비스를 수행하기 위한 프로그램이 설치된 휴대용 단말인 스마트 폰, 디지털방송용 단말기, 휴대폰, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC(tablet PC), 웨어러블 디바이스(wearable device) 및 스마트 글라스(smart glass) 등을 포함할 수 있다. 여기서, 지하시설물은, 상수도, 하수도, 전기, 통신, 가스, 송유 및 난방 등을 위하여 지하에 매설되는 설비를 의미할 수 있다. First, in an embodiment of the present invention, the terminal 100 is a portable computing device possessed by a user who performs work at a site where underground facilities in each area are buried, and a program for performing mixed reality service related to underground facilities is provided. Installed portable terminals such as smart phones, digital broadcasting terminals, mobile phones, personal digital assistants (PDA), portable multimedia players (PMPs), navigation devices, tablet PCs, wearable devices, and smart glasses. may include. Here, the underground facility may mean a facility buried underground for water supply, sewage, electricity, communication, gas, oil transmission, heating, and the like.

이러한 단말(100)은, 본 발명의 실시예에서 특정 공간을 촬영한 영상에 포함되는 기준점(10)에 매칭된 코드를 기반으로 지하시설물과 관련된 각종 정보를 포함하는 지하시설물 정보를 제공할 수 있다.The terminal 100 may provide information on underground facilities including various information related to underground facilities based on a code matched to a reference point 10 included in an image captured in a specific space in an embodiment of the present invention. .

예를 들어, 기준점(10)은, 지하시설물과 연계되면서 지상에 노출된 표지못, 매설핀, 표지주, 표시핀, 맨홀 및 표시못 중 적어도 하나를 포함할 수 있으며, 이러한 기준점(10)에는 기준점(10)이 나타내는 역할이 제 1 코드로 표시되어 있을 수 있으며, 예를 들어, 상수도, 하수도, 오수관, 가로등선로, 지중송전선로 또는 통신선로 등을 나타내는 제 1 코드가 금속재인 표지못에 음각 또는 양각으로 표시될 수 있다. For example, the reference point 10 may include at least one of a mark peg, a burial pin, a mark pole, a mark pin, a manhole, and a mark peg exposed to the ground while being linked with an underground facility. The role indicated by the reference point 10 may be marked with a first code, and for example, a first code indicating a water supply, sewerage, sewage pipe, street light line, underground transmission line or communication line is engraved on a metal sign nail. or embossed.

또한, 기준점(10)에는 기준점(10)이 설치된 지역을 나타내는 제 2 코드가 표시될 수 있으며, 예를 들어, 지역명, 주소명 또는 도로주소명을 나타내는 제 2 코드가 금속재인 표지못에 음각 또는 양각으로 표시될 수 있다. In addition, the reference point 10 may display a second code indicating the area where the reference point 10 is installed, for example, the second code indicating the area name, address name or road address name is engraved on a metal sign nail. or embossed.

또한, 기준점(10)에는 기준점(10)과 연결된 배관의 관경이나 배관방향을 나타내는 제 3 코드가 표시될 수 있으며, 예를 들어, 관경수치 또는 배관방향을 나타내는 화살표가 금속재인 표지못에 음각 또는 양각으로 표시될 수 있다. In addition, a third code indicating the pipe diameter or pipe direction of the pipe connected to the reference point 10 may be displayed at the reference point 10, for example, an arrow indicating the pipe diameter value or the pipe direction is engraved or Can be embossed.

이러한 기준점(10)은, 카메라를 통하여 촬영된 촬영 영상의 3차원 공간을 인식하기 위한 기준지표의 역할을 수행하며, 기준점(10) 및 해당 기준점(10)과 매칭되는 지하시설물에 대한 정보를 획득할 수 있는 상기 코드(code)들을 포함하는 표식일 수 있다. The reference point 10 serves as a reference index for recognizing the three-dimensional space of the captured image captured through the camera, and information about the reference point 10 and the underground facility matching the reference point 10 is obtained. It may be a mark containing the above codes (codes) that can.

또한, 여기서 지하시설물 정보는, 지하시설물의 3차원 모델링 영상(가상객체), 절대위치 정보, 종류 정보, 크기 정보, 방위 정보, 지하분석 정보(매질의 종류, 매질의 깊이 등), 준공 정보(준공도면, 준공위치, 준공날짜 등), 관리 정보(관리이력 등) 및/또는 지하시설물 전자도면(가상객체 집합) 정보 중 적어도 하나 이상을 포함하는 정보일 수 있다. In addition, the underground facility information here includes three-dimensional modeling images (virtual objects) of underground facilities, absolute location information, type information, size information, orientation information, underground analysis information (type of medium, depth of medium, etc.), completion information ( It may be information including at least one of completion drawings, completion location, completion date, etc.), management information (management history, etc.) and/or electronic drawings of underground facilities (virtual object set) information.

단말(100)은, 이러한 지하시설물 정보를 혼합현실(MR, Mixed Reality) 기술을 기반으로 3차원 시각화하여 제공할 수 있다. 실시예에서, 단말(100)은, 혼합현실 기술에 기초하여 카메라를 통해 촬영한 촬영 영상 상에 지하시설물 정보를 3차원 영상으로 출력해 제공할 수 있다. The terminal 100 may provide such information on underground facilities by 3D visualization based on mixed reality (MR) technology. In an embodiment, the terminal 100 may output and provide information about underground facilities as a 3D image on a captured image captured by a camera based on a mixed reality technology.

자세히, 본 발명의 실시예에 따른 단말(100)은, 지하시설물 정보를 3차원 영상으로 제공함에 있어서, 단말(100)에 탑재된 카메라에 의해 현재 위치에서 촬영 중인 배경영상(즉, 실재객체의 집합)에 지하시설물 정보(예컨대, 3차원 모델링 영상으로 구현되는 가상객체)를 중첩시켜 혼합현실 영상으로 제공할 수 있다. In detail, in the terminal 100 according to an embodiment of the present invention, in providing the underground facility information as a three-dimensional image, a background image (ie, of a real object) being photographed at a current location by a camera mounted on the terminal 100 . A mixed reality image may be provided by superimposing underground facility information (eg, a virtual object implemented as a 3D modeling image) on the set).

이때, 실시예에 따른 가상객체는, 배경영상의 3차원 공간 상에 보이지 않고 해당 3차원 공간에 매칭되어 데이터베이스 상에 저장되어 있는 가상의 오브젝트를 의미할 수 있다. 예를 들어 가상객체는, 해당 3차원 공간의 지하에 배치되어 보이지 않는 지하시설물의 3차원 모델링 영상일 수 있다. 여기서, 3차원 모델링(3D modeling) 영상은, 지하시설물의 형상을 가상의 3차원 공간 속에 재현될 수 있는 수학적 모델로 만들어 낸 영상일 수 있으며, 즉 3차원 모델링 영상은, 지하시설물의 형상을 3차원 공간에서 확인할 수 있도록 생성된 컴퓨터가 이해할 수 있는 형태의 데이터일 수 있다. In this case, the virtual object according to the embodiment may refer to a virtual object that is stored in a database by matching the corresponding three-dimensional space without being seen in the three-dimensional space of the background image. For example, the virtual object may be a three-dimensional modeling image of an underground facility that is invisible as it is disposed underground in a corresponding three-dimensional space. Here, the 3D modeling image may be an image created by a mathematical model that can reproduce the shape of an underground facility in a virtual three-dimensional space, that is, the 3D modeling image is an image of the shape of the underground facility. It may be data in a form that a computer can understand, which is generated so that it can be checked in a dimensional space.

또한, 실시예에 따른 실재객체는, 배경영상의 3차원 공간 상에 실제로 보이는 오브젝트(object)를 의미할 수 있으며, 예를 들면 해당 3차원 공간 상에 존재하는 표지못, 맨홀 등을 포함하는 기준점(10) 등을 포함할 수 있다. In addition, the real object according to the embodiment may mean an object that is actually seen on the 3D space of the background image, for example, a reference point including a sign nail, a manhole, etc. existing in the 3D space. (10) and the like.

그리고 단말(100)은, 현실의 물리적 객체인 실재객체와, 지하시설물 정보에 기반하여 생성된 가상의 객체인 가상객체가 상호 작용할 수 있는 혼합 현실 영상으로 지하시설물에 관련된 정보를 표시할 수 있다. In addition, the terminal 100 may display information related to an underground facility as a mixed reality image in which a real object that is a real physical object and a virtual object that is a virtual object generated based on information on the underground facility can interact.

예를 들어, 지하시설물이 관로인 경우 단말(100)은, 현재 위치의 지하공간에 구비된 관로에 대한 정보를 3차원 관망도 또는 증강 현실 뷰 형태로 표시할 수 있다. 즉, 사용자는, 자신의 위치를 기준으로 매설된 지하시설물 정보를 단말(100)을 통해 제공받을 수 있고, 카메라의 촬영 방향에 따라 시점이 변화되는 3D 모델링 영상을 제공받을 수 있다. For example, when the underground facility is a pipeline, the terminal 100 may display information on a pipeline provided in the underground space of the current location in the form of a three-dimensional network map or augmented reality view. That is, the user may be provided with information on the underground facilities buried based on his/her location through the terminal 100 , and may receive a 3D modeling image whose viewpoint is changed according to the shooting direction of the camera.

예컨대, 단말(100)이 지면을 촬영하면, 단말(100)의 현재위치를 고려하여 사용자가 현재 비추고 있는 지면에 매칭되는 지하시설물의 지하시설물 정보를 디스플레이를 통해 표시할 수 있다. 또한, 단말(100)은, 사용자가 단말(100) 상에 표시되는 전자지도의 특정 좌표를 선택하면, 해당 좌표를 기준으로 가상의 지하공간을 표시하고 해당 지하공간 내에 위치하는 지하시설물에 대한 정보를 표시할 수도 있다. For example, when the terminal 100 photographs the ground, information on the underground facilities of the underground facilities matching the ground currently illuminated by the user in consideration of the current location of the terminal 100 may be displayed on the display. In addition, when the user selects specific coordinates of the electronic map displayed on the terminal 100, the terminal 100 displays a virtual underground space based on the coordinates and information on underground facilities located in the corresponding underground space. may also be displayed.

또한, 단말(100)은, 현장의 지하시설물에 대한 코드(표식)를 인식하여 식별정보를 획득해 정보통신망을 통하여 콘텐츠 제공서버(200)로 송신할 수 있고, 해당 식별정보에 매칭되는 3차원 공간모델 정보를 수신하여 활용할 수 있다. In addition, the terminal 100 can obtain identification information by recognizing a code (mark) for an underground facility on the site and transmit it to the content providing server 200 through the information and communication network, and three-dimensional matching the identification information The spatial model information can be received and used.

여기서, 3차원 공간모델 정보는, 각 기준점(10)과 매칭되어 메모리 및/또는 데이터베이스 상에 저장된 정보로서, 3차원 공간을 특정하는 기준점(10)의 3차원 좌표(즉, 절대위치), 기준점(10)의 크기(scale) 및/또는 기준점(10)과 매칭되는 지하시설물 정보 등을 포함할 수 있다. Here, the three-dimensional space model information is information stored in a memory and/or database by matching with each reference point 10, and three-dimensional coordinates (ie, absolute position) of the reference point 10 specifying a three-dimensional space, a reference point It may include information on underground facilities matching the scale and/or reference point 10 of (10).

일 실시예에 따른 단말(100)은, 코드를 촬영해 식별정보를 획득하고 이를 콘텐츠 관리서버에 송신할 수 있다. 이때, 콘텐츠 관리서버는, 수신된 식별정보에 매칭되는 3차원 공간모델 정보를 데이터베이스로부터 독출(reading)하여 단말(100)에 제공할 수 있고, 이를 통해 단말(100)이 지하시설물 정보를 획득하여 활용하게 할 수 있다. The terminal 100 according to an embodiment may capture the code to obtain identification information and transmit it to the content management server. At this time, the content management server may provide the terminal 100 by reading the three-dimensional space model information matching the received identification information from the database, through which the terminal 100 acquires information about underground facilities and can make use of it.

여기서, 전술한 기능을 구현하기 위해 단말(100)은, 네트워크를 통해 콘텐츠 관리서버와 연동하고, 수신된 정보를 표시 및 3D 모델링 영상을 재생하는 어플리케이션 프로그램이 기록된 기록매체를 탑재할 수 있다. Here, in order to implement the above-described function, the terminal 100 may be loaded with a recording medium in which an application program for interworking with a content management server through a network, displaying the received information and reproducing a 3D modeling image is recorded.

이상에서는, 단말(100)이 지하시설물에 매칭되어 있는 기준점(10)의 코드를 인식하여 식별정보를 획득하고, 획득된 식별정보를 콘텐츠 제공서버(200)로 송신하여 3차원 공간모델 정보를 수신하며, 이를 기반으로 지하시설물 정보를 획득한다고 설명하였으나, 지하시설물 정보를 획득하기 위한 콘텐츠 제공서버(200)의 일련의 동작을 단말(100)에서 자체적으로 수행할 수 있는 등 다양한 실시예 또한 가능할 것이다. In the above, the terminal 100 obtains identification information by recognizing the code of the reference point 10 matched with the underground facility, and transmits the obtained identification information to the content providing server 200 to receive 3D spatial model information Although it has been described that the underground facility information is acquired based on this, various embodiments are also possible, such as the terminal 100 being able to perform a series of operations of the content providing server 200 for acquiring the underground facility information by itself. .

또한, 실시예에서 단말(100)은, 단말(100)의 위치 및/또는 방위(자세)의 변화에 따라서 실시간으로 업데이트된 지하시설물 정보를 획득할 수 있고, 획득된 정보를 기반으로 사용자의 단말(100) 상태(즉, 단말(100)의 위치 및/또는 방위)에 최적화된 지하시설물 정보를 혼합현실을 통해 사용자에게 제공할 수 있다. In addition, in the embodiment, the terminal 100 may acquire updated underground facility information in real time according to a change in the position and/or orientation (attitude) of the terminal 100, and based on the obtained information, the user's terminal Underground facility information optimized for the (100) state (ie, the location and/or orientation of the terminal 100) may be provided to the user through the mixed reality.

이와 같이, 전술한 구조에 따라서 본 발명의 실시예에 따른 단말(100)은, 사용자에게 특정 공간에 매칭되는 지하시설물 정보를 사용자의 단말(100) 상태에 따른 3차원 영상으로 제공함으로써, 사용자가 지하시설물의 매설 상태를 용이하게 확인하도록 할 수 있다. In this way, according to the above-described structure, the terminal 100 according to an embodiment of the present invention provides the user with information on underground facilities matching a specific space as a three-dimensional image according to the user's terminal 100 state, so that the user It is possible to easily check the buried state of underground facilities.

이하, 도면을 참조하여 본 발명의 실시예에 따른 단말(100)의 구조를 상세히 설명하고자 한다. 도 2는 본 발명의 실시예에 따른 단말(100)의 내부 블록도이다. Hereinafter, the structure of the terminal 100 according to an embodiment of the present invention will be described in detail with reference to the drawings. 2 is an internal block diagram of the terminal 100 according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에서 단말(100)은, 통신부(110), 디스플레이부(120), 인터페이스부(130), 관성센서(IMU, Inertial Measurement Unit, 140), 카메라(150), 메모리(160) 및 프로세서(170)를 포함할 수 있다. Referring to FIG. 2 , in an embodiment of the present invention, the terminal 100 includes a communication unit 110 , a display unit 120 , an interface unit 130 , an inertial sensor (IMU, Inertial Measurement Unit, 140 ), and a camera 150 . ), a memory 160 , and a processor 170 .

먼저, 통신부(110)는, 지하시설물 관련 혼합현실 제공 서비스를 제공하기 위한 각종 데이터 및/또는 정보 등을 송수신할 수 있다. First, the communication unit 110 may transmit and receive various data and/or information for providing a mixed reality service related to an underground facility.

실시예에서, 통신부(110)는, 정보 통신망에 접속해 콘텐츠 제공서버(200)와 통신하여 지하시설물 관련 혼합현실 제공 서비스와 관련된 데이터(예컨대, 지하시설물 정보 등)를 송수신할 수 있다. In an embodiment, the communication unit 110 may connect to an information communication network and communicate with the content providing server 200 to transmit/receive data (eg, underground facility information, etc.) related to an underground facility-related mixed reality service.

이러한 통신부(110)는, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말(100), 임의의 서버 중 적어도 하나와 무선 신호를 송수신할 수 있다.This communication unit 110, the technical standards or communication methods for mobile communication (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), High Speed Downlink Packet Access (HSDPA), HSUPA ( High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc.) Signals can be sent and received.

다음으로, 디스플레이부(120)는, 지하시설물 관련 혼합현실 제공 서비스와 관련된 다양한 정보를 그래픽 이미지로 출력할 수 있다. Next, the display unit 120 may output various information related to the mixed reality service related to the underground facility as a graphic image.

실시예에서 디스플레이부(120)는, 단말(100)의 프로세서(170)가 구성하는 혼합현실 영상을 그래픽 유저 인터페이스(GUI)를 포함하여 표시할 수 있다. In an embodiment, the display unit 120 may display a mixed reality image configured by the processor 170 of the terminal 100 including a graphic user interface (GUI).

이러한 디스플레이부(120)는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다. The display unit 120 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. (a flexible display), a three-dimensional display (3D display), and may include at least one of an e-ink display (e-ink display).

다음으로, 인터페이스부(130)는, 지하시설물 관련 혼합현실 제공 서비스와 관련된 사용자의 조작을 입력받을 수 있다. Next, the interface unit 130 may receive an input of a user's operation related to the underground facility-related mixed reality providing service.

이러한 인터페이스부(130)는, 단말(100)에 구비되는 키 버튼(key button)뿐만 아니라 디스플레이부(120)와 일체형으로 구성되어 화면 상에 표시되는 가상의 버튼을 클릭하는 터치 스크린(touch screen)의 형태로 구현될 수 있다.The interface unit 130 is configured integrally with the display unit 120 as well as a key button provided in the terminal 100 and is a touch screen that clicks a virtual button displayed on the screen. can be implemented in the form of

다음으로, 관성센서(IMU, 140)는, 가속도 센서 및/또는 자이로 센서 등을 포함하여 구현될 수 있으며, 단말(100)의 위치 및/또는 방위의 변화를 측정할 수 있다. Next, the inertial sensor IMU 140 may be implemented including an acceleration sensor and/or a gyro sensor, and may measure a change in the position and/or orientation of the terminal 100 .

실시예에서, 관성센서(IMU, 140)는, 단말(100)이 혼합현실 영상을 표시할 때 현재 방위각 데이터를 프로세서(170)에 전달하여 해당 시점에 대응하는 3차원 모델링 영상(가상객체)이 출력되게 할 수 있다. In an embodiment, the inertial sensor (IMU, 140) transmits the current azimuth data to the processor 170 when the terminal 100 displays the mixed reality image so that a three-dimensional modeling image (virtual object) corresponding to the corresponding viewpoint is generated. can be output.

다음으로, 카메라(150)는, 단말(100)의 전면부 및/또는 후면부에 배치되어 배치된 방향측을 촬영해 영상을 획득할 수 있다. Next, the camera 150 may be disposed on the front and/or rear of the terminal 100 to acquire an image by photographing the disposed direction side.

실시예에서 카메라(150)는, 사용자가 지하시설물 정보를 획득하고자 하는 공간(영역) 및/또는 지하시설물에 매칭된 기준점(10)의 코드 등을 촬영할 수 있다. In an embodiment, the camera 150 may photograph a space (area) in which the user desires to obtain information on the underground facility and/or the code of the reference point 10 matched with the underground facility.

특히, 실시예에 따른 카메라(150)는, 단말(100)이 위치한 영역의 주변공간에 대한 촬영 영상을 기반으로 혼합현실 영상을 표시할 때, 촬영 영상에 지하시설물 정보가 중첩되어 표시되게 할 수 있다. In particular, when the camera 150 according to the embodiment displays the mixed reality image based on the captured image for the surrounding space of the area where the terminal 100 is located, the underground facility information is superimposed on the captured image. have.

다음으로, 메모리(160)는, 지하시설물 관련 혼합현실 제공 서비스를 제공하기 위한 운영체제(OS), 각종 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상을 저장할 수 있다. Next, the memory 160 may store any one or more of an operating system (OS), various application programs, data, and commands for providing a mixed reality service related to an underground facility.

이러한 메모리(160)는, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)일 수도 있다. 또한, 메모리(160)는, 단말(100) 내 탈착 가능한 형태의 기록매체일 수 있다.The memory 160 may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc., and may be a web storage that performs a storage function of the memory 160 on the Internet. may be In addition, the memory 160 may be a recording medium in a removable form in the terminal 100 .

다음으로, 프로세서(170)는, 지하시설물 관련 혼합현실 제공 서비스를 구현하기 위하여 전술한 각 구성요소의 전반적인 동작을 컨트롤할 수 있다. Next, the processor 170 may control the overall operation of each of the above-described components in order to implement the underground facility-related mixed reality providing service.

즉, 프로세서(170)는, 중앙처리장치(CPU) 및 그래픽처리장치(GPU) 등이 포함된 휴대용 단말(100)에 적합한 시스템 온 칩(SOC)일 수 있으며, 메모리(160)에 저장된 운영체제(OS) 및 어플리케이션 프로그램 등을 실행할 수 있고, 단말(100)에 탑재된 각 구성요소들을 제어할 수 있다. That is, the processor 170 may be a system-on-chip (SOC) suitable for the portable terminal 100 including a central processing unit (CPU) and a graphic processing unit (GPU), and an operating system (SOC) stored in the memory 160 . OS) and application programs, and can control each component mounted on the terminal 100 .

이러한 프로세서(170)는, 각 구성요소와 내부적으로 시스템 버스(System Bus)에 의해 통신을 수행할 수 있고, 로컬 버스(Local Bus)를 비롯한 소정의 버스 구조들을 하나 이상 포함할 수 있다. The processor 170 may communicate with each component internally by a system bus, and may include one or more predetermined bus structures including a local bus.

또한, 이러한 프로세서(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.In addition, these processors 170, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), controllers (controllers) ), micro-controllers, microprocessors, and other electrical units for performing other functions.

- 지하시설물 콘텐츠 제공서버 - Server for providing content for underground facilities

한편, 본 발명의 실시예에서 콘텐츠 제공서버(200)는, 복수의 지하시설물과 관련되는 공간정보에 기반하여 지하시설물 데이터 베이스 상에 생성되는 각종 정보를 제공할 수 있다. Meanwhile, in an embodiment of the present invention, the content providing server 200 may provide various types of information generated on the underground facility database based on spatial information related to a plurality of underground facilities.

자세히, 콘텐츠 제공서버(200)는, 국가공간정보 플랫폼(V-WORLD) 및/또는 단말(100)로부터 획득되는 지하시설물 관련 공간정보에 기반하여 지하시설물과 관련된 각종 정보를 데이터 베이스화하여 저장 및 관리할 수 있고, 저장된 정보를 단말(100)로 송신하여 사용자에게 제공할 수 있다. 이에 대한 자세한 설명은 후술하기로 한다. In detail, the content providing server 200 stores and manages various information related to underground facilities as a database based on the spatial information related to underground facilities obtained from the national spatial information platform (V-WORLD) and/or the terminal 100 . and transmit the stored information to the terminal 100 to provide it to the user. A detailed description thereof will be provided later.

여기서, 전술된 지하시설물 관련 공간정보는, 국토 교통부에서 운영하는 국가공간정보 포털 또는 부서에서 제공하는 컴퓨터 파일일 수도 있고, 단말(100)의 카메라(150)를 통해 획득되는 영상에 기반한 컴퓨터 파일일 수도 있다. Here, the above-described spatial information related to underground facilities may be a computer file provided by a national spatial information portal or a department operated by the Ministry of Land, Infrastructure and Transport, or a computer file based on an image obtained through the camera 150 of the terminal 100. may be

도 3은 본 발명의 실시예에 따른 지하시설물 콘텐츠 제공서버(200)의 내부 블록도이다. 자세히, 도 3을 참조하면 본 발명의 실시예에서 콘텐츠 제공서버(200)는, 데이터 수신부(210), 데이터 송신부(220), 데이터 처리부(230) 및 데이터베이스(240)를 포함할 수 있다. 3 is an internal block diagram of the underground facility content providing server 200 according to an embodiment of the present invention. In detail, referring to FIG. 3 , the content providing server 200 in the embodiment of the present invention may include a data receiving unit 210 , a data transmitting unit 220 , a data processing unit 230 , and a database 240 .

먼저, 데이터 수신부(210) 및 데이터 송신부(220)는, 단말(100) 및/또는 외부 서버와 지하시설물 관련 혼합현실 제공 서비스를 수행하기 위한 각종 데이터를 네트워크를 통해 주고받을 수 있다. First, the data receiving unit 210 and the data transmitting unit 220 may exchange various data for performing mixed reality service related to the underground facility with the terminal 100 and/or an external server through a network.

다음으로, 데이터 처리부(230)는, 지하시설물 관련 혼합현실 제공 서비스를 수행하기 위한 일련의 데이터 처리를 수행할 수 있다. Next, the data processing unit 230 may perform a series of data processing for performing a mixed reality service related to an underground facility.

이때, 데이터 처리부(230)는, DB(데이터 베이스) 구축부(231), 3차원 공간 감지부(232) 및 정보 배치부(233)를 포함할 수 있다. In this case, the data processing unit 230 may include a DB (database) building unit 231 , a three-dimensional space sensing unit 232 , and an information arrangement unit 233 .

자세히, 먼저 DB 구축부(231)는, 지하시설물 정보를 기반으로 지하시설물 데이터 베이스를 구축하기 위한 정보를 생성할 수 있고, 생성된 정보를 데이터 베이스화하여 데이터베이스(240) 상에 저장시킬 수 있다. In detail, first, the DB building unit 231 may generate information for building an underground facility database based on the underground facility information, and may store the generated information into a database and store it on the database 240 .

자세히, DB 구축부(231)는, 정보통신망을 통해 전송 또는 기록매체에 저장된 지하시설물 관련 공간정보를 입력받는 정보 입력부와, 복수의 지하시설물에 대응하는 3차원 모델링 오브젝트(가상객체)를 생성하는 3차원 렌더링부와, 공간정보에 의해 정의되는 3차원 가상공간 내에 3차원 모델링 오브젝트를 맵핑하는 공간정보 맵핑부 및 지하시설물에 매칭되는 기준점(10)에 관련된 정보를 관리하는 기준점(10) 제공부를 포함할 수 있다. In detail, the DB construction unit 231 includes an information input unit that receives spatial information related to underground facilities transmitted through an information communication network or stored in a recording medium, and a three-dimensional modeling object (virtual object) corresponding to a plurality of underground facilities. A 3D rendering unit, a spatial information mapping unit that maps a 3D modeling object in a 3D virtual space defined by spatial information, and a reference point 10 providing unit that manages information related to a reference point 10 matching an underground facility may include

이때, 전술된 기준점(10) 제공부는, 각 기준점(10)에 대한 3차원 좌표(절대위치), 기준점(10)의 크기(scale) 및 기준점(10)과 매칭되는 지하시설물 정보 등을 포함할 수 있으며, 이를 기반으로 3차원 공간모델 정보를 생성하여 제공할 수 있다. At this time, the above-described reference point 10 providing unit, the three-dimensional coordinates (absolute position) for each reference point 10, the size (scale) of the reference point 10, and the reference point 10 and matching underground facility information, etc. It is possible to generate and provide 3D spatial model information based on this.

또한, 3차원 공간 감지부(232)는, 단말(100)로부터 획득된 촬영 영상과 데이터베이스(240)에 기저장된 지하시설물 관련 공간정보를 기반으로 해당 촬영 영상에 매칭되는 3차원 공간을 판단할 수 있다. In addition, the 3D space sensing unit 232 may determine a 3D space matching the captured image based on the captured image obtained from the terminal 100 and the spatial information related to the underground facility stored in advance in the database 240 . have.

그리고 3차원 공간 감지부(232)는, 3차원 공간에 매칭되는 가상객체를 데이터베이스(240)로부터 독출할 수 있고, 이를 기반으로 해당 3차원 공간에 대응되는 장면 명세정보 생성할 수 있다. In addition, the 3D space sensing unit 232 may read a virtual object matching the 3D space from the database 240 and generate scene specification information corresponding to the 3D space based on this.

여기서, 장면 명세정보는, 단말(100)의 카메라(150)에 의해 촬영된 3차원 공간에 매칭되는 가상객체를 검출하고, 검출된 가상객체와 해당 3차원 공간의 정합을 보조하는 정보로서, 이에 대한 자세한 설명은 후술하기로 한다. Here, the scene specification information is information that detects a virtual object matching the three-dimensional space photographed by the camera 150 of the terminal 100, and assists in matching the detected virtual object with the corresponding three-dimensional space. A detailed description will be given later.

또한, 정보 배치부(233)는, 3차원 공간 감지부(232)를 통해 생성되는 장면 명세정보와 지하시설물 정보 등을 기반으로, 해당 3차원 공간 상의 적합한 위치에 각 가상객체가 배치되도록 렌더링(rendering)을 수행할 수 있다. In addition, the information arrangement unit 233 renders each virtual object to be placed at an appropriate location in the 3D space based on the scene specification information and underground facility information generated through the 3D space sensing unit 232 . rendering) can be performed.

또한, 위와 같은 구성유닛을 포함하는 데이터 처리부(230)는, 본 발명의 실시예에서 단말(100)의 움직임 변화에 따른 실시간 위치 및/또는 방위의 변화에 따라서 장면 명세정보 및 렌더링되는 가상객체를 실시간으로 업데이트(update)할 수 있다. In addition, the data processing unit 230 including the above configuration unit, according to the change of the real-time position and / or orientation according to the change in the movement of the terminal 100 in the embodiment of the present invention, scene specification information and the rendered virtual object It can be updated in real time.

이러한 데이터 처리부(230)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다. The data processing unit 230 is, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), controllers (controllers) , micro-controllers, microprocessors, and other electrical units for performing other functions.

마지막으로, 데이터베이스(240)는, 지하시설물 관련 혼합현실 제공 서비스와 관련된 각종 데이터를 저장할 수 있다. Finally, the database 240 may store various data related to the underground facility-related mixed reality service.

실시예로 데이터베이스(240)에는, 복수의 지하시설물과 관련된 가상객체, 3차원 공간모델 정보 및/또는 지하시설물 정보 등을 포함하는 지하시설물 데이터 베이스가 구축되어 저장 및 관리될 수 있다. In an embodiment, in the database 240 , an underground facility database including virtual objects related to a plurality of underground facilities, 3D spatial model information and/or underground facility information, etc. may be built, stored, and managed.

이러한 데이터베이스(240)는, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet)상에서 상기 데이터베이스(240)의 저장 기능을 수행하는 웹 스토리지(web storage)일 수도 있다.The database 240 may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc., and is a web storage that performs a storage function of the database 240 on the Internet. may be

보다 상세히, 본 발명의 실시예에서 데이터베이스(240)는, 3차원 공간에 포함되는 기준점(10)의 3차원 좌표를 해당 3차원 공간과 매칭하여 저장할 수 있다. In more detail, in the embodiment of the present invention, the database 240 may match and store the three-dimensional coordinates of the reference point 10 included in the three-dimensional space with the corresponding three-dimensional space.

또한, 데이터베이스(240)는, 3차원 공간에 매칭되어 있는 가상객체(즉, 지하시설물 3차원 모델링 영상)의 절대좌표를 해당 3차원 공간과 매칭하여 저장할 수 있다. In addition, the database 240 may match and store the absolute coordinates of the virtual object (ie, the 3D modeling image of the underground facility) matched in the 3D space with the 3D space.

또한, 데이터베이스(240)는, 국가공간정보 플랫폼(V-WORLD)에서 제공하는 지하시설물 관련 공간정보를 기반으로 지하에 매설된 지하시설물과 3차원 공간을 맵핑(mapping)하여 생성되는 지도인 전자도면을 저장할 수 있다. In addition, the database 240 is an electronic drawing that is a map generated by mapping underground facilities buried underground and a three-dimensional space based on spatial information related to underground facilities provided by the national spatial information platform (V-WORLD). can be saved.

여기서, 전자도면은, 지하에 매설된 지하시설물을 3차원의 그래픽 지도로 구현한 정보일 수 있으며, 실시예에서 가상객체의 집합일 수 있다. Here, the electronic drawing may be information implemented as a three-dimensional graphic map of underground facilities buried underground, and may be a set of virtual objects in an embodiment.

그리고 이러한 데이터베이스(240)는, 위와 같은 복수의 정보를 포함하는 지하시설물 데이터 베이스를 포함할 수 있다. And the database 240 may include an underground facility database including a plurality of information as described above.

이하, 데이터베이스(240)에 지하시설물 데이터 베이스를 구축하는 일 실시예를 첨부된 도면을 참조하여 상세히 설명하고자 한다. Hereinafter, an embodiment of constructing an underground facility database in the database 240 will be described in detail with reference to the accompanying drawings.

도 4는 본 발명의 실시예에 따른 지하시설물 데이터 베이스를 구축하는 방법을 설명하기 위한 흐름도이다. 4 is a flowchart illustrating a method of constructing an underground facility database according to an embodiment of the present invention.

도 4를 참조하면, 먼저 콘텐츠 제공서버(200)는, 지방자치단체(이하, 지자체)가 보유하는 지하시설물 관망도를 기반으로 지하시설물 데이터를 획득할 수 있다. (S101)Referring to FIG. 4 , first, the content providing server 200 may acquire underground facility data based on an underground facility network map owned by a local government (hereinafter referred to as a local government). (S101)

여기서, 지하시설물 데이터는, 지하시설물 정보에 포함되는 정보로서, 지하시설물의 절대위치, 종류, 크기 및/또는 방위 정보 등을 포함할 수 있다. Here, the underground facility data is information included in the underground facility information, and may include absolute location, type, size, and/or orientation information of the underground facility.

자세히, 콘텐츠 제공서버(200)는, 지자체가 운영하는 지하시설물 관련 서버 및/또는 국가공간정보 플랫폼 서버와 통신을 수행하여, 지자체가 보유하는 지하시설물 관망도 등을 포함하는 지하시설물 데이터를 획득할 수 있고, 이를 기반으로 지하시설물 정보를 구축할 수 있다. In detail, the content providing server 200 performs communication with an underground facility-related server and/or a national spatial information platform server operated by a local government, and obtains underground facility data including a network map of an underground facility owned by the local government. And based on this, information on underground facilities can be built.

예를 들어, 콘텐츠 제공서버(200)는, 지자체가 운영하는 지하시설물 관련 서버로부터 상/하수도 관망도를 수신하여 지하시설물 전자도면을 구축할 수 있다. For example, the content providing server 200 may construct an electronic drawing of an underground facility by receiving a water/sewage pipe network map from an underground facility-related server operated by a local government.

또한, 콘텐츠 제공서버(200)는, 지하시설물의 관리 주체로부터 지하시설물 데이터를 획득할 수 있다. (S103) Also, the content providing server 200 may acquire underground facility data from a management subject of the underground facility. (S103)

자세히, 콘텐츠 제공서버(200)는, 한국전력공사, 한국가스공사와 같이 지하시설물을 관리하는 전문기관의 서버와 통신하여, 지하시설물 관련 도면이나 문서를 획득할 수 있고, 이를 기반으로 지하시설물 정보를 구축할 수 있다. In detail, the content providing server 200 communicates with a server of a specialized institution that manages underground facilities, such as Korea Electric Power Corporation and Korea Gas Corporation, to obtain drawings or documents related to underground facilities, and based on this, information on underground facilities can be built

또한, 콘텐츠 제공서버(200)는, 현장에 배치된 지하시설물별 코드(code)에 대한 현황을 측량하여 지하시설물 데이터를 획득할 수 있다. (S105) In addition, the content providing server 200 may acquire underground facility data by measuring the status of codes for each underground facility disposed on the site. (S105)

자세히, 콘텐츠 제공서버(200)는, 지하시설물 각각에 매칭되어 현장에 설치되는 기준점(10)에 부여된 코드의 현황을 파악하여 지하시설물 정보를 생성할 수 있다. In detail, the content providing server 200 may generate information about underground facilities by identifying the status of codes assigned to reference points 10 that are matched to each of the underground facilities and installed in the field.

예를 들어, 콘텐츠 제공서버(200)는, 각 지하시설물에 매칭되는 기준점(10)에 부여된 코드에 대응하여 데이터베이스(240) 상에 저장된 식별정보 및/또는 3차원 공간모델 정보를 기반으로, 현장에 설치된 표지못 및/또는 맨홀의 개수, 표지못 및/또는 맨홀에 매칭되어 있는 지하시설물의 절대위치 및/또는 종류 등의 정보를 획득할 수 있고, 이를 기반으로 지하시설물 정보를 구축할 수 있다. For example, the content providing server 200, based on the identification information and/or 3D spatial model information stored in the database 240 in response to the code given to the reference point 10 matching each underground facility, Information such as the number of sign nails and/or manholes installed at the site, the absolute location and/or type of underground facilities matching the sign nails and/or manholes, etc. can be obtained, and information on underground facilities can be built based on this have.

즉, 콘텐츠 제공서버(200)는, 위와 같이 다양한 방식으로 획득된 지하시설물 데이터를 기반으로 지하시설물 정보를 구축할 수 있고, 구축된 지하시설물 정보를 데이터베이스(240)에 저장할 수 있다. (S107) That is, the content providing server 200 may build underground facility information based on the underground facility data obtained in various ways as described above, and may store the constructed underground facility information in the database 240 . (S107)

자세히, 콘텐츠 제공서버(200)는, 획득된 지하시설물 데이터에 기초하여 지하시설물별 3차원 모델링 영상(가상객체), 3차원 공간모델 정보 및/또는 지하시설물 정보 등을 생성할 수 있고, 이를 기반으로 지하시설물 데이터 베이스를 구축할 수 있다. In detail, the content providing server 200 may generate a 3D modeling image (virtual object) for each underground facility, 3D spatial model information and/or underground facility information, etc. based on the acquired underground facility data, and based on this to build an underground facility database.

또한, 콘텐츠 제공서버(200)는, 지하레이더 탐사(GPR, Ground Penetrating Radar)를 수행하여 지하시설물 데이터를 추가 수집할 수 있고, 이를 데이터베이스(240)에 저장할 수 있다. (S109) In addition, the content providing server 200 may perform underground radar exploration (GPR, Ground Penetrating Radar) to additionally collect underground facility data, and store it in the database 240 . (S109)

자세히, 지하시설물 관련 혼합현실 제공방법 및 시스템은, 실시예에 따라서 지하시설물 측량탐사장치를 더 포함할 수 있다. In detail, the method and system for providing a mixed reality related to an underground facility may further include an underground facility surveying device according to an embodiment.

여기서, 지하시설물 측량탐사장치는, 지적기준점(10)을 이용하여 지하시설물을 측량하거나 전자유도를 통해 지하시설물을 탐사하여 지하시설물 데이터를 획득할 수 있다. 그리고 지하시설물 측량탐사장치는, 획득된 지하시설물 데이터를 네트워크를 통하여 콘텐츠 제공서버(200)로 송신할 수 있다. Here, the underground facility surveying device may acquire underground facility data by measuring the underground facility using the cadastral reference point 10 or by exploring the underground facility through electromagnetic induction. In addition, the underground facility surveying apparatus may transmit the obtained underground facility data to the content providing server 200 through the network.

보다 상세히, 콘텐츠 제공서버(200)는, 지하시설물 측량탐사장치로부터 획득된 지하시설물 데이터를 수신할 수 있다. In more detail, the content providing server 200 may receive the underground facility data obtained from the underground facility surveying device.

이때, 실시예에서 지하시설물 측량탐사장치는, 3차원 공간에 실재하는 기준점(10)에 부여된 코드를 감지할 수 있고, 감지된 코드를 기반으로 해당 기준점(10)과 매칭되어 있는 3차원 공간모델 정보 등을 획득할 수 있다. At this time, in an embodiment, the underground facility surveying apparatus may detect a code given to the reference point 10 existing in the three-dimensional space, and based on the sensed code, the three-dimensional space matched with the reference point 10 It is possible to obtain model information and the like.

또한, 실시예에서 지하시설물 측량탐사장치는, 전자유도 탐사를 기반으로 지하에 매설된 지하시설물의 절대위치, 방위 및/또는 크기 정보 등을 획득할 수도 있다. 또한, 실시예에서 지하시설물 측량탐사장치는, GPS와 연동하여 탐사를 수행하는 공간에 대한 지하시설물의 절대위치 및/또는 방위 정보 등을 획득할 수도 있다. In addition, in an embodiment, the apparatus for surveying underground facilities may acquire absolute position, orientation and/or size information of underground facilities buried underground based on electromagnetic guided exploration. In addition, in an embodiment, the underground facility surveying apparatus may obtain absolute position and/or orientation information of the underground facility for the space in which the exploration is performed in conjunction with the GPS.

이후, 콘텐츠 제공서버(200)는, 위와 같이 추가 수집된 지하시설물 데이터를 데이터베이스(240)에 저장할 수 있고, 추가 수집된 지하시설물 데이터를 기반으로 지하시설물 정보를 업데이트할 수 있다. Thereafter, the content providing server 200 may store the additionally collected underground facility data in the database 240 as described above, and update the underground facility information based on the additionally collected underground facility data.

또한, 콘텐츠 제공서버(200)는, 획득된 지하시설물 정보를 기반으로 지하시설물 데이터 베이스를 구축할 수 있다. (S111) In addition, the content providing server 200 may build an underground facility database based on the obtained underground facility information. (S111)

자세히, 콘텐츠 제공서버(200)는, 가상객체 카테고리, 3차원 공간모델 정보 카테고리 및/또는 지하시설물 정보 카테고리 등을 포함하는 지하시설물 데이터 베이스를 구축할 수 있다. In detail, the content providing server 200 may build an underground facility database including a virtual object category, a 3D spatial model information category, and/or an underground facility information category.

보다 상세히, 지하시설물 데이터 베이스는, 가상객체 카테고리에 지하시설물이 3차원으로 모델링된 가상객체를 저장할 수 있다. In more detail, the underground facility database may store a virtual object in which the underground facility is modeled in three dimensions in the virtual object category.

또한, 지하시설물 데이터 베이스는, 3차원 공간모델 정보 카테고리에 기준점(10)과 매칭된 3차원 공간을 특정하는 기준점(10)의 3차원 좌표(즉, 절대위치), 기준점(10)의 크기(scale) 및/또는 기준점(10)과 매칭되는 지하시설물 정보 등을 포함하는 3차원 공간모델 정보를 저장할 수 있다. In addition, the underground facility database is the three-dimensional coordinates (ie, absolute position) of the reference point 10 that specifies the three-dimensional space matched with the reference point 10 in the three-dimensional space model information category (ie, absolute position), the size of the reference point 10 ( scale) and/or 3D spatial model information including information on underground facilities matching the reference point 10 and the like may be stored.

또한, 지하시설물 데이터 베이스는, 지하시설물 정보 카테고리에 지하시설물의 3차원 모델링 영상(가상객체), 절대위치 정보, 종류 정보, 크기 정보, 방위 정보, 지하분석 정보(매질의 종류, 매질의 깊이 등), 준공 정보(준공도면, 준공위치, 준공날짜 등), 관리 정보(관리이력 등) 및/또는 지하시설물 전자도면(가상객체 집합) 정보 중 적어도 하나 이상을 포함하는 지하시설물 정보를 저장할 수 있다. In addition, the underground facility database includes three-dimensional modeling images (virtual objects), absolute location information, type information, size information, orientation information, underground analysis information (type of medium, depth of medium, etc.) of underground facilities in the underground facility information category. ), completion information (completion drawing, construction location, completion date, etc.), management information (management history, etc.), and/or underground facility information including at least one of underground facility electronic drawing (virtual object set) information can be stored. .

이와 같이, 콘텐츠 제공서버(200)는, 지하시설물 관련 혼합현실 제공 서비스를 위한 지하시설물 데이터 베이스를 위에 기술된 바와 같이 구축함으로써, 지하시설물 관련 혼합현실 제공 서비스의 기반이 되는 데이터를 체계적으로 관리할 수 있고, 고품질의 데이터를 제공하여 지하시설물 관련 혼합현실 제공 서비스의 퀄리티를 향상시킬 수 있다. As such, the content providing server 200 can systematically manage the data that is the basis of the underground facility related mixed reality service by building the underground facility database for the underground facility related mixed reality providing service as described above. It is possible to improve the quality of the mixed reality service related to underground facilities by providing high-quality data.

이상에서는, 콘텐츠 제공서버(200)에서 지하시설물 데이터 베이스를 구축하고, 3차원 공간을 감지하여 장면 명세정보를 생성하며, 생성된 장면 명세정보와 지하시설물 정보 등을 기반으로 가상객체를 렌더링하는 등의 일련의 동작을 수행한다고 설명하였으나, 단말(100)에서 콘텐츠 제공서버(200)에서 수행하는 동작의 일부를 수행할 수 있는 등 다양한 실시예 또한 가능할 것이다.In the above, the content providing server 200 builds an underground facility database, detects a three-dimensional space to generate scene specification information, and renders a virtual object based on the generated scene specification information and underground facility information, etc. Although it has been described that a series of operations of , the terminal 100 may perform a part of the operations performed by the content providing server 200, various embodiments may also be possible.

- GPS 비연동 기반의 지하시설물 관련 혼합현실 제공방법 - Method of providing mixed reality related to underground facilities based on non-GPS connection

이하, 첨부된 도면을 참조하여 위성항법장치(GPS) 비연동 기반의 지하시설물 관련 혼합현실 제공방법을 상세히 설명하고자 한다. 보다 자세히, GPS와 연동하지 않고도 기준점(10)을 인식하여 공간-카메라(150) 간의 초기 방위(자세)를 획득하고, 이를 기반으로 지하시설물 관련 혼합현실을 제공하는 방법에 대해 상세히 설명하고자 한다. Hereinafter, with reference to the accompanying drawings, a method for providing a mixed reality related to an underground facility based on a non-interlocking GPS system will be described in detail. In more detail, a method of recognizing the reference point 10 without interworking with GPS to acquire an initial orientation (posture) between the space-camera 150 and providing a mixed reality related to underground facilities based on this will be described in detail.

도 5는 본 발명의 실시예에 따른 GPS 비연동 기반의 지하시설물 관련 혼합현실 제공방법을 설명하기 위한 개념도이고, 도 6은 본 발명의 실시예에 따른 GPS 비연동 기반의 지하시설물 관련 혼합현실 제공방법을 설명하기 위한 흐름도이다. 5 is a conceptual diagram for explaining a method for providing a mixed reality related to an underground facility based on a GPS non-interlocking according to an embodiment of the present invention, and FIG. 6 is a GPS non-interworking based mixed reality related to an underground facility according to an embodiment of the present invention. It is a flowchart to explain the method.

도 5 및 6을 참조하면, 먼저 단말(100)은, 카메라(150)를 제어하여 촬영 영상을 획득할 수 있다. (S201)5 and 6 , first, the terminal 100 may acquire a captured image by controlling the camera 150 . (S201)

자세히, 단말(100)은, 사용자가 지하시설물 정보를 획득하고자 하는 공간(영역)을 카메라(150)로 촬영한 촬영 영상을 획득할 수 있다. In detail, the terminal 100 may acquire a photographed image captured by the camera 150 of a space (area) in which the user wants to acquire information about underground facilities.

그리고 단말(100)은, 획득된 촬영 영상을 이미지 처리하여 기준점(10) 오브젝트를 디텍팅(object detecting)할 수 있다. (S203) In addition, the terminal 100 may image-process the acquired captured image to detect an object of the reference point 10 . (S203)

자세히, 단말(100)은, 먼저 촬영 영상을 내에 식별하고자 하는 오브젝트를 디텍팅하여 실재객체를 식별하여 식별된 실재객체 중 각 지하시설물과 매칭되어 현장에 설치됨으로써 각 지하시설물을 특정하는 기준점(10) 오브젝트를 검출할 수 있다. In detail, the terminal 100 first detects the object to be identified in the captured image, identifies the real object, matches each underground facility among the identified real objects, and is installed in the field, thereby specifying each underground facility reference point 10 ) object can be detected.

여기서, 기준점(10)은, 촬영 영상의 3차원 공간을 인식하기 위한 지상의 기준지표일 수 있으며, 기준점(10) 및 해당 기준점(10)과 매칭되는 지하시설물에 대한 정보를 획득할 수 있는 적어도 하나 이상의 코드(code)를 포함할 수 있다. Here, the reference point 10 may be a reference index on the ground for recognizing the three-dimensional space of the captured image, and at least the reference point 10 and information on the underground facility matching the reference point 10 can be obtained. It may include one or more codes.

예를 들어, 도 7을 참조하면 기준점(10)은, 현장에 설치되는 표지못일 수 있고, 적어도 하나 이상인 복수의 코드(c1, c2, c3, …)를 포함하여 구현될 수 있다. For example, referring to FIG. 7 , the reference point 10 may be a mark nail installed in the field, and may be implemented by including at least one or more codes (c1, c2, c3, ...).

예를 들어, 기준점(10)은, 지하시설물과 연계되면서 지상에 노출된 표지못, 매설핀, 표지주, 표시핀, 맨홀 및 표시못 중 적어도 하나를 포함할 수 있으며, 이러한 기준점(10)에는 기준점(10)이 나타내는 역할이 제 1 코드(c1)로 표시되어 있을 수 있으며, 예를 들어, 상수도, 하수도, 오수관, 가로등선로, 지중송전선로 또는 통신선로 등을 나타내는 제 1 코드(c1)가 금속재인 표지못에 음각 또는 약각으로 표시될 수 있다. For example, the reference point 10 may include at least one of a mark peg, a burial pin, a mark pole, a mark pin, a manhole, and a mark peg exposed to the ground while being linked with an underground facility. The role indicated by the reference point 10 may be indicated by a first code c1, for example, a first code c1 indicating water supply, sewerage, sewage pipe, street light line, underground transmission line or communication line, etc. It may be marked with a engraving or weak engraving on the sign nail made of metal.

또한, 기준점(10)에는 기준점(10)이 설치된 지역을 나타내는 제 2 코드(c2)가 표시될 수 있으며, 예를 들어, 지역명, 주소명 또는 도로주소명을 나타내는 제 2 코드(c2)가 금속재인 표지못에 음각 또는 양각으로 표시될 수 있다. In addition, the second code c2 indicating the area where the reference point 10 is installed may be displayed on the reference point 10 , and for example, the second code c2 indicating the area name, address name, or road address name may be displayed on the reference point 10 . It may be marked with engraving or embossing on the sign nail, which is a metal material.

또한, 기준점(10)에는 기준점(10)과 연결된 배관의 관경이나 배관방향을 나타내는 제 3 코드(c3)가 표시될 수 있으며, 예를 들어, 관경수치 또는 배관방향을 나타내는 화살표 등을 포함하는 제 3 코드(c3)가 금속재인 표지못에 음각 또는 양각으로 표시될 수 있다. In addition, a third code c3 indicating the pipe diameter or pipe direction of the pipe connected to the reference point 10 may be displayed at the reference point 10, for example, a third code including an arrow indicating a pipe diameter value or a pipe direction. 3 The code (c3) may be marked in engraving or embossing on a metal sign.

이때, 단말(100)은, 이미지 딥러닝을 수행하기 위하여 단말(100), 콘텐츠 제공서버(200) 및/또는 외부의 서버에 설치되어 있는 딥러닝 뉴럴 네트워크(deep-learning neural network)와 연동할 수 있다. 여기서, 딥러닝 뉴럴 네트워크는, 컨볼루션 뉴럴 네트워크(CNN, Convolution Neural Network), R-CNN(Regions with CNN features), Fast R-CNN, Faster R-CNN 및 Mask R-CNN 중 적어도 하나의 딥러닝 뉴럴 네트워크를 포함할 수 있다. At this time, the terminal 100 is to interwork with a deep-learning neural network installed in the terminal 100, the content providing server 200, and/or an external server to perform image deep learning. can Here, the deep learning neural network is at least one of a convolutional neural network (CNN), Regions with CNN features (R-CNN), Fast R-CNN, Faster R-CNN, and Mask R-CNN. It may include a neural network.

다음으로, 단말(100)은, 디텍팅된 기준점(10) 오브젝트로부터 타원을 검출할 수 있다. (S205) 자세히, 기준점(10)은 표지못과 같은 도로위 원형 표지물로, 촬영방향에 의해 촬영영상에서 타원 형상의 객체로 인식될 수 있다. Next, the terminal 100 may detect an ellipse from the detected reference point 10 object. (S205) In detail, the reference point 10 is a circular sign on the road such as a sign nail, and may be recognized as an oval-shaped object in the photographed image by the photographing direction.

따라서, 단말(100)은, 디텍팅된 기준점(10)을 보다 명확하게 인식하기 위하여 먼저 "Projective Invariant Pruning"을 이용한 타원 검출 알고리즘을 수행할 수 있다. Accordingly, the terminal 100 may first perform an ellipse detection algorithm using “Projective Invariant Pruning” in order to more clearly recognize the detected reference point 10 .

자세히, 원형태의 기준점(10)은, 촬영되는 방향에 따라 타원으로 인식되는 경우가 많다. 그러나, 기준점(10)이 타원으로 인식되는 경우 기준점(10)에 부여되어 있는 코드(code)를 정확하게 감지하기 어려울 수 있다. 따라서 본 발명의 실시예에서는, "Projective Invariant Pruning"을 이용한 타원 검출 알고리즘을 적용하여 기준점(10)의 코드를 정확하게 감지하고, 기준점(10)의 타원의 에지(edge)가 일정 부분 가려져 있어도 전체적인 형상을 검출할 수 있다.In detail, the circular reference point 10 is often recognized as an ellipse depending on the direction in which it is photographed. However, when the reference point 10 is recognized as an ellipse, it may be difficult to accurately detect a code assigned to the reference point 10 . Therefore, in the embodiment of the present invention, the code of the reference point 10 is accurately detected by applying the ellipse detection algorithm using "Projective Invariant Pruning", and the overall shape even if the edge of the ellipse of the reference point 10 is partially covered. can be detected.

도 7은 본 발명의 실시예에 따른 기준점(10)의 일례이며, 기준점(10)으로부터 유효 영역을 자동 추출하는 방법을 설명하기 위한 도면이다. 7 is an example of a reference point 10 according to an embodiment of the present invention, and is a diagram for explaining a method of automatically extracting an effective area from the reference point 10 .

보다 상세히, 도 7을 참조하면 단말(100)은, 먼저 기준점(10)으로부터 타원을 검출할 수 있다. In more detail, referring to FIG. 7 , the terminal 100 may first detect an ellipse from the reference point 10 .

이때, 단말(100)은, 검출된 타원 중 긍정오류(False Positive)를 제거하기 위한 처리 알고리즘을 수행할 수 있다. 여기서 긍정오류(False Positive)는, 잘못된 타원을 선택함으로써 존재하지 않는 것을 있다고 판단하는 오류로 정의된다. In this case, the terminal 100 may perform a processing algorithm for removing false positives among the detected ellipses. Here, a false positive is defined as an error of judging that there is something that does not exist by selecting the wrong ellipse.

즉, 원형태의 기준점(10)은 테두리가 있는 제품이 존재하는데, 이러한 경우 단말(100)은, 타원 검출에서 서로 다른 영역의 호(弧, arc)를 인식하여 원하지 않는 타원 검출하는 것을 제거하기 위한 처리 알고리즘을 적용할 수 있다. That is, the circular reference point 10 has a product with a border. In this case, the terminal 100 recognizes arcs in different regions in ellipse detection to remove unwanted ellipse detection. processing algorithm can be applied.

도 8은 본 발명의 실시예에 따른 Intersection Of Union(IOU)을 통하여 유효한 타원영역을 선택하는 예시도이다. 8 is an exemplary diagram for selecting an effective elliptical region through an Intersection Of Union (IOU) according to an embodiment of the present invention.

도 8을 참조하면, 타원 인식률 score는 중첩되는 Arc에 비례하고 score가 높은 타원에 중첩되는 타원 제거가 필요하며, 본 실시예에서는 중첩 타원을 제거하기 위한 알고리즘으로 Intersection Of Union(IOU)을 통해 유효한 타원영역을 자동 선정하는 방식이 적용되었다. 참고적으로 Intersection Of Union(IOU)의 score 가 소정의 설정값 보다 큰 타원이 선정되도록 설정되거나, 상대적인 비교를 통해서 타원이 선정될 수 있다. Referring to FIG. 8 , the ellipse recognition rate score is proportional to the overlapping Arc, and it is necessary to remove the overlapping ellipse on the high-score ellipse. The method of automatically selecting the elliptical area was applied. For reference, an ellipse having an Intersection Of Union (IOU) score greater than a predetermined set value may be selected, or an ellipse may be selected through a relative comparison.

즉, 단말(100)은, 촬영 영상의 기준점(10)으로부터 코드(code)가 표시되는 영역을 자동으로 추출함에 있어서, 적어도 하나 이상의 타원영역을 인식하고, Intersection Of Union(IOU)을 통해 유효한 타원영역을 자동 선정할 수 있다. That is, the terminal 100 recognizes at least one ellipse region in automatically extracting a region in which a code is displayed from the reference point 10 of the photographed image, and recognizes at least one ellipse region and an effective ellipse through Intersection Of Union (IOU). The area can be automatically selected.

도 9는 본 발명의 실시예에 따른 타원형의 기준점(10)을 정원(正圓)형의 기준점(10)으로 변환하기 위하여 호모그래피(Homography) 변환을 진행하는 과정을 설명하기 위한 도면이다.9 is a view for explaining a process of performing homography transformation in order to convert an elliptical reference point 10 into a circular reference point 10 according to an embodiment of the present invention.

또한, 도 9를 참조하면 단말(100)은, 적어도 하나 이상의 타원영역을 기반으로 Intersection Of Union(IOU)을 통해 유효한 타원 영역을 자동 선정한 이후, 해당 타원의 기하 왜곡을 제거하기 위해서 호모그래피(Homography) 변환을 수행하여 정원(正圓)형의 기준점(10) 오브젝트 및 호모그래피 변환정보를 획득할 수 있다. (S207) In addition, referring to FIG. 9 , the terminal 100 automatically selects an effective elliptic region through Intersection Of Union (IOU) based on at least one or more elliptic regions, and then performs a homography in order to remove geometric distortion of the ellipse. ) by performing the transformation, it is possible to obtain a circular-shaped reference point 10 object and homography transformation information. (S207)

즉, 단말(100)은, 기준점(10)에 대한 호모그래피(Homography) 변환을 수행하여 타원형의 기준점(10) 이미지를 정원형의 기준점(10) 이미지로 변형할 수 있고, 이를 통해 기준점(10) 오브젝트를 상부에서 수직하게 바라보는 형태의 이미지를 획득하여, 해당 기준점(10)에 대한 코드 및/또는 크기 등을 보다 정확하게 파악할 수 있다. That is, the terminal 100 may transform the elliptical reference point 10 image into a circular reference point 10 image by performing homography transformation on the reference point 10 , through which the reference point 10 image is transformed. ), by acquiring an image in the form of viewing the object vertically from the top, it is possible to more accurately grasp the code and/or size of the corresponding reference point 10 .

이때, 단말(100)은, 호모그래피 변환 과정을 통하여 호모그래피 변환정보를 획득할 수 있다. In this case, the terminal 100 may obtain homography conversion information through a homography conversion process.

여기서, 호모그래피 변환정보는, 기준점(10)이 타원형에서 정원(正圓)형으로 변환되는 과정에서 기준점(10) 오브젝트에 발생된 변화요소 정보(예컨대, 원의 기울기 변화정보, 크기 변화정보, 가로 직경 변화정보 또는 세로 직경 변화정보 등)를 의미할 수 있다. 이러한 호모그래피 변환정보는, 추후에 단말(100)의 초기 카메라 자세를 획득하기 위한 기반 데이터로 활용될 수 있다. Here, the homography transformation information includes change element information (eg, gradient change information of a circle, size change information, horizontal diameter change information or vertical diameter change information, etc.). Such homography conversion information may be used as base data for acquiring an initial camera posture of the terminal 100 later.

또한, 단말(100)은, 정원형의 기준점(10) 오브젝트를 딥러닝하여 기준점(10)에 부여되어 있는 코드(code)를 인식할 수 있다. (S209) Also, the terminal 100 may recognize a code assigned to the reference point 10 by deep learning the circular reference point 10 object. (S209)

자세히, 단말(100)은, 정원형의 기준점(10)을 기반으로 이미지 딥러닝(Identification)을 수행하여 기준점(10)과 해당 기준점(10)에 매칭되어 있는 지하시설물을 특정하는 코드(code)를 검출할 수 있다. In detail, the terminal 100 performs image deep learning (Identification) based on the circular reference point 10 to specify the reference point 10 and the underground facility matching the reference point 10 (code) can be detected.

이때, 실시예에서 단말(100)은, 코드의 검출을 위한 이미지 딥러닝을 컨볼루션 뉴럴 네트워크(CNN, Convolution Neural Network)를 통해 수행할 수 있으며, 컨볼루션 뉴럴 네트워크를 통해 기준점(10)에 대한 특징맵을 추출하고, 추출된 특징맵에 기반하여 해당 기준점(10)에 부여된 코드를 도출하는 방식으로 기준점(10)에 부여된 코드를 검출할 수 있다. At this time, in the embodiment, the terminal 100 may perform image deep learning for code detection through a convolutional neural network (CNN), and through the convolutional neural network, The code assigned to the reference point 10 may be detected by extracting the feature map and deriving the code assigned to the reference point 10 based on the extracted feature map.

이때, 단말(100)은, 기준점(10) 오브젝트에 대한 이미지 딥러닝을 통하여 적어도 하나 이상인 복수의 코드를 검출할 수도 있으며, 검출된 적어도 하나 이상의 코드에 기반하여 추후 해당 기준점(10)에 매칭되는 3차원 공간모델 정보를 정확히 획득할 수 있다. At this time, the terminal 100 may detect at least one or more plurality of codes through image deep learning for the reference point 10 object, and based on the detected at least one or more codes, the reference point 10 is matched to the corresponding reference point 10 later. Accurately obtain 3D spatial model information.

계속해서, 정원형의 기준점(10) 오브젝트를 기반으로 코드를 인식한 단말(100)은, 인식된 코드에 매칭되는 3차원 공간모델 정보를 획득할 수 있다. (S211) Subsequently, the terminal 100 recognizing the code based on the circular reference point 10 object may obtain 3D spatial model information matching the recognized code. (S211)

자세히, 단말(100)은, 데이터베이스(240)를 검색하여 인식된 코드에 매칭되는 3차원 공간모델 정보를 획득할 수 있다. 여기서, 본 실시예에서는 단말(100)이 데이터베이스(240)를 검색하여 3차원 공간모델 정보를 획득한다고 설명하였으나, 메모리(160)에서 인식된 코드에 매칭되는 3차원 공간모델 정보를 획득할 수도 있는 등 다양한 실시예가 가능하다. 다만, 방대한 양의 데이터를 관리하기에 보다 적합한 데이터베이스(240)로부터 3차원 공간모델 정보를 획득함이 가장 바람직한 실시예일 것이다. In detail, the terminal 100 may obtain 3D spatial model information matching the recognized code by searching the database 240 . Here, in the present embodiment, it has been described that the terminal 100 obtains 3D spatial model information by searching the database 240 , but it is also possible to obtain 3D spatial model information matching the code recognized in the memory 160 . Various embodiments are possible. However, it will be the most preferred embodiment to obtain 3D spatial model information from the database 240 more suitable for managing a large amount of data.

즉, 단말(100)은, 인식된 코드에 매칭되는 3차원 공간모델 정보를 획득하여 해당 기준점(10)에 대한 3차원 좌표(예를 들어, 기준점(10)의 절대위치를 나타내는 좌표), 기준점(10)의 크기(scale), 기준점(10)과 매칭되는 지하시설물 정보 등을 획득할 수 있다. That is, the terminal 100 obtains 3D spatial model information matching the recognized code, and 3D coordinates for the corresponding reference point 10 (eg, coordinates indicating the absolute position of the reference point 10), the reference point The scale of (10), information on underground facilities matching the reference point (10), and the like can be obtained.

이때, 기준점(10)의 크기는, 해당 기준점(10)의 나타내는 픽셀(pixel)의 개수를 더 포함하는 정보일 수 있다. In this case, the size of the reference point 10 may be information further including the number of pixels indicated by the reference point 10 .

예를 들어, 도 10을 참조하면 단말은, 정원형의 표지못 오브젝트를 이미지 딥러닝하여 해당 표지못에 부여된 코드를 인식할 수 있고, 인식된 코드에 대한 식별정보를 기반으로 데이터베이스(240)를 검색하여 해당 표지못에 매칭되는 3차원 공간모델 정보를 획득할 수 있다. For example, referring to FIG. 10 , the terminal can recognize the code given to the corresponding sign by deep learning the image of the circular-shaped sign nail object, and the database 240 based on the identification information for the recognized code. 3D spatial model information matching the corresponding sign can be obtained by searching for .

다음으로, 단말(100)은, 획득된 호모그래피 변환정보 및 3차원 공간모델 정보에 기초하여 3차원 공간정보를 설정할 수 있다. (S213) Next, the terminal 100 may set 3D spatial information based on the obtained homography transformation information and 3D spatial model information. (S213)

여기서, 3차원 공간정보는, 3차원 공간을 바라보는 단말의 시점에 기반한 위치 및 방위 관련정보를 제공하는 정보로서, 초기 카메라 자세, 3차원 공간 좌표계, 초기 카메라 위치, 3차원 공간 좌표계에 매칭되는 지하시설물 정보 및/또는 기준점 스케일 정보 등을 포함할 수 있다. Here, the 3D spatial information is information that provides position and orientation related information based on the viewpoint of the terminal looking in 3D space, and is matched to the initial camera posture, 3D spatial coordinate system, initial camera position, and 3D spatial coordinate system. Underground facility information and/or reference point scale information may be included.

먼저, 단말(100)은, 획득된 호모그래피 변환정보 및 기준점(10)의 3차원 좌표에 기반하여 초기 카메라 자세를 획득할 수 있다. First, the terminal 100 may acquire an initial camera posture based on the obtained homography transformation information and the three-dimensional coordinates of the reference point 10 .

여기서, 초기 카메라 자세는, 단말(100)의 카메라(150)가 기준점(10)을 포함하는 3차원 공간을 촬영 시작한 때(초기)의 카메라(150) 자세(즉, 방위)를 나타내는 정보일 수 있다. Here, the initial camera posture may be information indicating the camera 150 posture (ie, orientation) when the camera 150 of the terminal 100 starts shooting (initial) the three-dimensional space including the reference point 10. have.

즉, 초기 카메라 자세는, 3차원 공간에서 기준점(10)의 3차원 좌표를 기준으로 방향 추적 좌표계인 피치(Pitch), 요(Yaw) 및 롤(Roll) 좌표에 대한 좌표값을 획득한 정보일 수 있으며, 단말(100)의 카메라(150)가 어느 방향을 향하고 있는지 판단한 방위 정보일 수 있다. That is, the initial camera posture is information obtained by acquiring coordinate values for pitch, yaw, and roll coordinates, which are direction tracking coordinate systems, based on the three-dimensional coordinates of the reference point 10 in three-dimensional space. It may be azimuth information determined in which direction the camera 150 of the terminal 100 is facing.

여기서, 3차원 공간에서의 방향 추적 좌표계 중 피치 좌표계는 단말(100)의 x축 회전 즉, 상하 회전을 감지할 수 있고, 요 좌표계는 단말(100)의 y축 회전 즉, 좌우 회전을 감지할 수 있으며, 롤 좌표계는 단말(100)의 z축 회전 즉, 전후 회전을 감지할 수 있다. Here, the pitch coordinate system among the direction tracking coordinate systems in the three-dimensional space can sense the x-axis rotation of the terminal 100, that is, the vertical rotation, and the yaw coordinate system can detect the y-axis rotation of the terminal 100, that is, the left-right rotation. In addition, the roll coordinate system may detect the z-axis rotation of the terminal 100 , that is, the forward and backward rotation.

다시 돌아와서, 자세히 단말(100)은, 기준점(10)이 타원형에서 정원(正圓)형으로 변환되는 과정에서 기준점(10) 오브젝트에 발생된 변화요소 정보(예컨대, 원의 기울기 변화정보, 가로 직경 변화정보, 세로 직경 변화정보 등)를 의미하는 호모그래피 변환정보와, 3차원 공간모델 정보에 포함되는 기준점(10)의 3차원 좌표에 기반하여 단말(100)의 카메라(150)에 의한 초기 자세(방위)를 추정할 수 있고, 이를 통해 초기 카메라 자세를 획득할 수 있다. Returning again, the terminal 100 in detail, the reference point 10 in the process of being transformed from an ellipse to a circular shape, the reference point 10, the change element information generated in the object (eg, the inclination change information of the circle, the horizontal diameter) Initial posture by the camera 150 of the terminal 100 based on the homography transformation information meaning change information, vertical diameter change information, etc.) and the three-dimensional coordinates of the reference point 10 included in the three-dimensional spatial model information (azimuth) can be estimated, and the initial camera posture can be obtained through this.

또한, 단말(100)은, 획득된 3차원 공간모델 정보의 기준점(10)의 3차원 좌표에 기초하여 3차원 공간에 대한 단말의 위치를 추적할 수 있는 3차원 공간 좌표계를 설정할 수 있다. In addition, the terminal 100 may set a three-dimensional space coordinate system capable of tracking the position of the terminal in a three-dimensional space based on the three-dimensional coordinates of the reference point 10 of the obtained three-dimensional space model information.

여기서, 3차원 공간 좌표계는, 하나의 3차원 공간에 대해 1개씩 매칭되어 기준점(10)을 기준으로 생성될 수 있으며, x축, y축 및 z축으로 구현되는 기준점(10)의 3차원 좌표의 연장선으로 생성되거나, 소정의 방식을 따라 기준점(10)의 3차원 좌표에 기준하여 3차원 공간 상의 특정 위치에 지정되어 생성될 수 있다. Here, the three-dimensional space coordinate system may be generated based on the reference point 10 by matching one by one for one three-dimensional space, and the three-dimensional coordinates of the reference point 10 implemented as the x-axis, y-axis, and z-axis. It may be generated as an extension line of , or may be generated by being designated at a specific location on the 3D space based on the 3D coordinates of the reference point 10 according to a predetermined method.

또한, 단말(100)은, 설정된 3차원 공간 좌표계와 3차원 공간모델 정보의 기준점(10)과 매칭되는 지하시설물 정보에 기반하여 해당 3차원 공간 좌표계에 매칭되는 지하시설물 정보를 획득할 수 있다. Also, the terminal 100 may obtain information about underground facilities matching the 3D spatial coordinate system based on the set 3D spatial coordinate system and the underground facility information matching the reference point 10 of the 3D spatial model information.

자세히, 단말(100)은, 기준점(10)과 매칭되는 지하시설물 정보와 3차원 공간 좌표계를 기반으로 메모리(160) 및/또는 데이터베이스(240)를 검색하여 3차원 공간 좌표계에 매칭되는 지하시설물 정보를 획득할 수 있다. In detail, the terminal 100 searches the memory 160 and/or the database 240 based on the underground facility information matching the reference point 10 and the 3D spatial coordinate system, and the underground facility information matched to the 3D spatial coordinate system can be obtained.

그리고 단말(100)은, 3차원 공간 좌표계에 매칭되는 지하시설물 정보를 획득하여 추후 3차원 공간에 지하시설물을 나타내는 가상객체를 정합하는데 활용할 수 있다. In addition, the terminal 100 may obtain information on underground facilities matching the three-dimensional spatial coordinate system and use it to later match virtual objects representing underground facilities in the three-dimensional space.

또한, 단말(100)은, 기준점(10)을 기초로 획득된 3차원 공간모델 정보의 기준점(10)의 크기와 해당 기준점(10) 오브젝트를 표시하는 픽셀 정보를 기반으로 기준점 스케일 정보를 획득할 수 있다. In addition, the terminal 100 obtains reference point scale information based on the size of the reference point 10 of the 3D spatial model information obtained based on the reference point 10 and pixel information indicating the reference point 10 object. can

여기서, 기준점 스케일 정보는, 기설정되어 있는 기준점(10)의 크기(예컨대, 원형 기준점(10)의 직경 또는 반경)와 해당 기준점(10)의 크기를 표시하기 위한 픽셀에 기초하여 촬영 영상에 표시되는 기준점(10)의 스케일(scale)을 판단하는 정보일 수 있다. Here, the reference point scale information is displayed on the captured image based on the preset size of the reference point 10 (eg, the diameter or radius of the circular reference point 10 ) and the pixel for displaying the size of the reference point 10 . It may be information for determining the scale of the reference point 10 to be used.

즉, 단말(100)은, 위와 같은 기준점 스케일 정보를 획득하여 추후 기준점(10) 스케일에 따라 가상객체의 스케일을 조정하는 프로세스를 수행할 수 있다. That is, the terminal 100 may obtain the above reference point scale information and perform a process of adjusting the scale of the virtual object according to the reference point 10 scale later.

또한, 단말(100)은, 획득된 3차원 공간 좌표계와 기준점 스케일 정보를 기반으로 초기 카메라 위치를 설정할 수 있다. Also, the terminal 100 may set the initial camera position based on the obtained 3D spatial coordinate system and reference point scale information.

자세히, 단말(100)은, 먼저 기준점 스케일 정보에 기초하여 기준점(10)의 크기에 따른 기준점(10)-단말 간의 거리정보를 획득할 수 있다. In detail, the terminal 100 may first acquire distance information between the reference point 10 and the terminal according to the size of the reference point 10 based on the reference point scale information.

여기서, 기준점(10)-단말 거리정보는, 단말(100)의 카메라(150)를 통해 촬영된 기준점(10)과 해당 단말(100) 간의 물리적인 거리를 산출한 정보일 수 있다. Here, the reference point 10-terminal distance information may be information obtained by calculating a physical distance between the reference point 10 captured by the camera 150 of the terminal 100 and the corresponding terminal 100 .

자세히, 단말(100)은, 기준점 스케일 정보에 기초하여 카메라(150)로 촬영된 영상에서의 기준점(10) 스케일 즉, 크기(예컨대, 원형 기준점(10)의 직경 또는 반경)에 대한 정보를 획득할 수 있고, 획득된 기준점(10)의 스케일에 따라서 해당 기준점(10)을 촬영하는 단말(100)과 기준점(10) 간의 거리를 산출할 수 있다. In detail, the terminal 100 acquires information on the scale, that is, the size (eg, the diameter or radius of the circular reference point 10 ) of the reference point 10 in the image taken with the camera 150 based on the reference point scale information In addition, according to the scale of the obtained reference point 10 , the distance between the terminal 100 photographing the corresponding reference point 10 and the reference point 10 may be calculated.

이때, 촬영 영상에서의 기준점(10) 스케일에 따른 기준점(10)-단말(100) 간의 거리는, 소정의 기준(예컨대, 기준점(10)의 직경에 따른 기설정된 단말(100)과의 거리 등)에 따라서 기설정되어 있을 수 있고, 단말(100)의 메모리(160) 및/또는 콘텐츠 제공서버(200)의 데이터베이스(240) 상에 기저장되어 있을 수 있다. At this time, the distance between the reference point 10 and the terminal 100 according to the reference point 10 scale in the captured image is a predetermined reference (eg, the distance from the preset terminal 100 according to the diameter of the reference point 10, etc.) may be preset, and may be pre-stored in the memory 160 of the terminal 100 and/or the database 240 of the content providing server 200 .

예를 들어, 단말(100)은, 메모리(160) 상에 촬영 영상의 기준점(10)의 직경이 1cm 이상-3cm미만인 경우 기준점(10)-단말(100) 거리가 50cm, 3cm이상-5cm미만인 경우 기준점(10)-단말(100) 거리가 30cm, 5cm이상-7cm미만인 경우에는 기준점(10)-단말(100) 거리가 10cm라고 기저장되어 있을 수 있다. 그리고 단말(100)은, 기준점 스케일 정보를 통하여 촬영 영상의 기준점(10)의 직경이 5cm라고 판단된 경우, 해당 기준점(10)과 단말(100) 간의 거리를 10cm로 판단할 수 있고, 기준점(10)-단말 거리정보를 10cm로 결정할 수 있다.For example, if the diameter of the reference point 10 of the captured image on the memory 160 is 1 cm or more and less than -3 cm, the reference point 10 - the terminal 100 distance is 50 cm, 3 cm or more and less than -5 cm. In this case, if the reference point 10-terminal 100 distance is 30 cm, 5 cm or more and less than -7 cm, the reference point 10-terminal 100 distance may be pre-stored as 10 cm. And when it is determined that the diameter of the reference point 10 of the captured image is 5 cm through the reference point scale information, the terminal 100 may determine the distance between the reference point 10 and the terminal 100 as 10 cm, and the reference point ( 10) - The terminal distance information can be determined to be 10 cm.

또한, 단말(100)은, 획득된 기준점(10)-단말 거리정보를 기반으로 3차원 공간 좌표계를 기준으로 하여 단말(100)의 위치를 판단할 수 있고, 판단된 단말(100)의 위치에 기초하여 초기 카메라 위치를 설정할 수 있다. In addition, the terminal 100 may determine the position of the terminal 100 based on the three-dimensional spatial coordinate system based on the obtained reference point 10-terminal distance information, and Based on the initial camera position can be set.

이와 같이 본 발명의 실시예에서 단말(100)은, 전술한 바와 같이 기준점(10)에 기준하여 설정된 3차원 공간정보를 단말(100)에 기준하는 3차원 공간정보로 변환할 수도 있다. As described above, in the embodiment of the present invention, the terminal 100 may convert 3D spatial information set based on the reference point 10 into 3D spatial information based on the terminal 100 as described above.

예를 들어, 단말(100)은, 단말(100)의 위치를 기반으로 설정되는 3차원 공간 좌표계 및/또는 해당 3차원 공간 좌표계에 매칭되는 지하시설물 정보 등을 획득하여 3차원 공간정보로 이용할 수 있다. For example, the terminal 100 may obtain a 3D spatial coordinate system set based on the location of the terminal 100 and/or underground facility information matching the 3D spatial coordinate system and use it as 3D spatial information. have.

즉, 단말(100)은, 다양한 방식으로 3차원 공간정보를 획득하여 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공 서비스를 구현할 수 있다. That is, the terminal 100 may acquire 3D spatial information in various ways to implement the underground facility-related mixed reality providing service according to the embodiment of the present invention.

이를 위해, 위와 같이 3차원 공간정보를 설정한 단말(100)은, 설정된 3차원 공간정보에 기반하여 장면 명세정보를 획득할 수 있다. (S215)To this end, the terminal 100 that has set the 3D spatial information as described above may acquire scene specification information based on the set 3D spatial information. (S215)

여기서, 장면 명세정보는, 단말(100)의 카메라(150)에 의해 촬영된 3차원 공간에 매칭되는 가상객체를 검출하고, 검출된 가상객체와 해당 3차원 공간의 정합을 보조하는 정보로서, 가상객체 위치(좌표) 설정정보, 가상객체 방위 설정정보 및 가상객체 스케일 설정정보 중 적어도 하나 이상을 포함할 수 있다. Here, the scene specification information is information that detects a virtual object matching the three-dimensional space photographed by the camera 150 of the terminal 100 and assists in matching the detected virtual object with the corresponding three-dimensional space. It may include at least one of object position (coordinate) setting information, virtual object orientation setting information, and virtual object scale setting information.

자세히, 단말(100)은, 획득된 3차원 공간정보의 3차원 공간 좌표계와 해당 3차원 공간 좌표계에 매칭되는 지하시설물 정보에 기반하여, 촬영 영상의 3차원 공간에 대해 획득된 가상객체의 위치(좌표)를 설정할 수 있고, 가상객체 위치(좌표) 설정정보를 생성할 수 있다. In detail, the terminal 100 is based on the 3D spatial coordinate system of the acquired 3D spatial information and the underground facility information matching the 3D spatial coordinate system, the position of the virtual object acquired in the 3D space of the captured image ( coordinates) can be set, and virtual object location (coordinates) setting information can be created.

예를 들어, 단말(100)은, 3차원 공간 좌표계와 해당 3차원 공간 좌표계에 매칭되는 지하시설물 정보의 절대위치 정보를 기반으로, 촬영 영상의 3차원 공간에 대한 가상객체의 위치를 획득할 수 있고, 이를 통해 가상객체 위치(좌표) 설정정보를 생성할 수 있다. For example, the terminal 100 may obtain the position of the virtual object in the 3D space of the captured image based on the 3D spatial coordinate system and the absolute position information of the underground facility information matching the 3D spatial coordinate system. and, through this, virtual object location (coordinate) setting information can be generated.

또한, 단말(100)은, 획득된 3차원 공간정보의 초기 카메라 자세를 기반으로 촬영 영상의 3차원 공간에 대해 획득된 가상객체의 방위를 설정할 수 있고, 가상객체 방위 설정정보를 생성할 수 있다. In addition, the terminal 100 may set the orientation of the virtual object obtained in the three-dimensional space of the captured image based on the initial camera posture of the obtained three-dimensional spatial information, and may generate virtual object orientation setting information. .

즉, 단말(100)은, 초기 카메라 자세를 통해 획득되는 단말(100)의 방위에 기초하여, 해당 단말(100)이 3차원 공간에 대해 가지는 시점의 방향(방위)을 파악할 수 있고, 파악된 단말(100)의 시점 방향과 가상객체의 방위가 정합하도록 가상객체 방위 설정정보를 생성할 수 있다. That is, the terminal 100, based on the orientation of the terminal 100 obtained through the initial camera posture, can determine the direction (orientation) of the viewpoint that the terminal 100 has in the three-dimensional space, The virtual object orientation setting information may be generated so that the viewpoint direction of the terminal 100 matches the orientation of the virtual object.

또한, 단말(100)은, 획득된 3차원 공간정보의 기준점 스케일 정보에 기초하여 촬영 영상의 3차원 공간에 대해 획득된 가상객체의 스케일(scale)을 설정할 수 있고, 가상객체 스케일 설정정보를 생성할 수 있다. In addition, the terminal 100 may set the scale of the virtual object obtained for the three-dimensional space of the captured image based on the reference point scale information of the obtained three-dimensional spatial information, and generate virtual object scale setting information can do.

여기서, 가상객체 스케일 설정정보는, 가상객체의 크기가 기준점(10)의 크기에 비례하여 촬영 영상의 3차원 공간 상에 표시되도록 설정되는 정보일 수 있다. Here, the virtual object scale setting information may be information in which the size of the virtual object is set to be displayed on the three-dimensional space of the captured image in proportion to the size of the reference point 10 .

자세히, 단말(100)은, 먼저 기준점 스케일 정보를 통하여 기설정되어 있는 기준점(10)의 크기(예컨대, 원형 기준점(10)의 직경 또는 반경)와 해당 기준점(10)의 크기를 표시하기 위한 픽셀의 개수 정보를 획득할 수 있다. In detail, the terminal 100 first, a pixel for displaying the size of the reference point 10 (eg, the diameter or radius of the circular reference point 10 ) and the size of the reference point 10 preset through reference point scale information information on the number of .

그리고 단말(100)은, 3차원 공간에서 기준점(10)의 위치와 동일 선 상의 픽셀 즉, 기준점(10)과 동일한 거리를 표시하는 복수의 픽셀을 검출할 수 있다. In addition, the terminal 100 may detect a pixel on the same line as the position of the reference point 10 in the three-dimensional space, that is, a plurality of pixels indicating the same distance as the reference point 10 .

이때, 단말(100)은, 검출된 기준점(10)과 동일한 거리를 표시하는 복수의 픽셀을 기반으로 가상객체를 표시하는 경우, 기준점(10)의 크기와 픽셀의 개수에 비례하는 크기와 픽셀의 개수로 해당 가상객체가 표시되도록 가상객체 스케일 정보를 생성할 수 있다. At this time, when the terminal 100 displays the virtual object based on a plurality of pixels indicating the same distance as the detected reference point 10 , the size of the reference point 10 is proportional to the size of the reference point 10 and the number of pixels. The virtual object scale information can be generated so that the corresponding virtual object is displayed as the number.

예를 들어, 단말(100)은, 기준점(10)의 크기에 따른 픽셀의 개수를 미터(m) 단위로 추정할 수 있고, 이를 기초로 가상객체의 크기에 따른 픽셀의 개수를 결정할 수 있다. For example, the terminal 100 may estimate the number of pixels according to the size of the reference point 10 in units of meters (m), and may determine the number of pixels according to the size of the virtual object based on this.

자세히, 예컨대 단말(100)은, 0.01미터를 1 픽셀(pixel)로 추정하도록 기설정될 수 있고, 기설정된 기준점(10)의 크기 정보에 기반하여 기준점(10)의 크기가 0.1미터임을 확인할 수 있다. 그리고 단말(100)은, 기설정된 미터 단위 추정원칙에 따라서 3차원 공간 상에 기준점(10)이 10 픽셀에 기반하여 출력됨을 판단할 수 있다. In detail, for example, the terminal 100 may be preset to estimate 0.01 meter as 1 pixel, and it may be confirmed that the size of the reference point 10 is 0.1 meter based on the preset size information of the reference point 10 . have. In addition, the terminal 100 may determine that the reference point 10 is output based on 10 pixels in a 3D space according to a preset metric unit estimation principle.

즉, 단말(100)은, 기준점(10)의 크기가 0.1미터일 때 3차원 공간을 출력하는 영상에서 10 픽셀에 기반해 표시됨을 나타내는 기준점 스케일 정보를 획득할 수 있다. That is, the terminal 100 may obtain reference point scale information indicating that the reference point 10 is displayed based on 10 pixels in an image outputting a 3D space when the size of the reference point 10 is 0.1 meter.

이때, 단말(100)은, 해당 기준점(10)과 동일한 거리를 표시하는 복수의 픽셀을 기반으로 가상객체를 표시할 시, 해당 가상객체에 대한 지하시설물 정보를 기초로 해당 가상객체의 기설정된 크기가 예컨대, 1미터임을 확인할 수 있다. At this time, when the terminal 100 displays the virtual object based on a plurality of pixels indicating the same distance as the reference point 10 , the preset size of the virtual object based on the underground facility information for the virtual object It can be confirmed that, for example, is 1 meter.

그리고 단말(100)은, 획득된 기준점(10)의 크기에 따른 픽셀의 개수 즉, 0.1미터일 때 10 픽셀이라는 정보에 비례하여, 해당 가상객체의 크기 1미터에 따른 픽셀의 개수를 100 픽셀로 결정할 수 있고, 이를 기반으로 가상객체 스케일 정보를 생성할 수 있다. And the terminal 100 sets the number of pixels according to the size of the obtained reference point 10 to 100 pixels in proportion to the information that the number of pixels according to the size of the reference point 10 is 10 pixels, that is, when the size of the corresponding virtual object is 1 meter. can be determined, and virtual object scale information can be generated based on this.

즉, 단말(100)은, 기준점 스케일 정보(기준점(10)의 크기: 0.1미터, 표시 픽셀 개수: 10 픽셀)에 비례하는 가상객체 스케일 정보(가상객체 크기: 1미터, 표시 픽셀 개수: 100 픽셀)을 설정하여, 3차원 공간 상에서 가상객체가 배경영상에 부합하는 스케일로 표시되게 할 수 있다. That is, the terminal 100 provides the virtual object scale information (virtual object size: 1 meter, the number of display pixels: 100 pixels) proportional to the reference point scale information (the size of the reference point 10: 0.1 meter, the number of display pixels: 10 pixels). ) to display the virtual object in a scale that matches the background image in 3D space.

또한, 단말(100)은, 기준점 스케일 정보를 기반으로 해당 기준점(10)과 동일한 거리를 표시하는 복수의 픽셀에 대한 가상객체 스케일을 설정한 이후, 해당 가상객체를 표시하는 나머지 복수의 픽셀에 대해서는, 해당 기준점(10)과 동일 거리 선 상의 픽셀들에 대해 설정된 가상객체 스케일을 기준으로 소정의 원근 정도에 따라서 가상객체의 크기에 따른 픽셀 개수가 결정되게 할 수 있다. In addition, the terminal 100 sets the virtual object scale for a plurality of pixels displaying the same distance as the corresponding reference point 10 based on the reference point scale information, and then for the remaining plurality of pixels displaying the corresponding virtual object. , the number of pixels according to the size of the virtual object may be determined according to a predetermined degree of perspective based on the virtual object scale set for pixels on the same distance as the reference point 10 .

예를 들어, 단말(100)은, 기준점(10)과 동일한 거리를 표시하는 복수의 픽셀에 대한 가상객체 스케일 정보가 '가상객체 크기: 1미터, 표시 픽셀 개수: 100 픽셀'로 설정된 경우, 해당 거리보다 원거리에 대한 가상객체를 표시하는 복수의 픽셀에 대해서는 거리가 멀어질수록 표시 픽셀 개수가 100 픽셀 미만으로 점차 감소하게 설정할 수 있고, 해당 위치로부터 근거리에 대한 가상객체를 표시하는 복수의 픽셀에 대해서는 거리가 가까워질수록 표시 픽셀 개수가 100 픽셀을 초과하도록 점차 증가하게 설정할 수 있다. For example, when the virtual object scale information for a plurality of pixels displaying the same distance as the reference point 10 is set to 'virtual object size: 1 meter, number of display pixels: 100 pixels', the terminal 100 For a plurality of pixels that display a virtual object for a distance rather than a distance, the number of display pixels can be set to gradually decrease to less than 100 pixels as the distance increases. As the distance increases, the number of display pixels may be set to gradually increase to exceed 100 pixels.

즉, 단말(100)은, 기준점(10)의 스케일 정보를 기반으로 가상객체의 스케일을 결정하여, 촬영 영상의 3차원 공간에 실재하는 실재객체들(실시예에서, 기준점(10))에 대응되는 크기로 가상객체가 증강되어 표시되게 할 수 있다. That is, the terminal 100 determines the scale of the virtual object based on the scale information of the reference point 10 to correspond to real objects (in the embodiment, the reference point 10) that exist in the three-dimensional space of the captured image. The virtual object can be augmented and displayed to the desired size.

다음으로, 장면 명세정보를 획득한 단말(100)은, 획득된 장면 명세정보를 기초로 가상객체를 렌더링하여 혼합현실(MR) 영상으로 디스플레이할 수 있다. (S217)Next, the terminal 100 having obtained the scene specification information may render a virtual object based on the obtained scene specification information and display it as a mixed reality (MR) image. (S217)

도 11은 본 발명의 실시예에 따른 렌더링된 가상객체가 촬영 영상 상에 디스플레이된 모습을 나타내는 일례이다. 11 is an example illustrating a state in which a rendered virtual object is displayed on a captured image according to an embodiment of the present invention.

자세히, 도 11을 참조하면 단말(100)은, 획득된 장면 명세정보, 3차원 공간정보의 초기 카메라 자세 및 초기 카메라 위치에 기초하여, 촬영 영상의 3차원 공간 상에 매칭되는 가상객체를 정합해 렌더링(rendering)할 수 있다. In detail, referring to FIG. 11 , the terminal 100 matches virtual objects matching on the three-dimensional space of the captured image based on the obtained scene specification information, the initial camera posture and the initial camera position of the three-dimensional spatial information. It can be rendered.

보다 상세히, 단말(100)은, 획득된 초기 카메라 자세 및 초기 카메라 위치를 기반으로 단말(100)의 카메라(150) 시점 즉, 단말의 자세(방위)와 위치를 판단할 수 있고, 장면 명세정보에 기반하여 판단된 카메라(150) 시점에 따라 촬영된 촬영 영상의 3차원 공간에 매칭되는 가상객체를 정합하여 렌더링을 수행할 수 있다. In more detail, the terminal 100 may determine the camera 150 viewpoint of the terminal 100 based on the obtained initial camera posture and initial camera position, that is, the posture (azimuth) and position of the terminal, and scene specification information Rendering may be performed by matching virtual objects matching the 3D space of the captured image according to the camera 150 viewpoint determined based on the .

이때, 단말(100)은, 3차원 공간에 정합되어 렌더링되는 가상객체를 디스플레이부(120)를 통해 카메라(150) 촬영 영상 상에 중첩하여 표시할 수 있다. In this case, the terminal 100 may display the virtual object matched and rendered in the three-dimensional space overlaid on the image captured by the camera 150 through the display unit 120 .

자세히, 단말(100)은, 촬영 영상의 3차원 공간 상에 가상객체를 정확한 위치로 중첩하기 위하여, 먼저 3차원 공간 좌표계를 기준으로 해당 3차원 공간에 실재하는 각 실재객체에 미리 할당된 좌표를 메모리(160) 및/또는 데이터베이스(240)로부터 도출할 수 있다. In detail, in order to superimpose the virtual object on the three-dimensional space of the captured image in an accurate position, the terminal 100 first determines the coordinates previously assigned to each real object existing in the three-dimensional space based on the three-dimensional space coordinate system. It may be derived from memory 160 and/or database 240 .

그리고 단말(100)은, 도출된 실재객체별 좌표에 기준하여 3차원 공간 상에 위치하는 실재객체와, 해당 3차원 공간에 정합될 각각의 가상객체를 매칭하여 중첩해 표시할 수 있다. In addition, the terminal 100 may display a real object positioned in a three-dimensional space based on the derived coordinates for each real object, and each virtual object to be matched in the three-dimensional space, by matching and overlapping the display.

또한, 단말(100)은, 가상객체가 촬영 영상 상에 자연스럽게 중첩 표시될 수 있도록, 3차원 공간에 중첩 표시되는 가상객체에 소정의 투명도를 부여할 수도 있다. In addition, the terminal 100 may give a predetermined transparency to the virtual object overlapped and displayed in the 3D space so that the virtual object can be displayed naturally on the captured image.

또한, 단말(100)은, 위와 같이 렌더링된 가상객체와 촬영 영상의 실재객체 간의 위치관계를 3차원적으로 매칭시켜 저장할 수 있고, 이를 통해 단말(100)의 카메라(150)에 의한 촬영시점이 변동되어도 촬영시점 변동에 따른 실재객체의 위치에 맞게 가상객체를 이동시켜 정확하게 실재객체 상에 정합하여 표시할 수 있다. In addition, the terminal 100 may match and store the positional relationship between the rendered virtual object and the real object of the captured image in three dimensions as described above, and through this, the photographing time by the camera 150 of the terminal 100 is Even if it changes, the virtual object can be moved according to the location of the real object according to the change of the shooting point, so that it can be accurately matched and displayed on the real object.

자세히, 단말(100)은, 단말(100)의 카메라(150)의 위치 및 방위(자세) 변화를 트래킹(tracking)하여 장면 명세정보를 업데이트할 수 있고, 업데이트된 장면 명세정보에 기반하여 촬영 영상의 3차원 공간에 매칭되는 가상객체를 정합하는 증강 렌더링을 수행할 수 있으며, 렌더링된 가상객체를 촬영 영상 상에 중첩하여 디스플레이할 수 있다. (S219)In detail, the terminal 100 may update the scene specification information by tracking a change in the position and orientation (posture) of the camera 150 of the terminal 100, and a captured image based on the updated scene specification information Augmented rendering may be performed to match virtual objects matching the three-dimensional space of , and the rendered virtual objects may be displayed by superimposing them on the captured image. (S219)

보다 상세히, 단말(100)은, 관성센서(IMU, 140)를 기반으로 단말(100)의 카메라(150) 위치 및 방위 변화를 트래킹할 수 있고, 트래킹을 통해 획득된 단말(100)의 카메라(150) 위치 및 방위 변화에 기초하여 이에 매칭되는 3차원 공간에 대한 장면 명세정보로 업데이트를 수행할 수 있다. In more detail, the terminal 100 may track a change in the position and orientation of the camera 150 of the terminal 100 based on the inertial sensor (IMU, 140), and the camera of the terminal 100 obtained through tracking ( 150) Based on the change in position and orientation, it is possible to update the scene specification information for the 3D space that matches the change.

그리고 단말(100)은, 업데이트된 장면 명세정보를 기반으로 촬영 영상의 3차원 공간에 매칭되는 가상객체를 렌더링하여 디스플레이부(120)를 통해 카메라(150) 촬영 영상 상에 중첩 표시하여 출력할 수 있다. In addition, the terminal 100 renders a virtual object matching the three-dimensional space of the captured image based on the updated scene specification information, and displays it overlaid on the captured image of the camera 150 through the display unit 120 to be output. have.

이때, 단말(100)은, 초기 카메라 자세 및 초기 카메라 위치에 기초하여 증강 렌더링된 가상객체와 촬영 영상의 실재객체 간의 위치관계를 3차원적으로 매칭시켜 기저장해 놓은 정보를 기반으로, 단말(100)의 카메라(150)에 의한 촬영시점의 변동 시 촬영시점 변동에 따른 실재객체의 위치에 맞게 가상객체를 이동시킬 수 있고, 이를 통해 단말(100)의 카메라(150) 위치 및 방위 변화시에도 가상객체를 3차원 공간 상에 정확하고 편리하게 정합하여 표시할 수 있다. At this time, the terminal 100 matches the positional relationship between the augmented-rendered virtual object and the real object of the captured image based on the initial camera posture and the initial camera position three-dimensionally and based on the stored information, the terminal 100 ), the virtual object can be moved to match the position of the real object according to the change in the shooting time when the shooting time is changed by the camera 150 of Objects can be accurately and conveniently registered and displayed in 3D space.

즉, 단말(100)은, 3차원 공간 상의 실재객체와 가상객체의 위치를 매칭시켜 실재객체 상에 가상객체를 중첩하여 표시할 수 있으며, 이때, 가상객체에 소정의 투명도를 부여하여 사용자가 해당 가상객체 뒤의 실재객체를 함께 인식하게 할 수 있고, 단말(100)의 카메라(150)에 의한 촬영시점이 변동되어도 변동된 실재객체의 위치에 맞게 가상객체를 이동시켜 정확하게 중첩해 표시할 수 있다.That is, the terminal 100 may display the virtual object superimposed on the real object by matching the positions of the real object and the virtual object in the three-dimensional space, and in this case, by giving a predetermined transparency to the virtual object, the user The real object behind the virtual object can be recognized together, and even if the shooting time by the camera 150 of the terminal 100 changes, the virtual object can be moved to match the changed location of the real object and accurately overlapped and displayed. .

한편, 도 12는 본 발명의 다른 실시예에 따른 GPS 연동 기반의 지하시설물 관련 혼합현실 제공방법을 설명하기 위한 흐름도이다. Meanwhile, FIG. 12 is a flowchart illustrating a method for providing mixed reality related to an underground facility based on GPS linkage according to another embodiment of the present invention.

도 12를 참조하면, 본 발명의 다른 실시예에서 단말(100)은, 단말(100)의 위치, 자세 변화를 트래킹하여 인터랙션된 지하시설물 관련 혼합현실을 제공할 수 있다. 이하, 효과적인 설명을 위하여 이상에서 기술된 내용과 중복되는 기재는 요약되거나 생략될 수 있다. Referring to FIG. 12 , in another embodiment of the present invention, the terminal 100 may provide an interactive underground facility-related mixed reality by tracking changes in the position and posture of the terminal 100 . Hereinafter, descriptions overlapping those described above may be summarized or omitted for effective description.

자세히, 먼저 단말(100)은, 카메라(150)를 제어하여 촬영 영상 및 3차원 공간정보를 획득할 수 있다. (S301) In detail, first, the terminal 100 may control the camera 150 to obtain a captured image and 3D spatial information. (S301)

여기서, 단말(100)은, 3차원 공간정보를 전술된 실시예에 따라서 기준점(10)을 기반으로 획득할 수 있다. Here, the terminal 100 may acquire 3D spatial information based on the reference point 10 according to the above-described embodiment.

예를 들어, 도 13을 참조하면 단말(100)은, 현장에 설치되는 표지못을 기준점(10)으로 하여, 상기 기술된 실시예에 따라 카메라(150)를 통해 획득된 촬영 영상으로부터 표지못 오브젝트를 디텍팅할 수 있고, 디텍팅된 표지못 오브젝트에 기반하여 3차원 공간정보를 획득할 수 있다. For example, referring to FIG. 13 , the terminal 100 uses the mark nail installed in the field as the reference point 10, and the mark nail object from the captured image obtained through the camera 150 according to the above-described embodiment. can be detected, and 3D spatial information can be obtained based on the detected nail object.

다른 실시예에서, 단말(100)은, 3차원 공간정보의 3차원 공간 좌표계를 DGPS(고정밀 GPS)를 이용하여 획득할 수도 있다. 즉, 단말(100)은, 촬영 영상의 3차원 공간에 대한 단말의 위치를 추적할 수 있는 3차원 공간 좌표계를 DGPS(고정밀 GPS)에 기초하여 획득할 수도 있다. In another embodiment, the terminal 100 may obtain a 3D spatial coordinate system of 3D spatial information using DGPS (High Precision GPS). That is, the terminal 100 may obtain a three-dimensional spatial coordinate system capable of tracking the location of the terminal in the three-dimensional space of the captured image based on DGPS (High Precision GPS).

다음으로, 단말(100)은, 획득된 3차원 공간정보에 따른 혼합현실(MR) 영상을 디스플레이할 수 있다. (S303)Next, the terminal 100 may display a mixed reality (MR) image according to the obtained 3D spatial information. (S303)

자세히, 단말(100)은, 획득된 3차원 공간정보를 기반으로 해당 3차원 공간에 대한 장면 명세정보를 획득할 수 있고, 획득된 장면 명세정보와 3차원 공간정보에 기초하여 해당 3차원 공간 상에 매칭되는 가상객체를 렌더링(rendering)할 수 있다. 그리고 단말(100)은, 렌더링된 가상객체를 해당 3차원 공간을 나타내는 촬영 영상 상에 중첩하여 혼합현실(MR) 영상으로 표시할 수 있다. In detail, the terminal 100 may obtain scene specification information for the corresponding 3D space based on the obtained 3D spatial information, and may obtain the scene specification information in the 3D space based on the obtained scene specification information and the 3D spatial information. A virtual object matching to can be rendered. In addition, the terminal 100 may display the rendered virtual object as a mixed reality (MR) image by superimposing it on the captured image representing the 3D space.

또한, 단말(100)은, 단말(100)의 이동 및 자세에 따른 카메라(150)의 위치 및 방위 변화를 트래킹(tracking)할 수 있다. (S305)Also, the terminal 100 may track a change in the position and orientation of the camera 150 according to the movement and posture of the terminal 100 . (S305)

자세히, 단말(100)은, 먼저 관성센서(IMU, 140)의 가속도 센서 및/또는 자이로 센서 등을 기반으로 단말(100)의 카메라(150) 위치 및 방위 변화를 트래킹해 3차원 공간정보를 업데이트할 수 있다. In detail, the terminal 100 first updates the 3D spatial information by tracking changes in the position and orientation of the camera 150 of the terminal 100 based on the acceleration sensor and/or the gyro sensor of the inertial sensor (IMU, 140). can do.

여기서, 관성센서(IMU, 140)의 위치 및 방위 변화에 대한 민감도는 매우 높아, 실시간으로 미세하게 변화하는 단말(100)의 위치 및 방위 변화 정보를 즉시 센싱할 수 있으며, 프로세서는 이러한 관성센서(IMU, 140)의 실시간 센싱 데이터에 기초하여 단말(100)의 위치, 방위 변화를 트래킹하여 가상객체를 업데이트하여 표시할 수 있다. Here, the sensitivity to changes in the position and orientation of the inertial sensor (IMU, 140) is very high, so it is possible to immediately sense information on the change in the position and orientation of the terminal 100 that is minutely changed in real time, and the processor uses the inertial sensor ( Based on the real-time sensing data of the IMU 140 , a change in the position and orientation of the terminal 100 may be tracked and the virtual object may be updated and displayed.

다만, 관성센서(IMU, 140)의 트래킹 정보는 데이터가 쌓일수록 공간 추적 누적오차가 발생하여 정확도가 낮아질 가능성이 있고, 이로 인해 가상객체가 적절한 위치에 표출되기 어려울 수 있다. However, the tracking information of the inertial sensor (IMU, 140) may have a lower accuracy due to a spatial tracking cumulative error occurring as data is accumulated, and thus it may be difficult to display the virtual object at an appropriate location.

이를 방지하기 위해, 단말(100)은, DGPS(고정밀 GPS)에 기반하여 카메라(150)의 위치 변화를 추적할 수 있고, 실시간으로 관성센서(IMU, 140)에 의해 추적된 3차원 공간 좌표계를 업데이트함으로써, 누적오차를 보정할 수 있다. To prevent this, the terminal 100 may track the position change of the camera 150 based on DGPS (high-precision GPS), and a three-dimensional spatial coordinate system tracked by the inertial sensor (IMU, 140) in real time. By updating, the accumulated error can be corrected.

또한, 실시예에서 단말(100)은, 시각적 관성 거리계(VIO, Visual Inertial Odometry) 기술에 기반하여 카메라(150)를 통해 획득된 실재객체 즉, 기준점(10)을 인식한 정보를 기초로 카메라(150)의 자세 및 위치 변화를 트래킹하고, 이를 기반으로 3차원 공간정보를 업데이트하여, 관성센서(IMU, 140)로 추적된 3차원 공간정보의 누적오차를 보정할 수 있다. In addition, in the embodiment, the terminal 100 is a real object obtained through the camera 150 based on the Visual Inertial Odometry (VIO) technology, that is, based on the information recognizing the reference point 10, the camera ( 150), the 3D spatial information is updated based on this, and the accumulated error of the 3D spatial information tracked by the inertial sensor (IMU, 140) can be corrected.

자세히, 본 실시예에서 단말(100)은, 카메라(150)의 자세 및 위치 변화를 보다 정확하게 트래킹하여 3차원 공간정보를 갱신하기 위해, 도 14과 같이 시각적 관성 거리계(VIO, Inertial Odometry) 기술을 기반으로 단말(100)의 이동에 따른 카메라(150)의 위치 및 방위 변화를 트래킹할 수 있다. In detail, in this embodiment, the terminal 100 uses a visual inertial odometry (VIO) technology as shown in FIG. 14 in order to more accurately track changes in the posture and position of the camera 150 to update 3D spatial information. Based on the movement of the terminal 100, it is possible to track a change in the position and orientation of the camera 150.

여기서, 시각적 관성 거리계 기술은, 카메라(150)를 통해 획득되는 비주얼(visual) 정보를 분석하여 지형지물을 기반으로 위치와 방향을 결정하는 기술을 의미한다. Here, the visual inertial rangefinder technology refers to a technology that analyzes visual information obtained through the camera 150 to determine a location and a direction based on a feature.

즉, 단말(100)은, 카메라(150) 촬영 영상으로부터 획득되는 실재객체인 기준점(10)(예컨대, 표지못 및/또는 맨홀 등)에 대한 인식 정보를 활용하여 카메라(150)의 위치 및 방위 변화를 판단할 수 있고, 이를 기초로 관성센서(IMU, 140)와 DGPS(고정밀 GPS)를 통해 획득된 트래킹 정보를 보정하여 3차원 공간정보를 업데이트할 수 있다. That is, the terminal 100 utilizes the recognition information on the reference point 10 (eg, a sign nail and/or a manhole, etc.) which is a real object obtained from the image taken by the camera 150 to the position and orientation of the camera 150 . The change can be determined, and the 3D spatial information can be updated by correcting the tracking information obtained through the inertial sensor (IMU, 140) and the DGPS (high-precision GPS) based on this.

보다 상세히, 먼저 단말(100)은, 카메라(150) 촬영 영상을 통해 획득되는 3차원 공간에서 기준점(10) 오브젝트를 디텍팅(detecting)할 수 있다. In more detail, first, the terminal 100 may detect the reference point 10 object in the three-dimensional space obtained through the image captured by the camera 150 .

즉, 단말(100)은, 촬영 영상을 기반으로 이미지 딥러닝를 수행하여 촬영 영상으로부터 식별된 실재객체 중, 각 지하시설물과 매칭되어 현장에 설치되는 기준점(10) 오브젝트를 검출할 수 있다. That is, the terminal 100 may perform image deep learning based on the captured image to detect the reference point 10 object that is matched with each underground facility and installed in the field among the real objects identified from the captured image.

그리고 단말(100)은, 촬영 영상에서 검출되는 적어도 하나 이상의 기준점(10)에 기초하여 3차원 공간정보를 갱신할 수 있다. In addition, the terminal 100 may update the 3D spatial information based on at least one or more reference points 10 detected in the captured image.

자세히, 단말(100)은, 검출된 적어도 하나 이상의 기준점(10)에 기초하여 시각적 관성 거리계 기술에 기반한 카메라(150)의 위치 및 방위 변화 트래킹을 수행할 수 있다. In detail, the terminal 100 may perform tracking of changes in the position and orientation of the camera 150 based on the visual inertial rangefinder technology based on the detected at least one or more reference points 10 .

본 실시예에서, 시각적 관성 거리계 기술에 기반한 카메라(150)의 위치 및 방위 변화 트래킹을 수행하는 방법은 종래의 공지된 수학적 알고리즘을 적용할 수 있으며, 본 발명에서는 이러한 시각적 관성 거리계 기술에 기반한 카메라(150)의 위치 및 방위 변화 트래킹을 수행하는 알고리즘 자체를 한정하거나 제한하지는 않는다. In the present embodiment, a method of performing position and orientation change tracking of the camera 150 based on the visual inertial rangefinder technology may apply a conventionally known mathematical algorithm, and in the present invention, the camera ( 150) does not limit or limit the algorithm itself for performing position and orientation change tracking.

즉, 단말(100)은, 감지된 적어도 하나 이상의 기준점(10)에 기초하여 VIO 기술에 기반한 카메라(150)의 위치 및 방위 변화 트래킹을 수행할 수 있고, 이를 통해 공간-카메라(150) 간의 연속 위치 및 방위 추적에 기반한 트래킹 보정정보를 생성할 수 있다. That is, the terminal 100 may perform position and orientation change tracking of the camera 150 based on the VIO technology based on the sensed at least one or more reference points 10 , and through this, the space-to-camera 150 continuity It is possible to generate tracking correction information based on location and orientation tracking.

여기서, 트래킹 보정정보는, 관성센서(IMU, 140) 및/또는 DGPS(고정밀 GPS)에 의하여 획득되는 트래킹 정보를 VIO 기술을 기반으로 획득되는 트래킹 정보에 기반하여 보정하는 정보일 수 있다. Here, the tracking correction information may be information for correcting the tracking information obtained by the inertial sensor (IMU, 140) and/or DGPS (high precision GPS) based on the tracking information obtained based on the VIO technology.

예를 들어, 트래킹 보정정보는, 관성센서(IMU, 140) 및/또는 DGPS(고정밀 GPS)에 의해 획득된 카메라(150)의 위치 및 방위에 따른 촬영 영상의 기준점(10)(예컨대, 표지못) 위치와, 시각적 관성 거리계 기술에 의해 획득된 카메라(150)의 위치 및 방위에 따른 촬영 영상의 기준점(10)(예컨대, 표지못) 위치 간의 오차 정보를 포함하는 정보일 수 있다. For example, the tracking correction information is the reference point 10 of the captured image according to the position and orientation of the camera 150 acquired by the inertial sensor (IMU, 140) and/or DGPS (high-precision GPS) (eg, a mark nail). ) position, and information including error information between the position of the reference point 10 (eg, a nail) of the captured image according to the position and orientation of the camera 150 obtained by the visual inertial rangefinder technology.

자세히, 예컨대 단말(100)은, 관성센서(IMU, 140) 및/또는 DGPS(고정밀 GPS)에 의해 획득된 카메라(150)의 위치 및 방위에 따른 카메라(150) 촬영 영상에서의 제 1 기준점과 제 2 기준점의 위치를 해당 3차원 공간에 매칭된 3차원 정합 좌표계에 기초하여 획득할 수 있다. 또한, 단말(100)은, 시각적 관성 거리계 기술에 의해 획득된 카메라(150)의 위치 및 방위에 따른 카메라(150) 촬영 영상에서의 제 1 기준점 및 제 2 기준점의 위치를 해당 3차원 공간에 매칭된 3차원 정합 좌표계에 기초하여 획득할 수 있다. In detail, for example, the terminal 100, the first reference point in the image taken by the camera 150 according to the position and orientation of the camera 150 obtained by the inertial sensor (IMU, 140) and / or DGPS (high-precision GPS) and The position of the second reference point may be obtained based on a three-dimensional matching coordinate system matched to a corresponding three-dimensional space. In addition, the terminal 100 matches the positions of the first reference point and the second reference point in the image taken by the camera 150 according to the position and orientation of the camera 150 obtained by the visual inertial rangefinder technology to the corresponding three-dimensional space. It can be obtained based on the three-dimensional matching coordinate system.

그리고 단말(100)은, 관성센서(IMU, 140) 및/또는 DGPS(고정밀 GPS)에 의한 제 1 및 2 기준점(10)의 위치와 시각적 관성 거리계 기술에 의한 제 1 및 2 기준점(10)의 위치를 비교하여 정확히 매칭하는지를 판단할 수 있다. And the terminal 100, the position of the first and second reference points 10 by the inertial sensor (IMU, 140) and / or DGPS (high-precision GPS) and the first and second reference points 10 by the visual inertial rangefinder technology. By comparing the positions, it is possible to determine whether they match exactly.

이때, 단말(100)은, 관성센서(IMU, 140) 및/또는 DGPS(고정밀 GPS)에 의한 제 1 및 2 기준점(10)의 위치와 시각적 관성 거리계 기술에 의한 제 1 및 2 기준점(10)의 위치 간의 매칭 정도를 파악하여, 상기 위치 간의 오차의 정도를 나타내는 오차 정보를 획득할 수 있다. At this time, the terminal 100, the position of the first and second reference points 10 by the inertial sensor (IMU, 140) and / or DGPS (high-precision GPS) and the first and second reference points 10 by the visual inertial rangefinder technology It is possible to obtain error information indicating the degree of error between the positions by determining the degree of matching between the positions of the .

계속해서, 오차 정보를 획득한 단말(100)은, 획득된 오차 정보에 기반하여 트래킹 보정정보를 생성할 수 있고, 생성된 트래킹 보정정보를 기초로 관성센서(IMU, 140) 및/또는 DGPS(고정밀 GPS)에 의해 생성되어 있던 카메라(150)의 위치 및 방위 변화에 대한 트래킹 정보를 보정할 수 있다. Subsequently, the terminal 100 that has obtained the error information may generate tracking correction information based on the obtained error information, and based on the generated tracking correction information, an inertial sensor (IMU, 140) and/or DGPS ( It is possible to correct the tracking information for the position and orientation change of the camera 150 generated by the high-precision GPS).

그리고 시각적 관성 거리계 기술에 기반하여 트래킹 정보를 보정한 단말(100)은, 보정된 트래킹 정보를 기초로 3차원 공간정보를 업데이트할 수 있다. And the terminal 100, which has corrected the tracking information based on the visual inertial rangefinder technology, may update the 3D spatial information based on the corrected tracking information.

이상에서는, 관성센서(IMU, 140) 및/또는 DGPS(고정밀 GPS)에 의해 획득된 카메라(150)의 위치 및 방위에 따른 촬영 영상의 기준점(10) 위치와, 시각적 관성 거리계 기술에 의해 획득된 카메라(150)의 위치 및 방위에 따른 촬영 영상의 기준점(10) 위치 간의 오차를 기반으로 트래킹 보정정보를 생성하고, 이를 기반으로 기존의 트래킹 정보를 보정하여 3차원 공간정보를 갱신하는 예에 한정하여 설명하였으나, 이는 본 발명의 일례일 뿐 이에 한정되는 것은 아니며, 관성센서(IMU, 140) 및/또는 DGPS(고정밀 GPS)와 VIO 기술에 기반하여 카메라(150)의 위치 및 방위를 트래킹하고 3차원 공간정보를 갱신하는 다양한 실시예들이 가능할 것이다. In the above, the position of the reference point 10 of the captured image according to the position and orientation of the camera 150 obtained by the inertial sensor (IMU, 140) and/or DGPS (high precision GPS), and the visual inertial rangefinder technology obtained by It is limited to an example of generating tracking correction information based on an error between the positions of the reference point 10 of the captured image according to the position and orientation of the camera 150 and updating the 3D spatial information by correcting the existing tracking information based on this. However, this is only an example of the present invention and is not limited thereto, and tracking the position and orientation of the camera 150 based on the inertial sensor (IMU, 140) and/or DGPS (high-precision GPS) and VIO technology 3 Various embodiments of updating dimensional spatial information may be possible.

다음으로, 위와 같이 단말의 이동에 따른 카메라(150)의 위치 및 방위 변화를 트래킹하고, 이를 기반으로 3차원 공간정보를 업데이트한 단말(100)은, 트래킹에 따라 업데이트된 3차원 공간정보를 기반으로 장면 명세정보를 갱신할 수 있다. (S307) Next, the terminal 100, which tracks the position and orientation change of the camera 150 according to the movement of the terminal as described above, and updates the 3D spatial information based on this, is based on the 3D spatial information updated according to the tracking. to update the scene specification information. (S307)

자세히, 단말(100)은, 업데이트된 3차원 공간정보에 기초하여 이에 매칭되는 3차원 공간에 대한 장면 명세정보로 업데이트를 수행할 수 있다.In detail, the terminal 100 may perform an update with scene specification information for a 3D space that matches the updated 3D spatial information based on the updated 3D spatial information.

즉, 단말(100)은, 업데이트된 3차원 공간정보를 기반으로, 초기 3차원 공간정보에 기초하여 생성되어 있던 장면 명세정보를 업데이트할 수 있다. That is, the terminal 100 may update the scene specification information generated based on the initial 3D spatial information based on the updated 3D spatial information.

자세히, 단말(100)은, 업데이트된 3차원 공간정보를 기반으로 장면 명세정보의 가상객체 위치(좌표) 설정정보, 가상객체 방위 설정정보 및 가상객체 스케일 설정정보 중 적어도 하나 이상에 대한 업데이트를 수행할 수 있다. In detail, the terminal 100 performs an update of at least one of virtual object position (coordinate) setting information, virtual object orientation setting information, and virtual object scale setting information of scene specification information based on the updated 3D spatial information. can do.

다음으로, 장면 명세정보를 갱신한 단말(100)은, 갱신된 장면 명세정보에 따라서 렌더링된 혼합현실(MR) 영상을 디스플레이할 수 있다. (S309)Next, the terminal 100 that has updated the scene specification information may display the rendered mixed reality (MR) image according to the updated scene specification information. (S309)

자세히, 단말(100)은, 업데이트된 장면 명세정보와 갱신된 3차원 공간정보의 초기 카메라 자세 및 초기 카메라 위치에 기초하여, 촬영 영상의 3차원 공간 상에 매칭되는 가상객체를 정합해 렌더링(rendering)할 수 있다. In detail, the terminal 100 matches and renders a virtual object matching on the three-dimensional space of the captured image based on the updated scene specification information and the initial camera posture and initial camera position of the updated three-dimensional spatial information. )can do.

보다 상세히, 단말(100)은, 갱신된 3차원 공간정보의 초기 카메라 자세 및 초기 카메라 위치를 기반으로 단말(100)의 카메라(150) 시점 즉, 단말의 자세(방위)와 위치를 판단할 수 있고, 업데이트된 장면 명세정보에 기반하여 판단된 카메라(150) 시점에 따라 촬영된 촬영 영상의 3차원 공간에 매칭되는 가상객체를 정합하여 렌더링을 수행할 수 있다. In more detail, the terminal 100 may determine the camera 150 viewpoint of the terminal 100 based on the initial camera posture and the initial camera position of the updated 3D spatial information, that is, the posture (azimuth) and position of the terminal. In addition, rendering may be performed by matching virtual objects matching the three-dimensional space of the captured image according to the viewpoint of the camera 150 determined based on the updated scene specification information.

그리고 단말(100)은, 렌더링된 가상객체를 디스플레이부(120)를 통해 촬영 영상에 중첩하여 출력할 수 있다. In addition, the terminal 100 may output the rendered virtual object by superimposing it on the captured image through the display unit 120 .

이상, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, 사용자의 단말과 연동하여 지하시설물 관련 데이터와 혼합현실(MR, Mixed Reality) 기술을 융합해 지하시설물을 용이하게 관리 및 감독하게 함으로써, 혼합현실 기술에 기반해 상·하수도, 전기, 통신, 가스관, 건물 전기 배선, 냉난방 배관 등의 지하시설물에 대한 실시간 정보를 3차원 시각화하여 사용자에게 제공할 수 있고, 지하 매설물 및 건물 매립물 점검·정비에 특화된 실증 콘텐츠를 제공하는 혼합현실 서비스 인프라를 구축할 수 있는 효과가 있다. As described above, the method and system for providing mixed reality related to underground facilities according to an embodiment of the present invention integrates data related to underground facilities and mixed reality (MR, Mixed Reality) technology in conjunction with a user's terminal to facilitate management and management of underground facilities By supervising, based on mixed reality technology, it is possible to provide users with 3D visualization of real-time information on underground facilities such as water and sewage, electricity, communication, gas pipes, electrical wiring of buildings, and heating and cooling pipes, and to provide users with underground facilities and buildings. It has the effect of building a mixed reality service infrastructure that provides empirical content specialized for landfill inspection and maintenance.

또한, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, 사용자의 단말과 실시간으로 상호작용하여 사용자 단말의 위치 및/또는 방위(자세)의 변화에 따라서 실시간 업데이트된 지하시설물 정보를 혼합현실을 이용해 제공함으로써, 사용자가 지하시설물 정보를 확인하고자 하는 공간에 매칭되는 지하시설물 정보를 정확하고 편리하게 제공할 수 있는 효과가 있다. In addition, the method and system for providing a mixed reality related to an underground facility according to an embodiment of the present invention interact with the user's terminal in real time to update the underground facility information in real time according to a change in the location and/or orientation (attitude) of the user terminal by using mixed reality, there is an effect that it is possible to accurately and conveniently provide information on underground facilities that matches the space in which the user wants to check information on underground facilities.

또한, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, DGPS(Differential Global Positioning System, 고정밀 GPS)를 활용하여 3차원 공간과 지하시설물을 매칭해 정합함으로써, 보다 향상된 정확도를 가지는 지하시설물 정보를 제공할 수 있는 효과가 있다. In addition, the method and system for providing mixed reality related to underground facilities according to an embodiment of the present invention utilizes DGPS (Differential Global Positioning System, high-precision GPS) to match and match a three-dimensional space with an underground facility, thereby having improved accuracy. It has the effect of providing information on underground facilities.

또한, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, 지하시설물 정보를 제공하기 위한 이미지 인식·추적·학습 기술 및 3차원 공간인식·카메라 추적 기술을 구현함으로써, 퀄리티 높은 지하시설물 정보를 제공할 수 있고, 이를 통해 지하시설물 조사, 분석, 설계, 교육 예방, 감리 업무 등의 효율성을 극대화할 수 있는 효과가 있다. In addition, the method and system for providing underground facility-related mixed reality according to an embodiment of the present invention implements image recognition/tracking/learning technology and 3D spatial recognition/camera tracking technology for providing information on underground facilities, thereby providing high quality underground It is possible to provide facility information, which has the effect of maximizing the efficiency of underground facility investigation, analysis, design, prevention of education, and supervision.

또한, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, 단말의 카메라 및/또는 관성센서(IMU, Inertial Measurement Unit)를 활용해 사용자 단말의 위치 및/또는 방위(자세)의 변화에 따른 지하시설물 정보를 제공함으로써, 별도의 위치추적 장치가 없어도 자체적인 알고리즘 및 프로세스를 통해 사용자 단말의 상태변화에 따른 지하시설물 정보를 제공할 수 있는 효과가 있다. In addition, the method and system for providing mixed reality related to underground facilities according to an embodiment of the present invention utilizes a camera and/or an inertial sensor (IMU, Inertial Measurement Unit) of the terminal to determine the position and/or orientation (posture) of the user terminal. By providing information on underground facilities according to changes, there is an effect that it is possible to provide information on underground facilities according to changes in the state of the user terminal through its own algorithm and process without a separate location tracking device.

또한, 본 발명의 실시예에 따른 지하시설물 관련 혼합현실 제공방법 및 시스템은, 국가공간정보 플랫폼(V-WORLD)에서 제공하는 3D 공간정보에 기반하여 지하에 매설된 지하시설물을 전자지도 도면 상에 맵핑함으로써, 수치지형을 포함하여 보다 사실적이고 정확한 지하시설물의 형상을 제공할 수 있고, 기존 인프라 및 신규 소프트웨어(S/W)의 호환 및 성능을 보장할 수 있는 효과가 있다. In addition, the method and system for providing mixed reality related to underground facilities according to an embodiment of the present invention is based on the 3D spatial information provided by the national spatial information platform (V-WORLD), the underground facilities buried underground on the electronic map drawing. By mapping, it is possible to provide a more realistic and accurate shape of underground facilities including numerical topography, and to ensure compatibility and performance of existing infrastructure and new software (S/W).

또한, 이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.In addition, the embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be converted into one or more software modules to perform processing according to the present invention, and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are only examples, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections, physical connections that are replaceable or additional may be referred to as connections, or circuit connections. In addition, unless there is a specific reference such as “essential” or “importantly”, it may not be a necessary component for the application of the present invention.

또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, although the detailed description of the present invention has been described with reference to a preferred embodiment of the present invention, those skilled in the art or those having ordinary knowledge in the art will appreciate the spirit of the present invention described in the claims to be described later. And it will be understood that various modifications and variations of the present invention can be made without departing from the technical scope. Accordingly, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be defined by the claims.

Claims (7)

단말의 프로세서에서 지하시설물 관련 데이터와 혼합현실 기술을 기반으로 지하에 매설된 시설물을 관리 및 감독하는 지하시설물 관련 혼합현실을 제공하는 방법으로서,
카메라를 제어하여 촬영 영상을 획득하는 단계;
상기 촬영 영상을 이미지 처리하여 기준점 오브젝트를 디텍팅하는 단계;
상기 기준점 오브젝트에서 기준점에 표시된 코드를 인식하는 단계;
상기 인식된 코드와 매칭되는 3차원 공간모델 정보를 획득하는 단계;
상기 획득된 3차원 공간모델 정보를 기초로 상기 촬영 영상에 대한 3차원 공간정보를 설정하는 단계; 및
상기 3차원 공간정보에 따라서 상기 촬영 영상 상에 가상객체를 렌더링하여 생성된 혼합현실(MR) 영상을 디스플레이하는 단계를 포함하고,
상기 촬영 영상을 이미지 처리하여 기준점 오브젝트를 디텍팅하는 단계는, 지하시설물과 매칭되며 적어도 하나 이상의 코드가 표시된 원형의 표지못을 상기 기준점 오브젝트로 디텍팅하는 단계를 포함하고,
상기 기준점 오브젝트에서 기준점에 표시된 코드를 인식하는 단계는, 상기 촬영 영상에서 상기 표지못을 타원으로 검출하는 단계와, 상기 타원의 영역의 이미지를 정원형 이미지로 호모그래피 변환하고 호모그래피 변환정보를 획득하는 단계와, 상기 변환된 정원형 이미지에서 양각 또는 음각으로 표시된 코드를 검출하고 인식하는 단계를 포함하고,
상기 인식된 코드와 매칭되는 3차원 공간모델 정보를 획득하는 단계는, 상기 인식된 코드에 대해 기 저장된 상기 표지못에 매칭된 지하시설물의 위치 및 방위에 대한 정보를 검출하는 단계를 포함하고,
상기 촬영 영상에 대한 3차원 공간정보를 설정하는 단계는, 상기 호모그래피 변환정보에 따라서 초기 카메라 자세를 결정하는 단계를 포함하고,
상기 초기 카메라 자세를 결정한 후 카메라의 위치 및 방위 변화를 호모그래피 변환정보의 변화에 따라서 트래킹(tracking)하여 상기 3차원 공간정보를 업데이트하는 단계와, 상기 업데이트된 3차원 공간정보에 따라 가상객체를 갱신하는 단계와, 상기 갱신된 가상객체를 상기 촬영 영상에 렌더링하여 디스플레이하는 단계를 더 포함하는
지하시설물 관련 혼합현실 제공방법.
A method of providing mixed reality related to underground facilities that manages and supervises facilities buried underground based on data and mixed reality technology related to underground facilities in the processor of the terminal,
controlling the camera to obtain a captured image;
detecting a reference point object by image processing the captured image;
recognizing a code displayed on a reference point in the reference point object;
obtaining 3D spatial model information matching the recognized code;
setting 3D spatial information for the captured image based on the obtained 3D spatial model information; and
and displaying a mixed reality (MR) image generated by rendering a virtual object on the captured image according to the three-dimensional spatial information,
The step of detecting a reference point object by image processing the photographed image includes detecting a circular sign nail that matches an underground facility and is marked with at least one code as the reference point object,
The step of recognizing the code displayed on the reference point in the reference point object includes the steps of detecting the sign nail as an ellipse in the captured image, homography-converting the image of the ellipse region into a circular image, and obtaining homography conversion information and detecting and recognizing a code displayed as embossed or engraved in the converted circular image,
The step of obtaining the three-dimensional space model information matching the recognized code includes detecting information about the location and orientation of the underground facility matched to the sign nail pre-stored with respect to the recognized code,
The step of setting the three-dimensional spatial information for the captured image includes determining an initial camera posture according to the homography transformation information,
After determining the initial camera posture, tracking changes in the position and orientation of the camera according to changes in homography transformation information to update the 3D spatial information; The method further comprising: updating, rendering and displaying the updated virtual object on the captured image.
A method of providing mixed reality related to underground facilities.
제 1 항에 있어서,
상기 인식된 코드와 매칭되는 3차원 공간모델 정보를 획득하는 단계는, 상기 촬영 영상의 3차원 공간을 특정하는 상기 기준점 오브젝트의 3차원 좌표를 획득하는 단계를 포함하는
지하시설물 관련 혼합현실 제공방법.
The method of claim 1,
The obtaining of the three-dimensional space model information matching the recognized code includes obtaining three-dimensional coordinates of the reference point object specifying the three-dimensional space of the captured image.
A method of providing mixed reality related to underground facilities.
제 2 항에 있어서,
상기 촬영 영상에 대한 3차원 공간정보를 설정하는 단계는, 상기 획득된 기준점 오브젝트의 3차원 좌표를 기초로 상기 촬영 영상에 대한 3차원 공간 좌표계를 설정하는 단계를 포함하는
지하시설물 관련 혼합현실 제공방법.
3. The method of claim 2,
The step of setting the three-dimensional spatial information for the captured image includes setting a three-dimensional spatial coordinate system for the captured image based on the obtained three-dimensional coordinates of the reference point object
A method of providing mixed reality related to underground facilities.
제 2 항에 있어서,
상기 인식된 코드와 매칭되는 3차원 공간모델 정보를 획득하는 단계는, 상기 기준점 오브젝트의 크기(scale)를 획득하는 단계를 더 포함하고,
상기 촬영 영상에 대한 3차원 공간정보를 설정하는 단계는, 상기 기준점 오브젝트의 크기와 상기 기준점 오브젝트를 표시하는 픽셀을 기반으로 기준점 스케일 정보를 획득하는 단계를 포함하는
지하시설물 관련 혼합현실 제공방법.
3. The method of claim 2,
The step of obtaining the three-dimensional spatial model information matching the recognized code further includes obtaining a scale of the reference point object,
The step of setting the 3D spatial information for the captured image includes obtaining reference point scale information based on a size of the reference point object and a pixel displaying the reference point object
A method of providing mixed reality related to underground facilities.
제 4 항에 있어서,
상기 3차원 공간정보에 따라서 상기 촬영 영상 상에 가상객체를 렌더링하여 생성된 혼합현실(MR) 영상을 디스플레이하는 단계는, 상기 촬영 영상의 3차원 공간에 매칭되는 상기 가상객체의 크기를 상기 기준점 스케일 정보에 따라서 상기 촬영 영상에 증강하는 단계를 포함하는
지하시설물 관련 혼합현실 제공방법.
5. The method of claim 4,
The displaying of a mixed reality (MR) image generated by rendering a virtual object on the captured image according to the three-dimensional spatial information may include adjusting the size of the virtual object matching the three-dimensional space of the captured image to the reference point scale. Comprising the step of augmenting the captured image according to the information
A method of providing mixed reality related to underground facilities.
삭제delete 제 1 항에 있어서,
상기 초기 카메라 자세를 결정한 후 카메라의 위치 및 방위 변화를 호모그래피 변환정보의 변화에 따라서 트래킹(tracking)하여 상기 3차원 공간정보를 업데이트하는 단계는,
관성센서(IMU)의 실시간 센싱 데이터에 기초하여 상기 3차원 공간정보를 업데이트하는 단계와, 상기 업데이트된 3차원 공간정보를 시각적 관성 거리계(VIO, Visual Inertial Odometry) 기술에 기반하여 인식된 기준점 오브젝트의 위치 및 방향을 기초로 상기 업데이트된 3차원 공간정보를 보정하는 단계를 포함하는
지하시설물 관련 혼합현실 제공방법.
The method of claim 1,
The step of updating the three-dimensional spatial information by tracking the change in the position and orientation of the camera according to the change of the homography conversion information after determining the initial camera posture,
Updating the 3D spatial information based on real-time sensing data of an inertial sensor (IMU), and using the updated 3D spatial information of a reference point object recognized based on a Visual Inertial Odometry (VIO) technology Comprising the step of correcting the updated 3D spatial information based on the location and direction
A method of providing mixed reality related to underground facilities.
KR1020190101741A 2019-08-20 2019-08-20 Method and system for providing mixed reality contents related to underground facilities KR102264219B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190101741A KR102264219B1 (en) 2019-08-20 2019-08-20 Method and system for providing mixed reality contents related to underground facilities

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190101741A KR102264219B1 (en) 2019-08-20 2019-08-20 Method and system for providing mixed reality contents related to underground facilities

Publications (2)

Publication Number Publication Date
KR20210022343A KR20210022343A (en) 2021-03-03
KR102264219B1 true KR102264219B1 (en) 2021-06-11

Family

ID=75151183

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190101741A KR102264219B1 (en) 2019-08-20 2019-08-20 Method and system for providing mixed reality contents related to underground facilities

Country Status (1)

Country Link
KR (1) KR102264219B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102531232B1 (en) * 2022-12-12 2023-05-11 (주)소다시스템 Method and System for GPR Investigating on the basis of LiDAR and Positioning Information
KR102596013B1 (en) 2022-09-19 2023-10-31 (주)베이시스소프트 3D underground information construction and generation method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102448466B1 (en) * 2020-11-03 2022-09-30 아이씨티웨이주식회사 Image processing device for partial renewal of 3D underground facilities
JP2024005485A (en) * 2022-06-30 2024-01-17 キヤノン株式会社 Head-mounted display device, state determination device, method for controlling head-mounted display device, method for controlling state determination device, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100997084B1 (en) * 2010-06-22 2010-11-29 (주)올포랜드 A method and system for providing real time information of underground object, and a sever and method for providing information of the same, and recording medium storing a program thereof
KR101350778B1 (en) 2013-10-23 2014-01-13 새한항업(주) System for providing real time information of underground object

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101665399B1 (en) * 2014-12-16 2016-10-13 이주성 Object generation apparatus and method of based augmented reality using actual measured
KR20180048299A (en) * 2016-11-01 2018-05-10 공간정보기술 주식회사 Apparatus and method for acquiring position invormaiton of underground facilities
KR102032974B1 (en) 2017-05-30 2019-11-08 주식회사 차후 Mobile terminal, management server for underground facility and system for managing underground facility based on 3d spatial information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100997084B1 (en) * 2010-06-22 2010-11-29 (주)올포랜드 A method and system for providing real time information of underground object, and a sever and method for providing information of the same, and recording medium storing a program thereof
KR101350778B1 (en) 2013-10-23 2014-01-13 새한항업(주) System for providing real time information of underground object

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102596013B1 (en) 2022-09-19 2023-10-31 (주)베이시스소프트 3D underground information construction and generation method
KR102531232B1 (en) * 2022-12-12 2023-05-11 (주)소다시스템 Method and System for GPR Investigating on the basis of LiDAR and Positioning Information

Also Published As

Publication number Publication date
KR20210022343A (en) 2021-03-03

Similar Documents

Publication Publication Date Title
KR102264219B1 (en) Method and system for providing mixed reality contents related to underground facilities
US10962366B2 (en) Visual odometry and pairwise alignment for high definition map creation
US9619944B2 (en) Coordinate geometry augmented reality process for internal elements concealed behind an external element
KR100997084B1 (en) A method and system for providing real time information of underground object, and a sever and method for providing information of the same, and recording medium storing a program thereof
JP5682060B2 (en) Image composition apparatus, image composition program, and image composition system
EP3798993A1 (en) Design engineering tools for visualizing existing utility lines within a land area and validating placement of new utility lines
KR20180132183A (en) Mobile terminal, management server for underground facility and system for managing underground facility based on 3d spatial information
KR101305059B1 (en) A method and system for editing numerical map in real time, and a sever, and recording medium storing a program thereof
WO2020264222A1 (en) Image-based keypoint generation
US10997785B2 (en) System and method for collecting geospatial object data with mediated reality
Gomez-Jauregui et al. Quantitative evaluation of overlaying discrepancies in mobile augmented reality applications for AEC/FM
Chung et al. Augmented reality navigation system on android
Hansen et al. Augmented reality for subsurface utility engineering, revisited
KR102097416B1 (en) An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof
US20200143598A1 (en) Method of generating a virtual design environment
Muthalif et al. A review of augmented reality visualization methods for subsurface utilities
Wither et al. Using aerial photographs for improved mobile AR annotation
CN108955723B (en) Method for calibrating augmented reality municipal pipe network
Lobo et al. Opportunities and challenges for Augmented Reality situated geographical visualization
CN111724485B (en) Method, device, electronic equipment and storage medium for realizing virtual-real fusion
Kaddioui et al. Uses of augmented reality for urban utilities management
JP2018091721A (en) Underground pipe management device, method for managing underground pipe, and underground pipe management program
US10185787B1 (en) Tool for accurate onsite model visualization that facilitates environment interaction
KR20150020421A (en) A measurement system based on augmented reality approach using portable servey terminal
US11836855B2 (en) System and method for harmonization of vertical projections for displaying of geospatial object data in mediated reality

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant