KR20190114696A - An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof - Google Patents

An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof Download PDF

Info

Publication number
KR20190114696A
KR20190114696A KR1020180067690A KR20180067690A KR20190114696A KR 20190114696 A KR20190114696 A KR 20190114696A KR 1020180067690 A KR1020180067690 A KR 1020180067690A KR 20180067690 A KR20180067690 A KR 20180067690A KR 20190114696 A KR20190114696 A KR 20190114696A
Authority
KR
South Korea
Prior art keywords
dimensional
pipeline
information
smart terminal
augmented reality
Prior art date
Application number
KR1020180067690A
Other languages
Korean (ko)
Other versions
KR102097416B1 (en
Inventor
이효진
서호석
김지성
심재민
Original Assignee
주식회사 지오멕스소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 지오멕스소프트 filed Critical 주식회사 지오멕스소프트
Publication of KR20190114696A publication Critical patent/KR20190114696A/en
Application granted granted Critical
Publication of KR102097416B1 publication Critical patent/KR102097416B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Graphics (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method of expressing an augmented reality to manage an underground pipeline in consideration of an orthometric height, configured to express an underground pipeline having an orthometric height into an augmented reality using established two-dimensional underground pipeline geographic information system (GIS) database (DB) and geographic information, and to a recording medium recording the same. The method comprises the steps of: (a) measuring a position (hereafter, referred to a current position) and a posture of a smart terminal; (b) extracting three-dimensional geographic information about a topography within a predetermined range of the current position and two-dimensional pipeline information including a location and a depth of a pipeline; (c) generating a three-dimensional pipeline object by applying the three-dimensional geographic information to the two-dimensional pipeline information; (d) extracting a location and direction of a viewpoint of a camera of the smart terminal; (e) generating a two-dimensional projection image by projecting the three-dimensional pipeline object with respect to the viewpoint of a camera using the extracted location and direction of a viewpoint of a camera; and (f) synthesizing the projection image with a front image captured by the camera of the smart terminal and displaying the synthesized image. According to the method and the recording medium, it is possible to be simultaneously connected in at least one field, identify space information, and allow for organic data sharing between a manager of the space information and a worker working in the field by building a service which stores space information and provides a related service.

Description

표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법 및 이를 기록한 기록매체 { An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof }An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium according to elevation differences

본 발명은 표고차가 존재하는 지하관로를 기존에 구축되어 있는 2차원의 지하관로 GIS(Geographic Information System) 데이터베이스(Database: DB)와 지형정보를 이용하여 증강 현실로 표현하는, 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법 및 이를 기록한 기록매체에 관한 것이다.The present invention is a two-dimensional underground pipe that has an existing elevation difference, which is represented by augmented reality using a geographic information system (GIS) database (DB) and terrain information. It relates to an augmented reality representation method for management and a recording medium recording the same.

일반적으로, 증강 현실(Augmented Reality: AR) 기술은 사용자가 눈으로 보는 현실 세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주는 기술이다. 예컨대, 휴대용 단말기로 위치 및 방향 정보를 이용하여 대략적인 위치를 파악하고, 주변의 건물 정보와 같은 객체 정보와 카메라의 움직임에 따라 입력되는 실사 영상 정보 간의 비교를 통해, 사용자가 원하는 서비스를 파악하여 관련 정보를 제공하는 기술이다.In general, Augmented Reality (AR) technology is a technology that combines a virtual world having additional information in real time into the real world that the user sees as a single image. For example, the portable terminal determines the approximate location using location and direction information, and identifies a service desired by the user by comparing object information such as surrounding building information with live image information input according to the movement of the camera. A technology that provides relevant information.

이러한 증강 현실 기술은 가상 현실(Virtual Reality: VR) 기술의 한 분야로서, 실제 환경에 가상 사물(객체)을 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 이용한다. 또한, 증강 현실 기술은 가상의 공간과 사물만을 대상으로 하는 기존의 가상 현실 기술과 달리 현실 세계의 기반에 가상 객체를 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 장점이 있다. 그리고, 이러한 증강 현실 기술은 현재 휴대용 단말기인 스마트폰 등의 보급으로 인하여 더욱 다양한 분야에 활용되어 사용되고 있다.This augmented reality technology is a field of virtual reality (VR) technology, and uses a computer graphics technique that synthesizes virtual objects (objects) in a real environment and looks like objects existing in the original environment. In addition, unlike conventional virtual reality technology that targets only virtual spaces and objects, augmented reality technology has an advantage of reinforcing and providing additional information that is difficult to obtain only in the real world by synthesizing virtual objects on the basis of the real world. . In addition, such augmented reality technology is currently being used in a variety of fields due to the spread of smart phones, such as a portable terminal.

한편, 상하수도관, 전력설비 등의 지하관로의 설비들은 지하에 매립되어 있으므로, 육안으로 그 위치를 파악할 수 없다. 지하관로의 위치를 파악하기 위해서 도면과 측량장비들에 의존하나, 그 방법이 직관적이지 못하고, 위치를 파악하기 위한 절차가 복잡하다.On the other hand, since facilities in underground pipelines such as water and sewage pipes and electric power facilities are buried underground, the location thereof cannot be grasped by the naked eye. To rely on drawings and surveying equipment to locate underground pipelines, the method is not intuitive and the procedures for locating location are complex.

상기와 같은 문제를 해결하기 위해서, 증강현실을 지하시설물에 도입하는 방법이 개발되었다. 예를 들어, 지하시설물에 대한 정보를 제공하기 위한 방법으로 클라우드 컴퓨팅을 도입하는 기술이 제시되었다[특허문헌 1]. 또한 증강현실 사용시 스마트 기기의 위치정확도를 높이기 위해 VRS(Virtual Reference station)를 사용하고, 2차원의 객체를 표현하기 위하여 3차원의 객체를 모델링 하는 방법이 제시되었다[특허문헌 2]. 그러나 상기 선행기술들은 기존에 구축되어 있는 2차원의 객체를 증강현실로 표현하기 위해서 3차원 객체 모델링 작업을 추가로 수행하여야 하는 불편함이 있다.In order to solve the above problems, a method of introducing augmented reality to underground facilities has been developed. For example, a technique for introducing cloud computing as a method for providing information on underground facilities has been proposed [Patent Document 1]. In addition, a method of modeling a three-dimensional object in order to express a two-dimensional object by using a virtual reference station (VRS) to increase the position accuracy of the smart device when using augmented reality has been proposed [Patent Document 2]. However, the prior arts are inconvenient to additionally perform a three-dimensional object modeling work in order to represent the two-dimensional object built in augmented reality.

이러한 불편함을 해소하기 위하여 2차원 선형 데이터를 실시간으로 3차원으로 변환하는 방법이 제시되었으나[특허문헌 3], 증강현실에 적용할 수 없다.In order to solve this inconvenience, a method of converting two-dimensional linear data into three-dimensional in real time has been proposed [Patent Document 3], but cannot be applied to augmented reality.

또한, 전력설비를 관리하기 위한 목적으로 2차원 데이터를 3차원으로 변환하는 방법이 제시되고 있다[특허문헌 4]. 그러나 상기 선행기술은 지형지물의 영향을 고려하지 않고 심도만으로 지하시설물의 높이를 표현하여, 고저차가 있는 지형지물에 매설되어 있는 시설물의 경우 위치정확도가 떨어진다는 문제점이 있다.In addition, a method of converting two-dimensional data into three-dimensional for the purpose of managing power equipment has been proposed [Patent Document 4]. However, the prior art expresses the height of the underground facility only by the depth without considering the influence of the feature, there is a problem that the location accuracy is lowered in the case of the facility embedded in the feature of the height difference.

또한, 최근의 인공지능의 발달과 영상인식 정확도의 향상에 따라 영상인식 기반의 증강현실 기술이 제시되고 있다[특허문헌 5]. 영상인식 기반 증강현실 기술은 마커, 혹은 타겟과 같은 특징점을 인식하여 위치를 파악하여 표현한다. 그러나 영상인식 기반의 증강현실 기술은 영상의 화질 및 명암에 따라 정확도의 차이가 발생한다. 특히 태양의 고도에 따른 그림자의 영향을 반영할 수 없다. 지하관로를 관리하기 위한 시스템은 실외 현장에서 사용하는 특성상 일기의 영향을 받는다. 일기의 영향에 따라 지하관로의 위치정확도에 차이가 발생한다. 따라서 영상인식 기반의 증강현실 시스템은 지하관로를 관리하기에 적합하지 않다.In addition, augmented reality technology based on image recognition has been proposed in accordance with recent development of artificial intelligence and image recognition accuracy improvement [Patent Document 5]. Image recognition-based augmented reality technology recognizes and displays the location of the feature points such as markers or targets. However, the image recognition-based augmented reality technology has a difference in accuracy depending on the image quality and contrast of the image. In particular, it cannot reflect the effect of shadows on the altitude of the sun. The system for managing underground pipelines is affected by the weather due to the nature of the outdoor site. Depending on the weather, there is a difference in the accuracy of the location of the underground pipeline. Therefore, AR system based on image recognition is not suitable for managing underground pipelines.

한국등록특허공보 제10-0992619호(2010.11.05.공고)Korean Patent Publication No. 10-0992619 (announced on November 5, 2010) 한국등록특허공보 제10-0997084호(2010.11.29.공고)Korean Patent Publication No. 10-0997084 (announced 29 November 2010) 한국공개특허공보 제10-2006-0066976호(2006.06.19.공개)Korean Patent Publication No. 10-2006-0066976 (June 19, 2006) 한국등록특허공보 제10-1774877호(2017.09.05.공고)Korea Patent Publication No. 10-1774877 (2017.09.05.Notification) 한국공개특허공보 제10-2010-0006736(2010.01.21.공개)Korean Patent Publication No. 10-2010-0006736 (published Jan. 21, 2010)

본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 기존에 구축되어 있는 지하관로의 2차원 GIS DB를 사용하여 3차원 객체를 자동으로 생성하고 표출하되, 고저차가 있는 지형에서 매립된 지하관로의 위치를 정확하게 표현하기 위하여 지형의 고도가 포함된 공간정보를 사용하는, 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법 및 이를 기록한 기록매체을 제공하는 것이다.An object of the present invention is to solve the problems as described above, using a two-dimensional GIS DB of the existing underground pipeline to automatically generate and display a three-dimensional object, buried underground in the terrain with high differences The present invention provides an augmented reality representation method and a recording medium for the management of underground pipelines considering the elevation difference using spatial information including the elevation of the terrain to accurately represent the location of the pipeline.

상기 목적을 달성하기 위해 본 발명은 스마트 단말에 설치되는 클라이언트 및, 상기 스마트 단말과 네트워크로 연결된 서버로 구성된 시스템에 의해 수행되는, 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법에 관한 것으로서, (a) 상기 스마트 단말의 위치(이하 현재 위치)와 자세를 측정하는 단계; (b) 현재 위치에서 소정의 범위 내의 3차원 지형정보 및, 관로의 위치 및 심도를 포함하는 2차원 관로정보를 추출하는 단계; (c) 2차원 관로정보에 3차원 지형정보를 적용하여, 3차원 관로객체를 생성하는 단계; (d) 상기 스마트 단말의 카메라 시점의 위치 및 방향을 산출하는 단계; (e) 산출된 카메라 시점의 위치 및 방향을 이용하여, 상기 카메라 시점을 중심으로 상기 3차원 관로객체를 투영한 2차원 투영영상을 생성하는 단계; 및, (f) 상기 스마트 단말의 카메라로 촬영한 전방영상에 상기 투영영상을 합성하여 표시하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, the present invention relates to an augmented reality representation method for the management of underground pipes considering the elevation difference, which is performed by a system comprising a client installed in a smart terminal and a server connected to the smart terminal and a network. (a) measuring the position (hereinafter, present position) and posture of the smart terminal; (b) extracting three-dimensional topographic information within a predetermined range from the current location and two-dimensional pipeline information including the location and depth of the pipeline; (c) generating three-dimensional pipeline objects by applying three-dimensional terrain information to the two-dimensional pipeline information; calculating a position and a direction of a camera viewpoint of the smart terminal; (e) generating a two-dimensional projection image projecting the three-dimensional duct object based on the camera viewpoint using the calculated position and direction of the camera viewpoint; And (f) synthesizing and displaying the projection image on the front image photographed by the camera of the smart terminal.

또, 본 발명은 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법에 있어서, 상기 (c)단계에서, 상기 관로정보로부터 지하관로의 절점 Ni의 위치가 (xi, yi)이고 심도가 di 인 것을 추출하고, 상기 지형정보로부터 절점 Ni의 고도 hi 를 추출하여, 절점 Ni의 3차원 위치를 (xi, yi, hi-di)로 산출하는 것을 특징으로 한다.In addition, the present invention provides a method for augmented reality representation for the management of underground pipelines considering the elevation difference, in step (c), the position of the node N i of the underground pipeline from the pipeline information is (x i , y i ) and the depth It is characterized in that the extraction in that the d i, and extracts the height h i of the node N i from the terrain information, calculates the three-dimensional position of the node N i a (x i, y i, h i -d i) do.

또, 본 발명은 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법에 있어서, 상기 관로정보는 다수의 절점으로 구성되되, 각 절점은 다른 절점과 소정의 간격을 두고 서로 이격된 위치를 갖고, 상기 (c)단계에서, 보간법을 이용하여 다수의 절점으로부터 연속된 관로 좌표를 구하고, 구한 좌표에 대하여 3차원 관로 객체를 구함으로써, 연속된 3차원 관로 객체를 생성하는 것을 특징으로 한다.In addition, the present invention in the augmented reality representation method for the management of underground pipelines considering the difference in elevation, the pipeline information is composed of a plurality of nodes, each node has a position spaced apart from each other at a predetermined interval, In the step (c), by using the interpolation method to obtain a continuous pipeline coordinates from a plurality of nodes, by obtaining a three-dimensional pipeline object from the obtained coordinates, it characterized in that the continuous three-dimensional pipeline object to generate.

또, 본 발명은 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법에 있어서, 상기 (d)단계에서, 상기 스마트 단말의 자세로부터 스마트 단말의 평면에 수직하는 법선을 구하여 카메라 시점의 방향을 구하고, 사용자로부터 입력받은 기계고와 상기 3차원 지형정보로부터 추출한 현재 위치의 고도를 합하여 스마트 단말의 고도를 구하고, 현재 위치와 상기 스마트 단말의 고도로 카메라 시점의 위치를 구하는 것을 특징으로 한다.In addition, the present invention, in the augmented reality representation method for the management of the underground pipeline considering the elevation difference, in the step (d), the normal direction perpendicular to the plane of the smart terminal from the pose of the smart terminal to obtain the direction of the camera view The altitude of the smart terminal is obtained by adding the machine height input from the user and the altitude of the current location extracted from the 3D topographical information, and the location of the camera viewpoint is obtained by the current position and the altitude of the smart terminal.

또, 본 발명은 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법에 있어서, 상기 (e)단계에서, 상기 카메라 시점을 중심으로 상기 3차원 관로객체와 반대편으로 초점거리 만큼 이격된 평면을 투영평면으로 설정하고, 상기 3차원 관로객체를 상기 카메라 시점을 중심으로 상기 투영평면에 점대칭으로 투영하는 것을 특징으로 한다.In addition, the present invention provides a method for augmented reality representation for the management of underground pipelines considering the difference in elevation, in the step (e), projecting a plane spaced apart by the focal length from the camera perspective to the opposite side to the three-dimensional pipeline object It is set to a plane, it characterized in that the projected point-symmetrical projection of the three-dimensional pipeline object on the projection plane around the camera viewpoint.

또한, 본 발명은 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention also relates to a computer-readable recording medium having recorded thereon a program for performing an augmented reality representation method for management of an underground pipeline considering an elevation difference.

상술한 바와 같이, 본 발명에 따른 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법 및 이를 기록한 기록매체에 의하면, 공간정보를 저장하고 서비스하는 서버를 구축하여 하나 이상의 현장에서 동시에 접속하여 공간정보를 확인할 수 있으며, 공간정보의 관리자와 현장 작업자간의 유기적 데이터 공유가 가능하게 하는 효과가 얻어진다.As described above, according to the augmented reality representation method for the management of the underground pipeline considering the difference in elevation according to the present invention and the recording medium recording the same, by establishing a server for storing and servicing the spatial information at the same time at one or more sites to access the spatial information The effect of enabling organic data sharing between the manager of the spatial information and the workers in the field is obtained.

또한, 본 발명에 따른 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법 및 이를 기록한 기록매체에 의하면, 지하관로 관리기관에서 기구축한 2차원 공간정보 DB를 사용함으로써, 별도의 3차원 모델링이 필요하지 않아 3차원 모델링에 소요되는 시간과 비용을 절약할 수 있는 효과가 얻어진다.In addition, according to the augmented reality representation method for the management of the underground pipeline considering the elevation difference according to the present invention and the recording medium recording the same, separate three-dimensional modeling by using a two-dimensional spatial information DB mechanically organized by the underground pipeline management institution Since it is not necessary, the effect of saving time and cost for 3D modeling is obtained.

또한, 본 발명에 따른 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법 및 이를 기록한 기록매체에 의하면, 2차원으로 구축된 지하관로의 공간정보를 증강 현실 시스템 상에 3차원 공간객체로 표현하기 위해서 3차원 지형정보를 사용하고, 스마트 기기와의 상대적 위치를 계산함으로써, 보다 정확한 관로정보의 계산 및 위치파악을 할 수 있는 효과가 얻어진다.In addition, according to the augmented reality representation method for the management of the underground pipeline considering the elevation difference according to the present invention and the recording medium recording the same, to express the spatial information of the underground pipeline constructed in two dimensions as a three-dimensional spatial object on the augmented reality system In order to use the 3D topographic information and calculate the relative position with the smart device, the effect of calculating and locating the pipeline information more accurately can be obtained.

도 1은 본 발명을 실시하기 위한 전체 시스템에 대한 구성도.
도 2는 본 발명의 일실시예에 따른 스마트 단말의 구성에 대한 블록도.
도 3은 본 발명의 일실시예에 따른 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법을 설명하는 흐름도.
도 4는 본 발명의 일실시예에 따른 관로정보를 나타낸 예시도.
도 5는 본 발명의 일실시예에 따른 지형정보를 나타낸 예시도.
도 6은 본 발명의 일실시예에 따른 지하관로의 위치를 나타낸 예시도.
1 is a block diagram of an overall system for practicing the present invention.
2 is a block diagram of the configuration of a smart terminal according to an embodiment of the present invention.
3 is a flowchart illustrating an augmented reality representation method for management of an underground pipeline considering elevation differences according to an embodiment of the present invention.
4 is an exemplary view showing pipeline information according to an embodiment of the present invention.
5 is an exemplary view showing terrain information according to an embodiment of the present invention.
Figure 6 is an exemplary view showing the position of the underground pipe in accordance with an embodiment of the present invention.

이하, 본 발명의 실시를 위한 구체적인 내용을 도면에 따라서 설명한다.DETAILED DESCRIPTION Hereinafter, specific contents for carrying out the present invention will be described with reference to the drawings.

또한, 본 발명을 설명하는데 있어서 동일 부분은 동일 부호를 붙이고, 그 반복 설명은 생략한다.In addition, in describing this invention, the same code | symbol is attached | subjected and the repeated description is abbreviate | omitted.

먼저, 본 발명을 실시하기 위한 전체 시스템의 구성에 대하여 도 1을 참조하여 설명한다.First, the structure of the whole system for implementing this invention is demonstrated with reference to FIG.

도 1에서 도시한 바와 같이, 본 발명을 실시하기 위한 전체 시스템은 사용자의 스마트폰 등 스마트 이동단말(10), 스마트 이동단말(10)에 설치되어 관로를 증강현실로 표시하는 클라이언트(20), 지하관로 정보 및 지형정보를 가져와서 증강현실을 생성하는 증강현실 서버(30)로 구성된다. 스마트 이동단말(10) 및 증강현실 서버(30)는 인터넷 등 네트워크(80)를 통해 서로 연결된다. 또한, 지하관로 정보 및 지형정보를 저장하는 데이터베이스(40)를 추가적으로 구성될 수 있다.As shown in Figure 1, the entire system for implementing the present invention is installed in the smart mobile terminal 10, the smart mobile terminal 10, such as a user's smart phone client 20 for displaying the pipeline as augmented reality, It is composed of augmented reality server 30 to bring the information and topographic information into the underground pipe to create augmented reality. The smart mobile terminal 10 and the augmented reality server 30 is connected to each other via a network 80, such as the Internet. In addition, the database 40 for storing underground pipe information and topographic information may be further configured.

먼저, 스마트 이동단말(10)은 사용자가 이용하는 모바일 단말로서, 스마트폰, 패블릿, 태블릿PC 등 통상의 컴퓨팅 기능을 구비한 스마트 단말이다. 특히, 스마트 단말(10)은 어플리케이션 또는, 모바일용 어플리케이션(또는 앱, 어플) 등이 설치되어 실행될 수 있는 단말이다.First, the smart mobile terminal 10 is a mobile terminal used by a user, and is a smart terminal having normal computing functions such as a smartphone, a tablet, a tablet PC, and the like. In particular, the smart terminal 10 is a terminal on which an application or a mobile application (or an app or an app) may be installed and executed.

특히, 도 2에서 보는 바와 같이, 스마트 단말(10)은 전방을 촬영할 수 있는 카메라(11), 촬영된 영상이나 생성된 이미지 등을 화면에 표시하는 디스플레이(12), 터치스크린이나 버튼 등의 입력장치(13), GNSS 센서, 자기계, 관성계, 자이로센서, 가속도 센서 등의 움직임 센서(14), 이동통신망이나 근거리 통신망 등과 데이터 통신을 수행하는 통신부(15), GNSS(Global Navigation Satellite System) 센서 또는 GPS(Global Positioning System) 센서 등 위치감지 센서(16), 및, 모바일 CPU 등의 중앙처리장치(18)로 구성된다. 그외 데이터를 저장하는 메모리(미도시) 등을 더 포함하여 구성된다.In particular, as shown in FIG. 2, the smart terminal 10 may include a camera 11 capable of capturing the front, a display 12 displaying a captured image or a generated image on a screen, and an input such as a touch screen or a button. Device 13, GNSS sensor, magnetic field, inertial system, gyro sensor, acceleration sensor such as acceleration sensor 14, communication unit 15 for performing data communication with mobile or local area network, GNSS (Global Navigation Satellite System) sensor Or a position detecting sensor 16 such as a GPS (Global Positioning System) sensor, and a central processing unit 18 such as a mobile CPU. It further comprises a memory (not shown) for storing data.

다음으로, 클라이언트(20)는 스마트 단말(10)에 설치되어 수행되는 모바일용 어플리케이션(또는 앱, 어플)으로서, 증강현실 서버(30)와 연동하거나 독자적으로 지하관로의 증강현실 서비스를 제공하는 프로그램 시스템이다.Next, the client 20 is a mobile application (or app, app) installed and executed in the smart terminal 10, a program that works with the augmented reality server 30 or independently provides augmented reality service to the underground pipe. System.

즉, 클라이언트(20)는 스마트 단말(10)의 카메라(11)를 통해 전방을 촬영한 영상(이하 전방 영상)을 획득하고, 획득된 전방 영상에 지하관로의 가상 이미지(또는 3차원 공간객체)를 합성하여, 합성한 영상을 디스플레이(12)에 표현한다.That is, the client 20 acquires an image (hereinafter, a front image) photographing the front through the camera 11 of the smart terminal 10, and a virtual image (or a three-dimensional spatial object) of the underground pipe to the obtained front image. Are synthesized to express the synthesized image on the display 12.

이때, 클라이언트(20)는 위치감지 센서(16) 또는 움직임 센서(14)를 통해 현재 위치 또는 방향(또는 카메라의 방향) 등을 감지하고, 감지된 현재 위치 또는 방향 등을 증강현실 서버(30)에 전송한다. 카메라(11)의 방향은 스마트 단말(10)의 전방을 향하는 방향이므로, 스마트 단말(10)의 움직임 센서(14)를 이용하여 스마트 단말(10)의 방향을 감지하여 카메라의 방향을 산출한다.At this time, the client 20 detects the current position or direction (or the direction of the camera) through the position sensor 16 or the motion sensor 14, and augments the reality server 30 to detect the detected current position or direction. To transmit. Since the direction of the camera 11 is toward the front of the smart terminal 10, the direction of the camera is calculated by detecting the direction of the smart terminal 10 using the motion sensor 14 of the smart terminal 10.

현재 위치 또는 방향 등에 해당하는 3차원 지형정보 및 지하관로 정보는 증강현실 서버(30)에 의해 가져오게 되고, 이를 이용하여 지하관로의 위치가 계산되고 3차원 공간객체가 구축된다.Three-dimensional topographic information and underground pipeline information corresponding to the current location or direction are imported by the augmented reality server 30, and the location of the underground pipeline is calculated using this, and the three-dimensional spatial object is constructed.

또한, 클라이언트(20)는 지하관로의 3차원 공간객체를 수신하여, 상기 전방 영상에 지하관로의 가상 이미지를 합성하고, 합성된 영상을 표시한다.In addition, the client 20 receives the 3D spatial object of the underground pipe, synthesizes a virtual image of the underground pipe to the front image, and displays the synthesized image.

이하에서, 클라이언트(20)가 하는 작업 또는 사용자가 하는 작업은 스마트 이동단말(10)에서 수행되는 것이므로, 설명의 편의를 위해 클라이언트(20) 또는 스마트 이동단말(10)이 수행하는 것으로 설명한다. 즉, 클라이언트(20) 또는 스마트 이동단말(10)을 혼용한다. 또한, 사용자가 지하관로의 증강현실과 관련된 작업을 처리하기 위한 입력 데이터는 스마트 이동단말(10)의 입력장치(13)를 통해 입력되고, 그 처리 결과는 스마트 이동단말(10)의 디스플레이(12) 등 출력장치를 통해 출력된다. 이하에서, 사용자가 어떤 작업을 수행하는 설명은 스마트 이동단말(10)을 통해 수행하는 작업임을 의미한다.Hereinafter, since the work performed by the client 20 or the work performed by the user is performed by the smart mobile terminal 10, the client 20 or the smart mobile terminal 10 will be described for convenience of description. That is, the client 20 or the smart mobile terminal 10 is mixed. In addition, the input data for the user to process the work associated with the augmented reality in the underground pipe is input through the input device 13 of the smart mobile terminal 10, the processing result is displayed on the display 12 of the smart mobile terminal 10 It is output through the output device. In the following description, a user performing a task means a task performed by the smart mobile terminal 10.

또한, 클라이언트(20)는 객체 속성 조회 등과 같은 관리 기능을 수행하기 위하여, 사용자로부터 터치스크린 등 입력장치(13)를 통해 입력값을 받을 수 있다.In addition, the client 20 may receive an input value from the user through the input device 13 such as a touch screen in order to perform a management function such as object property inquiry.

다음으로, 증강현실 서버(30)는 통상의 어플리케이션 서버로서, 현재 위치에 대응되는 지하관로의 정보와 3차원 지형정보를 가져와서, 공간연산을 수행하여 지하관로의 3차원 공간객체를 생성하는 서버이다.Next, the augmented reality server 30 is a conventional application server, a server for generating the three-dimensional space object of the underground pipeline by taking the information of the underground pipe route and the three-dimensional terrain information corresponding to the current position, performing the spatial operation to be.

즉, 증강현실 서버(30)는 스마트 단말(10)의 위치를 기반으로 하여 특정 반경 내의 지하관로의 정보 및 3차원 지형정보를 데이터베이스(40)에 요청한다. 증강현실 서버(30)는 데이터베이스(40)로부터 관로의 2차원 공간정보 DB(41)와 3차원 지형정보 DB(42)를 가져와서, 관로의 3차원 정보를 생성하고, 그 정보를 클라이언트(20)에 전달한다.That is, the augmented reality server 30 requests the database 40 for information on the underground pipe line and three-dimensional topographical information within a specific radius based on the location of the smart terminal 10. The augmented reality server 30 obtains the two-dimensional spatial information DB 41 and the three-dimensional topographic information DB 42 of the conduit from the database 40, generates three-dimensional information of the conduit, and sends the information to the client 20. To pass).

한편, 클라이언트(20)와 증강현실 서버(30)는 통상의 클라이언트와 서버의 구성 방법에 따라 구현될 수 있다. 즉, 전체 시스템의 기능들을 클라이언트의 성능이나 서버와 통신량 등에 따라 분담될 수 있다. 일례로서, 클라이언트(20)가 단순히 촬영된 전방 영상이나 현재 위치 또는 방향을 획득하고 전방 영상에 지하관로 이미지가 합성된 영상을 출력하는 작업만을 수행하고, 증강현실 서버(30)가 현재 위치 및 방향에 대응되는 지형정보나 관로정보를 가져와서 지하관로의 3차원 공간객체를 생성하고 지하관로의 이미지와 전방영상을 합성하는 등 대부분의 연산작업을 수행할 수 있다. 또 다른 예로서, 증강현실 서버(30)는 특정 위치에 해당하는 지형정보나 관로정보만을 저장하거나 가져오는 역할만을 수행하고, 클라이언트(20)가 전방영상 촬영, 현재위치 측정, 3차원 공간객체 생성, 합성 영상 생성 등 대부분의 연산작업을 수행할 수도 있다. 이하에서는 관로의 증강현실 시스템으로 설명하나, 서버-클라이언트의 구성 방법에 따라 다양한 분담 형태로 구현될 수 있다.On the other hand, the client 20 and the augmented reality server 30 may be implemented according to the configuration method of a conventional client and server. That is, the functions of the entire system can be shared depending on the performance of the client, the server and the traffic. As an example, the client 20 simply acquires the captured front image or the current position or direction, and outputs the image obtained by synthesizing the image into the basement pipe to the front image, and the augmented reality server 30 performs the current position and direction. Most of computational operations can be performed by importing the topographic information or pipeline information corresponding to the 3D spatial object of the underground pipeline and synthesizing the image of the underground pipeline and the forward image. As another example, the augmented reality server 30 performs only a role of storing or importing only terrain information or pipeline information corresponding to a specific location, and the client 20 photographs the front image, measures the current location, and generates a 3D spatial object. You can also perform most operations such as creating composite images. Hereinafter, the augmented reality system of the pipeline, but may be implemented in a variety of shared forms according to the configuration method of the server-client.

이하에서, 클라이언트(20)와 증강현실 서버(30)로 구성되는 서버-클라이언트 시스템을 증강현실 시스템(300)이라 부르기로 한다.Hereinafter, a server-client system composed of the client 20 and the augmented reality server 30 will be referred to as an augmented reality system 300.

다음으로, 데이터베이스(40)는 지하관로를 2차원 공간정보로 나타내는 관로정보 DB(41), 및 지형정보를 3차원으로 나타내는 지형정보 DB(42)을 포함한다. 그러나 상기 데이터베이스(40)의 구성은 바람직한 일실시예일 뿐이며, 구체적인 장치를 개발하는데 있어서, 접근 및 검색의 용이성 및 효율성 등을 감안하여 데이터베이스 구축이론에 의하여 다른 구조로 구성될 수 있다.Next, the database 40 includes a pipeline information DB 41 representing the underground pipeline as two-dimensional spatial information and a terrain information DB 42 representing the terrain information in three dimensions. However, the configuration of the database 40 is only a preferred embodiment, and in the development of a specific device, it may be configured in a different structure by a database construction theory in view of the ease and efficiency of access and search.

또한, 데이터베이스(40)는 증강현실 서버(30)에 내장되거나 직접 연결되어, 증강현실 서버(30)의 요청에 따라 필요한 데이터를 전송할 수 있다. 또는, 데이터베이스(40)는 증강현실 서버(30)와 분리되어 별도의 DB관리 시스템(DBMS)에 운영되는 서버로 구현될 수도 있다. 이 경우, 증강현실 서버(30)는 네트워크(80)의 연결을 통해 데이터베이스(40)에 데이터를 요청하여 수신한다.In addition, the database 40 may be embedded in or directly connected to the AR server 30, and may transmit necessary data according to a request of the AR server 30. Alternatively, the database 40 may be implemented as a server that is separated from the augmented reality server 30 and operated in a separate DB management system (DBMS). In this case, the AR server 30 requests and receives data from the database 40 through the connection of the network 80.

다음으로, 관로정보 DB(41)는 지하관로를 2차원 공간정보로 나타내는 지리정보이다. 바람직하게는, 지하관로를 관리하는 기관에서 작성된 2차원 GIS DB일 수 있으며, 관리 기관 외에 국토지리정보원이나 다른 기관에서 작성된 2차원 GIS DB 일 수도 있다. 관로정보 DB(41)는 다양한 형태로 구축될 수 있다. CAD 파일이거나, 형상파일(shape file, 예를 들어 Esri Shape 등)일 수 있으며, 기타 명시되지 않은 형태로 구축될 수 있다.Next, the pipeline information DB 41 is geographic information representing the underground pipeline as two-dimensional spatial information. Preferably, it may be a two-dimensional GIS DB created by the organization managing the underground pipeline, or may be a two-dimensional GIS DB created by the National Geographic Information Institute or another organization in addition to the management organization. The pipeline information DB 41 may be constructed in various forms. It may be a CAD file, a shape file (eg, Esri Shape, etc.), or may be constructed in other unspecified form.

다음으로, 지형정보 DB(42)는 지형정보를 3차원으로 나타내는 지리정보이다.Next, the terrain information DB 42 is geographic information representing the terrain information in three dimensions.

지형정보 DB(42)는 등고선, 수치 표고모형(DEM: Digital Elevation Model), 수치지형 표고모델(DTM, Digital Terrain Model), 수치표고모델(DSM, Digital Surface Model), 불규칙 삼각망(TIN, Triangular Irrgular Network) 등의 다양한 형태로 구축될 수 있다.The terrain information DB 42 includes contours, digital elevation models (DEM), digital terrain models (DTM), digital elevation models (DSM), and irregular triangular networks (TIN, Triangular). It can be constructed in various forms such as Irrgular Network).

다음으로, 본 발명의 일실시예에 따른 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법을 도 3 및 도 4를 참조하여 보다 구체적으로 설명한다. 본 발명에 따른 지하관로의 증강현실 표현 방법은 클라이언트(20)와 증강현실 서버(30)로 구성되는 서버-클라이언트 시스템에 의해 수행되는 방법이다.Next, the augmented reality representation method for the management of the underground pipeline considering the elevation difference according to an embodiment of the present invention will be described in more detail with reference to FIGS. 3 and 4. The augmented reality representation method of the underground pipeline according to the present invention is a method performed by a server-client system consisting of the client 20 and the augmented reality server 30.

도 3에서 보는 바와 같이, 먼저, 현재 위치를 측정하여 현재 위치좌표 및 자세를 산출한다(S10).As shown in Figure 3, first, the current position is measured to calculate the current position coordinates and attitude (S10).

즉, 스마트 단말(10)의 위치감지 센서(16)를 통해 현재 위치를 측정하여, 현재 위치좌표를 산출한다. 이때, 현재 위치는 스마트 단말(10)의 위치로 본다. 앞서 설명한 바와 같이, 스마트 단말(10)은 GNSS 센서 또는 GPS 센서 등 위치를 감지하는 위치감지 센서(16)를 구비한다. 위치감지 센서(16)에 의해 측정된 위치를 현재 위치로 간주하여 현재 위치좌표를 산출한다. 이때의 위치 좌표는 2차원 좌표이다.That is, the current position is measured by the position sensor 16 of the smart terminal 10 to calculate the current position coordinates. At this time, the current position is regarded as the position of the smart terminal 10. As described above, the smart terminal 10 includes a position detecting sensor 16 that detects a position such as a GNSS sensor or a GPS sensor. The position measured by the position sensor 16 is regarded as the current position and the current position coordinate is calculated. The position coordinate at this time is a two-dimensional coordinate.

또한, 스마트 단말(10)의 움직임 센서(14)를 이용하여 현재 자세(또는 스마트 단말의 자세)을 산출한다. 앞서 움직임 센서(14)는 GNSS 센서, 나침반, 자기계, 관성계, 자이로센서, 가속도 센서 등으로 구성된다. 이들 센서로부터 스마트 단말(10)이 어느 방향을 향하고 있는지 등 자세를 파악한다. 스마트 단말(10)의 자세를 측정하면, 스마트 단말(10)의 카메라(11)가 바라보는 방향(또는 시점)을 알 수 있다..In addition, the current posture (or posture of the smart terminal) is calculated using the motion sensor 14 of the smart terminal 10. The motion sensor 14 is composed of a GNSS sensor, a compass, a magnetic field, an inertial system, a gyro sensor, an acceleration sensor, and the like. From these sensors, the attitude | position, such as which direction the smart terminal 10 is facing, is grasped | ascertained. When the posture of the smart terminal 10 is measured, a direction (or a viewpoint) viewed by the camera 11 of the smart terminal 10 may be known.

예를 들어, 자이로센서를 사용하여 3개의 축에 대하여 회전 값을 구할 수 있다. 또한, 가속도계를 사용하여 3개 축 방향에 대한 가속도의 값을 구할 수 있다. x축 방향 회전을 롤(roll) φ, y축 회전을 피치(pitch) θ, z축 회전을 요(yaw) ψ라고 한다. 나침반, 자이로센서 및 가속도계를 사용하여 카메라의 자세인 롤(roll), y축 회전을 피치(pitch), z축 회전을 요(yaw)를 계산할 수 있다.For example, a gyro sensor can be used to obtain rotation values about three axes. In addition, an accelerometer can be used to obtain acceleration values for three axis directions. Roll φ for the x-axis direction, pitch θ for the y-axis rotation, and yaw ψ for the z-axis rotation. Compass, gyro sensor and accelerometer can be used to calculate the camera's posture roll, y-axis pitch, and z-axis yaw.

다음으로, 현재 위치에서 소정의 범위 내의 지형정보 및 관로정보를 추출한다(S20).Next, the terrain information and pipeline information within a predetermined range from the current location is extracted (S20).

즉, 앞서 산출된 현재 위치좌표에서 사전에서 정해진 범위 내의 지형정보 및 관로정보를 데이터베이스(40)로부터 가져온다. 바람직하게는 범위는 반경으로 설정된다. 현재 위치좌표를 중심으로 소정의 반경 내의 영역을 범위로 설정한다.That is, the terrain information and the pipeline information within a predetermined range in the current position coordinates calculated above are taken from the database 40. Preferably the range is set to a radius. An area within a predetermined radius of the current position coordinate is set as the range.

바람직하게는, 스마트 단말(10)의 카메라(11) 방향을 고려하여 카메라(11)가 향하는 방향의 범위에서의 지형정보 및 관로정보를 추출한다. 즉, 카메라(11)가 향하지 않는 범위의 정보를 미리 가져오지 않을 수 있다.Preferably, in consideration of the direction of the camera 11 of the smart terminal 10, the topographic information and the conduit information in the range of the direction in which the camera 11 is directed are extracted. That is, the information of the range which the camera 11 does not face may not be brought beforehand.

이때, 범위는 사용자의 입력에 의해 설정될 수 있다.In this case, the range may be set by a user input.

또한, 관로정보는 지하관로의 객체공간 정보를 2차원으로 표시된 지리정보이다. 바람직하게는, 관로정보는 2차원 선형객체의 집합이다. 선형객체는 각 절점들의 2차원 공간정보와 속성정보를 저장한다. 절점들의 2차원 공간정보는 경도와 위도, 혹은 지도상에서의 x좌표와 y좌표로 구성되어 있으며, 속성정보는 각 절점의 심도를 저장한다.In addition, the pipeline information is geographic information in which the object space information of the underground pipeline is displayed in two dimensions. Preferably, the pipeline information is a collection of two-dimensional linear objects. The linear object stores two-dimensional spatial information and attribute information of each node. Two-dimensional spatial information of nodes consists of longitude and latitude, or x and y coordinates on a map, and attribute information stores depth of each node.

도 4는 4개의 선형객체로 구성된 관로정보를 나타내고 있다.4 shows pipeline information consisting of four linear objects.

관로정보는 위치좌표와 심도로 구성되는 다수의 절점으로 구성된다. 즉, 관로정보는 연속적인 관로의 각 위치를 나타내지 않는다. 각 절점은 간격을 두고 서로 이격된 위치를 나타낸다.The pipeline information consists of a number of nodes composed of location coordinates and depth. That is, the pipeline information does not represent each position of the continuous pipeline. Each node represents a spaced space from each other.

도 4의 예에서, 지하관로의 각 절점은 N1, N2, N3, N4 이다. 관로정보를 통해, 각 절점의 x좌표, y좌표, 심도를 추출할 수 있다. i번째 절점의 x좌표를 xi, y좌표를 yi, 심도를 di로 표현한다. 이때, 심도 di 는 지표면 상에서부터의 거리를 나타낸다.In the example of FIG. 4, each node of the underground passage is N 1 , N 2 , N 3 , N 4 . Through the pipeline information, the x-coordinate, y-coordinate, and depth of each node can be extracted. The x coordinate of the i th node is expressed by x i , the y coordinate is represented by y i , and the depth is represented by d i . At this time, the depth d i represents the distance from the ground surface.

따라서 지하관로의 각 절점은 다음과 같이 표시될 수 있다.Therefore, each node of the underground pipeline can be expressed as follows.

[수학식 1][Equation 1]

Ni(xi, yi, di)N i (x i , y i , d i )

여기서, (xi, yi)는 절점 Ni의 위치좌표이고, di는 심도를 나타낸다.Here, (x i , y i ) is the position coordinate of the node N i , and d i represents the depth.

다음으로, 지형정보는 지형을 3차원으로 표시하는 지리정보이다. 앞서 설명한 바와 같이, 지형정보는 등고선, DEM, DTM, DSM, TIN 등 다양한 형태로 구축될 수 있다.Next, the terrain information is geographic information that displays the terrain in three dimensions. As described above, the terrain information may be constructed in various forms such as contour, DEM, DTM, DSM, and TIN.

도 5는 등고선(C)에 의해 나타나는 3차원 지형정보를 나타낸다. 도 5(a)는 등고선이고, 도 5(b)는 등고선으로부터 산출할 수 있는 지형을 나타낸다. 즉, 등고선에 보간법을 적용하면, 도 5(a)의 3차원 지형정보로부터 도 5(b)와 같이 모든 위치에서의 3차원 지형정보를 산출할 수 있다.5 shows three-dimensional terrain information represented by the contour line C. FIG. Fig. 5A is a contour line and Fig. 5B shows a terrain that can be calculated from the contour line. That is, when the interpolation method is applied to the contour line, three-dimensional topographic information at all positions can be calculated from the three-dimensional topographic information of FIG. 5 (a) as shown in FIG. 5 (b).

따라서 3차원 지형정보는 다음과 같이 위치 및 고도를 추출할 수 있다.Therefore, the 3D terrain information can extract the location and altitude as follows.

[수학식 2][Equation 2]

Pi(xi, yi, hi)P i (x i , y i , h i )

여기서, (xi, yi)는 특정 위치 Pi의 위치좌표이고, hi는 해당 위치의 고도 또는 지표면 표고를 나타낸다.Here, (x i , y i ) is the position coordinate of the specific position P i , and h i represents the altitude or surface elevation of the position.

다음으로, 관로정보에 지형정보를 적용하여, 3차원 관로 객체를 생성한다(S30).Next, the terrain information is applied to the pipeline information to generate a three-dimensional pipeline object (S30).

지형정보와 관로정보를 이용하여, 지하관로의 3차원 위치를 계산하고 3차원 공간객체를 구축한다.Using topographic information and pipeline information, three-dimensional position of underground pipeline is calculated and three-dimensional spatial object is constructed.

이때, 먼저, 관로정보의 각 절점에서의 3차원 위치를 구한다.At this time, first, the three-dimensional position at each node of the pipeline information is obtained.

앞서 예와 같이, 관로정보가 4개의 절점으로 구성된 경우를 설명한다.As in the above example, the case in which the pipeline information is composed of four nodes will be described.

i번째 절점 Ni의 지하관로의 심도와, 이에 해당하는 지형정보에서의 표고는 다음과 같다.The depth of the underground passage at the i-th node N i and the elevation in the corresponding terrain information are as follows.

Ni(xi, yi, di), Pi(xi, yi, hi)N i (x i , y i , d i ), P i (x i , y i , h i )

이로부터, i번째 절점(xi, yi)에서의 3차원 위치 Q(x,y,z)를 다음 수식과 같이 산출한다.From this, the three-dimensional position Q (x, y, z) at the i th node (x i , y i ) is calculated as in the following equation.

[수학식 3][Equation 3]

Q(x,y,z) = (xi, yi, hi-di)Q (x, y, z) = (x i , y i , h i -d i )

여기서, (xi, yi)는 절점의 위치를 나타내고, di는 절점 Ni의 심도이고, hi는 지형정보에서 위치(xi, yi)에서의 고도를 나타낸다.Here, (x i , y i ) represents the position of the node, d i represents the depth of the node N i , h i represents the altitude at the position (x i , y i ) in the terrain information.

그리고 각 절점의 3차원 위치 Q(x,y,z)를 보간하여 모든(또는 연속된) 관로를 나타내는 3차원 객체를 생성한다. 바람직하게는, 보간법 등을 이용하여, 다수의 절점으로부터 연속된 3차원 관로 객체를 생성한다. 특히, 보간법을 이용하여 다수의 절점으로부터 연속된 관로 좌표를 구하고, 구한 좌표에 대하여 3차원 관로 객체를 구함으로써, 연속된 3차원 관로 객체를 생성한다.Then, the three-dimensional position Q (x, y, z) of each node is interpolated to generate a three-dimensional object representing all (or continuous) pipelines. Preferably, interpolation or the like is used to create a continuous three-dimensional duct object from multiple nodes. In particular, a continuous three-dimensional pipeline object is generated by obtaining continuous pipeline coordinates from a plurality of nodes using interpolation and obtaining a three-dimensional pipeline object from the obtained coordinates.

다음으로, 스마트 단말(10)의 카메라 시점을 산출한다(S40).Next, the camera viewpoint of the smart terminal 10 is calculated (S40).

스마트 단말(10)의 카메라(11)의 절대적 시점, 즉, 카메라 시점의 방향, 및 위치를 산출한다.The absolute view of the camera 11 of the smart terminal 10, that is, the direction and position of the camera view, is calculated.

먼저, 앞서 스마트 단말(10)의 자세를 구하면, 이 단말에 설치된 카메라(11)의 자세도 구할 수 있다. 그리고 카메라(11)의 자세를 결정하는 롤(roll), 피치(pitch), 요(yaw)를 사용하여 카메라(11)의 상이 맺히는 CCD(Charge-Coupled Device) 소자의 평면방정식 및 평면의 법선벡터를 구할 수 있다.First, when the attitude of the smart terminal 10 is obtained in advance, the attitude of the camera 11 installed in the terminal can also be obtained. In addition, the plane equation and the plane normal vector of the CCD (Charge-Coupled Device) device in which the image of the camera 11 is formed by using a roll, pitch, and yaw to determine the posture of the camera 11. Can be obtained.

스마트 단말(10)이 이루는 평면(단말 전면 또는 후면의 평면)을 p라고 하면 p의 평면방정식 ax + by + cz + d = 0에서 a,b,c는 평면의 법선벡터로서 이를 구한다. 평면방정식에서의 a,b,c 미지수를 알고 스마트 단말(10)의 3차원 좌표(xs,ys,zs)를 알고 있기 때문에 스마트 단말(10)과 수직을 이루며 카메라(11)를 통과하는 선 l의 직선의 방정식은 다음과 같이 구할 수 있다.If p is a plane formed by the smart terminal 10 (a plane of the front or rear of the terminal), p, a, b, and c are obtained as a normal vector of the plane in the plane equation ax + by + cz + d = 0. Line l passing through the camera 11 perpendicular to the smart terminal 10 because the a, b, c unknown in the plane equation and the three-dimensional coordinates (xs, ys, zs) of the smart terminal 10 are known. The equation for the straight line can be found as

[수학식 4][Equation 4]

Figure pat00001
Figure pat00001

상기와 같은 법선 벡터를 카메라 시점의 방향 벡터(또는 방향)라 부르기로 한다.Such a normal vector will be referred to as a direction vector (or direction) of a camera viewpoint.

또한, 스마트 단말(10)의 고도는 사용자가 입력한 기계고(기계높이)의 값과 3차원 지형정보를 사용하여 계산할 수 있다. 즉, 지면 상에서의 높이는 입력받고, 3차원 지형정보에서 현재 위치에 해당하는 고도값을 추출한다. 그리고 이들을 합하여 스마트 단말(10)의 고도를 산출한다. 이를 카메라 시점의 고도라 부르기로 한다.In addition, the altitude of the smart terminal 10 can be calculated using the value of the machine height (machine height) input by the user and the three-dimensional terrain information. That is, the height on the ground is input and the altitude value corresponding to the current position is extracted from the 3D terrain information. The sum of these calculates the altitude of the smart terminal 10. This is called the altitude of the camera point of view.

또한, 카메라 시점의 2차원 위치는 앞서 구한 스마트 단말(10)의 2차원 위치좌표와 동일하다. 이하에서 카메라 시점의 위치는 3차원 위치로서, 2차원 위치와 고도를 포함하는 것으로 설명한다.In addition, the two-dimensional position of the camera viewpoint is the same as the two-dimensional position coordinates of the smart terminal 10 obtained above. Hereinafter, the position of the camera viewpoint is a three-dimensional position, and will be described as including a two-dimensional position and an altitude.

한편, 스마트 단말(10) 지점의 지표면 표고를 ho, 기계고를 a라고 하였을 때 다음과 같은 수학식에 의하여 스마트 단말(10)로부터 i번째 절점까지의 상대고도 △h를 구할 수 있다.Meanwhile, when the surface elevation of the smart terminal 10 is h o and the machine height is a, the relative altitude Δh from the smart terminal 10 to the i th node can be obtained by the following equation.

[수학식 5][Equation 5]

Figure pat00002
Figure pat00002

다음으로, 3차원 관로 객체를 스마트 단말(10)의 시점에 따른 2차원 투영영상을 생성한다(S50).Next, a two-dimensional projection image according to the viewpoint of the smart terminal 10 to generate a three-dimensional pipeline object (S50).

도 7에서 보는 바와 같이, 2차원 투영영상은 카메라 시점을 중심으로 3차원 관로객체를 2차원 평면(CCD 평면)에 투영되어 획득된다.As shown in FIG. 7, a 2D projection image is obtained by projecting a 3D duct object onto a 2D plane (CCD plane) around a camera viewpoint.

이때, 관로객체가 투영되는 2차원 평면(CCD 평면)을 투영평면 또는 2차원 투영평면이라 부르기로 한다.In this case, a two-dimensional plane (CCD plane) on which the pipeline object is projected will be referred to as a projection plane or a two-dimensional projection plane.

도 7은 임의의 3차원 절점 Qi(xi, yi, di)에 대하여 카메라 시점를 중심으로 투영평면에 투영되는 과정을 나타낸다.7 illustrates a process of projecting a projection plane about a camera viewpoint with respect to an arbitrary three-dimensional node Q i (x i , y i , d i ).

카메라의 시점 좌표(xs,ys,zs)에서 카메라 시점의 방향벡터(a,b,c)의 방향으로, 초점거리 f만큼 이격된 CCD 필름의 주점 좌표와 평면방정식을 구할 수 있으며 도 7과 같다. 상기와 같은 평면방정식에 의해 구해지는 것이 투영평면이다. 주점 좌표를 투영평면의 중심이라고 부르기로 한다.From the camera's viewpoint coordinates (xs, ys, zs) to the direction vectors (a, b, c) of the camera's viewpoint, the principal coordinates and plane equations of the CCD film spaced by the focal length f can be obtained, as shown in FIG. . The projection plane is obtained by the above plane equation. The principal point coordinate is called the center of the projection plane.

즉, 카메라의 시점 좌표(xs,ys,zs)를 중심으로 3차원 관로객체와 반대편으로 초점거리 f만큼 이격된 CCD 필름의 평면을 투영평면으로 설정한다. 그리고 3차원 관로객체를 카메라 시점을 중심의 점대칭으로 상기 투영평면에 투영한다.That is, the plane of the CCD film spaced apart by the focal length f on the opposite side to the three-dimensional pipeline object around the camera's viewpoint coordinates (xs, ys, zs) is set as the projection plane. The 3D duct object is projected on the projection plane in point symmetry around the camera viewpoint.

관로객체의 3차원 절점 Qi(xi, yi, di)와 카메라 시점을 연결하는 직선의 방정식 li는 도 7에 표시된 수식을 통해 계산할 수 있다. 투영평면의 평면방정식과 직선의 방정식li를 사용하여 3차원 절점 Qi(xi, yi, di)가 투영평면에 투영되는 위치를 매개변수 방정식을 사용하여 파악할 수 있다. 매개변수 방정식 풀이는 공지된 기술이므로 구체적인 설명은 생략한다.Equation li of a straight line connecting the three-dimensional node Q i (x i , y i , d i ) of the duct object with the camera viewpoint can be calculated by the equation shown in FIG. Using the plane equation of the projection plane and the equation li of the straight line, the parameter equation can be used to determine where the three-dimensional nodes Q i (x i , y i , d i ) are projected onto the projection plane. Since the parametric equation solving is a well-known technique, a detailed description thereof will be omitted.

다음으로, 투영평면에 투영된 이미지를 전방영상에 증강시켜 표시한다(S60).Next, the image projected on the projection plane is augmented and displayed on the front image (S60).

즉, 앞서 단계에서 구한 투영평면과, 카메라(11)를 통해 촬영된 전방영상을 합성하여, 스마트 단말(10)의 디스플레이(12)에 표시한다.That is, the projection plane obtained in the previous step and the front image photographed through the camera 11 are synthesized and displayed on the display 12 of the smart terminal 10.

본 발명에 의해 실시된 예를 도 8을 참조하여 설명한다.An example implemented by the present invention will be described with reference to FIG.

본 발명은 지하관로를 존재하는 그 3차원 위치에 정확하게 표현하는 것이다. 즉, 지표면과 실제 관로가 도 8과 같을 때 시점 심도 및 종점 심도만으로 표현되는 지하관로는 실제 관로와 다르게 표현된다. 스마트 단말이 작업자를 바라보았을 때 동일한 조건에서 스마트 장치 화면에는 작업자와 P1이 동일 위치에 나오는 것으로 보인다. 다만, 종래기술[특허문헌 4]의 경우 동일한 조건에서 스마트 단말 화면에는 작업자와 p3가 동일 위치에 나오는 것으로 파악된다. 그러나 p3는 심도만으로 표현된 지하관로이므로 화면상에서 p3지점의 표현은 화면상에서 p3’으로 표현되어야 한다.The present invention accurately represents the underground pipeline at its three-dimensional location. That is, when the ground surface and the actual pipeline are the same as those of FIG. 8, the underground pipeline represented only by the depth of the starting point and the end point is expressed differently from the actual pipeline. When the smart terminal looks at the worker, the worker and P1 appear in the same position on the screen of the smart device under the same conditions. However, in the case of the prior art [Patent Document 4], it is understood that the operator and p3 appear in the same position on the smart terminal screen under the same conditions. However, since p3 is an underground pipeline expressed only in depth, the expression of p3 point on the screen should be expressed as p3 'on the screen.

따라서 본 발명은 지하관로의 고도에 맞게 증강현실로 표현하기 위해 관로의 절대 높이가 필요하다. 특히, 본 발명은 절대적 3차원 위치의 관로객체를 표현하기 때문에, 지표면에 표현이 아니라 지하에 매설된 위치에 표현하는 것이다. 반면, 종래기술과 같이 지표면에 표현하는 경우에는 심도 정보조차도 필요가 없다. 즉, x좌표와 y좌표만 가지고 표현이 가능하다. 지표면에 표현하는 경우, 도 8과 같은 조건 하에 스마트 단말의 화면상에는 p1과 p2가 모두 작업자의 위치에 표현이 될 것이다.Therefore, the present invention requires the absolute height of the pipeline in order to represent the augmented reality in accordance with the height of the underground pipeline. In particular, since the present invention expresses a pipeline object of an absolute three-dimensional position, it is expressed at a position buried underground, not at the surface. On the other hand, even when the surface is expressed as in the prior art, even the depth information is not necessary. That is, it can be expressed with only x and y coordinates. In the case of expressing on the ground surface, both p1 and p2 will be represented at the position of the operator on the screen of the smart terminal under the conditions as shown in FIG. 8.

즉, 본 발명에서는, 지하에 매설된 위치에 표현하게 되므로, 오히려 정확한 위치가 필요하다. 심도 정보만 사용할 경우 지표면의 고저차를 반영할 수 없으며, 도 8과 같은 조건 하에 스마트 장치의 화면상에는 p3가 작업자의 위치에 표현이 된다. 그러나 실제로는 p3’가 작업자의 위치에 표현되어야 하므로, 지하관로의 고도를 구해야 한다.That is, in the present invention, because it is expressed in the position buried underground, rather accurate position is required. If only the depth information is used, the height difference of the ground surface cannot be reflected, and p3 is expressed at the position of the worker on the screen of the smart device under the conditions as shown in FIG. 8. In practice, however, p3 'must be expressed in the worker's position, so the altitude of the underground pipe must be found.

한편, 지하관로의 3차원 공간객체는 기존에 구축되어 있는 2차원의 공간정보를 사용하여 생성한다. 2차원의 공간정보는 관로의 x좌표와 y좌표를 포함하고 있으며 이 자체로 2차원의 공간객체로 간주할 수 있다. 심도는 공간객체의 속성정보에 포함되어 있다. 3차원 지형정보를 통해 관로가 위치해 있는 지표면의 고도값을 구할 수 있다. 지표면의 고도값에서 심도를 빼면 관로가 설치된 고도값을 구할 수 있다. 즉, 기 구축된 2차원 공간정보를 통해 관로의 x좌표와 y좌표를 구할 수 있으며, 관로의 속성정보와 3차원 지형정보를 사용하여 관로의 z좌표를 구할 수 있다.On the other hand, the three-dimensional spatial object of the underground pipeline is created using the existing two-dimensional spatial information. The two-dimensional spatial information includes the x- and y-coordinates of the pipeline and can be regarded as a two-dimensional spatial object by itself. The depth is included in the attribute information of the spatial object. The three-dimensional topographic information can be used to obtain the elevation of the ground surface on which the pipeline is located. By subtracting the depth from the altitude of the surface, we can get the altitude of the pipeline. That is, the x- and y-coordinates of the pipeline can be obtained through the previously constructed two-dimensional spatial information, and the z-coordinate of the pipeline can be obtained using the attribute information of the pipeline and the three-dimensional topographic information.

이상, 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고, 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.As mentioned above, although the invention made by this inventor was demonstrated concretely according to the said Example, this invention is not limited to the said Example and can be variously changed in the range which does not deviate from the summary.

10 : 스마트 단말 11 : 카메라
12 : 디스플레이 13 : 입력장치
14 : 움직임 센서 15 : 통신부
16 : 위치감지 센서 18 : 중앙처리장치
20 : 클라이언트 30 : 증강현실 서버
40 : 데이터베이스 41 : 관로정보 DB
42 : 지형정보 DB 80 : 네트워크
10: smart terminal 11: the camera
12 display 13 input device
14: motion sensor 15: communication unit
16: position sensor 18: central processing unit
20: Client 30: Augmented Reality Server
40: database 41: pipeline information DB
42: terrain information DB 80: network

Claims (6)

스마트 단말에 설치되는 클라이언트 및, 상기 스마트 단말과 네트워크로 연결된 서버로 구성된 시스템에 의해 수행되는, 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법에 있어서,
(a) 상기 스마트 단말의 위치(이하 현재 위치)와 자세를 측정하는 단계;
(b) 현재 위치에서 소정의 범위 내의 3차원 지형정보 및, 관로의 위치 및 심도를 포함하는 2차원 관로정보를 추출하는 단계;
(c) 2차원 관로정보에 3차원 지형정보를 적용하여, 3차원 관로객체를 생성하는 단계;
(d) 상기 스마트 단말의 카메라 시점의 위치 및 방향을 산출하는 단계;
(e) 산출된 카메라 시점의 위치 및 방향을 이용하여, 상기 카메라 시점을 중심으로 상기 3차원 관로객체를 투영한 2차원 투영영상을 생성하는 단계; 및,
(f) 상기 스마트 단말의 카메라로 촬영한 전방영상에 상기 투영영상을 합성하여 표시하는 단계를 포함하는 것을 특징으로 하는 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법.
In the augmented reality representation method for management of the underground pipe channel considering the elevation difference, which is performed by a system comprising a client installed in the smart terminal and the server connected to the smart terminal network,
(a) measuring the position (hereinafter, present position) and posture of the smart terminal;
(b) extracting three-dimensional topographic information within a predetermined range from the current location and two-dimensional pipeline information including the location and depth of the pipeline;
(c) generating three-dimensional pipeline objects by applying three-dimensional terrain information to the two-dimensional pipeline information;
calculating a position and a direction of a camera viewpoint of the smart terminal;
(e) generating a two-dimensional projection image projecting the three-dimensional duct object based on the camera viewpoint using the calculated position and direction of the camera viewpoint; And,
and (f) synthesizing and displaying the projection image on the front image photographed by the camera of the smart terminal.
제1항에 있어서,
상기 (c)단계에서, 상기 관로정보로부터 지하관로의 절점 Ni의 위치가 (xi, yi)이고 심도가 di 인 것을 추출하고, 상기 지형정보로부터 절점 Ni의 고도 hi 를 추출하여, 절점 Ni의 3차원 위치를 (xi, yi, hi-di)로 산출하는 것을 특징으로 하는 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법.
The method of claim 1,
In the step (c), extracting the position of the node N i of the underground pipeline (x i , y i ) and the depth of the d i from the pipeline information, and extract the altitude h i of the node N i from the terrain information And calculating the three-dimensional position of the node N i as (x i , y i , h i -d i ).
제1항에 있어서,
상기 관로정보는 다수의 절점으로 구성되되, 각 절점은 다른 절점과 소정의 간격을 두고 서로 이격된 위치를 갖고,
상기 (c)단계에서, 보간법을 이용하여 다수의 절점으로부터 연속된 관로 좌표를 구하고, 구한 좌표에 대하여 3차원 관로 객체를 구함으로써, 연속된 3차원 관로 객체를 생성하는 것을 특징으로 하는 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법.
The method of claim 1,
The pipeline information is composed of a plurality of nodes, each node has a position spaced apart from each other with a predetermined interval,
In the step (c), by using the interpolation method to obtain a continuous pipe coordinates from a plurality of nodes, by obtaining a three-dimensional pipe object from the obtained coordinates, taking into account the elevation difference, characterized in that to create a continuous three-dimensional pipe object Augmented Reality Representation Method for Management of Underground Pipeline.
제1항에 있어서,
상기 (d)단계에서, 상기 스마트 단말의 자세로부터 스마트 단말의 평면에 수직하는 법선을 구하여 카메라 시점의 방향을 구하고, 사용자로부터 입력받은 기계고와 상기 3차원 지형정보로부터 추출한 현재 위치의 고도를 합하여 스마트 단말의 고도를 구하고, 현재 위치와 상기 스마트 단말의 고도로 카메라 시점의 위치를 구하는 것을 특징으로 하는 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법.
The method of claim 1,
In step (d), a normal line perpendicular to the plane of the smart terminal is obtained from the posture of the smart terminal to obtain a direction of the camera viewpoint, and the sum of the altitude of the machine height received from the user and the current position extracted from the 3D terrain information Obtaining the altitude of the smart terminal, and the current position and the position of the camera viewpoint with the altitude of the smart terminal, the augmented reality representation method for the management of the underground pipeline considering the elevation difference.
제1항에 있어서,
상기 (e)단계에서, 상기 카메라 시점을 중심으로 상기 3차원 관로객체와 반대편으로 초점거리 만큼 이격된 평면을 투영평면으로 설정하고, 상기 3차원 관로객체를 상기 카메라 시점을 중심으로 상기 투영평면에 점대칭으로 투영하는 것을 특징으로 하는 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법.
The method of claim 1,
In the step (e), the plane spaced apart by the focal length on the opposite side of the three-dimensional pipeline object with respect to the camera viewpoint as the projection plane, and the three-dimensional pipeline object on the projection plane around the camera viewpoint An augmented reality representation method for the management of underground pipelines considering elevation difference.
제1항 내지 제5항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium having recorded thereon a program for performing the method of any one of claims 1 to 5.
KR1020180067690A 2018-03-30 2018-06-12 An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof KR102097416B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180037215 2018-03-30
KR1020180037215 2018-03-30

Publications (2)

Publication Number Publication Date
KR20190114696A true KR20190114696A (en) 2019-10-10
KR102097416B1 KR102097416B1 (en) 2020-04-06

Family

ID=68206334

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180067690A KR102097416B1 (en) 2018-03-30 2018-06-12 An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof

Country Status (1)

Country Link
KR (1) KR102097416B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111882488A (en) * 2020-07-22 2020-11-03 浙江大学 Indoor pipeline position recording and projecting method
KR102173286B1 (en) * 2020-02-18 2020-11-03 (주)리얼메이커 Electronic device, method, and computer readable medium for correction of spacing coordinate information in mixed reality
KR20220059709A (en) * 2020-11-03 2022-05-10 아이씨티웨이주식회사 Image processing device for partial renewal of 3d underground facilities
WO2022162433A1 (en) * 2021-01-29 2022-08-04 Niknia Navid An augmented reality platform for a geographic information system
EP4064191A1 (en) * 2021-03-26 2022-09-28 Trimble Inc. Determining depth of buried assets

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060066976A (en) 2004-12-14 2006-06-19 삼성전자주식회사 Real time 3 dimensional transformation method for 2 dimensional linear data and apparatus therefor, and real time 3 dimensional visualization method for 2 dimensional linear data and apparatus therefor
KR20100006736A (en) 2008-07-10 2010-01-21 광주과학기술원 System and apparatus for implementing augmented reality, and method of implementing augmented reality using the said system or the said apparatus
KR100992619B1 (en) 2010-06-21 2010-11-05 (주)안세기술 System and method for providing underground facility information using augmented reality of mobile terminal in cloud-computing environment
KR100997084B1 (en) 2010-06-22 2010-11-29 (주)올포랜드 A method and system for providing real time information of underground object, and a sever and method for providing information of the same, and recording medium storing a program thereof
KR101035687B1 (en) * 2010-09-06 2011-05-19 수자원기술 주식회사 Photographing pipe without suspension of water supply
KR20130012629A (en) * 2011-07-26 2013-02-05 한국과학기술원 Augmented reality system for head-up display
KR101774877B1 (en) 2016-09-09 2017-09-05 한전케이디엔주식회사 Augment reality providing system of electric power facilities

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060066976A (en) 2004-12-14 2006-06-19 삼성전자주식회사 Real time 3 dimensional transformation method for 2 dimensional linear data and apparatus therefor, and real time 3 dimensional visualization method for 2 dimensional linear data and apparatus therefor
KR20100006736A (en) 2008-07-10 2010-01-21 광주과학기술원 System and apparatus for implementing augmented reality, and method of implementing augmented reality using the said system or the said apparatus
KR100992619B1 (en) 2010-06-21 2010-11-05 (주)안세기술 System and method for providing underground facility information using augmented reality of mobile terminal in cloud-computing environment
KR100997084B1 (en) 2010-06-22 2010-11-29 (주)올포랜드 A method and system for providing real time information of underground object, and a sever and method for providing information of the same, and recording medium storing a program thereof
KR101035687B1 (en) * 2010-09-06 2011-05-19 수자원기술 주식회사 Photographing pipe without suspension of water supply
KR20130012629A (en) * 2011-07-26 2013-02-05 한국과학기술원 Augmented reality system for head-up display
KR101774877B1 (en) 2016-09-09 2017-09-05 한전케이디엔주식회사 Augment reality providing system of electric power facilities

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102173286B1 (en) * 2020-02-18 2020-11-03 (주)리얼메이커 Electronic device, method, and computer readable medium for correction of spacing coordinate information in mixed reality
CN111882488A (en) * 2020-07-22 2020-11-03 浙江大学 Indoor pipeline position recording and projecting method
CN111882488B (en) * 2020-07-22 2022-07-19 浙江大学 Indoor pipeline position recording and projecting method
KR20220059709A (en) * 2020-11-03 2022-05-10 아이씨티웨이주식회사 Image processing device for partial renewal of 3d underground facilities
WO2022162433A1 (en) * 2021-01-29 2022-08-04 Niknia Navid An augmented reality platform for a geographic information system
EP4064191A1 (en) * 2021-03-26 2022-09-28 Trimble Inc. Determining depth of buried assets
US11598631B2 (en) 2021-03-26 2023-03-07 Trimble Inc. Determining depth of buried assets

Also Published As

Publication number Publication date
KR102097416B1 (en) 2020-04-06

Similar Documents

Publication Publication Date Title
KR102097416B1 (en) An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof
US10134196B2 (en) Mobile augmented reality system
US20190272676A1 (en) Local positioning system for augmented reality applications
Zollmann et al. Augmented reality for construction site monitoring and documentation
KR100997084B1 (en) A method and system for providing real time information of underground object, and a sever and method for providing information of the same, and recording medium storing a program thereof
KR100473331B1 (en) Mobile Mapping System and treating method thereof
KR101305059B1 (en) A method and system for editing numerical map in real time, and a sever, and recording medium storing a program thereof
JP7273927B2 (en) Image-based positioning method and system
JP2012133471A (en) Image composer, image composition program and image composition system
Gomez-Jauregui et al. Quantitative evaluation of overlaying discrepancies in mobile augmented reality applications for AEC/FM
US10235800B2 (en) Smoothing 3D models of objects to mitigate artifacts
US10997785B2 (en) System and method for collecting geospatial object data with mediated reality
KR102264219B1 (en) Method and system for providing mixed reality contents related to underground facilities
US20220138467A1 (en) Augmented reality utility locating and asset management system
Cosido et al. Hybridization of convergent photogrammetry, computer vision, and artificial intelligence for digital documentation of cultural heritage-a case study: the magdalena palace
CN112422653A (en) Scene information pushing method, system, storage medium and equipment based on location service
KR101280210B1 (en) Method for providing Information based on Augmented Reality in Mobile Terminal
CN113269892B (en) Method for providing augmented view and mobile augmented reality viewing device
KR20140031129A (en) Virtual face generating method of omni-directional image using user interaction
KR20220085150A (en) Intelligent construction site management supporting system server and method based extended reality
KR101176446B1 (en) A method and system for editing numerical map in real time, and a sever, and recording medium storing a program thereof
Yokoi et al. Way-finding assistance system for underground facilities using augmented reality
Meesuk et al. Using multidimensional views of photographs for flood modelling
KR20150020421A (en) A measurement system based on augmented reality approach using portable servey terminal
KR100782152B1 (en) Method for obtaining 3-dimensional building data from aerial photograph db

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant