KR102389762B1 - Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof - Google Patents

Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof Download PDF

Info

Publication number
KR102389762B1
KR102389762B1 KR1020210016191A KR20210016191A KR102389762B1 KR 102389762 B1 KR102389762 B1 KR 102389762B1 KR 1020210016191 A KR1020210016191 A KR 1020210016191A KR 20210016191 A KR20210016191 A KR 20210016191A KR 102389762 B1 KR102389762 B1 KR 102389762B1
Authority
KR
South Korea
Prior art keywords
building
user
augmented reality
space
information
Prior art date
Application number
KR1020210016191A
Other languages
Korean (ko)
Inventor
박경희
김철순
Original Assignee
클레이웍스 주식회사
박경희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 클레이웍스 주식회사, 박경희 filed Critical 클레이웍스 주식회사
Priority to KR1020210016191A priority Critical patent/KR102389762B1/en
Application granted granted Critical
Publication of KR102389762B1 publication Critical patent/KR102389762B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a space formation and recognition system through a digital twin-linked augmented reality camera and a method thereof and, more particularly, to a space formation and recognition system through a digital twin-linked augmented reality camera that can infer which part of a building a user has photographed by comparing a direction vector of the camera extracted from a 6DoF value through DT with a building that is hit by raycasting the direction vector on a corresponding point on a DT space, and a method thereof.

Description

디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템 및 그 방법{Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof}Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof

본 발명은 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템 및 그 방법에 관한 것으로서, 보다 상세하게는 DT를 통해 6DoF 값에서 추출한 카메라의 방향 벡터를 DT 공간 상의 해당 지점에 투영하여(raycasting) 검출(hit)되는 건물과 비교하여 사용자가 어떤 건물의 어느 부분을 촬영한 것인지를 유추할 수 있는 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템 및 그 방법에 관한 것이다.The present invention relates to a space formation and recognition system and a method through a digital twin-linked augmented reality camera, and more particularly, by projecting a direction vector of a camera extracted from a 6DoF value through DT to a corresponding point on the DT space (raycasting) It relates to a space formation and recognition system through a digital twin-linked augmented reality camera capable of inferring which part of which building a user has photographed, and a method therefor, compared to a detected building.

현재 일반 사용자들에게 제공되는 3D 공간 지도는 항공 촬영을 통해 확보한 사진 자료를 사진측량(Photogrammetry)을 통해 3D 모델을 생성하고 텍스처를 입히는 형식으로 건물의 형상을 제공한다. 하지만 아직도 사람의 수작업을 많이 요구하고 있다.The 3D spatial map currently provided to general users provides the shape of a building in the form of creating a 3D model through photogrammetry and applying a texture using photo data obtained through aerial photography. However, it still requires a lot of human manual work.

그러나 이 방법은 대량의 사진을 촬영하고 정합 하는 특성상 개별 건물의 정밀한 이미지를 구현할 수 없고, 가로수와 같은 장애물에 피사체가 가로막히는 경우에 대한 대안이 존재하지 않는다(해상도 낮음, 항공/위성사진의 한계). However, this method cannot implement precise images of individual buildings due to the nature of taking and matching a large number of photos, and there is no alternative to the case where the subject is blocked by obstacles such as street trees (low resolution, limitations of aerial/satellite photos) ).

현재 드론을 활용한 제작법이 사용되고 있으나, 근본적으로 문제를 해결하지는 못하고 있다.Currently, a manufacturing method using a drone is being used, but it does not fundamentally solve the problem.

본 발명은 상기와 같은 문제점을 해결하기 위해 이루어진 것으로서, 사용자가 촬영한 사진들은 자세정보와 함께 DT로 업로드 되고, DT를 통해 6DoF 값에서 추출한 카메라의 방향 벡터와 증강 현실 기능을 통해 인식한 증강 현실 공간 정보를 DT 공간 상의 해당 지점에 투영하여(raycasting) 검출(hit)되는 건물과 비교하여 사용자가 어떤 건물의 어느 부분을 촬영한 것인지를 유추할 수 있다.The present invention has been made to solve the above problems, in which the photos taken by the user are uploaded to the DT together with the posture information, and the camera's direction vector extracted from the 6DoF value through the DT and the augmented reality recognized through the augmented reality function. It is possible to infer which part of which building the user has photographed by comparing the spatial information with a building that is detected (hit) by projecting (raycasting) to the corresponding point on the DT space.

또한 본 발명은 DT는 사용자가 서로 다른 각도에서 촬영한 같은 건물의 사진을 DT 공간 내의 건물 오브젝트에 투영하는 공간 투영 방식을 통하여 각 건물의 시각 품질을 높일 수 있다. In addition, according to the present invention, the DT can increase the visual quality of each building through a spatial projection method in which the user projects pictures of the same building taken from different angles on a building object in the DT space.

상기 과제를 해결하기 위하여 본 발명은 6DoF 카메라 또는 증강 현실 카메라를 포함하고 이를 제어하는 제어 모듈로 구성된 증강현실 디바이스 또는 증강현실 디바이스; 상기 증강현실 디바이스 내에 탑재되는 사용자의 현재 위치와 자세정보를 식별할 수 있는 GPS, WiFi, 지자기계, 자이로스코프 모듈;을 포함하며, 상기 모듈들의 결과 데이터를 합산하여 얻은 6DoF(Degrees of Freedom) 정보와 증강현실 공간 정보를 이용하여 사용자가 현재 어느 지점에서 어느 방향을 바라보고 있는지를 식별하고, 상기 증강현실 디바이스을 통해 사용자가 촬영한 사진들은 자세정보 및 증강 현실 공간 정보와 함께 DT로 업로드 되고, DT를 통해 6DoF 값에서 추출한 카메라의 방향 벡터를 DT 공간 상의 해당 지점에 투영하여(raycasting) 검출(hit)되는 건물과 비교하고, 사용자가 탐지한 대상 건물의 증강 현실 공간 정보를 이용하여 상기 검출되는 건물 중 사용자가 어떤 건물의 어느 부분을 촬영한 것인지를 유추한다.In order to solve the above problems, the present invention includes an augmented reality device or augmented reality device comprising a 6DoF camera or an augmented reality camera and configured as a control module for controlling the same; GPS, WiFi, geomagnetism, and gyroscope modules that can identify the user's current location and posture information mounted in the augmented reality device; 6DoF (Degrees of Freedom) information obtained by summing the result data of the modules and the augmented reality spatial information to identify which direction the user is currently looking at, and the photos taken by the user through the augmented reality device are uploaded to the DT along with the posture information and the augmented reality spatial information, The camera's direction vector extracted from the 6DoF value through It infers which part of which building the user has photographed.

상기 DT는 건물 및 지형 정보에 대한 자료를 포함하며, 사용자가 촬영한 정보 및 증강 현실을 통해 인식한 증강현실 공간 정보는 상기 DT 상에 그대로 투영되고, 상기 DT는 사용자의 벡터가 DT 상의 건물과 충돌하는 지점을 계산하여, 사용자가 어떤 건물을 촬영하였는지를 유추한다.The DT includes data on the building and terrain information, the augmented reality spatial information recognized through the information photographed by the user and the augmented reality is projected on the DT as it is, and the DT is the user's vector with the building on the DT By calculating the collision point, it is inferred which building the user has photographed.

상기 6DoF는 위치정보 x,y,z 또는 경도,위도,고도 및 Roll, Yaw, 및 Pitch를 포함하는 POSE정보를 포함하고, 상기 증강 현실 공간 정보는 카메라 주변 건물 등의 3D 공간 정보를 포함한다. 상기 카메라를 통해 촬영, 업로드한 사진 정보는 DT 상에서 공간정합 후 3D 오브젝트에 반영되어 다른 사용자들에게 제공된다.The 6DoF includes location information x, y, z or longitude, latitude, altitude, and POSE information including Roll, Yaw, and Pitch, and the augmented reality spatial information includes 3D spatial information such as buildings around the camera. The photo information taken and uploaded through the camera is reflected in the 3D object after spatial matching on the DT and provided to other users.

상기 디지털 트윈에 포함되는 건물에 대한 공간, 행정정보를 이용하여 인공지능의 학습에 필요한 라벨링 데이터를 자동으로 제공한다.Using the space and administrative information on the building included in the digital twin, the labeling data required for artificial intelligence learning is automatically provided.

상기 DT 공간 내의 건물 오브젝트에 서로 다른 각도에서 촬영한 동일 건물의 복수개 사진을 투영하여 각 건물의 시각 품질을 일정치 이상 높인다.A plurality of pictures of the same building taken from different angles are projected onto the building object in the DT space to increase the visual quality of each building by a certain value or more.

본 발명은 증강현실 디바이스 내부에 포함되는 사용자의 현재 위치와 자세정보를 식별할 수 있는 GPS, WiFi, 지자기계, 자이로스코프 모듈의 계측 데이터를 합산하여 얻은 6DoF 정보를 이용하여 사용자가 현재 어느 지점에서 어느 방향을 바라보고 있는지를 식별하는 단계; 상기 증강현실 디바이스을 사용하여 사용자가 촬영한 사진들은 자세정보와 함께 DT로 업로드 되고, DT를 통해 6DoF 값에서 추출한 카메라의 방향 벡터를 DT 공간 상의 해당 지점에 투영하여(raycasting), DT 공간 상의 주변 건물을 검출하는 단계; DT 공간 상에서 검출되는 건물 중 사용자가 상기 증강현실 디바이스을 사용하여 어떤 건물을 촬영한 것인지를 유추하기 위해 검출되는 주변의 복수개의 건물과 비교하여 하나의 건물을 검출하는 단계; 증강 현실 기능을 통해 인식한 실제 건물의 3D 공간 정보와 상기한 과정을 통해 검출된 하나의 건물의 공간 정보를 비교하여 건물 내 어느 영역을 촬영한 것인지를 검출하는 단계;를 포함한다.The present invention uses 6DoF information obtained by summing measurement data of GPS, WiFi, geomagnetism, and gyroscope modules that can identify the user's current location and posture information included in the augmented reality device, allowing the user to identifying which direction it is facing; The photos taken by the user using the augmented reality device are uploaded to the DT along with the posture information, and the camera's direction vector extracted from the 6DoF value through the DT is projected (raycasting) to the corresponding point in the DT space, and the surrounding buildings in the DT space detecting; Detecting one building by comparing it with a plurality of surrounding buildings detected in order to infer which building the user has photographed using the augmented reality device among the buildings detected on the DT space; Comparing the 3D spatial information of the real building recognized through the augmented reality function with the spatial information of one building detected through the above process, detecting which area in the building was photographed; includes.

상기 DT는 건물 및 지형 정보에 대한 자료를 포함하며, 사용자가 촬영한 정보 및 증강현실 공간정보는 상기 DT 상에 그대로 투영되고, 상기 DT는 사용자의 벡터가 DT 상의 건물과 충돌하는 지점을 계산하여, 사용자가 어떤 건물을 촬영하였는지를 유추하는 단계;를 포함한다. The DT includes data on building and terrain information, information captured by the user and augmented reality spatial information is projected on the DT as it is, and the DT calculates the point at which the user's vector collides with the building on the DT. , inferring which building the user has photographed; includes.

상기 DT에 포함되는 건물에 대한 공간, 행정정보를 이용하여 인공지능의 학습에 필요한 라벨링 데이터를 자동으로 제공하는 단계; 사용자가 서로 다른 각도에서 촬영한 같은 건물의 사진을 DT 공간 내의 건물 오브젝트에 투영하여 각 건물의 시각 품질을 일정치 이상 높이는 단계;를 포함한다. automatically providing labeling data necessary for learning of artificial intelligence by using space and administrative information about the building included in the DT; and projecting the pictures of the same building taken from different angles by the user on the building object in the DT space to increase the visual quality of each building by a certain value or more.

상기와 같이 이루어지는 본 발명은 사용자가 6DoF 카메라로 촬영, 업로드한 사진 정보는 DT 상에서 공간정합 후 3D 오브젝트에 반영되어 다른 사용자들에게 제공되므로 방문객들에게 좀 더 사실적인 이미지 정보를 제공할 수 있다. 이는 지역상인과 같은 지역 공간정보 제공자들이 쉽게 자신의 공간을 실제처럼 장식할 수 있게 도와주며, 이는 항공 촬영 방식 보다 비용대비 더 높은 품질의 공간 정보를 제공할 수 있는 방법이다.According to the present invention made as described above, since the photo information taken and uploaded by the user with the 6DoF camera is reflected in the 3D object after spatial matching on the DT and provided to other users, it is possible to provide more realistic image information to visitors. This helps local geospatial information providers such as local merchants to easily decorate their space realistically, and this is a method that can provide higher quality spatial information compared to the aerial photography method.

또한 본 발명은 사용자가 촬영한 정보는 상기하였듯이 DT 상에 그대로 투영되고, DT는 건물 및 지형 정보에 대한 자료를 갖고 있으므로 DT는 사용자의 벡터가 DT 상의 건물과 충돌하는 지점을 계산할 수 있고, 이를 통해 사용자가 어떤 건물을 촬영하였는지를 유추할 수 있다. In addition, in the present invention, the information photographed by the user is projected as it is on the DT as described above, and since the DT has data on the building and terrain information, the DT can calculate the point at which the user's vector collides with the building on the DT, and this Through this, it is possible to infer which building the user has photographed.

또한 본 발명은 DT 공간에서 어느 건물을 촬영한 것인지를 이미지 내용의 분석기법을 사용하여 자동으로 알아낼 수 있는 건물 정보 식별 기능을 포함하고, 관광산업에서 관광객들이 어떤 랜드마크에서 사진을 많이 촬영하는지를 자동으로 계수할 수 있는 효과를 얻는다.In addition, the present invention includes a building information identification function that can automatically find out which building was photographed in the DT space using an image content analysis technique, and automatically determines which landmarks tourists take a lot of photos in in the tourism industry. to obtain a countable effect.

또한 본 발명은 사진상에 존재하는 건물에 대한 공간, 행정정보 등을 디지털 트윈이 이미 갖고 있으므로, 인공지능의 학습에 필요한 라벨링 데이터를 디지털트윈이 자동으로 제공해줄 수 있게 된다. 이는 공간을 학습하는 인공지능의 학습 비용을 획기적으로 낮추고, 디지털 트윈 공간을 인공지능의 학습 공간으로 활용할 수 있는 방법이다.In addition, according to the present invention, since the digital twin already has the space and administrative information about the building present in the photo, the digital twin can automatically provide the labeling data required for artificial intelligence learning. This is a way to dramatically lower the learning cost of artificial intelligence that learns a space and utilize the digital twin space as a learning space for artificial intelligence.

도 1은 본 발명의 일실시예에 따른 부정확한 건물 이미지를 보여주는 도면이다.
도 2는 본 발명의 일실시예에 따른 공간 투영 예시를 보여주는 도면이다.
도 3은 본 발명의 일실시예에 따른 이미지 정합 예시를 보여주는 도면이다.
도 4는 본 발명의 다른 실시예에 따른 건물 정보 식별 예시를 보여주는 도면이다.
도 5는 본 발명에 따른 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템의 자세한 구성을 보여주는 도면이다.
도 6은 본 발명의 일실시예에 따른 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템을 사용하여 노드와 엣지 등의 관계를 자세히 보여주는 도면이다.
도 7은 본 발명의 일실시예에 따른 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템을 이용한 사진 촬영과 쿠폰 사용에 따른 실시간 데이터의 생성 과정을 보여주는 도면이다.
도 8은 본 발명의 다른 실시예에 따른 만들어진 복수개의 노드와 엣지가 상호 작용하는 관계를 보여주는 도면이다.
도 9는 본 발명의 다른 실시예에 따른 위치 정보 설정에서 (a) 기존 지도, (b) 내부 로직 예시 등을 보여주는 도면이다.
도 10은 본 발명의 다른 실시예에 따른 실제 정보 기반 DT 투영 예시를 보여주는 도면이다.
도 11은 본 발명의 다른 실시예에 따른 사용자의 위치 이동에 따른 입사각 변화 예시를 보여주는 도면이다.
도 12는 본 발명의 다른 실시예에 따른 촬영 영역의 네 꼭짓점 선정에 따른 촬영 영역 지정을 보여주는 도면이다.
도 13은 본 발명의 다른 실시예에 따른 건물 우측 하단 꼭짓점 지정 요구에 대한 표시 상태를 보여주는 도면이다.
도 14는 본 발명의 다른 실시예에 따른 공간 정합 완료 후의 증강현실 투영도와 도 12의 과정에 따른 촬영 영역의 네 꼭짓점에 대한 UV 값 지정을 보여주는 도면이다.
도 15는 본 발명의 다른 실시예에 따른 증강현실 카메라를 통해 인식한 증강현실 공간 정보를 기반으로 DT 건물 내 대응 영역을 탐색하는 예시를 보여주는 도면이다.
도 16은 본 발명의 다른 실시예에 따른 디지털 트윈 내 3D Mesh의 복잡한 외형에서 다양한 법선 벡터들을 취합, 대표되는 평면을 생성하고 생성된 평면에서 하나의 주성분 벡터를 추출하는 예를 보여주는 도면이다.
도 17은 본 발명의 다른 실시예에 따른 도 16의 법선 벡터 일반화 결과물인 최소 경계 상자(Minimum Boundinging Box)의 예를 보여주는 도면이다.
도 18은 본 발명의 다른 실시예에 따른 도 16의 최소 경계 상자 산출에 대한 절차를 나타내는 도면이다.
도 19는 도 17의 최소 경계 상자를 산출하기 위한 Convex Hull 생성 알고리즘인 Graham Scan의 예를 보여주는 도면이다.
도 20은 도 19의 Graham Scan 알고리즘을 완료할 시 산출되는 Convex Hull의 예를 보여주는 도면이다.
도 21은 도 17의 최소 경계 상자를 산출하기 위한 과정인 Convex Hull을 이용한 Rotating Callipers 알고리즘의 수행 예를 보여주는 도면이다.
도 22는 도 21의 Rotating Callipers의 매 시행에 따라 산출되는 모든 경계 상자들을 나타내는 예를 보여주는 도면이다.
도 23은 본 발명의 다른 실시예에 따른 디지털 트윈과 실제 세계를 회전과 위치 변경을 통해 정합 하는 예를 보여주는 도면이다.
도 24는 본 발명의 다른 실시예에 따른 (a) 추출된 건물 이미지, (b) 각 건물 면의 실제 형태를 보여주는 도면이다.
도 25는 본 발명의 다른 실시예에 따른 Projective transformation을 사용하여 원본 이미지를 실제 형태로 변환하는 것을 보여주는 도면이다.
도 26은 본 발명의 다른 실시예에 따른 각 이미지의 네 꼭짓점을 이용한 투영 변환 예를 보여주는 도면이다.
1 is a view showing an inaccurate building image according to an embodiment of the present invention.
2 is a view showing an example of spatial projection according to an embodiment of the present invention.
3 is a view showing an example of image registration according to an embodiment of the present invention.
4 is a view showing an example of building information identification according to another embodiment of the present invention.
5 is a view showing a detailed configuration of a space formation and recognition system through a digital twin interlocking augmented reality camera according to the present invention.
6 is a diagram showing in detail the relationship between nodes and edges using a space formation and recognition system through a digital twin-linked augmented reality camera according to an embodiment of the present invention.
7 is a view showing a process of generating real-time data according to photo taking and coupon use using a space formation and recognition system through a digital twin interlocking augmented reality camera according to an embodiment of the present invention.
8 is a diagram illustrating a relationship between a plurality of nodes and edges created according to another embodiment of the present invention.
9 is a view showing (a) an existing map, (b) an example of internal logic, and the like in setting location information according to another embodiment of the present invention.
10 is a diagram showing an example of actual information-based DT projection according to another embodiment of the present invention.
11 is a view showing an example of an incident angle change according to a movement of a user's position according to another embodiment of the present invention.
12 is a diagram illustrating designation of a photographing area according to selection of four vertices of a photographing area according to another embodiment of the present invention.
13 is a view showing a display state of a request for designating a lower right vertex of a building according to another embodiment of the present invention.
14 is a diagram illustrating an augmented reality projection after spatial matching is completed according to another embodiment of the present invention and UV value designation for four vertices of a photographing area according to the process of FIG. 12 .
15 is a view showing an example of searching for a corresponding area in the DT building based on the augmented reality spatial information recognized through the augmented reality camera according to another embodiment of the present invention.
16 is a view showing an example of collecting various normal vectors from the complex appearance of a 3D mesh in a digital twin to create a representative plane and extracting one principal component vector from the generated plane according to another embodiment of the present invention.
17 is a diagram illustrating an example of a minimum bounding box that is a normal vector normalization result of FIG. 16 according to another embodiment of the present invention.
18 is a diagram illustrating a procedure for calculating the minimum bounding box of FIG. 16 according to another embodiment of the present invention.
19 is a diagram illustrating an example of Graham Scan, which is a convex Hull generation algorithm for calculating the minimum bounding box of FIG. 17 .
20 is a diagram illustrating an example of a convex hull calculated when the Graham Scan algorithm of FIG. 19 is completed.
FIG. 21 is a diagram illustrating an example of performing a Rotating Callipers algorithm using a convex hull, which is a process for calculating the minimum bounding box of FIG. 17 .
22 is a diagram illustrating an example of all bounding boxes calculated according to each trial of the Rotating Callipers of FIG. 21 .
23 is a diagram showing an example of matching a digital twin and the real world through rotation and position change according to another embodiment of the present invention.
24 is a view showing (a) an extracted building image and (b) an actual shape of each building surface according to another embodiment of the present invention.
25 is a diagram illustrating transformation of an original image into an actual form using projective transformation according to another embodiment of the present invention.
26 is a diagram illustrating an example of projection transformation using four vertices of each image according to another embodiment of the present invention.

본 발명을 충분히 이해하기 위해서 본 발명의 바람직한 실시예를 첨부 도면을 참조하여 설명한다. 본 발명의 실시예는 여러 가지 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 상세히 설명하는 실시예로 한정되는 것으로 해석되어서는 안 된다. 본 실시예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다. 따라서 도면에서의 요소의 형상 등은 보다 명확한 설명을 강조하기 위해서 과장되어 표현될 수 있다. 각 도면에서 동일한 부재는 동일한 참조부호로 도시한 경우가 있음을 유의하여야 한다. 또한, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 기술은 생략된다.In order to fully understand the present invention, preferred embodiments of the present invention will be described with reference to the accompanying drawings. Embodiments of the present invention may be modified in various forms, and the scope of the present invention should not be construed as being limited to the embodiments described in detail below. This example is provided to more completely explain the present invention to those of ordinary skill in the art. Accordingly, the shape of elements in the drawings may be exaggerated to emphasize a clearer description. It should be noted that in each drawing, the same member is shown with the same reference numerals in some cases. In addition, detailed descriptions of well-known functions and configurations determined to unnecessarily obscure the gist of the present invention will be omitted.

도 1은 본 발명의 일실시예에 따른 부정확한 건물 이미지를 보여주고, 도 2는 본 발명의 일실시예에 따른 공간 투영 예시를 보여주며, 도 3은 본 발명의 일실시예에 따른 이미지 정합 예시를 보여주고, 도 4는 본 발명의 다른 실시예에 따른 건물 정보 식별 예시를 보여주는 도면이다.Fig. 1 shows an inaccurate building image according to an embodiment of the present invention, Fig. 2 shows an example of spatial projection according to an embodiment of the present invention, and Fig. 3 is image registration according to an embodiment of the present invention Showing an example, Figure 4 is a view showing an example of building information identification according to another embodiment of the present invention.

도 2 내지 도 5에 도시된 바와 같이 본 발명은 6DoF 카메라 또는 증강 현실 카메라를 포함하고 이를 제어하는 제어 모듈로 구성된 증강현실 디바이스(100); 상기 증강현실 디바이스 내에 탑재되는 제어모듈(200)에 사용자의 현재 위치와 자세정보를 식별할 수 있는 GPS 모듈(201), WiFi 모듈(202), 지자기계 모듈(203), 자이로스코프 모듈(204);을 포함한다.As shown in Figures 2 to 5, the present invention includes an augmented reality device 100 including a 6DoF camera or an augmented reality camera and configured as a control module for controlling the same; A GPS module 201, a WiFi module 202, a geomagnetism module 203, and a gyroscope module 204 that can identify the user's current location and posture information in the control module 200 mounted in the augmented reality device. includes ;

상기 GPS 모듈(201), WiFi 모듈(202), 지자기계 모듈(203), 자이로스코프 모듈(204)들의 결과 데이터를 합산하여 얻은 6 Degrees of Freedom (6DoF : 위치정보 x,y,z 또는 경도,위도,고도 + POSE정보 : Roll, Yaw, Pitch) 정보를 이용하여 사용자가 현재 어느 지점에서 어느 방향을 바라보고 있는지를 식별한다.6 Degrees of Freedom (6DoF: location information x, y, z or longitude, Latitude, Altitude + POSE information: Roll, Yaw, Pitch) information is used to identify which direction the user is currently looking at.

상기 증강현실 디바이스은 증강현실 디바이스 이외에 증강현실을 지원하는 다른 디바이스들로 대체될 수 있다.The augmented reality device may be replaced with other devices supporting augmented reality in addition to the augmented reality device.

또한 상기 증강현실 디바이스의 해당 센서들의 데이터를 합산하여 얻은 6DoF정보를 이용하면 사용자가 현재 어느 지점에서 어느 방향을 바라보고 있는지를 식별할 수 있다. In addition, by using 6DoF information obtained by summing up the data of the corresponding sensors of the augmented reality device, it is possible to identify from which point the user is currently looking in which direction.

상기 6DoF는 위치정보로서 x,y,z 또는 경도, 위도, 고도 정보, POSE정보로서 Roll, Yaw, Pitch 정보를 포함한다.The 6DoF includes x, y, z or longitude, latitude, and altitude information as location information, and Roll, Yaw, and Pitch information as POSE information.

그리고 상기 증강현실 디바이스(100)을 통해 사용자가 촬영한 사진들은 자세정보와 함께 DT(디지털 트윈)로 업로드 되고, DT를 통해 6DoF 값에서 추출한 카메라의 방향 벡터를 DT 공간 상의 해당 지점에 투영하여(raycasting) 검출(hit)되는 건물과 비교하고, 상기 검출되는 건물 중 사용자가 어떤 건물의 어느 위치를 촬영한 것인지를 유추한다.And the photos taken by the user through the augmented reality device 100 are uploaded to DT (digital twin) together with posture information, and the direction vector of the camera extracted from the 6DoF value through DT is projected to the corresponding point in the DT space ( raycasting) is compared with a building to be detected (hit), and from among the detected buildings, which location of which building the user has photographed is inferred.

따라서 본 발명은 사용자가 6DoF 카메라로 촬영, 업로드한 사진 정보는 DT 상에서 공간정합 후 3D 오브젝트에 반영되어 다른 사용자들에게 제공되므로 방문객들에게 좀 더 사실적인 이미지 정보를 제공할 수 있다. Therefore, according to the present invention, photo information taken and uploaded by a user with a 6DoF camera is reflected in a 3D object after spatial matching on the DT and provided to other users, so that more realistic image information can be provided to visitors.

본 발명의 일실시예에 따라 상기 DT는 건물 및 지형 정보에 대한 자료를 포함하며, 사용자가 촬영한 정보는 상기 DT 상에 그대로 투영되고, 상기 DT는 사용자의 자세 벡터가 DT 상의 건물과 충돌하는 지점을 계산하여, 사용자가 어떤 건물을 촬영하였는지를 유추할 수 있다.According to an embodiment of the present invention, the DT includes data on the building and terrain information, the information captured by the user is projected on the DT as it is, and the DT is the user's posture vector collides with the building on the DT. By calculating the point, it is possible to infer which building the user has photographed.

이를 위해 상기 6DoF는 위치정보 x,y,z 또는 경도, 위도, 고도 및 Roll, Yaw, 및 Pitch를 포함하는 POSE정보를 포함하고, 상기 카메라를 통해 촬영, 업로드한 사진 정보는 DT 상에서 공간정합 후 3D 오브젝트에 반영되어 다른 사용자들에게 제공된다.To this end, the 6DoF includes location information x, y, z or POSE information including longitude, latitude, altitude and Roll, Yaw, and Pitch, and the photo information taken and uploaded through the camera is spatially aligned on the DT It is reflected in the 3D object and provided to other users.

상기 디지털 트윈에 포함되는 건물에 대한 공간, 행정정보를 이용하여 인공지능의 학습에 필요한 라벨링 데이터를 자동으로 제공한다.Using the space and administrative information on the building included in the digital twin, the labeling data required for artificial intelligence learning is automatically provided.

따라서 상기 사용자가 서로 다른 각도에서 촬영한 같은 건물의 사진을 DT 공간 내의 건물 오브젝트에 투영하여 각 건물의 시각 품질을 일정치 이상 높일 수 있다.Therefore, by projecting the pictures of the same building taken from different angles by the user on the building object in the DT space, the visual quality of each building can be increased by a certain value or more.

도 9는 본 발명의 일실시예에 따라 (a) 기존 지도, (b) 내부 로직을 예시한 도면이다.9 is a diagram illustrating (a) an existing map and (b) internal logic according to an embodiment of the present invention.

도 9에 도시된 바와 같이 GPS는 사용자의 주변환경 및 기지국, WiFi 연결 여부에 따라 비교적 값의 오차가 큰 편이므로 이를 보정하기위해 사용자로 하여금 GPS 값에 따라 자동으로 표시된 현재 위치가 정확한지를 어플리케이션을 통해 묻고, 정확하지 않을 경우 직접 맵에 핀 마커를 이동하여 자신의 현 위치를 어플리케이션을 통해 입력(위치 정보 설정)할 수 있도록 한다.As shown in Figure 9, GPS has a relatively large error value depending on the user's surrounding environment, base station, and WiFi connection. If it is not correct, you can directly move the pin marker on the map to input your current location through the application (location information setting).

사용자에게 어플리케이션을 통해 표시되는 지도의 중앙에는 마커가 존재하며, 사용자가 지도의 화면을 이동하여 마커를 자신의 현재 위치 위에 지정하면, 어플리케이션은 마커로부터 가장 가까운 좌표에 사용자 위치를 입력한다.A marker exists in the center of the map displayed to the user through the application, and when the user moves the map screen and designates the marker on his or her current location, the application inputs the user's location at the coordinates closest to the marker.

이 경우 어플리케이션이 입력 받은 화면의 중앙 좌표를 위도 및 경도 좌표 값으로 변환하는 과정에서 수 미터의 오차가 생길 것으로 예상되나, 이는 후술할 AR SDK(Software Development Kit)의 보정으로 해결할 수 있다.In this case, it is expected that an error of several meters will occur in the process of converting the center coordinates of the screen input by the application into latitude and longitude coordinate values, but this can be resolved by correction of the AR SDK (Software Development Kit), which will be described later.

이 단계에서 촬영자의 위치는 디지털 트윈 공간상에 1차적으로 배치되며, 후술할 도 15내지 도 23의 AR SDK를 이용한 보정 과정을 통해 최종적으로 공간 정합 된다.In this step, the position of the photographer is primarily arranged in the digital twin space, and finally spatially matched through the correction process using the AR SDK of FIGS. 15 to 23, which will be described later.

최종 공간 정합 이후 촬영자가 스마트 폰을 사용하여 바라보는 주변 공간(실세계)은 디지털 트윈에서도 동일하게 추적할 수 있다.After the final spatial registration, the surrounding space (real world) viewed by the photographer using a smartphone can be tracked in the same way in the digital twin.

도 10은 DT 연동을 하여, 피사체 건물을 확정하기 위한 실제 정보 기반 DT 투영을 예시한 도면이다.10 is a diagram illustrating an actual information-based DT projection for determining a subject building by interworking with DT.

상기 어플리케이션을 통해 촬영자가 위치한 지점에서 바라보고 있는 방향을 벡터로 변환, 이를 디지털트윈 공간에 투영(Raycast)하여 충돌 지점(hit point)을 계산하면 사용자가 현재 어떤 건물을 바라보고 있는지를 알 수 있다.Through the application, the direction the photographer is looking at from the location is converted into a vector, and the hit point is calculated by raycasting it in the digital twin space, so that the user can know which building he is currently looking at. .

따라서 사용자가 증강현실 디바이스의 카메라를 통해 보는 영상에 실제 건물 위로 증강현실 기술을 활용, 디지털 트윈에서 선택된 해당 건물의 모습을 증강현실 디바이스 화면 속에 중첩하여 디스플레이 할 수 있게 된다. Therefore, it is possible to display the image of the building selected in the digital twin by superimposing it on the screen of the augmented reality device by utilizing the augmented reality technology on the real building in the image that the user sees through the camera of the augmented reality device.

도 11은 사용자의 위치 이동에 따른 입사각 변화 예시를 보여주는 도면이다.11 is a diagram illustrating an example of an incident angle change according to a movement of a user's position.

도 11에 도시된 바와 같이 촬영할 영역 앞 벡터 정렬 (최적의 촬영 위치 확보)을 자세히 살펴본다.As shown in FIG. 11 , vector alignment in front of an area to be photographed (to secure an optimal photographing position) will be described in detail.

어플리케이션의 꼭짓점 표시를 통해 사용자가 앞으로 촬영할 사진이 건물의 어느 부분일지에 대한 정보를 얻었으므로, 이제 사용자가 촬영한 영역의 넓이를 알아야한다. Now that the user has obtained information about which part of the building the user will take a picture of through the application's vertex display, the user needs to know the area of the photographed area.

상기 넓이를 구하기 위해 사용자가 바라보는 벡터를 건물 면의 노멀 벡터(법선 벡터)와 정렬시킨다.In order to obtain the area, the vector viewed by the user is aligned with the normal vector (normal vector) of the building surface.

이 때 피사체의 최대한 정면에서 촬영한 이미지가 왜곡이 가장 적은 이상적인 텍스쳐(texture) 이미지가 된다. In this case, an image taken from the front of the subject as much as possible becomes an ideal texture image with minimal distortion.

이를 얻기 위해 어플리케이션을 통해 촬영자의 카메라가 바라보는 촬영 방향 벡터와 피사체 건물의 표면에서 나오는 유일한 노멀 벡터(normal vector)를 비교, 정렬을 한다.To achieve this, the application compares and aligns the shooting direction vector viewed by the photographer's camera with the only normal vector coming from the surface of the subject building.

상기 어플리케이션이 카메라로부터 얻은 사용자벡터와 DT에서 얻은 건물 면 벡터(노말 벡터)가 서로 직선상에 정렬된 경우가 가장 왜곡이 적은 상태이며, 3차원 공간상에서 두 벡터가 만들어내는 교각의 크기를 알려줌으로서 촬영자는 최대한 왜곡이 적은 촬영 위치를 확하도록 노력할 수 있다.The user vector obtained from the camera by the application and the building surface vector (normal vector) obtained from DT are aligned on a straight line with the least distortion, and the size of the pier created by the two vectors in three-dimensional space. The photographer may try to confirm the shooting position with as little distortion as possible.

Figure 112021014670049-pat00001
Figure 112021014670049-pat00001

두 벡터의 내적은 두 벡터의 크기에 벡터 사이각(θ)을 곱한 것과 같으므로 식을 변환하여 나온 하단의 식에 건물 법선 벡터와 사용자 벡터를 대입하면 두 벡터 사이의 각을 얻을 수 있다. Since the dot product of two vectors is equal to the magnitude of the two vectors multiplied by the angle between the vectors (θ), the angle between the two vectors can be obtained by substituting the building normal vector and the user vector into the lower equation obtained by transforming the equation.

해당 각을 어플리케이션을 통해 사용자에게 피드백 해주어 최적의 카메라 촬영 위치를 확보할 수 있도록 도와준다. The angle is fed back to the user through the application, helping to secure the optimal camera shooting position.

도 12에 도시된 바와 같이 촬영 영역의 네 꼭짓점 선정에 대해 자세히 살펴본다.The selection of four vertices of the imaging area will be described in detail as shown in FIG. 12 .

사용자가 어플리케이션을 통해 자신이 촬영하고자 하는 영역의 대략적인 중심부를 지정하고 나면, 사용자가 영역의 나머지 네 꼭짓점을 지정할 때 AR SDK는 중심 점으로부터 각 점 까지의 거리를 구할 수 있다. After the user designates the approximate center of the area to be photographed through the application, AR SDK can obtain the distance from the center point to each point when the user specifies the remaining four vertices of the area.

또는 어플리케이션을 통해 촬영자가 카메라의 중심부(초점) 및 촬영 영역의 네 꼭짓점을 순차적으로 지정하는 방식으로도 동일한 효과를 낼 수 있다.Alternatively, the same effect can be achieved by a method in which the photographer sequentially designates the center (focus) of the camera and the four vertices of the photographing area through the application.

상기 어플리케이션을 통해 점선으로 표시된 선의 길이와, 초록색으로 표시된 각을 알 수 있고, 벡터 정렬을 통해 면과 사용자가 수직을 이룬다는 것을 알고 있으므로, 삼각함수 혹은 피타고라스의 원리를 이용하여 나머지 두 변의 길이 또한 구할 수 있으며 식은 다음과 같다.The length of the line indicated by the dotted line and the angle indicated in green can be known through the application, and the user knows that the plane and the user are perpendicular through vector alignment, so using the trigonometric function or the Pythagorean principle, the length of the other two sides is also can be obtained, and the formula is:

Figure 112021014670049-pat00002
Figure 112021014670049-pat00002

Figure 112021014670049-pat00003
Figure 112021014670049-pat00003

Figure 112021014670049-pat00004
Figure 112021014670049-pat00004

이때 D2는 상기 어플리케이션에 연동된 증강현실 디바이스의 센서로부터 측정될 수도 있다. In this case, D2 may be measured from the sensor of the augmented reality device linked to the application.

도 13에 도시된 바와 같이 건물 꼭지점 지정(선택 사항)하는 데 있어, 상기 어플리케이션은 사용자가 업로드를 원하는 건물의 영역이 해당 건물 내에서도 어디에 위치하였는지 알기 위해 사용자에게 건물의 좌우측단 임의의 지점을 표시하도록 지시한다. In designating the building vertex (optional) as shown in FIG. 13, the application displays any point on the left and right ends of the building to the user in order to know where the area of the building that the user wants to upload is located in the building. instruct

도 13에서는 선택사항으로 건물의 우측 하단 꼭짓점을 지정하였다.In FIG. 13 , the lower right vertex of the building was designated as an option.

상기 어플리케이션이 추가 지정된 지점을 상기 4번의 공식과 데이터를 응용하면 해당 영역이 추가 지점으로부터 얼마나 떨어져 있는지를 동일하게 계산해낼 수 있다. If the application applies the above formula and data to the additionally designated point, how far the corresponding area is from the additional point can be equally calculated.

이를 이용하여 전체 건물의 영역에서 촬영 이미지가 차지해야 할 영역을 계산해 낼 수 있다.Using this, it is possible to calculate the area to be occupied by the photographed image in the area of the entire building.

도 14에 도시된 바와 같이 촬영 영역의 네 꼭짓점 선정 후의 UV 값 산출에 대해 자세히 살펴본다.As shown in FIG. 14 , the calculation of the UV value after selecting the four vertices of the imaging area will be described in detail.

후술할 도 15 및 도 23의 과정을 통해 사용자의 위치가 디지털 트윈의 공간에 완전히 정합 되면 사용자의 실제 공간과 디지털 트윈의 공간이 일치하는 상태이므로 디지털 트윈의 건물이 사용자의 화면에 증강 현실의 형태로 정합 되어 표시된다.When the user's location is completely matched to the space of the digital twin through the process of FIGS. 15 and 23, which will be described later, the user's real space and the space of the digital twin are in the same state, so the building of the digital twin is displayed in the form of augmented reality on the user's screen is displayed in combination with

따라서 사용자가 카메라를 통해 바라본 실제 건물에 디지털 트윈의 건물이 증강 현실의 형태로 투영되어 보이므로 사용자가 지정하는 촬영하고자 하는 실제 건물의 영역이 곧 디지털 트윈 내 건물의 영역으로 배치될 수 있다.Therefore, since the building of the digital twin is projected in the form of augmented reality on the real building viewed by the user through the camera, the area of the real building that the user wants to shoot can be arranged as the area of the building within the digital twin.

도 15에 도시된 바와 같이 증강 현실 공간에 대한 디지털 트윈 내의 대응 영역 탐색 절차에 대해 자세히 살펴본다.As shown in Fig. 15, a detailed look at the corresponding area search procedure in the digital twin for the augmented reality space.

상기한 도 12 및 도 13의 과정을 통해 사용자가 증강 현실 공간을 통해 인식한 촬영 영역의 위치 및 사용자와 실제 건물과의 상대적인 위치를 계산할 수 있으나 도 15의 과정을 통해 사용자와 건물 영역 간의 상대적인 위치 뿐만이 아닌 증강 현실 공간과 디지털 트윈 상의 공간을 최종적으로 정합 할 수 있다.Through the process of FIGS. 12 and 13, the position of the shooting area recognized by the user through the augmented reality space and the relative position between the user and the real building can be calculated, but the relative position between the user and the building area through the process of FIG. 15 In addition, the augmented reality space and the space on the digital twin can be finally matched.

후술할 도 16의 과정을 통해 디지털 트윈 공간 내에 다면체로 존재하는 건물의 법선 벡터들에서 건물 면의 대표할 수 있는 주성분을 추출하고 이를 기반으로 사용자의 증강 현실이 탐지한 실제 건물의 법선 벡터와 디지털 트윈에 존재하는 건물의 법선 벡터를 비교하여 사용자의 회전 값을 쉽게 정합 할 수 있다.Through the process of FIG. 16, which will be described later, a representative component of the building surface is extracted from the normal vectors of the building existing as a polyhedron in the digital twin space, and based on this, the normal vector and digital You can easily match the user's rotation values by comparing the normal vectors of the buildings present in the tween.

디지털 트윈과 사용자의 회전이 정합 되었으므로 사용자가 탐지하는 실제 건물 벽의 법선 벡터는 디지털 트윈의 대응 건물 면의 법선 벡터와 일치할 것이므로 사용자가 탐지한 일정 수의 벡터에 대한 조건을 모두 만족하는 건물 내 영역을 탐색한다면 사용자가 촬영하고자 하는 건물 내 영역을 특정할 수 있다.Since the digital twin and the user's rotation are matched, the normal vector of the real building wall detected by the user will coincide with the normal vector of the corresponding building face of the digital twin. If the area is searched, the user can specify the area within the building to be photographed.

상기 대응 영역 탐색 과정을 통해 사용자가 탐지한 건물의 영역과 이에 대응하는 디지털 트윈 공간 내 건물의 영역을 구하였으므로 두 영역 사이의 오차로 나타나는 교각 및 거리를 보정을 통해 정합시킴으로써 사용자의 위치를 디지털 트윈 공간 상에 완전히 정합 할 수 있으며 그 예는 도 23에서 나타내는 바와 같다.Since the area of the building detected by the user and the area of the building in the digital twin space corresponding to it were obtained through the corresponding area search process, the user's location is identified as a digital twin by matching the piers and distances that appear as errors between the two areas through correction. It can be perfectly matched in space, an example of which is shown in FIG. 23 .

도 16은 증강현실이 인지한 실제 건물의 3D 공간 정보와 디지털 트윈 사이의 원활한 회전 보정을 위해 다면체로 구성되어 다양한 방향을 갖는 디지털 트윈의 건물의 법선 벡터들을 한 면에 하나의 법선 벡터로 일반화하는 예를 보여주는 도면이며 이상적으로 법선 벡터를 일반화하는 경우는 도 17의 우측 예와 같은 최소 경계 상자(Minimum Bounding Box)를 생성하는 것이다. 16 is a diagram for generalizing normal vectors of buildings of digital twins that are composed of polyhedra and have various directions to one normal vector on one side for smooth rotation correction between 3D spatial information of real buildings recognized by augmented reality and digital twins. This is a diagram showing an example, and ideally, a case of generalizing a normal vector is to generate a minimum bounding box like the example on the right of FIG. 17 .

즉 다면체로 구성되어 다양한 법선 벡터를 가져 비교 오차율이 상대적으로 큰 디지털 트윈의 건물과 달리 최소 경계 상자는 네 개의 법선 벡터만을 가지므로 증강 현실을 통해 인식한 건물 벽면의 법선 벡터와 보다 쉽게 회전 값을 비교할 수 있다. In other words, unlike the building of a digital twin, which is composed of a polyhedron and has various normal vectors, which has a relatively large comparison error rate, the minimum bounding box has only four normal vectors, so it is easier to compare the rotation value with the normal vector of the wall of the building recognized through augmented reality. can be compared.

도 18은 도 17의 예와 같은 물체의 최소 경계 상자를 구하기 위해 수행되는 일련의 과정을 나타내는 도면이다. 상기 디지털 트윈은 디지털 트윈 공간 내에 존재하는 3D 건물의 모든 정점의 정보를 가지고 있으므로 대상이 되는 건물을 Z축 방향에서 투영 하였을때 생기는 정사영 이미지를 구성하는 정점의 정보 또한 산출할 수 있다.18 is a diagram illustrating a series of processes performed to obtain the minimum bounding box of an object as in the example of FIG. 17 . Since the digital twin has information on all vertices of 3D buildings existing in the digital twin space, information on vertices constituting an orthographic image generated when a target building is projected in the Z-axis direction can also be calculated.

3D 건물에 대한 Z 축 방향 2D 정사영 이미지를 이루는 정점의 집합에 대한 Graham Scan을 수행하여 Convex Hull을 구할 수 있으며 그 과정은 도 19과 같다. A convex hull can be obtained by performing Graham Scan on a set of vertices constituting a 2D orthographic image in the Z-axis direction for a 3D building, and the process is shown in FIG. 19 .

Figure 112021014670049-pat00005
Figure 112021014670049-pat00005

도 19의 Graham Scan 알고리즘은 한 극점을 기준으로 각도에 따라 오름차순으로 정렬된 배열에서 순차적으로 지정된 두 점을 잇는 벡터를 기준으로 새로운 점(다음 인덱스)에 대한 벡터가 지정된 시계방향(CW) 혹은 반시계방향(CCW)에 부합하는 점을 이어 Convex Hull을 생성하는 방식으로, 벡터 방향 탐지 (시계 방향/반시계 방향) 알고리즘으로는 CCW를 사용할 수 있으며 CCW 알고리즘의 수식은 식 2와 같다.The Graham Scan algorithm of FIG. 19 is a clockwise (CW) or counterclockwise direction in which a vector for a new point (next index) is specified based on a vector connecting two points sequentially specified in an array arranged in ascending order according to an angle based on one pole. As a method of generating a convex hull by connecting dots corresponding to the clockwise direction (CCW), CCW can be used as the vector direction detection (clockwise/counterclockwise) algorithm, and the formula of the CCW algorithm is as Equation 2.

도 20은 완성된 Convex Hull의 예를 나타내는 도면이다.20 is a diagram illustrating an example of a completed Convex Hull.

도 21은 산출된 Convex Hull에 대한 Rotating Callipers를 수행하는 절차를 나타내는 예이다. 1975년에 발표된 Freeman과 Shapira의 정리에 의해 Minimum Boundinging Box는 Convex Hull의 최소 한 모서리와 접한다는 것이 증명되었으므로 모든 모서리에 대해 Rotating Callipers를 수행한 후 가장 넓이가 작은 Bounding Box를 탐색하는 방식으로 Minimum Bounding Box를 산출할 수 있다.21 is an example showing a procedure for performing Rotating Callipers for the calculated convex hull. Since it was proved that the Minimum Bounding Box is in contact with at least one corner of the Convex Hull by Freeman and Shapira's theorem published in 1975, the Minimum Bounding Box is searched for the smallest area after performing Rotating Callipers on all corners. Bounding Box can be calculated.

도 22은 도 21에 서술된 알고리즘의 시행에 따라 매 모서리에 대해 산출되는 Bounding Box들을 나타낸 도면이다. 22 is a diagram illustrating bounding boxes calculated for every corner according to the implementation of the algorithm described in FIG. 21 .

도 23은 도 19 ~ 도 22에서 서술한 회전 정합 과정과 도 15에서 서술한 건물 내 대응 영역 간의 위치 차이를 통한 종합적인 회전 및 위치 정합 절차를 나타내는 도면이다.23 is a view showing a comprehensive rotation and position matching procedure through the position difference between the rotation matching process described in FIGS. 19 to 22 and the corresponding area in the building described in FIG. 15 .

도 24에 도시된 바와 같이 텍스처 이미지 보정 후 DT에 반영한 것을 보면, 도 12에 도시된 과정을 통해 산출한 AR SDK에서 얻은 화면 내 3D 공간정보와 사용자가 AR 기능을 통해 특정한 화면 내 건물의 위치를 이용하면 찍힌 사진에서 건물에 해당하는 부분만을 추출할 수 있다.As shown in FIG. 24 , when the texture image is corrected and reflected in the DT, the 3D spatial information in the screen obtained from the AR SDK calculated through the process shown in FIG. 12 and the location of the building in the specific screen by the user through the AR function If you use it, you can extract only the part corresponding to the building from the photograph.

도 24의 (좌) 추출된 건물 이미지, (우) 각 건물 면의 실제 이미지를 비교해 보면, 앞서 사용자가 촬영 전후로 오차를 줄인 이미지는 DT 메쉬에 보다 정밀하게 매핑 될 수 있으므로 촬영 결과물이 촬영 각도에 따라 왜곡된 모습이 아닌, 실제 형태와 동일한 비율 및 크기로 나타낼 수 있음을 알 수 있다. Comparing the (left) extracted building image of FIG. 24 and (right) the actual image of each building surface, the image in which the user has reduced the error before and after shooting can be more precisely mapped to the DT mesh, so that the shooting result is at the shooting angle. It can be seen that the shape can be expressed in the same proportion and size as the actual shape, not in a distorted shape.

어플리케이션을 통해 3D 메쉬의 특정면을 해당 면에 수직이 되는 방향(정방향)에서 바라보았을 때의 형태를 알 수 있으므로 촬영된 원본 이미지를 정방향 형태로 변환한다.Through the application, the shape of a specific surface of the 3D mesh when viewed from a direction perpendicular to the surface (forward direction) can be known, so the original photographed image is converted into a forward shape.

도 25에 도시된 변환 모델 Projective transformation을 사용하여 원본 이미지를 실제 형태로 변환한다.The original image is converted into an actual form by using the transformation model projective transformation shown in FIG. 25 .

상기 어플리케이션을 통해 원본 이미지의 네 꼭짓점과 실제 이미지의 네 꼭짓점의 정보를 갖고 있으므로, 아래 수학식 6과 같은 두 이미지 사이의 변환 관계를 나타내는 모델(3x3 행렬)을 얻을 수 있다.Since the application has information on the four vertices of the original image and the four vertices of the actual image, a model (3x3 matrix) representing the transformation relationship between the two images as shown in Equation 6 below can be obtained.

Figure 112021014670049-pat00006
Figure 112021014670049-pat00006

상기 어플리케이션에서 Projective transformation에 사용되는 행렬 연산은 다음과 같으며 3x3 행렬의 a, b, c에 해당하는 값을 회전, 크기 변환, 이동, 투영 여부에 따라 수정한 후 픽셀 좌표(x, y)를 곱하여 변환 좌표(x', y')를 얻는다.The matrix operation used for the projective transformation in the above application is as follows, and the pixel coordinates (x, y) are calculated after correcting the values corresponding to a, b, and c of the 3x3 matrix according to rotation, size transformation, movement, or projection. Multiply to get the transform coordinates (x', y').

도 26는 상술한 방식들을 이용하여 각 이미지의 네 꼭짓점을 이용한 투영 변환의 예를 보여주는 도면이다.26 is a diagram showing an example of projection transformation using four vertices of each image using the above-described methods.

이하 본 발명의 실시예에 따른 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 방법에 대하여 자세히 설명한다. Hereinafter, a space formation and recognition method through a digital twin interlocking augmented reality camera according to an embodiment of the present invention will be described in detail.

먼저 사용자의 현재 위치와 자세정보를 식별할 수 있는 GPS, WiFi, 지자기계, 자이로스코프 모듈의 결과 데이터를 합산하여 얻은 6 DoF 정보를 이용하여 사용자가 현재 어느 지점에서 어느 방향을 바라보고 있는지를 식별한다.First, using the 6 DoF information obtained by summing the result data of the GPS, WiFi, geomagnetism, and gyroscope modules that can identify the user's current location and attitude information, the user is identified from which point and which direction the user is currently looking do.

또한 증강현실 디바이스의 증강현실 기능을 이용하여 사용자가 실제로 촬영하고자 하는 건물과 주변부의 공간 정보를 탐지한다.In addition, by using the augmented reality function of the augmented reality device, spatial information of the building and surrounding areas that the user actually wants to photograph is detected.

사용자가 촬영한 사진들은 자세정보, 증강현실 공간 정보와 함께 DT로 업로드 되고, DT를 통해 6DoF 값에서 추출한 카메라의 방향 벡터를 DT 공간 상의 해당 지점에 투영하여(raycasting) 검출(hit)되는 건물과 비교한다.The photos taken by the user are uploaded to DT along with posture information and augmented reality spatial information, and the camera's direction vector extracted from the 6DoF value through DT is projected (raycasting) to the corresponding point in the DT space to detect (hit) buildings and Compare.

상기 비교하는 단계에서 증강현실 공간 정보를 이용하여 검출되는 건물 중 사용자가 어떤 건물의 어느 부분을 촬영한 것인지를 유추한다.In the comparing step, it is inferred which part of which building the user has photographed among the buildings detected using augmented reality spatial information.

상기 DT는 건물 및 지형 정보에 대한 자료를 포함하며, 사용자가 촬영한 정보는 상기 DT 상에 그대로 투영되고, 상기 DT는 사용자의 벡터가 DT 상의 건물과 충돌하는 지점을 계산하여, 사용자가 어떤 건물을 촬영하였는지를 유추한다. The DT includes data on the building and terrain information, the information captured by the user is projected on the DT as it is, and the DT calculates the point where the user's vector collides with the building on the DT, so that the user Guess whether it was filmed.

상기 DT에 포함되는 건물에 대한 공간, 행정정보를 이용하여 인공지능의 학습에 필요한 라벨링 데이터를 자동으로 제공한다. By using the space and administrative information about the building included in the DT, it automatically provides the labeling data necessary for the learning of artificial intelligence.

사용자가 서로 다른 각도에서 촬영한 같은 건물의 사진을 DT 공간 내의 건물 오브젝트에 투영하여 각 건물의 시각 품질을 일정치 이상 높인다.By projecting photos of the same building taken from different angles by the user on the building object in the DT space, the visual quality of each building is raised by a certain value or more.

100 : 증강현실 디바이스
200 : 제어모듈
201 : GPS 모듈
202 : WiFi 모듈
203 : 지자기계 모듈
204 : 자이로스코프 모듈
100: augmented reality device
200: control module
201 : GPS module
202: WiFi module
203: geomagnetism module
204: gyroscope module

Claims (8)

6DoF 카메라 또는 증강 현실 카메라를 포함하고 이를 제어하는 제어 모듈로 구성된 증강현실 디바이스;
상기 증강현실 디바이스 내에 탑재되는 사용자의 현재 위치와 자세정보를 식별할 수 있는 GPS, WiFi, 지자기계, 자이로스코프 모듈;을 포함하며,
상기 모듈들의 결과 데이터를 합산하여 얻은 6DoF(Degrees of Freedom) 정보를 이용하여 사용자가 현재 어느 지점에서 어느 방향을 바라보고 있는지를 식별하고,
상기 증강현실 디바이스을 통해 사용자가 촬영한 사진들은 자세정보와 함께 DT로 업로드 되고, DT를 통해 6DoF 값에서 추출한 카메라의 방향 벡터를 DT 공간 상의 해당 지점에 투영하여(raycasting) 검출(hit)되는 건물과 비교하고,
상기 검출되는 건물 중 사용자가 어떤 건물의 어느 부분을 촬영한 것인지를 유추하며,
상기 DT는 건물 및 지형 정보에 대한 자료를 포함하며, 사용자가 촬영한 정보는 상기 DT 상에 그대로 투영되고, 상기 DT는 사용자의 자세 벡터가 DT 상의 건물과 충돌하는 지점을 계산하여, 사용자가 어떤 건물을 촬영하였는지를 유추하는 것을 특징으로 하는 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템.
An augmented reality device comprising a 6DoF camera or an augmented reality camera and configured with a control module for controlling the same;
A GPS, WiFi, geomagnetic, gyroscope module capable of identifying the user's current location and posture information mounted in the augmented reality device; includes,
Using 6DoF (Degrees of Freedom) information obtained by summing the result data of the modules, identify which direction the user is currently looking at from which point,
The photos taken by the user through the augmented reality device are uploaded to the DT together with the posture information, and the direction vector of the camera extracted from the 6DoF value through the DT is projected (raycasting) to the corresponding point in the DT space and the building that is detected (hit) compare,
Inferring which part of which building the user has photographed among the detected buildings,
The DT includes data on the building and terrain information, the information captured by the user is projected on the DT as it is, and the DT calculates the point at which the user's posture vector collides with the building on the DT, so that the user A space formation and recognition system through a digital twin-linked augmented reality camera, characterized in that it infers whether a building was photographed.
삭제delete 제1항에 있어서,
상기 6DoF는 위치정보 x,y,z 또는 경도,위도,고도 및 Roll, Yaw, 및 Pitch를 포함하는 POSE정보를 포함하고,
상기 카메라를 통해 촬영, 업로드한 사진 정보는 DT 상에서 공간정합 후 3D 오브젝트에 반영되어 다른 사용자들에게 제공되는 것을 특징으로 하는 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템.
According to claim 1,
The 6DoF includes location information x, y, z or longitude, latitude, altitude, and POSE information including Roll, Yaw, and Pitch,
The photo information taken and uploaded through the camera is reflected in the 3D object after spatial registration on the DT and provided to other users. Space formation and recognition system through a digital twin interlocking augmented reality camera.
제1항에 있어서,
상기 디지털 트윈에 포함되는 건물에 대한 공간, 행정정보를 이용하여 인공지능의 학습에 필요한 라벨링 데이터를 자동으로 제공하는 것을 특징으로 하는 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템.
According to claim 1,
Space formation and recognition system through a digital twin-linked augmented reality camera, characterized in that automatically providing labeling data required for learning of artificial intelligence by using space and administrative information about the building included in the digital twin.
제1항에 있어서,
상기 DT 공간 내의 건물 오브젝트에 서로 다른 각도에서 촬영한 동일 건물의 복수개 사진을 투영하여 DT 공간 내 각 건물의 시각 품질을 일정치 이상 높이는 것을 특징으로 하는 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템.
According to claim 1,
Space formation and recognition through a digital twin-linked augmented reality camera, characterized in that the visual quality of each building in the DT space is raised by a certain value or more by projecting a plurality of photos of the same building taken from different angles on the building object in the DT space system.
증강현실 디바이스 내부에 포함되는 사용자의 현재 위치와 자세정보를 식별할 수 있는 GPS, WiFi, 지자기계, 자이로스코프 모듈의 결과 데이터를 합산하여 얻은 6DoF 정보를 이용하여 사용자가 현재 어느 지점에서 어느 방향을 바라보고 있는지를 식별하는 단계;
상기 증강현실 디바이스을 사용하여 사용자가 촬영한 사진들은 자세정보와 함께 DT로 업로드 되고, DT를 통해 6DoF 값에서 추출한 카메라의 방향 벡터를 DT 공간 상의 해당 지점에 투영하여(raycasting), DT 공간 상의 주변 건물을 검출하는 단계;
DT 공간 상에서 검출되는 건물 중 사용자가 상기 증강현실 디바이스을 사용하여 어떤 건물의 어느 부분을 촬영한 것인지를 유추하기 위해 검출되는 주변의 복수개의 건물과 비교하여 하나의 건물을 검출하는 단계;
상기 DT는 건물 및 지형 정보에 대한 자료를 포함하며, 사용자가 촬영한 정보는 상기 DT 상에 그대로 투영되고, 상기 DT는 사용자의 자세 벡터가 DT 상의 건물과 충돌하는 지점을 계산하여, 사용자가 어떤 건물을 촬영하였는지를 유추하는 단계;를 포함하는 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 방법.
Using 6DoF information obtained by summing the result data of GPS, WiFi, geomagnetism, and gyroscope modules that can identify the user's current location and posture information included in the augmented reality device, the user can determine which direction from which point. identifying whether you are looking;
The photos taken by the user using the augmented reality device are uploaded to the DT along with the posture information, and the camera's direction vector extracted from the 6DoF value through the DT is projected (raycasting) to the corresponding point in the DT space, and the surrounding buildings in the DT space detecting;
Detecting one building by comparing it with a plurality of surrounding buildings detected in order to infer which part of which building the user has photographed using the augmented reality device among the buildings detected on the DT space;
The DT includes data on the building and terrain information, the information captured by the user is projected on the DT as it is, and the DT calculates the point at which the user's posture vector collides with the building on the DT, so that the user A method of forming and recognizing a space through a digital twin-linked augmented reality camera comprising; inferring whether the building was photographed.
삭제delete 제6항에 있어서,
상기 DT에 포함되는 건물에 대한 공간, 행정정보를 이용하여 인공지능의 학습에 필요한 라벨링 데이터를 자동으로 제공하는 단계;
사용자가 서로 다른 각도에서 촬영한 같은 건물의 사진을 DT 공간 내의 건물 오브젝트에 투영하여 각 건물의 시각 품질을 일정치 이상 높이는 단계;를 포함하는 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 방법.
7. The method of claim 6,
automatically providing labeling data necessary for learning of artificial intelligence by using space and administrative information about the building included in the DT;
The step of raising the visual quality of each building by more than a certain value by projecting the pictures of the same building taken from different angles by the user on the building objects in the DT space; space formation and recognition method through digital twin interlocking augmented reality cameras, including.
KR1020210016191A 2021-02-04 2021-02-04 Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof KR102389762B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210016191A KR102389762B1 (en) 2021-02-04 2021-02-04 Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210016191A KR102389762B1 (en) 2021-02-04 2021-02-04 Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof

Publications (1)

Publication Number Publication Date
KR102389762B1 true KR102389762B1 (en) 2022-04-22

Family

ID=81452297

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210016191A KR102389762B1 (en) 2021-02-04 2021-02-04 Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof

Country Status (1)

Country Link
KR (1) KR102389762B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616030B1 (en) * 2023-04-26 2023-12-20 주식회사 브이알크루 Apparatus and method for implementing physics engine using visual localization
KR102639273B1 (en) * 2023-04-26 2024-02-21 주식회사 브이알크루 Apparatus and method for implementing physics engine using visual localization

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100822814B1 (en) * 2007-07-18 2008-04-18 (주)지에스엠솔루션 Method for overlapping real-time landscape image and gis data
KR20190001728A (en) * 2017-06-28 2019-01-07 주식회사 한화 Apparatus and Method for measuring pose based on augmented reality

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100822814B1 (en) * 2007-07-18 2008-04-18 (주)지에스엠솔루션 Method for overlapping real-time landscape image and gis data
KR20190001728A (en) * 2017-06-28 2019-01-07 주식회사 한화 Apparatus and Method for measuring pose based on augmented reality

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616030B1 (en) * 2023-04-26 2023-12-20 주식회사 브이알크루 Apparatus and method for implementing physics engine using visual localization
KR102639273B1 (en) * 2023-04-26 2024-02-21 주식회사 브이알크루 Apparatus and method for implementing physics engine using visual localization

Similar Documents

Publication Publication Date Title
CN110310248B (en) A kind of real-time joining method of unmanned aerial vehicle remote sensing images and system
US11887273B2 (en) Post capture imagery processing and deployment systems
US7751651B2 (en) Processing architecture for automatic image registration
US8107722B2 (en) System and method for automatic stereo measurement of a point of interest in a scene
JP5093053B2 (en) Electronic camera
US20060215935A1 (en) System and architecture for automatic image registration
JP7273927B2 (en) Image-based positioning method and system
US20140015924A1 (en) Rapid 3D Modeling
JP2004264892A (en) Motion detection device and communication device
CN101506850A (en) Modeling and texturing digital surface models in a mapping application
CN106462943A (en) Aligning panoramic imagery and aerial imagery
KR102389762B1 (en) Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof
JP4588369B2 (en) Imaging apparatus and imaging method
KR20120108256A (en) Robot fish localization system using artificial markers and method of the same
JP7192526B2 (en) Image processing device, image processing method and program
JP7415496B2 (en) Image processing device, program and image processing system
KR102146839B1 (en) System and method for building real-time virtual reality
Hsu Geocoded terrestrial mosaics using pose sensors and video registration
Zhao et al. 3D reconstruction of an urban scene from synthetic fish-eye images
Fridhi et al. DATA ADJUSTMENT OF THE GEOGRAPHIC INFORMATION SYSTEM, GPS AND IMAGE TO CONSTRUCT A VIRTUAL REALITY.
Wang et al. Estimating heights of buildings from geotagged photos for data enrichment on OpenStreetMap
CN115147262A (en) Image generation method and device
CN118247447A (en) Method and device for reconstructing fusion of indication board and live-action, electronic equipment and storage medium
Wu et al. Automatic registration of high-resolution multispectral imageries released by low-altitude unmanned airship
ALLAN Texture mapping of building facades using oblique terrestrial photography

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant