KR20220087688A - Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof - Google Patents

Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof Download PDF

Info

Publication number
KR20220087688A
KR20220087688A KR1020200177977A KR20200177977A KR20220087688A KR 20220087688 A KR20220087688 A KR 20220087688A KR 1020200177977 A KR1020200177977 A KR 1020200177977A KR 20200177977 A KR20200177977 A KR 20200177977A KR 20220087688 A KR20220087688 A KR 20220087688A
Authority
KR
South Korea
Prior art keywords
estimating
geographic data
data
digital twin
image data
Prior art date
Application number
KR1020200177977A
Other languages
Korean (ko)
Other versions
KR102454073B1 (en
Inventor
우운택
조호철
신승엽
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020200177977A priority Critical patent/KR102454073B1/en
Publication of KR20220087688A publication Critical patent/KR20220087688A/en
Application granted granted Critical
Publication of KR102454073B1 publication Critical patent/KR102454073B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Abstract

본 발명은 360 카메라 및 디지털 트윈을 기반으로 한 이동 객체의 지리적 데이터 추정방법 및 시스템에 관한 것으로, 360 카메라에서 영상 데이터를 수신하여 전처리하는 단계, 상기 영상 데이터 내 객체의 위치를 추출하며, 디지털 트윈(Digital Twin)을 통해 이미지 깊이(depth)를 추정하여 상기 객체의 초기 위치를 추정하는 단계 및 상기 초기 위치를 기반으로 상기 디지털 트윈에 배치된 3D 모델(3D model)을 이용하여 상기 영상 데이터 내 상기 객체와의 차이를 계산하며, 차이를 최소화하는 최적화(optimization)를 통해 상기 객체의 위치 및 각도를 포함하는 지리적 데이터를 추정하는 단계를 포함한다.The present invention relates to a method and system for estimating geographic data of a moving object based on a 360 camera and a digital twin, comprising the steps of receiving and preprocessing image data from a 360 camera, extracting the position of an object in the image data, and a digital twin estimating an initial position of the object by estimating an image depth through (Digital Twin) and using a 3D model disposed in the digital twin based on the initial position in the image data calculating a difference from an object, and estimating geographic data including a position and an angle of the object through optimization to minimize the difference.

Description

360 카메라 및 디지털 트윈을 기반으로 한 이동 객체의 지리적 데이터 추정방법 및 시스템{GEO-SPACIAL DATA ESTIMATION METHOD OF MOVING OBJECT BASED ON 360 CAMERA AND DIGITAL TWIN AND THE SYSTEM THEREOF}GEO-SPACIAL DATA ESTIMATION METHOD OF MOVING OBJECT BASED ON 360 CAMERA AND DIGITAL TWIN AND THE SYSTEM THEREOF

본 발명은 360 카메라 및 디지털 트윈을 기반으로 한 이동 객체의 지리적 데이터 추정방법 및 시스템에 관한 것으로, 보다 상세하게는 360 카메라를 기반으로 사람 및 차량과 같은 이동 객체들의 지리기반 위치 및 각도 데이터를 생성하는 기술에 관한 것이다. The present invention relates to a method and system for estimating geographic data of a moving object based on a 360 camera and a digital twin, and more particularly, to generate geographic location and angle data of moving objects such as people and vehicles based on a 360 camera. It's about technology.

기존의 증강현실(AR) 기술은 엔터테인먼트를 중심으로 한 연구에 주력되어 왔다. 도시 공간 문제를 연구하고 스마트 도시를 건설하기 위해 도시에서 생성되는 다양한 대규모 데이터를 수집 및 분석하는 노력이 이어지고 있다. 이러한 시도의 한 예로는 정보를 수집하고 광범위한 도시에 사물인터넷(IoT)을 설정하여 다양한 도시현상을 유용한 자료로 변환하는 것이다. 이와 같이 수집된 정보를 시각화하는 방법으로, 다양한 도시 서비스를 위해 증강현실을 이용한 데이터 시각화가 제공될 것이다.Existing augmented reality (AR) technology has been focused on research centered on entertainment. Efforts to collect and analyze various large-scale data generated by cities are continuing to study urban space problems and to build smart cities. One example of such an attempt is to collect information and set up the Internet of Things (IoT) in a wide city to transform various urban phenomena into useful data. As a method of visualizing the collected information in this way, data visualization using augmented reality will be provided for various city services.

한편, 스마트 서비스를 보급하려는 노력에도 불구하고, 도시 관리자를 위한 증강현실 시각화 도구의 개발은 여전히 미흡하다. 스마트시티 연구자가 도시서비스 설계자가 기존 IoT 데이터를 활용하기 어려운 것은 데이터를 실시간으로 수집 및 송신할 수 있는 시스템이 갖춰져 있지 않거나, IoT 시스템이 갖춰져 있어도 다른 기관 운영진으로부터 IoT 데이터 접근 허가를 받기 어렵기 때문이다.Meanwhile, despite efforts to disseminate smart services, the development of augmented reality visualization tools for city managers is still insufficient. The reason it is difficult for smart city researchers and city service designers to utilize existing IoT data is that there is no system that can collect and transmit data in real time, or it is difficult to obtain permission to access IoT data from other institution operators even if an IoT system is in place. to be.

또한, 스마트시티의 수요증가로 도시 디지털 트윈을 제작할 시점에 IoT 센서들이 구비되어 있지 않아 개발에 불필요한 시간 소요가 발생된다. 이에 따라서, 하드웨어 IoT 센서들을 대신하여 가상의 신호 발생, 데이터 전송 및 저장 역할을 할 IoT 이벤트 생성 시스템 연구 필요하다. 특히, 초기 스마트시티 서비스 디자인을 위한 디지털 트윈 개발 단계에서 실제 IoT 시스템을 구축할 때 IoT의 활용도에 따라 발생할 수 있는 시간, 물질적 비용의 낭비를 최소화하기 위해 가상 IoT를 사용하여 시뮬레이션 하는 방법이 요구된다.In addition, due to the increase in demand for smart cities, IoT sensors are not provided at the time of manufacturing a city digital twin, so unnecessary time is required for development. Accordingly, it is necessary to study an IoT event generation system that will serve as virtual signal generation, data transmission and storage instead of hardware IoT sensors. In particular, in the digital twin development stage for the initial smart city service design, a simulation method using virtual IoT is required to minimize the waste of time and material costs that may occur depending on the utilization of IoT when building an actual IoT system. .

CCTV와 같은 일반 카메라를 이용한 스트리밍 서비스는 시야각의 제한이 있어 모든 영역을 볼 수 없다. 따라서, CCTV는 카메라의 각도를 자동으로 조절하는 것과 같은 기능이 있지만 여전히 동시에 모든 영역을 볼 수 없다는 문제점이 있다. 최근 저비용 360 카메라가 보급화됨에 따라 모든 영역을 동시에 볼 수 있는 시야각을 가지고 있는 360 카메라를 이용한 서비스가 필요한 상황이다.Streaming services using general cameras, such as CCTV, have limited viewing angles and cannot see all areas. Therefore, although CCTV has a function such as automatically adjusting the angle of the camera, there is still a problem in that all areas cannot be viewed at the same time. Recently, as low-cost 360 cameras have become popular, a service using a 360 camera having a viewing angle that can view all areas at the same time is required.

더욱이, 기존의 영상을 기반으로 한 이동 객체 위치 추적 방법은 지리적 위치를 알 수 없어 카메라에 상대적인 객체의 위치만 알 수 있고, 영상만을 입력값으로 사용하기 때문에 부정확한 결과를 산출한다.Furthermore, the existing image-based moving object position tracking method cannot know the geographic position, so only the position of the object relative to the camera can be known, and since only the image is used as an input value, inaccurate results are produced.

Nguyen D., Meixner G.: Comparison User Engagement of Gamified and Non-gamified Augmented Reality Assembly Training Advances in Agile and User-Centred Software Engineering. pp. 142-152. Springer International Publishing (2020)Nguyen D., Meixner G.: Comparison User Engagement of Gamified and Non-gamified Augmented Reality Assembly Training Advances in Agile and User-Centred Software Engineering. pp. 142-152. Springer International Publishing (2020)

본 발명의 목적은 360 카메라 및 디지털 트윈을 이용하여 영상 데이터 내 객체 위치 및 거리를 쉽게 획득하여 보다 정확한 위치 추적이 가능하고자 한다. An object of the present invention is to enable more accurate location tracking by easily acquiring object positions and distances in image data using a 360 camera and digital twin.

본 발명의 실시예에 따른 360 카메라 및 디지털 트윈을 기반으로 한 이동 객체의 지리적 데이터를 추정하는 방법에 있어서, 360 카메라에서 영상 데이터를 수신하여 전처리하는 단계, 상기 영상 데이터 내 객체의 위치를 추출하며, 디지털 트윈(Digital Twin)을 통해 이미지 깊이(depth)를 추정하여 상기 객체의 초기 위치를 추정하는 단계 및 상기 초기 위치를 기반으로 상기 디지털 트윈에 배치된 3D 모델(3D model)을 이용하여 상기 영상 데이터 내 상기 객체와의 차이를 계산하며, 차이를 최소화하는 최적화(optimization)를 통해 상기 객체의 위치 및 각도를 포함하는 지리적 데이터를 추정하는 단계를 포함한다.In a method for estimating geographic data of a moving object based on a 360 camera and a digital twin according to an embodiment of the present invention, the method comprising: receiving and preprocessing image data from a 360 camera; extracting the position of an object in the image data; , estimating the initial position of the object by estimating the image depth through a digital twin, and the image using a 3D model disposed in the digital twin based on the initial position calculating a difference with the object in the data, and estimating geographic data including the position and angle of the object through optimization to minimize the difference.

본 발명의 실시예에 따른 360 카메라 및 디지털 트윈을 기반으로 한 이동 객체의 지리적 데이터를 추정하는 시스템에 있어서, 360 카메라에서 영상 데이터를 수신하여 전처리하는 전처리부, 상기 영상 데이터 내 객체의 위치를 추출하며, 디지털 트윈(Digital Twin)을 통해 이미지 깊이(depth)를 추정하여 상기 객체의 초기 위치를 추정하는 초기 위치 추정부 및 상기 초기 위치를 기반으로 상기 디지털 트윈에 배치된 3D 모델(3D model)을 이용하여 상기 영상 데이터 내 상기 객체와의 차이를 계산하며, 차이를 최소화하는 최적화(optimization)를 통해 상기 객체의 위치 및 각도를 포함하는 지리적 데이터를 추정하는 지리적 데이터 추정부를 포함한다.In the system for estimating geographic data of a moving object based on a 360 camera and a digital twin according to an embodiment of the present invention, a preprocessor for receiving and preprocessing image data from a 360 camera, extracting the position of an object in the image data and an initial position estimator that estimates the initial position of the object by estimating image depth through a digital twin and a 3D model disposed in the digital twin based on the initial position and a geographic data estimator for calculating a difference from the object in the image data using the estimator and estimating geographic data including the position and angle of the object through optimization for minimizing the difference.

본 발명의 실시예에 따르면, IoT 센서 지원이 불가능한 환경에서 초기 단계의 디지털 트윈을 360 카메라를 이용하여 쉽게 구축할 수 있으며, 이로 인해 스마트시티 서비스를 설계할 때 IoT 센서의 구축이 완료될 때까지 발생하는 시간적 및 물리적 비용을 최소화할 수 있다.According to an embodiment of the present invention, in an environment where IoT sensor support is not possible, a digital twin in the initial stage can be easily built using a 360 camera, and due to this, when designing a smart city service, until the construction of the IoT sensor is completed Time and physical costs incurred can be minimized.

또한, 본 발명의 실시예에 따르면, IoT 데이터 시각화 기능을 이용하여 이동하는 객체들의 위치에 대한 실시간 모니터링이 가능할 수 있다.Also, according to an embodiment of the present invention, real-time monitoring of the positions of moving objects may be possible using the IoT data visualization function.

또한, 본 발명의 실시예에 따르면, 도시 연구자들에게 교통 분석, 주차공간 정보, 교통 승객 정보와 같은 다양한 도시 정보를 제공하여 새로운 스마트 서비스를 연구할 수 있게 하며, IoT를 구축하기 어려운 여러 업체들에게 디지털 트윈 제작의 기틀을 마련해줄 수 있다.In addition, according to an embodiment of the present invention, it provides city researchers with various city information such as traffic analysis, parking space information, and traffic passenger information to study new smart services, and several companies that are difficult to build IoT It can lay the foundation for digital twin production.

도 1은 본 발명의 실시예에 따른 이동 객체의 지리적 데이터 추정방법의 동작 흐름도를 도시한 것이다.
도 2는 본 발명의 실시예에 따른 이동 객체의 지리적 데이터 추정시스템의 세부 구성을 블록도로 도시한 것이다.
도 3은 본 발명의 실시예에 따른 초기 위치를 추정하는 과정에 대한 흐름도를 도시한 것이다.
도 4는 본 발명의 실시예에 따른 객체의 위치 및 각도를 포함하는 지리적 데이터를 추정하는 과정에 대한 흐름도를 도시한 것이다.
도 5 내지 도 7은 본 발명의 실시예에 따른 실증 테스트 결과를 도시한 것이다.
도 8a 및 도 8b는 본 발명의 실시예에 따른 활용 예시를 도시한 것이다.
1 is a flowchart illustrating an operation of a method for estimating geographic data of a moving object according to an embodiment of the present invention.
2 is a block diagram illustrating a detailed configuration of a system for estimating geographic data of a moving object according to an embodiment of the present invention.
3 is a flowchart illustrating a process of estimating an initial position according to an embodiment of the present invention.
4 is a flowchart illustrating a process of estimating geographic data including the position and angle of an object according to an embodiment of the present invention.
5 to 7 show results of a demonstration test according to an embodiment of the present invention.
8A and 8B show examples of application according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be embodied in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments, and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, operations and/or elements mentioned. or addition is not excluded.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. The same reference numerals are used for the same components in the drawings, and repeated descriptions of the same components are omitted.

본 발명의 실시예들은 360 카메라를 기반으로 사람 및 차량과 같은 이동 객체들의 지리기반 위치 및 각도 데이터를 생성하는 것을 그 요지로 한다. Embodiments of the present invention make it a gist of generating geo-based position and angle data of moving objects, such as people and vehicles, based on a 360 camera.

본 발명의 실시예에 따른 기술을 이용하여 360 카메라 하나만 있으면 카메라 주변 이동 객체들의 실시간 위치정보를 추적 및 모니터링할 수 있으며, 이를 통해 스마트시티와 같은 디지털 트윈에 필수적인 IoT 데이터를 보다 쉽게 구축할 수 있다.Using the technology according to an embodiment of the present invention, if there is only one 360 camera, real-time location information of moving objects around the camera can be tracked and monitored, and through this, IoT data essential for a digital twin such as a smart city can be more easily built. .

본 발명은 건물, 도로를 기반으로 3차원 지도로 표현되는 디지털 트윈 위에서 실제와 같은 위치 및 각도로 360 카메라를 배치한 후 객체의 위치를 알아내는 로컬리제이션(Localization) 기술을 적용한다. 로컬리제이션 기술을 위하여 영상 분할(instance segmentation) 기반의 초기 객체 위치 추정과 객체의 위치와 각도를 조정하는 최적화 기술을 적용한다.The present invention applies a localization technology to find out the location of an object after placing a 360 camera at the same position and angle as in reality on a digital twin expressed as a three-dimensional map based on a building and a road. For the localization technique, an image segmentation-based initial object position estimation and optimization technique for adjusting the position and angle of an object are applied.

나아가, 본 발명은 실제 도시 공간에 해당 기술을 적용하여 해당 시스템이 효과적으로 이동 객체들의 지리적 위치를 생성함으로써, 디지털 트윈에 제대로 반영된다는 것을 시각화 툴을 통하여 실증한다. Furthermore, the present invention demonstrates through a visualization tool that the corresponding system is effectively reflected in the digital twin by effectively generating the geographic location of moving objects by applying the corresponding technology to the actual urban space.

이하에서는, 도 1 내지 도 8을 참조하여 본 발명에 대해 보다 상세히 설명하고자 한다. Hereinafter, the present invention will be described in more detail with reference to FIGS. 1 to 8 .

도 1은 본 발명의 실시예에 따른 이동 객체의 지리적 데이터 추정방법의 동작 흐름도를 도시한 것이며, 도 2는 본 발명의 실시예에 따른 이동 객체의 지리적 데이터 추정시스템의 세부 구성을 블록도로 도시한 것이다.1 is a flowchart illustrating an operation of a method for estimating geographic data of a moving object according to an embodiment of the present invention, and FIG. 2 is a block diagram illustrating a detailed configuration of a system for estimating geographic data of a moving object according to an embodiment of the present invention. will be.

도 1 및 도 2를 참조하면, 본 발명의 실시예에 따른 이동 객체의 지리적 데이터 추정방법 및 시스템은 360 카메라를 기반으로 사람 및 차량과 같은 이동 객체들의 지리기반 위치 및 각도 데이터를 생성한다.1 and 2, a method and system for estimating geographic data of a moving object according to an embodiment of the present invention generate geo-based position and angle data of moving objects such as people and vehicles based on a 360 camera.

이를 위해, 도 2에서 본 발명의 실시예에 따른 이동 객체의 지리적 데이터 추정시스템(200)은 전처리부(210), 초기 위치 추정부(220) 및 지리적 데이터 추정부(230)를 포함한다. 또한, 도 1의 각 단계들(단계 S110 내지 단계 S130)은 도 2의 본 발명의 실시예에 따른 이동 객체의 지리적 데이터 추정시스템(200)의 구성요소들 즉, 전처리부(210), 초기 위치 추정부(220) 및 지리적 데이터 추정부(230)에 의해 수행될 수 있다.To this end, in FIG. 2 , the system 200 for estimating geographic data of a moving object according to an embodiment of the present invention includes a preprocessor 210 , an initial location estimator 220 , and a geographic data estimator 230 . In addition, each of the steps (steps S110 to S130) of FIG. 1 is a component of the system 200 for estimating geographic data of a moving object according to the embodiment of the present invention of FIG. 2, that is, the preprocessor 210, the initial position. This may be performed by the estimator 220 and the geographic data estimator 230 .

단계 S110에서, 전처리부(210)는 360 카메라에서 영상 데이터를 수신하여 전처리한다. In step S110, the pre-processing unit 210 receives and pre-processes the image data from the 360 camera.

전처리부(210)는 360 카메라(360 Camera)에서 실시간으로 영상 데이터를 수신(360 Streaming)하며, 이를 특정 시야각을 가지는 원근 시점(perspective view)으로 전처리할 수 있다.The preprocessor 210 may receive (360 Streaming) image data in real time from a 360 camera, and preprocess it into a perspective view having a specific viewing angle.

360 카메라는 사각지대 없이 카메라의 모든 주변 영역을 아우르는 시야가 넓어 감시에 용이하다. 전처리부(210)는 영상 데이터를 전처리하여 단순한 스트리밍 영상 데이터 이상의 기능을 지원하게 할 수 있으며, 본 발명은 다중 360 영상 데이터를 이용하여 6 자유도(6 DoF) 가상 환경을 만들 수 있다. The 360 camera has a wide field of view that covers all areas around the camera without blind spots, making it easy to monitor. The pre-processing unit 210 may pre-process the image data to support functions beyond simple streaming image data, and the present invention may create a 6-degree-of-freedom (6 DoF) virtual environment using multiple 360 image data.

본 발명의 실시예에 따른 초기 위치 추정부(220) 및 지리적 데이터 추정부(230)는 3차원 객체 검색(3D object retrieval) 기술을 이용하여 객체를 3차원으로 복원하여 6DoF 포즈 추정(6DoF pose estimation)을 수행한다.The initial position estimator 220 and the geographic data estimator 230 according to an embodiment of the present invention restore an object in three dimensions using a 3D object retrieval technique to estimate a 6DoF pose. ) is performed.

단계 S120에서, 초기 위치 추정부(220)는 영상 데이터 내 객체의 위치를 추출하며, 디지털 트윈(Digital Twin, 240)을 통해 이미지 깊이(depth)를 추정하여 객체의 초기 위치를 추정한다. In step S120 , the initial position estimator 220 extracts the position of the object in the image data, and estimates the image depth through a digital twin 240 to estimate the initial position of the object.

보다 구체적으로, 초기 위치 추정부(220)는 영상 분할(instance segmentation) 알고리즘을 이용하여 영상 데이터 내 객체의 위치에 대한 픽셀 좌표를 추출하며, 스트리트 뷰(street view)와 3D 모델(3D model)을 기반으로 구축된 디지털 트윈의 가상공간에서 카메라 자세와 그라운드(Ground) 정보를 이용하여 이미지 깊이를 추정(Depth Estimation)할 수 있다. 이후에 초기 위치 추정부(220)는 객체의 픽셀 좌표와 해당 픽셀의 깊이(depth) 값을 이용하여 객체의 3차원 위치인 초기 위치(initial position)를 추정할 수 있다.More specifically, the initial position estimator 220 extracts pixel coordinates for the position of an object in image data using an instance segmentation algorithm, and uses a street view and a 3D model Image depth can be estimated using camera posture and ground information in the virtual space of the digital twin built on the basis of it. Thereafter, the initial position estimator 220 may estimate an initial position that is a three-dimensional position of the object by using the pixel coordinates of the object and the depth value of the corresponding pixel.

이때, 본 발명의 실시예에 따른 이동 객체의 지리적 데이터 추정시스템(200)은 3D 모델을 디지털 트윈(240)에 배치할 수 있다.In this case, the system 200 for estimating geographic data of a moving object according to an embodiment of the present invention may place the 3D model in the digital twin 240 .

단계 S130에서, 지리적 데이터 추정부(230)는 초기 위치(Initial position)를 기반으로 디지털 트윈(240)에 배치된 3D 모델(3D model Reconstruction)을 이용하여 영상 데이터 내 객체와의 차이를 계산하며, 차이를 최소화하는 최적화(optimization)를 통해 객체의 위치 및 각도를 포함하는 지리적 데이터를 추정한다. In step S130, the geographic data estimator 230 calculates a difference from an object in the image data using a 3D model placed in the digital twin 240 based on the initial position (Initial position), The geographic data including the position and angle of the object are estimated through optimization that minimizes the difference.

지리적 데이터 추정부(230)는 PSO(Particle Swarm Optimization) 알고리즘을 이용하여 초기 위치에 3D 모델의 3D 객체를 프로젝션(projection)하여 생성된 추정 데이터의 객체 윤곽(outline)과 영상 데이터 내 객체 윤곽(outline) 간의 차이를 계산하며, 오차를 최소화하는 최적화를 수행할 수 있다.The geographic data estimator 230 uses a Particle Swarm Optimization (PSO) algorithm to project an object outline of estimated data generated by projecting a 3D object of a 3D model to an initial position and an object outline in image data. ), and optimization to minimize the error can be performed.

지리적 데이터 추정부(230)는 PSO 알고리즘을 이용하여 3D 객체의 위치(position) 및 회전(rotation)을 변화(Position/Rotation Refinement)하는 반복(Iteration)으로 최적화 과정을 수행하여 영상 데이터 내 객체의 위치 및 각도를 포함하는 6DoF 포즈(6DoF pose)를 추정(Final position/rotation)할 수 있다.The geographic data estimator 230 performs an optimization process by iteration of changing the position and rotation of the 3D object using the PSO algorithm, and the position of the object in the image data and a 6DoF pose including an angle may be estimated (Final position/rotation).

본 발명의 실시예에 따른 디지털 트윈(240)은 제조, 의료, 운송, 항공우주, 건설 등 다양한 시스템과 산업에 사용되는 것으로, 표준화된 데이터를 사용하여 IoT 데이터(IoT Data), 3D 객체(3D Objects) 및 3D 맵(3D Geographic Map) 기반으로 형성된 것일 수 있다.The digital twin 240 according to an embodiment of the present invention is used in various systems and industries such as manufacturing, medical care, transportation, aerospace, and construction, and uses standardized data to provide IoT data (IoT Data), 3D object (3D Objects) and may be formed based on a 3D map (3D Geographic Map).

도 3은 본 발명의 실시예에 따른 초기 위치를 추정하는 과정에 대한 흐름도를 도시한 것이다.3 is a flowchart illustrating a process of estimating an initial position according to an embodiment of the present invention.

객체와 상호작용하고, 3차원으로 구성된 가상공간에서 자유롭게 객체를 이동시키기 위해서 이미지(또는 영상 데이터) 내 객체를 3차원으로 복원하는 기술이 필요하다. 이에, 본 발명은 객체를 3차원으로 복원하기 위하여 객체의 자세를 추정하는 6DoF 포즈 추정(6DoF pose estimation)과 현재 가지고 있는 3D 모델(3D model) 중 복원하고자 하는 이미지 내 객체와 가장 유사한 모델을 찾는 3차원 객체 검색(3D object retrieval) 기술을 이용한다.In order to interact with an object and to move the object freely in a virtual space composed of three dimensions, a technology for restoring an object in an image (or image data) in three dimensions is required. Accordingly, the present invention is to find a model most similar to the object in the image to be restored among 6DoF pose estimation, which estimates the posture of an object, and 3D model, which is currently available to restore the object in three dimensions. 3D object retrieval technology is used.

예를 들면, 영상 데이터가 도로 환경을 나타내고, 도로 환경에서의 특정 자동차를 객체로 추출하는 경우, 본 발명은 자동차의 자세를 추정하는 6DoF 포즈 추정과 함께 3D 모델에서 자동차와 가장 유사한 모델을 찾는 3차원 객체 검색 기술을 사용할 수 있다. For example, when image data represents a road environment and a specific car in the road environment is extracted as an object, the present invention is a 3D model that finds a model most similar to a car in a 3D model together with 6DoF pose estimation to estimate the posture of the car Dimensional object search techniques may be used.

나아가, 본 발명은 6DoF 포즈 추정(6DoF pose estimation)을 위한 첫 번째 단계로 객체의 3차원 위치에 대한 초기 값(initial position)을 추정한다. 이를 위해, 본 발명은 먼저 Mask-RCNN 기반 영상 분할(instance segmentation) 알고리즘을 이용하여 영상 데이터 내 객체의 픽셀 좌표를 획득한다. 그 후 스트리트 뷰(street view)와 3D 모델(3D model)을 기반으로 구축된 디지털 트윈(Digital Twin) 가상공간에서 카메라 자세와 그라운드(Ground) 정보를 이용하여 이미지의 깊이 정보(예를 들면, 360 카메라와 객체 사이의 거리 값)을 산출한다. 전술한 바와 같이 추출한 객체의 픽셀 좌표와 해당 픽셀의 깊이 값을 이용하여 본 발명은 객체의 3차원 위치인 초기 위치(initial position)을 추정하여 3D 모델을 디지털 트윈의 해당 위치에 배치한다. Furthermore, in the present invention, an initial position of an object is estimated as a first step for 6DoF pose estimation. To this end, the present invention first obtains pixel coordinates of an object in image data using a Mask-RCNN based image segmentation algorithm. Then, using the camera posture and ground information in a digital twin virtual space built based on street view and 3D model, image depth information (e.g. 360 distance value between the camera and the object). Using the pixel coordinates of the object extracted as described above and the depth value of the pixel, the present invention estimates the initial position, which is the three-dimensional position of the object, and places the 3D model at the corresponding position of the digital twin.

도 4는 본 발명의 실시예에 따른 객체의 위치 및 각도를 포함하는 지리적 데이터를 추정하는 과정에 대한 흐름도를 도시한 것이다.4 is a flowchart illustrating a process of estimating geographic data including the position and angle of an object according to an embodiment of the present invention.

도 3의 과정을 통해 추정된 초기 위치(initial position)는 영상 분할(instance segmentation)과 깊이 정보(depth data) 추출 과정에서 오차가 발생할 수 있으며, 도 3의 과정에서는 객체의 회전(rotation)을 추정할 수 없다. An error may occur in the process of image segmentation and depth data extraction in the initial position estimated through the process of FIG. 3 , and the rotation of the object is estimated in the process of FIG. 3 . Can not.

이에 따라서, 본 발명은 도 4의 과정을 통해 카메라 자세 추정 모듈에서 사용한 방법과 같이 PSO(Particle Swarm Optimization) 알고리즘을 이용하여 추정된 초기 위치에 배치된 3차원 객체를 프로젝션(projection)하여 만든 이미지의 객체 윤곽(outline)과 기존 이미지의 객체 윤곽(outline) 간 오차를 최소화하는 방향으로 최적화를 진행한다. Accordingly, the present invention provides an image created by projecting a three-dimensional object disposed at an initial position estimated using a Particle Swarm Optimization (PSO) algorithm like the method used in the camera posture estimation module through the process of FIG. 4 . Optimization proceeds in the direction of minimizing the error between the object outline and the object outline of the existing image.

예를 들면, 본 발명은 도 3의 과정에서, 3차원 객체 검색 기술을 사용하여 자동차와 가장 유사한 모델을 획득하며, 도 3의 과정에서 획득된 가장 유사한 자동차 모델의 객체 윤곽(outline)과 영상 데이터 내 자동차의 객체 윤곽(outline) 간의 일치를 위한 오차를 최소화하는 최적화를 수행할 수 있다. 이때, 본 발명은 PSO 알고리즘을 이용하여 도 3의 과정에서 획득된 가장 유사한 자동차 모델의 위치(position) 및 회전(rotation)을 변화하는 반복 과정으로 최적화를 수행하여 영상 데이터 내 자동차 객체의 위치 및 각도를 포함하는 6DoF 포즈(6DoF pose)를 추정할 수 있게 된다. For example, in the process of FIG. 3 , the present invention acquires a model most similar to a car using a three-dimensional object search technique, and object outline and image data of the most similar car model obtained in the process of FIG. 3 . I can perform optimizations to minimize the error for matching between the outlines of objects in my car. At this time, the present invention performs optimization as an iterative process of changing the position and rotation of the most similar car model obtained in the process of FIG. 3 using the PSO algorithm, thereby performing the optimization of the position and angle of the car object in the image data It is possible to estimate a 6DoF pose including

도 5 내지 도 7은 본 발명의 실시예에 따른 실증 테스트 결과를 도시한 것이다.5 to 7 are diagrams showing results of an empirical test according to an embodiment of the present invention.

도 5(a)는 테스트에 사용한 360 카메라로 촬영된 영상 데이터(또는 360 이미지)를 도시한 것이며, 도 5(b)는 영상 데이터를 영상 분할(instance segmentation)한 결과를 도시한 것이고, 도 5(c)는 객체의 초기 위치를 추정한 결과를 도시한 것이다. Figure 5 (a) shows the image data (or 360 image) taken with the 360 camera used for the test, Figure 5 (b) shows the result of image data segmentation (instance segmentation), Figure 5 (c) shows the result of estimating the initial position of the object.

도 5를 참조하면, 본 발명은 베를린의 특정 지역에 대한 디지털 트윈과 구글 스트리트 뷰(street view) 360 이미지를 대상으로 실증 테스트를 진행한 결과를 나타낸다. 도 5(a)에 도시된 바와 같이 영상 데이터를 테스트 이미지로 사용하였으며, 해당 데이터를 영상 분할한 결과는 도 5(b)와 같다. 나아가, 도 5(c)는 초기 위치를 추정하여 디지털 트윈에 자동차 3D 모델을 복원한 결과를 나타낸다. Referring to FIG. 5 , the present invention shows the results of an empirical test for a digital twin and Google Street View 360 images for a specific area of Berlin. As shown in Fig. 5(a), image data was used as a test image, and the result of image segmentation of the data is as shown in Fig. 5(b). Furthermore, Fig. 5(c) shows the result of restoring the 3D model of the car in the digital twin by estimating the initial position.

도 6(a)는 본 발명의 실시예에 따른 PSO 알고리즘을 이용하여 2번 반복으로 최적화를 수행한 결과를 도시한 것이며, 도 6(b)는 4번 반복으로 최적화를 수행한 결과를 도시한 것이고, 도 6(c)는 10번 반복으로 최적화를 수행한 결과를 도시한 것이며, 도 6(d)는 20번 반복으로 최적화를 수행한 결과를 도시한 것이다. FIG. 6(a) shows the results of performing optimization with 2 iterations using the PSO algorithm according to an embodiment of the present invention, and FIG. 6(b) shows the results of performing optimization with 4 iterations. 6(c) shows the result of performing the optimization with 10 iterations, and FIG. 6(d) shows the result of performing the optimization with 20 iterations.

도 6을 참조하면, 본 발명의 실시예에 따른 객체의 초기 위치 및 PSO 알고리즘을 이용한 최적화 과정의 결과를 나타낸다. 본 발명은 총 20번의 반복(Iteration)을 수행하였으며, 반복에 따라 3차원 객체의 위치(position)와 회전(rotation)이 변화하면서 점점 기존 이미지의 객체와 프로젝션(projection)된 3차원 객체가 일치하는 것을 확인할 수 있다. 6, the results of the optimization process using the initial position of the object and the PSO algorithm according to an embodiment of the present invention are shown. In the present invention, a total of 20 iterations were performed, and as the position and rotation of the 3D object changed according to the repetition, the object of the existing image and the projected 3D object gradually matched. can check that

도 7은 추정 위치 및 자세를 통해 복원한 3D 모델과 원본 이미지 객체의 윤곽(outline)을 비교한 것으로, 도 7(a)는 초기 추정 결과를 도시한 것이며, 도 7(b)는 최적화 과정을 거친 후의 결과를 도시한 것이다. 7 is a comparison of the 3D model restored through the estimated position and posture and the outline of the original image object. FIG. 7(a) shows the initial estimation result, and FIG. 7(b) shows the optimization process. The results after roughing are shown.

도 7을 참조하면, 일치하지 않았던 기존 사진(도 7(a))과 3차원 객체의 윤곽(outline)이 최적화 알고리즘을 통해 약 20번의 반복 과정을 거친 후 도 7(b)에 도시된 바와 같이 거의 일치하는 모습을 확인할 수 있다. Referring to FIG. 7 , as shown in FIG. 7( b ), after the existing photo ( FIG. 7 ( a )) and the outline of the 3D object that did not match were repeated about 20 times through the optimization algorithm, It can be seen that they are almost identical.

도 8a 및 도 8b는 본 발명의 실시예에 따른 활용 예시를 도시한 것이다.8A and 8B show examples of application according to an embodiment of the present invention.

보다 상세하게, 도 8a는 360 스트리밍 카메라 및 디지털 트윈의 배치 예를 도시한 것이고, 도 8b는 객체 위치 인식 및 표시를 도시한 것이다.In more detail, Fig. 8A shows an example arrangement of a 360 streaming camera and a digital twin, and Fig. 8B shows object location recognition and display.

도 8a를 참조하면, 실제 공간과 같은 위치와 각도로 디지털 트윈 위에 360 스트리밍 카메라를 배치한 것을 보여준다. 도 8b의 (a)는 360 카메라로 찍은 영상 데이터(이미지)의 원근 시점(perspective view) 이미지를 나타내며, (b)는 영상 데이터의 이미지 내 객체의 위치를 나타낸다. 또한, (c)는 초기 위치 추정 및 최적화 과정을 거쳐서 최종적으로 출력된 객체의 지리적 위치를 박스 형태로 디지털 트윈 안에 배치한 것을 나타낸다. Referring to FIG. 8A , it shows placement of a 360 streaming camera on a digital twin at the same position and angle as in real space. (a) of FIG. 8B shows a perspective view image of video data (image) taken with a 360 camera, and (b) shows the position of an object in the image of the video data. Also, (c) shows that the geographic location of the object finally output through the initial location estimation and optimization process is placed in the digital twin in the form of a box.

이에 따라서, 본 발명은 360 카메라 주변의 객체들을 실시간으로 인식하여 디지털 트윈의 3D 맵 위에 시각화하여 표현할 수 있다. Accordingly, the present invention can recognize objects around the 360 camera in real time and visualize it on the 3D map of the digital twin.

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or apparatus described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (14)

360 카메라 및 디지털 트윈을 기반으로 한 이동 객체의 지리적 데이터를 추정하는 방법에 있어서,
360 카메라에서 영상 데이터를 수신하여 전처리하는 단계;
상기 영상 데이터 내 객체의 위치를 추출하며, 디지털 트윈(Digital Twin)을 통해 이미지 깊이(depth)를 추정하여 상기 객체의 초기 위치를 추정하는 단계; 및
상기 초기 위치를 기반으로 상기 디지털 트윈에 배치된 3D 모델(3D model)을 이용하여 상기 영상 데이터 내 상기 객체와의 차이를 계산하며, 차이를 최소화하는 최적화(optimization)를 통해 상기 객체의 위치 및 각도를 포함하는 지리적 데이터를 추정하는 단계
를 포함하는 이동 객체의 지리적 데이터 추정방법.
A method for estimating geographic data of a moving object based on a 360 camera and a digital twin, the method comprising:
receiving and pre-processing image data from a 360 camera;
estimating the initial position of the object by extracting the position of the object in the image data and estimating the image depth through a digital twin; and
Based on the initial position, a difference with the object in the image data is calculated using a 3D model disposed in the digital twin, and the position and angle of the object through optimization to minimize the difference estimating geographic data comprising
A method of estimating geographic data of a moving object comprising a.
제1항에 있어서,
상기 전처리하는 단계는
상기 영상 데이터를 특정 시야각을 가지는 원근 시점(perspective view)으로 전처리하는, 이동 객체의 지리적 데이터 추정방법.
According to claim 1,
The pre-processing step is
A method for estimating geographic data of a moving object by preprocessing the image data into a perspective view having a specific viewing angle.
제1항에 있어서,
상기 초기 위치를 추정하는 단계 및 상기 지리적 데이터를 추정하는 단계는
3차원 객체 검색(3D object retrieval) 기술을 이용하여 상기 객체를 3차원으로 복원하여 6DoF 포즈 추정(6DoF pose estimation)을 수행하는, 이동 객체의 지리적 데이터 추정방법.
According to claim 1,
The step of estimating the initial location and the step of estimating the geographic data include
A method for estimating geographic data of a moving object, comprising restoring the object in three dimensions using a three-dimensional object retrieval technique to perform 6DoF pose estimation.
제1항에 있어서,
상기 초기 위치를 추정하는 단계는
영상 분할(instance segmentation) 알고리즘을 이용하여 상기 영상 데이터 내 객체의 위치에 대한 픽셀 좌표를 추출하며, 스트리트 뷰(street view)와 3D 모델(3D model)을 기반으로 구축된 상기 디지털 트윈의 가상공간에서 카메라 자세와 그라운드(Ground) 정보를 이용하여 상기 이미지 깊이를 획득하는, 이동 객체의 지리적 데이터 추정방법.
According to claim 1,
The step of estimating the initial position is
In the virtual space of the digital twin constructed based on a street view and a 3D model, the pixel coordinates for the position of the object in the image data are extracted using an instance segmentation algorithm. A method for estimating geographic data of a moving object, obtaining the image depth using a camera posture and ground information.
제4항에 있어서,
상기 초기 위치를 추정하는 단계는
상기 객체의 픽셀 좌표와 해당 픽셀의 깊이(depth) 값을 이용하여 상기 객체의 3차원 위치인 상기 초기 위치(initial position)를 추정하며, 상기 3D 모델을 상기 디지털 트윈에 배치하는 것을 특징으로 하는, 이동 객체의 지리적 데이터 추정방법.
5. The method of claim 4,
The step of estimating the initial position is
estimating the initial position, which is a three-dimensional position of the object, using the pixel coordinates of the object and the depth value of the pixel, and arranging the 3D model in the digital twin, A method of estimating geographic data of a moving object.
제1항에 있어서,
상기 지리적 데이터를 추정하는 단계는
PSO(Particle Swarm Optimization) 알고리즘을 이용하여 상기 초기 위치에 상기 3D 모델의 3D 객체를 프로젝션(projection)하여 생성된 추정 데이터의 객체 윤곽(outline)과 상기 영상 데이터 내 객체 윤곽(outline) 간의 차이를 계산하며, 오차를 최소화하는 최적화를 수행하는, 이동 객체의 지리적 데이터 추정방법.
According to claim 1,
The step of estimating the geographic data is
Calculate the difference between the object outline of the estimated data generated by projecting the 3D object of the 3D model to the initial position by using a Particle Swarm Optimization (PSO) algorithm and the object outline in the image data A method for estimating geographic data of a moving object, performing optimization to minimize errors.
제6항에 있어서,
상기 지리적 데이터를 추정하는 단계는
상기 PSO 알고리즘을 이용하여 상기 3D 객체의 위치(position) 및 회전(rotation)을 변화하는 반복(Iteration)으로 최적화 과정을 수행하여 상기 영상 데이터 내 상기 객체의 위치 및 각도를 포함하는 6DoF 포즈(6DoF pose)를 추정하는, 이동 객체의 지리적 데이터 추정방법.
7. The method of claim 6,
The step of estimating the geographic data is
A 6DoF pose including the position and angle of the object in the image data by performing an optimization process by iteration that changes the position and rotation of the 3D object using the PSO algorithm ), a method of estimating geographic data of a moving object.
360 카메라 및 디지털 트윈을 기반으로 한 이동 객체의 지리적 데이터를 추정하는 시스템에 있어서,
360 카메라에서 영상 데이터를 수신하여 전처리하는 전처리부;
상기 영상 데이터 내 객체의 위치를 추출하며, 디지털 트윈(Digital Twin)을 통해 이미지 깊이(depth)를 추정하여 상기 객체의 초기 위치를 추정하는 초기 위치 추정부; 및
상기 초기 위치를 기반으로 상기 디지털 트윈에 배치된 3D 모델(3D model)을 이용하여 상기 영상 데이터 내 상기 객체와의 차이를 계산하며, 차이를 최소화하는 최적화(optimization)를 통해 상기 객체의 위치 및 각도를 포함하는 지리적 데이터를 추정하는 지리적 데이터 추정부
를 포함하는 이동 객체의 지리적 데이터 추정시스템.
A system for estimating geographic data of a moving object based on a 360 camera and a digital twin, the system comprising:
a pre-processing unit for receiving and pre-processing image data from a 360 camera;
an initial position estimator for extracting a position of an object in the image data and estimating an initial position of the object by estimating an image depth through a digital twin; and
Based on the initial position, a difference with the object in the image data is calculated using a 3D model disposed in the digital twin, and the position and angle of the object through optimization to minimize the difference A geographic data estimator for estimating geographic data comprising
Geographic data estimation system of a moving object comprising a.
제8항에 있어서,
상기 전처리부는
상기 영상 데이터를 특정 시야각을 가지는 원근 시점(perspective view)으로 전처리하는, 이동 객체의 지리적 데이터 추정시스템.
9. The method of claim 8,
The preprocessor
A system for estimating geographic data of a moving object, which preprocesses the image data into a perspective view having a specific viewing angle.
제8항에 있어서,
상기 초기 위치 추정부 및 지리적 데이터 추정부는
3D object retrieval(3차원 객체 검색) 기술을 이용하여 상기 객체를 3차원으로 복원하여 6DoF 포즈 추정(6DoF pose estimation)을 수행하는, 이동 객체의 지리적 데이터 추정시스템.
9. The method of claim 8,
The initial location estimator and the geographic data estimator
A system for estimating geographic data of a moving object, wherein the object is restored in three dimensions using a 3D object retrieval technique to perform 6DoF pose estimation.
제8항에 있어서,
상기 초기 위치 추정부는
영상 분할(instance segmentation) 알고리즘을 이용하여 상기 영상 데이터 내 객체의 위치에 대한 픽셀 좌표를 추출하며, 스트리트 뷰(street view)와 3D 모델(3D model)을 기반으로 구축된 상기 디지털 트윈의 가상공간에서 카메라 자세와 그라운드(Ground) 정보를 이용하여 상기 이미지 깊이를 획득하는, 이동 객체의 지리적 데이터 추정시스템.
9. The method of claim 8,
The initial position estimating unit
In the virtual space of the digital twin constructed based on a street view and a 3D model, the pixel coordinates for the position of the object in the image data are extracted using an instance segmentation algorithm. A system for estimating geographic data of a moving object, which acquires the image depth using camera posture and ground information.
제11항에 있어서,
상기 초기 위치 추정부는
상기 객체의 픽셀 좌표와 해당 픽셀의 깊이(depth) 값을 이용하여 상기 객체의 3차원 위치인 상기 초기 위치(initial position)를 추정하며, 상기 3D 모델을 상기 디지털 트윈에 배치하는 것을 특징으로 하는, 이동 객체의 지리적 데이터 추정시스템.
12. The method of claim 11,
The initial position estimating unit
estimating the initial position, which is a three-dimensional position of the object, using the pixel coordinates of the object and the depth value of the pixel, and arranging the 3D model in the digital twin, Geographic data estimation system for moving objects.
제8항에 있어서,
상기 지리적 데이터 추정부는
PSO(Particle Swarm Optimization) 알고리즘을 이용하여 상기 초기 위치에 상기 3D 모델의 3D 객체를 프로젝션(projection)하여 생성된 추정 데이터의 객체 윤곽(outline)과 상기 영상 데이터 내 객체 윤곽(outline) 간의 차이를 계산하며, 오차를 최소화하는 최적화를 수행하는, 이동 객체의 지리적 데이터 추정시스템.
9. The method of claim 8,
The geographic data estimating unit
Calculate the difference between the object outline of the estimated data generated by projecting the 3D object of the 3D model to the initial position by using a Particle Swarm Optimization (PSO) algorithm and the object outline in the image data A system for estimating geographic data of a moving object that performs optimization to minimize errors.
제13항에 있어서,
상기 지리적 데이터 추정부는
상기 PSO 알고리즘을 이용하여 상기 3D 객체의 위치(position) 및 회전(rotation)을 변화하는 반복(Iteration)으로 최적화 과정을 수행하여 상기 영상 데이터 내 상기 객체의 위치 및 각도를 포함하는 6DoF 포즈(6DoF pose)를 추정하는, 이동 객체의 지리적 데이터 추정시스템.
14. The method of claim 13,
The geographic data estimating unit
A 6DoF pose including the position and angle of the object in the image data by performing an optimization process by iteration that changes the position and rotation of the 3D object using the PSO algorithm ), a system for estimating geographic data of a moving object.
KR1020200177977A 2020-12-18 2020-12-18 Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof KR102454073B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200177977A KR102454073B1 (en) 2020-12-18 2020-12-18 Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200177977A KR102454073B1 (en) 2020-12-18 2020-12-18 Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof

Publications (2)

Publication Number Publication Date
KR20220087688A true KR20220087688A (en) 2022-06-27
KR102454073B1 KR102454073B1 (en) 2022-10-14

Family

ID=82247007

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200177977A KR102454073B1 (en) 2020-12-18 2020-12-18 Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof

Country Status (1)

Country Link
KR (1) KR102454073B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102536364B1 (en) * 2022-08-01 2023-05-30 주식회사 플로틱 Method for mapping location codes
CN116253248A (en) * 2023-02-13 2023-06-13 江苏省特种设备安全监督检验研究院 Crane operation monitoring method, crane anti-collision human redundancy system and storage medium
WO2024014709A1 (en) * 2021-07-13 2024-01-18 엘지전자 주식회사 Mixed reality-based display device and path guiding system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018194417A (en) * 2017-05-17 2018-12-06 株式会社Soken Position estimation device, mobile device
US20200304375A1 (en) * 2019-03-19 2020-09-24 Microsoft Technology Licensing, Llc Generation of digital twins of physical environments

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018194417A (en) * 2017-05-17 2018-12-06 株式会社Soken Position estimation device, mobile device
US20200304375A1 (en) * 2019-03-19 2020-09-24 Microsoft Technology Licensing, Llc Generation of digital twins of physical environments

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Nguyen D., Meixner G.: Comparison User Engagement of Gamified and Non-gamified Augmented Reality Assembly Training Advances in Agile and User-Centred Software Engineering. pp. 142-152. Springer International Publishing (2020)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024014709A1 (en) * 2021-07-13 2024-01-18 엘지전자 주식회사 Mixed reality-based display device and path guiding system
KR102536364B1 (en) * 2022-08-01 2023-05-30 주식회사 플로틱 Method for mapping location codes
CN116253248A (en) * 2023-02-13 2023-06-13 江苏省特种设备安全监督检验研究院 Crane operation monitoring method, crane anti-collision human redundancy system and storage medium
CN116253248B (en) * 2023-02-13 2023-10-03 江苏省特种设备安全监督检验研究院 Crane operation monitoring method, crane anti-collision human redundancy system and storage medium

Also Published As

Publication number Publication date
KR102454073B1 (en) 2022-10-14

Similar Documents

Publication Publication Date Title
KR102454073B1 (en) Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof
Ma et al. Rethinking pseudo-lidar representation
KR102647351B1 (en) Modeling method and modeling apparatus using 3d point cloud
US11852729B2 (en) Ground intensity LIDAR localizer
CN107980150B (en) Modeling three-dimensional space
Wang et al. Deep semantic segmentation for visual understanding on construction sites
Taneja et al. Geometric change detection in urban environments using images
US11836884B2 (en) Real-time generation of functional road maps
Chen et al. 3d point cloud processing and learning for autonomous driving
Zhao et al. Lidar mapping optimization based on lightweight semantic segmentation
AU2019233778A1 (en) Urban environment labelling
Dimitrievski et al. Robust matching of occupancy maps for odometry in autonomous vehicles
Corral-Soto et al. 3D town: the automatic urban awareness project
Song et al. Scale-aware attention-based pillarsnet (sapn) based 3d object detection for point cloud
KR102270827B1 (en) Generating Joint Cameraand LiDAR Features Using Cross-View Spatial Feature Mapping for 3D Object Detection
Bae et al. Fast and scalable 3D cyber-physical modeling for high-precision mobile augmented reality systems
Cho et al. Real-time 3D reconstruction method using massive multi-sensor data analysis and fusion
EP4064125A1 (en) Multi-dimensional object pose regression
Hughes et al. DriveSpace: towards context-aware drivable area detection
Kim et al. Automatic 3D city modeling using a digital map and panoramic images from a mobile mapping system
Namdev et al. Multibody vslam with relative scale solution for curvilinear motion reconstruction
Schwarze et al. Geometry estimation of urban street canyons using stereo vision from egocentric view
Liu et al. PointTrans: Rethinking 3D Object Detection from a Translation Perspective with Transformer
KR20240067011A (en) System and method that support services for selectively converting real-time data into 3D objects in a 3D virtual reality space
Aziz et al. A Riemannian approach for free-space extraction and path planning using catadioptric omnidirectional vision

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right