KR20220108911A - Augmented Reality GPS Linked Artificial Intelligence Image Analysis Building Safety System - Google Patents

Augmented Reality GPS Linked Artificial Intelligence Image Analysis Building Safety System Download PDF

Info

Publication number
KR20220108911A
KR20220108911A KR1020210011982A KR20210011982A KR20220108911A KR 20220108911 A KR20220108911 A KR 20220108911A KR 1020210011982 A KR1020210011982 A KR 1020210011982A KR 20210011982 A KR20210011982 A KR 20210011982A KR 20220108911 A KR20220108911 A KR 20220108911A
Authority
KR
South Korea
Prior art keywords
building
augmented reality
user
mobile terminal
safety system
Prior art date
Application number
KR1020210011982A
Other languages
Korean (ko)
Inventor
백재성
Original Assignee
(주)디지엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)디지엔터테인먼트 filed Critical (주)디지엔터테인먼트
Priority to KR1020210011982A priority Critical patent/KR20220108911A/en
Publication of KR20220108911A publication Critical patent/KR20220108911A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B19/00Alarms responsive to two or more different undesired or abnormal conditions, e.g. burglary and fire, abnormal temperature and abnormal rate of flow

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to an augmented reality GPS linked artificial intelligence image analysis building safety system which utilizes building data as open data to allow 911 paramedics to immediately identify the situations (entrance, emergency route, stairway, and window position) of a building in the event a fire with a smartphone in augmented reality, and to quickly extinguish the fire or make residents evacuate the building efficiently, so that it is possible to improve the quality of life and the user side of a smart city.

Description

증강현실 GPS연동 인공지능 이미지분석 건물안전 시스템{Augmented Reality GPS Linked Artificial Intelligence Image Analysis Building Safety System}Augmented Reality GPS Linked Artificial Intelligence Image Analysis Building Safety System

본 발명은 증강현실 GPS연동 인공지능 이미지분석 건물안전 시스템에 관한 것으로서, 건물 데이터를 개방형 데이터로 활용하여 화재시 119대원이 즉각적으로 건물의 상황(출입구, 비상로, 계단, 창문의 위치)을 스마트폰으로 증강현실로 파악하고 재빠르게 화재진압 혹은 주민대피를 효율적으로 함으로 스마트시티 본연의 사용자 측면과 삶의 질 향상을 이룰 수 있다.The present invention relates to an augmented reality GPS-linked artificial intelligence image analysis building safety system. By using building data as open data, 119 members of the building are immediately smart It is possible to improve the quality of life and users of the smart city by identifying it with augmented reality with a phone and quickly extinguishing a fire or evacuating residents efficiently.

우리나라를 비롯한 전 세계적으로 스마트시티가 주목받는 근본 이유는 도시문제 해결에 대한 청사진을 제시하고 문제를 해결할 수 있는 능력 때문이라고 할 수 있다. 전 세계의 도시들은 도시화(Urbanization)로 인해 환경, 교통, 에너지, 안전 등의 영역에서 이미 몸살을 앓고 있음에도 도시화는 이미 막을 수 없는 흐름이 되어가고 있다. UN 보고서에 따르면 2050년경에는 전 세계 인구의 70%가 도시에 모여 살 것이라고 하며 도쿄(Tokyo)와 같은 인구 1,000만 명이 넘는 거대한 도시를 일컫는 메가시티(megacity)는 지구상에 이미 29개나 있다. 이러한 도시화로 인해 발생하는 각종 문제들을 해결하고자 종래에는 토목, 건축의 측면에서 도로를 늘리고 경찰인력을 확충하는 등의 노력을 했지만 기술적인 측면에서 ICT를 활용하여 덜 막히는 길을 알려주고 CCTV를 활용하여 사회적 안전을 도모하려는 것이 스마트시티의 효용성인 것이다.The fundamental reason why smart cities are attracting attention around the world, including Korea, is their ability to present a blueprint for solving urban problems and to solve problems. Although cities around the world are already suffering from environmental, transportation, energy, and safety due to urbanization, urbanization is already becoming an unstoppable flow. According to a UN report, by 2050, 70% of the world's population will live in cities. In order to solve various problems caused by such urbanization, in the past, efforts such as increasing roads and expanding police personnel were made in the aspects of civil engineering and architecture, but in the technical aspect, ICT was used to inform less clogged roads and CCTVs were used to socialize the society. It is the effectiveness of smart cities to promote safety.

그러나, 기반 기술과 하드웨어의 확산과 소프트웨어 관제기능은 성장되고 있지만, 삶의 질을 높이기 위한 안전사고에 대한 즉각적인 도움을 주는 콘텐츠가 여전히 부실하다.However, although the spread of the underlying technology and hardware and the software control function are growing, the content that provides immediate help to safety accidents to improve the quality of life is still insufficient.

특히, 건물안전에 대한 ICT를 접목한 제품을 찾기 어려우며 이것이 빅데이터 기반으로 서로 데이터를 공유, 추가, 확산을 하며 생태계를 구축한 사업화 모델을 찾기 어려움. U-City와 Smart City가 갖는 차별화 중 개방적인 데이터(공공, 민간) 활용이 차별화 중 하나이다.In particular, it is difficult to find products that incorporate ICT for building safety, and it is difficult to find a commercialization model that has built an ecosystem by sharing, adding, and spreading data based on big data. One of the differentiations between U-City and Smart City is the use of open data (public and private).

본 발명은 전술한 문제점을 해결하는 것을 목적으로 하고 있으며, 구체적으로 도시 내 건물안전을 도모할 수 있는 AR콘텐츠를 제공할 수 있는 증강현실 GPS연동 인공지능 이미지분석 건물안전 시스템을 제공하는 것을 목적으로 한다.The present invention aims to solve the above problems, and specifically to provide an augmented reality GPS-linked artificial intelligence image analysis building safety system that can provide AR contents that can promote building safety in the city do.

또한 본 발명은 건물의 데이터를 바탕으로 화재나 범죄발생시 즉각적으로 119대원, 경찰관이 자신의 스마트폰을 통해서 건물의 형태와 정보를 즉각 증강현실로 확인하고 주요 출입구, 계단, 대피로 등을 순간적으로 파악하기 용이하도록 증강현실 콘텐츠를 제공할 수 있는 증강현실 GPS연동 인공지능 이미지분석 건물안전 시스템을 제공하는 것을 목적으로 한다.In addition, the present invention is based on the data of the building, in the event of a fire or a crime, 119 members and police officers immediately check the shape and information of the building through their smartphone through augmented reality, and instantly check the main entrance, stairs, evacuation route, etc. It aims to provide an augmented reality GPS-linked artificial intelligence image analysis building safety system that can provide augmented reality content for easy identification.

또한 본 발명은 GPS 기술에 더하여 인공지능 이미지판독 기술을 활용하여 빅데이터로 구축된 건물의 정보(개방형 정보 동의에 따라)를 실시간으로 3차원으로 표기하고 건물의 형태나 위치를 잘 파악하지 못하더라도 스마트폰을 통해 곧바로 인지할 수 있도록 기능하는 증강현실 GPS연동 인공지능 이미지분석 건물안전 시스템을 제공하는 것을 목적으로 한다.In addition, the present invention uses artificial intelligence image reading technology in addition to GPS technology to display the building information (according to open information consent) built with big data in real time in three dimensions, even if the shape or location of the building is not well understood. It aims to provide an augmented reality GPS-linked artificial intelligence image analysis building safety system that can be recognized directly through a smartphone.

또한 본 발명은 스마트시티의 정보안정성과 주요 3대 요소 중 하나인 '안전'에 대한 기능을 수행할 수 있도록 5G, AR, WebGL, 인공지능을 통해 지속적으로 발전할 수 있는 생태계를 구축하고 이에 맞는 플랫폼을 제공하는 것을 목적으로 한다.In addition, the present invention establishes an ecosystem that can continuously develop through 5G, AR, WebGL, and artificial intelligence so that it can perform the function of 'safety', one of the three major factors and information stability of the smart city, and The purpose is to provide a platform.

전술한 과제를 해결하기 위해 본 발명의 일양태에 따르면 사용자의 위치 정보 및 건물 이미 정보 분석에 기반한 건물 안전 시스템이 제공되고, 건물 안전 시스템은 증강현실 컨텐츠를 제공하기 위한 증강현실 서버; 증강현실 서버로부터 제공되는 증강현실 컨텐츠를 표시하기 위한 모바일 단말기; 및 증강현실 서버와 모바일 단말기 사이를 연결하는 통신망을 포함하고, 상기 모바일 단말기는, 영상을 촬영하기 위한 카메라; 위치정보를 수신하는 GPS 모듈; 및 카메라의 촬영 영상에 증강현실 컨텐츠를 표출하기 위한 증강현실 모듈을 포함하고, 상기 증강현실 서버는, 건물에 대한 3D 모델링 데이터가 저장된 증강현실 컨텐츠 데이터베이스; 및 정보 제공 모듈을 포함하고, 상기 증강현실 서버의 정보제공모듈은 사용자의 모바일 단말기로부터 전송되어 온 사용자 위치 정보 데이터 또는 카메라의 영상 데이터 중 어느 하나 또는 모두를 이용하여 건물에 대한 3D 모델링 데이터를 증강현실 컨텐츠로서 사용자의 모바일 단말기에 제공하도록 구성된다.According to an aspect of the present invention in order to solve the above problems, a building safety system is provided based on the user's location information and building already information analysis, and the building safety system includes an augmented reality server for providing augmented reality content; a mobile terminal for displaying augmented reality content provided from an augmented reality server; and a communication network connecting the augmented reality server and the mobile terminal, wherein the mobile terminal includes: a camera for taking an image; GPS module for receiving location information; and an augmented reality module for displaying augmented reality content on the captured image of the camera, wherein the augmented reality server includes: an augmented reality content database in which 3D modeling data for a building is stored; and an information providing module, wherein the information providing module of the augmented reality server augments 3D modeling data for a building using any one or both of the user location information data transmitted from the user's mobile terminal or the image data of the camera. It is configured to provide to the user's mobile terminal as real content.

전술한 양태에서 정보 제공 모듈은, 사용자의 위치 정보에 기반하여 사용자가 촬영한 건물을 특정하기 위한 위치기반 정보 제공 모듈; 및 사용자가 촬영한 건물의 영상에 기반하여 사용자가 촬영한 건물을 특정하기 위한 객체기반인식 정보 제공 모듈을 포함한다. In the above aspect, the information providing module includes: a location-based information providing module for specifying a building photographed by the user based on the user's location information; and an object-based recognition information providing module for specifying the building photographed by the user based on the image of the building photographed by the user.

또한 전술한 양태에서 증강현실 컨텐츠인 3D 모델링 데이터는 모바일 단말기의 웹(Web) 상에서 상용자에게 제공되거나 모바일 단말기의 애플리케이션을 통해 제공될 수 있다.In addition, in the above aspect, the augmented reality content 3D modeling data may be provided to the user on the web of the mobile terminal or provided through the application of the mobile terminal.

또한 전술한 양태에서 객체기반인식 정보 제공 모듈은 사용자의 카메라로부터 촬영되어온 건물 영상으로부터 디테일/특징점을 추출하고, 추출된 디테일/특징점을 데이터베이스에 저장된 이미지와 비교하여 사용자의 단말기로부터 전송되어 온 건물을 특정하도록 머신러닝 또는 뉴럴 네트워크 인공 지능 기술을 이용하여 학습된 건물학습 데이터를 포함한다. In addition, in the above aspect, the object-based recognition information providing module extracts the detail/feature point from the building image captured from the user's camera, and compares the extracted detail/feature point with the image stored in the database to determine the building that has been transmitted from the user's terminal. Includes building learning data learned using machine learning or neural network artificial intelligence technology to specify.

또한 전술한 양태에서 3D 모델링 데이터는 건물의 출입구, 계단, 통로, 비상구 중 하나 이상의 건물의 구조 정보를 포함한다.In addition, in the above-described aspect, the 3D modeling data includes structural information of one or more of an entrance, a staircase, a passage, and an emergency exit of a building.

또한 전술한 양태에서 모바일 단말기는 터치 인터페이스를 포함하고 모바일 단말기에 표출되는 3D 모델링 데이터는 터치 인터페이스를 통해 줌인, 줌아웃, 회전, 이동가능하게 구성된다.In addition, in the above aspect, the mobile terminal includes a touch interface, and 3D modeling data displayed on the mobile terminal is configured to be able to zoom in, zoom out, rotate, and move through the touch interface.

본 발명은 증강현실 GPS연동 인공지능 이미지분석 건물안전 시스템에 관한 것으로서, 건물 데이터를 개방형 데이터로 활용하여 화재시 119대원이 즉각적으로 건물의 상황(출입구, 비상로, 계단, 창문의 위치)을 스마트폰으로 증강현실로 파악하고 재빠르게 화재진압 혹은 주민대피를 효율적으로 함으로 스마트시티 본연의 사용자 측면과 삶의 질 향상을 이룰 수 있다.The present invention relates to an augmented reality GPS-linked artificial intelligence image analysis building safety system. By using building data as open data, 119 members of the building are immediately smart It is possible to improve the quality of life and users of the smart city by identifying it with augmented reality with a phone and quickly extinguishing a fire or evacuating residents efficiently.

도 1은 본 발명에 따른 건물 안전 시스템의 일례를 나타내는 도면;
도 2는 본 발명에 따른 건물 안전 시스템의 사용자의 모바일 단말의 구성을 개략적으로 도시한 도면;
도 3은 본 발명에 따른 건물 안전 시스템에서 증강 현실 서버의 구성을 개략적으로 도시한 도면;
도 4는 본 발명에 따른 건물 안전 시스템에서 GSP 정보를 포함하는 맵데이터를 복수의 영역으로 분할한 것을 예시적으로 나타낸 도면;
도 5는 도 4의 복수의 영역중 하나의 영역을 보다 구체적으로 나타낸 도면이다.
1 is a view showing an example of a building safety system according to the present invention;
Figure 2 is a diagram schematically showing the configuration of the user's mobile terminal of the building safety system according to the present invention;
Figure 3 is a diagram schematically showing the configuration of the augmented reality server in the building safety system according to the present invention;
Figure 4 is a view showing an example of dividing the map data including GSP information into a plurality of areas in the building safety system according to the present invention;
FIG. 5 is a diagram illustrating one area among a plurality of areas of FIG. 4 in more detail.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed herein are only exemplified for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiment according to the concept of the present invention These may be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention may have various changes and may have various forms, the embodiments will be illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes changes, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the present invention, a first component may be named as a second component, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle. Expressions describing the relationship between elements, for example, “between” and “between” or “directly adjacent to”, etc. should be interpreted similarly.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is used only to describe specific embodiments, and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate that an embodied feature, number, step, operation, component, part, or combination thereof exists, and includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타내는 것으로 이해될 수 있다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. It can be understood that the same reference numerals in each figure indicate the same member.

도 1은 본 발명에 따른 증강현실 GPS 및 인공지능 이미지 분석 기반 건물 안전 시스템(이하 건물 안전 시스템이라고 함)의 일례를 도시한 도면이다.1 is a diagram illustrating an example of a building safety system (hereinafter referred to as a building safety system) based on augmented reality GPS and artificial intelligence image analysis according to the present invention.

도 1에 도시된 바와 같이 본 발명에 따른 건물 안전 시스템은 증강현실 컨텐츠를 제공하기 위한 증강현실 서버(10); 및 서버(10)로부터 제공되는 증강현실 컨텐츠를 표시하기 위한 모바일 단말기(40)을 포함하고, 증강현실 서버(10)와 모바일 단말기(40)은 통신망(20)을 통해 서로 연결된다.As shown in Figure 1, the building safety system according to the present invention is an augmented reality server 10 for providing augmented reality contents; and a mobile terminal 40 for displaying augmented reality content provided from the server 10 , wherein the augmented reality server 10 and the mobile terminal 40 are connected to each other through the communication network 20 .

통신망(20)은 모바일 단말기(40)과, 증강현실 서버(10) 간의 정보 송수신을 위한 통로를 제공하는 역할을 한다. 즉, 모바일 단말기의 디스플레이부에 증강현실 컨텐츠를 제공하기 위하여, 모바일 단말기(40)와 증강현실 서버(10)간의 데이터 송수신이 이루어질 수 있도록 하는 데이터망에 해당한다.The communication network 20 serves to provide a path for transmitting and receiving information between the mobile terminal 40 and the augmented reality server 10 . That is, in order to provide the augmented reality content to the display unit of the mobile terminal, it corresponds to a data network that enables data transmission and reception between the mobile terminal 40 and the augmented reality server 10 .

예를 들어, 이와 같은 기능을 수행하는 통신망(20)은 인터넷 프로토콜(IP, Internet Protocol)을 통하여 대용량 데이터의 송수신 서비스 및 끊기는 현상이 없는 데이터 서비스를 제공하는 아이피망으로, 아이피를 기반으로 서로 다른 망을 통합한 아이피망 구조인 올 아이피(All IP)망 일 수 있다. 또한, 통신망(20)은 유선통신망, 이동통신망, Wibro(Wireless Broadband)망, HSDPA(High Speed Downlink Packet Access)망, 위성통신망 및 와이파이(WI-FI, Wireless Fidelity)망 중 하나일 수 있다.For example, the communication network 20 that performs such a function is an IP network that provides a large-capacity data transmission/reception service and a data service without interruption through an Internet Protocol (IP). It may be an All IP network, which is an IP network structure that integrates networks. In addition, the communication network 20 may be one of a wired communication network, a mobile communication network, a Wireless Broadband (Wibro) network, a High Speed Downlink Packet Access (HSDPA) network, a satellite communication network, and a Wi-Fi (Wireless Fidelity) network.

본 발명에서 모바일 단말기(40)에 표시되는 증강현실 컨텐츠는 웹3D 기반(WebGL: Web Graphics Library)으로 이루어져 있으며 바람직하게 증강현실 컨텐츠를 표시하기 위한 별도의 애플리케이션을 필요로하지 않지만, 전용 애플리케이션을 통해 동일한 건물안전을 위한 증강현실 컨텐츠가 제공될 수 있다.In the present invention, the augmented reality content displayed on the mobile terminal 40 is composed of a web 3D-based (WebGL: Web Graphics Library) and preferably does not require a separate application for displaying the augmented reality content, but through a dedicated application. Augmented reality content for the same building safety may be provided.

참고로 웹3D는 인터넷상에서 웹브라우저를 통해 실시간으로 3D 그래픽을 구현하는 것으로 가상 모델하우스, 기업홈페이지, 아트 갤러리, 안내 시스템 등 다양한 분야에서 활용되고 있다.For reference, Web3D is used in various fields such as virtual model houses, corporate websites, art galleries, and information systems to implement 3D graphics in real time through a web browser on the Internet.

웹상에서 3D를 구현하는 방법으로는 VRML(Virtual Reality Modeling Language), 3DMLW(3D Markup Language for Web), X3D(Extensible 3D) 및 WebGL(Web Graphics Library) 등이 있다. 이 중 VRML, 3DMLW 및 X3D는 외부 플러그인이 필요하나, WebGL은 별도의 플러그인이 필요하지 않으며 웹브라우저 상에서 렌더링 작업이 가능하다는 점에서 활용도가 증가하고 있다.Methods for implementing 3D on the web include Virtual Reality Modeling Language (VRML), 3D Markup Language for Web (3DMLW), Extensible 3D (X3D), and Web Graphics Library (WebGL). Among them, VRML, 3DMLW, and X3D require an external plug-in, but WebGL does not require a separate plug-in, and its utility is increasing in that rendering can be performed on a web browser.

WebGL을 이용한 웹3D 구현에는 다양한 방법으로 생성된 3D 콘텐츠의 데이터 규격과 형식을 WebGL에서 디스플레이가 가능한 형식으로 변환하는 과정이 필요하다. 구체적으로, 스캐닝을 통해 획득한 포인트 클라우드 데이터는 메쉬(mesh)를 형성하고 UV 좌표를 구성한 후 UV 좌표에 맞는 텍스처(texture) 이미지를 생성한다. 또한, SketchUp 등의 일반 3D 모델링 툴과 Revit 등의 BIM(Building Information Modeling) 툴을 통해 생성한 3D 모델링 데이터는 데이터 형식을 변환하여 *.obj 파일을 획득하고 저차원에서 데이터를 한번 더 변환하는 과정을 거쳐 WebGL에 연동시킨다.To implement Web3D using WebGL, it is necessary to convert the data standards and format of 3D content created in various ways into a format that can be displayed in WebGL. Specifically, the point cloud data acquired through scanning forms a mesh, configures UV coordinates, and generates a texture image that matches the UV coordinates. In addition, 3D modeling data generated through general 3D modeling tools such as SketchUp and BIM (Building Information Modeling) tools such as Revit are converted to the data format to obtain *. and link it to WebGL.

현재 WebGL은 구글 크롬, 인터넷 익스플로러 11에서 실행되고 모질라 파이어폭스 4, 사파리, 오페라의 개발 버전(development release)에서 실행된다. 또한 WebGL은 노키아 N900의 PR1.2 펌웨어 업데이트에서도 지원됨에 따라 폭 넓게 이용되는 이점이 있다.Currently, WebGL runs on Google Chrome, Internet Explorer 11, and development releases of Mozilla Firefox 4, Safari and Opera. Also, as WebGL is supported in the PR1.2 firmware update of Nokia N900, it has the advantage of being widely used.

사용자는 모바일 단말기(40)에 설치된 웹브라우저, 예를 들면 구글 크롬, 인터넷 익스플로러 11 등에서 제공된 카메라 기능을 이용하여 건물을 촬영하여 증강현실 서버(10)에 전송하면 서버(10)는 해당하는 건물에 대한 증강현실 컨텐츠를 모바일 단말기(40)에 린턴하고 모바일 단말기(40)은 사용자의 카메라로부터 촬영되는 이미지의 건물에 증강현실 컨텐츠를 오버랩하여 표시한다.When a user takes a picture of a building using a camera function provided in a web browser installed in the mobile terminal 40, for example, Google Chrome, Internet Explorer 11, etc. and transmits it to the augmented reality server 10, the server 10 is sent to the corresponding building. The augmented reality content for the mobile terminal 40 is returned to the mobile terminal 40, and the augmented reality content is overlapped and displayed on the building of the image taken from the user's camera.

도 2는 모바일 단말기(40)의 구성을 개략적으로 도시한 도면이다. 모바일 단말기(40)는 사용자에게 웹브라우저 상에서 3차원 증강 현실 이미지를 출력하기 위한 기능을 제공한다. 도 2에 도시된 바와 같이 모바일 단말기(40)는 제어부(41), 카메라(42), 인터페이스(43), 입력부(44), 저장부(45), GPS 모듈(46), 모션 컨트롤러(47) 및 통신부(48) 등을 포함한다. 다만, 도 2에 도시된 모바일 단말기(40)는 필수 구성요소들로만 구성된 것이 아니며, 본 실시예의 모바일 단말기(40)는 다른 구성을 더 포함할 수도 있으며, 도시된 구성요소들 중 일부는 제거될 수도 있며, 통합된 구성요소로서 제공될 수도 있다.2 is a diagram schematically illustrating the configuration of the mobile terminal 40 . The mobile terminal 40 provides the user with a function for outputting a 3D augmented reality image on a web browser. As shown in FIG. 2 , the mobile terminal 40 includes a control unit 41 , a camera 42 , an interface 43 , an input unit 44 , a storage unit 45 , a GPS module 46 , and a motion controller 47 . and a communication unit 48 and the like. However, the mobile terminal 40 shown in FIG. 2 is not composed of only essential components, and the mobile terminal 40 of this embodiment may further include other components, and some of the illustrated components may be removed. and may be provided as an integrated component.

모바일 단말기(40)는 서버(10)로부터 증강현실 컨텐츠를 수신받고 수신된 증강현실 컨텐츠를 단말기(40)의 디스플레이부에 디스플레이하여 사용자가 증강현실 컨텐츠를 이용할수 있도록 하는 장치로서, 기본적으로 사용자의 현재 위치를 식별하기 위한 GPS 모듈(46)과 건물을 촬영하기 위한 카메라(42)와, 증강현실 컨텐츠를 출력할 수 있는 디스플레이부를 포함한다. The mobile terminal 40 is a device that receives augmented reality content from the server 10 and displays the received augmented reality content on the display unit of the terminal 40 so that the user can use the augmented reality content. It includes a GPS module 46 for identifying a current location, a camera 42 for photographing a building, and a display unit capable of outputting augmented reality content.

저장부(45)는 제어부(41)의 처리 및 제어를 위한 프로그램(예를 들면, 화상 프레임과 3차원 증강현실 이미지를 정합하는 알고리즘); 건물에 매칭되는 증강현실데이터;를 포함하며, 입/출력되는 데이터들의 임시 저장을 위한 역할도 수행한다.The storage unit 45 includes a program for processing and control of the control unit 41 (eg, an algorithm for matching an image frame and a 3D augmented reality image); Augmented reality data that matches the building; includes, and also serves for temporary storage of input/output data.

저장부(45)는 플래시 저장부 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 저장부(SD 등), 램(RAM), SRAM(Static RAM), 롬(ROM), EEPROM(Electrically Erasable Programmable ROM), PROM(Programmable ROM), 자기 저장부, 자기 디스크, 광 디스크 중 어느 하나의 타입으로 이루어진 저장매체가 될 수 있다.The storage unit 45 is a flash storage type, a hard disk type, a multimedia card micro type, a card type storage unit (SD, etc.), a RAM (RAM), a static RAM (SRAM), a ROM (ROM), an EEPROM (Electrically Erasable) The storage medium may be any one of a programmable ROM), a programmable ROM (PROM), a magnetic storage unit, a magnetic disk, and an optical disk.

카메라(42)는 건물을 촬영하기 위한 도구로 사용된다. 또한 모바일 단말기(40)에는 시각, 청각 또는 촉각과 관련된 입출력을 발생시키는 구성요소로 터치스크린으로 이루어진 디스플레이부와, 스피커, 알람부 및 햅틱 모듈 등이 더 제공될 수 있다. 터치 스크린을 포함하는 경우 사용자는 터치 스크린 상에 제공된 증강현실 데이터(3D 모델링 데이터)를 줌인, 줌아웃, 회전, 이동할 수 있게 된다.The camera 42 is used as a tool for photographing a building. In addition, the mobile terminal 40 may further include a display unit including a touch screen, a speaker, an alarm unit, and a haptic module as components for generating input/output related to visual, auditory or tactile sense. When the touch screen is included, the user can zoom in, zoom out, rotate, and move the augmented reality data (3D modeling data) provided on the touch screen.

디스플레이부는 제어부에서 치리되는 정보를 표시하거나, 카메라(42)로 촬영된 화상 프레임을 표시할 수 있거나, 촬영된 화상 프레임에 3차원 증강현실 데이터를 정합시킨 화면을 표시할 수 있다.The display unit may display information governed by the control unit, display an image frame photographed by the camera 42, or display a screen in which 3D augmented reality data is matched to the photographed image frame.

통신부(48)는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치 정보 모듈 등 어느 하나 이상을 포함하여 구성될 수 있으며, 통신부(48)를 이용하여 통신망(20)을 통해 증강현실 구현을 위한 각종 데이터를 서버(10)에 요청하거나 전송받을 수 있다. 여기서, 무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 나타내는 것으로서, 모바일 단말기(100)에 내장되어 구성되거나 외장 연결가능하도록 구성될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless Lan)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability forMicrowave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The communication unit 48 may include any one or more such as a broadcast reception module, a mobile communication module, a wireless Internet module, a short-range communication module, and a location information module, and is augmented through the communication network 20 using the communication unit 48 . Various data for realization may be requested or transmitted from the server 10 . Here, the wireless Internet module refers to a module for wireless Internet access, and may be built-in to the mobile terminal 100 or configured to be externally connectable. As wireless Internet technologies, wireless LAN (WLAN) (Wi-Fi), wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), etc. may be used.

제어부(41)는 모바일 단말기(40)의 전체적인 동작을 제어하도록 구성된다. 예를 들어, 제어부 사용자의 GPS 정보 또는 사용자가 촬영한 이미지를 통신부(46)를 통해 서버(10)에 전송하여 해당하는 증강현실 데이터 또는 3D 모델링 데이터를 요청할 수 있다. The control unit 41 is configured to control the overall operation of the mobile terminal 40 . For example, the control unit may transmit the user's GPS information or the image captured by the user to the server 10 through the communication unit 46 to request corresponding augmented reality data or 3D modeling data.

또한 제어부(41)는 카메라(42)로부터 촬영되는 이미지가 포함된 화상프레임과, 3차원 증강현실 데이터를 정합하여 모바일 단말기(40)의 디스플레이부에 출력한다.In addition, the control unit 41 matches the image frame including the image captured by the camera 42 with the 3D augmented reality data, and outputs it to the display unit of the mobile terminal 40 .

또한 제어부(41)는 사용자 입력(터치 스크린 상에서의 입력)에 대응하여 사용자의 모바일 단말기에 표시된 3차원 증강현실 데이터를 확대, 축소, 회전, 이동시키도록 동작할 수 있다.In addition, the controller 41 may operate to enlarge, reduce, rotate, or move the 3D augmented reality data displayed on the user's mobile terminal in response to a user input (input on the touch screen).

또한 제어부(41)에는 모션 컨트롤러(47)가 연결될 수 있다. 모션 컨트롤러(47)는 모바일 단말기에 설치되는 자이로센서, 가속센서, GPS 센서일 수 있다. 즉, 모바일 단말기(40)의 내부에 컴퍼스 모듈, 자이로센서, 가속센서, GPS 센서등을 설치된 경우, 제어부(41)는 컴퍼스 모듈을 이용하여 모바일 단말기(40)의 방향을 결정하거나, 모바일 단말기(40)를 흔들거나 기울이는 동작에 대응하여3차원 증강현실 데이터의 표시를 제어할 수도 있다.Also, a motion controller 47 may be connected to the controller 41 . The motion controller 47 may be a gyro sensor, an acceleration sensor, or a GPS sensor installed in the mobile terminal. That is, when a compass module, a gyro sensor, an acceleration sensor, a GPS sensor, etc. are installed in the mobile terminal 40, the controller 41 determines the direction of the mobile terminal 40 using the compass module, or 40), it is also possible to control the display of the 3D augmented reality data in response to the shaking or tilting motion.

또한 모바일 단말기(40)는 GPS 모듈(46)을 더 포함한다. GPS 모듈(46)은 현재 자신의 위치를 계산하고 제어부(41)는 계산된 GPS 값을 증강현실 서버(10)에 제공하여 GPS 값에 대응하는 증강현실 데이터를 요청할 수도 있다.Also, the mobile terminal 40 further includes a GPS module 46 . The GPS module 46 may calculate its current location, and the controller 41 may provide the calculated GPS value to the augmented reality server 10 to request augmented reality data corresponding to the GPS value.

도 3은 도 1에 도시된 증강현실 서버(10)의 내부 구성을 개략적으로 도시한 도면이다. 도 3에 도시된 바와 같이, 모바일 단말기(40)와 증강현실 데이터(3D 모델링 데이터)를 제공하기 위한 데이터를 송수신하는 통신부(11)와, 증강현실 데이터(3D 모델링 데이터)가 저장되는 증강현실 컨텐츠 DB(14); 모바일 단말기(40)로부터 수신된 GPS 정보 또는 모바일 단말기로부터 수신된 이미지에 기반하여 그에 정합되는 증강현실 데이터를 데이터베이스(14)로부터 발견하기 하고 이를 제어부(!2)에 알려주기 위한 정보 제공 모듈(13a,13b)를 포함한다.3 is a diagram schematically illustrating an internal configuration of the augmented reality server 10 shown in FIG. 1 . As shown in FIG. 3 , the mobile terminal 40 and the communication unit 11 for transmitting and receiving data for providing augmented reality data (3D modeling data), and augmented reality content in which the augmented reality data (3D modeling data) is stored DB(14); Based on the GPS information received from the mobile terminal 40 or the image received from the mobile terminal, the augmented reality data matched thereto is found from the database 14 and the information providing module 13a for notifying it to the controller !2 , 13b).

제어부(12)는 통신부(113)를 통해 모바일 단말기(40)로부터 특정 건물에 대한 증강현실 컨텐츠 요청을 수신하면 정보 제공 모듈(13a,13b) 중 어느 하나 또는 이들 모두를 이용하여 증강현실 컨텐츠를 발견하고 발견된 컨텐츠를 모바일 단말기(40)에 전송하도록 구성된다.When the control unit 12 receives a request for augmented reality content for a specific building from the mobile terminal 40 through the communication unit 113, the controller 12 uses any one or both of the information providing modules 13a and 13b to discover the augmented reality content. and transmit the found content to the mobile terminal 40 .

위치기반 정보 제공 모듈(13a)는 위치 기반 정보 및 관련 서비스를 포함하고, 일 실시예로, 위치기반 정보 제공 모듈은 다음과 같은 구글의 안드로이드 모바일 API 구성 요소 즉, (1) Access_Fine_Location, (2) Location Provider, (3) Location Listener, (4) Location Updates, (5) Reverse GeoCoding 들을 통합함으로써 수행될 수 있다.The location-based information providing module 13a includes location-based information and related services, and in one embodiment, the location-based information providing module includes Google's Android mobile API components as follows: (1) Access_Fine_Location, (2) This can be done by integrating Location Provider, (3) Location Listener, (4) Location Updates, and (5) Reverse GeoCodings.

도 3 및 도 4는 위치기반 정보 제공 모듈(13a)의 동작을 설명하기 위한 도면이다. 도 3 및 도 4에 도시된 바와 같이 위치기반 정보 제공 모듈(13a)은 지도정보(GI)(또는 맵 데이터)를 포함하고 하나의 맵 데이터는 복수의 영역으로 분할된다. 각각의 영역(제1 영역 내지 제5 영역)은 GPS 정보를 포함하고 있기 때문에 사용자가 도 3에 도시된 바와 같이 자신의 위치 정보(위도:5400, 경도:1041)를 서버에 전송하면 서버의 위치기반 정보 제공 모듈(13a)은 사용자의 위치 정보로부터 사용자가 위치한 영역의 정보를 발견하고, 발견된 사용자가 위치한 영역 정보를 제어부(12)에 전송한다.3 and 4 are diagrams for explaining the operation of the location-based information providing module 13a. 3 and 4 , the location-based information providing module 13a includes map information GI (or map data), and one map data is divided into a plurality of regions. Since each area (the first to fifth areas) includes GPS information, as shown in FIG. 3 , when the user transmits his or her location information (latitude: 5400, longitude: 1041) to the server, the location of the server The base information providing module 13a discovers information on an area in which the user is located from the user's location information, and transmits the information on the area in which the user is located to the controller 12 .

위치기반 정보에 기반하여 사용자의 영역이 결정되고 난 후, 객체기반인식(Object-based recognition) 정보 제공 모듈은 컴퓨터 비젼에서 이미지나 비디오 시퀀스에서 지정된 객체(건물)를 발견하는 것을 포함한다. 일 실시예에서, 객체 기반 인식은 다음 동작들 즉, (1) 사용자의 단말기로부터 수신되는 라이브 뷰우 스트림으로부터 디테일/특징 추출, (2) 데이터베이스에 저장된 사진 데이터베이스와 비교, (3)결과의 즉시 전달을 실시하는 알고리듬을 이용함으로써 수행될 수 있다.After the user's area is determined based on the location-based information, the object-based recognition information providing module includes discovering a designated object (building) in an image or video sequence in computer vision. In one embodiment, object-based recognition performs the following actions: (1) extracting details/features from a live view stream received from the user's terminal, (2) comparing with a photo database stored in the database, and (3) delivering the result immediately. This can be done by using an algorithm that implements

즉 객체기반인식(Object-based recognition) 정보 제공 모듈은 사용자의 카메라로부터 촬영되어온 건물 영상으로부터 디테일/특징점 추출하고, 추출된 디테일/특징점을 데이터베이스에 저장된 영상 데이터베이스와 비교하여 사용자의 단말기로부터 전송되어 온 건물을 특정하게 된다. 이를 위해 객체기반인식 정보 제공 모듈은 머신러닝 또는 뉴럴 네트워크 인공 지능 기술을 이용하여 학습된 건물학습 데이터를 포함할 수 있다.That is, the object-based recognition information providing module extracts detail/feature points from the building image captured from the user's camera, compares the extracted detail/feature points with the image database stored in the database, and has been transmitted from the user's terminal. building is specified. To this end, the object-based recognition information providing module may include building learning data learned using machine learning or neural network artificial intelligence technology.

기계 학습 또는 뉴럴 네트워크는 인공 지능(AI) 기술에 따른 추론 및 예측을 위한 연산을 수행한다. 구체적으로, 뉴럴 네트워크는 복수의 계층들을 통한 연산을 수행하는 인공 신경망 네트워크(ANN) 또는 딥 뉴럴 네트워크(DNN: Deep Neural Network)가 될 수 있다. 뉴럴(신경망) 네트워크는 연산을 수행하는 내부의 계층(layer)의 개수에 따라서 계층의 개수가 복수일 경우, 즉 연산을 수행하는 뉴럴 네트워크의 심도(depth)가 증가하는 경우, 딥 뉴럴 네트워크(DNN)로 분류될 수 있다. 또한, 딥뉴럴 네트워크(DNN) 연산은 컨볼루션 뉴럴 네트워크(CNN: Convolution Neural Network) 연산 등을 포함할 수있다. 즉, 객체기반인식(Object-based recognition) 정보 제공 모듈은 예시된 뉴럴 네트워크를 통하여 건물 추정 모델을 구현하고, 구현된 건물 추정 모델을 학습 데이터를 이용하여 학습시킬 수 있다. 그리고, 학습된 건물 추정 모델을 통해 입력되는 건물의 이미지를 분석하고 추정하게 된다.Machine learning or neural networks perform computations for inference and prediction according to artificial intelligence (AI) technology. Specifically, the neural network may be an artificial neural network (ANN) or a deep neural network (DNN) that performs an operation through a plurality of layers. A neural (neural network) network is a deep neural network (DNN) when the number of layers is plural according to the number of internal layers performing an operation, that is, when the depth of a neural network performing an operation increases. ) can be classified as In addition, the deep neural network (DNN) operation may include a convolutional neural network (CNN) operation and the like. That is, the object-based recognition information providing module may implement a building estimation model through the exemplified neural network, and learn the implemented building estimation model using learning data. Then, the image of the building inputted through the learned building estimation model is analyzed and estimated.

본 발명에서 사용되는 건물 학습 모델은 PLSR(Partial Least Square Regression), PLS((Partial Least Square), VIP-PLSR(Variable Importance in the Projection-Partial Least Square Regression), Full-ANN(Full-Artificial Neural Networks), ANN(Artificial Neural Network), PLS-ANN(Partial least-squares and artificial neural network), CNN(Convolution Neural Network)와 같은 기술이 이용될 수 있지만 본 발명이 이에 한정되는 것은 아니다.The building learning model used in the present invention is PLSR (Partial Least Square Regression), PLS (Partial Least Square), VIP-PLSR (Variable Importance in the Projection-Partial Least Square Regression), Full-ANN (Full-Artificial Neural Networks) ), an artificial neural network (ANN), a partial least-squares and artificial neural network (PLS-ANN), and a convolution neural network (CNN) may be used, but the present invention is not limited thereto.

객체기반인식(Object-based recognition) 정보 제공 모듈(13b)에서 건물에 대한 추정이 이루어지고 나면 객체기반인식(Object-based recognition) 정보 제공 모듈은 제어부(12)에 해당하는 건물의 고유식별자를 통보하고 제어부(12)는 건물의 고유식별자를 이용하여 건물의 3D 모델링 데이터가 저장된 증강현실 컨텐츠 DB(14)로부터 해당하는 건물의 3D 모델링 데이터를 찾아 이를 모바일 단말기(40)의 증강현실 모듈(41a)로 전송하게 된다.After the estimation of the building is made in the object-based recognition information providing module 13b, the object-based recognition information providing module notifies the control unit 12 of the unique identifier of the building. And the control unit 12 finds the 3D modeling data of the corresponding building from the augmented reality content DB 14 in which the 3D modeling data of the building is stored using the unique identifier of the building, and uses it to find the 3D modeling data of the building in the augmented reality module 41a of the mobile terminal 40 will be sent to

이후 모바일 단말기(40)의 증강현실 모듈(41a)은 증강현실 서버(10)로부터 전송되어온 증강현실 데이터인 3D 모델링 데이터를 사용자의 모바일 단말기(40) 상에 표시된 건물의 영상 위에 매칭시켜 표시하게 된다.Afterwards, the augmented reality module 41a of the mobile terminal 40 matches and displays the 3D modeling data, which is the augmented reality data transmitted from the augmented reality server 10, on the image of the building displayed on the user's mobile terminal 40. .

전술한 실시예는 위치기반 정보 제공 모듈(13a)과 객체기반인식 정보 제공 모듈(13b)을 조합하여 사용한 것을 예로 들어 설명하였지만 본 발명은 이에 한정되는 것은 아니고, 두개의 정보 제공 모듈을 각각 독립적으로 사용하여 사용자에게 3D 모델링 데이터를 제공할 수 있다. 예를 들면 위치기반 정보 제공 모듈(13a)이 단독으로 사용되는 경우 사용자의 GPS 정보를 이용하여 사용자의 위치와 가장 가까운 곳에 위치된 건물에 대한 3D 모델링 데이터가 제공될 수도 있고, 객체기반인식 정보 제공 모듈(13b)을 단독으로 사용하는 경우 사용자의 카메라로부터 수신된 건물 영상에 포함된 특징점과 가장 유사한 건물에 대한 3D 모델링 데이터가 제공될 수도 있다.Although the above-described embodiment has been described as an example using a combination of the location-based information providing module 13a and the object-based recognition information providing module 13b, the present invention is not limited thereto. can be used to provide 3D modeling data to users. For example, when the location-based information providing module 13a is used alone, 3D modeling data for a building located closest to the user's location may be provided using the user's GPS information, and object-based recognition information is provided. When the module 13b is used alone, 3D modeling data for a building most similar to a feature point included in a building image received from a user's camera may be provided.

3D 모델링 데이터는 건물의 출입구, 계단, 통로, 비상구와 같은 건물의 구조 정보를 포함하여 사용자의 화면에 표시된 건물과 오버랩되어 표시되고 화재와 같은 긴급 상황시 건물의 형태나 내부 구조가 파악되지 않더라도 사용자 단말을 통해 즉각적으로 구조를 인지할 수 있도록 제공되어 소방대원이나 경찰관이 건물을 진입할 때 보다 안전한 환경을 제공할 수 있다.The 3D modeling data is displayed overlapping the building displayed on the user's screen, including structural information of the building such as entrances, stairs, passages, and emergency exits of the building. It is provided so that the structure can be recognized immediately through the terminal, so that it is possible to provide a safer environment when firefighters or police officers enter the building.

또한 사용자의 모바일 단말에 표시되는 3D 모델링 데이터는 터치스크린의 조작을 통해 확대, 축소, 회전, 이동가능하도록 구성되기 때문에 건물의 내부 구조를 보다 정밀하게 확인할 수도 있다.In addition, since the 3D modeling data displayed on the user's mobile terminal is configured to be enlarged, reduced, rotated, and moved through manipulation of the touch screen, the internal structure of the building can be checked more precisely.

또한 건물의 3D 모델링 데이터는 360도 이미지 패턴을 인식하도록 함으로써 어느 각도에서도 건물의 정확한 위치를 추적할 수 있도록 구성하고 1:1 비율과 1:n비율로 건물정보를 축소/확대 할 수 있도록 구성된다.In addition, the 3D modeling data of the building is configured to track the exact location of the building from any angle by recognizing a 360-degree image pattern, and to reduce/enlarge the building information in 1:1 ratio and 1:n ratio. .

또한 사용자 단말의 자이로센서 등을 입력으로서 이용하여 3D 모델링 데이터를 표시함으로써 실제 시야에 보이는 건물과 동일하게 주요 위치를 표시할 수 있다.In addition, by using the gyro sensor of the user terminal as an input to display 3D modeling data, it is possible to display the main location in the same way as the building seen in the real field of view.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the limited drawings as described above, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

10: 증강현실 서버 20: 통신망
40: 모바일 단말기 41: 제어부
42: 카메라 43: 인터페이스
44: 입력부 45: 저장부
46: GPS 모듈 47: 모션컨트롤러
48: 통신부(모바일단말) 11: 통신부(서버)
12: 제어부 13: 정보제공부
14: 증강현실 컨텐츠 DB
10: augmented reality server 20: communication network
40: mobile terminal 41: control unit
42: camera 43: interface
44: input unit 45: storage unit
46: GPS module 47: motion controller
48: communication unit (mobile terminal) 11: communication unit (server)
12: control unit 13: information providing unit
14: Augmented reality content DB

Claims (6)

사용자의 위치 정보 및 건물 이미 정보 분석에 기반한 건물 안전 시스템에 있어서,
증강현실 컨텐츠를 제공하기 위한 증강현실 서버;
증강현실 서버로부터 제공되는 증강현실 컨텐츠를 표시하기 위한 모바일 단말기; 및
증강현실 서버와 모바일 단말기 사이를 연결하는 통신망을 포함하고,
상기 모바일 단말기는, 영상을 촬영하기 위한 카메라; 위치정보를 수신하는 GPS 모듈; 및 카메라의 촬영 영상에 증강현실 컨텐츠를 표출하기 위한 증강현실 모듈을 포함하고,
상기 증강현실 서버는, 건물에 대한 3D 모델링 데이터가 저장된 증강현실 컨텐츠 데이터베이스; 및 정보 제공 모듈을 포함하고,
상기 증강현실 서버의 정보제공모듈은 사용자의 모바일 단말기로부터 전송되어 온 사용자 위치 정보 데이터 또는 카메라의 영상 데이터 중 어느 하나 또는 모두를 이용하여 건물에 대한 3D 모델링 데이터를 증강현실 컨텐츠로서 사용자의 모바일 단말기에 제공하도록 구성된 것을 특징으로 하는
건물 안전 시스템.
In the building safety system based on user's location information and building already information analysis,
Augmented reality server for providing augmented reality content;
a mobile terminal for displaying augmented reality content provided from an augmented reality server; and
Including a communication network connecting between the augmented reality server and the mobile terminal,
The mobile terminal may include: a camera for taking an image; GPS module for receiving location information; and an augmented reality module for displaying augmented reality content on the captured image of the camera,
The augmented reality server may include: an augmented reality content database in which 3D modeling data for a building is stored; and an information providing module;
The information providing module of the augmented reality server uses any one or both of the user location information data transmitted from the user's mobile terminal or the image data of the camera to provide 3D modeling data for the building as augmented reality content to the user's mobile terminal. characterized in that it is configured to provide
building safety system.
제1항에 있어서,
정보 제공 모듈은,
사용자의 위치 정보에 기반하여 사용자가 촬영한 건물을 특정하기 위한 위치기반 정보 제공 모듈; 및
사용자가 촬영한 건물의 영상에 기반하여 사용자가 촬영한 건물을 특정하기 위한 객체기반인식 정보 제공 모듈을 포함하는 것을 특징으로 하는
건물 안전 시스템.
According to claim 1,
Information provision module,
a location-based information providing module for specifying a building photographed by a user based on the user's location information; and
Characterized in that it comprises an object-based recognition information providing module for specifying the building photographed by the user based on the image of the building photographed by the user.
building safety system.
제1항에 있어서,
상기 증강현실 컨텐츠인 3D 모델링 데이터는 모바일 단말기의 웹(Web) 상에서 상용자에게 제공되거나 모바일 단말기의 애플리케이션을 통해 제공되는 건물 안전 시스템.
According to claim 1,
The 3D modeling data, which is the augmented reality content, is provided to a user on a web of a mobile terminal or a building safety system provided through an application of a mobile terminal.
제2항에 있어서,
객체기반인식 정보 제공 모듈은 사용자의 카메라로부터 촬영되어온 건물 영상으로부터 디테일/특징점을 추출하고, 추출된 디테일/특징점을 데이터베이스에 저장된 이미지와 비교하여 사용자의 단말기로부터 전송되어 온 건물을 특정하도록 머신러닝 또는 뉴럴 네트워크 인공 지능 기술을 이용하여 학습된 건물학습 데이터를 포함하는 것을 건물 안전 시스템.
3. The method of claim 2,
The object-based recognition information providing module extracts detail/feature points from the building image captured from the user's camera, and compares the extracted detail/feature points with the image stored in the database to specify the building that has been transmitted from the user's terminal. Building safety system that includes building learning data learned using neural network artificial intelligence technology.
제1항에 있어서,
3D 모델링 데이터는 건물의 출입구, 계단, 통로, 비상구 중 하나 이상의 건물의 구조 정보를 포함하는
건물 안전 시스템.
According to claim 1,
3D modeling data includes structural information of one or more of the building's entrances, stairs, passages, and emergency exits.
building safety system.
제5항에 있어서,
모바일 단말기는 터치 인터페이스를 포함하고 모바일 단말기에 표출되는 3D 모델링 데이터는 터치 인터페이스를 통해 줌인, 줌아웃, 회전, 이동가능하게 구성되는
건물 안전 시스템.
6. The method of claim 5,
The mobile terminal includes a touch interface, and the 3D modeling data displayed on the mobile terminal is configured to be able to zoom in, zoom out, rotate, and move through the touch interface.
building safety system.
KR1020210011982A 2021-01-28 2021-01-28 Augmented Reality GPS Linked Artificial Intelligence Image Analysis Building Safety System KR20220108911A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210011982A KR20220108911A (en) 2021-01-28 2021-01-28 Augmented Reality GPS Linked Artificial Intelligence Image Analysis Building Safety System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210011982A KR20220108911A (en) 2021-01-28 2021-01-28 Augmented Reality GPS Linked Artificial Intelligence Image Analysis Building Safety System

Publications (1)

Publication Number Publication Date
KR20220108911A true KR20220108911A (en) 2022-08-04

Family

ID=82837030

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210011982A KR20220108911A (en) 2021-01-28 2021-01-28 Augmented Reality GPS Linked Artificial Intelligence Image Analysis Building Safety System

Country Status (1)

Country Link
KR (1) KR20220108911A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048878A1 (en) * 2022-08-30 2024-03-07 네이버랩스 주식회사 Method and device for displaying virtual reality content on user terminal on basis of user terminal being located in preconfigured custom area

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048878A1 (en) * 2022-08-30 2024-03-07 네이버랩스 주식회사 Method and device for displaying virtual reality content on user terminal on basis of user terminal being located in preconfigured custom area

Similar Documents

Publication Publication Date Title
US11199412B2 (en) Collaborative creation of indoor maps
US10354144B2 (en) Video camera scene translation
US9291460B2 (en) Map processing for indoor navigation guidance
US10939075B2 (en) Monitoring target object by multiple cameras
US20180185232A1 (en) Wearable navigation system for blind or visually impaired persons with wireless assistance
US11347386B2 (en) Method and device for sharing position
Kido et al. Assessing future landscapes using enhanced mixed reality with semantic segmentation by deep learning
KR102129408B1 (en) Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map
KR102154950B1 (en) Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image
CN110914870B (en) Annotation generation for image networks
CN113033412B (en) Traffic situation monitoring method, device, equipment and medium based on live-action fusion
CN110553651A (en) Indoor navigation method and device, terminal equipment and storage medium
KR102515233B1 (en) Conversational Digital Twin Method using Geographic Information and Apparatus thereof
CN109656319B (en) Method and equipment for presenting ground action auxiliary information
JP2022023910A (en) Method for acquiring traffic state and apparatus thereof, roadside device, and cloud control platform
US20230251094A1 (en) Navigation video generation and acquisition methods and apparatuses, server, device, and medium
KR20220108911A (en) Augmented Reality GPS Linked Artificial Intelligence Image Analysis Building Safety System
CN112053440A (en) Method for determining individualized model and communication device
CN113378605A (en) Multi-source information fusion method and device, electronic equipment and storage medium
Jiang et al. Status quo and challenges and future development of fire emergency evacuation research and application in built environment
US10916066B2 (en) Methods of virtual model modification
CN115375855B (en) Engineering project visualization method and device, electronic equipment and readable medium
Chatzina et al. Route planning and navigation aid for Blind and Visually Impaired People
Yokoi et al. Way-finding assistance system for underground facilities using augmented reality
US20210377580A1 (en) Live or local environmental awareness

Legal Events

Date Code Title Description
E601 Decision to refuse application