KR102033075B1 - A providing location information systme using deep-learning and method it - Google Patents

A providing location information systme using deep-learning and method it Download PDF

Info

Publication number
KR102033075B1
KR102033075B1 KR1020180118712A KR20180118712A KR102033075B1 KR 102033075 B1 KR102033075 B1 KR 102033075B1 KR 1020180118712 A KR1020180118712 A KR 1020180118712A KR 20180118712 A KR20180118712 A KR 20180118712A KR 102033075 B1 KR102033075 B1 KR 102033075B1
Authority
KR
South Korea
Prior art keywords
information
image
deep learning
slam
unit
Prior art date
Application number
KR1020180118712A
Other languages
Korean (ko)
Inventor
이준혁
Original Assignee
(주)한국플랫폼서비스기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)한국플랫폼서비스기술 filed Critical (주)한국플랫폼서비스기술
Priority to KR1020180118712A priority Critical patent/KR102033075B1/en
Priority to PCT/KR2018/012092 priority patent/WO2020071573A1/en
Application granted granted Critical
Publication of KR102033075B1 publication Critical patent/KR102033075B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a location information system using deep learning and a providing method thereof which provide location information and services by deep learning based on a SLAM technique. The location information system using deep learning comprises: a main server (10) including an image processing unit (11) to generate a virtual map after processing an image inputted from the outside, a communication unit (12) to communicate with a local server (20) and a terminal (30), and a data storage unit (13) to store data; the local server (20) connected to the main server (10) to transmit information inputted for each area to the main server (10) and distribute and store information for each area; and the terminal (30). The method comprises an image information acquisition step (S10), a key frame extraction step (S20), a SLAM processing step (S30), a data processing step (S40), a processing image information correction step (S50), a landmark extraction step (S60), a virtual map generation step (S70), and a location information providing step (S80).

Description

딥러닝을 이용한 위치정보 시스템 및 그 제공방법{A PROVIDING LOCATION INFORMATION SYSTME USING DEEP-LEARNING AND METHOD IT}Location information system using deep learning and its providing method {A PROVIDING LOCATION INFORMATION SYSTME USING DEEP-LEARNING AND METHOD IT}

본 발명은 딥러닝을 이용한 위치정보 시스템 및 그 제공방법에 대한 것으로, SLAM기법을 기반으로 딥러닝하여 보다 정확한 위치정보 및 서비스를 제공하게 되는 것이다.The present invention relates to a location information system using deep learning and a method of providing the same, and to provide more accurate location information and service by deep learning based on SLAM technique.

일반적으로 위치정보는 다양한 방법으로 사용자에게 서비스되고 있는데, 그 중 대표적인 것으로 위성항법 시스템을 적용한 GPS시스템이 대표적인 것이다.In general, the location information is serviced to the user in a variety of ways, the most representative of which is the GPS system applying the satellite navigation system.

그러나, 이와 같은 GPS시스템의 경우 지구궤도를 돌고 있는 위성과의 통신을 기반으로 하여, 위성과 통신이 수행되지 않을 경우 그 이용자체가 불가능하며, 일정수 이상의 위성과의 통신이 수행되어야만 그 위치정보에 대한 정확도가 높아지게 된다.However, such a GPS system is based on the communication with the satellites orbiting the earth orbit, the user is not possible if the communication with the satellite is not carried out, and the location information only if the communication with a certain number of satellites is performed This increases the accuracy for.

그러나, 이와 같은 GPS의 경우에도 그 정밀도가 수미터 내외의 오차가 존재하여 대략적인 위치정도만을 파악할 수 있을 뿐 보행자의 길찾기 또는 자율주행에 따른 위치정보를 제공하기에는 부족한 점이 있었다.However, even in the case of such a GPS, the accuracy of several meters or less exist, so that only the approximate position can be grasped, and there is a shortage in providing the position information according to the pedestrian path or autonomous driving.

이에 따라 다양한 방법이 제안되었고 그 중 하나가, 로봇이 미지의 환경을 돌아다니면서 로봇에 부착되어 있는 센서만으로 외부의 도움 없이 환경에 대한 지도를 생성하는 기술인 SLAM(Simultaneous Localization And Map-Building)이 제안되고 있으며, 이중에서 지형 및 지물에 대한 영상촬영을 통하여 이를 분석하여 위치정보를 파악하는 기술들이 제안되고 있다.Accordingly, various methods have been proposed, and one of them is proposed by SLAM (Simultaneous Localization And Map-Building), a technology that generates a map of the environment without the help of the outside by using a sensor attached to the robot as the robot moves around the unknown environment. Among them, techniques for grasping location information by analyzing them through image photographing of terrain and features have been proposed.

이와 같은 SLAM기술을 적용한 대표적인 기술로는 대한민국 공개특허 제10-2016-0003731호(SLAM 맵들로부터의 광역 위치인식, 2016년 01월 11일 공개)가 제안되고 있으며, SLAM(simultaneous localization and mapping) 맵들로부터 광역 위치인식을 수행하기 위한 예시적인 방법들, 장치들, 및 시스템들이 개시된다. 모바일 디바이스는 하나 이상의 수신된 이미지들을 이용하여 로컬 환경의 제 1키프레임 기반 SLAM 맵을 선택할 수 있다. 로컬 환경 내에 있는 모바일 디바이스의 개별적인 위치인식이 결정될 수 있고, 개별적인 위치인식은 키프레임 기반 SLAM 맵에 기초할 수 있다. 모바일 디바이스는 제 1 키프레임을 서버로 전송하고 모바일 디바이스 상의 로컬 맵에 대한 정정을 나타내는 제 1 글로벌 위치인식 응답을 수신할 수 있다. 제 1 글로벌 위치인식 응답은 회전, 병진이동, 및 스케일 정보를 포함할 수 있다. 서버는 모바일 디바이스로부터 키프레임들을 수신하고, 모바일 디바이스로부터 수신된 키프레임 특징부들을 서버 맵 특징부에 매칭시킴으로써 서버 맵 내의 키프레임들을 위치인식할 수 있는 기술을 제안하고 있다.As a representative technology applying the SLAM technology, Korean Patent Publication No. 10-2016-0003731 (Wide Location Recognition from SLAM Maps, published on January 11, 2016) is proposed, and SLAM (simultaneous localization and mapping) maps are proposed. DETAILED DESCRIPTION Exemplary methods, apparatuses, and systems for performing wide area localization are disclosed. The mobile device may select the first keyframe based SLAM map of the local environment using the one or more received images. Individual location of the mobile device within the local environment can be determined, and the individual location can be based on a keyframe based SLAM map. The mobile device may send the first keyframe to the server and receive a first global location response indicating a correction to the local map on the mobile device. The first global positioning response may include rotation, translation, and scale information. The server proposes a technique that can receive keyframes from the mobile device and locate keyframes in the server map by matching the keyframe features received from the mobile device to the server map feature.

또한, 대한민국 공개특허 제10-2013-0134986호(사용자로부터 환경에 대한 사진 입력을 받는 이동로봇의 SLAM시스템 및 방법, 2013년 12월 10일 공개)는 사용자로부터 환경에 대한 사진 입력을 받는 이동로봇의 SLAM 시스템으로서, 사용자로부터 환경에 대한 정보나 명령을 입력받아 이동로봇으로 전송하는 사용자 단말기; 및In addition, the Republic of Korea Patent Publication No. 10-2013-0134986 (SLAM system and method of the mobile robot to receive a picture input for the environment from the user, published December 10, 2013) is a mobile robot that receives a picture input for the environment from the user SLAM system of claim 1, comprising: a user terminal for receiving information or commands about the environment from a user and transmitting the information to a mobile robot; And

상기 사용자 단말기로부터 전송된 정보와 명령, 데이터 획득 장치로부터 획득한 주변 환경 정보 및 이동정보를 파악하여, 지도 작성을 수행하는 이동로봇을 포함하는 것을 특징으로 하는 이동로봇의 SLAM 시스템을 제공하고, 이동로봇에 장착되어 주변 환경에 대한 정보를 획득하거나, 이동로봇의 이동을 측정하는 수단인 데이터 획득 장치; 상기 데이터 획득 장치와 상기 사용자 단말기로부터 전송된 정보를 이용하여 실시간 지도작성, 작성된 지도의 관리 및 수정, 작성된 지도를 바탕으로 이동로봇의 위치를 파악하고 경로를 결정하는 기능을 수행하는 제2 처리장치; 및 상기 제2 처리장치에서 처리된 정보를 기반으로 이동로봇의 주행을 제어하는 기술을 제공하고 있다.It provides a SLAM system of a mobile robot, characterized in that it comprises a mobile robot for performing map making by grasping information and commands transmitted from the user terminal, surrounding environment information and mobile information obtained from a data acquisition device. A data acquisition device mounted to the robot, the data acquisition device being a means for acquiring information about the surrounding environment or for measuring movement of the mobile robot; A second processing device performing a function of determining a location of a mobile robot and determining a path based on a real-time mapping, managing and modifying a created map, and using the information transmitted from the data acquisition device and the user terminal; ; And it provides a technology for controlling the running of the mobile robot based on the information processed in the second processing device.

그러나, 앞선 선행기술들의 경우 영상 정보만을 SLAM하여 이를 기반으로 적용하기 때문에, 외부 환경 변화에 취약하여 외부환경이 변화될 경우 이를 적용할 수 없어 서비스를 제공하는데 한계가 발생하게 된다.However, in the case of the prior art, only the image information is SLAM and applied based on this, and thus, it is vulnerable to changes in the external environment, so that the external environment is not applicable and thus there is a limit in providing a service.

대한민국 공개특허 제10-2013-0023433호(SLAM기술 기반 이동 로봇의 지도를 관리하기 위한 장치 및 그 방법, 2013년 03월 08일 공개)Republic of Korea Patent Publication No. 10-2013-0023433 (apparatus and method for managing the map of the mobile robot based on SLAM technology, published March 08, 2013) 대한민국 공개특허 제10-2013-0134986호(사용자로부터 환경에 대한 사진 입력을 받는 이동로봇의 SLAM시스템 및 방법, 2013년 12월 10일 공개)Republic of Korea Patent Application Publication No. 10-2013-0134986 (SLAM system and method of a mobile robot receiving a picture of the environment from the user, published December 10, 2013) 대한민국 공개특허 제10-2014-0003987호(비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 SLAM시스템, 2014년 01월 10일 공개)Republic of Korea Patent Publication No. 10-2014-0003987 (SLAM system for mobile robots fusion of vision sensor information and motion sensor information, published January 10, 2014) 대한민국 공개특허 제10-2016-0003731호(SLAM 맵들로부터의 광역 위치인식, 2016년 01월 11일 공개)Republic of Korea Patent Publication No. 10-2016-0003731 (wide area recognition from SLAM maps, published January 11, 2016)

본 발명은 상기와 같은 SLAM 기술의 단점을 보완하기 위해, 딥러닝을 이용하여 위치정보를 제공하여, 보다 정밀하며, 외부환경 변화에 적응할 수 있도록 하는 위치정보 시스템 및 그 정보제공 방법을 제공하는 것을 목적으로 한다.The present invention provides a location information system and a method for providing the information to provide a location information by using deep learning, more precise, and to adapt to changes in the external environment, in order to compensate for the shortcomings of the SLAM technology as described above. The purpose.

본 발명의 과제를 해결하기 위한 딥러닝을 이용한 위치정보 시스템에 있어서, 외부에서 입력되는 영상을 가공 및 처리한 후 가상지도를 생성하는 영상처리유니트(11)와 로컬서버(20) 및 단말기(30)와 통신을 수행하는 통신유니트(12) 및 데이터를 저장하는 데이터저장유니트(13)로 구성되는 메인서버(10);와 상기 메인서버(10)에 연결되어 지역별로 입력되는 정보를 메인서버(10)에 전송해주고, 지역별 정보를 분산저장하는 로컬서버(20); 및 단말기(30)로 구성되는 것을 특징으로 하는 딥러닝을 이용한 위치정보 시스템을 제공하게 된다.In the location information system using deep learning to solve the problems of the present invention, the image processing unit 11 and the local server 20 and the terminal 30 to generate a virtual map after processing and processing the image input from the outside Main server 10 comprising a communication unit 12 for communicating with the data storage unit 13 and a data storage unit 13 for storing data; and the main server 10 connected to the main server 10 for inputting information for each region. 10) local server 20 for transmitting and storing the regional information; And a terminal 30 to provide a location information system using deep learning.

이때, 상기 영상처리유니트(11)는 단말기(30) 또는 외부영상기기를 통하여 입력되는 원시영상의 키프레임을 추출하는 키프레임추출부(111)와, 상기 키프레임추출부(111)에서 키프레임이 추출된 영상을 SLAM처리하는 SLAM처리부(112)와, SLAM처리부(112)에서 SLAM처리된 영상을 가상의 메인프레임 상에 딥러닝하여 배치하는 데이터가공부(113),와 데이터가공부(113)에서 가공된 데이터와 외부정보를 매칭하여 왜곡된 정보를 수정하는 데이터수정부(114),와 데이터수정부(114)에서 수정된 정보를 기준으로 랜드마크를 추출하는 랜드마크추출부(115) 및 랜드마크추출부(115)에서 추출된 랜드마크를 적용하여 가상지도를 생성하는 가상지도생성부(116)로 구성되며, 상기 데이터가공부(113)은 SLAM처리된 영상을 가상의 메인프레임 상에 배치하되, 연속 촬영된 영상을 시간대별로 SLAM처리한 후 이를 가상의 메임프레임상에 시간대별로 배치하여 중첩된 부분을 파악하게 되고, 이러한 작업을 반복시행하는 딥러닝을 통하여 구심점을 찾게 된다.In this case, the image processing unit 11 includes a key frame extracting unit 111 for extracting a key frame of the raw image input through the terminal 30 or an external video device, and a key frame in the key frame extracting unit 111. The SLAM processing unit 112 for SLAM processing the extracted image, the data processing unit 113 for deeply arranging the SLAM processed image on the virtual main frame by the SLAM processing unit 112, and the data processing unit 113. A data extractor 114 for correcting distorted information by matching the processed data with external information, and a landmark extractor 115 extracting a landmark based on the information corrected by the data corrector 114. And a virtual map generator 116 for generating a virtual map by applying the landmark extracted from the landmark extractor 115, and the data processor 113 displays the SLAM-processed image on the virtual mainframe. At the time of day After SLAM processing, this is arranged on the virtual mainframe by time slot to identify the overlapped parts, and the center point is found through deep learning that repeats these tasks.

또한, 상기 로컬서버(20)는 해당지역에 위치하는 단말기를 통하여 입력되는 원시영상을 저장하고, 가공된 영상을 비교분석하기 위해 업로딩하는 영상저장유니트(21)와 메인서버(10)와 단말기(30)와의 통신을 수행하는 통신유니트(22), 데이터를 저장하는 데이터저장유니트(23) 및 단말기(30)와 메인서버(10)에 정보를 제공하기 위한 정보제공유니트(24)로 구성되며, 상기 영상저장유니트(21)는 단말기 또는 별도의 촬영장비로부터 입력되는 원시영상을 입력받아 저장하기 위한 영상입력부(211)와 가공되어 저장된 백업데이터와 입력된 원시영상 정보를 비교하여 해당지역의 가공영상을 업로딩하기 위한 가공영상업로딩부(212)로 구성되는 것을 특징으로 하는 딥러닝을 이용한 위치정보 시스템을 제공하게 된다.In addition, the local server 20 stores a raw image input through a terminal located in a corresponding region, and uploads an image storage unit 21, a main server 10, and a terminal (uploading) to compare and analyze the processed image. And a communication unit 22 for communicating with the device 30, a data storage unit 23 for storing data, and an information sharing unit 24 for providing information to the terminal 30 and the main server 10. The image storage unit 21 compares the processed image and the stored backup data and the inputted raw image information by receiving the image input unit 211 for receiving and storing the raw image input from the terminal or a separate photographing equipment processed image of the region To provide a location information system using a deep learning, characterized in that consisting of a processed image uploading unit 212 for uploading.

본 발명의 과제를 해결하기 위한 또다른 수단인 딥러닝을 이용한 위치정보 제공방법에 있어서, 사용자 또는 관리자의 단말기로부터 영상을 획득하는 영상정보 획득단계(S10); 상기와 같이 획득된 영상정보에서 시간대별 키프레임을 추출하는 키프레임 추출단계(S20); 상기 키프레임별 영상정보를 SLAM 처리하여 시간순으로 저장하는 SLAM 단계(S30); 키프레임별 SLAM 처리 후 저장된 정보를 딥러닝하여 가상의 메인프레임 상에 배치하는 데이터 가공단계(S40); 딥러닝을 통하여 획득된 가공 데이터와 외부정보를 매칭하여 왜곡된 정보를 수정하는 가공영상정보 수정단계(S50); 수정된 정보를 기준으로 하여 랜드마크를 추출하는 랜드마크 추출단계(S60); 추출된 랜드마크 정보를 적용하여 가상지도를 생성하는 가상지도 생성단계(S70); 및 가상지도를 이용하여 위치정보를 제공하는 위치정보 제공단계(S80)로 구성되는 것을 특징으로 하는 딥러닝을 이용한 위치정보 제공방법을 제공하게 된다.According to another aspect of the present invention, there is provided a method for providing location information using deep learning, the method comprising: image information obtaining step (S10) of acquiring an image from a terminal of a user or a manager; A keyframe extraction step (S20) of extracting keyframes for each time zone from the obtained image information; A SLAM step of SLAM processing the image information for each keyframe and storing the information in chronological order (S30); A data processing step (S40) of deep-learning the stored information after the SLAM processing for each keyframe and placing it on the virtual mainframe (S40); Processing image information correction step (S50) of correcting the distorted information by matching the processing data and external information obtained through deep learning; A landmark extraction step (S60) of extracting a landmark based on the modified information; Generating a virtual map by applying the extracted landmark information (S70); And location information providing step (S80) of providing location information using a virtual map.

이때, 상기 데이터 가공단계(S40)는 SLAM처리된 정보를 가상의 메인프레임상에 시간대별로 획득된 정보를 배치하여 중첩된 부분을 파악하게 되고, 이러한 작업을 반복시행하는 딥러닝을 통하여 구심점을 찾는 것을 특징으로 하고, 상기 가공영상정보 수정단계(S50)는 전단계(S40)에서 가상의 메인프레임상에 배치되고 딥러닝을 통하여 획득된 구심점의 정보와, 외부정보와의 매칭을 통하여 정확한 위치정보를 획득하되, 획득된 대상물의 구심점과 외부정보인 지도, 항공사진 및 지적도의 정보를 통하여 획득되는 대상물의 GPS 정보 또는 위치정보와의 매칭을 통하여 영상촬영시 발생할 수 있는 왜곡된 정보를 수정하는 것을 특징으로 하는 딥러닝을 이용한 위치정보 제공방법을 제공함으로써 본 발명의 과제를 보다 잘 해결할 수 있도록 한다.At this time, the data processing step (S40) is to locate the overlapped by placing the information obtained for each time zone on the virtual mainframe to the SLAM-processed information, and find the center point through the deep learning to repeat this operation The process of correcting the processed image information (S50) is performed on the virtual mainframe in the previous step (S40) and the accurate position information through matching of the centripetal point obtained through deep learning and external information. Acquire, but corrects the distorted information that may occur when shooting the image by matching the GPS information or location information of the object obtained through the center of gravity and the external information of the map, aerial photographs and cadastral information obtained By providing a location information providing method using deep learning to solve the problem of the present invention better.

본 발명의 딥러닝을 이용한 위치정보 시스템 및 그 제공방법을 제공함으로써, 외부 환경변화에 영향을 적게 받아 신뢰성이 높은 위치정보를 제공할 수 있는 효과가 있다.By providing a location information system and a method of providing the same using the deep learning of the present invention, there is an effect that can provide highly reliable location information by being less affected by external environmental changes.

도 1은 본 발명 딥러닝을 이용한 위치정보 시스템의 구성도이다.
도 2는 본 발명에 따른 메인서버(10)의 구성도이다.
도 3은 본 발명에 따른 로컬서버(20)의 구성도이다.
도 4는 본 발명에 따른 딥러닝을 이용한 위치정보 제공방법의 순서도이다.
1 is a block diagram of a location information system using the present deep learning.
2 is a block diagram of the main server 10 according to the present invention.
3 is a block diagram of a local server 20 according to the present invention.
4 is a flowchart illustrating a method of providing location information using deep learning according to the present invention.

이하에서 당업자가 본 발명의 딥러닝을 이용한 위치정보 시스템 및 그 제공방법을 용이하게 실시할 수 있도록 이하에서 도면을 참조하여 상세하게 설명하도록 한다.Hereinafter, a person skilled in the art will be described in detail with reference to the accompanying drawings so that the position information system using the deep learning of the present invention and a method of providing the same can be easily implemented.

도 1은 본 발명 딥러닝을 이용한 위치정보 시스템의 구성도이고, 도 2는 본 발명에 따른 메인서버(10)의 구성도이며, 도 3은 본 발명에 따른 로컬서버(20)의 구성도이다. 1 is a configuration diagram of a location information system using the deep learning of the present invention, FIG. 2 is a configuration diagram of a main server 10 according to the present invention, and FIG. 3 is a configuration diagram of a local server 20 according to the present invention. .

도 1 내지 도 3을 참조하여 상세하게 설명하면, 본 발명의 딥러닝을 이용한 위치정보 시스템은 메인서버(10)와 상기 메인서버(10)에 연결되어 지역별로 입력되는 정보를 메인서버(10)에 전송해주고, 지역별 정보를 분산저장하는 로컬서버(20) 및 단말기(30)로 구성된다.1 to 3, the location information system using the deep learning of the present invention is connected to the main server 10 and the main server 10, the main server 10 is input information for each region; It is composed of a local server 20 and the terminal 30 to transmit to, and to store the regional information distributed.

상기 메인서버(10)는 외부에서 입력되는 영상을 가공 및 처리한 후 가상지도를 생성하는 영상처리유니트(11)와 로컬서버(20) 및 단말기(30)와 통신을 수행하는 통신유니트(12) 및 데이터를 저장하는 데이터저장유니트(13)로 구성된다.The main server 10 is an image processing unit 11 for processing and processing the image input from the outside, and generates a virtual map and the communication unit 12 for communicating with the local server 20 and the terminal 30 And a data storage unit 13 for storing data.

여기서, 상기 영상처리유니트(11)는 단말기(30) 또는 외부영상기기를 통하여 입력되는 원시영상의 키프레임을 추출하는 키프레임추출부(111)와 상기 키프레임추출부(111)에서 키프레임이 추출된 영상을 SLAM처리하는 SLAM처리부(112)와 SLAM처리부(112)에서 SLAM처리된 영상을 가상의 메인프레임 상에 딥러닝하여 배치하는 데이터가공부(113)와 데이터가공부(113)에서 가공된 데이터와 외부정보를 매칭하여 왜곡된 정보를 수정하는 데이터수정부(114)와 데이터수정부(114)에서 수정된 정보를 기준으로 랜드마크를 추출하는 랜드마크추출부(115) 및 랜드마크추출부(115)에서 추출된 랜드마크를 적용하여 가상지도를 생성하는 가상지도생성부(116)로 구성된다.Here, the image processing unit 11 has a key frame extracting unit 111 for extracting a key frame of the raw image input through the terminal 30 or an external video device and a key frame in the key frame extracting unit 111. The SLAM processor 112 and the SLAM processor 112 for SLAM processing the extracted image are processed by the data processing unit 113 and the data processing unit 113 to deeply arrange the SLAM processed image on a virtual mainframe. A landmark extractor 115 and a landmark extractor for extracting a landmark based on the information corrected by the data correction unit 114 and the data correction unit 114 to correct the distorted information by matching the corrected data with external information The virtual map generator 116 generates a virtual map by applying the landmark extracted by the unit 115.

상기 키프레임추출부(111)는 입력된 원시영상의 영상정보에서 키프레임을 추출하는 것으로, 연속적으로 촬영된 영상에서 시간대별 키프레임을 추출하여 단말기의 위치가 변동될 경우 이를 보정하기 위한 것이다.The key frame extracting unit 111 extracts a key frame from the image information of the inputted raw image. The key frame extracting unit 111 extracts a key frame for each time zone from a continuously captured image and corrects the position of the terminal.

이는 SLAM처리, 딥러닝을 통한 데이터가공, 외부정보와의 매칭을 통한 데이터수정, 랜드마크 추출 등의 후반 작업시 연속된 영상의 가공 및 처리에 따른 오차 등을 줄이기 위하여 키프레임을 추출하고 이를 기반으로 하여 후반 작업을 진행하기 위한 것이다.It extracts keyframes in order to reduce errors due to processing and processing of continuous images during post-production such as SLAM processing, data processing through deep learning, data modification through matching with external information, and landmark extraction. This is to proceed with the post-production.

상기 SLAM처리부(112)는 키프레임추출부(111)에서 추출된 키프레임을 기반으로 하여 입력된 영상정보를 SLAM처리 하는 것이다.The SLAM processing unit 112 performs SLAM processing on the input image information based on the key frame extracted by the key frame extracting unit 111.

여기서 SLAM(Simultaneous Localization And Map-Building)은 인식된 영상을 2진화 또는 코드화 하여 지형 또는 지물을 인식하는 기술로 이에 대한 상세한 설명은 공지기술로서 생략하도록 한다. Here, SLAM (Simultaneous Localization And Map-Building) is a technology for recognizing a terrain or a feature by binarizing or encoding a recognized image, and a detailed description thereof will be omitted.

상기 데이터가공부(113)은 SLAM처리된 영상을 가상의 메인프레임 상에 배치하는 것으로, 보다 구체적으로 설명하면, 연속 촬영된 영상을 시간대별로 SLAM처리한 후 이를 가상의 메임프레임상에 시간대별로 배치하여 중첩된 부분을 파악하게 되고, 이러한 작업을 반복시행하는 딥러닝을 통하여 구심점을 찾게 된다.The data processing unit 113 arranges the SLAM-processed image on the virtual mainframe. More specifically, the data processing unit 113 performs the SLAM processing on the consecutive photographed images for each time slot and then arranges it on the virtual mainframe according to the time slot. By finding the overlapping parts, deep learning that repeats these tasks is found.

이는, 연속촬영된 영상일 경우 각각의 프레임별 촬영위치가 다르거나, 대상물의 부피가 존재할 경우 영상 촬영위치에 따른 왜곡현상이 발생할 수 있기 때문에 이를 보정하는 것이다.This is to compensate for this, because in the case of continuous shooting images, the shooting position of each frame is different, or if there is a volume of an object, distortion may occur according to the shooting position of the image.

상기 데이터수정부(114)는 데이터가공부(113)를 통하여 가상의 메인프레임 상에 배치되고 딥러닝을 통하여 획득된 구심점의 정보와, 외부정보와의 매칭을 통하여 대상물인 지형 또는 지물의 정확한 위치정보를 파악하게 된다.The data correction unit 114 is disposed on the virtual mainframe through the data processing unit 113 and the exact position of the terrain or feature as an object by matching the center information with the external information obtained through deep learning. To grasp the information.

이때, 상기 외부정보는 지도, 항공사진 및 지적도 등의 정보를 통하여 획득되는 대상물의 GPS정보 또는 위치정보 중 하나의 정보가 이용된다.At this time, the external information is one of the GPS information or the location information of the object obtained through the information such as map, aerial photographs and cadastral map.

상기 랜드마크추출부(115)는 데이터수정부(114)를 통하여 수정된 정보를 기준으로 하여 랜드마크를 추출하는 것으로, 보다 구체적으로는 시간적인 변화에 따라 그 형상 및 위치 등이 변할 수 있는 요소를 제거하고, 위치 변동이나 형상의 변형이 비교적 적은 건물 등을 추출하여 이를 랜드마크로 적용하게 된다.The landmark extractor 115 extracts a landmark based on information corrected through the data correction unit 114, and more specifically, an element whose shape and position may change according to a temporal change. And remove the building with relatively little position variation or shape deformation and apply it as a landmark.

상기 가상지도생성부(116)는 랜드마크추출부(115)를 통하여 추출된 랜드마크를 지도에 배치하여 가상지도를 생성하게 된다.The virtual map generator 116 generates a virtual map by placing a landmark extracted through the landmark extractor 115 on a map.

상기 통신유니트(12)는 각 지역별로 구비되는 로컬서버(20) 및 서비스 이용을 위한 단말기(30)와의 통신을 수행하게 되는 것이다.The communication unit 12 is to communicate with the local server 20 provided for each region and the terminal 30 for using the service.

이때, 통신방법으로는 외부 인터넷망을 이용하거나, 별도의 전용 내부전산망 등을 이용하게 된다.At this time, the communication method is to use an external Internet network or a separate dedicated internal computer network.

상기 데이터저장유니트(13)는 단말기(30) 등으로부터 입력된 원시영상을 임시로 저장하고, 입력된 원시영상을 가공한 시간대별 SLAM영상 및 후작업을 통하여 가공된 영상을 임시로 저장하게 된다.The data storage unit 13 temporarily stores the raw image input from the terminal 30 and the like, and temporarily stores the processed image through the time-based SLAM image and post-processing of the processed raw image.

이때, 작업 및 서비스가 완료된 데이터의 경우 해당 지역에 구비되는 로컬서버(20)로 이송되어 각각의 로컬서버(20)에 데이터를 저장하여 메인서버(10)에 발생할 수 있는 부하를 감소시켜주게 된다.At this time, in the case of the data completed work and service is transferred to the local server 20 provided in the area to save the data in each local server 20 to reduce the load that may occur in the main server 10 .

여기서, 사용자가 단말기(30)를 통하여 서비스를 요청할 경우 해당 지역의 백업데이터가 있는 경우 이를 호출하여 메인서버(10)의 데이터저장유니트(13)에 탑재하여 저장한 후 서비스를 실시하게 된다.Here, when the user requests the service through the terminal 30, if there is backup data of the corresponding area, it is called and mounted on the data storage unit 13 of the main server 10 to store the service.

상기 로컬서버(20)는 해당지역에 위치하는 단말기를 통하여 입력되는 원시영상을 저장하고, 가공된 영상을 비교분석하기 위해 업로딩하는 영상저장유니트(21)와 메인서버(10)와 단말기(30)와의 통신을 수행하는 통신유니트(22), 데이터를 저장하는 데이터저장유니트(23) 및 단말기(30)와 메인서버(10)에 정보를 제공하기 위한 정보제공유니트(24)로 구성된다.The local server 20 stores an original image input through a terminal located in a corresponding region, and uploads an image storage unit 21, a main server 10, and a terminal 30 to upload and analyze the processed image. Communication unit 22 for communicating with the data, a data storage unit 23 for storing data, and an information sharing unit 24 for providing information to the terminal 30 and the main server 10.

이때, 상기 영상저장유니트(21)는 단말기 또는 별도의 촬영장비로부터 입력되는 원시영상을 입렵받아 저장하기 위한 영상입력부(211)와 가공되어 저장된 백업데이터와 입력된 원시영상 정보를 비교하여 해당지역의 가공영상을 업로딩하기 위한 가공영상업로딩부(212)로 구성된다.At this time, the image storage unit 21 compares the backup data and the inputted raw image information processed by the image input unit 211 for receiving and storing the raw image input from the terminal or a separate photographing equipment, It is composed of a processed image uploading unit 212 for uploading a processed image.

이는 사용자가 단말기(30)를 통하여 해당지역의 원시영상을 입력하고 서비스를 요청할 경우 입력된 원시영상과 해당지역의 가공된 영상을 비교하여, 가공된 영상이 백업데이터로 저장되어 있을 경우, 이를 업로딩하여 서비스를 제공하기 위한 것이다.When the user inputs the raw image of the region through the terminal 30 and requests a service, the input image is compared with the processed image of the region and uploaded if the processed image is stored as backup data. To provide services.

상기 단말기(30)의 경우 관리자 또는 사용자가 보유하고 있는 촬영기능이 가능한 통신용 수단이면 무엇이든 가능하다.In the case of the terminal 30, any means for communication capable of a photographing function possessed by an administrator or a user is possible.

이와 같은 단말기(30)는 외부 전산망인 인터넷 등을 통하여 메인서버(10) 또는 로컬서버(20)와 통신 수행이 가능하여, 서비스 제공을 위한 별도의 APP 또는 관리프로그램 등을 다운받아 설치하여 사용할 수 있으나, 이를 한정하는 것은 아니다.The terminal 30 can communicate with the main server 10 or the local server 20 through the Internet, which is an external computer network, and can download and install a separate APP or a management program for providing a service. However, this is not limitative.

상기와 같은 구성에 의해 본 발명의 딥러닝을 이용한 위치정보 시스템을 완성할 수 있는 것이다.With the above configuration, the position information system using the deep learning of the present invention can be completed.

본 발명에 따른 또다른 발명인 딥러닝을 이용한 위치정보 제공방법의 순서도인 도 4를 참조하여 이하에서 상세하게 설명하도록 한다.Another invention according to the present invention will be described in detail below with reference to FIG. 4, which is a flowchart of a method for providing location information using deep learning.

도 4를 참조하여 상세하게 설명하면, 본 발명에 따른 딥러닝을 이용한 위치정보 제공방법은 사용자 또는 관리자의 단말기로부터 영상을 획득하는 영상정보 획득단계(S10)와 상기와 같이 획득된 영상정보에서 시간대별 키프레임을 추출하는 키프레임 추출단계(S20)와 상기 키프레임별 영상정보를 SLAM 처리하여 시간순으로 저장하는 SLAM 단계(S30)와 키프레임별 SLAM 처리 후 저장된 정보를 딥러닝하여 가상의 메인프레임 상에 배치하는 데이터 가공단계(S40)와 딥러닝을 통하여 획득된 가공 데이터와 외부정보를 매칭하여 왜곡된 정보를 수정하는 가공영상정보 수정단계(S50), 수정된 정보를 기준으로 하여 랜드마크를 추출하는 랜드마크 추출단계(S60), 추출된 랜드마크 정보를 적용하여 가상지도를 생성하는 가상지도 생성단계(S70) 및 가상지도를 이용하여 위치정보를 제공하는 위치정보 제공단계(S80)로 구성된다.Referring to FIG. 4 in detail, the method for providing location information using deep learning according to the present invention includes an image information acquiring step (S10) of acquiring an image from a terminal of a user or a manager and time in the image information obtained as described above. Key frame extraction step (S20) for extracting keyframes per unit and SLAM step (S30) for storing chronological order by storing the image information for each keyframe (S30) and virtual mainframe by deep learning stored information after SLAM processing for each keyframe The processed image information correction step (S50) of matching the processed data obtained through deep learning with external data and correcting the distorted information by placing the data processing step (S40) disposed on the image, and landmarks based on the modified information. A landmark extraction step (S60) for extracting, a virtual map generation step (S70) for generating a virtual map by applying the extracted landmark information, and a location using the virtual map It is composed of a location information providing step of providing information (S80).

여기서 상기 영상정보 획득단계(S10)는 사용자 또는 관리자의 단말기로 촬영된 영상 또는 별도의 촬영장비를 통하여 현장에서 이동하며 촬영된 영상을 말하는 것이다.Here, the image information acquisition step (S10) refers to the image taken while moving in the field through the image taken by the terminal of the user or administrator or a separate recording equipment.

이와 같이 획득된 영상을 지역별로 위치한 로컬서버(20)로 입력받게 되는데, 단말기에 설치된 APP 또는 개방형 관리프로그램에 접속하여 전송할 수 있도록 한다.In this way, the obtained image is input to the local server 20 located in each region, and can be transmitted by accessing an APP or an open management program installed in the terminal.

이는 관리자가 서비스를 제공하기 위해 전지역의 정보를 획득하기 어려운 문제가 발생할 수 있기 때문에 서비스 제공을 원하는 사용자가 원하는 지역의 영상정보를 획득하여 전송한 후 서비스를 요청할 수 있도록 하기 위한 것이다.This is because it is difficult for an administrator to obtain information of all regions in order to provide a service, so that a user who wants to provide a service can request a service after obtaining and transmitting image information of a desired region.

상기 획득된 영상정보에서 시간대별 키프레임을 추출하는 키프레임 추출단계(S20)는 단말기를 통하여 연속적으로 영상이 촬영될 경우 단말기의 위치가 변동되면 키프레임이 변동될 수 있기 때문에 시간대별로 키프레임을 추출하게 된다.In the keyframe extraction step (S20) of extracting keyframes according to time slots from the obtained image information, keyframes are extracted according to time slots when the position of the terminal is changed when images are continuously photographed through the terminal. Done.

여기서, 시간대별 키프레임을 추출하는 방법으로는 사용자가 기설정한 시간 간격으로 적용하거나, 영상을 획득하는 단말기의 GPS 정보, 기지국과의 거리 또는 영상속에 특정대상물의 크기 변화 등을 이용한 삼각측정법 등이 적용될 수 있다.Here, a method of extracting keyframes for each time zone is applied at a predetermined time interval by the user, or triangulation method using GPS information of a terminal acquiring an image, a distance from a base station, or a change in the size of a specific object in the image. This can be applied.

예를 들어, 단말기의 GPS 정보를 이용할 경우, 동영상의 촬영시 영상과 함께 기록되는 시간대별 GPS 위치정보를 이용하여 이동여부 및 이동방향 정보를 획득할 수 있고, 이를 통하여 단말기의 이동속도를 파악할 수 있으며, 이동속도에 따른 키프레임 획득 시간을 자동으로 설정하게 되는 것이다.For example, when using the GPS information of the terminal, it is possible to obtain the movement status and the direction of movement information by using the time zone GPS location information recorded with the video when shooting the video, through which the movement speed of the terminal can be determined. The keyframe acquisition time is automatically set according to the moving speed.

또한, 기지국과의 거리를 이용하는 경우에는 단말기의 주파수에 따라 기지국의 설치 위치가 정해지는데, 1개의 기지국과의 통신 후 인접한 타 기지국으로 통신이 이동될 경우 이를 통하여 방향 및 이동된 시간을 통하여 단말기의 이동방향 및 이동속도를 파악할 수 있는 것이다.In addition, when the distance from the base station is used, the installation location of the base station is determined according to the frequency of the terminal. When the communication is moved to another neighboring base station after communication with one base station, the terminal is moved through the direction and the time traveled through it. The direction and speed of movement can be grasped.

또한, 영상속의 특정대상물의 크기 및 형상의 변화와 영상촬영시간을 이용하여 이동여부를 파악하게 되며, 이동여부가 파악되면, 이동속도와 방향을 파악할 수 있는 것이다.In addition, by using a change in the size and shape of the specific object in the image and the image recording time to determine whether the movement, if the movement is determined, it is possible to determine the movement speed and direction.

보다 구체적으로 설명하면, 예를 들어, 길가에 설치되는 전신주의 경우 설치간격이 정해져 있고, 1개의 전신주부터 인접한 또다른 전신주까지 이동하는 동안의 영상시간을 측정하여 단말기의 이동속도를 측정하거나, 전신주의 높이 변화에 따른 삼각측정법을 통하여 영상시간 등을 이용하여 거리변화를 측정하는 것이다.More specifically, for example, in the case of telegraph poles installed on the roadside, the installation interval is determined, and the moving speed of the terminal is measured by measuring the image time during the movement from one telegraph pole to another adjacent pole, The distance change is measured by using the image time and the like through the triangulation method according to the change in the height.

상기 키프레임별 영상정보를 SLAM 처리하여 시간순으로 저장하는 SLAM단계(S30)는 시간대별 키프레임을 추출한 후 각각의 시간대별 영상정보를 SLAM처리하고, 처리된 정보를 시간순으로 각각 저장하게 되는 것이다.The SLAM step (S30) of SLAM processing the image information for each keyframe and storing them in chronological order is to extract keyframes for each time slot, and then SLAM process the respective image information for each time slot, and store the processed information in chronological order.

이때, 정보를 저장할 때, 각각의 정보에는 식별코드가 부여되는데, 장소와 시간에 대하여 식별코드로 부여된다.At this time, when storing the information, each piece of information is given an identification code, which is given as an identification code for the place and time.

예를 들어, "서울-강남-테헤란로-2018.01.01 12:00 23'"와 같은 방법으로 식별정보가 부여된다.For example, identification information is given in a manner such as "Seoul-Gangnam-Tehranro-2018.01.01 12:00 23 '".

상기 단계(S30) 다음으로 키프레임별 SLAM 처리 후 저장된 정보를 딥러닝하여 가상의 메인프레임 상에 배치하는 데이터 가공 단계(S40)는 연속된 영상정보를 SLAM처리하여 영상속 대상물들의 정확한 위치를 파악하기 위한 구심점을 찾는 것이다.After the step S30, the data processing step S40 of deep-learning and storing the stored information after the SLAM processing for each keyframe is performed on the virtual mainframe to determine the exact position of the objects in the image by SLAM processing the continuous image information. Finding a central point to do so.

보다 구체적으로 설명하면, SLAM처리된 정보를 가상의 메인프레임상에 시간대별로 획득된 정보를 배치하여 중첩된 부분을 파악하게 되고, 이러한 작업을 반복시행하는 딥러닝을 통하여 구심점을 찾게 되는 것이다.In more detail, the SLAM-processed information is arranged on the virtual mainframe to obtain information overlapped by time slots, and the overlapped portions are identified, and the center point is found through deep learning that repeats these operations.

이는 영상속의 대상물인 건물 및 지형 또는 지물이 부피를 갖게 될경우 영상 촬영위치에 따라 왜곡될 수 있기 때문이다.This is because buildings, terrain, or objects that are objects in the image may be distorted depending on the image photographing position when they have a volume.

상기 단계(S40) 후 딥러닝을 통하여 획득된 가공 데이터와 외부정보를 매칭하여 왜곡된 정보를 수정하는 가공영상정보 수정단계(S50)는 전단계(S40)에서 가상의 메인프레임상에 배치되고 딥러닝을 통하여 획득된 구심점의 정보와, 외부정보와의 매칭을 통하여 정확한 위치정보를 획득하는 것이다.After the step S40, the processed image information correcting step S50 of correcting the distorted information by matching the processed data obtained through deep learning with external information is disposed on the virtual mainframe in the previous step S40 and deep learning. Accurate location information is obtained by matching information of the centripetal point acquired through the external information.

보다 구체적으로 설명하면, 획득된 대상물의 구심점과 외부정보인 지도, 항공사진 및 지적도 등의 정보를 통하여 대상물의 GPS 정보 또는 위치정보와의 매칭을 통하여 영상촬영시 발생할 수 있는 왜곡된 정보를 수정하는 것이다.More specifically, through the matching of the GPS information or location information of the target through the acquired information, such as the center of gravity and external information such as maps, aerial photographs and cadastral maps to correct the distorted information that may occur when the image is taken will be.

상기 단계(S50)에서 수정된 정보를 기준으로 랜드마크를 추출하는 랜드마크 추출단계(S60)를 거치게 된다.A landmark extraction step S60 is performed to extract the landmark based on the information modified in the step S50.

보다 구체적으로 설명하면, 시간적인 변화에 따라 그 형상 및 위치 등이 변할 수 있는 요소를 제거하고, 위치 변동이나 형상의 변형이 비교적 적은 건물 등을 추출하여 이를 랜드마크로 적용하게 된다.In more detail, the elements whose shape and position may change according to time change are removed, and buildings with relatively little position variation or shape deformation are extracted and applied as landmarks.

이때, 시간별 영상에서 영상촬영의 위치에 상관없이 노출빈도가 높은 SLAM정보를 추출하고, 이를 외부정보인 지도, 항공사진 및 GPS와 같은 위치정보와 매칭한 후 이를 통하여 랜드마크로 설정하여 적용하는 것이다.At this time, the SLAM information with a high exposure frequency is extracted from the hourly image, regardless of the location of image capturing, and matched with location information such as maps, aerial photographs, and GPS, which are external information, and then set as landmarks.

또한, 랜드마크 설정과 함께, 우체통, 나무 등과 같은 지상 고정물과 자동차와 같은 이동물체와의 식별을 위한 구분 또한 랜드마크 설정과 동일하게 노출빈도의 차이를 통하여 파악하게 되며, 이를 다음단계인 가상지도에도 적용하게 된다.In addition to the landmark setting, the classification for the identification of ground fixtures such as post boxes and trees and moving objects such as cars is also identified through the difference in exposure frequency in the same way as the landmark setting. The same applies to.

상기 단계(S60) 후 추출된 랜드마크 정보를 적용하여 가상지도를 생성하는 가상지도 생성단계(S70)를 거치게 된다.After the step S60, the virtual map generation step S70 is performed to generate the virtual map by applying the extracted landmark information.

이는 가상의 2차원 또는 3차원의 지도에 설정된 랜드마크를 배치하여 가상지도를 생성하게 되는 것이다.This is to create a virtual map by placing a landmark set on the virtual two-dimensional or three-dimensional map.

이때, 가상지도의 랜드마크에는 키프레임별 영상정보를 SLAM 처리하여 시간순으로 저장하는 단계(S30)에서 처리된 영상에서 랜드마크 대상이 되는 대상물의 시간대별 SLAM 정보가 DATA로 저장되고 제공된다.In this case, in the landmark of the virtual map, the SLAM information of keyframes is stored and provided as DATA in the image processed in the step S30 of SLAM processing and storing the image information for each key frame in chronological order.

상기 단계(S70)에서 생성된 가상지도를 이용하여 위치정보를 제공하는 위치정보 제공단계(S80)는 사용자 또는 서비스를 제공받을 경우, 단말기 등을 통하여 해당지역의 영상이 입력되고, 입력된 영상을 실시간으로 SLAM처리한 후 랜드마크를 추출하며, 추출된 랜드마크에 대한 시간대별 SLAM정보가 저장된 DATA베이스와의 비교를 통하여 정확한 위치정보를 제공하게 되는 것이다.In the location information providing step (S80) of providing location information using the virtual map generated in step S70, when a user or a service is provided, an image of a corresponding region is input through a terminal, and the input image is input. After SLAM processing in real time, the landmark is extracted, and accurate location information is provided through comparison with the stored data base SLAM information for the extracted landmark.

여기서, 사용자에게 위치정보를 제공하는 정보 제공단계(S80)에서도 사용자의 단말기 등을 통하여 해당지역의 영상이 입력되고, 실시간으로 SLAM처리 한 후 랜트마크를 추출할 때, 다수의 SLAM 처리 정보를 딥러닝하여 정확도를 향상시킬 수 있도록 한다.Here, in the information providing step of providing the location information to the user (S80), the image of the corresponding region is input through the user's terminal, etc., and when the landmark is extracted after the SLAM processing in real time, a plurality of SLAM processing information is deep Run to improve accuracy.

보다 구체적으로 설명하면, 앞선 과정(S40)에서와 마찬가지로, 다수의 SLAM처리 정보를 하나의 프레임에 반복하여 중첩한 후 구심점을 찾은 후 랜드마크에 대한 확정 및 이를 통하여 앞선 단계들에서 제공되는 위치정보 및 이에 따른 가상지도와 같은 정보를 이용하게 되는 것이다.More specifically, as in the previous process (S40), after repeating overlapping a plurality of SLAM processing information in one frame to find the centripetal point and then confirm the landmark and position information provided in the preceding steps through this And information such as a virtual map.

이와 같은 위치정보를 통하여 시각장애인 또는 위치정보가 필요한 서비스에 적용할 수 있도록 하는 것이다.Through such location information is to be applied to a service for the blind or location information needs.

예를 들어, 시각장애인용 보조도구인 웨어러블비전의 경우 시각장애인이 원하는 지역의 길안내 또는 단순 이동시 보행에 방해가 되는 지형 또는 지상물의 위치 등을 안내하여 보행사고 등을 방지할 수 있도록 하는 것이다.For example, in the case of wearable vision, a visual aid for the visually impaired, the visually impaired may prevent walking accidents by guiding the location of a desired area or a location of a terrain or ground that hinders walking.

10 : 메인서버 11 : 영상처리유니트
12 : 통신유니트 13 : 데이터저장유니트
20 : 로컬서버 21 : 영상저장유니트
22 : 통신유니트 23 : 데이터저장유니트
24 : 정보제공유니트 30 : 단말기
111 : 키프레임추출부 112 : SLAM처리부
113 : 데이터가공부 114 : 데이터수정부
115 : 랜드마크추출부 116 : 가상지도생성부
211 : 영상입력부 212 : 가공영상업로딩부
10: main server 11: image processing unit
12: Communication unit 13: Data storage unit
20: Local server 21: Video storage unit
22: communication unit 23: data storage unit
24: Information Sharing Knit 30: Terminal
111: key frame extraction unit 112: SLAM processing unit
113: Department of Data Processing 114: Data Correction
115: landmark extraction unit 116: virtual map generation unit
211: video input unit 212: processed image uploading unit

Claims (8)

딥러닝을 이용한 위치정보 시스템에 있어서,
외부에서 입력되는 영상을 가공 및 처리한 후 가상지도를 생성하는 영상처리유니트(11)와 로컬서버(20) 및 단말기(30)와 통신을 수행하는 통신유니트(12) 및 데이터를 저장하는 데이터저장유니트(13)로 구성되는 메인서버(10);와
상기 메인서버(10)에 연결되어 지역별로 입력되는 정보를 메인서버(10)에 전송해주고, 지역별 정보를 분산저장하는 로컬서버(20); 및
단말기(30)로 구성되되, 영상처리유니트(11)는 단말기(30) 또는 외부영상기기를 통하여 입력되는 원시영상의 키프레임을 추출하는 키프레임추출부(111)와, 상기 키프레임추출부(111)에서 키프레임이 추출된 영상을 SLAM처리하는 SLAM처리부(112)와, SLAM처리부(112)에서 SLAM처리된 영상을 가상의 메인프레임 상에 딥러닝하여 배치하는 데이터가공부(113),와 데이터가공부(113)에서 가공된 데이터와 외부정보를 매칭하여 왜곡된 정보를 수정하는 데이터수정부(114),와 데이터수정부(114)에서 수정된 정보를 기준으로 랜드마크를 추출하는 랜드마크추출부(115) 및 랜드마크추출부(115)에서 추출된 랜드마크를 적용하여 가상지도를 생성하는 가상지도생성부(116)로 구성되는 것을 특징으로 하는 딥러닝을 이용한 위치정보 시스템.
In the location information system using deep learning,
After processing and processing the image input from the outside, the image processing unit 11 for generating a virtual map, the communication unit 12 for communicating with the local server 20 and the terminal 30 and data storage for storing data A main server 10 composed of units 13; and
A local server 20 connected to the main server 10 to transmit information input for each region to the main server 10 and to store and store information for each region; And
The image processing unit 11 is composed of a terminal 30, the key frame extraction unit 111 for extracting a key frame of the raw image input through the terminal 30 or an external video device, and the key frame extraction unit ( A SLAM processing unit 112 for SLAM processing the image extracted from the key frame at 111, a data processing unit 113 for deeply arranging the SLAM processing image at the virtual main frame and placing the SLAM processing at the SLAM processing unit 112; A landmark that extracts landmarks based on the data correction unit 114 for correcting the distorted information by matching the data processed by the data processing unit 113 with external information, and a landmark based on the information corrected by the data correction unit 114. Location information system using a deep learning, characterized in that consisting of the extraction unit 115 and the virtual map generation unit 116 for generating a virtual map by applying the landmark extracted from the landmark extraction unit (115).
삭제delete 제 1항에 있어서,
상기 데이터가공부(113)은 SLAM처리된 영상을 가상의 메인프레임 상에 배치하되, 연속 촬영된 영상을 시간대별로 SLAM처리한 후 이를 가상의 메임프레임상에 시간대별로 배치하여 중첩된 부분을 파악하게 되고, 이러한 작업을 반복시행하는 딥러닝을 통하여 구심점을 찾는 것을 특징으로 하는 딥러닝을 이용한 위치정보 시스템.
The method of claim 1,
The data processing unit 113 arranges the SLAM-processed image on the virtual mainframe, SLAM-processes the continuously photographed image by time zone, and then arranges it on the virtual mainframe by time zone to identify the overlapped portions. And, the location information system using deep learning, characterized in that to find the center point through the deep learning to repeat this operation.
제 1항에 있어서,
상기 로컬서버(20)는 해당지역에 위치하는 단말기를 통하여 입력되는 원시영상을 저장하고, 가공된 영상을 비교분석하기 위해 업로딩하는 영상저장유니트(21)와 메인서버(10)와 단말기(30)와의 통신을 수행하는 통신유니트(22), 데이터를 저장하는 데이터저장유니트(23) 및 단말기(30)와 메인서버(10)에 정보를 제공하기 위한 정보제공유니트(24)로 구성되는 것을 특징으로 하는 딥러닝을 이용한 위치정보 시스템.
The method of claim 1,
The local server 20 stores an original image input through a terminal located in a corresponding region, and uploads an image storage unit 21, a main server 10, and a terminal 30 to upload and analyze the processed image. Communication unit 22 for performing communication with, a data storage unit 23 for storing data, and an information sharing unit 24 for providing information to the terminal 30 and the main server 10. Location information system using deep learning.
제 4항에 있어서,
상기 영상저장유니트(21)는 단말기 또는 별도의 촬영장비로부터 입력되는 원시영상을 입력받아 저장하기 위한 영상입력부(211)와 가공되어 저장된 백업데이터와 입력된 원시영상 정보를 비교하여 해당지역의 가공영상을 업로딩하기 위한 가공영상업로딩부(212)로 구성되는 것을 특징으로 하는 딥러닝을 이용한 위치정보 시스템.
The method of claim 4, wherein
The image storage unit 21 compares the processed image and the stored backup data and the input raw image information by receiving the image input unit 211 for receiving and storing the raw image input from the terminal or a separate photographing equipment processed image of the region Position information system using deep learning, characterized in that consisting of the processed image uploading unit 212 for uploading.
딥러닝을 이용한 위치정보 제공방법에 있어서,
사용자 또는 관리자의 단말기로부터 영상을 획득하는 영상정보 획득단계(S10);
상기와 같이 획득된 영상정보에서 시간대별 키프레임을 추출하는 키프레임 추출단계(S20);
상기 키프레임별 영상정보를 SLAM 처리하여 시간순으로 저장하는 SLAM 단계(S30);
키프레임별 SLAM 처리 후 저장된 정보를 딥러닝하여 가상의 메인프레임 상에 배치하는 데이터 가공단계(S40);
딥러닝을 통하여 획득된 가공 데이터와 외부정보를 매칭하여 왜곡된 정보를 수정하는 가공영상정보 수정단계(S50);
수정된 정보를 기준으로 하여 랜드마크를 추출하는 랜드마크 추출단계(S60);
추출된 랜드마크 정보를 적용하여 가상지도를 생성하는 가상지도 생성단계(S70); 및
가상지도를 이용하여 위치정보를 제공하는 위치정보 제공단계(S80)로 구성되는 것을 특징으로 하는 딥러닝을 이용한 위치정보 제공방법.
In the method of providing location information using deep learning,
Image information obtaining step of obtaining an image from a terminal of a user or an administrator (S10);
A keyframe extraction step (S20) of extracting keyframes for each time zone from the obtained image information;
A SLAM step (S30) of SLAM processing the keyframe image information and storing the information in chronological order;
A data processing step (S40) of deep-learning the stored information after the SLAM processing for each keyframe and placing it on the virtual mainframe (S40);
Processing image information correction step of correcting the distorted information by matching the processing data and external information obtained through deep learning (S50);
A landmark extraction step (S60) of extracting a landmark based on the modified information;
Generating a virtual map by applying the extracted landmark information (S70); And
Location information providing method using deep learning comprising a location information providing step (S80) for providing location information using a virtual map.
제 6항에 있어서,
상기 데이터 가공단계(S40)는 SLAM처리된 정보를 가상의 메인프레임상에 시간대별로 획득된 정보를 배치하여 중첩된 부분을 파악하게 되고, 이러한 작업을 반복시행하는 딥러닝을 통하여 구심점을 찾는 것을 특징으로 하는 딥러닝을 이용한 위치정보 제공방법.
The method of claim 6,
In the data processing step (S40), the SLAM-processed information is arranged on the virtual mainframe to obtain information overlapped by time slots, and the overlapped portions are identified, and the center point is found through deep learning that repeats these operations. Location information providing method using deep learning.
제 7항에 있어서,
상기 가공영상정보 수정단계(S50)는 전단계(S40)에서 가상의 메인프레임상에 배치되고 딥러닝을 통하여 획득된 구심점의 정보와, 외부정보와의 매칭을 통하여 정확한 위치정보를 획득하되, 획득된 대상물의 구심점과 외부정보인 지도, 항공사진 및 지적도의 정보를 통하여 획득되는 대상물의 GPS 정보 또는 위치정보와의 매칭을 통하여 영상촬영시 발생할 수 있는 왜곡된 정보를 수정하는 것을 특징으로 하는 딥러닝을 이용한 위치정보 제공방법.
The method of claim 7, wherein
The process of correcting the processed image information (S50) is obtained on the virtual mainframe in the previous step (S40) to obtain accurate position information by matching the information of the centripetal point obtained through deep learning and external information, Deep learning is characterized by correcting the distorted information that may occur when shooting an image by matching the GPS information or location information of the object obtained through the center point of the object and the map, aerial photograph, and cadastral information. Location information providing method.
KR1020180118712A 2018-10-05 2018-10-05 A providing location information systme using deep-learning and method it KR102033075B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180118712A KR102033075B1 (en) 2018-10-05 2018-10-05 A providing location information systme using deep-learning and method it
PCT/KR2018/012092 WO2020071573A1 (en) 2018-10-05 2018-10-15 Location information system using deep learning and method for providing same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180118712A KR102033075B1 (en) 2018-10-05 2018-10-05 A providing location information systme using deep-learning and method it

Publications (1)

Publication Number Publication Date
KR102033075B1 true KR102033075B1 (en) 2019-10-16

Family

ID=68421306

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180118712A KR102033075B1 (en) 2018-10-05 2018-10-05 A providing location information systme using deep-learning and method it

Country Status (2)

Country Link
KR (1) KR102033075B1 (en)
WO (1) WO2020071573A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111044993A (en) * 2019-12-27 2020-04-21 歌尔股份有限公司 Laser sensor based slam map calibration method and device
KR102320628B1 (en) * 2021-01-08 2021-11-02 강승훈 System and method for precise positioning information based on machine learning
KR102400733B1 (en) * 2021-01-27 2022-05-23 김성중 Contents extension apparatus using image embedded code

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100787747B1 (en) * 2006-07-06 2007-12-24 주식회사 대우일렉트로닉스 Device and method for updating front road map image of car navigation terminal
KR20130023433A (en) 2011-08-29 2013-03-08 연세대학교 산학협력단 Apparatus for managing map of mobile robot based on slam and method thereof
KR20130134986A (en) 2012-05-30 2013-12-10 서울대학교산학협력단 Slam system and method for mobile robots with environment picture input from user
KR20140003987A (en) 2012-06-25 2014-01-10 서울대학교산학협력단 Slam system for mobile robot based on vision sensor data and motion sensor data fusion
KR20160003731A (en) 2013-04-30 2016-01-11 퀄컴 인코포레이티드 Wide area localization from slam maps
KR20180059188A (en) * 2016-11-25 2018-06-04 연세대학교 산학협력단 Method of Generating 3d-Background Map Except Dynamic Obstacles Using Deep Learning

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102014706B1 (en) * 2017-02-15 2019-08-27 한양대학교 산학협력단 Method for saving and loading of slam map

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100787747B1 (en) * 2006-07-06 2007-12-24 주식회사 대우일렉트로닉스 Device and method for updating front road map image of car navigation terminal
KR20130023433A (en) 2011-08-29 2013-03-08 연세대학교 산학협력단 Apparatus for managing map of mobile robot based on slam and method thereof
KR20130134986A (en) 2012-05-30 2013-12-10 서울대학교산학협력단 Slam system and method for mobile robots with environment picture input from user
KR20140003987A (en) 2012-06-25 2014-01-10 서울대학교산학협력단 Slam system for mobile robot based on vision sensor data and motion sensor data fusion
KR20160003731A (en) 2013-04-30 2016-01-11 퀄컴 인코포레이티드 Wide area localization from slam maps
JP2016528476A (en) * 2013-04-30 2016-09-15 クアルコム,インコーポレイテッド Wide area position estimation from SLAM map
KR20180059188A (en) * 2016-11-25 2018-06-04 연세대학교 산학협력단 Method of Generating 3d-Background Map Except Dynamic Obstacles Using Deep Learning

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111044993A (en) * 2019-12-27 2020-04-21 歌尔股份有限公司 Laser sensor based slam map calibration method and device
CN111044993B (en) * 2019-12-27 2021-11-05 歌尔股份有限公司 Laser sensor based slam map calibration method and device
KR102320628B1 (en) * 2021-01-08 2021-11-02 강승훈 System and method for precise positioning information based on machine learning
WO2022149645A1 (en) * 2021-01-08 2022-07-14 강승훈 System for providing precise position information on basis of machine learning, and provision method therefor
KR102400733B1 (en) * 2021-01-27 2022-05-23 김성중 Contents extension apparatus using image embedded code
WO2022163949A1 (en) * 2021-01-27 2022-08-04 김성중 Content expansion device using code embedded in image

Also Published As

Publication number Publication date
WO2020071573A1 (en) 2020-04-09

Similar Documents

Publication Publication Date Title
US10282856B2 (en) Image registration with device data
CN109324337B (en) Unmanned aerial vehicle route generation and positioning method and device and unmanned aerial vehicle
TWI798305B (en) Systems and methods for updating highly automated driving maps
KR102092392B1 (en) Method and system for automatically collecting and updating information about point of interest in real space
KR102664900B1 (en) Apparatus for measuring ground control point using unmanned aerial vehicle and method thereof
CN105339758B (en) Optimize system, the method and apparatus of bundle adjustment using overlapping region
WO2018104563A3 (en) Method and system for video-based positioning and mapping
CN104704384A (en) Image processing method, particularly used in a vision-based localization of a device
KR20140134351A (en) Movement path extraction devices of mutual geometric relations fixed camera group and the method
KR102033075B1 (en) A providing location information systme using deep-learning and method it
JP2016224953A (en) Cross spectral feature correlation for navigational adjustment
KR20190080009A (en) Automatic drawing method using lane information
US9239965B2 (en) Method and system of tracking object
US20170039450A1 (en) Identifying Entities to be Investigated Using Storefront Recognition
US20130314443A1 (en) Methods, mobile device and server for support of augmented reality on the mobile device
JP6856750B2 (en) Method and equipment
KR102622585B1 (en) Indoor navigation apparatus and method
KR20150095365A (en) Distance measuring method using vision sensor database
KR102463698B1 (en) System and method for building a location information database of road sign, apparatus and method for estimating location of vehicle using the same
KR20100060472A (en) Apparatus and method for recongnizing position using camera
KR100939731B1 (en) Terminal and method for measuring position using location of position identifying tag
CN111783849B (en) Indoor positioning method and device, electronic equipment and storage medium
CN106780323B (en) Agricultural condition acquisition and real-time updating method and system based on smart phone
US20190286876A1 (en) On-Demand Outdoor Image Based Location Tracking Platform
CN110674327A (en) More accurate positioning method and device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant