KR20210056560A - Device and Method For Providing Map Information - Google Patents

Device and Method For Providing Map Information Download PDF

Info

Publication number
KR20210056560A
KR20210056560A KR1020190143180A KR20190143180A KR20210056560A KR 20210056560 A KR20210056560 A KR 20210056560A KR 1020190143180 A KR1020190143180 A KR 1020190143180A KR 20190143180 A KR20190143180 A KR 20190143180A KR 20210056560 A KR20210056560 A KR 20210056560A
Authority
KR
South Korea
Prior art keywords
text
map information
user terminal
image
map
Prior art date
Application number
KR1020190143180A
Other languages
Korean (ko)
Other versions
KR102259451B1 (en
Inventor
류승완
Original Assignee
류승완
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 류승완 filed Critical 류승완
Priority to KR1020190143180A priority Critical patent/KR102259451B1/en
Publication of KR20210056560A publication Critical patent/KR20210056560A/en
Application granted granted Critical
Publication of KR102259451B1 publication Critical patent/KR102259451B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • G06K9/00691
    • G06K9/3258
    • G06K9/344
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Computing Systems (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention provides a system and method for providing map information, more specifically, map information of a shopping mall in a building. According to an embodiment of the present invention, an apparatus for providing map information using text search comprises: a data collection unit for receiving an image obtained by photographing a shopping mall in a specific area and location information; a text extraction unit for extracting a text from the collected images using an optical character reader (OCR) program; a database for classifying texts other than business names and phone numbers from the extracted text and storing the classified texts and related words; a learning unit for learning to match the photographed image by performing machine learning of the classified text and the related words; and a map extraction unit for extracting map information using the collected location information. Based on a word searched by a user terminal, the database searches for a related word, and shopping malls adjacent to the current location of the user terminal and including the related word are displayed.

Description

지도 정보 제공 장치 및 방법{Device and Method For Providing Map Information}Device and Method For Providing Map Information}

본 발명은 지도 정보, 보다 상세하게는 건물 내부 또는 상가의 지도 정보를 제공하기 위한 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for providing map information, and more particularly, map information of a building or a shopping mall.

일반적으로 지도를 등록하기 위해서는 네이버와 같은 플랫폼에 접속하여 업체명, 전화번호, 주소 및 업종을 입력한다. 그리고 입력하고자 하는 업소의 주소를검색하여 등록시킨다. 접속하여 업체의 주소를 검색 한뒤 해당 위치에 업체명, 전화번호, 주소 및 업종 등을 입력 한다.In general, to register a map, access a platform such as Naver and enter the company name, phone number, address, and business type. Then, search and register the address of the business you want to enter. After accessing and searching for the company's address, enter the company name, phone number, address, and business type in the corresponding location.

그러나 종래의 지도 등록 방법은 업체에서 직접 등록을 하기 때문에, 직접 등록을 해야 하기 때문에 나이가 많은 사람들은 지도 등록에 어려움이 있고, 재래 시장의 경우 또는 같은 종류의 물건을 판매하는 시장 안에 있어서 개별 홍보가 필요하지 않다고 판단하는 경우, 업체가 등록을 하지 않는 경우가 많다. 따라서, 지도 서비스는 실제 존재하는 업체의 일부만을 서비스할 뿐이어서, 지도 서비스에 표시된 업체보다 표시되지 않은 업체가 많은 문제가 있었다.However, since the conventional map registration method is directly registered by the company, it is difficult for older people to register the map because it is necessary to register directly, and in the case of a traditional market or in a market that sells the same type of products, individual promotions If it is determined that is not necessary, the company often does not register. Therefore, since the map service only serves a part of the companies that actually exist, there are many problems with companies that are not displayed than those displayed in the map service.

또한, 재래시장 또는 특정한 지역에 모두 같은 물건을 취급하는 특수한 상권의 경우, 상가 건물 또는 시장 내의 내부 지도를 제공하는 것이 아니라 하나의 블록으로 표시되는 것이 일반적이어서, 업체마다 개별 표시되지 않고, 실제 지리정보와 지도상의 정보가 상이한 문제가 있다.In addition, in the case of a traditional market or a special commercial district that handles all the same items in a specific area, it is generally displayed as one block rather than providing a shopping mall building or an internal map within the market. There is a problem that the information and the information on the map are different.

본 발명은 지도 정보, 보다 상세하게는 건물 내 상가의 지도 정보를 제작하고 제공하기 위한 장치 및 방법을 제공한다.The present invention provides an apparatus and method for producing and providing map information, and more particularly, map information of a shopping mall in a building.

본 발명에 따른 지도 정보 제공 장치는 텍스트 검색을 이용한 지도 정보 제공 장치에 있어서, 특정 영역에서 상가를 촬영한 이미지와 위치 정보를 수신하는 자료수집부; 광학적 문자 인식(optical character reader, OCR) 프로그램을 이용하여 상기 수집된 영상으로부터 텍스트를 추출하는 텍스트 추출부; 상기 추출된 텍스트로부터 상호 및 전화번호를 제외한 나머지 텍스트를 분류하고, 분류된 텍스트와 연관 단어를 저장하는 데이터베이스; 상기 분류된 텍스트 및 연관 단어를 머신 러닝하여 상기 촬영된 이미지와 매칭하도록 학습시키는 학습부; 및 상기 수집된 위치정보를 이용하여 지도 정보를 추출하는 지도추출부를 포함하고, 사용자 단말기가 검색한 단어를 토대로, 상기 데이터베이스는 연관 단어를 검색하고, 사용자 단말기의 현재 위치를 기준으로 인접하고 연관 단어가 포함된 상가를 표시할 수 있다.A map information providing apparatus according to the present invention is a map information providing apparatus using text search, comprising: a data collection unit for receiving an image of a shopping mall in a specific area and location information; A text extraction unit for extracting text from the collected image using an optical character reader (OCR) program; A database for classifying texts other than business names and telephone numbers from the extracted texts and storing the classified texts and related words; A learning unit that learns to match the captured image by machine learning the classified text and related words; And a map extracting unit for extracting map information using the collected location information, and based on the words searched by the user terminal, the database searches for related words, and adjacent and related words based on the current location of the user terminal It is possible to display a mall that includes.

여기서, 상기 텍스트 추출부는 상가의 촬영된 이미지로부터 상호 및 전화번호와 나머지 텍스트를 머신 러닝으로 분류하고, 상기 데이터 베이스는 상기 상호 및 전화번호를 상기 분류된 텍스트 및 연관 단어와 함께 저장할 수 있다.Here, the text extracting unit may classify a business name, a phone number, and the remaining text from the photographed image of a shopping mall by machine learning, and the database may store the business name and phone number together with the classified text and related words.

그리고 상기 사용자 단말기는 상가의 정보를 입력 또는 검색할 수 있고, 상기 데이터 베이스에 접속하여, 상가의 이미지, 추출된 텍스트 또는 연관 단어를 보정할 수 있다.In addition, the user terminal may input or search for information on the shopping street, access the database, and correct the image, extracted text, or related words of the shopping street.

또한, 상기 지도 정보 추출부는 라이다를 이용해 포인트 클라우드를 만들고, 높이 축을 몇개의 층으로 슬라이스한 뒤, 슬라이스 한 층씩을 평균내어 2D로 생성하고, 도면을 생성하며, 수치 지도와 비교하여 지도 정보를 획득할 수 있다.In addition, the map information extraction unit creates a point cloud using LiDAR, slices the height axis into several layers, averages each of the slices to generate 2D, generates a drawing, and compares the map information with a digital map. Can be obtained.

또한, 상기 연관 단어는 전문용어, 업계 관용어, 비표준어 중에서 적어도 하나를 포함하고, 상기 학습부는 상기 연관 단어들을 머신러닝을 통해 학습하여 확장할 수 있다.In addition, the related word includes at least one of a technical term, an industry idiom, and a non-standard word, and the learning unit may learn and expand the related words through machine learning.

더불어, 본 발명에 따른 지도 정보 제공 방법은 텍스트 검색을 이용한 지도 정보 제공 방법에 있어서, 자료수집부가 사용자 단말기로부터 특정 영역에서 상가를 촬영한 이미지와 위치 정보를 수신하는 단계; 텍스트 추출부가 광학적 문자 인식(optical character reader, OCR) 프로그램을 이용하여 상기 수집된 영상으로부터 텍스트를 추출하는 단계; 데이터 베이스가 상기 추출된 텍스트로부터 상호 및 전화번호를 제외한 나머지 텍스트를 분류하고, 분류된 텍스트와 연관 단어를 저장하는 단계; 학습부가 상기 분류된 텍스트 및 연관 단어를 머신 러닝하여 상기 촬영된 이미지와 매칭하도록 학습시키는 단계; 지도 추출부가 상기 수집된 위치정보를 이용하여 지도 정보를 추출하는 단계;를 포함하고, 상기 사용자 단말기가 단어를 검색하면, 상기 데이터베이스는 연관 단어를 검색하고, 사용자 단말기의 현재 위치를 기준으로 인접하고 연관 단어가 포함된 상가를 표시할 수 있다.In addition, the method for providing map information according to the present invention is a method for providing map information using text search, the method comprising: receiving, by a data collection unit, an image and location information of a shopping mall in a specific area from a user terminal; Extracting text from the collected image using an optical character reader (OCR) program by a text extraction unit; Classifying, by a database, texts other than business names and telephone numbers from the extracted texts, and storing the classified texts and related words; Learning, by a learning unit, machine learning the classified text and related words to match the captured image; A step of extracting map information using the collected location information by a map extraction unit; and, when the user terminal searches for a word, the database searches for a related word, and is adjacent based on the current location of the user terminal. It is possible to display a mall containing related words.

여기서, 상기 텍스트 추출부는 상가의 촬영된 이미지로부터 상호 및 전화번호와 나머지 텍스트를 분류하고, 상기 데이터 베이스는 상기 상호 및 전화번호를 상기 분류된 텍스트 및 연관 단어와 함께 저장할 수 있다.Here, the text extracting unit may classify the business name, phone number, and the rest of the text from the photographed image of the shopping street, and the database may store the business name and phone number together with the classified text and related words.

그리고 상기 사용자 단말기는 상가의 정보를 입력 또는 검색할 수 있고, 상기 데이터 베이스에 접속하여, 상가의 이미지, 추출된 텍스트 또는 연관 단어를 보정할 수 있다.In addition, the user terminal may input or search for information on the shopping street, access the database, and correct the image, extracted text, or related words of the shopping street.

또한, 상기 지도 정보 추출부는 라이다를 이용해 포인트 클라우드를 만들고, 높이 축을 몇개의 층으로 슬라이스한 뒤, 슬라이스 한 층씩을 평균내어 2D로 생성하고, 도면을 생성하며, 수치 지도와 비교하여 지도 정보를 획득할 수 있다.In addition, the map information extraction unit creates a point cloud using LiDAR, slices the height axis into several layers, averages each of the slices to generate 2D, generates a drawing, and compares the map information with a digital map. Can be obtained.

또한, 상기 연관 단어는 전문용어, 업계 관용어, 비표준어 중에서 적어도 하나를 포함하고, 상기 학습부는 상기 연관 단어들을 머신러닝을 통해 학습하여 확장할 수 있다.In addition, the related word includes at least one of a technical term, an industry idiom, and a non-standard word, and the learning unit may learn and expand the related words through machine learning.

본 발명에 따른 지도 정보 제공 장치 및 방법은 사용자 단말기나 주행 로봇을 통해 상가의 이미지를 촬영하고, 이미지로부터 제품과 관련된 텍스트를 추출하여 연관 단어를 함께 데이터베이스에 저장하고, 사용자 단말기의 위치와 검색 단어를 통해 연관된 제품을 취급하는 상가에 대한 지도 정보를 용이하게 제공할 수 있다.The apparatus and method for providing map information according to the present invention captures an image of a shopping mall through a user terminal or a traveling robot, extracts a text related to a product from the image, and stores the related word together in a database, and the location and search word of the user terminal Through this, it is possible to easily provide map information for shopping malls that handle related products.

도 1은 본 발명의 실시예에 따른 지도 정보 제공 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 지도 정보 제공 방법 중 상가 지도 입력 단계를 도시한 순서도이다.
도 3a은 본 발명의 실시예에 따른 지도 정보 제공 시스템에서 상가 입력의 예시 화면을 도시한 것이다.
도 3b는 본 발명의 실시예에 따른 지도 정보 제공 시스템에서 SLAM 기술을 통한 지도 표시 방법을 도시한 것이다.
도 4는 본 발명의 실시예에 따른 지도 정보 제공 방법 중 상가 지도 검색 단계를 도시한 순서도이다.
도 5는 본 발명의 실시예에 따른 지도 정보 제공 시스템에서 상가 검색 결과의 예시 화면을 도시한 것이다.
1 is a block diagram of a system for providing map information according to an embodiment of the present invention.
2 is a flow chart illustrating a shopping mall map input step in a method for providing map information according to an embodiment of the present invention.
3A is a diagram illustrating an example screen of a shopping mall input in a map information providing system according to an embodiment of the present invention.
3B is a diagram illustrating a map display method through SLAM technology in a map information providing system according to an embodiment of the present invention.
4 is a flowchart illustrating a shopping mall map search step in a method for providing map information according to an embodiment of the present invention.
5 illustrates an example screen of a shopping mall search result in a map information providing system according to an embodiment of the present invention.

본 발명이 속하는 기술분야에 있어서 통상의 지식을 가진 자가 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 도면을 참조하여 상세하게 설명하면 다음과 같다.The preferred embodiments of the present invention will be described in detail with reference to the drawings to the extent that those of ordinary skill in the art can easily implement the present invention.

도 1은 본 발명의 실시예에 따른 지도 정보 제공 시스템의 구성도이다.1 is a block diagram of a system for providing map information according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 지도 정보 제공 시스템(1)은 제 1 사용자 단말기(10), 제 2 사용자 단말기(20)와 지도 정보 제공 장치(100)를 포함할 수 있다.Referring to FIG. 1, a map information providing system 1 according to an embodiment of the present invention may include a first user terminal 10, a second user terminal 20, and a map information providing device 100.

여기서, 제 1 사용자 단말기(10)와 제 2 사용자 단말기(20)는 통상의 PC, 스마트폰, 태블릿 또는 휴대용 라이다 등의 디바이스를 포함할 수 있다. 또한, 예를 들어, 제 1 사용자 단말기(10)는 상가 지도 정보를 업로드하는데 활용될 수 있고, 제 2 사용자 단말기(20)는 상가 지도 정보를 검색하는데 활용될 수 있다. 다만, 제 1 사용자 단말기(10)와 제 2 사용자 단말기(20)의 용어가 구분되어 있으나, 설명의 편의를 위한 것으로, 실제로는 사용자는 하나의 단말기로서 상기 지도 정보를 업로드하거나 검색하는데 모두 활용할 수 있다. Here, the first user terminal 10 and the second user terminal 20 may include devices such as a conventional PC, smart phone, tablet, or portable lidar. In addition, for example, the first user terminal 10 may be used to upload shopping street map information, and the second user terminal 20 may be used to search for shopping street map information. However, although the terms of the first user terminal 10 and the second user terminal 20 are separated, it is for convenience of explanation, and in reality, the user can use both as a single terminal to upload or search the map information. have.

지도 정보 제공 장치(100)는 자료수집부(110), 텍스트추출부(120), 데이터베이스(130), 학습부(140), 지도추출부(150) 및 제어부(160)를 포함할 수 있다. The map information providing apparatus 100 may include a data collecting unit 110, a text extracting unit 120, a database 130, a learning unit 140, a map extracting unit 150, and a control unit 160.

먼저, 자료수집부(110)는 특정한 지역을 촬영한 영상과 촬영된 지역의 위치정보를 수집할 수 있다.First, the data collection unit 110 may collect an image photographing a specific region and location information of the photographed region.

사용자는 재래시장이나 유사한 품목을 취급하는 특수한 상권을 광각 카메라를 이용하여 촬영할 수 있다. 그리고 사용자는 제 1 디바이스(10)를 통해, 촬영된 영상을 지도 정보 제공 장치(100)에 업로드할 수 있다. 따라서, 자료수집부(110)는제 1 사용자 단말기(10)로부터 업로드된 이미지를 수집하고, 수집된 이미지가 촬영된 지역의 위치정보를 획득할 수 있다.Users can shoot traditional markets or special commercial areas dealing with similar items using a wide-angle camera. In addition, the user may upload the captured image to the map information providing apparatus 100 through the first device 10. Accordingly, the data collection unit 110 may collect an image uploaded from the first user terminal 10 and acquire location information of an area in which the collected image is photographed.

텍스트추출부(120)는 광학적 문자 인식(optical character reader, OCR) 프로그램을 이용하여 수신된 이미지로부터 텍스트를 추출할 수 있다. 제 1 사용자 단말기(10)에 의해 업로드된 이미지에는 상점의 간판 상호, 전화번호, 진열 상품의 브랜드, 홍보문구를 포함한다. 텍스트추출부(120)는 이미지에 포함된 텍스트를 추출한다. 또한, 텍스트추출부(120)는 텍스트 중에서 간판 상호, 전화번호는 별도로 추출하고, 홍보 문구, 진열 상품의 브랜드, 모델명 등을 분리해서 추출할 수 있다. 또한, 텍스트추출부(120)는 추출된 텍스트를 데이터베이스(130)에 전달할 수 있다. The text extraction unit 120 may extract text from the received image using an optical character reader (OCR) program. The image uploaded by the first user terminal 10 includes the name of the signboard of the store, the phone number, the brand of the displayed product, and a promotional text. The text extraction unit 120 extracts text included in the image. In addition, the text extracting unit 120 may separately extract the name of the signboard and the phone number from the text, and separate and extract the promotional phrase, the brand of the displayed product, the model name, and the like. In addition, the text extraction unit 120 may transmit the extracted text to the database 130.

데이터베이스(130)는 텍스트추출부(120)로부터 전달받은 텍스트에 대해, 여러 제 1 사용자 단말기(10)들로부터 기존에 입력받아 학습된 연관단어를 저장한다. 즉, 기존 사용자들이 제 1 사용자 단말기(10)를 통해 입력했던 단어들이 학습되어 연관단어를 형성하고, 데이터베이스(130)는 추출된 텍스트와 이에 해당되는 연관 단어를 저장할 수 있다. 여기서, 연관 단어는 전문용어, 업계 관용어, 비표준어, 혼용어, 관용 오기, 외국어 등을 포함할 수 있다. The database 130 stores related words that have been previously inputted from various first user terminals 10 and learned with respect to the text transmitted from the text extracting unit 120. That is, words input by existing users through the first user terminal 10 are learned to form a related word, and the database 130 may store the extracted text and a related word corresponding thereto. Here, the related words may include technical terms, industry idioms, non-standard words, mixed terms, idioms, foreign languages, and the like.

학습부(140)는 제 1 사용자 디바이스(10)로부터 입력된 텍스트와 이미지를 기반으로 머신러닝을 수행한다. 그리고 학습부(140)는 기 구축된 머신러닝에 텍스트를 입력하면, 입력된 텍스트에 매칭되는 영상이 출력되도록 학습할 수 있다.The learning unit 140 performs machine learning based on text and images input from the first user device 10. In addition, the learning unit 140 may learn to output an image matching the input text when text is input to the previously constructed machine learning.

지도추출부(150)는 머신러닝을 통해 추출된 이미지의 위치정보를 이용하여 지도정보를 추출하고 생성할 수 있다.The map extraction unit 150 may extract and generate map information using location information of an image extracted through machine learning.

제어부(160)는 사용자로부터 입력된 텍스트를 학습이 완료된 머신러닝에 입력하여 매칭되는 이미지을 추출할 수 있다. 또한, 제어부(160)는 추출된 이미지에 대응하는 지도정보를 제공할 수 있다.The controller 160 may extract a matched image by inputting the text input from the user into machine learning on which learning has been completed. In addition, the controller 160 may provide map information corresponding to the extracted image.

이하에서는 본 발명의 실시예에 따른 지도 정보 제공 방법을 설명하도록 한다.Hereinafter, a method of providing map information according to an embodiment of the present invention will be described.

도 2는 본 발명의 실시예에 따른 지도 정보 제공 방법 중 상가 지도 입력 단계를 도시한 순서도이다. 도 3a는 본 발명의 실시예에 따른 지도 정보 제공 시스템에서 상가 입력의 예시 화면을 도시한 것이다. 도 3b는 본 발명의 실시예에 따른 지도 정보 제공 시스템에서 SLAM 기술을 통한 지도 표시 방법을 도시한 것이다. 이하에서는 도 2, 도 3a 및 3b에 대해 도 1을 함께 참조하여 설명하도록 한다.2 is a flow chart illustrating a shopping mall map input step in a method for providing map information according to an embodiment of the present invention. 3A is a diagram illustrating an example screen of a shopping mall input in a map information providing system according to an embodiment of the present invention. 3B is a diagram illustrating a map display method through SLAM technology in a map information providing system according to an embodiment of the present invention. Hereinafter, FIGS. 2, 3A and 3B will be described with reference to FIG. 1.

도 1 내지 도 3을 참조하면, 상가 지도 입력 단계는 상가 이미지 촬영 및 위치 정보 수신 단계(S11), 텍스트 추출 및 선별 단계(S12), 연관 단어 검색 및 저장 단계(S13), 지도 매칭 단계(S14), 사용자 보정 단계(S15)를 포함할 수 있다.1 to 3, the shopping street map input step includes a shopping street image capture and location information reception step (S11), text extraction and selection step (S12), a related word search and storage step (S13), and a map matching step (S14). ), may include a user correction step (S15).

상가 이미지 촬영 및 위치 정보 수신 단계(S11)는 제 1 사용자 단말기(10)가 상가의 이미지를 촬영하고, 제 1 사용자 단말기(10)의 현재 위치 정보를 자료수집부(110)에 전달하는 단계이다. 여기서, 제 1 사용자 단말기(10)는 앞서 언급한 것과 같이 통상의 PC, 스마트폰, 태블릿 등일 수 있다.In the step S11 of photographing a shopping mall image and receiving location information (S11), the first user terminal 10 photographs an image of the shopping mall and transmits the current location information of the first user terminal 10 to the data collection unit 110. . Here, the first user terminal 10 may be a conventional PC, smartphone, tablet, or the like, as mentioned above.

또한, 제 1 사용자 단말기(10)의 다른 예로써, 라이다가 장착된 주행 로봇 등이 활용되는 것도 가능하다. 주행 로봇의 경우, 사람의 유무와 무관하게 이동이 가능하며, 특히 사람이 없는 새벽 시간대에 건물 내 상가를 이동하도록 하여 상가 이미지를 취득하는 것도 가능하다.In addition, as another example of the first user terminal 10, a traveling robot equipped with a lidar may be used. In the case of a traveling robot, it is possible to move regardless of the presence or absence of a person, and it is also possible to acquire an image of a shopping street by moving the shopping area inside the building in the early morning hours when there is no person.

또한, 제 1 사용자 단말기(10)는 광각 카메라를 활용할 수도 있다. 알려진 바와 같이, 광각 카메라는 근접해서 촬영하는 것이 가능하고, 상가 내부 전체 이미지를 촬영할 수 있기 때문에, 활용성이 높다.In addition, the first user terminal 10 may utilize a wide-angle camera. As is known, the wide-angle camera is highly versatile because it is possible to take close-up pictures and to take an entire image inside a shopping mall.

제 1 사용자 단말기(10)는 이러한 방법으로 이미지를 촬영하고, 위치 정보와 함께 자료 수집부(100)에 전송할 수 있다.The first user terminal 10 may take an image in this way and transmit it to the data collection unit 100 together with location information.

텍스트 추출 및 선별 단계(S12)는 텍스트 추출부(120)에서 이미지로부터 텍스트를 추출하고, 연관단어를 추출하는 단계이다. 촬영된 이미지에는 상호명, 전시되어 있는 물품, 광고문구 등이 포함될 수 있다. 텍스트 추출부(120)는 영상에 포함된 텍스트를 추출한다. 예를 들면, 도 3에 도시된 바와 같이, 텍스트 추출부(120)는 촬영된 이미지로부터 "펌프", "노즐", "공조기기", "전기온수기" 등의 텍스트(T)를 추출할 수 있다. 이때, 추출된 텍스트는 단어 형태일 수도 있고 문장 형태일 수도 있다. 그리고 텍스트 추출부(120)는 형태소 분석을 통해 명사만을 추출한다.In the text extraction and selection step (S12), the text extraction unit 120 extracts text from an image and extracts a related word. The photographed image may include a business name, items on display, advertisement text, and the like. The text extraction unit 120 extracts text included in an image. For example, as shown in FIG. 3, the text extraction unit 120 may extract text T such as "pump", "nozzle", "air conditioner", and "electric water heater" from the captured image. have. In this case, the extracted text may be in the form of a word or a sentence. In addition, the text extraction unit 120 extracts only nouns through morpheme analysis.

연관 단어 검색 및 저장 단계(S13)에서 지도 정보 제공 장치(100)의 텍스트 추출부(120)는 추출된 명사를 이용하여 연관 단어 검색을 수행할 수 있다. 지도 정보 제공 장치(100)는 다양한 연령대의 사용자들에 의해 사용된다. 다양한 연령대의 사용자는 연령과 관심분야에 따라 같은 물건을 검색하더라도 각각 상이한 검색어를 입력할 수 있다. 따라서, 텍스트 추출부(120)는 사용자로부터 입력되는 검색어에 따라 매칭되는 지도 정보를 제공할 수 있도록 추출된 텍스트에 연관되는 단어 검색을 수행한다. 여기서 연관 단어는 전문용어, 업계 관용어, 비표준어 중에서 적어도 하나를 포함한다. 또한, 학습부(140)는 연관 단어들을 머신러닝을 통해 학습할 수 있으며, 이에 따라 연관 단어들을 점차 확장할 수 있다.In the related word search and storage step S13, the text extraction unit 120 of the map information providing apparatus 100 may perform a related word search using the extracted noun. The map information providing apparatus 100 is used by users of various ages. Users of various ages can enter different search words, even if they search for the same object according to their age and interests. Accordingly, the text extracting unit 120 performs a word search related to the extracted text so as to provide map information matching according to a search word input from a user. Here, the related word includes at least one of technical terms, industry idioms, and non-standard words. In addition, the learning unit 140 may learn related words through machine learning, and accordingly, may gradually expand the related words.

또한, 텍스트 추출부(120)는 추출된 텍스트와 연관 단어를 데이터베이스(130)에 전달하고, 데이터베이스(130)는 텍스트와 연관 단어를 저장한다. 또한, 데이터베이스(130)는 상가의 이미지와 함께, 위치, 추출된 텍스트 및 연관 단어를 함께 저장하여, 나중에 제 2 사용자 단말기(20)가 검색하기 용이하게 분류할 수 있다.In addition, the text extraction unit 120 transfers the extracted text and related words to the database 130, and the database 130 stores the text and related words. In addition, the database 130 stores the image of the shopping mall, the location, the extracted text, and the related word together, so that the second user terminal 20 can easily classify it to be searched later.

지도 매칭 단계(S14)에서 지도추출부(150)는 데이터베이스(130)로부터 지도 정보를 불러오고, 현재 제 1 사용자 단말기(10)의 위치 정보에 따라 상가의 위치를 지정하여 매핑할 수 있다. 또한, 매핑에서 상가의 상호, 주소는 물론이고, 상가의 이미지와 앞서 이미지로부터 추출한 텍스트와 연관 단어를 함께 저장할 수 있다.In the map matching step (S14), the map extractor 150 retrieves map information from the database 130, and may designate and map the location of the shopping mall according to the current location information of the first user terminal 10. In addition, in the mapping, it is possible to store the image of the shopping street, as well as the name and address of the shopping street, as well as the text extracted from the image and related words.

한편, 도 3b에 도시된 것과 같이, 지도에 표시하는 때, SLAM(Simultaneous localization and mapping) 방법을 사용할 수 있다. 지도 추출부(150)는 (1) 먼저 라이다를 이용해 먼저 포인트 클라우드를 만들고, (2) 높이 축을 몇개의 층으로 슬라이스하며, (3) 슬라이스 한 층 한 층을 평균내서 2D를 생성한 후, (4) 마지막으로 도면을 생성할 수 있다. 여기서, 포인트 클라우드는 RGB 포인트 클라우드일 수 있고, 깊이 정보와 색 정보가 동시에 들어가 있으며 해상도가 낮은 사진과 유사한 형태를 띄는 특징을 갖는다.Meanwhile, as shown in FIG. 3B, when displaying on a map, a Simultaneous localization and mapping (SLAM) method may be used. The map extraction unit 150 (1) first creates a point cloud using a lidar, (2) slices the height axis into several layers, and (3) generates 2D by averaging each layer of the slice. (4) Finally, you can create a drawing. Here, the point cloud may be an RGB point cloud, contains depth information and color information at the same time, and has a feature similar to that of a low-resolution photo.

또한, 지도 추출부(150)는 이렇게 만들어진 부분적인 도면을 국토지리정보원 등에서 나누어 주는 수치 지도와 몇 개의 포인트를 지정 하여 겹친 뒤 정답을 먼저 만들고 그것을 조각별로 잘라 외곽선이 일치하도록 이미지를 일치 시키는 것을 학습 시킬 수 있다. 이 과정에서 건물의 일부인 불법 증축물과 임시적인 가판대 또는 자동차 등을 구분 할 수 있게 되며 국토지리정보원의 지도에선 단순히 속이 빈 네모난 건물로 표시된 부분에도 대략적인 건물 내부의 모습을 겹쳐 놓을 수 있게 된다. 또한, 학습이 완료되면 라이다를 통해 포인트 클라우드 형태로 된 3D 그림에서 대략적인 지도를 얻어낼 수 있고 실제 GIS 데이타와 연동함으로써, 지도 정보를 획득하는 것이 가능하다.In addition, the map extraction unit 150 learns to match the image so that the outline of the drawing made in this way is matched by designating a number of points with a digital map that is distributed by the National Geographic Information Institute, and then overlapping the correct answer first and cutting it into pieces. I can make it. In this process, it is possible to distinguish between illegal extensions that are part of the building from temporary kiosks or automobiles, and on the map of the National Geographic Information Institute, it is possible to superimpose the approximate interior of the building even on the part marked as a simple hollow, square building. . In addition, when the learning is completed, a rough map can be obtained from a 3D picture in the form of a point cloud through the lidar, and it is possible to obtain map information by interlocking with the actual GIS data.

사용자 보정 단계(S15)는 제 1 사용자 단말기(10)를 통해 사용자가 지도 정보를 보정하는 단계이다. 예를 들어, 제 1 사용자 단말기(10)는 현재의 위치를 지도에서 이동하여 다시 설정할 수 있고, 텍스트나 연관 단어 중에서 원하는 용어를 수정하거나, 상가의 이미지를 다른 이미지로 대체하는 것도 가능할 수 있다. 또한, 제 1 사용자 단말기(10)가 앞서 언급한 보행 로봇의 이미지를 사용한 경우, 이미지의 촬영 위치와 이미지를 확인해서 상기 지도에 대해 매핑을 진행하고, 보정하는 것도 가능하다.The user correction step S15 is a step in which the user corrects the map information through the first user terminal 10. For example, the first user terminal 10 may move the current location on a map and set it again, modify a desired term among text or related words, or may replace an image of a shopping mall with another image. In addition, when the first user terminal 10 uses the image of the walking robot mentioned above, it is possible to check the photographing position and image of the image, perform mapping on the map, and correct it.

도 4는 본 발명의 실시예에 따른 지도 정보 제공 방법 중 상가 지도 검색 단계를 도시한 순서도이다. 도 5는 본 발명의 실시예에 따른 지도 정보 제공 시스템에서 상가 검색 결과의 예시 화면을 도시한 것이다.4 is a flowchart illustrating a shopping mall map search step in a method for providing map information according to an embodiment of the present invention. 5 illustrates an example screen of a shopping mall search result in a map information providing system according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시예에 따른 지도 정보 제공 방법 중 상가 지도 검색 단계는 상가 검색 단계(S16), 근접한 상기 이미지 표시 단계(S17), 상가 선택 단계(S18), 지도상 위치 표시 단계(S19), 사용자 보정 단계(S20)를 포함할 수 있다.Referring to FIG. 4, the shopping street map search step of the map information providing method according to an embodiment of the present invention includes a shopping street search step (S16), the adjacent image display step (S17), a shopping mall selection step (S18), and a location on a map. It may include a step (S19) and a user correction step (S20).

도 5를 함께 참조하면, 상가 검색 단계(S16)는 제 2 사용자 단말기(20)가 지도 정보 제공 시스템(100)에 접속하여, 표시 화면(21) 상에서 검색창(22)에 원하는 상가를 검색하는 단계이다. 이 때, 제 2 사용자 단말기(20)는 앞서 언급한 것처럼, 상가의 이름을 모르더라도 검색하고자 하는 단어를 통해 검색을 수행할 수 있다. 또한, 제 2 사용자 단말기(20)는 정확한 단어가 아니더라도, 이미 데이터베이스(130)에 저장된 연관 단어를 입력하기만 하면, 원하는 제품과 관련된 상가가 검색될 수 있다. Referring to FIG. 5 together, in the shopping mall search step (S16), the second user terminal 20 accesses the map information providing system 100 and searches for a desired shopping mall in the search window 22 on the display screen 21. Step. In this case, as mentioned above, the second user terminal 20 may perform a search through a word to be searched even if the name of the mall is not known. In addition, even if the second user terminal 20 is not an exact word, a shopping mall related to a desired product can be searched by simply inputting a related word already stored in the database 130.

근접한 상기 이미지 표시 단계(S17)에서, 지도 정보 제공 시스템(100)은 제 2 사용자 단말기(20)에 대해, 검색 결과인 상가의 정보를 제공할 수 있다. 이 때, 제 2 사용자 단말기(20)의 현재 위치를 기준으로, 인접한 상가들이 지도에 표시될 수 있다. 구체적으로, 상가의 정보는 검색 화면(21)에서 상가의 이미지(23), 추출된 단어 및 연관 단어(24), 지도 상에서의 위치(25)를 함께 표시할 수 있다.In the adjacent image display step (S17), the map information providing system 100 may provide the second user terminal 20 with information on a shopping mall as a result of the search. In this case, based on the current location of the second user terminal 20, adjacent shopping malls may be displayed on the map. Specifically, the information on the shopping street may be displayed together with the image 23 of the shopping street, the extracted words and related words 24, and the location 25 on the map on the search screen 21.

상가 선택 단계(S18)는 제 2 사용자 단말기(20)가 표시된 여러 상가 중에서, 원하는 상가를 선택하는 단계이다. 이 때, 제 2 사용자 단말기(20)는 상가의 위치와 추출된 텍스트 및 연관 단어를 통해, 자신이 원하는 제품이 있는 상가를 선택할 수 있게 된다.The shopping center selection step S18 is a step of selecting a desired shopping area from among several shopping areas on which the second user terminal 20 is displayed. In this case, the second user terminal 20 may select a shopping area in which a desired product is located through the location of the shopping area and the extracted text and related words.

지도상 위치 표시 단계(S19)는 현재 제 2 사용자 단말기(20)의 위치로부터 선택된 상가까지의 경로를 지도상에서 표시하는 단계이다. 제 2 사용자 단말기(20)의 경로를 따라 사용자는 실제 상가에 가장 편리한 경로로 도달할 수 있다.In the step of displaying the location on the map (S19), the path from the current location of the second user terminal 20 to the selected shopping mall is displayed on the map. Following the path of the second user terminal 20, the user can reach the actual shopping mall with the most convenient path.

사용자 보정 단계(S20)는 제 2 사용자 단말기(20)가 검색된 상가의 정보를 보정하는 단계이다. 예를 들어, 실제 상가의 이미지가 변경되었거나, 폐업을 했거나, 새로운 텍스트를 추가할 필요가 있는 경우 등에서, 제 2 사용자 단말기(20)는 상가의 정보를 보정할 수 있다. 따라서, 지도 정보 제공 시스템(100)의 상가 정보는 사용자들의 참여에 의해 업데이트될 수 있다.In the user correction step S20, the second user terminal 20 corrects the searched shopping mall information. For example, when an image of an actual shopping mall has changed, has been closed, or it is necessary to add a new text, the second user terminal 20 may correct the information of the shopping mall. Accordingly, the shopping street information of the map information providing system 100 may be updated by participation of users.

이상에서 설명한 것은 본 발명에 의한 지도 정보 제공 시스템 및 방법을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is only one embodiment for implementing the system and method for providing map information according to the present invention, and the present invention is not limited to the above embodiment, and as claimed in the claims below, Without departing from the gist, anyone of ordinary skill in the field to which the present invention pertains will have the technical spirit of the present invention to the extent that various changes can be implemented.

1; 지도 정보 제공 시스템 10; 제 1 사용자 단말기
20; 제 2 사용자 단말기 100; 지도 정보 제공 장치
110; 자료 수집부 120; 텍스트 추출부
130; 데이터베이스 140; 학습부
150; 지도추출부 160; 제어부
One; Map information providing system 10; 1st user terminal
20; A second user terminal 100; Map information providing device
110; Data collection unit 120; Text extraction unit
130; Database 140; Learning Department
150; Map extraction unit 160; Control unit

Claims (10)

텍스트 검색을 이용한 지도 정보 제공 장치에 있어서,
특정 영역에서 상가를 촬영한 이미지와 위치 정보를 수신하는 자료수집부;
광학적 문자 인식(optical character reader, OCR) 프로그램을 이용하여 상기 수집된 영상으로부터 텍스트를 추출하는 텍스트 추출부;
상기 추출된 텍스트로부터 상호 및 전화번호를 제외한 나머지 텍스트를 머신 러닝을 통해 분류하고, 분류된 텍스트와 연관 단어를 저장하는 데이터베이스;
상기 분류된 텍스트 및 연관 단어를 머신 러닝하여 상기 촬영된 이미지와 매칭하도록 학습시키는 학습부; 및
상기 수집된 위치정보를 이용하여 지도 정보를 추출하는 지도추출부를 포함하고,
사용자 단말기가 검색한 단어를 토대로, 상기 데이터베이스는 연관 단어를 검색하고, 사용자 단말기의 현재 위치를 기준으로 인접하고 연관 단어가 포함된 상가를 표시하는 지도 정보 제공 장치.
In the map information providing apparatus using text search,
A data collection unit for receiving an image of a shopping mall in a specific area and location information;
A text extraction unit for extracting text from the collected image using an optical character reader (OCR) program;
A database for classifying the remaining texts from the extracted texts except for a business name and a telephone number through machine learning, and storing the classified texts and related words;
A learning unit that learns to match the captured image by machine learning the classified text and related words; And
Including a map extraction unit for extracting map information using the collected location information,
A map information providing apparatus for the database to search for a related word based on the word searched by the user terminal, and to display a shopping mall adjacent to the user terminal and including the related word based on the current location of the user terminal.
제 1 항에 있어서,
상기 텍스트 추출부는 상가의 촬영된 이미지로부터 상호 및 전화번호와 나머지 텍스트를 분류하고,
상기 데이터 베이스는 상기 상호 및 전화번호를 상기 분류된 텍스트 및 연관 단어와 함께 저장하는 지도 정도 제공 장치.
The method of claim 1,
The text extracting unit classifies the business name and phone number and the rest of the text from the photographed image of the shopping street,
The database is a map level providing device for storing the business name and phone number together with the classified text and related words.
제 1 항에 있어서,
상기 사용자 단말기는 상가의 정보를 입력 또는 검색할 수 있고, 상기 데이터 베이스에 접속하여, 상가의 이미지, 추출된 텍스트 또는 연관 단어를 보정하는 지도 정보 제공 장치.
The method of claim 1,
The user terminal may input or search for information on a shopping street, access the database, and correct the image, extracted text, or related words of the shopping street.
제 1 항에 있어서,
상기 지도 정보 추출부는 라이다를 이용해 포인트 클라우드를 만들고, 높이 축을 몇개의 층으로 슬라이스한 뒤, 슬라이스 각 층을 평균내어 2D로 생성하고, 도면을 생성하며, 수치 지도와 비교하여 지도 정보를 획득하는 지도 정보 제공 장치.
The method of claim 1,
The map information extraction unit creates a point cloud using LiDAR, slices the height axis into several layers, averages each layer of the slice to generate 2D, generates a drawing, and obtains map information by comparing it with a digital map. Map information providing device.
제 1 항에 있어서,
상기 연관 단어는 전문용어, 업계 관용어, 비표준어 중에서 적어도 하나를 포함하고, 상기 학습부는 상기 연관 단어들을 머신러닝을 통해 학습하여 확장하는 지도 정보 제공 장치.
The method of claim 1,
The related word includes at least one of technical terms, industry idioms, and non-standard words, and the learning unit learns and expands the related words through machine learning.
텍스트 검색을 이용한 지도 정보 제공 방법에 있어서,
자료수집부가 사용자 단말기로부터 특정 영역에서 상가를 촬영한 이미지와 위치 정보를 수신하는 단계;
텍스트 추출부가 광학적 문자 인식(optical character reader, OCR) 프로그램을 이용하여 상기 수집된 영상으로부터 텍스트를 추출하는 단계;
데이터 베이스가 상기 추출된 텍스트로부터 상호 및 전화번호를 제외한 나머지 텍스트를 분류하고, 분류된 텍스트와 연관 단어를 저장하는 단계;
학습부가 상기 분류된 텍스트 및 연관 단어를 머신 러닝하여 상기 촬영된 이미지와 매칭하도록 학습시키는 단계;
지도 추출부가 상기 수집된 위치정보를 이용하여 지도 정보를 추출하는 단계;를 포함하고,
상기 사용자 단말기가 단어를 검색하면, 상기 데이터베이스는 연관 단어를 검색하고, 사용자 단말기의 현재 위치를 기준으로 인접하고 연관 단어가 포함된 상가를 표시하는 지도 정보 제공 방법.
In the method of providing map information using text search,
Receiving, by a data collection unit, an image of a shopping mall in a specific area and location information from a user terminal;
Extracting text from the collected image using an optical character reader (OCR) program by a text extraction unit;
Classifying, by a database, texts other than business names and telephone numbers from the extracted texts, and storing the classified texts and related words;
Learning, by a learning unit, machine learning the classified text and related words to match the captured image;
Including, a map extraction unit extracting map information using the collected location information,
When the user terminal searches for a word, the database searches for a related word, and displays a shopping street adjacent to the user terminal and including the related word based on a current location of the user terminal.
제 6 항에 있어서,
상기 텍스트 추출부는 상가의 촬영된 이미지로부터 상호 및 전화번호와 나머지 텍스트를 분류하고,
상기 데이터 베이스는 상기 상호 및 전화번호를 상기 분류된 텍스트 및 연관 단어와 함께 저장하는 지도 정도 제공 방법.
The method of claim 6,
The text extracting unit classifies the business name and phone number and the rest of the text from the photographed image of the shopping street,
The method for providing a map degree in which the database stores the business name and telephone number together with the classified text and related words.
제 6 항에 있어서,
상기 사용자 단말기는 상가의 정보를 입력 또는 검색할 수 있고, 상기 데이터 베이스에 접속하여, 상가의 이미지, 추출된 텍스트 또는 연관 단어를 보정하는 지도 정보 제공 방법.
The method of claim 6,
The user terminal may input or search for information on a shopping street, access the database, and correct the image, extracted text, or related words of the shopping street.
제 6 항에 있어서,
상기 지도 정보 추출부는 라이다가 장착된 주행 로봇 또는 휴대용 라이다를 통해 상가의 이미지를 제공받고, 상기 주행 로봇의 촬영 위치 및 이미지를 함께 상기 자료 수집부에 제공하는 지도 정보 제공 방법.
The method of claim 6,
The map information extracting unit receives an image of a shopping mall through a traveling robot or a portable lidar equipped with a lidar, and provides a photographing position and an image of the traveling robot to the data collection unit together.
제 6 항에 있어서,
상기 연관 단어는 전문용어, 업계 관용어, 비표준어 중에서 적어도 하나를 포함하고, 상기 학습부는 상기 연관 단어들을 머신러닝을 통해 학습하여 확장하는 지도 정보 제공 방법.
The method of claim 6,
The related word includes at least one of technical terms, industry idioms, and non-standard words, and the learning unit learns and expands the related words through machine learning.
KR1020190143180A 2019-11-11 2019-11-11 Device and Method For Providing Map Information KR102259451B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190143180A KR102259451B1 (en) 2019-11-11 2019-11-11 Device and Method For Providing Map Information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190143180A KR102259451B1 (en) 2019-11-11 2019-11-11 Device and Method For Providing Map Information

Publications (2)

Publication Number Publication Date
KR20210056560A true KR20210056560A (en) 2021-05-20
KR102259451B1 KR102259451B1 (en) 2021-06-01

Family

ID=76142764

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190143180A KR102259451B1 (en) 2019-11-11 2019-11-11 Device and Method For Providing Map Information

Country Status (1)

Country Link
KR (1) KR102259451B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132405A1 (en) * 2022-01-07 2023-07-13 충남대학교산학협력단 Information providing platform for updating map

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140137254A (en) * 2013-05-22 2014-12-02 서울시립대학교 산학협력단 Terminal, server, system and method for providing location information using character recognition
KR20160003553A (en) * 2014-07-01 2016-01-11 삼성전자주식회사 Electroninc device for providing map information
KR20170132414A (en) * 2016-05-24 2017-12-04 네이버 주식회사 Method and system for detecting and correcting local information using local photo and signage image of street view
KR102015388B1 (en) * 2019-01-21 2019-08-28 주식회사 지공간솔루션 3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140137254A (en) * 2013-05-22 2014-12-02 서울시립대학교 산학협력단 Terminal, server, system and method for providing location information using character recognition
KR20160003553A (en) * 2014-07-01 2016-01-11 삼성전자주식회사 Electroninc device for providing map information
KR20170132414A (en) * 2016-05-24 2017-12-04 네이버 주식회사 Method and system for detecting and correcting local information using local photo and signage image of street view
KR102015388B1 (en) * 2019-01-21 2019-08-28 주식회사 지공간솔루션 3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132405A1 (en) * 2022-01-07 2023-07-13 충남대학교산학협력단 Information providing platform for updating map

Also Published As

Publication number Publication date
KR102259451B1 (en) 2021-06-01

Similar Documents

Publication Publication Date Title
US9092674B2 (en) Method for enhanced location based and context sensitive augmented reality translation
EP3637303B1 (en) Methods for generating a base of training images, for training a cnn and for detecting a poi change in a pair of inputted poi images using said cnn
US7992181B2 (en) Information presentation system, information presentation terminal and server
US20170328730A1 (en) Dynamic map synchronization
US20100309226A1 (en) Method and system for image-based information retrieval
US9436886B2 (en) System and method of determining building numbers
CN102855480A (en) Method and device for recognizing characters in image
JP2011253424A (en) Image recognition device and image recognition method and information processing system
EP3190581A1 (en) Interior map establishment device and method using cloud point
CN104133819B (en) Information retrieval method and device
CN106980612A (en) Information recommendation system and method
KR102259451B1 (en) Device and Method For Providing Map Information
CN114119171A (en) MR/AR/VR shopping and retrieval scene control method, mobile terminal and readable storage medium
US20200026869A1 (en) Systems and methods for identification of a marker in a graphical object
Foong et al. Text signage recognition in Android mobile devices
CN110866168A (en) Information recommendation method and device, terminal and server
CN114935972A (en) MR/AR/VR labeling and searching control method, mobile terminal and readable storage medium
KR102271720B1 (en) Map information providing apparatus using text search and method thereof
KR102278680B1 (en) System, method, and computer readable medium for providing photography pose
KR102358533B1 (en) Restaurant Information Service Providing System and Method
KR102662437B1 (en) System for providing optical character recognition based tourist information service
A Ali Abd El-Ghany et al. Augmented Reality Applications and their Role in Improving the Tourist Experience: Applied on Travel Agencies in Egypt
JP2006003963A (en) Local guide system
JP7225759B2 (en) Route search server, program, route search system and route search method
CN111324819B (en) Method and device for searching media content, computer equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant