KR102662437B1 - System for providing optical character recognition based tourist information service - Google Patents

System for providing optical character recognition based tourist information service Download PDF

Info

Publication number
KR102662437B1
KR102662437B1 KR1020230062931A KR20230062931A KR102662437B1 KR 102662437 B1 KR102662437 B1 KR 102662437B1 KR 1020230062931 A KR1020230062931 A KR 1020230062931A KR 20230062931 A KR20230062931 A KR 20230062931A KR 102662437 B1 KR102662437 B1 KR 102662437B1
Authority
KR
South Korea
Prior art keywords
image
search
ocr
user terminal
information
Prior art date
Application number
KR1020230062931A
Other languages
Korean (ko)
Inventor
이태용
조형렬
이유빈
Original Assignee
주식회사 메타전스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메타전스 filed Critical 주식회사 메타전스
Priority to KR1020230062931A priority Critical patent/KR102662437B1/en
Application granted granted Critical
Publication of KR102662437B1 publication Critical patent/KR102662437B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/14Travel agencies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/38Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1447Methods for optical code recognition including a method step for retrieval of the optical code extracting optical codes from image or text carrying said optical code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Electromagnetism (AREA)
  • Toxicology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

OCR 기반 관광안내 서비스 제공 시스템이 제공되며, OCR(Optical Character Recognition)을 수행할 이미지를 선택하거나 촬영을 하는 경우, 이미지 내 포함된 글자(Character)가 키워드로 검색된 결과를 출력하는 사용자 단말 및 사용자 단말에서 OCR을 수행할 이미지를 선택하거나 촬영을 하는 경우, 선택된 이미지 또는 촬영화면 상 이미지를 확정하는 확정부, 이미지 내 포함된 글자를 기 구축된 OCR로 검색하는 검색부, 검색된 글자를 키워드로 하는 검색결과를 기 구축된 내부 데이터베이스 또는 실시간으로 검색된 외부 데이터베이스로부터 검색하여 추출하는 추출부, 추출된 결과를 사용자 단말로 전송하는 전송부를 포함하는 관광안내 서비스 제공 서버를 포함한다.An OCR-based tourist information service provision system is provided, and when selecting or shooting an image to perform OCR (Optical Character Recognition), a user terminal and a user terminal that output search results using keywords for characters included in the image. When selecting or shooting an image to perform OCR on, a confirmation unit that confirms the selected image or image on the shooting screen, a search unit that searches letters included in the image using pre-built OCR, and a search using the searched letters as keywords. It includes a tourist information service providing server including an extraction unit that searches and extracts results from a pre-built internal database or an external database searched in real time, and a transmission unit that transmits the extracted results to the user terminal.

Description

OCR 기반 관광안내 서비스 제공 시스템{SYSTEM FOR PROVIDING OPTICAL CHARACTER RECOGNITION BASED TOURIST INFORMATION SERVICE}OCR based tourist information service provision system {SYSTEM FOR PROVIDING OPTICAL CHARACTER RECOGNITION BASED TOURIST INFORMATION SERVICE}

본 발명은 OCR 기반 관광안내 서비스 제공 시스템에 관한 것으로, 촬영화면 또는 사진에서 인식된 글자를 기반으로 내외부 데이터베이스와 연동하여 검색결과를 제공할 수 있는 관광안내 솔루션을 제공한다.The present invention relates to an OCR-based tourist information service provision system, and provides a tourist information solution that can provide search results by linking with internal and external databases based on characters recognized in captured screens or photos.

관광안내서비스는 관광통역안내사, 문화관광해설사 등과 같은 인적서비스와 홍보물, 브로셔, 키오스크 등과 같은 비인적 서비스로 구분된다. 관광정보는 관광객의 입장에서 보면 관광객에게 관광과 관련된 정보를 제공함으로써 그들의 관광욕구를 충족시켜야 하며, 관광자원의 관점에서는 각각의 관광자원이 가지고 있는 정보들을 수집 및 가공하여 이용자들에게 제공하는 단계에서 가치있는 형태로 제공함으로써 관광자원으로서의 가치를 전달할 수 있어야 한다. 바람직한 관광정보는 정확한 정보제공을 통해 관광객이 의사결정을 하는 데 있어 불확실성을 감소시켜줄 수 있어야 한다. 관광안내서비스는 외국인 및 내국인 관광객을 대상으로 하며, 관광객이 관광경험 과정에서 접하게 되는 서비스 접점을 모두 포함한다. 즉, 관광객이 여행 전·중·후 과정에서 겪게 되는 숙박, 식음, 교통, 관광기념품, ICT, 환대서비스 등과 관련된 관광안내·정보·해설 서비스 모두를 포함한다.Tourist information services are divided into human services such as tourist interpretation guides and cultural tour guides, and non-human services such as promotional materials, brochures, kiosks, etc. From the perspective of tourists, tourism information must satisfy their tourism needs by providing tourists with tourism-related information, and from the perspective of tourism resources, it collects and processes the information contained in each tourist resource and provides it to users. The value as a tourism resource must be conveyed by providing it in a valuable form. Desirable tourism information should be able to reduce uncertainty in tourists' decision-making by providing accurate information. Tourist information services target foreign and domestic tourists and include all service contact points that tourists encounter during their tourism experience. In other words, it includes all tourist guide, information, and interpretation services related to accommodation, food and beverage, transportation, tourist souvenirs, ICT, and hospitality services that tourists experience before, during, and after the trip.

이때, 관광안내를 GPS, QR 코드 및 NFC 태그를 이용하여 수행하는 방법이 연구 및 개발되었는데, 이와 관련하여, 선행기술인 한국등록특허 제10-1376790호(2014년03월20일 공고) 및 한국공개특허 제2014-0117337호(2014년10월07일 공개)에는, GPS 기반으로 관광지 안내 콘텐츠를 출력하고, 관광지 안내 정보를 제공할 때 사진 또는 카테고리 기반으로 제공하며, QR 코드 기반으로 관광지 안내문 정보를 제공하는 구성과, NFC 태그를 지도, 안내도 및 약도에 적용하여 각 객체별로 NFC 태그가 태깅되면 URL 링크를 따라 웹페이지로 연동시키는 구성이 각각 개시되어 있다.At this time, a method of performing tourist guidance using GPS, QR code, and NFC tags was researched and developed. In relation to this, the prior art, Korean Patent No. 10-1376790 (announced on March 20, 2014) and Korean Publication Patent No. 2014-0117337 (published on October 7, 2014) prints tourist destination guide content based on GPS, provides photo or category-based tourist destination guide information, and provides tourist destination guide information based on QR code. A configuration that provides and a configuration that applies NFC tags to maps, guide maps, and schematics to link them to a web page along a URL link when each object is tagged with an NFC tag is disclosed.

다만, 전자의 경우 QR 코드를 스캔한 후 이에 대응하는 링크로 이동하는 것이고, NFC 태그 또한 태그가 태깅된 지역의 검색만을 수행할 뿐, QR 코드나 NFC 태그가 없는 관광지의 경우 관광정보를 관광객이 스스로 검색을 해야 한다. 하지만 해외에 관광을 가서 해외 현지언어를 모르는 경우에는 글자를 보고도 자판이 다르거나 글자 자체를 인식하지 못해 검색하는 것조차 불가한 경우가 존재하고, 이미지의 경우 이미지 자체를 검색할 수 있어야 하지만 이를 특정하기가 쉽지 않아 검색결과가 엉뚱한 결과로 나오는 경우가 많다. 이에, 촬영화면에 포함된 글자 또는 저장된 사진에 포함된 글자를 인식 및 검색한 후 관광안내를 수행할 수 있는 시스템의 연구 및 개발이 요구된다.However, in the former case, the QR code is scanned and then moved to the corresponding link, and the NFC tag only performs a search of the tagged area. In the case of tourist attractions without a QR code or NFC tag, tourist information is provided to tourists. You have to search on your own. However, if you go sightseeing abroad and do not know the local language, there are cases where even searching is impossible because the keyboard is different or the letters themselves are not recognized even after looking at the letters. In the case of images, you must be able to search the image itself, but this is not possible. Since it is not easy to specify, search results often come up with incorrect results. Accordingly, research and development of a system that can provide tourist information after recognizing and searching letters included in a shooting screen or stored photos is required.

본 발명의 일 실시예는, 관광안내에 대한 적어도 하나의 카테고리에 따라 내부 데이터베이스를 구축한 후 외부 데이터베이스 서버와 연동하고, 사용자 단말에서 촬영을 위한 촬영화면 또는 기 저장된 사진 내 글자를 OCR로 인식한 후 OCR로 인식된 글자에 대응하는 검색결과를 사용자 단말로 전송해줌으로써, 사용자가 해외에 나가서 글자를 모르더라도 관련 검색결과를 제공할 수 있고, 국내의 경우일지라도 글자로 인식된 관광지 명소, 대중교통 및 맛집과 관련된 정보를 찾아줄 수 있으며, 글자가 아닌 이미지의 경우에도 딥러닝으로 인식된 결과에 위치정보를 부가하여 검색의 다양성을 제공하면서도 검색결과의 정확도를 높일 수 있는, OCR 기반 관광안내 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.One embodiment of the present invention builds an internal database according to at least one category for tourist information, then links it with an external database server, and recognizes characters in the captured screen or pre-stored photos using OCR on the user terminal. By sending search results corresponding to letters recognized through OCR to the user's terminal, relevant search results can be provided even if the user goes abroad and does not know the letters, and even in the case of domestically, tourist attractions, public transportation, and tourist attractions recognized as letters It is an OCR-based tourist information service that can find information related to restaurants and restaurants, and can increase the accuracy of search results while providing diversity in searches by adding location information to results recognized through deep learning even in the case of images rather than text. A delivery system can be provided. However, the technical challenge that this embodiment aims to achieve is not limited to the technical challenges described above, and other technical challenges may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, OCR(Optical Character Recognition)을 수행할 이미지를 선택하거나 촬영을 하는 경우, 이미지 내 포함된 글자(Character)가 키워드로 검색된 결과를 출력하는 사용자 단말 및 사용자 단말에서 OCR을 수행할 이미지를 선택하거나 촬영을 하는 경우, 선택된 이미지 또는 촬영화면 상 이미지를 확정하는 확정부, 이미지 내 포함된 글자를 기 구축된 OCR로 검색하는 검색부, 검색된 글자를 키워드로 하는 검색결과를 기 구축된 내부 데이터베이스 또는 실시간으로 검색된 외부 데이터베이스로부터 검색하여 추출하는 추출부, 추출된 결과를 사용자 단말로 전송하는 전송부를 포함하는 관광안내 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention provides that when selecting or photographing an image to perform OCR (Optical Character Recognition), characters included in the image are searched as keywords. When selecting or shooting an image to perform OCR on the user terminal and the user terminal that outputs the results, a confirmation part that confirms the selected image or image on the shooting screen, and a search that searches for characters included in the image using a pre-built OCR It includes a tourist information service providing server that includes an extraction unit that searches and extracts search results using the searched letters as keywords from a pre-built internal database or an external database searched in real time, and a transmission unit that transmits the extracted results to the user terminal. do.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 관광안내에 대한 적어도 하나의 카테고리에 따라 내부 데이터베이스를 구축한 후 외부 데이터베이스 서버와 연동하고, 사용자 단말에서 촬영을 위한 촬영화면 또는 기 저장된 사진 내 글자를 OCR로 인식한 후 OCR로 인식된 글자에 대응하는 검색결과를 사용자 단말로 전송해줌으로써, 사용자가 해외에 나가서 글자를 모르더라도 관련 검색결과를 제공할 수 있고, 국내의 경우일지라도 글자로 인식된 관광지 명소, 대중교통 및 맛집과 관련된 정보를 찾아줄 수 있으며, 글자가 아닌 이미지의 경우에도 딥러닝으로 인식된 결과에 위치정보를 부가하여 검색의 다양성을 제공하면서도 검색결과의 정확도를 높일 수 있다.According to one of the above-described means for solving the problem of the present invention, an internal database is built according to at least one category for tourist information, then linked with an external database server, and a captured screen for shooting or a pre-stored photo is stored on a user terminal. By recognizing letters with OCR and sending search results corresponding to the OCR-recognized letters to the user's terminal, relevant search results can be provided even if the user goes abroad and does not know the letters, and even in the case of domestic use, they are recognized as letters. It can find information related to tourist attractions, public transportation, and restaurants, and even in the case of images rather than text, location information can be added to the results recognized through deep learning to provide diversity in searches and increase the accuracy of search results. .

도 1은 본 발명의 일 실시예에 따른 OCR 기반 관광안내 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 관광안내 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 OCR 기반 관광안내 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 OCR 기반 관광안내 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
1 is a diagram illustrating an OCR-based tourist information service providing system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a tourist information service providing server included in the system of FIG. 1.
Figures 3 and 4 are diagrams for explaining an embodiment in which an OCR-based tourist information service is implemented according to an embodiment of the present invention.
Figure 5 is an operation flowchart for explaining a method of providing OCR-based tourist information service according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, this means that it does not exclude other components, but may further include other components, unless specifically stated to the contrary, and one or more other features. It should be understood that it does not exclude in advance the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. The terms “about,” “substantially,” and the like used throughout the specification are used to mean at or close to that value when manufacturing and material tolerances inherent in the stated meaning are presented, and are used to enhance the understanding of the present invention. Precise or absolute figures are used to assist in preventing unscrupulous infringers from taking unfair advantage of stated disclosures. The term “step of” or “step of” as used throughout the specification of the present invention does not mean “step for.”

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware. Meanwhile, '~ part' is not limited to software or hardware, and '~ part' may be configured to reside in an addressable storage medium or may be configured to reproduce one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, apparatus, or device may instead be performed on a server connected to the terminal, apparatus, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed in a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is identifying data of the terminal. It can be interpreted as:

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 OCR 기반 관광안내 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, OCR 기반 관광안내 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 관광안내 서비스 제공 서버(300), 적어도 하나의 판매자 단말(400), 적어도 하나의 외부 데이터베이스 서버(500)를 포함할 수 있다. 다만, 이러한 도 1의 OCR 기반 관광안내 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a diagram illustrating an OCR-based tourist information service providing system according to an embodiment of the present invention. Referring to FIG. 1, the OCR-based tourist information service providing system 1 includes at least one user terminal 100, a tourist information service providing server 300, at least one seller terminal 400, and at least one external database. It may include a server 500. However, since the OCR-based tourist guide service providing system 1 of FIG. 1 is only an embodiment of the present invention, the present invention is not limited to FIG. 1.

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 관광안내 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 관광안내 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 판매자 단말(400), 적어도 하나의 외부 데이터베이스 서버(500)와 연결될 수 있다. 또한, 적어도 하나의 판매자 단말(400)은, 네트워크(200)를 통하여 관광안내 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 적어도 하나의 외부 데이터베이스 서버(500)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 관광안내 서비스 제공 서버(300) 및 적어도 하나의 판매자 단말(400)과 연결될 수 있다. At this time, each component of FIG. 1 is generally connected through a network (Network, 200). For example, as shown in FIG. 1, at least one user terminal 100 may be connected to the tourist information service providing server 300 through the network 200. Additionally, the tourist information service providing server 300 may be connected to at least one user terminal 100, at least one seller terminal 400, and at least one external database server 500 through the network 200. Additionally, at least one seller terminal 400 may be connected to the tourist information service providing server 300 through the network 200. In addition, at least one external database server 500 may be connected to at least one user terminal 100, the tourist information service providing server 300, and at least one seller terminal 400 through the network 200.

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure that allows information exchange between each node, such as a plurality of terminals and servers. Examples of such networks include a local area network (LAN) and a wide area network (WAN). Wide Area Network, Internet (WWW: World Wide Web), wired and wireless data communication network, telephone network, wired and wireless television communication network, etc. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), and Wi-Fi. , Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth network, NFC ( It includes, but is not limited to, Near-Field Communication (Near-Field Communication) network, satellite broadcasting network, analog broadcasting network, and DMB (Digital Multimedia Broadcasting) network.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if the term at least one does not exist, each component may exist in singular or plural, and may mean singular or plural. This should be self-explanatory. In addition, whether each component is provided in singular or plural form may be changed depending on the embodiment.

적어도 하나의 사용자 단말(100)은, OCR 기반 관광안내 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 촬영화면 또는 기 저장된 사진을 업로드하거나 관광안내 서비스 제공 서버(300)의 엑세스를 허용하고, 관광안내 서비스 제공 서버(300)의 OCR로 글자를 인식 및 검색한 결과를 수신하여 출력하는 사용자(User)인 관광객의 단말일 수 있다.At least one user terminal 100 uploads a captured screen or a pre-stored photo using an OCR-based tourist information service-related web page, app page, program, or application, or allows access to the tourist information service providing server 300, , It may be a terminal of a tourist who receives and outputs the results of character recognition and search using OCR of the tourist information service providing server 300.

여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one user terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop equipped with a navigation system and a web browser, a desktop, a laptop, etc. At this time, at least one user terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one user terminal 100 is, for example, a wireless communication device that guarantees portability and mobility, and includes navigation, personal communication system (PCS), global system for mobile communications (GSM), personal digital cellular (PDC), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) ) It may include all types of handheld-based wireless communication devices such as terminals, smartphones, smartpads, and tablet PCs.

관광안내 서비스 제공 서버(300)는, OCR 기반 관광안내 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 관광안내 서비스 제공 서버(300)는, 적어도 하나의 카테고리별로 관광안내가 가능하도록 내부 데이터베이스를 구축하고, 적어도 하나의 외부 데이터베이스 서버(500)와 연동되도록 설정하는 서버일 수 있다. 그리고, 관광안내 서비스 제공 서버(300)는, 사용자 단말(100)에서 촬영하는 촬영화면을 구동시키거나 기 저장된 사진 내 OCR을 요청하는 경우, 촬영화면 내 글자 또는 사진 내 글자를 OCR로 인식한 후, 글자를 키워드로 기 구축된 내부 데이터베이스 또는 외부 데이터베이스 서버(500)에서 검색결과를 추출한 후 사용자 단말(100)로 전송하는 서버일 수 있다. 이때, 관광안내 서비스 제공 서버(300)는, GPS를 기반으로 검색정확도를 더 높일 수도 있고, 검색결과를 최신순으로 정렬하여 최근 관광정보를 기준으로 정보를 제공할 수 있도록 할 수도 있다.The tourist information service providing server 300 may be a server that provides an OCR-based tourist information service web page, app page, program, or application. Additionally, the tourist information service providing server 300 may be a server that builds an internal database to enable tourist information for at least one category and sets it to be linked with at least one external database server 500. In addition, when driving a shooting screen captured by the user terminal 100 or requesting OCR in a pre-stored photo, the tourist information service providing server 300 recognizes the characters in the shooting screen or the characters in the photo as OCR and then , It may be a server that extracts search results from an internal database or an external database server 500 that uses letters as keywords and then transmits them to the user terminal 100. At this time, the tourist information service providing server 300 may further increase search accuracy based on GPS, and may arrange search results in latest order to provide information based on recent tourist information.

여기서, 관광안내 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the tourist information service providing server 300 may be implemented as a computer that can access a remote server or terminal through a network. Here, the computer may include, for example, a laptop equipped with a navigation system and a web browser, a desktop, a laptop, etc.

적어도 하나의 판매자 단말(400)은, OCR 기반 관광안내 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 사용자 단말(100)의 가격검색 이벤트가 발생한 경우, 역으로 더 낮은 가격을 제시함으로써 사용자 단말(100)의 방문 및 결제를 유도하는 상품 또는 서비스를 판매 또는 제공하는 판매자의 단말일 수 있다.When a price search event of the user terminal 100 occurs using an OCR-based tourist information service-related web page, app page, program, or application, at least one seller terminal 400 conversely offers a lower price to the user. It may be a seller's terminal that sells or provides products or services that induce visits and payments to the terminal 100.

여기서, 적어도 하나의 판매자 단말(400)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 판매자 단말(400)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 판매자 단말(400)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one seller terminal 400 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop equipped with a navigation system and a web browser, a desktop, a laptop, etc. At this time, at least one seller terminal 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one seller terminal 400 is, for example, a wireless communication device that guarantees portability and mobility, and includes navigation, personal communication system (PCS), global system for mobile communications (GSM), personal digital cellular (PDC), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) ) It may include all types of handheld-based wireless communication devices such as terminals, smartphones, smartpads, and tablet PCs.

적어도 하나의 외부 데이터베이스 서버(500)는, OCR 기반 관광안내 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하거나 이용하지 않고 관광안내 서비스 제공 서버(300)의 엑세스를 허용하고 검색결과를 제공하는 서버일 수 있다. 여기서, 적어도 하나의 외부 데이터베이스 서버(500)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. At least one external database server 500 allows access to the tourist information service providing server 300 and provides search results with or without using OCR-based tourist information service-related web pages, app pages, programs, or applications. It could be a server. Here, at least one external database server 500 may be implemented as a computer that can connect to a remote server or terminal through a network. Here, the computer may include, for example, a laptop equipped with a navigation system and a web browser, a desktop, a laptop, etc.

도 2는 도 1의 시스템에 포함된 관광안내 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 OCR 기반 관광안내 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.Figure 2 is a block diagram for explaining the tourist information service providing server included in the system of Figure 1, and Figures 3 and 4 show an embodiment in which the OCR-based tourist information service is implemented according to an embodiment of the present invention. This is a drawing for explanation.

도 2를 참조하면, 관광안내 서비스 제공 서버(300)는, 확정부(310), 검색부(320), 추출부(330), 전송부(340), 딥러닝인식부(350), 위치반영부(360), 위치확인부(370), 카테고리검색부(380), 대중교통안내부(390), 검색엔진부(391)를 포함할 수 있다.Referring to Figure 2, the tourist information service providing server 300 includes a confirmation unit 310, a search unit 320, an extraction unit 330, a transmission unit 340, a deep learning recognition unit 350, and a location reflection unit. It may include a unit 360, a location confirmation unit 370, a category search unit 380, a public transportation information unit 390, and a search engine unit 391.

본 발명의 일 실시예에 따른 관광안내 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100), 적어도 하나의 판매자 단말(400) 및 적어도 하나의 외부 데이터베이스 서버(500)로 OCR 기반 관광안내 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100), 적어도 하나의 판매자 단말(400) 및 적어도 하나의 외부 데이터베이스 서버(500)는, OCR 기반 관광안내 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100), 적어도 하나의 판매자 단말(400) 및 적어도 하나의 외부 데이터베이스 서버(500)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.The tourist information service providing server 300 according to an embodiment of the present invention or another server (not shown) operating in conjunction with at least one user terminal 100, at least one seller terminal 400, and at least one external When transmitting an OCR-based tourist information service application, program, app page, web page, etc. to the database server 500, at least one user terminal 100, at least one seller terminal 400, and at least one external database server (500) can install or open an OCR-based tourist information service application, program, app page, web page, etc. Additionally, a service program may be run on at least one user terminal 100, at least one seller terminal 400, and at least one external database server 500 using a script executed in a web browser. Here, a web browser is a program that allows the use of web (WWW: World Wide Web) services and refers to a program that receives and displays hypertext written in HTML (Hyper Text Mark-up Language), for example, Netscape. , Explorer, Chrome, etc. Additionally, an application refers to an application on a terminal and includes, for example, an app running on a mobile terminal (smartphone).

도 2를 참조하면, 확정부(310)는, 사용자 단말(100)에서 OCR을 수행할 이미지를 선택하거나 촬영을 하는 경우, 선택된 이미지 또는 촬영화면 상 이미지를 확정할 수 있다.Referring to FIG. 2, when the user terminal 100 selects or captures an image to perform OCR, the confirmation unit 310 may confirm the selected image or the image on the capture screen.

검색부(320)는, 이미지 내 포함된 글자를 기 구축된 OCR로 검색할 수 있다. 현재 OCR(Optical Character Recognition)은 다양한 분야(데이터 입력 자동화, 문서 편집, 문서 분류 등) 에서 활용되고 있고, 구글, 카카오, 네이버 등 이러한 OCR을 제공하는 서비스도 다양해지고 있다. 다양한 활용성에 비해 이러한 기술에 한계도 있는데, 제공되는 OCR을 사용해 보면 OCR가 이미지에 전체적으로 적용이 되기 때문에 특정 위치에만 OCR을 적용해야 할 경우에는 그에 맞는 템플릿을 사용해야 한다. 그렇지 않으면 이미지 내에 있는 모든 텍스트가 뒤섞여서 출력되는 경우가 발생한다. 또한, 이미지가 회전된 경우에는 OCR이 제대로 적용되지 않는 문제가 있다. 이에, 본 발명의 일 실시예는 원하는 위치에만 OCR을 적용하여 그 부분의 문자만을 추출한 후, 추출된 문자(글자)를 검색하여 검색결과를 제공할 수 있다. 이 모델은 크게 3개의 단계로 구성될 수 있는데, 사전 학습(Pre-Trained)된 객체탐지(Object Detection) 모델에 추가 학습을 진행하여 OCR을 적용하고자 하는 위치를 탐지하고(제 1 단계 및 제 2 단계), 해당 위치에만 OCR을 적용하여 텍스트를 추출할 수 있다(제 3 단계). The search unit 320 can search for letters included in the image using a pre-built OCR. Currently, OCR (Optical Character Recognition) is being used in various fields (data input automation, document editing, document classification, etc.), and services that provide OCR such as Google, Kakao, and Naver are becoming more diverse. Compared to its versatility, there are limitations to this technology. When using the provided OCR, OCR is applied to the entire image, so if OCR needs to be applied only to a specific location, an appropriate template must be used. Otherwise, all text in the image may be displayed mixed up. Additionally, there is a problem that OCR is not applied properly when the image is rotated. Accordingly, one embodiment of the present invention applies OCR only to a desired location, extracts only the text for that portion, and then searches the extracted characters (letters) to provide search results. This model can be largely composed of three stages: performing additional learning on the pre-trained object detection model to detect the location where OCR is to be applied (first and second stages) step), the text can be extracted by applying OCR only to that location (third step).

<데이터 수집 및 모델링><Data collection and modeling>

관광지에서 촬영되는 사진으로부터 정보를 추출하는 모델을 구축하기 위해 적어도 하나의 카테고리별로 사진을 수집한 후 이미지 데이터셋을 구축하여 학습에 이용할 수 있다. 각 카테고리별로 글자인 객체를 탐지하기 위한 제 1 단계 및 제 2 단계(Stage 1 & Stage 2)의 YOLO 모델 학습을 위해 각 카테고리별 관광지 사진에 라벨링을 수행함으로써 객체(글자)를 탐지하도록 학습시킬 수 있다. 제 1 단계 및 제 2 단계는 객체탐지를 위한 과정이고, 제 3 단계(Stage 3)는 제 1 단계 및 제 2 단계로 추출한 객체(글자)에 OCR을 적용해 텍스트를 뽑아내는 단계이다. 모델을 3 단계로 나눈 이유는 원본 이미지에 바로 OCR을 적용할 경우 원하는 텍스트 외에 다른 텍스트가 뒤섞여서 출력되는 문제가 있기 때문에 이를 방지하기 위함이다. 객체탐지(Object Detection)을 위해 사용하는 모델은 COCO 데이터셋일 수 있고, 사전학습(Pre-Trained)된 YOLO 모델에 본 발명의 플랫폼에서 수집한 학습데이터를 넣어 추가학습시킨 모델을 이용할 수 있다. Optimizer는 SGD(Stochastic Gradient Descent)를 이용할 수 있고, 다른 하이퍼 파라미터 값은 동일하게 유지한 상태에서 Epochs만 변경하며 모델을 학습시킬 수 있다. In order to build a model that extracts information from photos taken at tourist attractions, photos can be collected for at least one category, then an image dataset can be constructed and used for learning. To learn the YOLO model in the first and second stages (Stage 1 & Stage 2) to detect letters in each category, you can learn to detect objects (letters) by labeling photos of tourist attractions in each category. there is. The first and second stages are processes for object detection, and the third stage (Stage 3) is a stage where OCR is applied to the objects (letters) extracted in the first and second stages to extract text. The reason for dividing the model into three stages is to prevent the problem that when OCR is applied directly to the original image, other texts other than the desired text are mixed and output. The model used for object detection may be the COCO dataset, and a model that is additionally trained by adding learning data collected from the platform of the present invention to the pre-trained YOLO model can be used. The optimizer can use SGD (Stochastic Gradient Descent) and train the model by changing only epochs while keeping other hyperparameter values the same.

OCR 모델로는 Google Cloud Vision API를 활용할 수 있으나 이에 한정되지는 않는다. 또, 본 발명의 도메인이 관광도메인임을 고려하면 바로 사용할 경우 성능이 좋지 않을 수 있으므로, OCR 모델에 데이터를 넣어주기 전 전처리를 진행할 수 있다. 전처리로는 1.5 배 Resize한 후 보간법으로 INTER AREA를 적용할 수 있고, 흑백변환 후 밝기조절을 적용할 수 있다. 전처리가 적용된 입력데이터를 OCR 모델에 넣어 결과값으로 텍스트를 출력할 수 있다. 출력된 제목 텍스트에도 특수문자, 공백제거, 중복 단어 제거와 같은 후처리를 적용하여 최종 결과물을 도출할 수 있다. 이때 OCR을 적용해야 할 글씨가 많아질경우 속도가 느려질 수 있으므로, 사용자가 촬영화면을 확정하거나 기 저장된 사진을 업로드하면, 제 1 단계에서 객체탐지모델이 추출한 경계박스(Bounding Box)를 기반으로 사용자가 원하는 객체(글자)를 제 2 단계에서 선택할 수 있도록 하고, 사용자가 원하는 객체를 확정하면, 제 2 단계의 객체탐지모델과 제 3 단계의 OCR 모델을 거쳐 최종 결과물을 도출할 수 있다.The OCR model can use the Google Cloud Vision API, but is not limited to this. Additionally, considering that the domain of the present invention is a tourism domain, performance may not be good if used immediately, so preprocessing may be performed before inputting data into the OCR model. As preprocessing, you can resize by 1.5 times and then apply INTER AREA using interpolation, and after converting to black and white, you can apply brightness control. You can input preprocessed input data into an OCR model and output text as a result. Post-processing such as removal of special characters, spaces, and duplicate words can be applied to the printed title text to produce the final result. At this time, if the number of letters to which OCR needs to be applied increases, the speed may slow down, so when the user confirms the capture screen or uploads a pre-saved photo, the user is sent based on the bounding box extracted by the object detection model in the first step. The user can select the desired object (letter) in the second step, and once the user confirms the desired object, the final result can be derived through the object detection model in the second step and the OCR model in the third step.

추출부(330)는, 검색된 글자를 키워드로 하는 검색결과를 기 구축된 내부 데이터베이스 또는 실시간으로 검색된 외부 데이터베이스로부터 검색하여 추출할 수 있다. 예를 들어, 사용자가 제주도에 도착해서 최근 인스타그램에서 핫플레이스인 연돈 간판을 촬영했다고 가정하자. 이때, 사용자가 원하는 결과는 연돈의 메뉴, 가격, 맛평가, 리뷰, 영업시간 등의 정보일텐데, 검색결과에 서울의 연돈 프랜차이즈가 나온다면, 검색을 한 이유가 없고, 검색엔진이 똑똑하지 못하다고 느낄 수 있다. 이렇게 상황에 맞는 검색결과가 나오지 않는다면 본 발명의 OCR을 사용자는 이용하지 않을 수 있다. 이에, 본 발명의 일 실시예에서는 OCR로 입력된 키워드 외에 사용자가 처한 상황과 관련한 상황정보 키워드를 반자동으로 수집하는 방법을 이용할 수 있다. 자동으로 수집할수 있는 사용자의 실시간 상황정보는 날씨, 위치, 시간, 계절, 교통 등의 정보가 있으며, 사용자의 현재 기분 상태와 같이 외부에서 알 수 없는 정보는 직접 입력받아 데이터베이스에 수집한다. 수집된 추가 키워드들은 사용자가 어떠한 상황에서 해당 정보를 수집했는지 파악할 수 있으며, 다른 정보들과 결합하여 사용자의 검색 상황에 맞춘 효과적인 검색 결과를 제공할 수 있다.The extraction unit 330 may search and extract search results using the searched letters as keywords from a pre-built internal database or an external database searched in real time. For example, let's assume that a user arrived in Jeju Island and took a photo of the signboard of Yeondon, a hot spot on Instagram. At this time, the results the user wants would be information such as Yeondon's menu, price, taste rating, reviews, business hours, etc., but if a Yeondon franchise in Seoul appears in the search results, there is no reason to search and the search engine may feel that it is not smart. You can. If search results suitable for the situation are not found, the user may not use the OCR of the present invention. Accordingly, in one embodiment of the present invention, a method of semi-automatically collecting contextual information keywords related to the situation faced by the user in addition to keywords input through OCR can be used. The user's real-time situational information that can be automatically collected includes information such as weather, location, time, season, and traffic, and information that cannot be known from the outside, such as the user's current mood, is directly entered and collected in the database. The additional keywords collected can be used to determine under what circumstances the user collected the information, and can be combined with other information to provide effective search results tailored to the user's search situation.

<상황정보 생성><Generation of situation information>

상황정보란 위에서 상술한 바와 같이 사용자가 처한 상황에서 실시간으로 받아올 수 있는 모든 외부 정보를 말하며 시간, 날씨, 위치, 계절, 교통 등의 정보가 될 수 있다. 상황정보를 이용하면 사용자가 어떤 상황에서 정보를 수집했는지 알 수 있으며, 이를 검색에 이용하면 사용자가 처한 상황에 맞는 정보를 제공할 수 있게 되어, 검색의 효율과 편리를 가져올 수 있다. 예를 들어, 비가 오는 날 갈만한 술집 정보를 얻고자 할 때, OCR로 술집이라는 단어만 인식되어도 사용자가 비가 오던 날 저장했던 막걸리 집이나 파전 집 등 비 오는 날씨에 갈 만한 술집과 관련된 검색결과를 얻을 수 있다. 또, 여행 중에 맛 집을 검색할 때, [부산 수영구 맛집]이라는 식으로 위치정보를 검색 키워드에 포함할 필요없이 [맛집]이라는 단어만 검색해도 검색자의 위치를 자동으로 파악하여 가까운 위치의 맛집을 검색해줄 수 있다. As detailed above, situational information refers to all external information that can be received in real time in the situation the user is in, and can be information such as time, weather, location, season, and traffic. By using context information, you can find out under what circumstances the user collected information, and by using this for search, you can provide information tailored to the user's situation, making search more efficient and convenient. For example, when trying to get information about bars to go to on a rainy day, even if only the word bar is recognized through OCR, you can get search results related to bars to go to on a rainy day, such as a makgeolli restaurant or a green onion pancake restaurant that the user saved on a rainy day. You can. Additionally, when searching for a restaurant while traveling, you do not need to include location information in the search keyword, such as [Restaurants in Suyeong-gu, Busan]. Just search for the word [restaurant] and the searcher's location will be automatically determined to search for nearby restaurants. I can do it.

<상황정보 자동 확보><Automatically secure situation information>

외부 상황 키워드는 웹페이지 파싱(Parsing)의 방식을 이용하여 자동으로 얻을 수 있다. 파싱이란 파서(Parser) 역할을 하는 컴퓨터가 문장 단위의 문자열을 의미 있다고 여겨지는 토큰(Token)으로 분류하고 이들을 구문 트리(ParseTree)로 재구성하는 구문 분석 과정을 뜻한다. 즉, 많은 정보를 담고 있는 웹페이지에서 원하는 문자열만을 지정하여 가져올 수 있다. 다양한 상황정보 중 외부 상황을 직관적으로 인식 및 분류 가능하고 정보 활용도가 높은 날씨와 위치정보 두 가지를 얻을 수 있다. 이는 정보를 저장할 때와 검색할 때, 두 번 이루어지며 위치와 날씨정보를 얻는 과정은 GPS 기반 지역의 날씨정보를 알려주는 웹 사이트에서 원하는 정보를 지정하여 가져오는 방식으로 이루어진다. 이런 방식으로 위치와 날씨 뿐만 아니라 계절, 시간, 국가 등 사용자의 다양한 상황정보를 얻을 수 있다.External context keywords can be obtained automatically using web page parsing. Parsing refers to a syntax analysis process in which a computer acting as a parser classifies sentence-level strings into tokens that are considered meaningful and reconstructs them into a parse tree. In other words, you can retrieve only the desired string from a web page containing a lot of information. Among various situational information, it is possible to intuitively recognize and classify external situations and obtain weather and location information, which have high information utilization. This is done twice: when saving information and when retrieving it. The process of obtaining location and weather information is done by specifying and retrieving the desired information from a website that provides local weather information based on GPS. In this way, you can obtain various situational information about the user, such as location and weather, as well as season, time, and country.

사용자의 위치와 날씨정보는 자동으로 수집되고, 검색 시에도 자동으로 사용되지만 기분정보는 URL과 관련 키워드를 입력받을 때 혹은 검색할 때 사용자가 직접 선택해야 한다. 기분정보는 좋음, 보통, 나쁨 세 가지로 분류될 수 있다. 해당 정보는 옵션으로 입력이나 검색 시 사용자가 꼭 선택하지 않아도 되지만 현재 기분과 관련된 정보를 얻고 싶을 때는 기분정보를 설정한 후 검색하면 해당 기분정보까지 포함하고 있는 더 세부적인 검색 결과를 얻을 수 있다. 입력 시에도 마찬가지로 기분정보까지 함께 입력한다면 URL을 수집한 사람이 그당시 어떤 기분으로 그 정보를 얻었는지 알 수 있으므로 더 자세한 정보 공유가 가능하다. 데이터 파싱 즉, 상황정보의 확보 과정이 자동으로 이루어져 검색하는 순간의 위치, 날씨정보와 일치하는 상황정보를 가진 검색결과가 함께 검색될 수 있고 이 결과를 우선적으로 제공할 수 있다.The user's location and weather information are automatically collected and used automatically during searches, but mood information must be selected by the user when entering a URL and related keywords or when searching. Mood information can be classified into three categories: good, normal, and bad. This information is optional and the user does not have to select it when entering or searching, but if you want to get information related to your current mood, you can set the mood information and then search to get more detailed search results that include the mood information. Likewise, if you also enter mood information when inputting, you can find out what mood the person who collected the URL was in at the time to obtain the information, making it possible to share more detailed information. Data parsing, that is, the process of securing situational information, is performed automatically, so search results with situational information that matches the location and weather information at the moment of search can be searched together, and these results can be provided with priority.

전송부(340)는, 추출된 결과를 사용자 단말(100)로 전송할 수 있다. 사용자 단말(100)은, OCR(Optical Character Recognition)을 수행할 이미지를 선택하거나 촬영을 하는 경우, 이미지 내 포함된 글자(Character)가 키워드로 검색된 결과를 출력할 수 있다.The transmission unit 340 may transmit the extracted result to the user terminal 100. When selecting or photographing an image to perform OCR (Optical Character Recognition), the user terminal 100 may output results in which characters included in the image are searched as keywords.

딥러닝인식부(350)는, 사용자 단말(100)에서 선택 또는 촬영한 화면 상 이미지 내 글자가 존재하지 않는 경우, 기 구축된 딥러닝 알고리즘으로 이미지 내 객체를 탐지 및 확정하고, 확정된 객체를 이미지 검색으로 검색한 결과를 사용자 단말(100)로 전송할 수 있다. 만약, 이미지(사진) 내 글자가 없는 경우에는 객체탐지를 딥러닝 기반으로 수행함으로써 객체를 탐지 및 식별하고, 객체에 대한 검색을 수행해야 한다. 이때, 관광지에서는 장소를 검색하는 것인데, 예를 들어, 글자가 없어 상호나 지명을 인지하지 못한 상태에서 이미지만으로 검색을 해야 하는 경우에는 장소인식을 위한 딥러닝을 이용해야 한다. 예를 들어, 대만에서 유명한 탕후루 가게가 스린 야시장에 위치했고, 스린 야시장에서 찍은 탕후루를 검색하는 경우에 탕후루 자체만 있다면 존재한다면 탕후루 외의 정보를 수집한 후 장소를 특정해야 이에 대응하는 검색결과인 [스린 야시장]에 대한 정보가 나올 수 있다.If there are no letters in the image on the screen selected or captured by the user terminal 100, the deep learning recognition unit 350 detects and confirms the object in the image using a pre-built deep learning algorithm, and selects the confirmed object. Search results through image search can be transmitted to the user terminal 100. If there are no letters in the image (photo), object detection must be performed based on deep learning to detect and identify the object and perform a search for the object. At this time, you are searching for a place in a tourist destination. For example, if you need to search using only images without recognizing the name or place name due to the lack of letters, deep learning must be used for place recognition. For example, a famous Tanghulu store in Taiwan is located in Shilin Night Market, and if you search for Tanghulu taken at Shilin Night Market, if Tanghulu itself exists, you must collect information other than Tanghulu and then specify the location to respond. Information about [Shilin Night Market] may appear as a search result.

이를 위하여, 장소 인식을 위한 최신의 이미지 검색 기술인 Patch-NetVLAD를 이용할 수 있는데, 이는 다양한 크기(Multi-Scale)의 패치 사이즈를 이용하여 지역적 특징자, 전역적 특징자를 추출하고 이를 융합(Fusion)하여 지역적 특징자(Local Feature)와 전역적 특징자(Global Feature)를 결합함으로써, 크기 변화, 각도 변화 등의 여러가지 척도에 대응한 랜드마크를 특정한다. 랜드마크는 공간 점수화(Spatial Scoring) 및 인접 영역(Nearest Neighbor)을 통해 장소 인식을 위한 유사성 점수가 가장 높은 이미지를 추정한다. 이 방법은 컬러이미지 하나만을 입력으로 하는데, 이는 객체의 구분이 뚜렷하지 않은 밤 이미지를 검색하는 경우 검색의 정확도가 현저히 감소하게 된다. 이에 본 발명의 일 실시예에서는 Patch- NetVLAD를 이미지 검색 기술의 기반으로 사용하며 영상분할정보 이미지와 관심영역을 추가하여, 각 픽셀의 의미정보를 통해 검색의 정확도를 높이고 밤에 촬영한 이미지 또는 밤에 인식된 촬영화면에 대해서도 잘 적응할 수 있는 네트워크를 이용할 수 있다.For this purpose, you can use Patch-NetVLAD, the latest image search technology for place recognition, which extracts local features and global features using patch sizes of various sizes (multi-scale) and fuses them. By combining local features and global features, landmarks corresponding to various scales such as size change and angle change are specified. Landmarks estimate the image with the highest similarity score for place recognition through spatial scoring and nearest neighbor. This method uses only one color image as input, which significantly reduces the accuracy of the search when searching for a night image where object distinctions are not clear. Accordingly, in one embodiment of the present invention, Patch-NetVLAD is used as the basis of image search technology, and video segmentation information images and regions of interest are added to improve search accuracy through semantic information of each pixel, and to increase search accuracy through semantic information of each pixel and images taken at night or at night. You can also use a network that can adapt well to recognized shooting screens.

또는 MAC 또는 R-MAC을 이용할 수도 있는데, MAC은 이미지 정보에 대한 Max-Pooling 연산을 통해 이미지 표현방식을 K 크기의 벡터로 변환하며, 이 벡터 간의 코사인유사도를 계산하는 방식이다. 가장 활성화가 높은 위치의 정보만을 취득하여 유사도를 비교하는 것으로, 이때 이미지의 지역정보를 반영하지 못하는 단점이 생긴다. R-MAC은 여러 사이즈의 R 영역으로 나누어 다양한 영역에 따른 유사도를 계산함으로써 지역적인 특성손실을 보완한다. 즉, 이미지 전체의 유사도를 구하는것이 아니라 유사한 영역(R)을 먼저 선택한 후, 해당 영역에 대한 유사도를 계산하는 리랭킹(Re-Ranking) 과정이 추가된 것이다. 이를 발전시킨 삼중손실(Triplet Loss)를 이용한 이미지 검색을 이용할 수도 있다.Alternatively, MAC or R-MAC can be used. MAC converts the image expression method into a vector of size K through Max-Pooling operation on image information, and calculates the cosine similarity between these vectors. Similarity comparisons are made by acquiring only the information of the location with the highest activation, which has the disadvantage of not reflecting the local information of the image. R-MAC compensates for local feature loss by dividing R areas of various sizes and calculating similarity according to various areas. In other words, rather than calculating the similarity of the entire image, a re-ranking process was added to first select a similar region (R) and then calculate the similarity for that region. You can also use image search using triplet loss, which has been developed from this.

<이미지 검색><Image Search>

일반적인 Patch-NetVLAD의 경우 낮 이미지에 대해서만 학습하여 밤 이미지에는 취약한 결과를 보인다. 이에 상술한 바와 같이 환경변화에 대응하기 위해 낮과 밤 이미지를 모두 학습에 사용하여 기상이나 시간 변화에도 강인하도록 설계할 수 있다. 밤 이미지를 얻기 위해서 AU-GAN(Uncertainty-Aware Generative Adversarial Network)을 통해 낮 이미지를 밤 이미지로 증강할 수 있고, 네트워크의 성능을 높이기 위해 영상분할정보 이미지와 관심영역 추출모듈을 추가할 수 있다. 입력으로 들어간 낮 시간대의 데이터셋은 밤 시간대로 증강한 영상분할정보 이미지로 변환되며, 각각의 이미지는 특징자(Feature)로 추출된다. 이후 관심영역 추출모듈을 거쳐 이미지 검색모듈에 입력되며 최종적으로 입력이미지와 같은 위치로 추정되는 이미지를 도출함으로써 위치를 추정할 수 있다.In the case of general Patch-NetVLAD, it learns only on daytime images and shows weak results on night images. Accordingly, as described above, in order to respond to environmental changes, both day and night images can be used for learning to be designed to be robust to weather or time changes. To obtain a night image, the day image can be augmented with a night image through AU-GAN (Uncertainty-Aware Generative Adversarial Network), and an image segmentation information image and a region of interest extraction module can be added to improve the performance of the network. The input daytime data set is converted into an image segmentation information augmented for the night time, and each image is extracted as a feature. Afterwards, it goes through the region of interest extraction module and is input to the image search module, and finally, the location can be estimated by deriving an image estimated to be at the same location as the input image.

<영상분할기술><Image segmentation technology>

일반적인 방법은 동일한 환경인 낮 이미지로 학습 및 검증을 진행하여 환경 변화가 생겼을 때 성능이 감소하는 문제점이 있어서, 이를 해결하기 위해 영상분할 정보 이미지를 추가적으로 이용할 수 있다. 영상분할기술이 메인 네트워크와 동시에 학습이 이루어질 경우, 학습해야 하는 파라미터가 방대해져 학습시간이 증가하게 된다. 따라서 영상분할정보 이미지를 얻기 위해 이미 학습된 Cityscapes Datasets을 이용하여 ResNext-101을 베이스라인으로 사전 학습한 Panoptic-DeepLab을 이용할 수 있다. 해당 기술을 적용함으로써 위치추정을 할 때 불필요한 자동차나 사람 등의 객체가 아닌 도로, 건물, 나무 등의 중요한 객체를 중점적으로 파악하여 정확도를 높일 수 있다. 순간적으로 변하는 자동차나 인물 등에 집중하여 학습하게되면 비슷한 인물이 있는 다른위치로 추정할 가능성이 높아지므로, 위치를 추정할 때 중요한 고정객체들을 판단하고자 영상분할정보모듈을 추가할 수 있다. 영상분할정보모듈의 입력으로밤 이미지가 아닌 낮 이미지에 대한 영상분할정보를 이용할 수 있는데, 이는 밤 이미지의 경우 객체가 뚜렷하게 보이지 않아 정보가 대부분 왜곡되기 때문이다.The general method has the problem of performance decreasing when the environment changes by conducting learning and verification using daytime images in the same environment. To solve this, image segmentation information images can be additionally used. If the image segmentation technology is trained simultaneously with the main network, the parameters to be learned become enormous and the learning time increases. Therefore, to obtain image segmentation information, you can use Panoptic-DeepLab, which pre-trained ResNext-101 as a baseline using already learned Cityscapes Datasets. By applying this technology, accuracy can be increased by focusing on important objects such as roads, buildings, and trees rather than unnecessary objects such as cars or people when estimating location. If you learn by focusing on cars or people that change momentarily, the possibility of estimating a different location with a similar person increases, so an image segmentation information module can be added to determine important fixed objects when estimating a location. As an input to the image segmentation information module, image segmentation information for day images, not night images, can be used. This is because in the case of night images, objects are not clearly visible and most of the information is distorted.

<관심영역검출><Detection of area of interest>

관심영역은 입력된 각각의 이미지에서 중요하게 보아야 할 위치에 대한 가중치값을 의미한다. 상술한 바와 같이 위치를 추정할 때에는 일시적인 현상이 아닌 계속해서 유지되는 특징을 잡아서 매칭을 해야 하기 때문에 이동하는 객체의 중요도는 낮게, 고정객체의 중요도는 보다 높고 명확하게 판단하여 학습에 영향을 줄 수 있는 관심영역검출을 도입할 수 있다. 관심영역은 예를 들어, 총 4 개의 레이어로 이루어질 수 있으며, 평균 풀링(Average Pooling)과 최대값 풀링(Max Pooling) 레이어를 거친후에 컨볼루션층(Convolution Layer)을 통과한다. 이후VGG16에서 추출된 특징자들과 곱하기위해 시그모이드(Sigmoid) 레이어를 거쳐 최종적으로 관심영역검출이 된다. 관심영역 이미지를 이용함으로써 환경이 달라져도 낮과 밤 이미지에서 각각 중요도를 판단해 학습하게끔 하여 환경변화에도 강인한 아키텍처를 만들 수 있다.The region of interest refers to the weight value for the position that should be considered important in each input image. As mentioned above, when estimating the location, it is necessary to capture and match features that are continuously maintained rather than temporary phenomena, so the importance of moving objects can be lowered and the importance of fixed objects can be determined more clearly to influence learning. Region of interest detection can be introduced. For example, the region of interest may consist of a total of four layers, and passes through the average pooling and max pooling layers and then the convolution layer. Afterwards, it goes through a sigmoid layer to multiply with the features extracted from VGG16, and finally the region of interest is detected. By using region-of-interest images, even if the environment changes, it is possible to create an architecture that is robust to environmental changes by determining the importance of day and night images and learning them.

위치반영부(360)는, 사용자 단말(100)의 현위치를 GPS로 감지하거나 선택된 이미지의 지오태그(GeoTag)로부터 위치를 추출한 후, 글자에 대응하는 키워드와 함께 GPS 또는 위치를 검색어로 추가하여 검색결과를 추출할 수 있다. 사용자가 현재 관광지에 위치하고, 관광지의 현위치를 기준으로 검색한다고 가정하면, 사용자 단말(100)의 GPS를 추출하여 함께 검색을 수행할 수 있다. The location reflection unit 360 detects the current location of the user terminal 100 using GPS or extracts the location from the GeoTag of the selected image, and then adds GPS or location as a search term along with a keyword corresponding to the letter. Search results can be extracted. Assuming that the user is currently located at a tourist attraction and searches based on the current location of the tourist attraction, the GPS of the user terminal 100 can be extracted and a search can be performed together.

위치확인부(370)는, 사용자 단말(100)에서 촬영된 이미지 또는 촬영화면 상 이미지 내 글자를 감지한 후, 글자가 위치를 파악하는 글자인 경우 글자를 검색하여 위치를 파악함으로써 사용자 단말(100)의 현위치를 확정하고, 확정된 현위치를 기준으로 기 구축된 POI(Point of Interest) 정보를 추출하여 사용자 단말(100)로 전송할 수 있다. 사용자가 제주도 있고 연돈이 검색된다면, [제주도+연돈]의 검색어가 자동으로 생성 및 검색될 수 있다. 또는, 사용자가 제주도 연돈의 상호를 이미지로 촬영하거나 전화번호를 검색하는 경우, 전화번호 또는 상호를 기준으로 사용자의 현위치를 파악하고, 리뷰, 메뉴, 가격 등의 정보를 검색해줄 수 있다.The location confirmation unit 370 detects letters in the image captured by the user terminal 100 or the image on the capture screen, and then searches for the letters to determine the location if the letter is a letter for determining the location of the user terminal 100. )'s current location can be confirmed, and already established POI (Point of Interest) information can be extracted based on the confirmed current location and transmitted to the user terminal 100. If the user is in Jeju Island and searches for Yeondon, the search term [Jeju Island + Yeondon] can be automatically created and searched. Alternatively, when a user takes an image of the business name of Jeju Island Yeondon or searches for a phone number, the user's current location can be determined based on the phone number or business name, and information such as reviews, menus, and prices can be searched.

카테고리검색부(380)는, 사용자 단말(100)에서 OCR로 검색할 카테고리를 선택하는 경우, OCR로 검색된 글자를 키워드로 검색할 때 카테고리 내 포함된 검색결과를 우선적으로 추출하여 사용자 단말(100)로 전송할 수 있다. 예를 들어, 대중교통, 맛집, 관광지, 숙박, 이벤트/행사 등의 카테고리를 선택하면, 카테고리에 저장된 정보나 외부 데이터베이스의 정보를 우선순위로 정렬해줄 수 있다. When selecting a category to be searched by OCR in the user terminal 100, the category search unit 380 preferentially extracts search results included in the category when searching letters searched by OCR as a keyword to search the user terminal 100. It can be sent to . For example, if you select a category such as public transportation, restaurants, tourist attractions, lodging, or events/events, the information stored in the category or information from an external database can be sorted by priority.

대중교통안내부(390)는, 사용자 단말(100)에서 대중교통으로 이동 옵션을 선택한 경우, 사용자 단말(100)의 현위치를 기준으로 대중교통노선, 배차시간, 요금정보 및 노선을 포함하는 대중교통정보를 안내할 수 있다. 이때, 현재 위치를 파악하여 현재 어느 역 또는 정류장에 있는지를 파악하고, 이에 대응하는 노선을 우선적으로 제공해줄 수 있다. When the option to travel by public transportation is selected on the user terminal 100, the public transportation information unit 390 provides public transportation information including public transportation routes, dispatch times, fare information, and routes based on the current location of the user terminal 100. Traffic information can be provided. At this time, the current location can be determined to determine which station or stop the user is currently at, and the corresponding route can be provided preferentially.

검색엔진부(391)는, 사용자 단말(100)에서 이미지를 선택하거나 촬영하는 것 이외에, 검색어를 입력하여 검색결과를 제공받도록 검색옵션을 설정할 수 있다. 즉 일반적인 텍스트 입력 검색엔진도 함께 제공할 수 있다.The search engine unit 391 can set search options to provide search results by entering a search word in addition to selecting or shooting an image on the user terminal 100. In other words, a general text input search engine can also be provided.

덧붙여서, 본 발명의 일 실시예에서는 관광지를 추천해주거나 여행 일정을 계획하는 플랫폼을 더 제공할 수 있다. 즉, 여행 전에는 다양한 관광정보를 제공해 사용자가 여행 일정을 계획하는 것에 도움을 주고, 여행 중에는 사용자 현재 위치, 계절, 주변지역 날씨는 물론 사용자의 오늘 걸음 수, 식사 여부, 어떤 교통을 이용하는지 등의 상황인지 정보(Context Awareness)와 국적, 성별, 나이, 방한횟수, 사용자 선호도와 같은 사용자 정보(User Information)를 종합한 동적인 데이터를 추출하여 사용자의 상황에 맞는 관광정보를 검색 및 추천해주는 아키텍처를 설계할 수 있다.In addition, in one embodiment of the present invention, a platform for recommending tourist destinations or planning a travel itinerary may be further provided. In other words, it provides various tourist information before a trip to help users plan their travel itinerary, and during the trip, it provides information such as the user's current location, season, and weather in the surrounding area, as well as the user's number of steps today, whether or not they eat, and what type of transportation they use. An architecture that extracts dynamic data that combines context awareness and user information such as nationality, gender, age, number of visits to Korea, and user preferences to search and recommend tourist information tailored to the user's situation. It can be designed.

사용자는 여행 전 맞춤형 관광정보를 추천받기 위해 국적, 성별, 나이와 같은 기본정보와 관심사, 방문할 도시, 숙소 등을 API 모듈을 통해 등록할 수 있으며, 여행 계획을 세우고 여행 중 도움을 얻기 위한 일반적인 관광정보들을 열람할 수 있다. 여행을 마친 후에는 관광 코스를 공유하거나 후기를 작성할 수 있다. 이를 통해 기본적인 관광정보 및 내외국인들의 관광 코스 및 관광지에 대한 평가를 참고할 수 있다. 사용자 인터페이스 시스템이 관광정보를 제공했다면 관광지 등록 플랫폼은 이를 바탕으로 관광 코스를 생성하는 시스템이다. 여행 전 일반 사용자들은 방문할 도시, 숙소 등을 등록하고, 주요 관광정보를 제공받는다. 이를 이용해 제공받은 관광지의 조합으로 본인만의 관광 일정을 계획할 수 있다. 다음으로 여행 중에는 관광객의 위치를 기반으로 실제 여행 코스가 시스템에 기록된다. 판매자 단말(400)은 관광객의 관광 코스 성향을 제공받는다.Users can register basic information such as nationality, gender, age, interests, cities to visit, accommodations, etc. through the API module in order to receive customized tourist information recommendations before travel. General information can be used to make travel plans and get help during travel. You can view tourist information. After completing your trip, you can share your tourist course or write a review. Through this, you can refer to basic tourist information and evaluations of tourist courses and tourist destinations by domestic and foreigners. If the user interface system provides tourist information, the tourist destination registration platform is a system that creates tourist courses based on this. Before traveling, general users register the city they want to visit, accommodations, etc. and receive key tourist information. Using this, you can plan your own tour itinerary using a combination of the tourist attractions provided. Next, during the trip, the actual travel course is recorded in the system based on the tourist's location. The seller terminal 400 receives the tourist's tourist course preference.

<상황인지 플랫폼><Situation awareness platform>

여행 중 관광객의 여행에 영향을 끼치는 요소들을 인지하여 관광정보를 추천할 때 반영하기 위하여, IoT 센서 및 날씨, 교통들의 Open API가 이용될 수 있다. 사용자 정보를 통해서는 정적인 사용자 정보가 DB에 저장되는 반면, 사용자의 GPS를 기반으로 Open API로 수집된 정보는 동적인 사용자 정보로 DB에 저장된다. 관광객의 위치 및 피로도, 관광 시간, 배고픔 정도와 같은 사용자 상황인지와 날씨, 인구 밀집도, 교통 혼잡도와 같은 외부 상황인지 등이 동적 사용자 정보에 해당하며 통합하여 사용자 DB에 저장된다. 관광객들에게 사용자 성향에 맞는 관광정보를 추천하기 위하여 관광지 분석 모듈, 사용자 분석 모듈, 검색 및 추천 모듈로 구성될 수 있다. 분석 모듈을 위해 사용자DB, 관심사DB, 관광지DB가 사용되며 특히 사용자DB는 상황인지 정보를 포함한다. 검색 및 추천을 위해 국내의 경우, 한국관광공사에서 제공하는 외래 관광객 실태조사 보고서의 통계자료를 이용할 수 있다. 통계자료에는 국적, 성별, 관심사에 따른 주요 방한 목적 및 방문지 정보가 있어 검색 및 추천 모듈을 설계할 때 참고를 할 수 있다. 검색 및 추천 모듈에는 검색 및 추천을 위한 가중치변수가 있어 분석 모듈의 결과에 따라 다른 결과를 추천할 수 있도록 한다. Open APIs for IoT sensors, weather, and traffic can be used to recognize factors that affect tourists' travel and reflect them when recommending tourist information. While static user information is stored in the DB through user information, information collected through Open API based on the user's GPS is stored in the DB as dynamic user information. User circumstances such as the tourist's location and fatigue, tour time, and hunger level, and external circumstances such as weather, population density, and traffic congestion, etc. correspond to dynamic user information and are integrated and stored in the user DB. It can be composed of a tourist destination analysis module, a user analysis module, and a search and recommendation module to recommend tourist information that suits the user's preferences to tourists. For the analysis module, user DB, interest DB, and tourist destination DB are used. In particular, the user DB includes situational awareness information. For domestic purposes, you can use statistical data from the foreign tourist survey report provided by the Korea Tourism Organization for search and recommendation purposes. The statistical data contains information on the main purpose of visit and destinations based on nationality, gender, and interests, which can be used as a reference when designing search and recommendation modules. The search and recommendation module has weight variables for search and recommendation, allowing different results to be recommended depending on the results of the analysis module.

검색 및 추천 모듈은 먼저 여행 전 관광객은 관광정보를 열람하고, 기본정보 및 관심사를 등록하여 이를 토대로 추천받은 관광 코스를 통해 계획을 세울 수 있다. 여행 중에는 IoT 센서 및 Open API를 이용한 상황인지 정보와 관광객 행동 분석 정보, 여행 전 등록한 기본정보를 종합해 지속적인 관광정보를 추천받는다. 마지막으로 여행 후에는 여행 중 생성된 실제 관광 코스를 기반으로 후기를 작성하고 다른 관광객들과 공유를 할 수 있다. 사용자 단말(100)은, 여행 전 API 모듈을 통해 본인의 정보를 기반으로 맞춤형 관광지를 추천받아 관광 일정을 계획하고, 여행 중에는 사용자의 주변 상황정보와 행동 성향 및 선호도를 종합한 실시간 맞춤형 관광정보를 제공 받을 수 있다. 따라서 제안하는 관광 플랫폼을 통해 방한 관광객들은 여행을 계획하며 느끼는 불편함을 줄이고, 실시간 상황에 맞는 관광지를 추천 받아 만족스러운 여행을 즐길 수 있다. The search and recommendation module allows tourists to view tourist information before traveling, register basic information and interests, and make plans through recommended tourist courses based on this. During your trip, you receive continuous tourist information recommendations by combining situational awareness information using IoT sensors and Open API, tourist behavior analysis information, and basic information registered before travel. Finally, after the trip, you can write a review based on the actual tourist course created during the trip and share it with other tourists. The user terminal 100 plans a tour schedule by recommending customized tourist destinations based on the user's information through the API module before traveling, and provides real-time customized tourist information that combines the user's surrounding situation information, behavioral tendencies, and preferences during the trip. It can be provided. Therefore, through the proposed tourism platform, tourists visiting Korea can reduce the inconvenience they feel while planning a trip and enjoy a satisfying trip by receiving recommendations for tourist destinations that fit the real-time situation.

이하, 상술한 도 2의 관광안내 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, the operation process according to the configuration of the tourist information service providing server of FIG. 2 described above will be described in detail using FIGS. 3 and 4 as an example. However, it will be apparent that the embodiment is only one of various embodiments of the present invention and is not limited thereto.

도 3을 참조하면, (a) 본 발명의 일 실시예에 따른 솔루션(Metarism=Meta+Tourism)은, 적어도 하나의 카테고리에 적어도 하나의 정보를 수집하여 데이터베이스를 구축하고, (b) 외부 데이터베이스와도 연동되도록 연동 DBMS를 구축할 수 있다. 또, (c)와 같이 사용자 단말(100)에서 촬영화면 상에 이미지를 확정하거나 사진을 선택하는 경우, 관광안내 서비스 제공 서버(300)는 이미지 또는 사진 내 객체탐지를 통하여 글자가 있는 위치를 추출하고, 글자를 OCR로 인식한 후 검색엔진에 글자를 검색어로 입력하여 검색결과를 제공할 수 있다. 이때, 관광안내 서비스 제공 서버(300)는 (d) 글자가 포함된 사진이나 촬영화면이 아닌 경우 장소검색 딥러닝을 이용하여 장소를 파악한 후 객체를 식별하도록 할 수 있다. 또, 도 4의 (a)와 같이 사용자 단말(100)에서 검색을 한 결과에 대해서 판매자 단말(400)에서 역으로 보다 낮은 가격 등을 제시함으로써 방문 및 결제를 유도할 수도 있고, 관광안내 서비스 제공 서버(300)는 (b)와 같이 GPS를 연동함으로써 정확한 위치에 따른 검색결과를 제공할 수도 있다. 관광안내 서비스 제공 서버(300)는 (c)와 같이 각국 언어를 확인하고 언어에 따른 환율을 자동으로 제공할 수도 있으며, (d)와 같이 번역 및 통역을 수행할 수도 있다.Referring to Figure 3, (a) the solution (Metarism=Meta+Tourism) according to an embodiment of the present invention builds a database by collecting at least one information in at least one category, (b) an external database and An interconnected DBMS can be built so that it can also be interconnected. In addition, when the user terminal 100 confirms an image or selects a photo on the capture screen as shown in (c), the tourist information service providing server 300 extracts the location of the letter through object detection in the image or photo. After recognizing the letters with OCR, you can provide search results by entering the letters as search words in a search engine. At this time, the tourist information service providing server 300 may use place search deep learning to determine the place and then identify the object if it is not a photo or captured screen containing the letter (d). In addition, as shown in (a) of FIG. 4, the seller terminal 400 may inversely suggest a lower price for the search results on the user terminal 100 to encourage visits and payments, and provide a tourist information service. The server 300 may provide search results according to the exact location by linking GPS as shown in (b). The tourist information service providing server 300 may check the language of each country and automatically provide an exchange rate according to the language as shown in (c), and may also perform translation and interpretation as shown in (d).

이와 같은 도 2 내지 도 4의 OCR 기반 관광안내 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 OCR 기반 관광안내 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters that are not explained about the OCR-based tourist information service provision method in FIGS. 2 to 4 are the same as or can be easily inferred from the information explained about the OCR-based tourist information service provision method in FIG. 1. Therefore, the following description will be omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 OCR 기반 관광안내 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.FIG. 5 is a diagram illustrating a process in which data is transmitted and received between components included in the OCR-based tourist information service providing system of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of the process of transmitting and receiving data between each component will be described with reference to FIG. 5, but the present application is not limited to this embodiment, and the process shown in FIG. 5 according to the various embodiments described above It is obvious to those skilled in the art that the process of transmitting and receiving data can be changed.

도 5를 참조하면, 관광안내 서비스 제공 서버는, 사용자 단말에서 OCR을 수행할 이미지를 선택하거나 촬영을 하는 경우, 선택된 이미지 또는 촬영화면 상 이미지를 확정하고(S5100), 이미지 내 포함된 글자를 기 구축된 OCR로 검색한다(S5200).Referring to FIG. 5, when the tourist information service providing server selects or captures an image to perform OCR on the user terminal, it confirms the selected image or the image on the capture screen (S5100) and writes the letters included in the image. Search using the constructed OCR (S5200).

또, 관광안내 서비스 제공 서버는, 검색된 글자를 키워드로 하는 검색결과를 기 구축된 내부 데이터베이스 또는 실시간으로 검색된 외부 데이터베이스로부터 검색하여 추출하고(S5300), 추출된 결과를 사용자 단말로 전송한다(S5400).In addition, the tourist information service providing server searches and extracts search results using the searched letters as keywords from a pre-built internal database or an external database searched in real time (S5300) and transmits the extracted results to the user terminal (S5400) .

상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The sequence between the above-described steps (S5100 to S5400) is only an example and is not limited thereto. That is, the order between the above-described steps (S5100 to S5400) may change, and some of the steps may be executed simultaneously or deleted.

이와 같은 도 5의 OCR 기반 관광안내 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 OCR 기반 관광안내 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters that are not explained about the OCR-based tourist information service provision method of FIG. 5 are the same as or can be easily inferred from the content explained about the OCR-based tourist information service provision method through FIGS. 1 to 4. Therefore, the following description will be omitted.

도 5를 통해 설명된 일 실시예에 따른 OCR 기반 관광안내 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The OCR-based tourist information service providing method according to an embodiment described with reference to FIG. 5 can also be implemented in the form of a recording medium containing instructions executable by a computer, such as an application or program module executed by a computer. . Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include all computer storage media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 OCR 기반 관광안내 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 OCR 기반 관광안내 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The method of providing an OCR-based tourist guide service according to an embodiment of the present invention described above can be executed by an application installed by default on the terminal (this may include programs included in the platform or operating system, etc., installed by default on the terminal). It may also be executed by an application (i.e., program) installed by the user directly on the master terminal through an application providing server such as an application store server, an application, or a web server related to the service. In this sense, the OCR-based tourist information service providing method according to an embodiment of the present invention described above is implemented as an application (i.e., program) installed by default on the terminal or directly installed by the user and can be read by a computer such as the terminal. It can be recorded on any recording medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as single may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

Claims (7)

OCR(Optical Character Recognition)을 수행할 이미지를 선택하거나 촬영을 하는 경우, 이미지 내 포함된 글자가 키워드로 검색된 결과를 출력하는 사용자 단말; 및
상기 사용자 단말에서 OCR을 수행할 이미지를 선택하거나 촬영을 하는 경우, 선택된 이미지 또는 촬영화면 상 이미지를 확정하는 확정부, 상기 이미지 내 포함된 글자를 기 구축된 OCR로 검색하는 검색부, 상기 검색된 글자를 키워드로 하는 검색결과를 기 구축된 내부 데이터베이스 또는 실시간으로 검색된 외부 데이터베이스로부터 검색하여 추출하는 추출부, 추출된 결과를 상기 사용자 단말로 전송하는 전송부,
상기 사용자 단말에서 선택 또는 촬영한 화면 상 이미지 내 글자가 존재하지 않는 경우, Patch- NetVLAD를 이미지 검색 기술의 기반으로 사용하며 영상분할정보 이미지와 관심영역을 입력으로 한 기 구축된 딥러닝 알고리즘을 통해 이미지 내 객체를 탐지 및 확정하고, 확정된 객체를 이미지 검색으로 검색한 결과를 상기 사용자 단말로 전송하는 딥러닝인식부,
상기 사용자 단말에서 촬영된 이미지 또는 촬영화면 상 이미지 내 글자를 감지한 후, 상기 글자가 위치를 파악하는 글자인 경우 상기 글자를 검색하여 위치를 파악함으로써 상기 사용자 단말의 현위치를 확정하고, 확정된 현위치를 기준으로 기 구축된 POI(Point of Interest) 정보를 추출하여 상기 사용자 단말로 전송하는 위치확인부를 포함하는 관광안내 서비스 제공 서버;
를 포함하고,
적어도 하나의 카테고리별로 사진을 수집한 후 이미지 데이터셋을 구축하고, 이를 통해 각 카테고리별로 객체를 탐지하도록 학습이 수행된 상태에서, 상기 검색부는, i) 1단계로서 resize 및 흑백변환이 전처리된 이미지에 대해 객체탐지모델을 이용하여 경계박스를 추출하고, ii) 2단계로서 상기 객체탐지모델을 이용하여 상기 경계박스를 기반으로 상기 글자를 선택하며, iii) 3단계로서 OCR 모델을 통해 텍스트를 추출하고,
날씨, 위치를 포함하는 상황 정보를 수집하는 상태에서,
상기 관광안내 서비스 제공 서버는, 촬영된 이미지를 기초로 획득한 복수의 가게 정보 중에서 위치를 기준으로 대응하는 가게 정보를 획득하여 추출하고,
특정 날씨에 해당하는 경우, 상기 특정 날씨에 대응하여 저장된 가게 정보를 검색 결과로서 획득하며,
상기 사용자 단말에서 선택 또는 촬영한 화면 상 이미지 내 글자가 존재하지 않는 경우,
상기 딥러닝인식부는, 다양한 크기의 패치 사이즈를 이용하여 지역적 특징자, 전역적 특징자를 추출하고, 상기 지역적 특징자와 상기 전역적 특징자를 결합함으로써, 장소 인식을 위한 랜드마크를 특정하며,
낮 이미지에 대해서는 장소 인식을 위한 이미지 검색 기술인 상기 Patch- NetVLAD를 이용하고, 밤 이미지에 대해서는 AU-GAN을 통해 상기 낮 이미지를 상기 밤 이미지로 증강하고 영상분할정보 이미지와 관심영역 추출모듈을 추가하며,
입력된 이미지에서 중요 위치에 따른 가중치값을 의미하는 상기 관심영역과 관련하여, 이동하는 객체보다 고정 객체의 중요도가 더 높다고 판단되는 OCR 기반 관광안내 서비스 제공 시스템.
When selecting or photographing an image to perform OCR (Optical Character Recognition), a user terminal that outputs results in which characters included in the image are searched as keywords; and
When selecting or capturing an image to perform OCR on the user terminal, a confirmation unit for confirming the selected image or image on the capture screen, a search unit for searching letters included in the image using a pre-built OCR, and the searched letters An extraction unit that searches and extracts search results with keywords from a pre-built internal database or an external database searched in real time, a transmission unit that transmits the extracted results to the user terminal,
If there are no letters in the image on the screen selected or captured by the user terminal, Patch-NetVLAD is used as the basis for image search technology, and the image segmentation information image and region of interest are used as input through a pre-built deep learning algorithm. A deep learning recognition unit that detects and confirms objects in the image and transmits the results of searching the confirmed objects through image search to the user terminal;
After detecting a letter in an image captured by the user terminal or an image on the screen, if the letter is a letter that determines the location, the current location of the user terminal is determined by searching for the letter and determining the location, and the confirmed location is determined. A tourist information service providing server including a location confirmation unit that extracts pre-established POI (Point of Interest) information based on the current location and transmits it to the user terminal;
Including,
After collecting photos for at least one category, building an image dataset, and learning to detect objects for each category through this, the search unit: i) images preprocessed by resize and black-and-white conversion as the first step; extract the bounding box using an object detection model, ii) as the second step, select the letter based on the bounding box using the object detection model, and iii) extract the text through the OCR model as the third step. do,
While collecting situational information including weather and location,
The tourist information service providing server obtains and extracts corresponding store information based on location from a plurality of store information obtained based on the captured image,
If the weather corresponds to a specific weather, store information stored in response to the specific weather is obtained as a search result,
If there are no letters in the image on the screen selected or captured on the user terminal,
The deep learning recognition unit extracts local features and global features using patch sizes of various sizes, and combines the local features and the global features to specify landmarks for place recognition,
For day images, the Patch-NetVLAD, an image search technology for place recognition, is used, and for night images, the day images are augmented with the night images through AU-GAN, and an image segmentation information image and a region of interest extraction module are added. ,
An OCR-based tourist information service providing system in which fixed objects are judged to be more important than moving objects in relation to the area of interest, which means a weight value according to important positions in the input image.
삭제delete ◈청구항 3은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 3 was abandoned upon payment of the setup registration fee.◈ 제 1 항에 있어서,
상기 관광안내 서비스 제공 서버는,
상기 사용자 단말의 현위치를 GPS로 감지하거나 상기 선택된 이미지의 지오태그(GeoTag)로부터 위치를 추출한 후, 상기 글자에 대응하는 키워드와 함께 상기 GPS 또는 위치를 검색어로 추가하여 검색결과를 추출하는 위치반영부;
를 더 포함하는 것을 특징으로 하는 OCR 기반 관광안내 서비스 제공 시스템.
According to claim 1,
The tourist information service providing server is,
Location reflection that detects the current location of the user terminal using GPS or extracts the location from the GeoTag of the selected image, and then extracts search results by adding the GPS or location as a search word along with a keyword corresponding to the letter. wealth;
An OCR-based tourist information service provision system further comprising:
삭제delete ◈청구항 5은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 5 was abandoned upon payment of the setup registration fee.◈ 제 1 항에 있어서,
상기 관광안내 서비스 제공 서버는,
상기 사용자 단말에서 OCR로 검색할 카테고리를 선택하는 경우, 상기 OCR로 검색된 글자를 키워드로 검색할 때 상기 카테고리 내 포함된 검색결과를 우선적으로 추출하여 상기 사용자 단말로 전송하는 카테고리검색부;
를 더 포함하는 것을 특징으로 하는 OCR 기반 관광안내 서비스 제공 시스템.
According to claim 1,
The tourist information service providing server is,
When the user terminal selects a category to be searched by OCR, a category search unit that preferentially extracts search results included in the category and transmits them to the user terminal when searching the characters searched by OCR as a keyword;
An OCR-based tourist information service provision system further comprising:
제 1 항에 있어서,
상기 관광안내 서비스 제공 서버는,
상기 사용자 단말에서 대중교통으로 이동 옵션을 선택한 경우, 상기 사용자 단말의 현위치를 기준으로 대중교통노선, 배차시간, 요금정보 및 노선을 포함하는 대중교통정보를 안내하는 대중교통안내부;
를 더 포함하는 것을 특징으로 하는 OCR 기반 관광안내 서비스 제공 시스템.
According to claim 1,
The tourist information service providing server is,
When the user terminal selects the option to travel by public transportation, a public transportation information unit that provides public transportation information including public transportation routes, dispatch times, fare information, and routes based on the current location of the user terminal;
An OCR-based tourist information service provision system further comprising:
제 1 항에 있어서,
상기 관광안내 서비스 제공 서버는,
상기 사용자 단말에서 상기 이미지를 선택하거나 촬영하는 것 이외에, 검색어를 입력하여 검색결과를 제공받도록 검색옵션을 설정하는 검색엔진부;
를 더 포함하는 것을 특징으로 하는 OCR 기반 관광안내 서비스 제공 시스템.
According to claim 1,
The tourist information service providing server is,
In addition to selecting or photographing the image on the user terminal, a search engine unit sets search options to provide search results by entering a search term;
An OCR-based tourist information service provision system further comprising:
KR1020230062931A 2023-05-16 2023-05-16 System for providing optical character recognition based tourist information service KR102662437B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230062931A KR102662437B1 (en) 2023-05-16 2023-05-16 System for providing optical character recognition based tourist information service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230062931A KR102662437B1 (en) 2023-05-16 2023-05-16 System for providing optical character recognition based tourist information service

Publications (1)

Publication Number Publication Date
KR102662437B1 true KR102662437B1 (en) 2024-05-07

Family

ID=91077987

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230062931A KR102662437B1 (en) 2023-05-16 2023-05-16 System for providing optical character recognition based tourist information service

Country Status (1)

Country Link
KR (1) KR102662437B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170107865A (en) * 2016-03-16 2017-09-26 김진섭 Personalized Tour Information System based on Big-data Technology
KR20180131435A (en) * 2017-05-30 2018-12-10 목포대학교산학협력단 System for searching a local information using application programming interface, and method thereof
KR20190119686A (en) * 2018-03-30 2019-10-23 한성대학교 산학협력단 Code generating apparatus and method
KR102112715B1 (en) * 2019-05-14 2020-05-20 주식회사비지웰 Method and system for estimating a location of mobile computing device
KR20200145040A (en) * 2019-06-20 2020-12-30 엔에이치엔 주식회사 Apparatus and system for prviding travel information using image search
KR20210047618A (en) * 2019-10-22 2021-04-30 류승완 Map information providing apparatus using text search and method thereof
KR20220009039A (en) * 2020-07-15 2022-01-24 원리아 Method for providing electric travel guide brochure based on user location and travel schedule

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170107865A (en) * 2016-03-16 2017-09-26 김진섭 Personalized Tour Information System based on Big-data Technology
KR20180131435A (en) * 2017-05-30 2018-12-10 목포대학교산학협력단 System for searching a local information using application programming interface, and method thereof
KR20190119686A (en) * 2018-03-30 2019-10-23 한성대학교 산학협력단 Code generating apparatus and method
KR102112715B1 (en) * 2019-05-14 2020-05-20 주식회사비지웰 Method and system for estimating a location of mobile computing device
KR20200145040A (en) * 2019-06-20 2020-12-30 엔에이치엔 주식회사 Apparatus and system for prviding travel information using image search
KR20210047618A (en) * 2019-10-22 2021-04-30 류승완 Map information providing apparatus using text search and method thereof
KR20220009039A (en) * 2020-07-15 2022-01-24 원리아 Method for providing electric travel guide brochure based on user location and travel schedule

Similar Documents

Publication Publication Date Title
Li et al. Big data in tourism research: A literature review
US11782959B2 (en) Systems and methods for utilizing property features from images
CN110472066B (en) Construction method of urban geographic semantic knowledge map
CN102822817B (en) For the Search Results of the action taked of virtual query
US20180101753A1 (en) Organizing images associated with a user
CN102770862B (en) It is used in mixed way position sensor data and virtual query to include to this locality returning virtual query
CN101743541A (en) Method, device and computer program product for integrating code-based and optical character recognition technologies into a mobile visual search
Giglio et al. Machine learning and points of interest: typical tourist Italian cities
US20110087685A1 (en) Location-based service middleware
KR102236546B1 (en) Method for providing bigdata and artificial intelligence based smart tourism service capable of making a choice corresponding to purpose of travel
KR101221959B1 (en) An Integrated Region-Related Information Searching System applying of Map Interface and Knowledge Processing
US20100114854A1 (en) Map-based websites searching method and apparatus therefor
CN103443788A (en) Method and means for browsing by walking
KR20100002756A (en) Matrix blogging system and service support method thereof
CN104077329B (en) A kind of information recommendation method and system
JP3614756B2 (en) Personal adaptive information guidance method and system
KR20190047200A (en) Platform for providing smart sightseeing information based on bid data
US20170011063A1 (en) Systems and Methods to Facilitate Submission of User Images Descriptive of Locations
Leung et al. Understanding tourists’ photo sharing and visit pattern at non-first tier attractions via geotagged photos
KR101572664B1 (en) Computer readable recording medium storing, system and method for providing shopping service using map information
US20230066144A1 (en) Information processing system and information processing method
JP2019056956A (en) Information processing system, information processing program, information processing apparatus and information processing method
KR102662437B1 (en) System for providing optical character recognition based tourist information service
KR101734533B1 (en) Method for providing news of multi-nations
Zhang et al. TapTell: Interactive visual search for mobile task recommendation

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant