KR20200108403A - Apparatus and method for automatically recognizing local information through focusing around a user - Google Patents

Apparatus and method for automatically recognizing local information through focusing around a user Download PDF

Info

Publication number
KR20200108403A
KR20200108403A KR1020200117207A KR20200117207A KR20200108403A KR 20200108403 A KR20200108403 A KR 20200108403A KR 1020200117207 A KR1020200117207 A KR 1020200117207A KR 20200117207 A KR20200117207 A KR 20200117207A KR 20200108403 A KR20200108403 A KR 20200108403A
Authority
KR
South Korea
Prior art keywords
information
search
user terminal
area
location
Prior art date
Application number
KR1020200117207A
Other languages
Korean (ko)
Other versions
KR102273919B1 (en
Inventor
권용진
최종각
Original Assignee
한국항공대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공대학교산학협력단 filed Critical 한국항공대학교산학협력단
Publication of KR20200108403A publication Critical patent/KR20200108403A/en
Application granted granted Critical
Publication of KR102273919B1 publication Critical patent/KR102273919B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to a method for automatically recognizing local information, which comprises: a step (a) of extracting candidate geographic feature objects corresponding to a search region set to be visually displayed on a user terminal among geographic feature objects stored in an object storage unit of an automatic local information recognizing apparatus, on the basis of position information and direction information obtained from the user terminal; a step (b) of selecting visible geographic feature objects which can be visually identified within the search region among the candidate geographic feature objects; and a step (c) of recognizing the visible geographic feature object positioned closest to the center of the search region among the visible geographic feature objects as a local information request object. According to the present invention, information desired by a user can be automatically recognized.

Description

사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치 및 방법 {APPARATUS AND METHOD FOR AUTOMATICALLY RECOGNIZING LOCAL INFORMATION THROUGH FOCUSING AROUND A USER}A device and method for automatically recognizing regional information through focusing around the user {APPARATUS AND METHOD FOR AUTOMATICALLY RECOGNIZING LOCAL INFORMATION THROUGH FOCUSING AROUND A USER}

본원은 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치 및 방법에 관한 것이다. 즉, 본원은 사용자 주변의 객체(지형지물 객체)를 지역 정보 자동 인식 장치를 이용해 포커싱함으로써 포커싱된 객체에 대한 지역 정보를 자동으로 인식할 수 있는 지역 정보 자동 인식 장치 및 방법에 관한 것이다.The present application relates to an apparatus and method for automatically recognizing local information through focusing around a user. That is, the present application relates to an apparatus and method for automatically recognizing region information for automatically recognizing region information on a focused object by focusing an object (terrain object) around a user using a region information automatic recognition apparatus.

모바일 디바이스가 보급화되고 통신기술이 발달함에 따라, 이를 활용하여 생활에 편리함을 줄 수 있는 정보 검색/제공 서비스에 대한 요구가 증가하고 있다As mobile devices become popular and communication technologies develop, there is an increasing demand for information retrieval/providing services that can provide convenience in life by utilizing them.

일반적으로 정보를 검색할 수 있는 방법으로는 구글, 네이버 등의 검색엔진에 검색 대상의 키워드를 입력하여 검색하는 방법이 있다. 하지만 이 방법은 키워드를 모를 경우 정보를 검색하지 못하는 문제점이 있다. In general, as a method of searching for information, there is a method of searching by entering a keyword of the search target into a search engine such as Google or Naver. However, this method has a problem in that information cannot be searched if the keyword is not known.

이러한 문제를 해소하고자 사용자의 위치를 기반으로 주위 정보를 검색해 제공하는 서비스가 등장하고 있다.In order to solve this problem, a service that searches and provides surrounding information based on the user's location is emerging.

도 1은 일예로 AR(Augmented Reality) 기반의 정보 검색 서비스의 제공 예를 나타낸 도면이다.1 is a diagram illustrating an example of providing an information retrieval service based on Augmented Reality (AR).

도 1을 참조하면, AR(Augmented Reality) 기반의 정보 검색 서비스는 별도의 키워드를 필요로 하지 않으며, 사용자의 위치정보를 이용하여 사용자 주변의 정보(예를 들어, POI 정보)를 검색하여 카메라 영상 위에 오버레이하여 제공할 수 있다.Referring to FIG. 1, the AR (Augmented Reality)-based information search service does not require a separate keyword, and a camera image by searching for information around the user (eg, POI information) using the user's location information. It can be provided by overlaying it on top.

그런데, 종래에 공지된 AR 기반의 정보 검색 서비스들은 정보를 표시하는데 있어서 사용자의 위치만을 이용하고 있다. 이로 인해, AR 기반의 정보 검색 서비스들은 사용자가 이동하기 어려운 곳에 있는 정보들을 표시할 뿐만 아니라, 가까이 있는 정보와 멀리 있는 정보의 구분없이 모두 한 화면 상에 중첩하여 표시하므로, 사용자가 해당 정보(표시된 정보)를 쉽게 인식하기 힘든 문제가 있다.However, conventionally known AR-based information retrieval services use only the user's location to display information. For this reason, AR-based information retrieval services not only display information in places where it is difficult for the user to move, but also display both nearby information and distant information superimposed on one screen. Information) is difficult to recognize easily.

예시적으로, AR 앱 중 하나인 포켓몬GO는 사용자의 위치를 이용하여 지도상에 가상의 포켓몬이 있는 위치를 보여준다. 그리고 해당 포켓몬과 조우하면 카메라 영상 위에 사용자의 바라보는 방향에 따라 그 포켓몬을 나타낸다. 하지만, 포켓몬GO에서는 실생활공간의 지형지물에 대한 고려를 하지 않으므로, 포켓몬이 실생활공간의 물체와는 상관없이 허공에 떠 있는 것처럼 보이게 된다.For example, Pokemon GO, one of AR apps, uses the user's location to show the location of the virtual Pokemon on the map. And when you encounter the Pokemon, the Pokémon is displayed according to the user's viewing direction on the camera image. However, since Pokemon GO does not take into account the topographical features of real life space, it appears that Pokémon is floating in the air regardless of the objects in real life space.

또한, AR 앱 중 하나인 세카이 카메라(Sekai Camera)는 사용자가 특정 위치에 남긴 가상의 메모를 카메라 화면 위에 겹쳐 보여준다. 하지만, 이 또한 실생활공간의 건물이나 장애물에 가려져서 보이지 말아야 할 곳에 있는 메모가 보이게 된다.In addition, Sekai Camera, one of AR apps, superimposes virtual memos left at a specific location on the camera screen. However, this is also obscured by buildings or obstacles in the real life space, so that the memo is visible in places that should not be seen.

이처럼, 종래의 AR 기반 서비스는 사용자의 주변환경을 전혀 고려하지 않은 상태에서 사용자의 위치정보만을 활용하여 카메라를 통해 취득한 영상 위에 정보를 오버레이하고 있다. 즉, 종래의 AR 기반 서비스는 물체의 위치와 상관없이 정보를 허공에 제공하거나, 건물이나 장애물에 가려지지 않은 정보 뿐만 아니라 건물이나 장애물에 가려져 보이지 말아야 하는 정보를 모두 한 화면에 제공하며, 가까이 있는 정보와 멀리 있는 정보의 구분없이 모두 한 화면에 제공하므로, 사용자가 원하는 정보를 쉽게 인식하기 어려운 문제가 있다.As such, the conventional AR-based service overlays information on an image acquired through a camera using only the user's location information without considering the user's surrounding environment at all. In other words, the conventional AR-based service provides information in the air regardless of the location of an object, or provides information that should not be seen hidden by buildings or obstacles as well as information that is not covered by buildings or obstacles on one screen. Since all information is provided on one screen without distinction between information and distant information, there is a problem that it is difficult to easily recognize the information desired by the user.

한편, AR 서비스 기술에서 나아가, 사용자의 가시영역 내 실생활공간 개체(object)의 위치관계와 형상 등을 이용하여 정보를 표시하는 MR(Mixed Reality) 서비스 기술에 대한 연구가 이루어지고 있다.On the other hand, further from AR service technology, research is being conducted on MR (Mixed Reality) service technology that displays information by using the positional relationship and shape of real-life space objects in the user's visible area.

MR 서비스 기술은 객체 추출을 위해 주로 깊이센서와 영상처리 기술을 활용하며, AR에 비해 실생활공간에 보다 잘 정합된 정보를 제공한다. 그런데, 이러한 종래의 MR 서비스 기술들은 센싱 범위가 제한되어 있는 방, 사무실 등과 같은 실내공간에서는 좋은 결과를 보이나, 주위환경 변화가 큰 실외에서는 적용하기 어려운 문제가 있다.MR service technology mainly uses depth sensor and image processing technology for object extraction, and provides information that is better matched to real life space than AR. However, these conventional MR service technologies show good results in indoor spaces such as rooms, offices, etc., in which the sensing range is limited, but are difficult to apply outdoors where environmental changes are large.

또한, 종래의 MR 서비스 기술은 영상처리 기반으로 객체를 인식하기 때문에, 빛 등의 주변 환경에 영향을 받아 객체의 인식률이 떨어지고, 앞 건물에 의해 일부 영역이 가려져 보이는 객체에 대한 인식이 어려운 문제가 있다. In addition, since the conventional MR service technology recognizes an object based on image processing, the recognition rate of the object decreases due to the influence of the surrounding environment such as light, and it is difficult to recognize the object that is partially covered by the building in front. have.

즉, 실외 MR 서비스를 가능하게 하기 위해서는 실외 개체들의 정확한 위치정보가 필요하다고 할 수 있다. 그런데, 종래의 MR 서비스는 주로 실내 서비스를 전제로 연구가 이루어지고 있기 때문에, 깊이센서를 이용하거나 영상의 특징점을 이용해 실내 객체를 특정짓는 종래의 MR 서비스 기술로는 실외 객체들을 인식하는 데에 어려움이 있다.That is, in order to enable outdoor MR service, it can be said that accurate location information of outdoor entities is required. However, since the conventional MR service is mainly studied on the premise of indoor service, it is difficult to recognize outdoor objects with the conventional MR service technology that specifies indoor objects using a depth sensor or feature points of an image. There is this.

본원의 배경이 되는 기술은 한국공개특허공보 제10-2012-0075609호에 개시되어 있다.The technology behind the present application is disclosed in Korean Laid-Open Patent Publication No. 10-2012-0075609.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 키워드의 필요없이, 사용자 주변의 객체를 포커싱하는 것만으로 사용자가 원하는 정보(즉, 포커싱된 객체에 대한 지역 정보)를 자동으로 인식할 수 있는 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, without the need for a keyword, by simply focusing the object around the user, the user can automatically recognize the desired information (that is, local information on the focused object) An object of the present invention is to provide an apparatus and method for automatically recognizing local information through focusing around a user.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the embodiments of the present application is not limited to the technical problems as described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법은, (a) 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 단계; (b) 상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 단계; 및 (c) 상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 단계를 포함할 수 있다.As a technical means for achieving the above technical problem, a method for automatically recognizing region information through focusing around a user using an apparatus for automatically recognizing region information according to an embodiment of the present application includes: (a) location information obtained from a user terminal and Extracting candidate feature objects corresponding to a search area set to be visually displayed on a user terminal from among feature objects stored in an object storage unit of the apparatus for automatically recognizing location information based on direction information; (b) selecting visible feature objects that can be visually identified in the search area among the candidate feature objects; And (c) recognizing a visible feature object located closest to the center of the search area among the visible feature objects as a region information request target.

또한, 상기 (b) 단계는, 상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다.In addition, in the step (b), the candidate feature objects are sequentially searched in an order close to the location corresponding to the location information in the search area to select a visible feature object, and the selected visible feature object is The width area occupied within the search area may be excluded from the search target range from the next search.

또한, 상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고, 상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역일 수 있다.In addition, the object storage unit stores information on the location and shape of the feature objects as object information, and the width region corresponding to the selected visible feature object stores the selected visible feature object in consideration of the object information. It may be an area corresponding to the object width displayed in the state projected onto the search area.

또한, 상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다.In addition, information on the shape may be stored in the form of a minimum bounding rectangle (MBR).

또한, 상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장될 수 있다.In addition, information on the shape may be stored in a MAR (Minimum Area Rectangle) format.

또한, 상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태일 수 있다.In addition, the MAR shape is the minimum area among all cases in which the MBR shape is formed based on a local axis including a line connecting two neighboring vertices among vertices included in the contour of the feature object included in the digital map. It may be a form corresponding to the case of.

또한, 상기 (a) 단계는, 상기 검색 영역에 대한 영상 분석을 통해 상기 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 상기 영상 분석을 통해 상기 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 상기 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.In addition, in the step (a), if it is determined that there are a plurality of feature objects whose entire width is exposed within the search area through image analysis of the search area, the plurality of feature locations are analyzed through the image analysis. Based on the image analysis-based width ratio set calculated for the water object and the feature objects stored in the object storage unit, a plurality of candidate feature objects corresponding to the positions and directions of the plurality of feature objects are stored in the search area. It is possible to determine whether or not there is a discrepancy between the object information-based width ratio sets calculated in correspondence to the object width appearing in the projected state.

또한, 상기 (a) 단계는, 불일치하는 것으로 판정된 경우, 상기 방향 정보를 일정하게 유지한 상태로 상기 위치 정보를 상기 사용자 단말의 위치센서의 오차 범위 내에서 변경하면서 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색하고, 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 상기 위치 정보에 오차가 있는 것으로 보아 상기 위치 정보를 보정할 수 있다.In addition, in the step (a), when it is determined that there is a discrepancy, the position information is changed within the error range of the position sensor of the user terminal while the direction information is kept constant, while the image analysis-based width ratio set If it is determined that another object information-based width ratio set corresponding to and there is another object information-based width ratio set corresponding to the image analysis-based width ratio set, it is considered that there is an error in the location information and the location information Can be corrected.

또한, 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법은, (d) 상기 (c) 단계에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 단계를 더 포함할 수 있다.In addition, a method for automatically recognizing region information through focusing around a user using an apparatus for automatically recognizing region information according to an embodiment of the present application includes: (d) a point of interest corresponding to the region information request object recognized in step (c) ( It may further include displaying by overlaying POI (Point of Interest) information on the area information request target.

한편, 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치는, 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 추출부; 상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 선별부; 및 상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 인식부를 포함할 수 있다.On the other hand, the apparatus for automatically recognizing local information through focusing around a user according to an embodiment of the present application includes a feature object stored in the object storage unit of the apparatus for automatically recognizing location information based on location information and direction information acquired from a user terminal. An extraction unit for extracting candidate feature objects corresponding to the search area set to be visually displayed on the user terminal; A selection unit that selects visually identifiable visible feature objects from among the candidate feature objects; And a recognition unit for recognizing a visible feature object located closest to the center of the search area among the visible feature objects as a region information request target.

또한, 상기 선별부는, 상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다.In addition, the selection unit selects a visible feature object by sequentially searching for candidate feature objects in an order close to a location corresponding to the location information in the search area, and the selected visible feature object is the search area The width area occupied within can be excluded from the search target range from the next search.

또한, 상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고, 상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역일 수 있다.In addition, the object storage unit stores information on the location and shape of the feature objects as object information, and the width region corresponding to the selected visible feature object stores the selected visible feature object in consideration of the object information. It may be an area corresponding to the object width displayed in the state projected onto the search area.

또한, 상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다.In addition, information on the shape may be stored in the form of a minimum bounding rectangle (MBR).

또한, 상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장될 수 있다.In addition, information on the shape may be stored in a MAR (Minimum Area Rectangle) format.

또한, 상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태일 수 있다.In addition, the MAR shape is the minimum area among all cases in which the MBR shape is formed based on a local axis including a line connecting two neighboring vertices among vertices included in the contour of the feature object included in the digital map. It may be a form corresponding to the case of.

또한, 상기 추출부는, 상기 검색 영역에 대한 영상 분석을 통해 상기 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 상기 영상 분석을 통해 상기 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 상기 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.In addition, if it is determined through image analysis of the search area that there are a plurality of feature objects whose entire widths are exposed in the search area, the extracting unit may perform the image analysis on the plurality of feature objects. A state in which a plurality of candidate feature objects corresponding to the position and direction of each of the plurality of feature objects are projected onto the search area based on the calculated image analysis-based width ratio set and feature objects stored in the object storage unit It is possible to determine whether or not there is a discrepancy between the calculated object information-based width ratio sets corresponding to the object width shown in.

또한, 상기 추출부는, 불일치하는 것으로 판정된 경우, 상기 방향 정보를 일정하게 유지한 상태로 상기 위치 정보를 상기 사용자 단말의 위치센서의 오차 범위 내에서 변경하면서 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색하고, 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 상기 위치 정보에 오차가 있는 것으로 보아 상기 위치 정보를 보정할 수 있다.In addition, when it is determined that the extraction unit is inconsistent, the location information is changed within the error range of the location sensor of the user terminal while maintaining the direction information, and corresponding to the image analysis-based width ratio set. If another object information-based width ratio set is searched and it is determined that another object information-based width ratio set corresponding to the image analysis-based width ratio set exists, it is considered that there is an error in the location information and the location information is corrected. I can.

또한, 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치는, 인식부에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 디스플레이 제어부를 더 포함할 수 있다.In addition, the apparatus for automatically recognizing region information through focusing around a user according to an embodiment of the present application provides point of interest (POI) information corresponding to the region information request target recognized by the recognition unit on the region information request target. It may further include a display control unit for displaying by overlaying on the.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present application. In addition to the above-described exemplary embodiments, additional embodiments may exist in the drawings and detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 키워드의 필요없이, 지역 정보 자동 인식 장치를 이용해 사용자 주변의 지형지물 객체를 포커싱하는 것만으로 사용자가 원하는 정보(즉, 포커싱된 지형지물 객체에 대한 지역 정보)를 자동으로 인식할 수 있다.According to the above-described problem solving means of the present application, information desired by the user (i.e., local information on the focused feature object) by simply focusing the feature object around the user using an automatic local information recognition device without the need for a keyword. Can be recognized automatically.

전술한 본원의 과제 해결 수단에 의하면, 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 객체 저장부에 저장된 지형지물 객체들을 이용해 사용자가 검색하고자 하는 지역 정보 요청 대상(달리 말해, 검색 대상 객체)를 효과적으로 인식(식별)할 수 있다.According to the above-described problem solving means of the present application, based on the location information and direction information obtained from the user terminal, the user is to request local information to be searched by using the feature objects stored in the object storage unit (in other words, the search target object ) Can be effectively recognized (identified).

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effect obtainable in the present application is not limited to the effects as described above, and other effects may exist.

도 1은 일예로 AR(Augmented Reality) 기반의 정보 검색 서비스의 제공 예를 나타낸 도면이다.
도 2는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치의 개략적인 구성을 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 설정 가능한 검색 영역을 설명하기 위한 도면이다.
도 4는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 사용자 단말에 시각적으로 표출되는 검색 영역의 예를 나타낸 도면이다.
도 5는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 고려되는 MBR 형태(a)와 MAR 형태(b)를 설명하기 위한 도면이다.
도 6은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 가시 지형지물 객체를 선별하는 과정을 설명하기 위한 도면이다.
도 7은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 포함하는 지역 정보 자동 인식 시스템의 구성을 개략적으로 나타낸 도면이다.
도 8은 본원의 일 실시예에 따른 지역 정보 자동 인식 시스템에 적용되는 실외 MR 모델의 구조를 개략적으로 나타낸 도면이다.
도 9는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 객체 정보의 저장 구조인 R-tree 구조를 설명하기 위한 도면이다.
도 10은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 지역 정보 요청 대상에 대한 POI 정보를 검색하는 예를 나타낸 도면이다.
도 11은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에 의하여 제공되는 검색 정보의 예를 나타낸 도면이다.
도 12는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에 의하여 제공되는 검색 정보의 다른 예를 나타낸 도면이다.
도 13은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에 의하여 제공되는 검색 정보의 또 다른 예를 나타낸 도면이다.
도 14는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 사용자의 판단에 의해 수동으로 이루어지는 경우의 예를 설명하기 위한 도면이다.
도 15는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 사용자 단말의 위치 정보를 사용자 입력에 의하여 수동으로 변경하는 경우의 예를 나타낸 도면이다.
도 16은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 본 장치에 의해 자동으로 이루어지는 경우의 예를 설명하기 위한 도면이다.
도 17 및 도 18은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 사용자 단말의 위치 정보의 보정을 설명하기 위한 도면이다.
도 19는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법에 대한 동작 흐름도이다.
1 is a diagram illustrating an example of providing an information retrieval service based on Augmented Reality (AR).
2 is a diagram illustrating a schematic configuration of an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.
3 is a diagram for describing a search area that can be set by an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.
4 is a diagram illustrating an example of a search area visually displayed on a user terminal in an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present application.
FIG. 5 is a diagram for explaining an MBR type (a) and a MAR type (b) considered in an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.
6 is a view for explaining a process of selecting a visible terrain object in an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.
7 is a diagram schematically illustrating a configuration of a system for automatically recognizing region information including an apparatus for automatically recognizing region information according to an embodiment of the present application.
8 is a diagram schematically showing the structure of an outdoor MR model applied to the system for automatically recognizing area information according to an embodiment of the present application.
9 is a diagram for explaining an R-tree structure, which is a storage structure of object information, in an apparatus for automatically recognizing local information according to an embodiment of the present application.
FIG. 10 is a diagram illustrating an example of searching for POI information on a region information request target in an apparatus for automatically recognizing region information according to an embodiment of the present application.
11 is a diagram illustrating an example of search information provided by an apparatus for automatically recognizing area information according to an embodiment of the present application.
12 is a diagram illustrating another example of search information provided by an apparatus for automatically recognizing area information according to an embodiment of the present application.
13 is a diagram illustrating another example of search information provided by an apparatus for automatically recognizing area information according to an embodiment of the present application.
14 is a view for explaining an example in which the determination of whether an error exists in the location information of a user terminal acquired by the apparatus for automatically recognizing local information according to an embodiment of the present application is manually performed by the user's determination.
15 is a diagram illustrating an example in which the location information of a user terminal is manually changed by a user input in the apparatus for automatically recognizing area information according to an embodiment of the present application.
FIG. 16 is a view for explaining an example of a case in which the apparatus automatically determines whether there is an error in the location information of a user terminal acquired by the apparatus for automatically recognizing local information according to an embodiment of the present disclosure.
17 and 18 are diagrams for explaining correction of location information of a user terminal in an apparatus for automatically recognizing area information according to an embodiment of the present application.
19 is a flowchart illustrating a method of automatically recognizing local information through focusing around a user using an apparatus for automatically recognizing local information according to an embodiment of the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present application. However, the present application may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in the drawings, parts not related to the description are omitted in order to clearly describe the present application, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout the present specification, when a part is said to be "connected" with another part, it is not only "directly connected", but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including the case.

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned "on", "upper", "upper", "under", "lower", and "lower" of another member, this means that a member is located on another member. It includes not only the case where they are in contact but also the case where another member exists between the two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification of the present application, when a certain part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

도 2는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치의 개략적인 구성을 나타낸 도면이다. 이하에서는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치(10)를 설명의 편의상 본 장치(10)라 하기로 한다.2 is a diagram illustrating a schematic configuration of an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure. Hereinafter, the apparatus 10 for automatically recognizing local information through focusing around a user according to an embodiment of the present disclosure will be referred to as the apparatus 10 for convenience of description.

도 2를 참조하면, 본 장치(10)는 추출부(11), 선별부(12) 및 인식부(13)를 포함할 수 있다. 또한, 본 장치(10)는 디스플레이 제어부(14) 및 객체 저장부(15)를 포함할 수 있다. Referring to FIG. 2, the apparatus 10 may include an extraction unit 11, a selection unit 12, and a recognition unit 13. In addition, the device 10 may include a display control unit 14 and an object storage unit 15.

본 장치(10)는 사용자 단말(1)에 포함(또는 설치, 내장, 구비)되는 장치일 수 있다.The device 10 may be a device included (or installed, built-in, or provided) in the user terminal 1.

여기서, 사용자 단말(1)은 휴대성과 이동성이 보장되는 이동 통신 장치로서, 예를 들면, PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(WCode Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC, 노트북, 웨어러블 디바이스 등과 같은 모든 종류의 무선 통신 장치를 포함할 수 있다.Here, the user terminal 1 is a mobile communication device that guarantees portability and mobility, for example, PCS (Personal Communication System), GSM (Global System for Mobile Communication), PDC (Personal Digital Cellular), PHS (Personal Handyphone). System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (WCode Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, smartphone ( Smartphone), smart pads, tablet PCs, notebooks, wearable devices, and the like.

추출부(11)는 사용자 단말(1)로부터 획득된 위치 정보 및 방향 정보를 기반으로, 본 장치(10)의 객체 저장부(15)에 저장된 지형지물 객체들 중 사용자 단말(1)에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출할 수 있다.Based on the location information and direction information obtained from the user terminal 1, the extraction unit 11 visually displays the feature objects stored in the object storage unit 15 of the device 10 in the user terminal 1 Candidate feature objects corresponding to the search area set to be displayed may be extracted.

검색 영역은 사용자 단말(1)에 포함된 복수의 센서를 이용해 획득된 정보에 기초하여 설정될 수 있다. 검색 영역은 일예로 사용자의 시야와 유사한 영역을 갖도록 설정될 수 있다. 이는 도 3을 참조하여 보다 쉽게 이해될 수 있다.The search area may be set based on information acquired using a plurality of sensors included in the user terminal 1. For example, the search area may be set to have a similar area to the user's field of view. This can be more easily understood with reference to FIG. 3.

도 3은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 설정 가능한 검색 영역을 설명하기 위한 도면이다.3 is a diagram for describing a search area that can be set by an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.

도 3을 참조하면, 검색 영역(s)은 사용자 단말(1)에 포함된 위치센서(위치획득센서)로부터 획득된 사용자 단말(1)의 위치 정보, 및 사용자 단말(1)에 포함된 자이로센서, 가속계, 자력계, 나침반(전자나침반) 중 적어도 하나로부터 획득된 사용자 단말(1)이 바라보고 있는 방향 정보를 고려하여 설정될 수 있다. 여기서, 방향 정보는 특히 사용자 단말(1)에 포함된 이미지센서(1a)가 바라보고 있는 방향에 관한 정보를 의미할 수 있으며, 방위각 정보라 달리 표현될 수 있다. 또한, 위치센서는 일예로 GPS 센서를 의미할 수 있으며, 이에 한정되는 것은 아니다. 또한, 이미지센서(1a)는 카메라, 이미지획득장치, 영상촬영장치 등으로 달리 표현될 수 있다.3, the search area (s) is the location information of the user terminal 1 obtained from the location sensor (position acquisition sensor) included in the user terminal 1, and the gyro sensor included in the user terminal 1 , Accelerometer, magnetometer, compass (electronic compass) may be set in consideration of the direction information the user terminal 1 is looking at. Here, the direction information may specifically mean information on the direction that the image sensor 1a included in the user terminal 1 is looking at, and may be expressed differently as azimuth information. In addition, the location sensor may mean a GPS sensor as an example, but is not limited thereto. Also, the image sensor 1a may be expressed differently as a camera, an image acquisition device, an image capture device, or the like.

또한, 검색 영역(s)은 사용자 단말(1)에 포함된 이미지센서(1a)의 렌즈의 초점거리(d)와 이미지센서(1a)의 가로 길이(

Figure pat00001
)를 이용하여 획득 가능한 이미지센서(1a)의 시야각(α), 및 인식거리를 더 고려하여 설정될 수 있다. 여기서, 시야각 α는 2*atan(
Figure pat00002
/2d)의 조건을 만족할 수 있다. 여기서, 인식거리는 미리 설정된 거리로 설정될 수 있다. 예시적으로, 인식거리는 사용자의 시야를 고려하여 미리 설정된 거리로서 사용자 단말(1)의 위치로부터 일예로 200m 이내의 거리로 설정될 수 있으며, 이에 한정되는 것은 아니다.In addition, the search area s is the focal length d of the lens of the image sensor 1a included in the user terminal 1 and the horizontal length of the image sensor 1a.
Figure pat00001
) May be set in consideration of the viewing angle α and the recognition distance of the image sensor 1a that can be obtained using ). Here, the viewing angle α is 2*atan(
Figure pat00002
The condition of /2d) can be satisfied. Here, the recognition distance may be set to a preset distance. Exemplarily, the recognition distance is a distance set in advance in consideration of the user's field of view, and may be set to a distance within 200m from the location of the user terminal 1, for example, but is not limited thereto.

이처럼, 검색 영역(s)은 사용자 단말(1)의 위치 정보, 방향(방위각) 정보, 시야각, 및 인식거리를 고려하여 설정될 수 있다. As such, the search area s may be set in consideration of location information, direction (azimuth angle) information, viewing angle, and recognition distance of the user terminal 1.

도 4는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 사용자 단말(1)에 시각적으로 표출되는 검색 영역(s)의 예를 나타낸 도면이다.4 is a diagram illustrating an example of a search area s visually displayed on a user terminal 1 in an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.

도 4를 참조하면, 검색 영역(s)은 사용자 단말(1)의 화면 상에 시각적으로 표출되는 영역을 의미할 수 있으며, 촬영 영역, 사용자 단말(1)의 이미지센서를 통해 인식 가능한 인식 영역 등으로 달리 표현될 수 있다.Referring to FIG. 4, the search area (s) may mean an area visually displayed on the screen of the user terminal 1, a photographing area, a recognition area that can be recognized through the image sensor of the user terminal 1, etc. It can be expressed differently as

예시적으로, 사용자가 특정 지형지물 객체의 정보를 알고자하는 경우, 사용자 단말(1)에 시각적으로 표출되도록 설정된 검색 영역 내에 알고자하는 특정 지형지물 객체가 디스플레이되도록, 사용자는 사용자 단말(1)로 알고자하는 특정 지형지물 객체를 포커싱할 수 있다.As an example, when the user wants to know the information of a specific landmark object, the user terminal 1 displays the specific landmark object to be known within the search area set to be visually displayed on the user terminal 1. You can focus on a specific feature object you want to know.

이때, 추출부(11)는 객체 저장부(15)에 저장된 지형지물 객체들 중 사용자 단말(1)에 시각적으로 표출되도록 설정된 검색 영역(s)에 대응하는 후보 지형지물 객체들을 추출할 수 있다. 달리 표현하여, 추출부(11)는 객체 저장부(15)에 저장된 지형지물 객체들 중 검색 영역(s) 내에 위치한 지형지물 객체들을 후보 지형지물 객체들로서 추출할 수 있다.In this case, the extraction unit 11 may extract candidate feature objects corresponding to the search area s set to be visually displayed on the user terminal 1 from among the feature objects stored in the object storage unit 15. In other words, the extraction unit 11 may extract, as candidate terrain objects, the topographic objects located in the search area s among the topographic objects stored in the object storage unit 15.

객체 저장부(15)는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 수 있다. 여기서, 객체 정보에는 지형지물 객체의 키워드 및 위상 정보가 포함될 수 있다. 또한, 지형지물 객체는 움직이지 않는 고정된 객체로서, 예시적으로 건물, 빌딩, 다리, 육교, 게시판, 대형 표지판, 기념비 등의 구조물을 의미할 수 있으며, 이에 한정되는 것은 아니다. 이하에서는 설명의 편의상 지형지물 객체가 건물을 의미하는 것으로 예를 들어 설명하기로 한다.The object storage unit 15 may store information on the location and shape of the feature objects as object information. Here, the object information may include keyword and phase information of the feature object. In addition, the landmark object is a fixed object that does not move, and may, for example, mean a structure such as a building, a building, a bridge, an overpass, a bulletin board, a large sign, and a monument, but is not limited thereto. Hereinafter, for convenience of description, the feature object means a building.

일예로, 객체 저장부(15)에는 지형지물 객체들의 형상에 관한 정보가 MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다. 다른 일예로, 객체 저장부(15)에는 지형지물 객체들의 형상에 관한 정보가 MAR(Minimum Area Rectangle) 형태로 저장될 수 있다. 여기서, MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태를 의미할 수 있다. 보다 구체적인 설명은 도 5를 참조하여 보다 쉽게 이해될 수 있다.As an example, the object storage unit 15 may store information on the shape of the feature objects in the form of a minimum bounding rectangle (MBR). As another example, the object storage unit 15 may store information on the shape of the feature objects in a MAR (Minimum Area Rectangle) format. Here, the MAR shape is the minimum area among all cases in which the MBR shape is formed based on a local axis including a line connecting two neighboring vertices among vertices included in the contour of the feature object included on the digital map. It may mean a form corresponding to a case. A more detailed description may be more easily understood with reference to FIG. 5.

도 5는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 고려되는 MBR 형태(a)와 MAR 형태(b)를 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining an MBR type (a) and a MAR type (b) considered in an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.

도 5를 참조하면, 지형지물 객체들(예를 들어, 건물들)은 복수의 꼭짓점으로 이루어져 있으므로, 지형지물 객체에 대한 객체 정보의 사용이 보다 용이하도록, 객체 저장부(15)는 일예로 지형지물 객체들의 형상에 관한 정보를 MBR(Minimum Bounding Rectangle) 형태로 저장할 수 있다. 여기서, MBR 형태는 지형지물 객체의 모든 꼭짓점을 포함할 수 있는 최소 크기를 갖는 사각형(최소 경계 사각형) 형태를 의미할 수 있다.Referring to FIG. 5, since feature objects (for example, buildings) are composed of a plurality of vertices, the object storage unit 15 is used as an example to facilitate the use of object information on the feature object. Information about the shape of water objects can be stored in the form of Minimum Bounding Rectangle (MBR). Here, the MBR shape may mean a square (minimum bounding rectangle) shape having a minimum size capable of including all vertices of a feature object.

이때, 지형지물 객체들의 형상에 관한 정보가 MBR 형태로 저장되는 경우 빈 공간이 많이 발생하게 된다. 따라서, 추출부(11)에서의 후보 지형지물 객체들의 추출시 MBR 형태로 저장된 지형지물 객체들의 정보가 이용되는 경우, 실제 건물의 영역과 겹치지는 않지만 MBR 영역이 겹치게 되어 지형지물 객체에 대한 정확한 탐색이 이루어지지 못할 수 있다. 즉, 도 5에 (a)와 같이 지형지물 객체들의 형상에 관한 정보가 MBR 형태로 저장되는 경우, 예시적으로 건물B의 탐색 시 검색영역에 위치한 건물이 함께 탐색되는 등 건물B에 대한 탐색 정확성이 떨어질 수 있다.At this time, when information about the shape of the feature objects is stored in the MBR format, a lot of empty spaces are generated. Therefore, when the information of the feature objects stored in the MBR format is used when extracting candidate feature objects in the extraction unit 11, the MBR area does not overlap with the actual building area, so the accurate search for the feature object. This may not be possible. In other words, when information about the shape of the feature objects is stored in the form of MBR as shown in Fig. 5 (a), for example, when building B is searched, the building located in the search area is searched with the search accuracy for the building B. This can fall.

따라서, 객체 저장부(15)에는 지형지물 객체들의 형상에 관한 정보가 MBR의 변형 형태인 MAR 형태로 저장됨이 바람직할 수 있다. MAR 형태는 MBR 형태 중에서도 지형지물 객체의 모든 꼭짓점을 포함할 수 있는 최소 면적을 갖는 사각형(최소 면적 사각형) 형태를 의미할 수 있다Accordingly, it may be desirable to store information on the shape of the feature objects in the object storage unit 15 in the form of MAR, which is a modified form of MBR. Among the MBR types, the MAR type may mean a rectangle (minimum area rectangle) having the smallest area that can include all vertices of a feature object.

MAR은 다음의 과정을 통해 구할 수 있다. MAR을 구하기 위해서는, 먼저 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 인접한 두 꼭짓점 사이의 각도를 구하고, x축 또는 y축에 맞게 회전시킨 후 MBR의 면적(넓이)을 구할 수 있다. 다음으로, 순서에 상관없이 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 인접한 꼭짓점의 모든 경우에 대하여 MBR의 면적을 구하고, 그 중 최소 면적을 갖는 경우의 MBR을 구할 수 있다. 다음으로, 최소 면적을 갖는 MBR을 다시 회전시킨 만큼 역회전시킴으로써, MAR를 구할 수 있다.MAR can be obtained through the following process. To obtain MAR, first, the angle between two adjacent vertices among the vertices included in the contour of the feature object is obtained, rotated to fit the x-axis or y-axis, and then the area (width) of the MBR can be obtained. Next, regardless of the order, the area of the MBR can be obtained for all cases of adjacent vertices among the vertices included in the contour of the feature object, and the MBR of the case with the minimum area can be obtained. Next, MAR can be obtained by rotating the MBR having the minimum area as much as it rotated again.

이처럼, 도 5에 (b)와 같이 지형지물 객체들의 형상에 관한 정보가 MAR 형태로 저장되는 경우, MBR과 대비하여 빈 공간을 없앨 수 있어 MBR 대비 보다 정확한 지형지물 객체에 대한 탐색이 이루어지도록 할 수 있다.As such, when information on the shape of the feature objects is stored in the form of MAR as shown in (b) in FIG. 5, the empty space can be eliminated compared to the MBR, so that more accurate search for the feature object is made compared to the MBR. I can.

본 장치(10)는 사용자 단말(1)로부터 위치 정보 및 방향 정보가 획득되면, 일예로 사용자 단말(1)의 위치로부터 미리 설정된 거리 범위 내에 위치하는 지형지물 객체들의 위치와 형상에 관한 정보를 서버로부터 획득하고, 획득된 지형지물 객체들의 형상에 관한 정보를 일예로 MAR 형태로 객체 저장부(15)에 저장해 둘 수 있다. 여기서, 미리 설정된 거리 범위는 예시적으로 사용자 단말(1)의 위치로부터 500m 이내의 범위를 의미할 수 있으며, 이에 한정되는 것은 아니고, 다양하게 설정될 수 있다.When the location information and direction information are obtained from the user terminal 1, the device 10 provides information on the location and shape of the feature objects located within a preset distance range from the location of the user terminal 1 to the server. Information on the shape of the terrain feature objects obtained from and obtained may be stored in the object storage unit 15 in the form of MAR as an example. Here, the preset distance range may mean a range within 500m from the location of the user terminal 1 as an example, and is not limited thereto, and may be variously set.

이에 따르면, 서버에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보로서 저장되어 있을 수 있으며, 본 장치(10)의 객체 저장부(15)는 서버에 저장된 객체 정보들 중 일부의 정보(예를 들어, 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 지형지물 객체들의 위치와 형상에 관한 정보)를 서버로부터 획득하여 저장해 둘 수 있다.According to this, information on the location and shape of all terrain objects may be stored in the server as object information, and the object storage unit 15 of the device 10 includes some of the object information stored in the server ( For example, information on the location and shape of feature objects located within a preset distance range from the location of the user terminal) may be acquired from the server and stored.

객체 저장부(15)는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 때, 해당 객체 정보에 대응하는 관심지점(POI, Point of Interest) 정보를 함께 연계하여 저장해 둘 수 있다. 여기서, 관심지점 정보는 서버로부터 획득될 수 있다. 이에 따르면, 서버의 데이터베이스에는 일예로 R-tree 구조로 구축된 객체 정보(지형지물 객체들의 위치와 형상에 관한 정보)와 그에 대응하는 관심지점 정보가 함께 연계(맵핑)되어 저장되어 있을 수 있다. 이에 대한 보다 상세한 설명은 후술하여 설명하기로 한다.When the object storage unit 15 stores information about the location and shape of the feature objects as object information, the object storage unit 15 may link and store information on a point of interest (POI) corresponding to the object information. Here, the point of interest information may be obtained from the server. Accordingly, in the database of the server, for example, object information (information on the location and shape of topographic objects) constructed in an R-tree structure and information on points of interest corresponding thereto may be linked (mapped) and stored together. A more detailed description of this will be described later.

선별부(12)는 추출부(11)에서 추출된 후보 지형지물 객체들 중 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다. 이는 도 6을 참조하여 보다 쉽게 이해될 수 있다.The selection unit 12 may select visible topographic objects that can be visually identified within the search area s from among the candidate topographic objects extracted by the extraction unit 11. This can be more easily understood with reference to FIG. 6.

도 6은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 가시 지형지물 객체를 선별하는 과정을 설명하기 위한 도면이다. 다시 말해, 도 6은 검색 영역(s) 내에서 가시 지형지물 객체에 대한 선별을 위해 탐색 대상 범위를 재설정하는 과정(달리 말해, 가시 지형지물 객체에 대한 탐색 알고리즘)을 설명하기 위한 도면이다.6 is a view for explaining a process of selecting a visible terrain object in an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure. In other words, FIG. 6 is a diagram for explaining a process of resetting a search target range (that is, a search algorithm for a visible feature object) in order to select a visible feature object within the search area s.

도 6에서 (a) 및 (b)를 참조하면, 예시적으로 추출부(11)에 의해 추출된 검색 영역(s)에 대응하는 후보 지형지물 객체에는 제1 후보 지형지물 객체(O1, Object 1), 제2 후보 지형지물 객체(O2, Object 2), 및 제3 후보 지형지물 객체(O3, Object 3)가 포함될 수 있다.Referring to (a) and (b) in FIG. 6, for example, the candidate feature object corresponding to the search area (s) extracted by the extraction unit 11 includes a first candidate feature object (O1, Object 1). ), a second candidate feature object (O2, Object 2), and a third candidate feature object (O3, Object 3) may be included.

선별부(12)는 후보 지형지물 객체들(O1, O2, O3) 중 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체들(O1, O2)을 선별할 수 있다. The selection unit 12 may select visible feature objects O1 and O2 that can be visually identified within the search area s from among the candidate feature objects O1, O2, and O3.

이때, 선별부(12)는 검색 영역(s) 내에서 사용자 단말(1)의 위치 정보에 대응하는 위치(즉, 사용자 단말의 위치, pos)에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 검색 영역(s) 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다. At this time, the selection unit 12 sequentially searches for candidate feature objects in an order close to the location corresponding to the location information of the user terminal 1 (that is, the location of the user terminal, pos) within the search area (s). Thus, the visible feature object may be selected, but the width area occupied by the selected visible feature object within the search area s may be excluded from the search target range from the next search.

여기서, 선별된 가시 지형지물 객체에 대응하는 폭 영역은 객체 저장부에 저장된 객체 정보(즉, 지형지물 객체들의 위치와 형상에 관한 정보)를 고려하여 선별된 가시 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역을 의미할 수 있다.Here, the width area corresponding to the selected visible feature object is a projected view of the selected visible feature object to the search area in consideration of the object information stored in the object storage unit (i.e., information on the location and shape of the feature objects). It may mean an area corresponding to the width of the object appearing in the state.

다시 말해, 선별부(12)는 먼저 검색 영역(s) 전체를 제1 탐색 대상 범위(s)로 하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 이때, 선별부(12)는 제1 탐색 대상 범위(s) 내에 위치한 후보 지형지물 객체들(O1, O2, O3) 중 사용자 단말의 위치(pos)에 가장 가까이 위치하는 후보 지형지물 객체(O1)를 일예로 제1 가시 지형지물 객체로서 선별할 수 있다.In other words, the selection unit 12 may first perform a search for selecting a visible feature object by using the entire search area s as the first search target range s. At this time, the selection unit 12 is the candidate feature object O1 located closest to the position (pos) of the user terminal among the candidate feature objects O1, O2, and O3 located within the first search target range (s). As an example, it may be selected as the first visible feature object.

제1 탐색 대상 범위(s)에서 제1 가시 지형지물 객체(O1)에 대한 선별이 이루어진 이후, 선별부(12)는 선별된 제1 가시 지형지물 객체(O1)가 검색 영역(s) 내에서 차지하는 폭 영역을 탐색 대상 범위에서 제외하고, 제1 가시 지형지물 객체(O1)가 차지하는 폭 영역이 제외된 탐색 대상 범위에 대하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 즉, 선별부(12)는 제1 탐색 대상 범위(s)에서 제1 가시 지형지물 객체(O1)에 대한 선별이 이루어진 이후, 탐색 대상 범위를 재설정할 수 있다. 이때, 재설정된 탐색 대상 범위(즉, 제2 탐색 대상 범위, s1)는 검색 영역(s) 전체에 대응하는 제1 탐색 대상 범위(s) 중 선별된 제1 가시 지형지물 객체(O1)가 검색 영역(s) 내에서 차지하는 폭 영역이 제외된 영역(s1)을 의미할 수 있다. After selection of the first visible feature object O1 in the first search target range s, the selection unit 12 selects the selected first visible feature object O1 within the search area s. A search for selecting a visible feature object may be performed for a search target range to which the width region occupied by the first visible feature object O1 is excluded from the search target range. That is, the selection unit 12 may reset the search target range after the first visible feature object O1 is selected in the first search target range s. At this time, in the reset search target range (ie, the second search target range, s1), the first visible feature object O1 selected from the first search target range s corresponding to the entire search area s is searched. It may mean an area s1 in which the width area occupied within the area s is excluded.

이에 따르면, 선별부(12)는 제1 가시 지형지물 객체(O1)에 대한 선별이 이루어진 이후, 제2 탐색 대상 범위(s1)에 대하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 제2 탐색 대상 범위(s1)에 대한 탐색 결과, 선별부(12)는 제2 탐색 대상 범위(s1) 내에 위치한 후보 지형지물 객체들(O3) 중 사용자 단말의 위치(pos)에 가장 가까이 위치하는 후보 지형지물 객체(O3)를 일예로 제2 가시 지형지물 객체로서 선별할 수 있다.Accordingly, after the first visible feature object O1 is selected, the selection unit 12 may perform a search for selecting the visible feature object in the second search target range s1. As a result of the search for the second search target range s1, the selection unit 12 is located closest to the position (pos) of the user terminal among the candidate feature objects O3 located within the second search target range s1. The candidate feature object O3 may be selected as a second visible feature object as an example.

이후 선별부(12)는 제2 탐색 대상 범위(s1) 중 선별된 제2 가시 지형지물 객체(O3)가 검색 영역(s) 내에서 차지하는 폭 영역을 탐색 대상 범위에서 제외하고, 제3 가시 지형지물 객체(O3)가 차지하는 폭 영역이 제외된 탐색 대상 범위에 대하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 이에 따르면, 선별부(12)는 일예로 도 6의 (a)와 같이 검색 영역(s)이 설정되어 있는 경우, 가시 지형지물 객체의 선별을 위한 탐색을 3회 수행할 수 있다.Thereafter, the selection unit 12 excludes the width area occupied by the second visible feature object O3 selected among the second search target range s1 from the search target range from the search target range, A search for selecting a visible feature object may be performed for a search target range excluding a width region occupied by the water object O3. Accordingly, when the search area s is set as shown in FIG. 6A, for example, the selection unit 12 may perform a search for selecting a visible feature object three times.

도 6의 (a)와 같은 상황인 경우, 선별부(12)는 3회의 탐색을 통해 후보 지형지물 객체들(O1, O2, O3) 중 제1 후보 지형지물 객체(O1)와 제3 후보 지형지물 객체(O3)를 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체로서 선별할 수 있다. 이때, 제2 후보 지형지물 객체(O2)는 사용자 단말의 위치(pos)에서 보았을 때 제1 후보 지형지물 객체(O1)에 의해 가려져 보이지 않는 객체이므로, 선별부(12)는 제2 후보 지형지물 객체(O2)를 가시 지형지물 객체로서 선별하지 않게 된다.In the case of the situation as shown in (a) of FIG. 6, the selection unit 12 searches for a first candidate feature object O1 and a third candidate feature object among the candidate feature objects O1, O2, and O3 through three searches. The water object O3 can be selected as a visible feature object that can be visually identified within the search area s. At this time, since the second candidate feature object O2 is an object that is hidden and invisible by the first candidate feature object O1 when viewed from the position (pos) of the user terminal, the selection unit 12 is used as the second candidate feature object. The object O2 is not selected as a visible feature object.

선별부(12)에 의한 가시 지형지물 객체들의 선별 과정을 다시 설명하면 다음과 같다. 도 6의 (b)에는 일예로 검색 영역(s) 내에 제1 후보 지형지물 객체(O1)로서 건물이 위치한 경우의 예가 도시되어 있다. The process of selecting visible terrain objects by the selection unit 12 will be described again as follows. FIG. 6B shows an example in which a building is located as the first candidate feature object O1 in the search area s.

도 6에서 (c)를 참조하면, 추출부(11)에 의해 후보 지형지물 객체들의 추출이 이루어진 이후, 선별부(12)는 추출된 후보 지형지물 객체들 중 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다. 이때, 선별부(12)는 앞에 있는 지형지물 객체(예를 들어, 건물)에 의해 가려져 보이지 않는 지형지물 객체는 인식하지 않도록 하기 위해, 다음과 같은 탐색 알고리즘을 사용하여 가시 지형지물 객체들을 선별할 수 있다.Referring to (c) in FIG. 6, after extraction of candidate feature objects is performed by the extraction unit 11, the selection unit 12 selects visible feature objects that can be visually identified among the extracted candidate feature objects. Can be selected. At this time, the selection unit 12 selects the visible feature objects using the following search algorithm in order not to recognize the invisible feature object covered by the feature object in front (for example, a building). I can.

선별부(12)는 우선 검색 영역(s)에 위치한 후보 지형지물 객체들 중 사용자 단말의 위치(pos)에 가까운 후보 지형지물 객체 순으로 가시 지형지물 객체에 대한 탐색을 수행할 수 있다. 탐색에 의해 하나의 가시 지형지물 객체에 대한 선별이 이루어지면, 이후 선별부(12)는 사용자 단말의 위치(pos)에 가장 가까운 후보 지형지물 객체가 차지하는 부분(즉, 가시 지형지물 객체가 검색 영역 내에서 차지하는 폭 영역)을 제외한 나머지 부분을 다시 탐색 대상 영역으로 재설정하는 과정 및 재설정된 탐색 대상 영역에서의 가시 지형지물 객체에 대한 탐색 과정을 반복 수행할 수 있다.First, the selection unit 12 may search for a visible feature object in the order of a candidate feature object close to the position (pos) of the user terminal among candidate feature objects located in the search area (s). When one visible feature object is selected by searching, the selection unit 12 then determines the portion occupied by the candidate feature object closest to the position (pos) of the user terminal (that is, the visible feature object is the search area). The process of resetting the rest of the area except the width area occupied within the area) to the search target area and the search process for the visible feature object in the reset search target area may be repeatedly performed.

선별부(12)는 검색 영역(s) 내에 포함된 후보 지형지물 객체들 중 가시 지형지물 객체들에 대한 선별이 모두 이루어질 때까지 탐색 대상 영역의 재설정 과정 및 재설정된 탐색 대상 영역에 대한 탐색 과정을 반복 수행할 수 있다.The selection unit 12 performs the resetting process of the search target area and the search process for the reset search target area until all visible feature objects among the candidate feature objects included in the search area s are selected. Can be performed repeatedly.

구체적인 예로, 검색 영역(s)이 (pos,

Figure pat00003
, r)로 이루어져 있다고 하자. 산출부(12)는 검색 영역(s)을 탐색 대상 영역으로 하여 가시 지형지물 객체에 대한 1차 탐색을 수행함으로써, 탐색 대상 영역 내에 위치한 제1 후보 지형지물 객체(O1)를 가시 지형지물 객체로서 선별할 수 있다.As a specific example, the search area (s) is ( pos ,
Figure pat00003
and r ). The calculation unit 12 uses the search area s as a search target area and performs a primary search for a visible feature object, thereby using the first candidate feature object O1 located in the search target area as a visible feature object. Can be selected.

이때, 선별된 제1 후보 지형지물 객체(O1)에 대응하는 (a, b) 부분이 검색 영역(s) 내 시각적으로 확인 가능한 영역 중 일부 영역을 차지하고 있음을 확인할 수 있다. 달리 말해, 검색 영역(s) 중에서 선별된 가시 지형지물 객체(O1)에 대응하는 폭 영역(pos, c, d)이 일부를 차지하고 있음을 확인할 수 있다. 여기서, 선별된 가시 지형지물 객체(O1)에 대응하는 폭 영역은 객체 저장부(15)에 저장된 객체 정보를 고려하여 선별된 가시 지형지물 객체(O1)를 검색 영역(s)에 투영한 상태에서 나타나는 객체 폭(a, b)에 대응하는 영역(pos, c, d)을 의미할 수 있다.In this case, it can be seen that the portions (a, b) corresponding to the selected first candidate geologic feature object O1 occupy some of the visually identifiable areas in the search area s. In other words, it can be seen that the width regions pos , c , and d corresponding to the visual feature object O1 selected from the search area s occupy a part. Here, the width area corresponding to the selected visible feature object O1 is in a state in which the selected visible feature object O1 is projected onto the search area s in consideration of object information stored in the object storage unit 15 It may mean an area ( pos , c , d ) corresponding to the displayed object width ( a , b ).

선별부(12)는 1차 탐색을 수행하여 하나의 가시 지형지물 객체에 대한 선별이 이루어지면, 이후 1차 탐색이 이루어진 검색 영역(s)에 대응하는 탐색 대상 영역 중 선별된 가시 지형지물 객체(O1)에 대응하는 폭 영역(pos, c, d)을 제외한 나머지 영역을 2차 탐색을 위한 탐색 대상 영역으로서 재설정하고, 재설정된 탐색 대상 영역에 대하여 가시 지형지물 객체에 대한 2차 탐색을 수행할 수 있다. 여기서, 2차 탐색 대상이 되는 탐색 대상 영역, 즉 재설정된 탐색 대상 영역에는 (pos,

Figure pat00004
, c) 영역과 (pos, d, r) 영역이 포함될 수 있다.When the selection unit 12 performs a primary search to select one visible feature object, the visible feature object selected from among the search target areas corresponding to the search area s in which the first search has been made ( The remaining areas except for the width areas ( pos , c , d ) corresponding to O1) are reset as the search target area for the secondary search, and the second search for visible feature objects is performed for the reset search target area. I can. Here, in the search target area that is the secondary search target, that is, the reset search target area ( pos ,
Figure pat00004
, c ) and ( pos , d , r ) areas may be included.

탐색 알고리즘에 대하여 다시 설명하면 다음과 같다. 선별부(12)는 가시 지형지물 객체에 대한 선별을 위해 탐색 알고리즘을 수행할 수 있다. 탐색 알고리즘에서는 선분 (

Figure pat00005
, r)이 재귀(Recursion) 인자로 설정되고, Recursion(
Figure pat00006
, r)에서 검색 영역(s)의 좌표를 인자로 제공할 수 있다. 이를 통해, 선별부(12)는 탐색 알고리즘을 통해 검색 영역(s)에 대하여 건물들의 포함 관계를 판단할 수 있다.The search algorithm will be described again as follows. The selection unit 12 may perform a search algorithm to select a visible terrain object. In the search algorithm, the line segment (
Figure pat00005
, r ) is set as a recursion factor, and Recursion(
Figure pat00006
In, r ), the coordinates of the search area (s) can be provided as a factor. Through this, the selection unit 12 may determine the inclusion relationship of buildings in the search area s through a search algorithm.

이때, 탐색 알고리즘의 경우, 검색 영역(s)에 대하여 건물이 완전히 포함되거나 건물이 부분 포함된 경우, Recursion(

Figure pat00007
,c)과 Recursion(d,r)이 수행될 수 있다. 또한, 검색 영역(s)에 대하여 건물이 포함되지 않은 경우, 일예로 본 장치(10)의 디스플레이 제어부(14)는 건물이 포함된 영역에 대하여 재촬영(재인식)이 이루어지도록 하기 위한 알림을 사용자 단말(1)로 제공할 수 있다. 또한, 검색 영역(s)에 대하여 건물이 검색 영역(s)보다 큰 경우, 해당 건물이 가시 지형지물 객체로서 탐색된 이후 탐색 알고리즘이 종료될 수 있다.In this case, in the case of the search algorithm, when the building is completely included or the building is partially included in the search area (s), Recursion(
Figure pat00007
, c ) and Recursion ( d , r ) can be performed. In addition, when a building is not included in the search area (s), as an example, the display control unit 14 of the device 10 provides a notification for re-taking (re-recognition) of the area including the building. It can be provided to the terminal 1. In addition, when the building is larger than the search area s with respect to the search area s, the search algorithm may be terminated after the building is searched as a visible terrain object.

이와 같은 탐색 알고리즘을 이용하여, 선별부(12)는 후보 지형지물 객체들 중에서 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다. Using such a search algorithm, the selection unit 12 may select visible terrain objects that can be visually identifiable within the search area s among candidate terrain objects.

인식부(13)는 선별부(12)에서 선별된 가시 지형지물 객체들 중 검색 영역(s)의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상(달리 말해, 사용자가 검색하고자 하는 검색 대상 객체)으로 인식할 수 있다.The recognition unit 13 determines the area information request target (in other words, the user wants to search for a visible feature object located closest to the center of the search area s) among the visible feature objects selected by the selection unit 12. It can be recognized as a search target object).

사용자가 관심 대상(예를 들어, 특정 지형지물 객체)에 관한 정보를 알고자 하는 경우, 관심 대상을 화면(사용자 단말 상에 표시되는 영상 표시 화면)의 중심에 위치하도록 포커싱하는 것이 일반적이므로, 이러한 점을 고려하여, 인식부(13)는 가시 지형지물 객체들 중 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식할 수 있다. 이에 따르면, 본원은 사용자 단말(1)을 이용한 주변 건물의 포커싱을 통해 사용자가 직접 원하는 건물(검색 대상 객체)을 선택할 수 있도록 하는 편의성을 제공할 수 있다.When a user wants to know information about an object of interest (for example, a specific feature object), it is common to focus the object of interest to be located in the center of the screen (the image display screen displayed on the user terminal). In consideration of the point, the recognition unit 13 may recognize a visible feature object located closest to the center of the search area among the visible feature objects as a region information request target. Accordingly, the present application can provide convenience in allowing a user to directly select a desired building (object to be searched) through focusing of a nearby building using the user terminal 1.

일예로, 도 6의 (a)와 같은 상황인 경우, 인식부(13)는 선별부(12)에서 선별된 가시 지형지물 객체들(O1, O3) 중 검색 영역(S)의 중심에 가장 가깝게 위치하는 가시 지형지물 객체(O3)를 지역 정보 요청 대상으로 인식할 수 있다.For example, in the case of (a) of FIG. 6, the recognition unit 13 is the closest to the center of the search area S among the visible feature objects O1 and O3 selected by the selection unit 12. The located visible feature object O3 can be recognized as a target for requesting local information.

후술하는 설명에서는 인식부(13)에서 인식하는 지역 정보 요청 대상을 검색 대상 객체라 달리 표현할 수 있다.In the description to be described later, a target for requesting local information recognized by the recognition unit 13 may be differently expressed as a search target object.

본원의 일예에서는 인식부(13)가 선별된 가시 지형지물 객체들 중 검색 영역의 중심에 가장 가까이 위치하는 가시 지형지물 객체를 지역 정보 요청 대상(검색 대상 객체)으로 인식하는 것으로 예시하였으나, 이에 한정되는 것은 아니다. In an example of the present application, it is exemplified that the recognition unit 13 recognizes the visible feature object located closest to the center of the search area among the selected visible feature objects as a region information request target (search target object), but is limited to this. It does not become.

다른 일예로, 본원에서 디스플레이 제어부(14)는 사용자 단말(1)의 화면의 중심에 중심 식별 마크가 표시되도록 할 수 있다. 이후, 사용자는 사용자 단말(1)의 화면 상에 표시된 중심 식별 마크가 실생활환경에서 검색하고자 하는 지형지물 객체(즉, 검색 대상 객체로서 예를 들어, 건물을 의미함) 상에 위치하여 표시되도록, 사용자 단말의 이미지센서로 검색하고자 하는 지형지물 객체를 비출 수 있다. 이때, 인식부(13)는 사용자 단말에 표시되는 지형지물 객체들 중 중심 식별 마크에 대응하는 지형지물 객체를 지역 정보 요청 대상(검색 대상 객체)로 인식할 수 있다. 이러한 본원의 다른 일예에 의하면, 중심 식별 마크를 이용해 검색 대상 객체를 보다 용이하게 인식(식별)할 수 있다.As another example, in the present application, the display control unit 14 may cause the center identification mark to be displayed at the center of the screen of the user terminal 1. Thereafter, the user so that the center identification mark displayed on the screen of the user terminal 1 is located and displayed on the geographical feature object to be searched for in a real life environment (that is, as a search target object, for example, meaning a building), The feature object to be searched for can be illuminated with the image sensor of the user terminal. In this case, the recognition unit 13 may recognize a feature object corresponding to the center identification mark among the feature objects displayed on the user terminal as a region information request target (search target object). According to another example of the present application, the object to be searched may be more easily recognized (identified) by using the central identification mark.

디스플레이 제어부(14)는 인식부(13)에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 지역 정보 요청 대상 상에 오버레이하여 표시할 수 있다. 디스플레이 제어부(14)는 사용자 단말(1)의 화면 상에 표출되는 지역 정보 요청 대상 상에 지역 정보 요청 대상에 대응하는 관심지점 정보를 오버레이하여 표시할 수 있다. 여기서, 관심지점 정보에는 일예로 관심지점의 명칭(이름) 및 주소 중 적어도 하나가 포함될 수 있으나, 이에 한정되는 것은 아니다.The display control unit 14 may overlay and display point of interest (POI) information corresponding to the region information request object recognized by the recognition unit 13 on the region information request object. The display control unit 14 may overlay and display point-of-interest information corresponding to the region information request object on the region information request object displayed on the screen of the user terminal 1. Here, the point of interest information may include at least one of a name (name) and an address of the point of interest, but is not limited thereto.

객체 저장부(15)는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 수 있다. 또한, 객체 저장부(15)는 객체 정보에 대응하는 관심지점(POI, Point of Interest) 정보를 함께 연계하여 저장할 수 있다. 여기서, 객체 저장부(15)에 저장되는 객체 정보 및 그에 대응하는 POI 정보는 서버의 데이터베이스에 저장된 객체 정보와 그에 대응하는 POI 정보 중 일부의 정보(예를 들어, 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보)일 수 있다. 이에 대한 설명은 후술하는 설명을 통해 보다 쉽게 이해될 수 있다.The object storage unit 15 may store information on the location and shape of the feature objects as object information. In addition, the object storage unit 15 may link and store Point of Interest (POI) information corresponding to the object information together. Here, the object information stored in the object storage unit 15 and POI information corresponding thereto are some of the object information stored in the database of the server and POI information corresponding thereto (for example, a preset distance from the location of the user terminal). It may be object information located within a range and POI information corresponding thereto). Description of this may be more easily understood through the description to be described later.

도 7은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)를 포함하는 지역 정보 자동 인식 시스템(100)의 구성을 개략적으로 나타낸 도면이다.7 is a diagram schematically illustrating a configuration of a system 100 for automatically recognizing region information including the apparatus 10 for automatically recognizing region information according to an exemplary embodiment of the present disclosure.

도 7을 참조하면, 본원의 일 실시예에 따른 지역 정보 자동 인식 시스템(100)은 지역 정보 자동 인식 장치(본 장치, 10) 및 서버(20)를 포함할 수 있다.Referring to FIG. 7, the system 100 for automatically recognizing region information according to an exemplary embodiment of the present disclosure may include an apparatus for automatically recognizing region information (the present apparatus 10) and a server 20.

여기서, 지역 정보 자동 인식 장치(10)는 앞서 설명된 본 장치(10)를 의미할 수 있다. 따라서, 이하 생략된 내용이라 하더라도 앞서 본 장치(10)에 대하여 설명된 내용은 후술하는 본 장치(10, 지역 정보 자동 인식 장치)에 대한 설명에도 동일하게 적용될 수 있다.Here, the apparatus 10 for automatically recognizing region information may refer to the apparatus 10 described above. Accordingly, even if omitted below, the description of the device 10 may be equally applied to the description of the device 10 (automatic region information recognition device) to be described later.

본 장치(10)는 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 서버(20)로 전송할 수 있다. 서버(20)의 데이터베이스에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보로서 저장되어 있을 수 있으며, 더하여 이러한 객체 정보에 대응하는 관심지점 정보가 연계(맵핑)되어 저장되어 있을 수 있다. The device 10 may transmit location information and direction information obtained from the user terminal to the server 20. In the database of the server 20, information on the location and shape of all terrain objects may be stored as object information, and in addition, point of interest information corresponding to such object information may be linked (mapped) and stored.

따라서, 서버(20)는 본 장치(10)로부터 사용자 단말의 위치 정보 및 방향 정보를 획득하면, 획득된 정보(위치 정보 및 방향 정보)를 기반으로 사용자 단말의 위치 정보에 대응하는 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보를 데이터베이스에서 검색할 수 있다. 이후, 서버(20)는 검색된 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보를 본 장치(10)로 전송할 수 있다.Accordingly, when the server 20 obtains the location information and direction information of the user terminal from the device 10, the server 20 is preset from a location corresponding to the location information of the user terminal based on the obtained information (location information and direction information). Object information located within a distance range and POI information corresponding thereto can be searched in the database. Thereafter, the server 20 may transmit object information located within the searched preset distance range and POI information corresponding thereto to the device 10.

이후, 본 장치(10)는 서버(20)로부터 수신한 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보를 본 장치(10) 내 객체 저장부(15)에 저장할 수 있다. 이후 본 장치(10)는 객체 저장부(15)에 저장된 정보에 기초하여 추출부(11)를 통한 후보 지형지물 객체의 추출, 선별부(12)를 통한 가시 지형지물 객체의 선별 및 인식부(13)를 통한 지역 정보 요청 대상에 대한 인식, 및 디스플레이 제어부(14)를 통한 POI 정보 디스플레이 과정을 수행할 수 있다. Thereafter, the device 10 may store object information located within a preset distance range received from the server 20 and POI information corresponding thereto in the object storage unit 15 in the device 10. Thereafter, the device 10 extracts a candidate terrain object through the extraction unit 11 based on the information stored in the object storage unit 15, and selects and recognizes a visible terrain object through the selection unit 12 ( 13), and a process of displaying the POI information through the display control unit 14 may be performed.

본 장치(10)와 서버(20) 간에는 네트워크(30)를 통해 연결될 수 있다.The device 10 and the server 20 may be connected through a network 30.

네트워크(30)는 일예로3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함될 수 있으며, 이에 한정된 것은 아니다.The network 30 is, for example, a 3rd Generation Partnership Project (3GPP) network, a Long Term Evolution (LTE) network, a World Interoperability for Microwave Access (WIMAX) network, an Internet, a Local Area Network (LAN), a Wireless LAN (Wireless LAN). Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (Bluetooth) network, NFC (Near Field Communication) network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc. It may be included, but is not limited thereto.

한편, 엠비언트 브라우저(Ambient Browser)는 사용자 단말의 이미지센서로 검색을 원하는 실생활공간 상의 객체를 비추는 것만으로 그 객체의 정보를 얻을 수 있는 MR 시스템이라 할 수 있다. 이 시스템의 핵심은 검색 대상이 되는 실외 객체를 키워드 없이 특정짓는 것이라 할 수 있는데, 이러한 시스템을 구축하는데 있어서 센서/영상처리 기반의 종래 공지된 MR 연구을 활용하기 어려운 문제가 있다.On the other hand, the Ambient Browser can be said to be an MR system in which information of the object can be obtained simply by projecting an object on a real life space desired to be searched with an image sensor of a user terminal. The core of this system can be said to specify an outdoor object to be searched without a keyword. In constructing such a system, it is difficult to utilize the conventionally known MR research based on sensor/image processing.

다시 말해, 종래 MR 서비스는 앞서 설명한 바와 같이 주로 실내 공간에서의 서비스 제공을 전제로 하고 있어, 주위환경 변화가 큰 실외에서는 종래 MR 서비스를 적용하는 데에 한계가 있다.In other words, as described above, the conventional MR service is mainly based on the premise of providing a service in an indoor space, and thus there is a limitation in applying the conventional MR service in the outdoors where the surrounding environment changes greatly.

이에 본원에서는 본 시스템(100)을 통해, 종래와 같이 센서/영상처리 기반이 아닌, 수치지도의 실생활공간 객체 정보를 기반으로 사용자 단말의 위치 정보와 방향 정보를 이용하여 검색 대상 객체(즉, 인식부에서 인식하는 지역 정보 요청 대상)를 특정짓는 기술에 대하여 제안한다. 더하여, 본원에서는 이를 기반으로 실외 MR 서비스의 효과적인 구축을 위한 실생활공간 위치 기반의 실외 MR 모델에 대하여 제안한다. 이하 설명에서는 인식부(13)에서 인식하는 지역 정보 요청 대상을 사용자가 검색하고자 하는 대상 객체로서, 검색 대상 객체라 지칭할 수 있다.Therefore, in the present application, the object to be searched (that is, recognition) using the location information and direction information of the user terminal based on real-life spatial object information of a digital map, not based on sensor/image processing as in the prior art, through the present system 100. We propose a technique that specifies the target of requesting local information recognized by the Department. In addition, based on this, the present application proposes an outdoor MR model based on real life space location for effective construction of outdoor MR service. In the following description, an object for requesting local information recognized by the recognition unit 13 may be referred to as an object to be searched for by the user.

즉, 본원에서는 키워드의 필요없이, 본원에서 제안하는 실외 MR 모델을 활용하여 수치지도와 POI 정보를 기반으로 검색 대상 객체(즉, 인식부에서 인식하는 지역 정보 요청 대상)의 관심지점 정보를 제공할 수 있는 실외 MR 서비스인 엠비언트 브라우저(Ambient Browser)를 구축하는 기술에 대하여 제안한다. 달리 말해, 본 장치(10)는 실외 MR 서비스 제공을 위한 엠비언트 브라우저 장치라 달리 표현될 수 있다. 본원에서 제안하는 실외 MR 모델에 대한 설명은 도 8을 참조하여 보다 쉽게 이해될 수 있다.That is, in this application, without the need for keywords, the outdoor MR model proposed by the present application is used to provide information on the point of interest of the object to be searched (that is, the region information request target recognized by the recognition unit) based on the digital map and POI information. A technology for building Ambient Browser, which is a possible outdoor MR service, is proposed. In other words, the device 10 may be expressed differently as an ambient browser device for providing an outdoor MR service. Description of the outdoor MR model proposed in the present application may be more easily understood with reference to FIG. 8.

도 8은 본원의 일 실시예에 따른 지역 정보 자동 인식 시스템(100)에 적용되는 실외 MR 모델의 구조를 개략적으로 나타낸 도면이다. 이러한 실외 MR 모델에 기초하여 관심지점 정보가 제공되는 과정에 대한 설명은 다음과 같다.8 is a diagram schematically showing the structure of an outdoor MR model applied to the system 100 for automatically recognizing area information according to an embodiment of the present application. A description of the process of providing point of interest information based on the outdoor MR model is as follows.

도 8을 참조하면, 본원에서 제안하는 실외 MR 모델은 실생활공간 레이어, 객체 저장공간 레이어, 정보 저장공간 레이어, 및 정보 표시공간 레이어로 이루어질 수 있다.Referring to FIG. 8, the outdoor MR model proposed in the present application may include a real life space layer, an object storage space layer, an information storage space layer, and an information display space layer.

실외 MR 모델은, 수치지도에서 추출된 객체 정보를 객체 저장공간 레이어에 저장하여 이를 검색 대상 객체(검색 대상이 되는 실외 객체)를 특정짓는데 활용하고, 특정지어진 검색 대상 객체를 기반으로 정보 저장공간 레이어에서 특정지어진 검색 대상 객체와 관련된 정보(즉, POI 정보)를 검색하는 것을 특징으로 한다. 보다 상세한 설명은 다음과 같다.The outdoor MR model stores object information extracted from a digital map in an object storage space layer and uses it to identify a search target object (an outdoor object to be searched for), and an information storage space layer based on the specified search target object. It is characterized in that it searches for information (ie, POI information) related to the search target object specified in. A more detailed description follows.

[실생활공간 레이어][Real life space layer]

실생활공간 레이어에 대응하는 실생활공간이라 함은 사용자가 생활하는 공간을 의미할 수 있다. 사용자는 정보 표시공간 레이어를 통하여 실생활공간에서 정보제공 서비스를 받을 수 있다. 여기서, 정보 표시공간 레이어는 사용자 단말(1) 상의 디스플레이 화면을 나타내는 것으로서, 보다 자세한 설명은 후술하여 설명하기로 한다.The real life space corresponding to the real life space layer may mean a space in which a user lives. Users can receive information provision services in real life spaces through the information display space layer. Here, the information display space layer represents a display screen on the user terminal 1, and a more detailed description will be described later.

사용자 단말(1)을 소지한 사용자가 실생활공간에서 이동하는 중에 어떤 건물(어떤 지형지물 객체)에 대한 정보를 알고자하는 경우, 사용자는 사용자 단말(1)의 이미지센서를 이용해 해당 건물을 비출 수 있다. 즉, 사용자는 정보를 알고자하는 해당 건물(검색 대상 객체)이 사용자 단말(1)의 화면 상에 시각적으로 표출되도록 사용자 단말(1)의 의미지센서를 이용해 해당 건물을 포커싱하여 비출 수 있다.When a user with a user terminal 1 wants to know information about a building (a landmark object) while moving in a real life space, the user can illuminate the building using the image sensor of the user terminal 1 have. That is, the user may focus and illuminate the corresponding building (object to be searched) for which information is desired using the meaning sensor of the user terminal 1 so that the corresponding building (object to be searched) for which information is desired is visually displayed on the screen of the user terminal 1.

이때, 본 장치(10)는 예시적으로 사용자가 알고자하는 지형지물 객체를 미리 설정된 시간 동안 사용자 단말(1)로 포커싱한 경우, 사용자 단말(1)의 화면 상에 표시되는 알고자하는 지형지물 객체가 포함된 영상을 검색 대상 객체를 검색하기 위한(즉, 지역 정보 요청 대상의 인식을 위한) 검색 요청으로서 인식할 수 있다.At this time, the device 10 is, for example, when the user terminal 1 focuses on the object of the landmark that the user wants to know for a preset time, the desired landmark displayed on the screen of the user terminal 1 An image including an object may be recognized as a search request for searching for a search target object (ie, for recognition of a local information request target).

즉, 본 장치(10)는 사용자 단말(1)이 지형지물 객체를 미리 설정된 시간 동안 포커싱한 것으로 판단되는 경우, 이를 검색 요청으로 인식하여 사용자 단말(1)로부터 위치 정보 및 방향 정보를 획득할 수 있다. 이를 위해 본 장치(10)는 위치 정보 및 방향 정보 획득부(미도시)를 포함할 수 있다. That is, when it is determined that the user terminal 1 has focused the feature object for a preset time, the device 10 recognizes this as a search request and can obtain location information and direction information from the user terminal 1. have. To this end, the device 10 may include a location information and direction information acquisition unit (not shown).

여기서, 검색 요청의 인식 여부를 결정하는 미리 설정된 시간은 예시적으로 3초일 수 있으나, 이에 한정되는 것은 아니다. Here, the preset time for determining whether to recognize the search request may be 3 seconds as an example, but is not limited thereto.

본 장치(10)는 검색 요청이 인식되면, 사용자 단말(1)에 구비된 GPS 센서, 전자 나침반, 자이로센서 등으로부터 사용자 단말(1)의 위치 정보(경위도 좌표)와 사용자 단말(1)이 바라보는 방향 정보(방위각 정보)를 획득할 수 있다. 본 장치(10)는 획득한 사용자 단말(1)의 위치 정보와 방향 정보를 서버(20)로 전송할 수 있다. 특히, 본 장치(10)로부터 전송된 사용자 단말(1)의 위치 정보와 방향 정보는 서버(20) 내 객체 저장공간 레이어에 대응하는 객체 저장공간부에 전달될 수 있다. 달리 표현하여, 실생활공간 레이어에서는 사용자 단말(1)의 위치 정보와 방향 정보(위치+방향)를 객체 저장공간 레이어로 전달할 수 있다.When the search request is recognized, the device 10 requests the location information (longitude and latitude coordinates) of the user terminal 1 and the user terminal 1 from a GPS sensor, an electronic compass, and a gyro sensor provided in the user terminal 1. Viewing direction information (azimuth angle information) can be obtained. The device 10 may transmit the acquired location information and direction information of the user terminal 1 to the server 20. In particular, the location information and direction information of the user terminal 1 transmitted from the device 10 may be transmitted to the object storage space unit corresponding to the object storage space layer in the server 20. In other words, in the real life space layer, location information and direction information (location + direction) of the user terminal 1 may be transferred to the object storage space layer.

여기서, 서버(20)는 데이터베이스를 포함하며, 데이터베이스에는 객체 저장공간 레이어에 대응하는 객체 저장공간부 및 정보 저장공간 레이어에 대응하는 정보 저장공간부가 포함될 수 있다. 객체 저장공간부에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보(이러한 객체 정보에는 지형지물 객체의 키워드 및 위상 정보가 포함됨)로서 저장되어 있고, 정보 저장공간부에는 객체 정보에 대응하는 관심지점(POI, Point of Interest) 정보가 저장되어 있을 수 있다. 이에 따르면, 서버(20)의 데이터베이스에는 객체 정보 및 그에 대응하는 관심지점 정보가 서로 연계(맵핑)되어 저장되어 있을 수 있다.Here, the server 20 includes a database, and the database may include an object storage space unit corresponding to the object storage space layer and an information storage space unit corresponding to the information storage space layer. The object storage space unit stores information on the location and shape of all feature objects as object information (such object information includes keyword and phase information of the feature object), and the information storage space unit stores information corresponding to object information. Point of interest (POI) information may be stored. Accordingly, object information and corresponding point of interest information may be linked (mapped) to each other and stored in the database of the server 20.

[객체 저장공간 레이어][Object storage layer]

객체 저장공간 레이어에 대응하는 객체 저장공간이라 함은 실생활공간 상의 객체(지형지물 객체)들의 정보를 단순히 위치정보가 아닌 수치지도 정보(지리정보)에 기초하여 저장하는 공간을 의미할 수 있다. 이러한 실생활공간 상의 객체(지형지물 객체)들의 정보는 서버(20)의 데이터베이스, 특히 객체 저장공간부에 저장되어 있을 수 있다. 다시 말해, 객체 저장공간부에는 실생활공간에 존재하는 다양한 지형지물 객체들의 위치 정보가 수록되는 수치지도에서 추출된 객체 정보가 저장될 수 있다. 즉, 객체 저장공간부는 수치지도의 객체 정보를 활용하여 구축될 수 있다. The object storage space corresponding to the object storage space layer may mean a space for storing information of objects (terrain objects) in real life space based on digital map information (geographic information), not simply location information. The information on the objects (terrain objects) on the real life space may be stored in a database of the server 20, particularly in the object storage space. In other words, the object storage space unit may store object information extracted from a digital map in which location information of various terrain objects existing in a real life space is recorded. That is, the object storage space unit may be constructed using object information of a digital map.

객체 저장공간부에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보로서 저장되어 있을 수 있다. 이때, 객체 저장공간부에는 객체 정보가 MBR로 변환되어 R-tree 구조로 저장되어 있다. 다만, 이에 한정되는 것은 아니고, 객체 저장공간부에는 객체 정보가 MAR로 변환되어 R-tree 구조로 저장되어 있을 수 있다. MBR 및 MAR 관련 설명은 앞서 자세히 설명했으므로, 이하 생략하기로 한다. In the object storage space unit, information on the location and shape of all terrain objects may be stored as object information. In this case, the object information is converted into an MBR in the object storage space and stored in an R-tree structure. However, the present invention is not limited thereto, and object information may be converted to MAR and stored in an R-tree structure in the object storage space. Since the description of MBR and MAR has been described in detail above, it will be omitted below.

도 9는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 객체 정보의 저장 구조인 R-tree 구조를 설명하기 위한 도면이다.9 is a diagram for explaining an R-tree structure, which is a storage structure of object information, in the apparatus 10 for automatically recognizing area information according to an embodiment of the present application.

도 9를 참조하면, R-tree 구조는 지형지물 객체들에 대한 공간 정보를 저장하는 트리 자료의 구조라 할 수 있다. 여기서, 공간 정보는 객체 정보라 달리 표현할 수 있다. 따라서, 공간 정보라 함은 지형지물 객체들의 위치와 형상, 위상 등에 관한 정보를 포함하는 객체 정보를 의미할 수 있다.Referring to FIG. 9, the R-tree structure may be regarded as a structure of tree data that stores spatial information on feature objects. Here, the spatial information may be expressed differently as object information. Therefore, the spatial information may mean object information including information on the location, shape, and phase of the feature objects.

객체 저장공간부에는 객체 정보가 일예로 MBR의 형태의 R-tree 구조로 저장될 수 있다. 즉, 서버(20)에는 MBR로 표현되는 모든 객체 정보가 R-tree 구조로 저장(구축)되어 있을 수 있다. 이에 본원은 이를 기초로 하여 사용자 주변에 어떠한 건물들이 존재하는지에 대한 탐색(즉, 사용자 단말의 위치 정보에 대응하는 위치로부터 그 주변에 존재하는 건물들에 대한 탐색)을 보다 빠르게 수행할 수 있다. In the object storage space, object information may be stored in an R-tree structure in the form of an MBR, for example. That is, in the server 20, all object information represented by MBR may be stored (built) in an R-tree structure. Accordingly, the present application can more quickly perform a search for what buildings exist around the user (ie, search for buildings existing around the user terminal from a location corresponding to the location information of the user terminal) based on this.

예시적으로, R1 영역에는 1,2,3 지형지물 객체가 포함되고, R2 에는 4,5,6 지형지물 객체가 포함되도록 R-tree 구조가 구축되어 있을 수 있다. 이때, 탐색 범위가 도 9에 도시된 바와 같은 경우, 서버(20)는 R-tree 구조에 기초한 탐색을 통해, 탐색 범위 내에 3, 4, 6 지형지물 객체가 존재하고 있음을 확인(식별)할 수 있다.For example, an R-tree structure may be constructed such that 1,2,3 feature objects are included in the R1 area, and 4,5,6 feature objects are included in R2. In this case, when the search range is as shown in FIG. 9, the server 20 confirms (identifies) that 3, 4, and 6 feature objects exist within the search range through a search based on the R-tree structure. I can.

일예로, 서버(20)의 객체 저장공간부에는 객체 정보가 MBR 형태로 저장되고, 본 장치(10)의 객체 저장부(15)에 저장되는 객체 정보는 MAR 형태로 저장될 수 있다. 다만 이에만 한정되는 것은 아니고, 다른 예로 객체 저장공간부에도 객체 정보가 MAR 형태로 저장될 수 있다.For example, object information may be stored in an MBR format in an object storage space of the server 20, and object information stored in the object storage 15 of the device 10 may be stored in a MAR format. However, the present invention is not limited thereto, and as another example, object information may be stored in a MAR format in the object storage space.

실생활공간 레이어로부터 전달받은 사용자 단말(1)의 위치 정보와 방향 정보를 이용하면, 객체 저장공간부에 R-tree 구조로 저장된 객체 정보를 기반으로 사용자가 위치한 주변 영역에 어떠한 건물들(지형지물 객체들)이 존재하는지 보다 빠르게 탐색(식별)될 수 있다. 서버(20)의 데이터베이스에는 이렇게 R-tree 구조로 저장된 객체 정보와 그에 대응하는 POI 정보가 맵핑되어 저장될 수 있다. Using the location information and direction information of the user terminal 1 transmitted from the real-life space layer, based on the object information stored in the R-tree structure in the object storage space, what buildings (terrestrial objects) are located in the surrounding area where the user is located. S) can be detected (identified) more quickly. Object information stored in an R-tree structure and POI information corresponding thereto may be mapped and stored in the database of the server 20.

따라서, 서버(20)는 본 장치(10)로부터 수신한 사용자 단말(1)의 위치 정보와 방향 정보를 이용하여, 객체 저장공간부에 저장된 객체 정보들 중 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들(즉, 지형지물 객체들의 위치와 형상에 관한 정보)을 R-tree를 이용해 보다 빠르게 식별할 수 있다. 다시 말해, 본원에서는 Tree의 특성 및 MBR 간의 포함관계를 이용해 건물 탐색에 관한 쿼리에 보다 빠르게 응답할 수 있는 객체정보 DB(달리 표현하여, 건물정보 DB)로서 객체 저장공간부를 제공할 수 있다. Accordingly, the server 20 uses the location information and the direction information of the user terminal 1 received from the device 10, among the object information stored in the object storage space, within a preset distance range from the location of the user terminal. Positioned object information (that is, information about the location and shape of the feature objects) can be identified more quickly using the R-tree. In other words, in the present application, an object storage unit may be provided as an object information DB (in other words, a building information DB) capable of responding more quickly to a query about a building search by using the inclusion relationship between the characteristics of the tree and the MBR.

이후, 서버(20)는 객체 저장공간부에서 식별된 객체 정보들과, 후술하는 정보 저장공간부에서 식별되는 객체 정보들에 대응하는 관심지점 정보를 함께 본 장치(10)로 제공할 수 있다.Thereafter, the server 20 may provide the object information identified in the object storage space unit and point of interest information corresponding to the object information identified in the information storage space unit to be described later to the device 10 together.

객체 저장공간 레이어에서는 실생활공간 레이어로부터 전달받은 (위치+방향) 정보, 및 식별된 객체 정보를 정보 저장공간 레이어에 전달할 수 있다. 여기서, 식별된 객체 정보에는 지형지물 객체들(예를 들어, 건물들)의 키워드 및 위상 정보(즉, 건물 키워드+위상 정보)가 포함될 수 있다. 또한, 이러한 객체 정보에는 지형지물 객체의 위치와 형상에 관한 정보가 포함될 수 있다.In the object storage space layer, (location + direction) information transmitted from the real life space layer and the identified object information may be delivered to the information storage space layer. Here, the identified object information may include keyword and phase information (ie, building keyword + phase information) of terrain objects (eg, buildings). In addition, such object information may include information on the location and shape of the feature object.

[정보 저장공간 레이어][Information storage layer]

정보 저장공간 레이어에 대응하는 정보 저장공간이라 함은 객체 저장공간에 존재하는 객체 정보들에 대하여 수지지도 정보에 기초한 위치를 기준으로 그에 대응하는 관심지점(POI) 정보가 저장되는 공간을 의미할 수 있다. 이러한 관심지점 정보는 서버(20)의 데이터베이스, 특히 정보 저장공간부에 저장되어 있을 수 있다.The information storage space corresponding to the information storage space layer may mean a space in which point of interest (POI) information corresponding to the object information existing in the object storage space is stored based on a location based on the balance map information. have. This point of interest information may be stored in a database of the server 20, in particular, in an information storage space.

본원에서는 일예로 정보 저장공간부에 객체 정보에 대응하여 그에 대응하는 POI 정보만 저장되는 것으로 예시하였으나, 이에 한정되는 것은 아니다. 다른 일예로, 정보 저장공간부에는 POI와 같이 공적인 성격을 가지는 정보 뿐만 아니라 사용자가 객체 정보에 대하여 직접 작성한 정보가 저장될 수 있다. In the present application, as an example, only POI information corresponding to the object information is stored in the information storage unit, but is not limited thereto. As another example, the information storage unit may store not only information having a public nature such as POI, but also information directly written by a user for object information.

정보 저장공간부에 저장된 정보(POI 정보)는 지형지물 객체의 위치 정보와 키워드 정보로 인덱싱되어 있을 수 있다. 다시 말해, 정보 저장공간부에는 POI 정보가 저장되어 있을 수 있다. 이때, POI 정보는 지형지물 객체의 위치(경위도 좌표)를 기반으로 객체 저장공간에 저장된 지형지물 객체의 키워드로 인덱싱되어 정보 저장공간부에 저장되어 있을 수 있다.Information (POI information) stored in the information storage space may be indexed with location information and keyword information of a feature object. In other words, POI information may be stored in the information storage space. In this case, the POI information may be indexed as a keyword of the feature object stored in the object storage space based on the location (longitude latitude coordinates) of the feature object and stored in the information storage space.

따라서, 정보 저장공간부에 의하면, 개체 저장공간 레이어에서 식별된 객체 정보를 이용하여, 그에 대응하는 지형지물 객체의 POI 정보가 식별(검색)될 수 있다. 달리 말해, 서버(20)는 객체 저장공간부에서 (위치+방향) 정보를 이용하여 객체 정보가 식별되면, 저장공간부에서 식별된 객체 정보에 대응하는 POI 정보를 식별(검색)할 수 있다. 즉, 서버(20)는 객체 저장공간부를 이용해 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들을 식별하고, 식별된 객체 정보들에 대응하는 POI 정보들을 정보 저장공간부를 이용해 식별(검색)할 수 있다.Accordingly, according to the information storage space unit, POI information of a feature object corresponding to the object information identified in the object storage space layer may be identified (searched). In other words, when object information is identified in the object storage space unit using (location + direction) information, the server 20 may identify (search) POI information corresponding to the object information identified in the storage space unit. That is, the server 20 identifies object information located within a preset distance range from the location of the user terminal using the object storage unit, and identifies (searches) POI information corresponding to the identified object information using the information storage unit. can do.

정보 저장공간 레이어에서는 객체 저장공간 레이어로부터 전달받은 (위치+방향) 정보, 식별된 객체 정보로서 건물 키워드+위상 정보, 및 식별된 객체 정보들에 대응하는 정보(즉, POI 정보)를 정보 표시공간 레이어로 전달할 수 있다. 달리 표현하여, 서버(20)는 본 장치(10)로부터 사용자 단말(1)의 위치 정보와 방향 정보를 획득(수신)하면, 객체 저장공간부 및 정보 저장공간부를 포함하는 데이터베이스에 기반하여, 사용자 단말의 위치 정보에 대응하는 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들 및 그에 대응하는 POI 정보들을 식별하고, 식별된 정보(객체 정보들 및 그에 대응하는 POI 정보들)을 본 장치(10)로 전달(전송)할 수 있다. In the information storage layer, (location + direction) information received from the object storage layer, building keyword + phase information as the identified object information, and information corresponding to the identified object information (ie, POI information) are displayed as an information display space. You can pass it to the layer. In other words, when the server 20 acquires (receives) the location information and the direction information of the user terminal 1 from the device 10, based on the database including the object storage space unit and the information storage space unit, the user The device 10 identifies object information located within a preset distance range from a location corresponding to the location information of the terminal and POI information corresponding thereto, and identifies the identified information (object information and POI information corresponding thereto). Can be delivered to (transfer).

여기서, 객체 저장공간부는 건물정보DB라 달리 표현되고, 정보 저장공간부는 POI DB라 달리 표현될 수 있다. 또한, 예시적으로 본원에서는 객체 저장공간부에 R-tree로 구축된 건물정보에서 POI DB에 있는 건물 중심 좌표를 질의하고, 질의에 응답한 건물정보에 POI DB에 있는 건물 이름(명칭)을 맵핑함으로써 서버(20)의 데이터베이스가 구축될 수 있다. Here, the object storage space unit may be expressed differently as a building information DB, and the information storage space unit may be expressed differently as a POI DB. In addition, as an example, in the present application, the building center coordinates in the POI DB are queried from the building information constructed as an R-tree in the object storage space, and the building name (name) in the POI DB is mapped to the building information in response to the query. By doing so, the database of the server 20 can be built.

다시 말해, R-tree가 구축된 이후에, POI DB의 건물 중심 좌표를 R-tree에 질의하고 그 결과로서 건물 정보(객체 정보)와 POI가 맵핑됨으로써 POI DB가 구축될 수 있다. 이후 서버(20)는 본 장치(10)와의 통신을 통해 사용자 단말의 위치 정보 및 방향 정보를 전송 받으면, R-tree를 이용해 사용자 주변의 객체 정보들 및 그에 대응하는 POI 정보들을 사용자 단말로 제공할 수 있다. 본 장치(10)는 서버(20)로부터 제공받은 객체 정보들 및 그에 대응하는 POI 정보에 기초하여, 사용자가 원하는 건물에 대한 탐색을 수행하고, 탐색된 건물에 대한 POI 정보를 사용자 단말(1)의 화면 상에 제공할 수 있다.In other words, after the R-tree is constructed, the POI DB can be constructed by querying the R-tree for the coordinates of the building center of the POI DB, and mapping the building information (object information) and the POI as a result. Thereafter, when receiving the location information and direction information of the user terminal through communication with the device 10, the server 20 provides object information around the user and corresponding POI information to the user terminal using the R-tree. I can. The device 10 performs a search for a building desired by the user based on object information provided from the server 20 and POI information corresponding thereto, and transmits POI information for the searched building to the user terminal 1 Can be provided on the screen of.

서버(20)의 데이터베이스에 대하여 다시 설명하자면 다음과 같다. 데이터베이스에는 객체 정보(건물정보) 및 그에 대응하는 POI 정보가 저장되어 있을 수 있다. 객체 정보(건물정보)는, 건물의 꼭짓점 좌표들로 구성될 수 있다. 하나의 객체 정보로는 한 건물의 모든 꼭짓점 좌표가 저장되어 있을 수 있다. 건물의 꼭짓점 좌표는 건물의 위도/경도 정보로 구성될 수 있다. 또한, 객체 정보와 관련하여 객체의 형상에 관한 정보는, 건물의 꼭짓점 좌표들의 시작과 끝이 항상 동일함에 따라 다각형(폴리곤)으로 이루어질 수 있다.The database of the server 20 will be described again as follows. Object information (building information) and POI information corresponding thereto may be stored in the database. Object information (building information) may be composed of coordinates of vertices of a building. As one object information, coordinates of all vertices of a building may be stored. The coordinates of the vertices of the building may be composed of the latitude/longitude information of the building. In addition, information on the shape of the object in relation to the object information may be made of a polygon (polygon) as the start and end of the coordinates of the vertices of the building are always the same.

또한, 데이터베이스에 저장된 POI 정보와 관련하여, POI 정보는 예시적으로 NID, Ncode, name_full, Name_alias, Name_field, Xpos, Ypos, Admcode_A, Admname_A, Admcode_L, admname_L, LANDMARK, Codename, TOP_POI 형태로 구성될 수 있다. 또한, POI 정보로는 예시적으로 건물 이름(명칭), 건물 중심 좌표 및 건물 주소가 주된 데이터로서 사용될 수 있다. In addition, with respect to POI information stored in the database, the POI information may be exemplarily configured in the form of NID, Ncode, name_full, Name_alias, Name_field, Xpos, Ypos, Admcode_A, Admname_A, Admcode_L, admname_L, LANDMARK, Codename, and TOP_POI. . In addition, as POI information, for example, a building name (name), a building center coordinate, and a building address may be used as main data.

이에 따르면, 데이터베이스에는 R-tree를 이용해 구축된 객체정보(건물정보)와 그에 대응하는 POI 정보가 맵핑되어 저장될 수 있으며, 이를 통해 건물 꼭짓점과 건물 이름(명칭)이 서로 연계(연결)되어 저장되어 있을 수 있다.According to this, object information (building information) built using R-tree and POI information corresponding thereto can be mapped and stored in the database, through which the building vertices and building names (names) are linked (connected) to each other and stored. Can be.

[정보 표시공간 레이어][Information space layer]

정보 표시공간 레이어에 대응하는 정보 표시공간이라 함은 사용자 단말(1)의 화면 상에 보여지는 공간을 의미할 수 있다. 즉, 정보 표시공간 레이어는 정보 저장공간에서식별(검색)된 정보와 실생활공간을 연결하는 레이어로서, 사용자 단말(1)의 화면을 의미할 수 있다. 이러한 사용자 단말(1)에는 예시적으로 휴대 단말, 스마트 디바이스, HMD(Head Mounted Display), 디지털 사이니지 등 정보의 시각적 표출이 가능한 모든 종류의 기기가 포함될 수 있다. The information display space corresponding to the information display space layer may mean a space displayed on the screen of the user terminal 1. That is, the information display space layer is a layer that connects the information identified (searched) in the information storage space and the real life space, and may mean a screen of the user terminal 1. The user terminal 1 may include, for example, a portable terminal, a smart device, a head mounted display (HMD), and all types of devices capable of visually displaying information such as digital signage.

구체적으로, 본 장치(10)는 사용자 단말의 위치 정보와 방향 정보를 서버로 제공한 이후, 그에 응답하여 서버에 의해 식별된 사용자 단말의 위치 정보에 대응하는 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들 및 그에 대응하는 POI 정보들을 획득할 수 있다. 본 장치(10)는 서버(20)로부터 획득한 정보들(객체 정보들 및 그에 대응하는 POI 정보들)을 본 장치(10)의 객체 저장부(15)에 저장할 수 있다. 이후, 본 장치(10)는 추출부(11), 선별부(12) 및 인식부(13)를 이용하여, 사용자 단말 상에 표출되는 검색 영역 내에 포함된 지형지물 객체들 중 지역 정보 요청 대상(검색 대상 객체)를 인식할(특정지을) 수 있다. 이때, 본 장치(10)는 사용자가 검색을 요구하는 검색 대상 객체가 사용자 단말(1)의 화면의 중앙에 가장 가까운 건물이라는 전제 하에, 사용자 단말 상에 표출되는 검색 영역 내에 포함된 지형지물 객체들 중에서 사용자가 어떠한 객체에 대한 POI 검색을 원하는지를 특정(즉, 검색 대상 객체를 특정)지을 수 있다. 이후, 본 장치(10)는 객체 저장부(15)에 저장된 정보에 기초하여 인식된 지역 정보 요청 대상(검색 대상 객체)에 대응하는 관심지점 정보를 사용자 단말(1)의 화면 상에 표출되는 지역 정보 요청 대상 상에 오버레이하여 표시할 수 있다. Specifically, the device 10 provides the location information and direction information of the user terminal to the server, and in response thereto, the object located within a preset distance range from the location corresponding to the location information of the user terminal identified by the server. Information and POI information corresponding thereto may be obtained. The device 10 may store information (object information and POI information corresponding thereto) obtained from the server 20 in the object storage unit 15 of the device 10. Thereafter, the apparatus 10 uses the extraction unit 11, the selection unit 12, and the recognition unit 13 to request local information from among the topographic objects included in the search area displayed on the user terminal ( Search target object) can be recognized (specified). At this time, the device 10 is based on the premise that the object to be searched for the search by the user is the building closest to the center of the screen of the user terminal 1, the feature objects included in the search area displayed on the user terminal Among them, it is possible to specify which object the user wants to search for the POI (ie, the object to be searched). Thereafter, the device 10 displays the information of the point of interest corresponding to the region information request object (search target object) recognized based on the information stored in the object storage unit 15 on the screen of the user terminal 1. It can be displayed by overlaying it on the information request target.

이에 따르면, 본 장치(10) 내지 본 시스템(100)은, 사용자 단말(1)의 위치 정보와 방향 정보를 기반으로 식별된 POI 정보를 제공할 수 있다. 특히, 본 장치(10) 내지 본 시스템(100)은, 사용자가 사용자 단말(2)로 검색 대상 객체를 비추는 것만으로, 사용자가 인식하고자 하는 검색 대상 객체에 대한 POI 정보를 실생활공간에서의 사용자가 사용자 단말(1)의 화면을 통해 인지할 수 있도록 제공할 수 있다.Accordingly, the device 10 to the system 100 may provide POI information identified based on location information and direction information of the user terminal 1. In particular, in the device 10 to the system 100, the user in the real life space can transmit POI information on the search target object that the user wants to recognize by simply illuminating the search target object to the user terminal 2. It can be provided so that it can be recognized through the screen of the user terminal 1.

본 장치(10)는 사용자 단말의 위치 정보 및 방향 정보, 객체의 위상 정보 등을 종합적으로 고려하여, 사용자가 검색하고자 하는 검색 대상 객체에 대한 POI 정보를 화면 상에 표출되는 검색 대상 객체 상에 오버레이하여 표시되도록 할 수 있다.The device 10 comprehensively considers the location information and direction information of the user terminal, and the phase information of the object, and overlays the POI information on the search target object that the user wants to search on on the search target object displayed on the screen. Can be displayed.

본원은 키워드 없이 검색 대상 객체의 POI 검색이 가능한 실생활공간 위치 기반으로 구축된 실외 MR 모델에 기반한 실외 MR 기반 서비스를 제공할 수 있다.The present application can provide an outdoor MR-based service based on an outdoor MR model built based on the location of a real-life space that enables POI search of a search target object without a keyword.

도 10은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 지역 정보 요청 대상(검색 대상 객체)에 대한 POI 정보를 검색하는 예를 나타낸 도면이다. 특히, 도 10은 본 장치(10)에 의하여 사용자 단말(1)의 화면 상에 보여지는 화면의 예를 나타낸 도면이다. FIG. 10 is a diagram illustrating an example in which the apparatus 10 for automatically recognizing area information according to an exemplary embodiment of the present disclosure searches for POI information for an area information request target (search target object). In particular, FIG. 10 is a diagram showing an example of a screen displayed on the screen of the user terminal 1 by the device 10.

도 10를 참조하면, 사용자 단말(1)의 제1 영역(S1)에는 이미지센서를 통해 인식되는(비춰지는) 검색 영역(s)에 대응하는 화면이 표시될 수 있다.Referring to FIG. 10, a screen corresponding to a search area s recognized (illuminated) through an image sensor may be displayed in the first area S1 of the user terminal 1.

또한, 사용자 단말(1)의 제2 영역(S2)에는 검색 영역(s)에 대응하는 지도 상의 위치가 표시되는 지도가 표시될 수 있다. In addition, in the second area S2 of the user terminal 1, a map indicating a location on the map corresponding to the search area s may be displayed.

예시적으로 제2 영역(S2)의 지도 상에 표시된 빨간색 테두리의 사각형(L1)은 현실에 존재하는 POI의 MAR를 나타낸다. 또한, 제2 영역(S2)의 지도 상에 표시된 여러 POI를 가리키는 빨간색 삼각형(L2)은 검색 영역 내에서 선별부(12)에 의한 시각적으로 확인 가능한 가시 지형지물 객체들의 선별을 직관적으로 확인할 수 있게 나타낸 것이다. 또한, 빨간색 삼각형(L2)가 가리키는 여러 POI 중 파란색 사각형(L3)은 인식부(13)에 의해 인식된 지역 정보 요청 대상(즉, 검색 대상 객체)를 나타낸다.Exemplarily, a rectangle L1 with a red border displayed on the map of the second area S2 represents the MAR of the POI that exists in reality. In addition, the red triangle L2 indicating various POIs displayed on the map of the second area S2 allows the selection of visually identifiable visual feature objects by the selection unit 12 within the search area to be intuitively confirmed. Is shown. In addition, among the POIs indicated by the red triangle L2, a blue square L3 represents a region information request target (ie, a search target object) recognized by the recognition unit 13.

사용자 단말(1)의 제3 영역(S3)에는 지도를 사용자 단말(1)의 화면 상에 표시할지 여부를 사용자가 선택(결정)할 수 있도록 하는 제1 UI(User Interface) 아이콘이 표시될 수 있다. 제1 UI 아이콘에 의한 지도 표시 여부에 따라 제1 영역(S1)의 화면 크기가 크게 또는 작게 설정될 수 있다.A first UI (User Interface) icon may be displayed in the third area S3 of the user terminal 1 to allow the user to select (determine) whether or not to display the map on the screen of the user terminal 1. have. The screen size of the first area S1 may be set to be larger or smaller depending on whether the map is displayed by the first UI icon.

사용자 단말(1)의 제4 영역(S4)에는 POI의 탐색 시작 여부를 사용자가 선택(결정)할 수 있도록 하는 제2 UI 아이콘이 표시될 수 있다. 일예로 탐색 시작 버튼 모양의 제2 UI 아이콘에 대한 사용자 입력이 이루어져 POI 탐색이 시작되면, 제4 영역(S4)에는 POI에 대한 탐색을 중지할 수 있도록 하는 탐색 정지 버튼 모양의 아이콘으로 바뀔 수 있다. 일예로, POI에 대한 탐색이 완료된 이후에는 재검색이 가능하도록 탐색 시작 버튼 모양의 아이콘이 나타날 수 있으며, 이에 대한 사용자 입력이 이루어진 경우 POI 재검색이 이루어질 수 있다. POI 탐색에 의하여 이미지센서를 통해 인식되는 화면 내 지형지물 객체들 중 사용자가 검색하고자 하는 검색 대상 객체(지역 정보 요청 대상)가 인식(식별)될 수 있다.A second UI icon may be displayed in the fourth area S4 of the user terminal 1 to allow the user to select (determine) whether or not to start the POI search. For example, when a POI search is started by a user input to the second UI icon in the shape of a search start button, the fourth area S4 may be changed to an icon in the shape of a search stop button that enables the search for the POI to be stopped. . For example, after the search for the POI is completed, an icon in the shape of a search start button may appear to enable re-search, and when a user input for this is made, the POI re-search may be performed. The search target object (region information request target) that the user wants to search among the feature objects on the screen recognized through the image sensor through POI search may be recognized (identified).

POI 탐색이 완료된 이후에는 이미지센서를 통해 인식되는 화면에서 인식(식별)된 검색 대상 객체 상에 검색 대상 객체에 대응하는 POI 정보가 오버레이되어 표시될 수 있다. 여기서, POI 정보에는 명칭(이름) 및 주소 중 적어도 하나가 포함될 수 있다.After the POI search is completed, POI information corresponding to the search target object may be overlaid and displayed on the search target object recognized (identified) on the screen recognized through the image sensor. Here, the POI information may include at least one of a name (name) and an address.

예시적으로, 사용자가 사용자 단말(1)의 이미지센서를 이용해 특정 지형지물 객체를 미리 설정된 시간(예를 들어, 3초) 동안 비추는 경우, 본 장치(10)는 이를 검색 요청으로 간주하고, 이미지센서를 통해 인식되는 영상 내에서 검색 대상 객체를 인식(식별)하여 그에 대응하는 POI 정보를 제공할 수 있다.As an example, when the user illuminates a specific feature object for a preset time (eg, 3 seconds) using the image sensor of the user terminal 1, the device 10 regards this as a search request, and the image The object to be searched may be recognized (identified) within the image recognized through the sensor, and POI information corresponding thereto may be provided.

본원의 일실시예에서는 본 장치(10)가 인식부(13)에서 인식된 하나의 지역 정보 요청 대상(검색 요청 대상)에 대해서만 POI 정보를 표시하는 것으로 예시하였으나, 이에 한정되는 것은 아니다. 다른 일예로, 본 장치(10)는 사용자 설정에 따라 선별부(12)에서 선별된 가시 지형지물 객체들 각각에 대응하는 POI 정보를 표시할 수 있다. 또 다른 일예로, 본 장치(10)는 객체 저장부(15)에 저장된 객체 정보들(즉, 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 지형지물 객체들) 각각에 대응하는 POI 정보를 표시할 수 있다. 이러한 가시 지형지물 객체들에 대한 POI 정보 표시 여부 및 객체 저장부(15)에 저장된 객체 정보들에 대한 POI 정보 표시 여부는 사용자 입력에 기초하여 선택적으로 이루어질 수 있다.In the exemplary embodiment of the present application, it is exemplified that the present apparatus 10 displays POI information only for one region information request object (search request object) recognized by the recognition unit 13, but is not limited thereto. As another example, the apparatus 10 may display POI information corresponding to each of the visible terrain objects selected by the selection unit 12 according to a user setting. As another example, the device 10 displays POI information corresponding to each of the object information stored in the object storage unit 15 (ie, terrain objects located within a preset distance range from the location of the user terminal). can do. Whether to display POI information on such visible terrain objects and whether to display POI information on object information stored in the object storage unit 15 may be selectively performed based on a user input.

또한, 본 장치(10)의 디스플레이 제어부(14)는 인식부(13)에서 인식된 지역 정보 요청 대상에 대응하는 관심지점 정보를 표시한 이후 표시된 관심지점 정보에 대한 사용자 입력(예를 들어, 터치 등을 이용한 선택 입력)이 이루어진 것으로 판단되는 경우, 표시된 관심지점 정보(예를 들어, POI 명칭, POI 주소 등)를 기반으로 검색된 검색 정보를 사용자 단말(1)의 화면에 표시할 수 있다. 여기서, 표시되는 검색 정보는 사용자 입력이 이루어진 관심지점 정보에 대응하는 검색 정보로서, 검색엔진을 통해 검색된 정보일 수 있다. 예시적으로 검색엔진은 구글, 네이버, 다음 등의 검색엔진을 의미할 수 있으며, 이에 한정되는 것은 아니다. 이러한 검색 정보의 제공을 통해, 본 장치(10)는 본 장치(10)를 통해 식별 인식된 POI 정보에 대한 보다 상세한 정보를 제공할 수 있다.In addition, the display control unit 14 of the device 10 displays the point-of-interest information corresponding to the object for requesting local information recognized by the recognition unit 13, and then a user input for the displayed point-of-interest information (for example, touch When it is determined that selection input using the like) has been made, search information searched based on the displayed point of interest information (eg, POI name, POI address, etc.) may be displayed on the screen of the user terminal 1. Here, the displayed search information is search information corresponding to information on a point of interest in which a user input has been made, and may be information searched through a search engine. For example, the search engine may mean a search engine such as Google, Naver, or Daum, but is not limited thereto. Through the provision of such search information, the device 10 may provide more detailed information on POI information identified and recognized through the device 10.

도 11은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에 의하여 제공되는 검색 정보의 예를 나타낸 도면이다.11 is a diagram illustrating an example of search information provided by the apparatus 10 for automatically recognizing area information according to an embodiment of the present application.

도 11을 참조하면, 사용자는 도 11의 (a)와 같이 사용자 단말(1)의 이미지센서를 통해 실생활환경에 존재하는 건물들(지형지물 객체들) 중 검색하고자 하는 건물에 대하여 포커싱을 수행할 수 있다. 이러한 경우, 본 장치(10)는 이미지센서를 통해 인식되는 영상 건물들 중 사용자가 검색하고자 하는 포커싱된 건물을 인식(식별)하고, 인식된 포커싱된 건물(즉, 인식부에 의하여 인식된 지역 정보 요청 대상)에 대응하는 POI 정보를 도 11의 (b)와 같이 사용자 단말(1)의 화면 상에 표시할 수 있다. 예시적으로, 포커싱된 건물이 '피사의 사탑'인 경우, 디스플레이 제어부(15)는 사용자 단말(1)의 화면에 표시(표출)되는 건물 상에 포커싱된 건물의 POI 정보로서 POI의 명칭인 '피사의 사탑'을 오버레이하여 표시할 수 있다.Referring to FIG. 11, a user may perform focusing on a building to be searched among buildings (terrain objects) existing in a real life environment through an image sensor of the user terminal 1 as shown in FIG. 11(a). I can. In this case, the device 10 recognizes (identifies) the focused building that the user wants to search among the image buildings recognized through the image sensor, and the recognized focused building (i.e., area information recognized by the recognition unit) POI information corresponding to the request target) may be displayed on the screen of the user terminal 1 as shown in (b) of FIG. 11. For example, when the focused building is the'Leaning Tower of Pisa', the display control unit 15 is the POI information of the building focused on the building displayed (displayed) on the screen of the user terminal 1, which is the name of the POI. The Leaning Tower of Pisa can be displayed overlaid.

또한, 디스플레이 제어부(15)는 도 11의 (b)와 같이 사용자 단말(1) 상에 표시된 POI 정보에 대하여 사용자 입력(예를 들어, 터치 등을 이용한 선택 입력)이 이루어진 것으로 판단되는 경우, 표시된 POI 정보를 기반으로 검색된 검색 정보를 사용자 단말(1)의 화면 상에 표시할 수 있다. 예시적으로, 사용자 단말(1)에 표시된 POI 정보인 '피사의 사탑'에 대하여 사용자 입력이 이루어진 경우, 디스플레이 제어부(15)는 도 11의 (c)와 같이 '피사의 사탑'에 대한 검색 정보를 화면에 표시할 수 있다.In addition, when it is determined that a user input (for example, a selection input using touch, etc.) is made for the POI information displayed on the user terminal 1 as shown in FIG. 11B, the displayed Search information searched based on POI information may be displayed on the screen of the user terminal 1. For example, when a user input is made to the POI information displayed on the user terminal 1, the leaning tower of Pisa, the display control unit 15 retrieves information about the leaning tower of Pisa as shown in FIG. 11(c). Can be displayed on the screen.

도 12는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에 의하여 제공되는 검색 정보의 다른 예를 나타낸 도면이다.12 is a diagram illustrating another example of search information provided by the apparatus 10 for automatically recognizing area information according to an embodiment of the present application.

도 12를 참조하면, 사용자가 도 12의 (a)와 같이 사용자 단말(1)을 이용해 검색하고자 하는 건물을 포커싱한 경우, 본 장치(10)는 도 12의 (b)와 같이 사용자 단말(1)의 화면 상에 포커싱된 건물의 POI 정보로서 '항공대학교 강의동'과 같은 정보를 표시할 수 있다. 이후, 표시된 POI 정보(예를 들어, 항공대학교 강의동)에 대한 사용자 입력이 이루어진 경우, 본 장치(10)는 도 12의 (c)와 같이 '항공대학교 강의동' 정보를 기반으로 검색된 검색 정보(검색 결과 정보)를 사용자 단말(1)의 화면 상에 표시할 수 있다.Referring to FIG. 12, when the user focuses on the building to be searched using the user terminal 1 as shown in FIG. 12(a), the device 10 is the user terminal 1 as shown in FIG. 12(b). As POI information of the building focused on the screen of ), information such as'Aeronautical University Lecture Building' can be displayed. Thereafter, when a user input is made for the displayed POI information (for example, aeronautical university lecture building), the device 10 is searched based on the'Aerospace University lecture building' information as shown in Fig.12(c). Result information) can be displayed on the screen of the user terminal 1.

도 13은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에 의하여 제공되는 검색 정보의 또 다른 예를 나타낸 도면이다.13 is a diagram illustrating another example of search information provided by the apparatus 10 for automatically recognizing area information according to an embodiment of the present application.

도 13을 참조하면, 사용자가 도 13의 (a)와 같이 사용자 단말을 이용해 검색하고자 하는 건물을 포커싱한 경우, 본 장치(10)는 도 13의 (b)와 같이 사용자 단말(1)의 화면 상에 포커싱된 건물의 POI 정보를 팝업창으로 제공할 수 있다. 일예로, 본 장치(10)의 디스플레이 제어부(15)는 "탐색된 건물의 정보는 롯데마트화정점(대한민국 경기도 고양시 덕양구 화중로 66) 입니다"와 같은 POI 정보를 팝업창 형태로 제공할 수 있다.Referring to FIG. 13, when a user focuses on a building to be searched using a user terminal as shown in FIG. 13(a), the device 10 is a screen of the user terminal 1 as shown in FIG. 13(b). POI information of the building focused on the image may be provided in a pop-up window. For example, the display control unit 15 of the device 10 may provide POI information such as "The information of the searched building is Lotte Mart Hwajeong Branch (66 Hwajung-ro, Deogyang-gu, Goyang-si, Gyeonggi-do, Korea) in the form of a pop-up window.

다음으로, 디스플레이 제어부(15)는 제공된 POI 정보 확인에 대한 사용자 입력이 이루어져 POI 정보에 대한 사용자 확인이 이루어진 것으로 판단되는 경우, 도 13의 (c)와 같이 표시된 POI 정보에 대한 상세 정보의 검색을 위한 검색 엔진 선택 메뉴를 제공할 수 있다. 예시적으로, 검색 엔진 선택 메뉴에는 '네이버로 검색', '다음으로 검색', '구글로 검색'과 같은 선택 메뉴가 포함될 수 있다.Next, when it is determined that the user has confirmed the POI information by making a user input for checking the provided POI information, the display control unit 15 searches for detailed information on the POI information displayed as shown in FIG. 13C. It may provide a search engine selection menu for. For example, the search engine selection menu may include selection menus such as'Search with Naver','Search with Next', and'Search with Google'.

이때, 디스플레이 제어부(15)는 '네이버로 검색'에 대한 사용자 입력이 이루어진 경우, 표시된 POI 정보에 대한 검색 정보로서 도 13의 (d)와 같이 표시된 POI 정보를 키워드로 한 네이버 검색 결과를 사용자 단말(1)의 화면 상에 표시할 수 있다.At this time, when a user input for'Search with Naver' is made, the display control unit 15 uses the Naver search result as a keyword using POI information displayed as shown in Fig. 13(d) as search information for the displayed POI information. (1) Can be displayed on the screen.

이러한 본 장치(10) 내지 본 시스템(100)은 사용자가 실생활공간에 존재하는 주변의 POI를 사용자 단말의 이미지센서로 포커싱하는 것만으로도, 사용자 주변에 있는 POI를 쉽게 검색할 수 있는 지역 정보 검색 기술을 제공할 수 있다.The device 10 to the present system 100 search for local information that allows the user to easily search for POIs around the user just by focusing the POIs around the user existing in the real life space with the image sensor of the user terminal. Technology can be provided.

본원에서는 객체 저장공간부 및 정보 저장공간부를 통해 새로운 지리 정보 인프라를 구축하여 좀 더 사용자의 주변 상황을 고려한 정보 제공이 이루어질 수 있도록 할 수 있다. 본원에서 제안하는 본 시스템(100)은 객체 정보(건물 정보)와 POI 데이터만 존재한다면 확장할 수 있는 확장성을 지녀 인프라의 규모를 키울 수 있다. 또한, 본원에 의하면, 구축된 지리 정보 인프라를 이용해 POI 정보에 특화된 시스템의 활용이 가능하다.In the present application, a new geographic information infrastructure can be constructed through the object storage space unit and the information storage space unit, so that information can be provided in consideration of the surrounding situation of the user. The present system 100 proposed in the present application has scalability that can be expanded if only object information (building information) and POI data exist, and thus the scale of the infrastructure can be increased. In addition, according to the present application, it is possible to utilize a system specialized for POI information by using the constructed geographic information infrastructure.

또한, 본원은 실생활공간 객체의 실제 위치를 기반으로 하는 실외 MR 모델을 제안하며, 이 때 실생활공간 객체의 위치는 수치지도를 활용하여 추출될 수 있다. 또한, 본원은 본원에서 제안하는 실외 MR 모델을 기반으로 하는 서비스로서, 키워드 없이 실생활공간의 건물을 사용자 단말로 비추는 것만으로 POI 정보를 검색할 수 있는 Ambient Browser를 제공할 수 있다.In addition, the present application proposes an outdoor MR model based on the actual location of the real-life space object, in which case the location of the real-life space object can be extracted using a digital map. In addition, as a service based on the outdoor MR model proposed in the present application, the present application can provide an Ambient Browser that can search POI information simply by illuminating a building in a real life space to a user terminal without a keyword.

본원에서 제안된 실외 MR 모델에 의하면, 사용자 단말의 위치와 바라보는 방향 정보를 이용하여 사용자가 검색을 원하는 실생활공간의 위치 및 범위를 특정지을 수 있다. 이후, 특정된 위치와 범위 정보를 기반으로 객체 저장공간 레이어에서 해당 위치에 있는 객체에 대한 검색이 이루어질 수 있다. 이후, 정보 저장공간 레이어에서는 해당 위치에 있는 정보(POI 정보), 즉 객체 저장공간 레이어에서 검색된 객체들에 대한 POI 정보의 검색이 이루어질 수 있다. 이후, 객체 저장공간 레이어와 정보 저장공간 레이어에서 검색된 객체 정보들 및 그에 대응하는 POI 정보는 정보 표시공간에서 두 정보(객체 정보와 POI 정보)의 위치관계와 사용자 단말의 위치 정보 및 방향 정보 등을 고려하여 화면에 표시될 수 있다. 이렇게 표시된 정보(일예로 POI 정보)는 실생활공간의 사용자가 사용자 단말을 통해 인식할 수 있다.According to the outdoor MR model proposed in the present application, it is possible to specify the location and range of a real-life space that the user wants to search by using the location and viewing direction information of the user terminal. Thereafter, based on the specified location and range information, a search for an object at a corresponding location in the object storage space layer may be performed. Thereafter, in the information storage layer, information (POI information) at a corresponding location, that is, POI information for objects retrieved from the object storage layer may be searched. Thereafter, the object information retrieved from the object storage layer and the information storage layer and the corresponding POI information are the positional relationship between the two pieces of information (object information and POI information) and the location information and direction information of the user terminal in the information display space. It can be displayed on the screen in consideration. The displayed information (for example, POI information) can be recognized by a user in a real life space through a user terminal.

본원은 Ambient Intelligence 개념이 적용된 수치지도 기반의 모바일 MR 시스템인 Ambient Browser를 제공할 수 있다. 본원은 정보를 얻기 원하는 실생활공간의 건물에 대해 키워드 없이 사용자 단말의 이미지센서로 비추는 것만으로 해당 건물에 대한 정보를 사용자가 제공받을 수 있도록 할 수 있다.This application can provide Ambient Browser, a digital map-based mobile MR system to which the concept of Ambient Intelligence is applied. The present application can enable the user to receive information about the building by simply illuminating the building in a real-life space for which information is desired with an image sensor of a user terminal without a keyword.

본원은 종래의 MR 연구가 실내 사용을 고려하고 있다는 점에 착안하여, 실외 MR기반 서비스를 위한 실생활공간 위치기반의 실외 MR 모델을 제안한다. 이러한 본원에서는 실외 MR 모델에서 핵심이 되는 개체 저장공간을 수치지도를 활용해 구축함을 보였다. 또한, 본원은 실외 MR 모델에 기반한 서비스의 예로 Ambient Browser의 실제 활용 예(예시적으로, 도 10 내지 도 13 참조)를 보였다.The present application proposes an outdoor MR model based on real life space location for outdoor MR-based services, taking into account that the conventional MR research considers indoor use. In this study, it was shown that the object storage space, which is the core of the outdoor MR model, was constructed using a digital map. In addition, the present application shows an actual application example of the Ambient Browser (see FIGS. 10 to 13 as an example) as an example of a service based on an outdoor MR model.

한편, 본 장치(10)에서 추출부(11)는 후보 지형지물 객체들을 추출하기 이전에, 사용자 단말(1)로부터 획득된 위치 정보를 보정할 수 있다. 위치 정보의 보정에 대한 보다 상세한 설명은 다음과 같다.Meanwhile, in the apparatus 10, the extraction unit 11 may correct the location information obtained from the user terminal 1 before extracting the candidate terrain objects. A more detailed description of the correction of the location information is as follows.

사용자 단말(1)로부터 획득된 위치 정보가 GPS 정보인 경우, GPS는 약 5m의 오차 범위를 가지고 있으며, 이는 주변 환경에 따라 그 범위가 더 커지거나 작아질 수 있다. 이러한 위치 정보의 오차는 사용자 단말의 위치 정보와 방향 정보를 기반으로 POI 검색을 수행하는 본 장치(10)에 대하여, 부정확한 POI 검색이 이루어지도록 할 수 있다. 따라서, 본 장치(10)는 보다 정확한 POI 검색이 이루어질 수 있도록, 수치지도에서 추출된 객체 정보(건물 정보)와 영상처리를 이용하여 사용자 단말(1)로부터 획득된 위치 정보에 대한 오차를 보정할 수 있으며, 보정된 위치 정보에 기반하여 POI 검색이 이루어지도록 제공할 수 있다.When the location information obtained from the user terminal 1 is GPS information, the GPS has an error range of about 5 m, which may become larger or smaller depending on the surrounding environment. Such an error in the location information may cause an incorrect POI search to be performed with respect to the device 10 that performs a POI search based on the location information and direction information of the user terminal. Therefore, the device 10 corrects an error in the location information obtained from the user terminal 1 by using object information (building information) and image processing extracted from the digital map so that a more accurate POI search can be made. In addition, the POI search may be provided based on the corrected location information.

추출부(11)는 검색 영역에 대한 영상 분석을 통해 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 영상 분석을 통해 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.When it is determined that there are a plurality of feature objects whose entire width is exposed in the search area through image analysis of the search area, the extraction unit 11 calculates an image of the plurality of feature objects through image analysis. Based on the analysis-based width ratio set and the feature objects stored in the object storage unit, a plurality of candidate feature objects corresponding to the positions and directions of the plurality of feature objects are projected onto the search area to correspond to the object width. Thus, it is possible to determine whether there is a discrepancy between the calculated object information-based width ratio sets.

여기서, 폭 비율 셋트는 일예로 건물들 각각의 폭에 관한 비율을 의미할 수 있다. 다른 일예로 폭 비율 셋트는 건물들 각각의 폭 뿐만 아니라 각 건물들 사이 공간의 폭을 고려한 비율을 의미할 수 있다. 즉, 다른 일예로 폭 비율 셋트는 건물들 각각의 폭과 각 건물들 사이 공간의 폭에 관한 비율을 의미할 수 있다.Here, the width ratio set may mean a ratio with respect to the width of each of the buildings, for example. As another example, the width ratio set may mean a ratio considering not only the width of each of the buildings but also the width of the space between the buildings. That is, as another example, the width ratio set may mean a ratio related to the width of each of the buildings and the width of the space between the buildings.

또한, 영상 분석 기반 폭 비율 셋트는 사용자 단말(1)의 화면 상에 비추어지는 영상에 대한 영상 분석을 통해 산출되는 폭 비율 셋트를 의미할 수 있다. 또한 객체 정보 기반 폭 비율 셋트는 수치지도에서 추출된 객체정보(건물정보)에 기반하여 산출되는 폭 비율 셋트를 의미할 수 있다. 이러한 객체 정보 기반 폭 비율 셋트에는 복수의 후보 지형지물 객체에 대하여 탐색 위치에 따라 산출되는 복수의 객체 정보 기반 폭 비율 셋트가 포함될 수 있다. In addition, the image analysis-based width ratio set may mean a width ratio set calculated through image analysis for an image projected on the screen of the user terminal 1. Also, the object information-based width ratio set may mean a width ratio set calculated based on object information (building information) extracted from a digital map. The object information-based width ratio set may include a plurality of object information-based width ratio sets calculated according to a search position for a plurality of candidate feature objects.

추출부(11)는 판정 결과 불일치하는 것으로 판정된 경우, 사용자 단말로부터 획득된 방향 정보를 일정하게 유지한 상태로 위치 정보를 사용자 단말의 위치센서의 오차 범위 내에서 변경(시프트)하면서 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. 즉, 추출부(11)는 판정 결과 불일치하는 것으로 판정된 경우, 복수의 후보 지형지물 객체에 대하여 산출되는 복수의 객체 정보 기반 폭 비율 셋트 중 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. When it is determined that the determination result is inconsistent, the extraction unit 11 changes (shifts) the location information within the error range of the location sensor of the user terminal while maintaining the direction information obtained from the user terminal constant, based on image analysis. The width ratio set based on the other object information corresponding to the width ratio set can be searched. That is, if it is determined that the determination result is inconsistent, the extraction unit 11 determines the other object information-based width corresponding to the image analysis-based width ratio set among the plurality of object information-based width ratio sets calculated for the plurality of candidate feature objects. You can browse through a set of ratios.

여기서, 위치 정보의 변경은 방위 정보를 바꾸지 않으면서 이동되는 시프트 이동에 의한 변경을 의미할 수 있다. 또한, 오차 범위 내에서의 위치 정보의 변경은 본 장치(10)에 의하여 자동으로 이루어질 수 있으나, 이에 한정되는 것은 아니고, 사용자 입력에 의하여 수동으로 이루어질 수 있다. 또한, 사용자 단말로부터 획득된 위치 정보에 오차가 있는지에 대한 오차 존재 여부 판단은 본 장치(10)에 의하여 자동으로 이루어질 수도 있고, 또는 사용자의 판단에 의해 수동으로 이루어질 수 있다. 이는 후술하는 설명을 통해 보다 쉽게 이해될 수 있다.Here, the change of the location information may mean a change by shift movement that is moved without changing the orientation information. In addition, the change of the location information within the error range may be automatically performed by the device 10, but is not limited thereto, and may be performed manually by a user input. In addition, the determination of whether there is an error in the location information obtained from the user terminal may be automatically performed by the device 10 or may be performed manually by the user's determination. This can be more easily understood through the description to be described later.

추출부(11)는 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 위치 정보에 오차가 있는 것으로 보아 사용자 단말로부터 획득된 위치 정보를 보정할 수 있다. 즉, 추출부(11)는 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 위치 정보에 오차가 있는 것으로 보아, 사용자 단말로부터 획득된 위치 정보를 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 산출된 탐색 위치로 보정할 수 있다. If it is determined that there is an image analysis-based width ratio set and another object information-based width ratio set corresponding to the image analysis-based width ratio set, it is deemed that there is an error in the location information and may correct the location information obtained from the user terminal. That is, if the extraction unit 11 determines that there is an image analysis-based width ratio set and another object information-based width ratio set corresponding to the image analysis-based width ratio set, it is deemed that there is an error in the location information, so that the location information obtained from the user terminal is image analyzed. Another object information-based width ratio set corresponding to the base width ratio set may be corrected to the calculated search position.

위치 정보 보정에 대한 설명은 다음의 도면을 참조한 설명을 통해 보다 쉽게 이해될 수 있다.A description of the position information correction may be more easily understood through description with reference to the following drawings.

도 14는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 사용자의 판단에 의해 수동으로 이루어지는 경우의 예를 설명하기 위한 도면이다. 달리 말해, 도 14는 사용자가 실제 검색하고자 하는 건물(예를 들어, A 건물)과 본 장치(10)에 의해 인식된 사용자가 검색하고자 하는 건물(예를 들어, B 건물)이 불일치하는 경우의 예를 나타낸다. FIG. 14 is a diagram for explaining an example in which the determination of whether an error exists in the location information of a user terminal acquired by the apparatus 10 for automatically recognizing local information according to an embodiment of the present application is manually performed by the user's determination . In other words, FIG. 14 shows a case where the building that the user actually wants to search for (for example, building A) and the building that the user wants to search for by the device 10 (eg, building B) do not match. Shows an example.

도 14에서, 도 14에서 pos 1은 본 장치(10)가 획득한 사용자 단말(1)의 위치 정보에 대응하는 위치, 즉 본 장치(10)가 인식한 사용자 단말(1)의 위치 좌표 예를 나타낸다. pos 2는 실제 사용자 단말(1)의 위치 좌표 예를 나타낸다. 또한, pos 1-f(focus)는 pos 1에서 인식되는 중심 시선(즉, 화면 상의 중심에 대응하는 시선)을 나타내고, pos 2-f는 pos 2에서 인식되는 중심 시선을 나타낸다.In FIG. 14, pos 1 in FIG. 14 represents a location corresponding to the location information of the user terminal 1 obtained by the device 10, that is, an example of the location coordinates of the user terminal 1 recognized by the device 10. Show. pos 2 represents an example of the location coordinates of the actual user terminal 1. In addition, pos 1-f (focus) represents the center line of sight recognized by pos 1 (ie, the line of sight corresponding to the center of the screen), and pos 2-f represents the center line of sight recognized by pos 2.

도 14를 참조하면, 일예로, 사용자가 A 건물에 대한 POI 검색(탐색)을 수행하고자 하는 경우, 사용자는 A 건물이 사용자 단말(1)의 화면 상에서 중심 부위에 위치하도록 사용자 단말(1)의 이미지센서를 A 건물을 향해 포커싱할 수 있다. 이에 따라, 사용자 단말(1)의 전체 화면 영역(S1)에는 A 건물이 중심에 위치하도록 시각적으로 표출될 수 있다.Referring to FIG. 14, as an example, when a user wants to perform a POI search (search) for building A, the user may select the user terminal 1 so that the building A is located at the center of the screen of the user terminal 1. The image sensor can be focused toward building A. Accordingly, in the entire screen area S1 of the user terminal 1, the building A may be visually displayed so that it is located at the center.

이때, 사용자 단말(1)의 화면의 일영역(S2)에는 본 장치(10)가 인식한 사용자 단말의 위치 정보 및 방향 정보가 나타난 지도가 제공될 수 있다. In this case, a map showing location information and direction information of the user terminal recognized by the device 10 may be provided in a region S2 of the screen of the user terminal 1.

이때, 본 장치(10)가 인식한 사용자 단말의 위치 정보에 오차가 있는 경우, 지도 상에 나타나는 사용자 단말의 위치는 실제 사용자의 위치(pos 2)와는 다른 오차가 있는 위치로 표시될 수 있다. 즉, 지도 상에 나타나는 오차가 있는 사용자의 위치에서는 B 건물이 중심 시선에 위치하는 건물인 것으로 인식될 수 있다.In this case, when there is an error in the location information of the user terminal recognized by the device 10, the location of the user terminal displayed on the map may be displayed as a location with an error different from that of the actual user (pos 2). That is, in the location of the user with an error appearing on the map, it may be recognized that the building B is a building located in the center line of sight.

이에 따르면, 정확한 검색이 이루어진 경우, 본 장치(10)는 사용자 단말(1)의 화면 상에 검색 대상 객체에 관한 POI 정보로서 A 건물의 POI 정보를 표시해야 할 것이다. 그러나, 도 14에 도시된 예시에서는 획득된 사용자 단말의 위치 정보의 오차 존재로 인해 검색 대상 객체가 잘못 인식됨에 따라 본 장치(10)는 B 건물의 POI 정보를 잘못 표시할 수 있다.According to this, when an accurate search is made, the device 10 should display POI information of building A as POI information on the object to be searched on the screen of the user terminal 1. However, in the example illustrated in FIG. 14, since the object to be searched is incorrectly recognized due to the existence of an error in the acquired location information of the user terminal, the apparatus 10 may erroneously display POI information of building B.

이처럼, 본원에서는 사용자 단말(1)의 일영역(S2)에 제공되는 지도와 사용자 단말(1)의 전체 화면 영역(S1)에 제공되는 이미지센서를 통해 인식되는 영상을 이용하여 사용자가 사용자 단말(1)로부터 획득된 위치 정보에 대한 오차 존재 여부를 수동으로 감지(인지)할 수 있다.As such, in the present application, the user can use the map provided on one area S2 of the user terminal 1 and the image recognized through the image sensor provided on the full screen area S1 of the user terminal 1 It is possible to manually detect (recognize) whether there is an error in the location information obtained from 1).

도 15는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 사용자 단말의 위치 정보를 사용자 입력에 의하여 수동으로 변경하는 경우의 예를 나타낸 도면이다.15 is a diagram illustrating an example of a case where the location information of a user terminal is manually changed by a user input in the region information automatic recognition apparatus 10 according to an exemplary embodiment of the present application.

도 15를 참조하면, 도 15에서 (a)는 사용자 단말의 위치 정보의 오차로 인해(즉, GPS 오차로 인해), 지도 상에 표시되는 사용자 단말의 위치가 사용자 단말의 이미지센서를 통해 인식된 영상에 대응하는 실제 사용자 단말의 위치와 다른 경우를 나타낸다. Referring to FIG. 15, in FIG. 15, (a) shows that the location of the user terminal displayed on the map is recognized through the image sensor of the user terminal due to an error in the location information of the user terminal (that is, due to a GPS error). It represents a case different from the location of the actual user terminal corresponding to the image.

이러한 경우, 사용자는 사용자 단말(1)의 지도 상에 표시된 위치 정보에 대응하는 위치 좌표(pos 1)을 일예로 화면 터치를 통해 드래그하는 등의 사용자 입력을 수행함으로써, 도 15의 (b)와 같이 위치 정보를 보정할 수 있다. In this case, the user performs a user input such as dragging the location coordinate (pos 1) corresponding to the location information displayed on the map of the user terminal 1 through a screen touch, as an example, as shown in FIG. 15B. You can correct the location information together.

다른 일예로, 사용자는 사용자 단말(1)의 화면의 일영역에 표시되는 위치 정보 조정 아이콘(Q)에 대한 사용자 입력을 통해 위치 정보를 보정할 수 있다. 이때, 위치 정보 조정 아이콘(Q)에 대한 사용자 입력에 의해, 지도 상에 표시되는 위치 정보가 실시간으로 변경되어 보여질 수 있다. 위치 정보 조정 아이콘(Q)에 의하여 위치 정보는 예를 들어 도면을 기준으로 상 또는 하 방향으로 이동될 수 있다. 다만, 이에만 한정되는 것은 아니고, 위치 정보 조정 아이콘(Q)에 의하여 위치 정보는 360도 방향 중 어느 하나의 방향으로 이동될 수 있다.As another example, the user may correct the location information through a user input to the location information adjustment icon Q displayed on a portion of the screen of the user terminal 1. At this time, by a user input to the location information adjustment icon Q, location information displayed on the map may be changed and displayed in real time. The location information may be moved upward or downward based on the drawing, for example, by the location information adjustment icon Q. However, the present invention is not limited thereto, and the location information may be moved in any one of 360-degree directions by the location information adjustment icon Q.

사용자 입력에 의해, 지도 상에는 도 15의 (b)와 같이 수동으로 보정된 보정 위치 좌표(pos 1', 즉 실제 사용자 단말의 위치 좌표)가 표시될 수 있다. 이러한 경우, 본 장치(10)는 도 15의 (b)와 같이 보정된 위치 정보에 기반하여 POI 검색(탐색)을 수행할 수 있다. 즉, 본원에서 본 장치(10)가 인식한 사용자 단말(1)의 위치 정보는 일예로 사용자 입력에 의하여 수동으로 미세 조정됨에 따라 보정될 수 있다.According to a user input, a manually corrected corrected position coordinate (pos 1', that is, the position coordinate of an actual user terminal) may be displayed on the map as shown in FIG. 15B. In this case, the device 10 may perform POI search (search) based on the corrected location information as shown in FIG. 15B. That is, the location information of the user terminal 1 recognized by the device 10 herein may be corrected as it is manually fine-tuned by a user input, for example.

도 16은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 본 장치(10)에 의해 자동으로 이루어지는 경우의 예를 설명하기 위한 도면이다.16 is for explaining an example in which the determination of whether an error exists in the location information of the user terminal acquired by the apparatus 10 for automatically recognizing local information according to an embodiment of the present application is automatically made by the apparatus 10 It is a drawing.

도 16에서 pos 1은 본 장치(10)가 획득한 사용자 단말(1)의 위치 정보에 대응하는 위치, 즉 본 장치(10)가 인식한 사용자 단말(1)의 위치 좌표 예를 나타낸다. pos 2는 실제 사용자 단말(1)의 위치 좌표 예를 나타낸다.In FIG. 16, pos 1 represents a location corresponding to the location information of the user terminal 1 acquired by the device 10, that is, an example of the location coordinates of the user terminal 1 recognized by the device 10. pos 2 represents an example of the location coordinates of the actual user terminal 1.

도 16을 참조하면, 추출부(11)는 도 16의 (a)와 같이 사용자 단말(1)에 표출되는 검색 영역(s)에 대응하는 영상에 대해 영상 분석을 수행함으로써, 영상 분석 기반 폭 비율 셋트를 산출할 수 있다. 이때, 사용자 단말(1)에 표출되는 영상으로부터 산출된 영상 분석 기반 폭 비율 셋트는 실제 pos 2의 위치에서 산출되는 폭 비율 셋트를 의미할 수 있다. 달리 말해, 도 16의 (a)에서 사용자 단말(1)에 표출되는 영상은 pos 2의 위치에서 인식되는 영상의 예를 나타낼 수 있다.Referring to FIG. 16, the extraction unit 11 performs an image analysis on an image corresponding to the search area s displayed on the user terminal 1 as shown in FIG. 16A, and thus the image analysis-based width ratio Set can be calculated. In this case, the image analysis-based width ratio set calculated from the image displayed on the user terminal 1 may mean a width ratio set calculated at the actual position pos 2. In other words, the image displayed on the user terminal 1 in FIG. 16A may represent an example of an image recognized at the position pos 2.

또한, 추출부(11)는 객체 저장부(15)에 저장된 지형지물 객체들을 기반으로 하여 복수의 후보 지형지물 객체에 대한 객체 정보 기반 폭 비율 셋트를 산출할 수 있다. 이때, 산출되는 객체 정보 기반 폭 비율 셋트는 일예로 도 16의 (b)에서 pos 2 위치에서 산출되는 폭 비율 세트를 의미할 수 있다. In addition, the extraction unit 11 may calculate an object information-based width ratio set for a plurality of candidate feature objects based on the feature objects stored in the object storage unit 15. In this case, the calculated object information-based width ratio set may mean, for example, a width ratio set calculated at a position pos 2 in FIG. 16B.

이때, 추출부(11)는 사용자 단말(1)에 표출되는 영상으로부터 산출된 영상 분석 기반 폭 비율 셋트와 pos 2 위치에서 산출되는 객체 정보 기반 폭 비율 셋트가 불일치하는지 여부를 판정할 수 있다.In this case, the extraction unit 11 may determine whether the image analysis-based width ratio set calculated from the image displayed on the user terminal 1 and the object information-based width ratio set calculated at the pos 2 position do not match.

판정 결과, 불일치하므로, 추출부(11)는 방향 정보를 일정하게 유지한 상태로, pos 1의 위치를 제1 위치(pos 1'), 제2 위치(pos 1'') 등과 같이 변경(시프트)하면서 영상 분석 기반 폭 비율 세트와 대응되는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. 이때, 제1 위치(pos 1')에서 산출되는 객체 정보 기반 폭 비율 셋트가 추출부(11)에 의해 탐색된 영상 분석 기반 폭 비율 세트와 대응되는 다른 객체 정보 기반 폭 비율 셋트를 의미할 수 있다. 따라서, 탐색 결과, 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 제1 위치(pos 1')에 대하여 존재하므로, 추출부(11)는 이를 사용자 단말(1)로부터 획득된 위치 정보에 오차가 있는 것으로 보아 본 장치(10)가 인식한 사용자 단말(1)의 위치 정보(pos 1)를 제1 위치(pos 1')로 보정할 수 있다.As a result of the determination, since there is a discrepancy, the extraction unit 11 changes the position of pos 1 such as the first position (pos 1') and the second position (pos 1') with the direction information kept constant (shift ) While searching for another object information-based width ratio set corresponding to the image analysis-based width ratio set. In this case, the object information-based width ratio set calculated at the first position (pos 1 ′) may mean another object information-based width ratio set corresponding to the image analysis-based width ratio set searched by the extraction unit 11. . Therefore, as a result of the search, since the image analysis-based width ratio set and the other object information-based width ratio set corresponding to the first position (pos 1') exist for the first position (pos 1'), the extraction unit 11 Considering that there is an error in the location information, the location information (pos 1) of the user terminal 1 recognized by the device 10 may be corrected to the first location (pos 1 ′).

이때, 일예로 추출부(11)는 pos 1의 위치를 변경(시프트)할 때, 수치지도를 기반으로 하는 객체 저장부에 저장된 지형지물 객체들에 대하여, 방향 정보를 일정하게 유지한 상태로 이미지센서에서 인식 가능한 영상의 윈도우 폭을 좌우 방향에 대해 하나의 건물 폭에 대응하는 거리만큼 변경(시프트)시킬 수 있다.At this time, as an example, when the location of pos 1 is changed (shifted), the extraction unit 11 maintains constant direction information for the feature objects stored in the object storage unit based on the digital map. The window width of the image that can be recognized by the sensor can be changed (shifted) by a distance corresponding to the width of one building in the left and right directions.

이처럼, 본 장치(10)는 영상 분석을 통해 산출된 영상 분석 기반 폭 비율 셋트(달리 표현하여, 영상 상의 건물크기 비율 패턴)과 본 장치(10)가 인식한 사용자 단말의 위치에 대한 객체 정보 기반 폭 비율 셋트(달리 표현하여, 수치지도를 기반으로 한 본 장치(10)가 인식한 사용자 단말의 위치에 대한 건물크기 비율 패턴)을 비교함으로써 불일치 여부를 판정할 수 있다. 판정 결과 불일치하면, 본 장치(10)는 사용자 단말의 위치를 시프트하면서 시프트된 위치에 대한 객체 정보 기반 폭 비율 셋트를 비교하여 영상 분석 기반 폭 비율 셋트에 대응하는 객체 정보 기반 폭 비율 셋트를 탐색하고, 탐색된 해당 위치로 사용자 단말의 위치를 보정할 수 있다. As such, the device 10 is based on an image analysis-based width ratio set (in other words, a building size ratio pattern on the image) calculated through image analysis and object information on the location of the user terminal recognized by the device 10 Inconsistency can be determined by comparing a set of width ratios (in other words, the pattern of the ratio of the building size to the location of the user terminal recognized by the present apparatus 10 based on a digital map). If the determination result is inconsistent, the apparatus 10 searches for an object information-based width ratio set corresponding to the image analysis-based width ratio set by comparing the object information-based width ratio set to the shifted position while shifting the position of the user terminal. , It is possible to correct the location of the user terminal with the searched corresponding location.

본 장치(10)는 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단을 수치지도 및 영상 분석을 통해 자동으로 수행할 수 있다. 이때, 본원에서는 영상 분석시 기존재하거나 향후 개발되는 다양한 이미지 인식(분석) 알고리즘이 적용될 수 있다.The apparatus 10 may automatically determine whether an error exists in the location information of the user terminal through digital map and image analysis. In this case, in the present application, various image recognition (analysis) algorithms existing or developed in the future may be applied when analyzing an image.

도 17 및 도 18은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 사용자 단말의 위치 정보의 보정을 설명하기 위한 도면이다.17 and 18 are diagrams for explaining correction of location information of a user terminal in the apparatus 10 for automatically recognizing area information according to an embodiment of the present application.

도 17 및 도 18을 참조하면, 17의 (a)에 도시된 바와 같이, 본 장치(10)를 통해 인식된 사용자 단말(1)의 위치는 pos 1과 같고, 실제 사용자 단말(1)의 위치 좌표가 pos 2와 같다고 하자.17 and 18, as shown in (a) of 17, the location of the user terminal 1 recognized through the device 10 is equal to pos 1, and the actual location of the user terminal 1 Suppose the coordinates are equal to pos 2.

추출부(11)는 사용자 단말(1)의 화면 상에 표출되는 영상에 대하여 영상 분석을 수행함으로써 도 17의 (b)와 같이 화면 상에 표출되는 건물들의 윤곽선을 추출할 수 있다.The extraction unit 11 may extract outlines of buildings displayed on the screen as shown in (b) of FIG. 17 by performing image analysis on the image displayed on the screen of the user terminal 1.

다음으로, 추출부(11)는 도 17의 (c)와 같이, 영상 분석을 통해 추출된 건물들의 윤곽선에 기반하여, 영상 분석 기반 폭 비율 셋트(R1, 달리 표현하여 영상 상의 건물크기 비율 패턴)를 산출할 수 있다. 이때, 일예로 추출부(11)는 윤곽선의 세로선을 기준으로 영상 분석 기반 폭 비율 셋트(R1)를 산출할 수 있다.Next, as shown in (c) of FIG. 17, based on the outlines of buildings extracted through image analysis, the extraction unit 11 sets the width ratio based on image analysis (R1, otherwise expressed as a building size ratio pattern on the image). Can be calculated. In this case, as an example, the extraction unit 11 may calculate an image analysis-based width ratio set R1 based on a vertical line of an outline.

다음으로, 추출부(11)는 도 17의 (d)와 같이, 사용자 단말(1)의 위치센서의 오차 범위를 고려하여 오차 범위 내에서 인식 가능한 탐색 유효 영역을 특정지을 수 있다. 이후, 추출부(11)는 탐색 유효 영역 내에 위치하는 복수의 후보 지형지물 객체들을 기반으로 하여, pos 1의 위치를 오차 범위 내에서 변경하면서 영상 분석 기반 폭 비율 셋트(R1)와 대응하는 다른 객체 정보 기반 폭 비율 셋트에 대한 탐색을 수행할 수 있다.Next, the extraction unit 11 may specify a recognizable search effective area within the error range in consideration of the error range of the position sensor of the user terminal 1 as shown in FIG. 17D. Thereafter, the extraction unit 11 changes the position of pos 1 within the error range based on a plurality of candidate feature objects located in the search effective area, while another object corresponding to the image analysis-based width ratio set R1 It is possible to perform a search for an information-based width ratio set.

이때, 추출부(11)는 도 18의 (a)와 같이 방향 정보를 일정하게 유지한 상태로, pos 1의 위치를 오차 범위 내에서 좌우 방향으로 변경(시프트)하면서 영상 분석 기반 폭 비율 세트와 대응되는 객체 정보 기반 폭 비율 셋트(R2)를 탐색할 수 있다. At this time, the extraction unit 11 maintains the direction information constant as shown in (a) of FIG. 18, and changes (shifts) the position of pos 1 in the left and right directions within the error range, while the image analysis-based width ratio set and A corresponding object information-based width ratio set R2 may be searched.

탐색 결과 영상 분석 기반 폭 비율 셋트(R1)와 대응하는 다른 객체 정보 기반 폭 비율 셋트(R2)가 존재하면, 사용자 단말(1)로부터 획득된 위치 정보인 pos 1에 오차가 있는 것으로 보아, 추출부(11)는 도 18의 (b)와 같이 본 장치(10)가 인식한 사용자 단말(1)의 위치 정보 pos 1을 도 18의 (c)와 같이 영상 분석 기반 폭 비율 셋트(R1)와 대응하는 다른 객체 정보 기반 폭 비율 셋트(R2)의 획득이 이루어지는 위치 pos 1'로 보정할 수 있다.As a result of the search, if there is an image analysis-based width ratio set (R1) and another object information-based width ratio set (R2) corresponding to the image analysis-based width ratio set (R2), it is considered that there is an error in pos 1, which is the location information obtained from the user terminal (1). (11) corresponds to the location information pos 1 of the user terminal 1 recognized by the device 10 as shown in (b) of FIG. 18 and the width ratio set based on image analysis (R1) as shown in (c) of FIG. 18 Another object information-based width ratio set R2 may be corrected to a position pos 1'at which the acquisition is performed.

이처럼, 본 장치(10)는 보정된 사용자 단말의 위치 정보에 기반하여 POI 검색(탐색)을 수행함으로써, 보다 정확한 POI 정보를 제공할 수 있다.As such, the device 10 may provide more accurate POI information by performing POI search (search) based on the corrected location information of the user terminal.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, based on the details described above, the operation flow of the present application will be briefly described.

도 19는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법에 대한 동작 흐름도이다.19 is a flowchart illustrating a method of automatically recognizing local information through focusing around a user using the apparatus 10 for automatically recognizing local information according to an exemplary embodiment of the present disclosure.

도 19에 도시된 지역 정보 자동 인식 방법은 앞서 설명된 지역 정보 자동 인식 장치(10, 본 장치)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 지역 정보 자동 인식 장치(10, 본 장치)에 대하여 설명된 내용은 지역 정보 자동 인식 방법에 대한 설명에도 동일하게 적용될 수 있다.The method for automatically recognizing region information illustrated in FIG. 19 may be performed by the apparatus 10 for automatically recognizing region information described above. Therefore, even if omitted below, the description of the apparatus 10 for automatically recognizing region information may be equally applied to the description of the method for automatically recognizing region information.

도 19를 참조하면, 단계S11에서는 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출할 수 있다.Referring to FIG. 19, in step S11, based on the location information and direction information obtained from the user terminal, among the feature objects stored in the object storage unit of the automatic region information recognition device, a search area set to be visually displayed on the user terminal is selected. Corresponding candidate feature objects can be extracted.

이때, 단계S11에서는, 검색 영역에 대한 영상 분석을 통해 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 영상 분석을 통해 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.At this time, in step S11, if it is determined that there are a plurality of feature objects whose entire width is exposed in the search area through image analysis of the search area, the image calculated for the plurality of feature objects through image analysis Based on the analysis-based width ratio set and the feature objects stored in the object storage unit, a plurality of candidate feature objects corresponding to the positions and directions of the plurality of feature objects are projected onto the search area to correspond to the object width. Thus, it is possible to determine whether there is a discrepancy between the calculated object information-based width ratio sets.

단계S11에서는, 판정 결과 불일치하는 것으로 판정된 경우, 방향 정보를 일정하게 유지한 상태로 상기 위치 정보를 사용자 단말의 위치센서의 오차 범위 내에서 변경하면서 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. 이후, 단계S11에서는, 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 위치 정보에 오차가 있는 것으로 보아 위치 정보를 보정할 수 있다.In step S11, when it is determined that the determination result is inconsistent, the position information is changed within the error range of the position sensor of the user terminal while maintaining the direction information while other object information corresponding to the image analysis-based width ratio set. You can explore a set of base width ratios. Thereafter, in step S11, if it is determined that there is another object information-based width ratio set corresponding to the image analysis-based width ratio set, it is considered that there is an error in the location information, and the location information may be corrected.

단계S11에서는 보정된 위치 정보 및 방향 정보를 기반으로 후보 지형지물 객체들을 추출할 수 있다.In step S11, candidate terrain objects may be extracted based on the corrected location information and direction information.

다음으로, 단계S12에서는 단계S11에서 추출된 후보 지형지물 객체들 중 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다.Next, in step S12, among the candidate feature objects extracted in step S11, visible feature objects that can be visually identified within the search area may be selected.

또한, 단계S12에서는 검색 영역 내에서 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다.In addition, in step S12, a visible feature object is selected by sequentially searching for candidate feature objects in an order close to the location corresponding to the location information in the search area, but the width occupied by the selected visible feature object in the search area The area can be excluded from the search target range from the next search.

단계S11에서 고려되는 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 수 있다. 이에 따라, 단계S12에서 고려되는 선별된 가시 지형지물 객체에 대응하는 폭 영역은 객체 정보를 고려하여 선별된 가시 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역을 의미할 수 있다.The object storage unit considered in step S11 may store information about the location and shape of the feature objects as object information. Accordingly, the width area corresponding to the selected visible feature object considered in step S12 may mean an area corresponding to the object width appearing in a state in which the selected visible feature object selected in consideration of object information is projected onto the search area. have.

여기서, 일예로 객체 저장부에서 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다. 다른 일예로, 객체 저장부에서 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장될 수 있다.Here, as an example, information about the shape in the object storage unit may be stored in the form of a minimum bounding rectangle (MBR). As another example, information about a shape in the object storage unit may be stored in a MAR (Minimum Area Rectangle) format.

MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태를 의미할 수 있다.The MAR shape is the smallest area among all cases in which the MBR shape is formed based on a local axis including a line connecting two neighboring vertices among the vertices included in the contour of the feature object included on the digital map. It can mean the corresponding form.

다음으로, 단계S13에서는 단계S12에서 선별된 가시 지형지물 객체들 중 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식할 수 있다.Next, in step S13, among the visible feature objects selected in step S12, the visible feature object located closest to the center of the search area may be recognized as a region information request object.

또한, 도면에 도시하지는 않았으나, 본원의 일 실시예에 따른 지역 정보 자동 인식 방법은, 단계S13에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 지역 정보 요청 대상 상에 오버레이하여 표시하는 단계를 포함할 수 있다.In addition, although not shown in the drawing, in the method for automatically recognizing local information according to an embodiment of the present application, point of interest (POI) information corresponding to the area information request object recognized in step S13 is transferred to the local information request object. It may include the step of overlaying and displaying.

상술한 설명에서, 단계 S11 내지 S13은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S13 may be further divided into additional steps or may be combined into fewer steps, depending on the embodiment of the present application. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

본원의 일 실시 예에 따른 지역 정보 자동 인식 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method for automatically recognizing region information according to an exemplary embodiment of the present disclosure may be implemented in the form of program commands that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The above-described hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

또한, 전술한 지역 정보 자동 인식 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described method for automatically recognizing area information may also be implemented in the form of a computer program or application executed by a computer stored in a recording medium.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present application is for illustrative purposes only, and those of ordinary skill in the art to which the present application pertains will be able to understand that it is possible to easily transform it into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present application.

1: 사용자 단말
10: 지역 정보 자동 인식 장치
11: 추출부
12: 선별부
13: 인식부
14: 디스플레이 제어부
15: 객체 저장부
1: user terminal
10: area information automatic recognition device
11: extraction section
12: sorting unit
13: recognition
14: display control unit
15: object storage

Claims (15)

지역 정보 자동 인식 장치를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법으로서,
(a) 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 단계;
(b) 상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 단계; 및
(c) 상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 단계,
를 포함하는 지역 정보 자동 인식 방법.
As a method for automatically recognizing region information through focusing around a user using an automatic region information recognition device,
(a) Based on the location information and direction information obtained from the user terminal, among the feature objects stored in the object storage unit of the region information automatic recognition device, a candidate feature corresponding to a search area set to be visually displayed on the user terminal Extracting objects;
(b) selecting visible feature objects that can be visually identified in the search area among the candidate feature objects; And
(c) recognizing a visible feature object located closest to the center of the search area among the visible feature objects as a region information request object,
Local information automatic recognition method comprising a.
제1항에 있어서,
상기 (b) 단계는,
상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외하는 것인, 지역 정보 자동 인식 방법.
The method of claim 1,
The step (b),
In the search area, a visible feature object is selected by sequentially searching for candidate feature objects in an order close to a location corresponding to the location information, and the width area occupied by the selected visible feature object in the search area A method for automatically recognizing local information from the next search to exclude it from the search target range.
제2항에 있어서,
상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고,
상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역인 것인, 지역 정보 자동 인식 방법.
The method of claim 2,
The object storage unit stores information on the location and shape of the feature objects as object information,
The width area corresponding to the selected visible feature object is an area corresponding to the object width appearing when the selected visible feature object is projected onto the search area in consideration of the object information. Way.
제3항에 있어서,
상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 방법.
The method of claim 3,
The information on the shape is stored in the form of MBR (Minimum Bounding Rectangle).
제3항에 있어서,
상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 방법.
The method of claim 3,
The information on the shape is stored in a MAR (Minimum Area Rectangle) format.
제5항에 있어서,
상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태인 것인, 지역 정보 자동 인식 방법.
The method of claim 5,
The MAR shape is the minimum area among all the cases in which the MBR shape is formed based on a local axis including a line connecting two adjacent vertices among vertices included in the contour of the feature object included on the digital map. In a form corresponding to, the method for automatically recognizing local information.
제1항에 있어서,
(d) 상기 (c) 단계에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 단계,
를 더 포함하는 지역 정보 자동 인식 방법.
The method of claim 1,
(d) overlaying and displaying POI (Point of Interest) information corresponding to the region information request object recognized in step (c), on the region information request object,
Local information automatic recognition method further comprising a.
사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치로서,
사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 추출부;
상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 선별부; 및
상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 인식부,
를 포함하는 지역 정보 자동 인식 장치.
As an automatic local information recognition device through focusing around the user,
Based on the location information and direction information obtained from the user terminal, among the feature objects stored in the object storage unit of the automatic region information recognition device, candidate feature objects corresponding to the search area set to be visually displayed on the user terminal are extracted. An extraction unit;
A selection unit that selects visually identifiable visible feature objects from among the candidate feature objects; And
A recognition unit for recognizing a visible feature object located closest to the center of the search area among the visible feature objects as a region information request object,
Region information automatic recognition device comprising a.
제8항에 있어서,
상기 선별부는,
상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외하는 것인, 지역 정보 자동 인식 장치.
The method of claim 8,
The selection unit,
In the search area, a visible feature object is selected by sequentially searching for candidate feature objects in an order close to a location corresponding to the location information, and the width area occupied by the selected visible feature object in the search area A device for automatically recognizing area information, which is to be excluded from the range to be searched from the next search.
제9항에 있어서,
상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고,
상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역인 것인, 지역 정보 자동 인식 장치.
The method of claim 9,
The object storage unit stores information on the location and shape of the feature objects as object information,
The width area corresponding to the selected visible feature object is an area corresponding to the object width appearing when the selected visible feature object is projected onto the search area in consideration of the object information. Device.
제10항에 있어서,
상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 장치.
The method of claim 10,
The information on the shape is to be stored in the form of MBR (Minimum Bounding Rectangle), region information automatic recognition device.
제10항에 있어서,
상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 장치.
The method of claim 10,
The information on the shape is stored in a MAR (Minimum Area Rectangle) format.
제12항에 있어서,
상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태인 것인, 지역 정보 자동 인식 장치.
The method of claim 12,
The MAR shape is the minimum area among all the cases in which the MBR shape is formed based on a local axis including a line connecting two adjacent vertices among vertices included in the contour of the feature object included on the digital map. The apparatus for automatically recognizing local information in a form corresponding to.
제8항에 있어서,
상기 인식부에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 디스플레이 제어부,
를 더 포함하는 지역 정보 자동 인식 장치.
The method of claim 8,
A display control unit that overlays and displays point of interest (POI) information corresponding to the region information request object recognized by the recognition unit on the region information request object,
Region information automatic recognition device further comprising a.
제1항 내지 제7항 중 어느 한 항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터에서 판독 가능한 기록매체.A computer-readable recording medium recording a program for executing the method of claim 1 on a computer.
KR1020200117207A 2018-01-16 2020-09-11 Apparatus and method for automatically recognizing local information through focusing around a user KR102273919B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20180005387 2018-01-16
KR1020180005387 2018-01-16
KR1020180101150A KR102157999B1 (en) 2018-01-16 2018-08-28 Apparatus and method for automatically recognizing local information through focusing around a user

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180101150A Division KR102157999B1 (en) 2018-01-16 2018-08-28 Apparatus and method for automatically recognizing local information through focusing around a user

Publications (2)

Publication Number Publication Date
KR20200108403A true KR20200108403A (en) 2020-09-18
KR102273919B1 KR102273919B1 (en) 2021-07-06

Family

ID=67481418

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020180101150A KR102157999B1 (en) 2018-01-16 2018-08-28 Apparatus and method for automatically recognizing local information through focusing around a user
KR1020200117207A KR102273919B1 (en) 2018-01-16 2020-09-11 Apparatus and method for automatically recognizing local information through focusing around a user

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020180101150A KR102157999B1 (en) 2018-01-16 2018-08-28 Apparatus and method for automatically recognizing local information through focusing around a user

Country Status (1)

Country Link
KR (2) KR102157999B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220124572A (en) 2021-03-03 2022-09-14 주식회사 케이티 Business information providing server based on map platform

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150075532A (en) * 2013-12-26 2015-07-06 한국전자통신연구원 Apparatus and Method of Providing AR

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101652311B1 (en) * 2010-01-26 2016-08-30 광주과학기술원 System and method for storing information of vision image, and the recording media storing the program performing the said method
US9488488B2 (en) * 2010-02-12 2016-11-08 Apple Inc. Augmented reality maps

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150075532A (en) * 2013-12-26 2015-07-06 한국전자통신연구원 Apparatus and Method of Providing AR

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220124572A (en) 2021-03-03 2022-09-14 주식회사 케이티 Business information providing server based on map platform

Also Published As

Publication number Publication date
KR102157999B1 (en) 2020-09-21
KR102273919B1 (en) 2021-07-06
KR20190087267A (en) 2019-07-24

Similar Documents

Publication Publication Date Title
JP6833886B2 (en) Systems and methods for using visual landmarks in initial navigation
US10309797B2 (en) User interface for displaying navigation information in a small display
US8954275B2 (en) Schematic maps
JP5728775B2 (en) Information processing apparatus and information processing method
KR100985737B1 (en) Method, terminal device and computer-readable recording medium for providing information on an object included in visual field of the terminal device
US9488488B2 (en) Augmented reality maps
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
JP5652097B2 (en) Image processing apparatus, program, and image processing method
US20120194547A1 (en) Method and apparatus for generating a perspective display
US20120093369A1 (en) Method, terminal device, and computer-readable recording medium for providing augmented reality using input image inputted through terminal device and information associated with same input image
US20150062114A1 (en) Displaying textual information related to geolocated images
KR101042910B1 (en) Method, system and computer-readable recording medium for providing service using electronic map
KR20150075532A (en) Apparatus and Method of Providing AR
JP2010118019A (en) Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
KR102344393B1 (en) Contextual map view
US10444954B2 (en) Distinguishable geographic area presentation
JP6384898B2 (en) Route guidance system, method and program
KR102273919B1 (en) Apparatus and method for automatically recognizing local information through focusing around a user
US20230050644A1 (en) Generating Computer Augmented Maps from Physical Maps
KR20100138554A (en) Travelers navigation method and system thereof
JP7065455B2 (en) Spot information display system
JP2005134242A (en) Navigation system, navigation apparatus, navigation method, and navigation program
KR20200127107A (en) Visualization System of Regional Commercial Areas Using Augmented Reality
Chernykh et al. Development of a Navigation System on the University Territory Using Augmented Reality Technology
Patel et al. A Survey on Improving Navigation for Street Data Using Mobile Augmented Reality

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant