KR20190087267A - Apparatus and method for automatically recognizing local information through focusing around a user - Google Patents

Apparatus and method for automatically recognizing local information through focusing around a user Download PDF

Info

Publication number
KR20190087267A
KR20190087267A KR1020180101150A KR20180101150A KR20190087267A KR 20190087267 A KR20190087267 A KR 20190087267A KR 1020180101150 A KR1020180101150 A KR 1020180101150A KR 20180101150 A KR20180101150 A KR 20180101150A KR 20190087267 A KR20190087267 A KR 20190087267A
Authority
KR
South Korea
Prior art keywords
information
search
area
user terminal
feature objects
Prior art date
Application number
KR1020180101150A
Other languages
Korean (ko)
Other versions
KR102157999B1 (en
Inventor
권용진
최종각
Original Assignee
한국항공대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공대학교산학협력단 filed Critical 한국항공대학교산학협력단
Publication of KR20190087267A publication Critical patent/KR20190087267A/en
Priority to KR1020200117207A priority Critical patent/KR102273919B1/en
Application granted granted Critical
Publication of KR102157999B1 publication Critical patent/KR102157999B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to a method for automatically recognizing area information. The method for automatically recognizing area information comprises the steps of: (a) extracting candidate geographic feature objects corresponding to a search area set to be visually displayed on a user terminal of geographic feature objects stored in an object storage unit of an apparatus for automatically recognizing area information based on location information and direction information obtained from the user terminal; (b) selecting visible geographic feature objects which can be visually identified in the search area of the candidate geographic feature objects; and, (c) recognizing a visible geographic feature object located closed to the center of the search area of the visible geographic feature objects as an area information request target.

Description

사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치 및 방법 {APPARATUS AND METHOD FOR AUTOMATICALLY RECOGNIZING LOCAL INFORMATION THROUGH FOCUSING AROUND A USER}[0001] APPARATUS AND METHOD FOR AUTOMATICALLY RECOGNIZING LOCAL INFORMATION THROUGH FOCUSING AROUND A USER [0002]

본원은 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치 및 방법에 관한 것이다. 즉, 본원은 사용자 주변의 객체(지형지물 객체)를 지역 정보 자동 인식 장치를 이용해 포커싱함으로써 포커싱된 객체에 대한 지역 정보를 자동으로 인식할 수 있는 지역 정보 자동 인식 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for automatically recognizing a local area through focusing on a user's surroundings. That is, the present invention relates to an apparatus and method for automatically recognizing local information that can automatically recognize local information about a focused object by focusing an object (a feature object) around the user by using the local information automatic recognition apparatus.

모바일 디바이스가 보급화되고 통신기술이 발달함에 따라, 이를 활용하여 생활에 편리함을 줄 수 있는 정보 검색/제공 서비스에 대한 요구가 증가하고 있다As mobile devices become more popular and communication technologies are developed, there is an increasing demand for information retrieval / providing services that can provide convenience for living by utilizing them

일반적으로 정보를 검색할 수 있는 방법으로는 구글, 네이버 등의 검색엔진에 검색 대상의 키워드를 입력하여 검색하는 방법이 있다. 하지만 이 방법은 키워드를 모를 경우 정보를 검색하지 못하는 문제점이 있다. Generally, there is a method of searching information by inputting a keyword to be searched in a search engine such as Google or Naver. However, this method has a problem that information can not be retrieved when the keyword is not known.

이러한 문제를 해소하고자 사용자의 위치를 기반으로 주위 정보를 검색해 제공하는 서비스가 등장하고 있다.In order to solve this problem, there is a service for searching and providing surrounding information based on the location of the user.

도 1은 일예로 AR(Augmented Reality) 기반의 정보 검색 서비스의 제공 예를 나타낸 도면이다.FIG. 1 is a diagram illustrating an example of providing an information search service based on an Augmented Reality (AR).

도 1을 참조하면, AR(Augmented Reality) 기반의 정보 검색 서비스는 별도의 키워드를 필요로 하지 않으며, 사용자의 위치정보를 이용하여 사용자 주변의 정보(예를 들어, POI 정보)를 검색하여 카메라 영상 위에 오버레이하여 제공할 수 있다.Referring to FIG. 1, an information search service based on an Augmented Reality (AR) does not require a separate keyword, and information (for example, POI information) around the user is retrieved using the location information of the user, Overlayed on top.

그런데, 종래에 공지된 AR 기반의 정보 검색 서비스들은 정보를 표시하는데 있어서 사용자의 위치만을 이용하고 있다. 이로 인해, AR 기반의 정보 검색 서비스들은 사용자가 이동하기 어려운 곳에 있는 정보들을 표시할 뿐만 아니라, 가까이 있는 정보와 멀리 있는 정보의 구분없이 모두 한 화면 상에 중첩하여 표시하므로, 사용자가 해당 정보(표시된 정보)를 쉽게 인식하기 힘든 문제가 있다.Conventionally known AR-based information search services use only the location of a user in displaying information. As a result, AR-based information search services not only display information in a place where the user is difficult to move but also display information superimposed on one screen without distinction of nearby information and distant information, Information) is difficult to recognize easily.

예시적으로, AR 앱 중 하나인 포켓몬GO는 사용자의 위치를 이용하여 지도상에 가상의 포켓몬이 있는 위치를 보여준다. 그리고 해당 포켓몬과 조우하면 카메라 영상 위에 사용자의 바라보는 방향에 따라 그 포켓몬을 나타낸다. 하지만, 포켓몬GO에서는 실생활공간의 지형지물에 대한 고려를 하지 않으므로, 포켓몬이 실생활공간의 물체와는 상관없이 허공에 떠 있는 것처럼 보이게 된다.As an example, one of the AR apps, Pokemon GO, uses the user's location to show the location of a virtual Pokemon on the map. And when you encounter that Pokemon, it shows the Pokemon according to the direction of the user looking on the camera image. However, since Pokemon GO does not consider the features of real life space, Pokemon appears to float in the air regardless of objects in real life space.

또한, AR 앱 중 하나인 세카이 카메라(Sekai Camera)는 사용자가 특정 위치에 남긴 가상의 메모를 카메라 화면 위에 겹쳐 보여준다. 하지만, 이 또한 실생활공간의 건물이나 장애물에 가려져서 보이지 말아야 할 곳에 있는 메모가 보이게 된다.In addition, one of the AR apps, Sekai Camera, displays a virtual memo left on a specific location by the user on the camera screen. However, this also shows a memo in a place that should not be seen because it is covered by buildings or obstacles in real life space.

이처럼, 종래의 AR 기반 서비스는 사용자의 주변환경을 전혀 고려하지 않은 상태에서 사용자의 위치정보만을 활용하여 카메라를 통해 취득한 영상 위에 정보를 오버레이하고 있다. 즉, 종래의 AR 기반 서비스는 물체의 위치와 상관없이 정보를 허공에 제공하거나, 건물이나 장애물에 가려지지 않은 정보 뿐만 아니라 건물이나 장애물에 가려져 보이지 말아야 하는 정보를 모두 한 화면에 제공하며, 가까이 있는 정보와 멀리 있는 정보의 구분없이 모두 한 화면에 제공하므로, 사용자가 원하는 정보를 쉽게 인식하기 어려운 문제가 있다.As described above, the conventional AR-based service overlays information on the image obtained through the camera by utilizing only the location information of the user without taking the user's surrounding environment into consideration at all. In other words, the conventional AR-based service provides information to the air regardless of the position of the object, provides information on a screen not to be hidden by the building or the obstacle as well as information not covered by the building or the obstacle, There is a problem that it is difficult to easily recognize the information desired by the user because the information is provided on one screen without distinguishing the information from the far information.

한편, AR 서비스 기술에서 나아가, 사용자의 가시영역 내 실생활공간 개체(object)의 위치관계와 형상 등을 이용하여 정보를 표시하는 MR(Mixed Reality) 서비스 기술에 대한 연구가 이루어지고 있다.In addition, AR (Mixed Reality) service technology that displays information by using the positional relationship and the shape of an actual spatial object in the visible region of the user has been studied.

MR 서비스 기술은 객체 추출을 위해 주로 깊이센서와 영상처리 기술을 활용하며, AR에 비해 실생활공간에 보다 잘 정합된 정보를 제공한다. 그런데, 이러한 종래의 MR 서비스 기술들은 센싱 범위가 제한되어 있는 방, 사무실 등과 같은 실내공간에서는 좋은 결과를 보이나, 주위환경 변화가 큰 실외에서는 적용하기 어려운 문제가 있다.MR service technology mainly utilizes depth sensor and image processing technology for object extraction and provides better matching information in real life space than AR. However, such conventional MR service technologies have good results in an indoor space such as a room or office where the sensing range is limited, but they are difficult to apply in an outdoor environment where the ambient environment changes greatly.

또한, 종래의 MR 서비스 기술은 영상처리 기반으로 객체를 인식하기 때문에, 빛 등의 주변 환경에 영향을 받아 객체의 인식률이 떨어지고, 앞 건물에 의해 일부 영역이 가려져 보이는 객체에 대한 인식이 어려운 문제가 있다. In addition, since the conventional MR service technology recognizes an object based on image processing, the recognition rate of the object is affected by the surrounding environment such as light, and it is difficult to recognize objects that are partially hidden by the front building have.

즉, 실외 MR 서비스를 가능하게 하기 위해서는 실외 개체들의 정확한 위치정보가 필요하다고 할 수 있다. 그런데, 종래의 MR 서비스는 주로 실내 서비스를 전제로 연구가 이루어지고 있기 때문에, 깊이센서를 이용하거나 영상의 특징점을 이용해 실내 객체를 특정짓는 종래의 MR 서비스 기술로는 실외 객체들을 인식하는 데에 어려움이 있다.That is, in order to enable outdoor MR service, accurate location information of outdoor entities is required. However, since conventional MR services are mainly based on indoor services, it is difficult to recognize outdoor objects with a conventional MR service technology that uses a depth sensor or characterizes indoor objects using image minutiae .

본원의 배경이 되는 기술은 한국공개특허공보 제10-2012-0075609호에 개시되어 있다.The background technology of the present application is disclosed in Korean Patent Laid-Open Publication No. 10-2012-0075609.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 키워드의 필요없이, 사용자 주변의 객체를 포커싱하는 것만으로 사용자가 원하는 정보(즉, 포커싱된 객체에 대한 지역 정보)를 자동으로 인식할 수 있는 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치 및 방법을 제공하려는 것을 목적으로 한다.The present invention has been made to solve the above-mentioned problems of the conventional art, and it is an object of the present invention to provide an image processing apparatus and method capable of automatically recognizing information desired by a user (i.e., local information on a focused object) And an apparatus and method for automatically recognizing local information through focusing on the user's surroundings.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It is to be understood, however, that the technical scope of the embodiments of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법은, (a) 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 단계; (b) 상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 단계; 및 (c) 상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for automatically recognizing a local area through a user's peripheral focusing using an automatic local area information recognizing apparatus, comprising the steps of: (a) Extracting candidate feature objects corresponding to a search area visually displayed on the user terminal among the feature objects stored in the object storage unit of the automatic area recognition device based on the direction information; (b) selecting visible feature objects visually recognizable within the search area among the candidate feature objects; And (c) recognizing a visible feature object located closest to the center of the search area among the visible feature objects as an area information request object.

또한, 상기 (b) 단계는, 상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다.In the step (b), the candidate feature objects are sequentially searched in the search area in the order close to the position corresponding to the position information to select the visible feature objects, and the selected visible feature objects The width area occupied in the search area can be excluded from the search range from the next search.

또한, 상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고, 상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역일 수 있다.The object storage unit may store information on the position and shape of the feature objects as object information, and the width area corresponding to the selected visible feature object may include the selected visible feature object object in consideration of the object information. And may be an area corresponding to an object width appearing in a state projected on the search area.

또한, 상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다.In addition, the shape information may be stored in a MBR (Minimum Bounding Rectangle) format.

또한, 상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장될 수 있다.In addition, the information on the shape may be stored in a MAR (Minimum Area Rectangle) form.

또한, 상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태일 수 있다.In addition, the MAR type is a minimum area of all cases in which an MBR form is formed based on a local axis including a line connecting two adjacent vertexes among vertexes contained in an outline of a feature object included on a digital map Lt; / RTI > may be in a corresponding form.

또한, 상기 (a) 단계는, 상기 검색 영역에 대한 영상 분석을 통해 상기 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 상기 영상 분석을 통해 상기 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 상기 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.In the step (a), if it is determined that there are a plurality of feature objects whose entire widths are all exposed in the search area through the image analysis for the search area, A plurality of candidate feature objects corresponding to positions and directions of each of the plurality of feature objects on the basis of the feature objects stored in the object storage unit, It is possible to judge whether there is a mismatch between the set of object information-based width ratios calculated corresponding to the object width appearing in the projected state.

또한, 상기 (a) 단계는, 불일치하는 것으로 판정된 경우, 상기 방향 정보를 일정하게 유지한 상태로 상기 위치 정보를 상기 사용자 단말의 위치센서의 오차 범위 내에서 변경하면서 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색하고, 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 상기 위치 정보에 오차가 있는 것으로 보아 상기 위치 정보를 보정할 수 있다.In the step (a), when the position information is determined to be inconsistent, the position information is changed within the error range of the position sensor of the user terminal while the direction information is kept constant, Information-based width ratio set corresponding to the object-information-based width-ratio set corresponding to the object-information-based width-ratio set, and if there is an error in the positional information, Can be corrected.

또한, 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법은, (d) 상기 (c) 단계에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 단계를 더 포함할 수 있다.In addition, a method for automatically recognizing a local area through focusing on a user using a local area automatic recognition apparatus according to an embodiment of the present invention may include: (d) extracting a point of interest corresponding to a local information request object recognized in step (c) POI (Point of Interest) information on the area information request object.

한편, 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치는, 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 추출부; 상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 선별부; 및 상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 인식부를 포함할 수 있다.Meanwhile, according to an embodiment of the present invention, an apparatus for automatically recognizing a local area through focusing on a user's perimeter includes a feature information storage unit for storing the feature information stored in the object storage unit of the local information automatic recognition apparatus, An extracting unit for extracting candidate feature objects corresponding to the search area set to be visually displayed on the user terminal; A sorting unit for sorting the visible feature objects visually recognizable within the search area among the candidate feature objects; And a recognition unit for recognizing a visible feature object located closest to the center of the search area among the visible feature objects as a region information request object.

또한, 상기 선별부는, 상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다.In addition, the selector may select the visible feature objects sequentially by searching the candidate feature object objects sequentially in the search area in the order close to the position corresponding to the position information, The width area occupied within the search area can be excluded from the search range from the next search.

또한, 상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고, 상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역일 수 있다.The object storage unit may store information on the position and shape of the feature objects as object information, and the width area corresponding to the selected visible feature object may include the selected visible feature object object in consideration of the object information. And may be an area corresponding to an object width appearing in a state projected on the search area.

또한, 상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다.In addition, the shape information may be stored in a MBR (Minimum Bounding Rectangle) format.

또한, 상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장될 수 있다.In addition, the information on the shape may be stored in a MAR (Minimum Area Rectangle) form.

또한, 상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태일 수 있다.In addition, the MAR type is a minimum area of all cases in which an MBR form is formed based on a local axis including a line connecting two adjacent vertexes among vertexes contained in an outline of a feature object included on a digital map Lt; / RTI > may be in a corresponding form.

또한, 상기 추출부는, 상기 검색 영역에 대한 영상 분석을 통해 상기 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 상기 영상 분석을 통해 상기 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 상기 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.If it is determined that there are a plurality of feature objects whose entire widths are all exposed in the search area through the image analysis of the search area, the extracting unit extracts the plurality of feature objects A plurality of candidate feature objects corresponding to positions and directions of each of the plurality of feature objects based on the feature objects stored in the object storage unit are projected onto the search area, Based width ratio set calculated corresponding to the object width shown in FIG.

또한, 상기 추출부는, 불일치하는 것으로 판정된 경우, 상기 방향 정보를 일정하게 유지한 상태로 상기 위치 정보를 상기 사용자 단말의 위치센서의 오차 범위 내에서 변경하면서 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색하고, 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 상기 위치 정보에 오차가 있는 것으로 보아 상기 위치 정보를 보정할 수 있다.If it is determined that the mismatch occurs, the extracting unit may change the position information within the error range of the position sensor of the user terminal while keeping the direction information constant, And if it is determined that there is another object information based width ratio set corresponding to the image analysis based width ratio set, the position information is corrected by considering that there is an error in the position information .

또한, 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치는, 인식부에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 디스플레이 제어부를 더 포함할 수 있다.In addition, according to an embodiment of the present invention, an apparatus for automatically recognizing a local area through focusing on a user's perimeter includes a point-of-interest (POI) information corresponding to a region- And a display control unit for displaying the overlay on the display unit.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described task solution is merely exemplary and should not be construed as limiting the present disclosure. In addition to the exemplary embodiments described above, there may be additional embodiments in the drawings and the detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 키워드의 필요없이, 지역 정보 자동 인식 장치를 이용해 사용자 주변의 지형지물 객체를 포커싱하는 것만으로 사용자가 원하는 정보(즉, 포커싱된 지형지물 객체에 대한 지역 정보)를 자동으로 인식할 수 있다.According to an aspect of the present invention, there is provided an apparatus for automatically recognizing a local feature of a user, the apparatus comprising: Can be automatically recognized.

전술한 본원의 과제 해결 수단에 의하면, 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 객체 저장부에 저장된 지형지물 객체들을 이용해 사용자가 검색하고자 하는 지역 정보 요청 대상(달리 말해, 검색 대상 객체)를 효과적으로 인식(식별)할 수 있다.According to an aspect of the present invention, there is provided a method of searching for a local information request object (in other words, a search object ) Can be effectively recognized (identified).

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable here are not limited to the effects as described above, and other effects may exist.

도 1은 일예로 AR(Augmented Reality) 기반의 정보 검색 서비스의 제공 예를 나타낸 도면이다.
도 2는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치의 개략적인 구성을 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 설정 가능한 검색 영역을 설명하기 위한 도면이다.
도 4는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 사용자 단말에 시각적으로 표출되는 검색 영역의 예를 나타낸 도면이다.
도 5는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 고려되는 MBR 형태(a)와 MAR 형태(b)를 설명하기 위한 도면이다.
도 6은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 가시 지형지물 객체를 선별하는 과정을 설명하기 위한 도면이다.
도 7은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 포함하는 지역 정보 자동 인식 시스템의 구성을 개략적으로 나타낸 도면이다.
도 8은 본원의 일 실시예에 따른 지역 정보 자동 인식 시스템에 적용되는 실외 MR 모델의 구조를 개략적으로 나타낸 도면이다.
도 9는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 객체 정보의 저장 구조인 R-tree 구조를 설명하기 위한 도면이다.
도 10은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 지역 정보 요청 대상에 대한 POI 정보를 검색하는 예를 나타낸 도면이다.
도 11은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에 의하여 제공되는 검색 정보의 예를 나타낸 도면이다.
도 12는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에 의하여 제공되는 검색 정보의 다른 예를 나타낸 도면이다.
도 13은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에 의하여 제공되는 검색 정보의 또 다른 예를 나타낸 도면이다.
도 14는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 사용자의 판단에 의해 수동으로 이루어지는 경우의 예를 설명하기 위한 도면이다.
도 15는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 사용자 단말의 위치 정보를 사용자 입력에 의하여 수동으로 변경하는 경우의 예를 나타낸 도면이다.
도 16은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 본 장치에 의해 자동으로 이루어지는 경우의 예를 설명하기 위한 도면이다.
도 17 및 도 18은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 사용자 단말의 위치 정보의 보정을 설명하기 위한 도면이다.
도 19는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법에 대한 동작 흐름도이다.
FIG. 1 is a diagram illustrating an example of providing an information search service based on an Augmented Reality (AR).
FIG. 2 is a diagram illustrating a schematic configuration of an apparatus for automatically recognizing a local area through focusing on a user's perimeter according to an embodiment of the present invention.
FIG. 3 is a diagram for explaining a search area that can be set in the automatic area recognition apparatus through focusing on the user's perimeter according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating an example of a search area visually displayed on a user terminal in an automatic local area recognition apparatus for focusing on surroundings of a user according to an embodiment of the present invention.
FIG. 5 is a diagram for explaining an MBR type (a) and a MAR type (b) considered in an automatic local area recognition apparatus through user's peripheral focusing according to an embodiment of the present invention.
FIG. 6 is a diagram for explaining a process of selecting a visible feature object in the apparatus for automatically recognizing a local area through focusing on the user's perimeter according to an embodiment of the present invention.
FIG. 7 is a diagram schematically illustrating a configuration of an automatic local area recognition system including an automatic local area information recognizing apparatus according to an embodiment of the present invention. Referring to FIG.
8 is a diagram schematically illustrating a structure of an outdoor MR model applied to an automatic local area information recognition system according to an embodiment of the present invention.
FIG. 9 is a view for explaining an R-tree structure, which is a storage structure of object information in the automatic area recognition apparatus according to an embodiment of the present invention.
10 is a diagram illustrating an example of searching POI information about a local information requesting object in the automatic local area information recognizing apparatus according to an embodiment of the present invention.
11 is a diagram illustrating an example of search information provided by the automatic area recognition apparatus according to an embodiment of the present invention.
12 is a diagram illustrating another example of search information provided by the automatic area recognition apparatus according to an embodiment of the present invention.
FIG. 13 is a diagram illustrating another example of search information provided by the automatic area recognition apparatus according to an embodiment of the present invention.
FIG. 14 is a diagram for explaining an example in which the determination of whether or not an error exists in the location information of the user terminal, which is obtained by the automatic local area information recognizing apparatus according to an embodiment of the present invention, is manually performed by a user's judgment.
FIG. 15 is a diagram illustrating an example of manually changing the location information of a user terminal in a device for automatically recognizing local information according to an embodiment of the present invention by user input.
16 is a diagram for explaining an example in which the apparatus determines whether or not an error exists in the location information of the user terminal acquired by the automatic local area information recognizing apparatus according to an embodiment of the present invention.
17 and 18 are views for explaining correction of location information of a user terminal in an automatic local area information recognizing apparatus according to an embodiment of the present invention.
FIG. 19 is a flowchart illustrating a method of automatically recognizing a local area through focusing on a user using an automatic local area information recognizing apparatus according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. It should be understood, however, that the present invention may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, the same reference numbers are used throughout the specification to refer to the same or like parts.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when an element is referred to as being "connected" to another element, it is intended to be understood that it is not only "directly connected" but also "electrically connected" or "indirectly connected" "Is included.

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.It will be appreciated that throughout the specification it will be understood that when a member is located on another member "top", "top", "under", "bottom" But also the case where there is another member between the two members as well as the case where they are in contact with each other.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when an element is referred to as "including " an element, it is understood that the element may include other elements as well, without departing from the other elements unless specifically stated otherwise.

도 2는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치의 개략적인 구성을 나타낸 도면이다. 이하에서는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치(10)를 설명의 편의상 본 장치(10)라 하기로 한다.FIG. 2 is a diagram illustrating a schematic configuration of an apparatus for automatically recognizing a local area through focusing on a user's perimeter according to an embodiment of the present invention. Hereinafter, an apparatus 10 for automatically recognizing a local area through focusing around the user according to an embodiment of the present invention will be referred to as the apparatus 10 for convenience of explanation.

도 2를 참조하면, 본 장치(10)는 추출부(11), 선별부(12) 및 인식부(13)를 포함할 수 있다. 또한, 본 장치(10)는 디스플레이 제어부(14) 및 객체 저장부(15)를 포함할 수 있다. 2, the apparatus 10 may include an extracting unit 11, a sorting unit 12, and a recognizing unit 13. In addition, the present apparatus 10 may include a display control unit 14 and an object storage unit 15.

본 장치(10)는 사용자 단말(1)에 포함(또는 설치, 내장, 구비)되는 장치일 수 있다.The present apparatus 10 may be a device included (or installed, embedded, or included) in the user terminal 1.

여기서, 사용자 단말(1)은 휴대성과 이동성이 보장되는 이동 통신 장치로서, 예를 들면, PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(WCode Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC, 노트북, 웨어러블 디바이스 등과 같은 모든 종류의 무선 통신 장치를 포함할 수 있다.Here, the user terminal 1 is a mobile communication device that is guaranteed to be portable and mobility, for example, a Personal Communication System (PCS), a Global System for Mobile communication (GSM), a Personal Digital Cellular (PDC) System, a PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication) -2000, Code Division Multiple Access (CDMA) -2000, W-CDMA (WCode Division Multiple Access), Wibro (Wireless Broadband Internet) Smartphones, smart pads, tablet PCs, notebooks, wearable devices, and the like.

추출부(11)는 사용자 단말(1)로부터 획득된 위치 정보 및 방향 정보를 기반으로, 본 장치(10)의 객체 저장부(15)에 저장된 지형지물 객체들 중 사용자 단말(1)에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출할 수 있다.The extraction unit 11 visually extracts the feature objects stored in the object storage unit 15 of the device 10 from the user terminal 1 based on the location information and the direction information obtained from the user terminal 1. [ The candidate feature object objects corresponding to the search area set to be displayed can be extracted.

검색 영역은 사용자 단말(1)에 포함된 복수의 센서를 이용해 획득된 정보에 기초하여 설정될 수 있다. 검색 영역은 일예로 사용자의 시야와 유사한 영역을 갖도록 설정될 수 있다. 이는 도 3을 참조하여 보다 쉽게 이해될 수 있다.The search area can be set based on the information obtained using the plurality of sensors included in the user terminal 1. [ The search area may be set to have an area similar to the user ' s view. This can be more easily understood with reference to FIG.

도 3은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 설정 가능한 검색 영역을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a search area that can be set in the automatic area recognition apparatus through focusing on the user's perimeter according to an embodiment of the present invention.

도 3을 참조하면, 검색 영역(s)은 사용자 단말(1)에 포함된 위치센서(위치획득센서)로부터 획득된 사용자 단말(1)의 위치 정보, 및 사용자 단말(1)에 포함된 자이로센서, 가속계, 자력계, 나침반(전자나침반) 중 적어도 하나로부터 획득된 사용자 단말(1)이 바라보고 있는 방향 정보를 고려하여 설정될 수 있다. 여기서, 방향 정보는 특히 사용자 단말(1)에 포함된 이미지센서(1a)가 바라보고 있는 방향에 관한 정보를 의미할 수 있으며, 방위각 정보라 달리 표현될 수 있다. 또한, 위치센서는 일예로 GPS 센서를 의미할 수 있으며, 이에 한정되는 것은 아니다. 또한, 이미지센서(1a)는 카메라, 이미지획득장치, 영상촬영장치 등으로 달리 표현될 수 있다.3, the search area s includes the position information of the user terminal 1 acquired from the position sensor (position acquisition sensor) included in the user terminal 1, and the position information of the user terminal 1 acquired from the gyro sensor , The accelerometer, the magnetometer, and the compass (electronic compass). Here, the direction information may particularly refer to information about a direction in which the image sensor 1a included in the user terminal 1 is looking, and may be expressed by azimuth information. Also, the position sensor may be, for example, a GPS sensor, but is not limited thereto. Further, the image sensor 1a may be represented by a camera, an image acquiring device, a photographing device, or the like.

또한, 검색 영역(s)은 사용자 단말(1)에 포함된 이미지센서(1a)의 렌즈의 초점거리(d)와 이미지센서(1a)의 가로 길이(

Figure pat00001
)를 이용하여 획득 가능한 이미지센서(1a)의 시야각(α), 및 인식거리를 더 고려하여 설정될 수 있다. 여기서, 시야각 α는 2*atan(
Figure pat00002
/2d)의 조건을 만족할 수 있다. 여기서, 인식거리는 미리 설정된 거리로 설정될 수 있다. 예시적으로, 인식거리는 사용자의 시야를 고려하여 미리 설정된 거리로서 사용자 단말(1)의 위치로부터 일예로 200m 이내의 거리로 설정될 수 있으며, 이에 한정되는 것은 아니다.In addition, the search area s may be determined based on the focal length d of the lens of the image sensor 1a included in the user terminal 1 and the width of the image sensor 1a
Figure pat00001
, The viewing angle alpha of the image sensor 1a obtainable using the angle?, And the recognition distance. Here, the viewing angle alpha is 2 * atan (
Figure pat00002
/ 2d) can be satisfied. Here, the recognition distance may be set to a predetermined distance. Illustratively, the recognition distance may be set to a predetermined distance in consideration of the user's view, for example, within a distance of 200 m from the position of the user terminal 1, but is not limited thereto.

이처럼, 검색 영역(s)은 사용자 단말(1)의 위치 정보, 방향(방위각) 정보, 시야각, 및 인식거리를 고려하여 설정될 수 있다. As described above, the search area s can be set in consideration of the position information, the direction (azimuth) information, the viewing angle, and the recognition distance of the user terminal 1.

도 4는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 사용자 단말(1)에 시각적으로 표출되는 검색 영역(s)의 예를 나타낸 도면이다.FIG. 4 is a diagram illustrating an example of a search area s visually displayed in the user terminal 1 in the automatic local area recognition device through user's peripheral focusing according to an embodiment of the present invention.

도 4를 참조하면, 검색 영역(s)은 사용자 단말(1)의 화면 상에 시각적으로 표출되는 영역을 의미할 수 있으며, 촬영 영역, 사용자 단말(1)의 이미지센서를 통해 인식 가능한 인식 영역 등으로 달리 표현될 수 있다.Referring to FIG. 4, the search area s may be an area that is visually displayed on the screen of the user terminal 1 and may include a photographing area, a recognition area recognizable through the image sensor of the user terminal 1, . ≪ / RTI >

예시적으로, 사용자가 특정 지형지물 객체의 정보를 알고자하는 경우, 사용자 단말(1)에 시각적으로 표출되도록 설정된 검색 영역 내에 알고자하는 특정 지형지물 객체가 디스플레이되도록, 사용자는 사용자 단말(1)로 알고자하는 특정 지형지물 객체를 포커싱할 수 있다.Illustratively, when a user wishes to know information of a specific feature object, the user may select a particular feature object to be displayed in the search area set to be visually displayed on the user terminal 1, You can focus on a specific feature object you want to know.

이때, 추출부(11)는 객체 저장부(15)에 저장된 지형지물 객체들 중 사용자 단말(1)에 시각적으로 표출되도록 설정된 검색 영역(s)에 대응하는 후보 지형지물 객체들을 추출할 수 있다. 달리 표현하여, 추출부(11)는 객체 저장부(15)에 저장된 지형지물 객체들 중 검색 영역(s) 내에 위치한 지형지물 객체들을 후보 지형지물 객체들로서 추출할 수 있다.The extracting unit 11 may extract candidate feature objects corresponding to the search region s set to be visually displayed on the user terminal 1 among the feature objects stored in the object storage unit 15. [ Alternatively, the extracting unit 11 may extract the feature objects located in the search region s among the feature objects stored in the object storage unit 15 as candidate feature objects.

객체 저장부(15)는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 수 있다. 여기서, 객체 정보에는 지형지물 객체의 키워드 및 위상 정보가 포함될 수 있다. 또한, 지형지물 객체는 움직이지 않는 고정된 객체로서, 예시적으로 건물, 빌딩, 다리, 육교, 게시판, 대형 표지판, 기념비 등의 구조물을 의미할 수 있으며, 이에 한정되는 것은 아니다. 이하에서는 설명의 편의상 지형지물 객체가 건물을 의미하는 것으로 예를 들어 설명하기로 한다.The object storage unit 15 may store information on the location and shape of the feature objects as object information. Here, the object information may include the keyword and the phase information of the feature object. In addition, the feature object is a fixed object that does not move, and can be, for example, a structure such as a building, a building, a bridge, a bridge, a bulletin board, a large sign, a monument, and the like. Hereinafter, for convenience of description, the feature object refers to a building, for example.

일예로, 객체 저장부(15)에는 지형지물 객체들의 형상에 관한 정보가 MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다. 다른 일예로, 객체 저장부(15)에는 지형지물 객체들의 형상에 관한 정보가 MAR(Minimum Area Rectangle) 형태로 저장될 수 있다. 여기서, MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태를 의미할 수 있다. 보다 구체적인 설명은 도 5를 참조하여 보다 쉽게 이해될 수 있다.For example, in the object storage unit 15, information on the shape of the feature objects may be stored in the form of a Minimum Bounding Rectangle (MBR). In another example, the object storage unit 15 may store information on the shape of the feature objects in a MAR (Minimum Area Rectangle) format. Here, the MAR form is a minimum area of all cases in which the MBR is formed based on the local axis including the line connecting two adjacent vertexes among the vertexes included in the contour of the feature object included in the digital map May refer to a form corresponding to the case. A more detailed description can be more easily understood with reference to Fig.

도 5는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 고려되는 MBR 형태(a)와 MAR 형태(b)를 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining an MBR type (a) and a MAR type (b) considered in an automatic local area recognition apparatus through user's peripheral focusing according to an embodiment of the present invention.

도 5를 참조하면, 지형지물 객체들(예를 들어, 건물들)은 복수의 꼭짓점으로 이루어져 있으므로, 지형지물 객체에 대한 객체 정보의 사용이 보다 용이하도록, 객체 저장부(15)는 일예로 지형지물 객체들의 형상에 관한 정보를 MBR(Minimum Bounding Rectangle) 형태로 저장할 수 있다. 여기서, MBR 형태는 지형지물 객체의 모든 꼭짓점을 포함할 수 있는 최소 크기를 갖는 사각형(최소 경계 사각형) 형태를 의미할 수 있다.Referring to FIG. 5, since the feature objects (e.g., buildings) are composed of a plurality of vertexes, the object storage unit 15 may be, for example, Information about the shape of water objects can be stored in the form of a Minimum Bounding Rectangle (MBR). Here, the MBR type may mean a rectangle (minimum bounding rectangle) having a minimum size that can include all vertexes of the feature object.

이때, 지형지물 객체들의 형상에 관한 정보가 MBR 형태로 저장되는 경우 빈 공간이 많이 발생하게 된다. 따라서, 추출부(11)에서의 후보 지형지물 객체들의 추출시 MBR 형태로 저장된 지형지물 객체들의 정보가 이용되는 경우, 실제 건물의 영역과 겹치지는 않지만 MBR 영역이 겹치게 되어 지형지물 객체에 대한 정확한 탐색이 이루어지지 못할 수 있다. 즉, 도 5에 (a)와 같이 지형지물 객체들의 형상에 관한 정보가 MBR 형태로 저장되는 경우, 예시적으로 건물B의 탐색 시 검색영역에 위치한 건물이 함께 탐색되는 등 건물B에 대한 탐색 정확성이 떨어질 수 있다.In this case, when the information about the shape of the feature objects is stored in the MBR format, a lot of empty space is generated. Therefore, when the information of the feature objects stored in the MBR format is used in extracting the candidate feature objects in the extraction unit 11, the MBR regions do not overlap with the actual building regions, May not be achieved. That is, when the information about the shape of the feature objects is stored in the form of MBR as shown in FIG. 5 (a), for example, the buildings located in the search area during the search for the building B are searched together, Can fall.

따라서, 객체 저장부(15)에는 지형지물 객체들의 형상에 관한 정보가 MBR의 변형 형태인 MAR 형태로 저장됨이 바람직할 수 있다. MAR 형태는 MBR 형태 중에서도 지형지물 객체의 모든 꼭짓점을 포함할 수 있는 최소 면적을 갖는 사각형(최소 면적 사각형) 형태를 의미할 수 있다Therefore, in the object storage unit 15, it may be preferable that the information on the shape of the feature objects is stored in the MAR format, which is a modification of the MBR. The MAR type may mean a rectangle (minimum area rectangle) shape having a minimum area that can include all the vertexes of the feature object among the MBR shapes

MAR은 다음의 과정을 통해 구할 수 있다. MAR을 구하기 위해서는, 먼저 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 인접한 두 꼭짓점 사이의 각도를 구하고, x축 또는 y축에 맞게 회전시킨 후 MBR의 면적(넓이)을 구할 수 있다. 다음으로, 순서에 상관없이 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 인접한 꼭짓점의 모든 경우에 대하여 MBR의 면적을 구하고, 그 중 최소 면적을 갖는 경우의 MBR을 구할 수 있다. 다음으로, 최소 면적을 갖는 MBR을 다시 회전시킨 만큼 역회전시킴으로써, MAR를 구할 수 있다.MAR can be obtained through the following process. To obtain the MAR, the angle between the two vertexes of the vertexes included in the contour of the feature object is first obtained, and the area (width) of the MBR can be obtained by rotating the x-axis or the y-axis. Next, the MBR is obtained for all cases of adjacent vertexes among the vertexes included in the contour of the feature object irrespective of the order, and the MBR of the case having the smallest area is obtained. Next, the MAR can be obtained by rotating the MBR having the minimum area by the rotation of the MBR again.

이처럼, 도 5에 (b)와 같이 지형지물 객체들의 형상에 관한 정보가 MAR 형태로 저장되는 경우, MBR과 대비하여 빈 공간을 없앨 수 있어 MBR 대비 보다 정확한 지형지물 객체에 대한 탐색이 이루어지도록 할 수 있다.As shown in FIG. 5 (b), when the information about the shape of the feature objects is stored in the MAR format, the empty space can be eliminated as compared with the MBR, so that the search for the feature object is performed more accurately than the MBR .

본 장치(10)는 사용자 단말(1)로부터 위치 정보 및 방향 정보가 획득되면, 일예로 사용자 단말(1)의 위치로부터 미리 설정된 거리 범위 내에 위치하는 지형지물 객체들의 위치와 형상에 관한 정보를 서버로부터 획득하고, 획득된 지형지물 객체들의 형상에 관한 정보를 일예로 MAR 형태로 객체 저장부(15)에 저장해 둘 수 있다. 여기서, 미리 설정된 거리 범위는 예시적으로 사용자 단말(1)의 위치로부터 500m 이내의 범위를 의미할 수 있으며, 이에 한정되는 것은 아니고, 다양하게 설정될 수 있다.When the location information and the direction information are obtained from the user terminal 1, the apparatus 10 transmits information on the location and shape of the feature objects located within a predetermined distance range from the location of the user terminal 1, And store information about the shape of the obtained feature objects in the object storage unit 15 in the form of a MAR, for example. Here, the predetermined distance range may mean a range within 500 m from the position of the user terminal 1 by way of example, but not limited thereto, and may be variously set.

이에 따르면, 서버에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보로서 저장되어 있을 수 있으며, 본 장치(10)의 객체 저장부(15)는 서버에 저장된 객체 정보들 중 일부의 정보(예를 들어, 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 지형지물 객체들의 위치와 형상에 관한 정보)를 서버로부터 획득하여 저장해 둘 수 있다.According to this, the server may store information on the position and shape of all the feature object objects as object information, and the object storage unit 15 of the present device 10 may store information Information about the position and shape of the feature objects located within a predetermined distance range from the position of the user terminal, for example) can be obtained from the server and stored.

객체 저장부(15)는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 때, 해당 객체 정보에 대응하는 관심지점(POI, Point of Interest) 정보를 함께 연계하여 저장해 둘 수 있다. 여기서, 관심지점 정보는 서버로부터 획득될 수 있다. 이에 따르면, 서버의 데이터베이스에는 일예로 R-tree 구조로 구축된 객체 정보(지형지물 객체들의 위치와 형상에 관한 정보)와 그에 대응하는 관심지점 정보가 함께 연계(맵핑)되어 저장되어 있을 수 있다. 이에 대한 보다 상세한 설명은 후술하여 설명하기로 한다.The object storage unit 15 may store information related to the location and shape of the feature objects as object information, in association with points of interest (POI) information corresponding to the object information. Here, the point of interest information can be obtained from the server. According to this, the database of the server may have object information (information on the position and shape of the feature objects) constructed in the R-tree structure as an example and information of the corresponding point of interest (mapping). A more detailed description thereof will be described later.

선별부(12)는 추출부(11)에서 추출된 후보 지형지물 객체들 중 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다. 이는 도 6을 참조하여 보다 쉽게 이해될 수 있다.The selector 12 can select the visible feature objects visually recognizable within the search area s among the candidate feature objects extracted by the extractor 11. [ This can be more easily understood with reference to FIG.

도 6은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 가시 지형지물 객체를 선별하는 과정을 설명하기 위한 도면이다. 다시 말해, 도 6은 검색 영역(s) 내에서 가시 지형지물 객체에 대한 선별을 위해 탐색 대상 범위를 재설정하는 과정(달리 말해, 가시 지형지물 객체에 대한 탐색 알고리즘)을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining a process of selecting a visible feature object in the apparatus for automatically recognizing a local area through focusing on the user's perimeter according to an embodiment of the present invention. In other words, FIG. 6 is a diagram for explaining a process of resetting a search target range for selection of a visible feature object in the search area s (in other words, a search algorithm for a visible feature object).

도 6에서 (a) 및 (b)를 참조하면, 예시적으로 추출부(11)에 의해 추출된 검색 영역(s)에 대응하는 후보 지형지물 객체에는 제1 후보 지형지물 객체(O1, Object 1), 제2 후보 지형지물 객체(O2, Object 2), 및 제3 후보 지형지물 객체(O3, Object 3)가 포함될 수 있다.Referring to FIGS. 6A and 6B, a candidate feature object corresponding to the search region s extracted by the extraction unit 11 is assigned to a first candidate feature object O1, Object 1 , A second candidate feature object O2, Object 2, and a third candidate feature object O3, Object 3 may be included.

선별부(12)는 후보 지형지물 객체들(O1, O2, O3) 중 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체들(O1, O2)을 선별할 수 있다. The selector 12 can select the visible feature objects O1 and O2 visually recognizable within the search area s among the candidate feature objects O1, O2 and O3.

이때, 선별부(12)는 검색 영역(s) 내에서 사용자 단말(1)의 위치 정보에 대응하는 위치(즉, 사용자 단말의 위치, pos)에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 검색 영역(s) 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다. At this time, the selector 12 sequentially searches the candidate feature object objects in the order of the position corresponding to the position information of the user terminal 1 (i.e., the position of the user terminal, pos) in the search area s The visible feature object is selected, and the width area occupied by the selected visual feature object in the search area (s) can be excluded from the search range from the next search.

여기서, 선별된 가시 지형지물 객체에 대응하는 폭 영역은 객체 저장부에 저장된 객체 정보(즉, 지형지물 객체들의 위치와 형상에 관한 정보)를 고려하여 선별된 가시 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역을 의미할 수 있다.Here, the width area corresponding to the selected visible feature object is displayed by projecting the selected visible feature object into the search area in consideration of the object information stored in the object storage unit (i.e., information on the position and shape of the feature objects) Quot; area " corresponding to the object width appearing in the state.

다시 말해, 선별부(12)는 먼저 검색 영역(s) 전체를 제1 탐색 대상 범위(s)로 하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 이때, 선별부(12)는 제1 탐색 대상 범위(s) 내에 위치한 후보 지형지물 객체들(O1, O2, O3) 중 사용자 단말의 위치(pos)에 가장 가까이 위치하는 후보 지형지물 객체(O1)를 일예로 제1 가시 지형지물 객체로서 선별할 수 있다.In other words, the selector 12 may first search for the selection of the visible feature object by setting the entire search area s as the first search object range s. At this time, the selector 12 selects the candidate feature object O1 closest to the position pos of the user terminal among the candidate feature objects O1, O2, and O3 located in the first search target range s. For example, as the first visible feature object.

제1 탐색 대상 범위(s)에서 제1 가시 지형지물 객체(O1)에 대한 선별이 이루어진 이후, 선별부(12)는 선별된 제1 가시 지형지물 객체(O1)가 검색 영역(s) 내에서 차지하는 폭 영역을 탐색 대상 범위에서 제외하고, 제1 가시 지형지물 객체(O1)가 차지하는 폭 영역이 제외된 탐색 대상 범위에 대하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 즉, 선별부(12)는 제1 탐색 대상 범위(s)에서 제1 가시 지형지물 객체(O1)에 대한 선별이 이루어진 이후, 탐색 대상 범위를 재설정할 수 있다. 이때, 재설정된 탐색 대상 범위(즉, 제2 탐색 대상 범위, s1)는 검색 영역(s) 전체에 대응하는 제1 탐색 대상 범위(s) 중 선별된 제1 가시 지형지물 객체(O1)가 검색 영역(s) 내에서 차지하는 폭 영역이 제외된 영역(s1)을 의미할 수 있다. After the selection of the first visible feature object O1 in the first search object range s is made, the selector 12 selects the first visible feature object O1 in the search area s It is possible to perform a search for selection of a visible feature object with respect to a search target range excluding the width area occupied by the first visible feature object O1 and excluding the width area occupied by the first visible feature object O1. That is, the selector 12 can reset the search target range after the first visible feature object O1 is selected in the first search target range s. At this time, the reset search target range (i.e., the second search target range, s1) is set such that the selected first visible feature object O1 among the first search target ranges s corresponding to the entire search region s is searched And may mean an area s1 excluding a width area occupied in the area s.

이에 따르면, 선별부(12)는 제1 가시 지형지물 객체(O1)에 대한 선별이 이루어진 이후, 제2 탐색 대상 범위(s1)에 대하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 제2 탐색 대상 범위(s1)에 대한 탐색 결과, 선별부(12)는 제2 탐색 대상 범위(s1) 내에 위치한 후보 지형지물 객체들(O3) 중 사용자 단말의 위치(pos)에 가장 가까이 위치하는 후보 지형지물 객체(O3)를 일예로 제2 가시 지형지물 객체로서 선별할 수 있다.Accordingly, after the selection of the first visible feature object O1 is performed, the selector 12 can perform a search for selection of the visible feature object with respect to the second search object range s1. As a result of the search for the second search target range s1, the selector 12 selects the candidate feature objects O3 located in the second search target range s1 closest to the position pos of the user terminal The candidate feature object O3 can be selected as the second visible feature object as an example.

이후 선별부(12)는 제2 탐색 대상 범위(s1) 중 선별된 제2 가시 지형지물 객체(O3)가 검색 영역(s) 내에서 차지하는 폭 영역을 탐색 대상 범위에서 제외하고, 제3 가시 지형지물 객체(O3)가 차지하는 폭 영역이 제외된 탐색 대상 범위에 대하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 이에 따르면, 선별부(12)는 일예로 도 6의 (a)와 같이 검색 영역(s)이 설정되어 있는 경우, 가시 지형지물 객체의 선별을 위한 탐색을 3회 수행할 수 있다.The selection unit 12 then excludes a width area occupied by the selected second visible feature object O3 in the search area s in the second search object range s1 from the search object range, It is possible to perform a search for selection of the visible feature object for the search object range excluding the width area occupied by the water object O3. In this case, if the search area s is set as shown in (a) of FIG. 6, for example, the selector 12 can perform a search for selection of a visible feature object object three times.

도 6의 (a)와 같은 상황인 경우, 선별부(12)는 3회의 탐색을 통해 후보 지형지물 객체들(O1, O2, O3) 중 제1 후보 지형지물 객체(O1)와 제3 후보 지형지물 객체(O3)를 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체로서 선별할 수 있다. 이때, 제2 후보 지형지물 객체(O2)는 사용자 단말의 위치(pos)에서 보았을 때 제1 후보 지형지물 객체(O1)에 의해 가려져 보이지 않는 객체이므로, 선별부(12)는 제2 후보 지형지물 객체(O2)를 가시 지형지물 객체로서 선별하지 않게 된다.6 (a), the selector 12 searches the first candidate feature object O1 and the third candidate feature object O1 among the candidate feature objects O1, O2, and O3 through three searches, The water object O3 can be selected as a visible feature object visually recognizable in the search area s. Since the second candidate feature object O2 is an invisible object hidden by the first candidate feature object O1 when viewed from the position pos of the user terminal, the selector 12 selects the second candidate feature object O2, The object O2 is not selected as the visible feature object.

선별부(12)에 의한 가시 지형지물 객체들의 선별 과정을 다시 설명하면 다음과 같다. 도 6의 (b)에는 일예로 검색 영역(s) 내에 제1 후보 지형지물 객체(O1)로서 건물이 위치한 경우의 예가 도시되어 있다. The selection process of the visible feature objects by the selector 12 will be described again. FIG. 6B shows an example in which a building is located as a first candidate feature object O1 in the search area s.

도 6에서 (c)를 참조하면, 추출부(11)에 의해 후보 지형지물 객체들의 추출이 이루어진 이후, 선별부(12)는 추출된 후보 지형지물 객체들 중 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다. 이때, 선별부(12)는 앞에 있는 지형지물 객체(예를 들어, 건물)에 의해 가려져 보이지 않는 지형지물 객체는 인식하지 않도록 하기 위해, 다음과 같은 탐색 알고리즘을 사용하여 가시 지형지물 객체들을 선별할 수 있다.6 (c), after the extraction of the candidate feature object objects by the extraction unit 11, the selector 12 selects the visible feature objects that are visually recognizable among the extracted candidate feature objects Can be selected. At this time, the selector 12 selects the visible feature objects using the following search algorithm so as not to recognize the feature objects that are hidden by the preceding feature object (e.g., building) .

선별부(12)는 우선 검색 영역(s)에 위치한 후보 지형지물 객체들 중 사용자 단말의 위치(pos)에 가까운 후보 지형지물 객체 순으로 가시 지형지물 객체에 대한 탐색을 수행할 수 있다. 탐색에 의해 하나의 가시 지형지물 객체에 대한 선별이 이루어지면, 이후 선별부(12)는 사용자 단말의 위치(pos)에 가장 가까운 후보 지형지물 객체가 차지하는 부분(즉, 가시 지형지물 객체가 검색 영역 내에서 차지하는 폭 영역)을 제외한 나머지 부분을 다시 탐색 대상 영역으로 재설정하는 과정 및 재설정된 탐색 대상 영역에서의 가시 지형지물 객체에 대한 탐색 과정을 반복 수행할 수 있다.The selector 12 can search for the visible feature object in the order of the candidate feature objects close to the position pos of the user terminal among the candidate feature object objects located in the search area s. If a selection is made for one visible feature object by searching, the selector 12 selects a portion of the candidate feature object closest to the pos of the user terminal (i.e., And a search process for a visible feature object in the re-search target area can be repeatedly performed.

선별부(12)는 검색 영역(s) 내에 포함된 후보 지형지물 객체들 중 가시 지형지물 객체들에 대한 선별이 모두 이루어질 때까지 탐색 대상 영역의 재설정 과정 및 재설정된 탐색 대상 영역에 대한 탐색 과정을 반복 수행할 수 있다.The selecting unit 12 performs a process of resetting the search target area and a search process of the re-set search target area until all of the candidate feature objects among the candidate feature objects included in the search area s are selected Repeat can be done.

구체적인 예로, 검색 영역(s)이 (pos,

Figure pat00003
, r)로 이루어져 있다고 하자. 산출부(12)는 검색 영역(s)을 탐색 대상 영역으로 하여 가시 지형지물 객체에 대한 1차 탐색을 수행함으로써, 탐색 대상 영역 내에 위치한 제1 후보 지형지물 객체(O1)를 가시 지형지물 객체로서 선별할 수 있다.As a specific example, if the search area s is ( pos ,
Figure pat00003
, r ). The calculating unit 12 performs the first search on the visible feature object using the search area s as the search target area so that the first candidate feature object O1 located in the search target area is displayed as the visible feature object Can be selected.

이때, 선별된 제1 후보 지형지물 객체(O1)에 대응하는 (a, b) 부분이 검색 영역(s) 내 시각적으로 확인 가능한 영역 중 일부 영역을 차지하고 있음을 확인할 수 있다. 달리 말해, 검색 영역(s) 중에서 선별된 가시 지형지물 객체(O1)에 대응하는 폭 영역(pos, c, d)이 일부를 차지하고 있음을 확인할 수 있다. 여기서, 선별된 가시 지형지물 객체(O1)에 대응하는 폭 영역은 객체 저장부(15)에 저장된 객체 정보를 고려하여 선별된 가시 지형지물 객체(O1)를 검색 영역(s)에 투영한 상태에서 나타나는 객체 폭(a, b)에 대응하는 영역(pos, c, d)을 의미할 수 있다.At this time, it can be confirmed that the portion (a, b) corresponding to the selected first candidate feature object O1 occupies a part of the visually recognizable region in the search region s. In other words, it can be seen that the width areas ( pos , c , d ) corresponding to the selected visible feature object O1 in the search area s occupy a part. Here, the width area corresponding to the selected visible feature object O1 is displayed in a state where the selected visible feature object O1 is projected on the search area s in consideration of the object information stored in the object storage unit 15 May refer to regions ( pos , c , d ) corresponding to the appearing object widths ( a , b ).

선별부(12)는 1차 탐색을 수행하여 하나의 가시 지형지물 객체에 대한 선별이 이루어지면, 이후 1차 탐색이 이루어진 검색 영역(s)에 대응하는 탐색 대상 영역 중 선별된 가시 지형지물 객체(O1)에 대응하는 폭 영역(pos, c, d)을 제외한 나머지 영역을 2차 탐색을 위한 탐색 대상 영역으로서 재설정하고, 재설정된 탐색 대상 영역에 대하여 가시 지형지물 객체에 대한 2차 탐색을 수행할 수 있다. 여기서, 2차 탐색 대상이 되는 탐색 대상 영역, 즉 재설정된 탐색 대상 영역에는 (pos,

Figure pat00004
, c) 영역과 (pos, d, r) 영역이 포함될 수 있다.The selection unit 12 performs a primary search to select one visible feature object, and then selects one of the selected visible feature objects among the search target areas corresponding to the search area s subjected to the primary search resetting the corresponding width region (pos, c, d) with the exception of the area that the O1) as a search target area for the second search, and to perform a second search for the visible feature object with respect to the reset search target area . Here, in the search target area that is the secondary search target, that is, the reset search target area, ( pos ,
Figure pat00004
, c ) region and ( pos , d , r ) region may be included.

탐색 알고리즘에 대하여 다시 설명하면 다음과 같다. 선별부(12)는 가시 지형지물 객체에 대한 선별을 위해 탐색 알고리즘을 수행할 수 있다. 탐색 알고리즘에서는 선분 (

Figure pat00005
, r)이 재귀(Recursion) 인자로 설정되고, Recursion(
Figure pat00006
, r)에서 검색 영역(s)의 좌표를 인자로 제공할 수 있다. 이를 통해, 선별부(12)는 탐색 알고리즘을 통해 검색 영역(s)에 대하여 건물들의 포함 관계를 판단할 수 있다.The search algorithm will be described as follows. The selection unit 12 may perform a search algorithm for selection of a visible feature object. In the search algorithm,
Figure pat00005
, r ) is set as the recursion factor, and Recursion (
Figure pat00006
, r ) of the search area s as a factor. Accordingly, the selector 12 can determine the inclusion relation of the buildings with respect to the search area s through the search algorithm.

이때, 탐색 알고리즘의 경우, 검색 영역(s)에 대하여 건물이 완전히 포함되거나 건물이 부분 포함된 경우, Recursion(

Figure pat00007
,c)과 Recursion(d,r)이 수행될 수 있다. 또한, 검색 영역(s)에 대하여 건물이 포함되지 않은 경우, 일예로 본 장치(10)의 디스플레이 제어부(14)는 건물이 포함된 영역에 대하여 재촬영(재인식)이 이루어지도록 하기 위한 알림을 사용자 단말(1)로 제공할 수 있다. 또한, 검색 영역(s)에 대하여 건물이 검색 영역(s)보다 큰 경우, 해당 건물이 가시 지형지물 객체로서 탐색된 이후 탐색 알고리즘이 종료될 수 있다.At this time, in the case of the search algorithm, if the building is completely included in the search area (s) or the building is partially included,
Figure pat00007
, c ) and Recursion ( d , r ) can be performed. When the building is not included in the search area s, for example, the display control unit 14 of the present device 10 notifies the user that the area including the building should be re-photographed (re- And can provide it to the terminal 1. Also, when the building is larger than the search area s with respect to the search area s, the search algorithm may be terminated after the building is searched as a visible feature object.

이와 같은 탐색 알고리즘을 이용하여, 선별부(12)는 후보 지형지물 객체들 중에서 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다. Using the search algorithm, the selector 12 can select the visible feature objects visually recognizable within the search area s among the candidate feature objects.

인식부(13)는 선별부(12)에서 선별된 가시 지형지물 객체들 중 검색 영역(s)의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상(달리 말해, 사용자가 검색하고자 하는 검색 대상 객체)으로 인식할 수 있다.The recognizing unit 13 searches the visible feature information object located closest to the center of the search area s among the visible feature information objects selected by the selector 12 to a local information request object (in other words, Object to be searched).

사용자가 관심 대상(예를 들어, 특정 지형지물 객체)에 관한 정보를 알고자 하는 경우, 관심 대상을 화면(사용자 단말 상에 표시되는 영상 표시 화면)의 중심에 위치하도록 포커싱하는 것이 일반적이므로, 이러한 점을 고려하여, 인식부(13)는 가시 지형지물 객체들 중 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식할 수 있다. 이에 따르면, 본원은 사용자 단말(1)을 이용한 주변 건물의 포커싱을 통해 사용자가 직접 원하는 건물(검색 대상 객체)을 선택할 수 있도록 하는 편의성을 제공할 수 있다.When a user wants to know information about a target of interest (for example, a specific feature object), it is common to focus the interest to be positioned at the center of the screen (the image display screen displayed on the user terminal) The recognition unit 13 can recognize the visible feature object that is located closest to the center of the search area among the visible feature objects as the area information request object. According to the present invention, the present invention can provide a convenience of allowing a user to directly select a desired building (object to be searched) through focusing of a nearby building using the user terminal 1. [

일예로, 도 6의 (a)와 같은 상황인 경우, 인식부(13)는 선별부(12)에서 선별된 가시 지형지물 객체들(O1, O3) 중 검색 영역(S)의 중심에 가장 가깝게 위치하는 가시 지형지물 객체(O3)를 지역 정보 요청 대상으로 인식할 수 있다.6 (a), the recognition unit 13 selects the visible feature objects O1 and O3 closest to the center of the search region S among the visible feature objects O1 and O3 selected by the selector 12 It is possible to recognize the visible feature object O3 located as a target of the local information request.

후술하는 설명에서는 인식부(13)에서 인식하는 지역 정보 요청 대상을 검색 대상 객체라 달리 표현할 수 있다.In the following description, the local information request target recognized by the recognition unit 13 may be represented by a search target object.

본원의 일예에서는 인식부(13)가 선별된 가시 지형지물 객체들 중 검색 영역의 중심에 가장 가까이 위치하는 가시 지형지물 객체를 지역 정보 요청 대상(검색 대상 객체)으로 인식하는 것으로 예시하였으나, 이에 한정되는 것은 아니다. In the embodiment of the present invention, the recognizing unit 13 recognizes the visible feature object located closest to the center of the search area among the selected visible feature objects as a local information request object (search object) It is not.

다른 일예로, 본원에서 디스플레이 제어부(14)는 사용자 단말(1)의 화면의 중심에 중심 식별 마크가 표시되도록 할 수 있다. 이후, 사용자는 사용자 단말(1)의 화면 상에 표시된 중심 식별 마크가 실생활환경에서 검색하고자 하는 지형지물 객체(즉, 검색 대상 객체로서 예를 들어, 건물을 의미함) 상에 위치하여 표시되도록, 사용자 단말의 이미지센서로 검색하고자 하는 지형지물 객체를 비출 수 있다. 이때, 인식부(13)는 사용자 단말에 표시되는 지형지물 객체들 중 중심 식별 마크에 대응하는 지형지물 객체를 지역 정보 요청 대상(검색 대상 객체)로 인식할 수 있다. 이러한 본원의 다른 일예에 의하면, 중심 식별 마크를 이용해 검색 대상 객체를 보다 용이하게 인식(식별)할 수 있다.In another example, the display control unit 14 may display a center identification mark at the center of the screen of the user terminal 1. [ Thereafter, the user is allowed to display the center identification mark displayed on the screen of the user terminal 1 on the feature object (that is, the object to be searched, for example) The feature object to be searched by the image sensor of the user terminal can be displayed. At this time, the recognition unit 13 can recognize the feature object corresponding to the center identification mark among the feature objects displayed on the user terminal as a local information request object (search object). According to another embodiment of the present invention, the object to be searched can be more easily recognized (identified) by using the center identification mark.

디스플레이 제어부(14)는 인식부(13)에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 지역 정보 요청 대상 상에 오버레이하여 표시할 수 있다. 디스플레이 제어부(14)는 사용자 단말(1)의 화면 상에 표출되는 지역 정보 요청 대상 상에 지역 정보 요청 대상에 대응하는 관심지점 정보를 오버레이하여 표시할 수 있다. 여기서, 관심지점 정보에는 일예로 관심지점의 명칭(이름) 및 주소 중 적어도 하나가 포함될 수 있으나, 이에 한정되는 것은 아니다.The display control unit 14 can overlay POI (Point of Interest) information corresponding to the local information request object recognized by the recognition unit 13 on the local information request object. The display control unit 14 can overlay the point of interest information corresponding to the request for the local information on the local information request object displayed on the screen of the user terminal 1. Here, the point of interest information may include, for example, at least one of a name (name) and an address of a point of interest. However, the present invention is not limited thereto.

객체 저장부(15)는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 수 있다. 또한, 객체 저장부(15)는 객체 정보에 대응하는 관심지점(POI, Point of Interest) 정보를 함께 연계하여 저장할 수 있다. 여기서, 객체 저장부(15)에 저장되는 객체 정보 및 그에 대응하는 POI 정보는 서버의 데이터베이스에 저장된 객체 정보와 그에 대응하는 POI 정보 중 일부의 정보(예를 들어, 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보)일 수 있다. 이에 대한 설명은 후술하는 설명을 통해 보다 쉽게 이해될 수 있다.The object storage unit 15 may store information on the location and shape of the feature objects as object information. In addition, the object storage unit 15 may associate POI information corresponding to the object information together. Here, the object information stored in the object storage unit 15 and the corresponding POI information may include information on some of the object information stored in the database of the server and corresponding POI information (for example, Object information located within the range and corresponding POI information). The description thereof can be more easily understood through the following description.

도 7은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)를 포함하는 지역 정보 자동 인식 시스템(100)의 구성을 개략적으로 나타낸 도면이다.7 is a diagram schematically showing a configuration of an automatic local area recognition system 100 including an automatic local area recognition apparatus 10 according to an embodiment of the present invention.

도 7을 참조하면, 본원의 일 실시예에 따른 지역 정보 자동 인식 시스템(100)은 지역 정보 자동 인식 장치(본 장치, 10) 및 서버(20)를 포함할 수 있다.Referring to FIG. 7, the automatic local area recognition system 100 according to an embodiment of the present invention may include a local area automatic recognition apparatus (apparatus 10) and a server 20.

여기서, 지역 정보 자동 인식 장치(10)는 앞서 설명된 본 장치(10)를 의미할 수 있다. 따라서, 이하 생략된 내용이라 하더라도 앞서 본 장치(10)에 대하여 설명된 내용은 후술하는 본 장치(10, 지역 정보 자동 인식 장치)에 대한 설명에도 동일하게 적용될 수 있다.Here, the automatic local area recognition apparatus 10 may mean the present apparatus 10 described above. Therefore, even if the following description is omitted, the description of the apparatus 10 described above can be applied to the description of the apparatus 10 (automatic local area information recognizing apparatus) to be described later.

본 장치(10)는 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 서버(20)로 전송할 수 있다. 서버(20)의 데이터베이스에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보로서 저장되어 있을 수 있으며, 더하여 이러한 객체 정보에 대응하는 관심지점 정보가 연계(맵핑)되어 저장되어 있을 수 있다. The present apparatus 10 can transmit location information and direction information obtained from a user terminal to the server 20. [ In the database of the server 20, information on the position and shape of all the feature object objects may be stored as object information, and in addition, interest point information corresponding to the object information may be associated (mapped) and stored.

따라서, 서버(20)는 본 장치(10)로부터 사용자 단말의 위치 정보 및 방향 정보를 획득하면, 획득된 정보(위치 정보 및 방향 정보)를 기반으로 사용자 단말의 위치 정보에 대응하는 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보를 데이터베이스에서 검색할 수 있다. 이후, 서버(20)는 검색된 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보를 본 장치(10)로 전송할 수 있다.Accordingly, when the server 20 acquires the location information and the direction information of the user terminal from the apparatus 10, the server 20 sets the location information and direction information of the user terminal from the location corresponding to the location information of the user terminal Object information located within the distance range and corresponding POI information can be retrieved from the database. Thereafter, the server 20 can transmit the object information and POI information corresponding thereto, which are located within the predetermined distance range, to the present apparatus 10. [

이후, 본 장치(10)는 서버(20)로부터 수신한 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보를 본 장치(10) 내 객체 저장부(15)에 저장할 수 있다. 이후 본 장치(10)는 객체 저장부(15)에 저장된 정보에 기초하여 추출부(11)를 통한 후보 지형지물 객체의 추출, 선별부(12)를 통한 가시 지형지물 객체의 선별 및 인식부(13)를 통한 지역 정보 요청 대상에 대한 인식, 및 디스플레이 제어부(14)를 통한 POI 정보 디스플레이 과정을 수행할 수 있다. The device 10 may then store object information and POI information corresponding to the objects within the predetermined distance range received from the server 20 in the object storage unit 15 of the device 10. [ The apparatus 10 then extracts a candidate feature object through the extraction unit 11 based on the information stored in the object storage unit 15 and selects and recognizes a visible feature object through the selection unit 12 13), and displaying the POI information through the display control unit 14.

본 장치(10)와 서버(20) 간에는 네트워크(30)를 통해 연결될 수 있다.And may be connected between the present apparatus 10 and the server 20 via the network 30. [

네트워크(30)는 일예로3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함될 수 있으며, 이에 한정된 것은 아니다.The network 30 may be, for example, a 3rd Generation Partnership Project (3GPP) network, a Long Term Evolution (LTE) network, a World Interoperability for Microwave Access (WIMAX) network, (LAN), a Wide Area Network (WAN), a Personal Area Network (PAN), a Bluetooth network, an NFC (Near Field Communication) network, a satellite broadcasting network, an analog broadcasting network, a DMB (Digital Multimedia Broadcasting) But is not limited thereto.

한편, 엠비언트 브라우저(Ambient Browser)는 사용자 단말의 이미지센서로 검색을 원하는 실생활공간 상의 객체를 비추는 것만으로 그 객체의 정보를 얻을 수 있는 MR 시스템이라 할 수 있다. 이 시스템의 핵심은 검색 대상이 되는 실외 객체를 키워드 없이 특정짓는 것이라 할 수 있는데, 이러한 시스템을 구축하는데 있어서 센서/영상처리 기반의 종래 공지된 MR 연구을 활용하기 어려운 문제가 있다.On the other hand, the Ambient Browser can be regarded as an MR system that can obtain information of an object by illuminating an object in a real-life space desired to be searched by an image sensor of a user terminal. The core of this system is that the outdoor objects to be searched can be specified without keywords, and it is difficult to utilize the conventionally known MR research based on the sensor / image processing in constructing such a system.

다시 말해, 종래 MR 서비스는 앞서 설명한 바와 같이 주로 실내 공간에서의 서비스 제공을 전제로 하고 있어, 주위환경 변화가 큰 실외에서는 종래 MR 서비스를 적용하는 데에 한계가 있다.In other words, as described above, the conventional MR service is mainly based on the provision of the service in the indoor space, and thus there is a limit to applying the conventional MR service in the outdoor environment where the environmental change is large.

이에 본원에서는 본 시스템(100)을 통해, 종래와 같이 센서/영상처리 기반이 아닌, 수치지도의 실생활공간 객체 정보를 기반으로 사용자 단말의 위치 정보와 방향 정보를 이용하여 검색 대상 객체(즉, 인식부에서 인식하는 지역 정보 요청 대상)를 특정짓는 기술에 대하여 제안한다. 더하여, 본원에서는 이를 기반으로 실외 MR 서비스의 효과적인 구축을 위한 실생활공간 위치 기반의 실외 MR 모델에 대하여 제안한다. 이하 설명에서는 인식부(13)에서 인식하는 지역 정보 요청 대상을 사용자가 검색하고자 하는 대상 객체로서, 검색 대상 객체라 지칭할 수 있다.In this embodiment, the present system 100 is capable of searching for a target object (i.e., a target object) by using the position information and the direction information of the user terminal based on the real space spatial object information of the digital map, And the local information requested by the department). In addition, we propose a real space spatial location based outdoor MR model for effective construction of outdoor MR service based on this. In the following description, a local information request object recognized by the recognition unit 13 may be referred to as a search object, as a target object to be searched by the user.

즉, 본원에서는 키워드의 필요없이, 본원에서 제안하는 실외 MR 모델을 활용하여 수치지도와 POI 정보를 기반으로 검색 대상 객체(즉, 인식부에서 인식하는 지역 정보 요청 대상)의 관심지점 정보를 제공할 수 있는 실외 MR 서비스인 엠비언트 브라우저(Ambient Browser)를 구축하는 기술에 대하여 제안한다. 달리 말해, 본 장치(10)는 실외 MR 서비스 제공을 위한 엠비언트 브라우저 장치라 달리 표현될 수 있다. 본원에서 제안하는 실외 MR 모델에 대한 설명은 도 8을 참조하여 보다 쉽게 이해될 수 있다.That is, the present invention provides point of interest information of a search object (that is, a local information request object recognized by the recognition unit) on the basis of the digital map and the POI information by utilizing the outdoor MR model proposed in the present application And to develop an Ambient Browser which is an outdoor MR service. In other words, the present apparatus 10 may be expressed as an ambient browser device for providing an outdoor MR service. The description of the outdoor MR model proposed here can be more easily understood with reference to Fig.

도 8은 본원의 일 실시예에 따른 지역 정보 자동 인식 시스템(100)에 적용되는 실외 MR 모델의 구조를 개략적으로 나타낸 도면이다. 이러한 실외 MR 모델에 기초하여 관심지점 정보가 제공되는 과정에 대한 설명은 다음과 같다.FIG. 8 is a diagram schematically illustrating the structure of an outdoor MR model applied to the automatic local area information recognition system 100 according to an embodiment of the present invention. The process of providing point of interest information based on the outdoor MR model will be described below.

도 8을 참조하면, 본원에서 제안하는 실외 MR 모델은 실생활공간 레이어, 객체 저장공간 레이어, 정보 저장공간 레이어, 및 정보 표시공간 레이어로 이루어질 수 있다.Referring to FIG. 8, the outdoor MR model proposed in the present application may include a real-life spatial layer, an object storage spatial layer, an information storage spatial layer, and an information display spatial layer.

실외 MR 모델은, 수치지도에서 추출된 객체 정보를 객체 저장공간 레이어에 저장하여 이를 검색 대상 객체(검색 대상이 되는 실외 객체)를 특정짓는데 활용하고, 특정지어진 검색 대상 객체를 기반으로 정보 저장공간 레이어에서 특정지어진 검색 대상 객체와 관련된 정보(즉, POI 정보)를 검색하는 것을 특징으로 한다. 보다 상세한 설명은 다음과 같다.In the outdoor MR model, object information extracted from the digital map is stored in an object storage space layer, and is used to construct a search object (an outdoor object to be searched), and based on a specific search object, (I.e., POI information) related to the search target object that is constructed in advance. A more detailed description follows.

[실생활공간 레이어][Real space space layer]

실생활공간 레이어에 대응하는 실생활공간이라 함은 사용자가 생활하는 공간을 의미할 수 있다. 사용자는 정보 표시공간 레이어를 통하여 실생활공간에서 정보제공 서비스를 받을 수 있다. 여기서, 정보 표시공간 레이어는 사용자 단말(1) 상의 디스플레이 화면을 나타내는 것으로서, 보다 자세한 설명은 후술하여 설명하기로 한다.The real-life space corresponding to the real-life space layer may mean a space in which the user lives. The user can receive the information providing service in the real space through the information display space layer. Here, the information display space layer represents a display screen on the user terminal 1, and a detailed description will be described later.

사용자 단말(1)을 소지한 사용자가 실생활공간에서 이동하는 중에 어떤 건물(어떤 지형지물 객체)에 대한 정보를 알고자하는 경우, 사용자는 사용자 단말(1)의 이미지센서를 이용해 해당 건물을 비출 수 있다. 즉, 사용자는 정보를 알고자하는 해당 건물(검색 대상 객체)이 사용자 단말(1)의 화면 상에 시각적으로 표출되도록 사용자 단말(1)의 의미지센서를 이용해 해당 건물을 포커싱하여 비출 수 있다.When the user who owns the user terminal 1 wants to know information about a certain building (a feature object) while moving in the real life space, the user can use the image sensor of the user terminal 1 to illuminate the building have. That is, the user can focus the corresponding building using the meaningful sensor of the user terminal 1 so that the building (object to be searched) to know the information is visually displayed on the screen of the user terminal 1.

이때, 본 장치(10)는 예시적으로 사용자가 알고자하는 지형지물 객체를 미리 설정된 시간 동안 사용자 단말(1)로 포커싱한 경우, 사용자 단말(1)의 화면 상에 표시되는 알고자하는 지형지물 객체가 포함된 영상을 검색 대상 객체를 검색하기 위한(즉, 지역 정보 요청 대상의 인식을 위한) 검색 요청으로서 인식할 수 있다.In this case, when the feature 10 is focused on the user terminal 1 for a predetermined period of time, for example, the feature information is displayed on the screen of the user terminal 1, The image containing the object can be recognized as a search request for searching the search object (i.e., for recognizing the local information request object).

즉, 본 장치(10)는 사용자 단말(1)이 지형지물 객체를 미리 설정된 시간 동안 포커싱한 것으로 판단되는 경우, 이를 검색 요청으로 인식하여 사용자 단말(1)로부터 위치 정보 및 방향 정보를 획득할 수 있다. 이를 위해 본 장치(10)는 위치 정보 및 방향 정보 획득부(미도시)를 포함할 수 있다. That is, when it is determined that the user terminal 1 has focused the feature object for a preset time, the apparatus 10 recognizes the feature object as a search request and acquires the position information and direction information from the user terminal 1 have. To this end, the apparatus 10 may include a position information and direction information obtaining unit (not shown).

여기서, 검색 요청의 인식 여부를 결정하는 미리 설정된 시간은 예시적으로 3초일 수 있으나, 이에 한정되는 것은 아니다. Here, the predetermined time for determining whether to recognize the search request may be, for example, 3 seconds, but is not limited thereto.

본 장치(10)는 검색 요청이 인식되면, 사용자 단말(1)에 구비된 GPS 센서, 전자 나침반, 자이로센서 등으로부터 사용자 단말(1)의 위치 정보(경위도 좌표)와 사용자 단말(1)이 바라보는 방향 정보(방위각 정보)를 획득할 수 있다. 본 장치(10)는 획득한 사용자 단말(1)의 위치 정보와 방향 정보를 서버(20)로 전송할 수 있다. 특히, 본 장치(10)로부터 전송된 사용자 단말(1)의 위치 정보와 방향 정보는 서버(20) 내 객체 저장공간 레이어에 대응하는 객체 저장공간부에 전달될 수 있다. 달리 표현하여, 실생활공간 레이어에서는 사용자 단말(1)의 위치 정보와 방향 정보(위치+방향)를 객체 저장공간 레이어로 전달할 수 있다.When the search request is recognized, the present device 10 searches the location information (the latitude and longitude coordinates) of the user terminal 1 and the user terminal 1 from the GPS sensor, electronic compass, gyro sensor, Direction information (azimuth information) can be acquired. The present device 10 can transmit the obtained location information and direction information of the user terminal 1 to the server 20. In particular, the location information and the direction information of the user terminal 1 transmitted from the present apparatus 10 can be transmitted to the object storage space portion corresponding to the object storage space layer in the server 20. [ In other words, in the real-life spatial layer, the location information and direction information (position + direction) of the user terminal 1 can be transferred to the object storage space layer.

여기서, 서버(20)는 데이터베이스를 포함하며, 데이터베이스에는 객체 저장공간 레이어에 대응하는 객체 저장공간부 및 정보 저장공간 레이어에 대응하는 정보 저장공간부가 포함될 수 있다. 객체 저장공간부에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보(이러한 객체 정보에는 지형지물 객체의 키워드 및 위상 정보가 포함됨)로서 저장되어 있고, 정보 저장공간부에는 객체 정보에 대응하는 관심지점(POI, Point of Interest) 정보가 저장되어 있을 수 있다. 이에 따르면, 서버(20)의 데이터베이스에는 객체 정보 및 그에 대응하는 관심지점 정보가 서로 연계(맵핑)되어 저장되어 있을 수 있다.Here, the server 20 may include a database, and the database may include an object storage space corresponding to the object storage space layer and an information storage space corresponding to the information storage space layer. In the object storage space, information on the position and shape of all the feature objects is stored as object information (the object information includes the keyword and phase information of the feature object), and in the information storage space, Point of interest (POI) information may be stored. According to this, the database of the server 20 may store the object information and the corresponding point of interest corresponding to each other (mapped).

[객체 저장공간 레이어][Object storage space layer]

객체 저장공간 레이어에 대응하는 객체 저장공간이라 함은 실생활공간 상의 객체(지형지물 객체)들의 정보를 단순히 위치정보가 아닌 수치지도 정보(지리정보)에 기초하여 저장하는 공간을 의미할 수 있다. 이러한 실생활공간 상의 객체(지형지물 객체)들의 정보는 서버(20)의 데이터베이스, 특히 객체 저장공간부에 저장되어 있을 수 있다. 다시 말해, 객체 저장공간부에는 실생활공간에 존재하는 다양한 지형지물 객체들의 위치 정보가 수록되는 수치지도에서 추출된 객체 정보가 저장될 수 있다. 즉, 객체 저장공간부는 수치지도의 객체 정보를 활용하여 구축될 수 있다. The object storage space corresponding to the object storage space layer may be a space for storing the information of the objects (feature objects) in the real space space based on the digital map information (geographic information) rather than simply the location information. The information of the objects (feature objects) in the real space may be stored in the database of the server 20, in particular, the object storage space. In other words, the object storage space may store the object information extracted from the digital map in which the location information of various feature objects exist in the real space. That is, the object storage space part can be constructed using the object information of the digital map.

객체 저장공간부에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보로서 저장되어 있을 수 있다. 이때, 객체 저장공간부에는 객체 정보가 MBR로 변환되어 R-tree 구조로 저장되어 있다. 다만, 이에 한정되는 것은 아니고, 객체 저장공간부에는 객체 정보가 MAR로 변환되어 R-tree 구조로 저장되어 있을 수 있다. MBR 및 MAR 관련 설명은 앞서 자세히 설명했으므로, 이하 생략하기로 한다. In the object storage space, information on the position and shape of all the feature objects may be stored as object information. At this time, the object information is converted into MBR and stored in the R-tree structure in the object storage space part. However, the present invention is not limited to this, and object information may be converted into MAR and stored in an R-tree structure in the object storage space portion. The description related to the MBR and the MAR has been described in detail above, and the following description will be omitted.

도 9는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 객체 정보의 저장 구조인 R-tree 구조를 설명하기 위한 도면이다.FIG. 9 is a diagram for explaining an R-tree structure that is a storage structure of object information in the automatic area recognition apparatus 10 according to an embodiment of the present invention.

도 9를 참조하면, R-tree 구조는 지형지물 객체들에 대한 공간 정보를 저장하는 트리 자료의 구조라 할 수 있다. 여기서, 공간 정보는 객체 정보라 달리 표현할 수 있다. 따라서, 공간 정보라 함은 지형지물 객체들의 위치와 형상, 위상 등에 관한 정보를 포함하는 객체 정보를 의미할 수 있다.Referring to FIG. 9, the R-tree structure may be a structure of tree data for storing spatial information about feature objects. Here, the spatial information can be represented by object information. Accordingly, the spatial information may refer to object information including information on the position, shape, and phase of feature objects.

객체 저장공간부에는 객체 정보가 일예로 MBR의 형태의 R-tree 구조로 저장될 수 있다. 즉, 서버(20)에는 MBR로 표현되는 모든 객체 정보가 R-tree 구조로 저장(구축)되어 있을 수 있다. 이에 본원은 이를 기초로 하여 사용자 주변에 어떠한 건물들이 존재하는지에 대한 탐색(즉, 사용자 단말의 위치 정보에 대응하는 위치로부터 그 주변에 존재하는 건물들에 대한 탐색)을 보다 빠르게 수행할 수 있다. In the object storage space, the object information can be stored in an R-tree structure in the form of an MBR. That is, all the object information expressed by the MBR may be stored (constructed) in the server 20 in an R-tree structure. Based on this, the present inventor can more quickly perform searching for the existence of buildings around the user (i.e., searching for buildings existing in the vicinity of the location corresponding to the location information of the user terminal).

예시적으로, R1 영역에는 1,2,3 지형지물 객체가 포함되고, R2 에는 4,5,6 지형지물 객체가 포함되도록 R-tree 구조가 구축되어 있을 수 있다. 이때, 탐색 범위가 도 9에 도시된 바와 같은 경우, 서버(20)는 R-tree 구조에 기초한 탐색을 통해, 탐색 범위 내에 3, 4, 6 지형지물 객체가 존재하고 있음을 확인(식별)할 수 있다.By way of example, an R-tree structure may be constructed such that the R1 region includes 1,2,3 feature objects, and the R2 includes 4,5,6 feature objects. At this time, if the search range is as shown in FIG. 9, the server 20 confirms (identifies) that 3, 4, or 6 feature objects exist in the search range through search based on the R-tree structure .

일예로, 서버(20)의 객체 저장공간부에는 객체 정보가 MBR 형태로 저장되고, 본 장치(10)의 객체 저장부(15)에 저장되는 객체 정보는 MAR 형태로 저장될 수 있다. 다만 이에만 한정되는 것은 아니고, 다른 예로 객체 저장공간부에도 객체 정보가 MAR 형태로 저장될 수 있다.For example, the object information is stored in the object storage space of the server 20 in the MBR format, and the object information stored in the object storage unit 15 of the apparatus 10 may be stored in the MAR format. However, the present invention is not limited thereto. For example, the object information may be stored in the object storage space in the MAR format.

실생활공간 레이어로부터 전달받은 사용자 단말(1)의 위치 정보와 방향 정보를 이용하면, 객체 저장공간부에 R-tree 구조로 저장된 객체 정보를 기반으로 사용자가 위치한 주변 영역에 어떠한 건물들(지형지물 객체들)이 존재하는지 보다 빠르게 탐색(식별)될 수 있다. 서버(20)의 데이터베이스에는 이렇게 R-tree 구조로 저장된 객체 정보와 그에 대응하는 POI 정보가 맵핑되어 저장될 수 있다. Using the location information and the direction information of the user terminal 1 received from the real-life spatial layer, it is possible to search for objects in the surrounding area where the user is located based on the object information stored in the R-tree structure in the object storage space Can be searched (identified) more quickly than if they existed. In the database of the server 20, the object information stored in the R-tree structure and the corresponding POI information may be mapped and stored.

따라서, 서버(20)는 본 장치(10)로부터 수신한 사용자 단말(1)의 위치 정보와 방향 정보를 이용하여, 객체 저장공간부에 저장된 객체 정보들 중 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들(즉, 지형지물 객체들의 위치와 형상에 관한 정보)을 R-tree를 이용해 보다 빠르게 식별할 수 있다. 다시 말해, 본원에서는 Tree의 특성 및 MBR 간의 포함관계를 이용해 건물 탐색에 관한 쿼리에 보다 빠르게 응답할 수 있는 객체정보 DB(달리 표현하여, 건물정보 DB)로서 객체 저장공간부를 제공할 수 있다. Accordingly, the server 20 may use the position information and the direction information of the user terminal 1 received from the apparatus 10 to determine the position of the user terminal 1 within the predetermined distance range from the position of the user terminal It is possible to identify the object information (ie, information about the location and shape of the feature objects) using the R-tree more quickly. In other words, the present invention can provide an object storage space as an object information DB (otherwise expressed as a building information DB) that can respond more quickly to a query related to building search by using the property of Tree and the MBR relation relation.

이후, 서버(20)는 객체 저장공간부에서 식별된 객체 정보들과, 후술하는 정보 저장공간부에서 식별되는 객체 정보들에 대응하는 관심지점 정보를 함께 본 장치(10)로 제공할 수 있다.The server 20 may then provide the apparatus 10 with the object information identified in the object storage space and the point of interest information corresponding to the object information identified in the information storage space described below.

객체 저장공간 레이어에서는 실생활공간 레이어로부터 전달받은 (위치+방향) 정보, 및 식별된 객체 정보를 정보 저장공간 레이어에 전달할 수 있다. 여기서, 식별된 객체 정보에는 지형지물 객체들(예를 들어, 건물들)의 키워드 및 위상 정보(즉, 건물 키워드+위상 정보)가 포함될 수 있다. 또한, 이러한 객체 정보에는 지형지물 객체의 위치와 형상에 관한 정보가 포함될 수 있다.In the object storage space layer, information (position + direction) received from the real space space layer and the identified object information can be transmitted to the information storage space layer. Here, the identified object information may include keyword and phase information (i.e., building keyword + phase information) of the feature objects (e.g., buildings). In addition, the object information may include information about the position and shape of the feature object.

[정보 저장공간 레이어][Information storage layer]

정보 저장공간 레이어에 대응하는 정보 저장공간이라 함은 객체 저장공간에 존재하는 객체 정보들에 대하여 수지지도 정보에 기초한 위치를 기준으로 그에 대응하는 관심지점(POI) 정보가 저장되는 공간을 의미할 수 있다. 이러한 관심지점 정보는 서버(20)의 데이터베이스, 특히 정보 저장공간부에 저장되어 있을 수 있다.The information storage space corresponding to the information storage space layer may be a space in which POI information corresponding to the object information in the object storage space is stored based on the position based on the resin map information have. This point of interest information may be stored in the database of the server 20, particularly in the information storage space.

본원에서는 일예로 정보 저장공간부에 객체 정보에 대응하여 그에 대응하는 POI 정보만 저장되는 것으로 예시하였으나, 이에 한정되는 것은 아니다. 다른 일예로, 정보 저장공간부에는 POI와 같이 공적인 성격을 가지는 정보 뿐만 아니라 사용자가 객체 정보에 대하여 직접 작성한 정보가 저장될 수 있다. For example, only POI information corresponding to object information is stored in the information storage space, but the present invention is not limited thereto. In another example, the information storage space may store not only information having a public nature such as POI but also information directly written by the user on the object information.

정보 저장공간부에 저장된 정보(POI 정보)는 지형지물 객체의 위치 정보와 키워드 정보로 인덱싱되어 있을 수 있다. 다시 말해, 정보 저장공간부에는 POI 정보가 저장되어 있을 수 있다. 이때, POI 정보는 지형지물 객체의 위치(경위도 좌표)를 기반으로 객체 저장공간에 저장된 지형지물 객체의 키워드로 인덱싱되어 정보 저장공간부에 저장되어 있을 수 있다.The information (POI information) stored in the information storage space section may be indexed by location information of the feature object and keyword information. In other words, POI information may be stored in the information storage space. At this time, the POI information may be indexed with keywords of the feature object stored in the object storage space based on the position (latitude and longitude coordinates) of the feature object, and stored in the information storage space.

따라서, 정보 저장공간부에 의하면, 개체 저장공간 레이어에서 식별된 객체 정보를 이용하여, 그에 대응하는 지형지물 객체의 POI 정보가 식별(검색)될 수 있다. 달리 말해, 서버(20)는 객체 저장공간부에서 (위치+방향) 정보를 이용하여 객체 정보가 식별되면, 저장공간부에서 식별된 객체 정보에 대응하는 POI 정보를 식별(검색)할 수 있다. 즉, 서버(20)는 객체 저장공간부를 이용해 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들을 식별하고, 식별된 객체 정보들에 대응하는 POI 정보들을 정보 저장공간부를 이용해 식별(검색)할 수 있다.Therefore, according to the information storage space unit, the POI information of the corresponding feature object can be identified (retrieved) by using the object information identified in the object storage space layer. In other words, when the object information is identified using the (position + direction) information in the object storage space, the server 20 can identify (search) the POI information corresponding to the object information identified in the storage space. That is, the server 20 identifies object information located within a predetermined distance range from the position of the user terminal using the object storage space, identifies (searches) POI information corresponding to the identified object information using the information storage space, can do.

정보 저장공간 레이어에서는 객체 저장공간 레이어로부터 전달받은 (위치+방향) 정보, 식별된 객체 정보로서 건물 키워드+위상 정보, 및 식별된 객체 정보들에 대응하는 정보(즉, POI 정보)를 정보 표시공간 레이어로 전달할 수 있다. 달리 표현하여, 서버(20)는 본 장치(10)로부터 사용자 단말(1)의 위치 정보와 방향 정보를 획득(수신)하면, 객체 저장공간부 및 정보 저장공간부를 포함하는 데이터베이스에 기반하여, 사용자 단말의 위치 정보에 대응하는 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들 및 그에 대응하는 POI 정보들을 식별하고, 식별된 정보(객체 정보들 및 그에 대응하는 POI 정보들)을 본 장치(10)로 전달(전송)할 수 있다. In the information storage space layer, information (position + direction) received from the object storage space layer, building keyword + phase information as identified object information, and information (i.e., POI information) corresponding to the identified object information Layer. In other words, when the server 20 acquires (receives) the positional information and directional information of the user terminal 1 from the present device 10, the server 20 determines, based on the database including the object storage space and the information storage space, (Object information and POI information corresponding thereto) from the position corresponding to the position information of the terminal, and identifies the POI information corresponding to the object information, (Transmission) to the base station.

여기서, 객체 저장공간부는 건물정보DB라 달리 표현되고, 정보 저장공간부는 POI DB라 달리 표현될 수 있다. 또한, 예시적으로 본원에서는 객체 저장공간부에 R-tree로 구축된 건물정보에서 POI DB에 있는 건물 중심 좌표를 질의하고, 질의에 응답한 건물정보에 POI DB에 있는 건물 이름(명칭)을 맵핑함으로써 서버(20)의 데이터베이스가 구축될 수 있다. Here, the object storage space portion is represented by a building information DB, and the information storage space portion can be represented by a POI DB. For example, in the present example, the building center coordinates in the POI DB are inquired from the building information constructed by the R-tree in the object storage space, and the building name (name) in the POI DB is mapped The database of the server 20 can be constructed.

다시 말해, R-tree가 구축된 이후에, POI DB의 건물 중심 좌표를 R-tree에 질의하고 그 결과로서 건물 정보(객체 정보)와 POI가 맵핑됨으로써 POI DB가 구축될 수 있다. 이후 서버(20)는 본 장치(10)와의 통신을 통해 사용자 단말의 위치 정보 및 방향 정보를 전송 받으면, R-tree를 이용해 사용자 주변의 객체 정보들 및 그에 대응하는 POI 정보들을 사용자 단말로 제공할 수 있다. 본 장치(10)는 서버(20)로부터 제공받은 객체 정보들 및 그에 대응하는 POI 정보에 기초하여, 사용자가 원하는 건물에 대한 탐색을 수행하고, 탐색된 건물에 대한 POI 정보를 사용자 단말(1)의 화면 상에 제공할 수 있다.In other words, after the R-tree is constructed, the POI DB can be constructed by querying the building center coordinates of the POI DB to the R-tree and mapping the building information (object information) and the POI as a result. Thereafter, when the server 20 receives the location information and the direction information of the user terminal through communication with the device 10, the server 20 provides the object information about the user and the corresponding POI information to the user terminal using the R-tree . The present apparatus 10 performs a search for a building desired by a user based on object information provided from the server 20 and corresponding POI information and transmits POI information about the searched building to the user terminal 1, On the screen of FIG.

서버(20)의 데이터베이스에 대하여 다시 설명하자면 다음과 같다. 데이터베이스에는 객체 정보(건물정보) 및 그에 대응하는 POI 정보가 저장되어 있을 수 있다. 객체 정보(건물정보)는, 건물의 꼭짓점 좌표들로 구성될 수 있다. 하나의 객체 정보로는 한 건물의 모든 꼭짓점 좌표가 저장되어 있을 수 있다. 건물의 꼭짓점 좌표는 건물의 위도/경도 정보로 구성될 수 있다. 또한, 객체 정보와 관련하여 객체의 형상에 관한 정보는, 건물의 꼭짓점 좌표들의 시작과 끝이 항상 동일함에 따라 다각형(폴리곤)으로 이루어질 수 있다.The database of the server 20 will be described as follows. The database may store object information (building information) and corresponding POI information. The object information (building information) may be composed of the vertex coordinates of the building. One object information may store all the coordinates of a vertex of a building. The corner coordinates of a building may consist of building latitude / longitude information. In addition, the information about the shape of the object in relation to the object information can be formed of polygons (polygons) as the starting point and the ending point of the vertex coordinates of the building are always the same.

또한, 데이터베이스에 저장된 POI 정보와 관련하여, POI 정보는 예시적으로 NID, Ncode, name_full, Name_alias, Name_field, Xpos, Ypos, Admcode_A, Admname_A, Admcode_L, admname_L, LANDMARK, Codename, TOP_POI 형태로 구성될 수 있다. 또한, POI 정보로는 예시적으로 건물 이름(명칭), 건물 중심 좌표 및 건물 주소가 주된 데이터로서 사용될 수 있다. The POI information may be configured in the form of NID, Ncode, name_full, Name_alias, Name_field, Xpos, Ypos, Admcode_A, Admname_A, Admcode_L, admname_L, LANDMARK, Codename, TOP_POI with respect to the POI information stored in the database . Also, the POI information can be used as the main data by way of example, a building name (name), building center coordinates, and building address.

이에 따르면, 데이터베이스에는 R-tree를 이용해 구축된 객체정보(건물정보)와 그에 대응하는 POI 정보가 맵핑되어 저장될 수 있으며, 이를 통해 건물 꼭짓점과 건물 이름(명칭)이 서로 연계(연결)되어 저장되어 있을 수 있다.According to this, the object information (building information) constructed by using the R-tree and the corresponding POI information can be mapped and stored in the database, and the building vertex and the building name (name) are linked (connected) .

[정보 표시공간 레이어][Information display space layer]

정보 표시공간 레이어에 대응하는 정보 표시공간이라 함은 사용자 단말(1)의 화면 상에 보여지는 공간을 의미할 수 있다. 즉, 정보 표시공간 레이어는 정보 저장공간에서식별(검색)된 정보와 실생활공간을 연결하는 레이어로서, 사용자 단말(1)의 화면을 의미할 수 있다. 이러한 사용자 단말(1)에는 예시적으로 휴대 단말, 스마트 디바이스, HMD(Head Mounted Display), 디지털 사이니지 등 정보의 시각적 표출이 가능한 모든 종류의 기기가 포함될 수 있다. The information display space corresponding to the information display space layer may refer to a space displayed on the screen of the user terminal 1. [ That is, the information display space layer is a layer for connecting the information that is identified (searched) in the information storage space and the real space, and may be a screen of the user terminal 1. The user terminal 1 may include all kinds of devices capable of visually displaying information such as a portable terminal, a smart device, a head mounted display (HMD), and a digital signage.

구체적으로, 본 장치(10)는 사용자 단말의 위치 정보와 방향 정보를 서버로 제공한 이후, 그에 응답하여 서버에 의해 식별된 사용자 단말의 위치 정보에 대응하는 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들 및 그에 대응하는 POI 정보들을 획득할 수 있다. 본 장치(10)는 서버(20)로부터 획득한 정보들(객체 정보들 및 그에 대응하는 POI 정보들)을 본 장치(10)의 객체 저장부(15)에 저장할 수 있다. 이후, 본 장치(10)는 추출부(11), 선별부(12) 및 인식부(13)를 이용하여, 사용자 단말 상에 표출되는 검색 영역 내에 포함된 지형지물 객체들 중 지역 정보 요청 대상(검색 대상 객체)를 인식할(특정지을) 수 있다. 이때, 본 장치(10)는 사용자가 검색을 요구하는 검색 대상 객체가 사용자 단말(1)의 화면의 중앙에 가장 가까운 건물이라는 전제 하에, 사용자 단말 상에 표출되는 검색 영역 내에 포함된 지형지물 객체들 중에서 사용자가 어떠한 객체에 대한 POI 검색을 원하는지를 특정(즉, 검색 대상 객체를 특정)지을 수 있다. 이후, 본 장치(10)는 객체 저장부(15)에 저장된 정보에 기초하여 인식된 지역 정보 요청 대상(검색 대상 객체)에 대응하는 관심지점 정보를 사용자 단말(1)의 화면 상에 표출되는 지역 정보 요청 대상 상에 오버레이하여 표시할 수 있다. Specifically, after providing the location information and the direction information of the user terminal to the server, the apparatus 10 responds to the location information and the direction information of the user terminal in a predetermined distance range from a location corresponding to the location information of the user terminal identified by the server Information and POI information corresponding thereto can be obtained. The present apparatus 10 can store information (object information and corresponding POI information) obtained from the server 20 in the object storage unit 15 of the present apparatus 10. [ The apparatus 10 then uses the extracting unit 11, the selecting unit 12 and the recognizing unit 13 to determine whether or not the local information request target (s) of the feature objects contained in the search area displayed on the user terminal (The object to be searched). At this time, assuming that the object to be searched for by the user is the closest building to the center of the screen of the user terminal 1, the present device 10 may be provided with the feature objects included in the search area displayed on the user terminal (That is, specify the object to be searched) to which POI search the user desires. The apparatus 10 then transmits interest point information corresponding to the recognized local information request object (object to be searched) based on the information stored in the object storage unit 15 to a region displayed on the screen of the user terminal 1 It can be overlaid on the information request subject.

이에 따르면, 본 장치(10) 내지 본 시스템(100)은, 사용자 단말(1)의 위치 정보와 방향 정보를 기반으로 식별된 POI 정보를 제공할 수 있다. 특히, 본 장치(10) 내지 본 시스템(100)은, 사용자가 사용자 단말(2)로 검색 대상 객체를 비추는 것만으로, 사용자가 인식하고자 하는 검색 대상 객체에 대한 POI 정보를 실생활공간에서의 사용자가 사용자 단말(1)의 화면을 통해 인지할 수 있도록 제공할 수 있다.According to this, the present apparatus (10) to the present system (100) can provide the POI information identified based on the location information and the direction information of the user terminal (1). Particularly, the present apparatus 10 to the present system 100 allow the user in the real space to share the POI information about the search object, which the user wants to recognize, only by illuminating the search object with the user terminal 2 Can be provided through the screen of the user terminal 1 so as to be recognized.

본 장치(10)는 사용자 단말의 위치 정보 및 방향 정보, 객체의 위상 정보 등을 종합적으로 고려하여, 사용자가 검색하고자 하는 검색 대상 객체에 대한 POI 정보를 화면 상에 표출되는 검색 대상 객체 상에 오버레이하여 표시되도록 할 수 있다.The apparatus 10 comprehensively considers the location information and direction information of the user terminal, the phase information of the object, and the like, and displays the POI information about the search object to be searched by the user on the search object, .

본원은 키워드 없이 검색 대상 객체의 POI 검색이 가능한 실생활공간 위치 기반으로 구축된 실외 MR 모델에 기반한 실외 MR 기반 서비스를 제공할 수 있다.The present invention can provide an outdoor MR-based service based on an outdoor MR model constructed on the basis of a real-life spatial location capable of searching a POI of a search object without a keyword.

도 10은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 지역 정보 요청 대상(검색 대상 객체)에 대한 POI 정보를 검색하는 예를 나타낸 도면이다. 특히, 도 10은 본 장치(10)에 의하여 사용자 단말(1)의 화면 상에 보여지는 화면의 예를 나타낸 도면이다. FIG. 10 is a diagram illustrating an example of searching POI information for a local information request object (object to be retrieved) in the automatic local area information recognition apparatus 10 according to an embodiment of the present invention. 10 is a diagram showing an example of a screen that is displayed on the screen of the user terminal 1 by the present apparatus 10. In FIG.

도 10를 참조하면, 사용자 단말(1)의 제1 영역(S1)에는 이미지센서를 통해 인식되는(비춰지는) 검색 영역(s)에 대응하는 화면이 표시될 수 있다.Referring to FIG. 10, a screen corresponding to a search area s recognized (viewed) by the image sensor may be displayed in the first area S1 of the user terminal 1. [

또한, 사용자 단말(1)의 제2 영역(S2)에는 검색 영역(s)에 대응하는 지도 상의 위치가 표시되는 지도가 표시될 수 있다. A map in which the position on the map corresponding to the search area s is displayed may be displayed in the second area S2 of the user terminal 1. [

예시적으로 제2 영역(S2)의 지도 상에 표시된 빨간색 테두리의 사각형(L1)은 현실에 존재하는 POI의 MAR를 나타낸다. 또한, 제2 영역(S2)의 지도 상에 표시된 여러 POI를 가리키는 빨간색 삼각형(L2)은 검색 영역 내에서 선별부(12)에 의한 시각적으로 확인 가능한 가시 지형지물 객체들의 선별을 직관적으로 확인할 수 있게 나타낸 것이다. 또한, 빨간색 삼각형(L2)가 가리키는 여러 POI 중 파란색 사각형(L3)은 인식부(13)에 의해 인식된 지역 정보 요청 대상(즉, 검색 대상 객체)를 나타낸다.Illustratively, the square (L1) of the red border displayed on the map of the second area S2 represents the MAR of the POI in the real world. The red triangle L2 indicating the various POIs displayed on the map of the second area S2 can be used to intuitively identify the visually recognizable visible feature objects by the selector 12 in the search area . The blue rectangle L3 among the various POIs pointed to by the red triangle L2 represents a local information request object recognized by the recognition unit 13 (i.e., a search object).

사용자 단말(1)의 제3 영역(S3)에는 지도를 사용자 단말(1)의 화면 상에 표시할지 여부를 사용자가 선택(결정)할 수 있도록 하는 제1 UI(User Interface) 아이콘이 표시될 수 있다. 제1 UI 아이콘에 의한 지도 표시 여부에 따라 제1 영역(S1)의 화면 크기가 크게 또는 작게 설정될 수 있다.A first UI (User Interface) icon may be displayed in the third area S3 of the user terminal 1 so that the user can select (determine) whether to display the map on the screen of the user terminal 1 have. The screen size of the first area S1 may be set to be large or small depending on whether the map is displayed by the first UI icon.

사용자 단말(1)의 제4 영역(S4)에는 POI의 탐색 시작 여부를 사용자가 선택(결정)할 수 있도록 하는 제2 UI 아이콘이 표시될 수 있다. 일예로 탐색 시작 버튼 모양의 제2 UI 아이콘에 대한 사용자 입력이 이루어져 POI 탐색이 시작되면, 제4 영역(S4)에는 POI에 대한 탐색을 중지할 수 있도록 하는 탐색 정지 버튼 모양의 아이콘으로 바뀔 수 있다. 일예로, POI에 대한 탐색이 완료된 이후에는 재검색이 가능하도록 탐색 시작 버튼 모양의 아이콘이 나타날 수 있으며, 이에 대한 사용자 입력이 이루어진 경우 POI 재검색이 이루어질 수 있다. POI 탐색에 의하여 이미지센서를 통해 인식되는 화면 내 지형지물 객체들 중 사용자가 검색하고자 하는 검색 대상 객체(지역 정보 요청 대상)가 인식(식별)될 수 있다.A second UI icon may be displayed in the fourth area S4 of the user terminal 1 to allow the user to select (determine) whether to start searching POIs. For example, if the user inputs a second UI icon in the form of a search start button and the POI search starts, the fourth region S4 may be changed to a search stop button icon to stop the search for the POI . For example, after the search for the POI is completed, an icon of the search start button may be displayed so that the search can be resumed. If the user input is performed, the POI can be rescanned. The POI search can identify (identify) a search object (local information request object) to be searched by the user among the in-screen feature objects recognized through the image sensor.

POI 탐색이 완료된 이후에는 이미지센서를 통해 인식되는 화면에서 인식(식별)된 검색 대상 객체 상에 검색 대상 객체에 대응하는 POI 정보가 오버레이되어 표시될 수 있다. 여기서, POI 정보에는 명칭(이름) 및 주소 중 적어도 하나가 포함될 수 있다.After the POI search is completed, the POI information corresponding to the search object may be overlaid on the search object recognized (identified) on the screen recognized by the image sensor. Here, the POI information may include at least one of a name (name) and an address.

예시적으로, 사용자가 사용자 단말(1)의 이미지센서를 이용해 특정 지형지물 객체를 미리 설정된 시간(예를 들어, 3초) 동안 비추는 경우, 본 장치(10)는 이를 검색 요청으로 간주하고, 이미지센서를 통해 인식되는 영상 내에서 검색 대상 객체를 인식(식별)하여 그에 대응하는 POI 정보를 제공할 수 있다.Illustratively, when a user illuminates a particular feature object for a predetermined amount of time (e.g., 3 seconds) using the image sensor of the user terminal 1, the device 10 regards this as a search request, It is possible to recognize (identify) the object to be searched in the image recognized by the sensor and to provide corresponding POI information.

본원의 일실시예에서는 본 장치(10)가 인식부(13)에서 인식된 하나의 지역 정보 요청 대상(검색 요청 대상)에 대해서만 POI 정보를 표시하는 것으로 예시하였으나, 이에 한정되는 것은 아니다. 다른 일예로, 본 장치(10)는 사용자 설정에 따라 선별부(12)에서 선별된 가시 지형지물 객체들 각각에 대응하는 POI 정보를 표시할 수 있다. 또 다른 일예로, 본 장치(10)는 객체 저장부(15)에 저장된 객체 정보들(즉, 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 지형지물 객체들) 각각에 대응하는 POI 정보를 표시할 수 있다. 이러한 가시 지형지물 객체들에 대한 POI 정보 표시 여부 및 객체 저장부(15)에 저장된 객체 정보들에 대한 POI 정보 표시 여부는 사용자 입력에 기초하여 선택적으로 이루어질 수 있다.In the embodiment of the present invention, the apparatus 10 displays the POI information only for one local information request object (search request object) recognized by the recognition unit 13, but the present invention is not limited thereto. Alternatively, the apparatus 10 may display POI information corresponding to each of the visible feature objects selected by the selector 12 according to the user setting. In another example, the present apparatus 10 displays POI information corresponding to each of the object information stored in the object storage unit 15 (i.e., the feature objects located within a predetermined distance range from the position of the user terminal) can do. Whether POI information is displayed for the visible feature objects and whether POI information is displayed for the object information stored in the object storage unit 15 can be selectively made based on user input.

또한, 본 장치(10)의 디스플레이 제어부(14)는 인식부(13)에서 인식된 지역 정보 요청 대상에 대응하는 관심지점 정보를 표시한 이후 표시된 관심지점 정보에 대한 사용자 입력(예를 들어, 터치 등을 이용한 선택 입력)이 이루어진 것으로 판단되는 경우, 표시된 관심지점 정보(예를 들어, POI 명칭, POI 주소 등)를 기반으로 검색된 검색 정보를 사용자 단말(1)의 화면에 표시할 수 있다. 여기서, 표시되는 검색 정보는 사용자 입력이 이루어진 관심지점 정보에 대응하는 검색 정보로서, 검색엔진을 통해 검색된 정보일 수 있다. 예시적으로 검색엔진은 구글, 네이버, 다음 등의 검색엔진을 의미할 수 있으며, 이에 한정되는 것은 아니다. 이러한 검색 정보의 제공을 통해, 본 장치(10)는 본 장치(10)를 통해 식별 인식된 POI 정보에 대한 보다 상세한 정보를 제공할 수 있다.The display control unit 14 of the present apparatus 10 displays the point of interest information corresponding to the local information request object recognized by the recognition unit 13 and then displays a user input (e.g., a touch It is possible to display search information searched based on the displayed point of interest information (e.g., POI name, POI address, etc.) on the screen of the user terminal 1. Here, the displayed search information may be information retrieved through a search engine as search information corresponding to interest point information on which user input is made. Illustratively, the search engine may refer to a search engine such as Google, Naver, or the like, but is not limited thereto. Through the provision of such search information, the present apparatus 10 can provide more detailed information on the POI information identified and recognized through the present apparatus 10. [

도 11은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에 의하여 제공되는 검색 정보의 예를 나타낸 도면이다.11 is a diagram illustrating an example of search information provided by the automatic area recognition apparatus 10 according to an embodiment of the present invention.

도 11을 참조하면, 사용자는 도 11의 (a)와 같이 사용자 단말(1)의 이미지센서를 통해 실생활환경에 존재하는 건물들(지형지물 객체들) 중 검색하고자 하는 건물에 대하여 포커싱을 수행할 수 있다. 이러한 경우, 본 장치(10)는 이미지센서를 통해 인식되는 영상 건물들 중 사용자가 검색하고자 하는 포커싱된 건물을 인식(식별)하고, 인식된 포커싱된 건물(즉, 인식부에 의하여 인식된 지역 정보 요청 대상)에 대응하는 POI 정보를 도 11의 (b)와 같이 사용자 단말(1)의 화면 상에 표시할 수 있다. 예시적으로, 포커싱된 건물이 '피사의 사탑'인 경우, 디스플레이 제어부(15)는 사용자 단말(1)의 화면에 표시(표출)되는 건물 상에 포커싱된 건물의 POI 정보로서 POI의 명칭인 '피사의 사탑'을 오버레이하여 표시할 수 있다.Referring to FIG. 11, a user performs focusing on a building to be searched among buildings (feature objects) existing in a real life environment through an image sensor of the user terminal 1 as shown in FIG. 11 (a) . In this case, the apparatus 10 recognizes (identifies) a focused building to be searched by the user among the image buildings recognized through the image sensor, and recognizes the focused focused building (that is, The POI information corresponding to the request destination can be displayed on the screen of the user terminal 1 as shown in Fig. 11 (b). For example, when the focused building is the 'Leaning Tower of Pisa', the display control unit 15 displays the POI information of the building focused on the building (displayed on the screen of the user terminal 1) Leaning Tower of Pisa 'can be overlaid and displayed.

또한, 디스플레이 제어부(15)는 도 11의 (b)와 같이 사용자 단말(1) 상에 표시된 POI 정보에 대하여 사용자 입력(예를 들어, 터치 등을 이용한 선택 입력)이 이루어진 것으로 판단되는 경우, 표시된 POI 정보를 기반으로 검색된 검색 정보를 사용자 단말(1)의 화면 상에 표시할 수 있다. 예시적으로, 사용자 단말(1)에 표시된 POI 정보인 '피사의 사탑'에 대하여 사용자 입력이 이루어진 경우, 디스플레이 제어부(15)는 도 11의 (c)와 같이 '피사의 사탑'에 대한 검색 정보를 화면에 표시할 수 있다.11 (b), when the display control unit 15 determines that the POI information displayed on the user terminal 1 is user input (for example, selection input using touch or the like), the display control unit 15 displays The search information retrieved based on the POI information can be displayed on the screen of the user terminal 1. [ As shown in FIG. 11C, when the user input is made to the 'Leaning Tower of Pisa', which is the POI information displayed on the user terminal 1, the display control unit 15 displays search information for 'Leaning Tower of Pisa' Can be displayed on the screen.

도 12는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에 의하여 제공되는 검색 정보의 다른 예를 나타낸 도면이다.FIG. 12 is a diagram illustrating another example of search information provided by the automatic local area recognition apparatus 10 according to an embodiment of the present invention.

도 12를 참조하면, 사용자가 도 12의 (a)와 같이 사용자 단말(1)을 이용해 검색하고자 하는 건물을 포커싱한 경우, 본 장치(10)는 도 12의 (b)와 같이 사용자 단말(1)의 화면 상에 포커싱된 건물의 POI 정보로서 '항공대학교 강의동'과 같은 정보를 표시할 수 있다. 이후, 표시된 POI 정보(예를 들어, 항공대학교 강의동)에 대한 사용자 입력이 이루어진 경우, 본 장치(10)는 도 12의 (c)와 같이 '항공대학교 강의동' 정보를 기반으로 검색된 검색 정보(검색 결과 정보)를 사용자 단말(1)의 화면 상에 표시할 수 있다.12, when the user focuses a building to be searched using the user terminal 1 as shown in (a) of FIG. 12, ) Can display information such as 'Aeronautical University lecture hall' as POI information of the focused building on the screen of the airline. Thereafter, when user input is made to the displayed POI information (e.g., Aerial University of Korea Aerospace University), the present apparatus 10 searches for search information (search) based on the 'Aeronautical University Lecture Information' Result information) on the screen of the user terminal 1. Fig.

도 13은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에 의하여 제공되는 검색 정보의 또 다른 예를 나타낸 도면이다.FIG. 13 is a diagram illustrating another example of search information provided by the automatic area recognition apparatus 10 according to an embodiment of the present invention.

도 13을 참조하면, 사용자가 도 13의 (a)와 같이 사용자 단말을 이용해 검색하고자 하는 건물을 포커싱한 경우, 본 장치(10)는 도 13의 (b)와 같이 사용자 단말(1)의 화면 상에 포커싱된 건물의 POI 정보를 팝업창으로 제공할 수 있다. 일예로, 본 장치(10)의 디스플레이 제어부(15)는 "탐색된 건물의 정보는 롯데마트화정점(대한민국 경기도 고양시 덕양구 화중로 66) 입니다"와 같은 POI 정보를 팝업창 형태로 제공할 수 있다.13, when a user focuses a building to be searched using a user terminal as shown in (a) of FIG. 13, the present apparatus 10 displays the screen of the user terminal 1 as shown in (b) It is possible to provide the POI information of the focused building on a pop-up window. For example, the display control unit 15 of the present apparatus 10 can provide POI information such as "the information of the searched building is the Lotte Maverization vertex (Hwajungro 66, Doyang-gu, Goyang-si, Korea)"

다음으로, 디스플레이 제어부(15)는 제공된 POI 정보 확인에 대한 사용자 입력이 이루어져 POI 정보에 대한 사용자 확인이 이루어진 것으로 판단되는 경우, 도 13의 (c)와 같이 표시된 POI 정보에 대한 상세 정보의 검색을 위한 검색 엔진 선택 메뉴를 제공할 수 있다. 예시적으로, 검색 엔진 선택 메뉴에는 '네이버로 검색', '다음으로 검색', '구글로 검색'과 같은 선택 메뉴가 포함될 수 있다.Next, when it is determined that the user input for the provided POI information confirmation is made and the user confirmation of the POI information is made, the display control unit 15 searches the detailed information about the POI information shown in (c) of FIG. A search engine selection menu may be provided. Illustratively, the search engine selection menu may include a selection menu such as "search by Naver", "search by next", "search by Google".

이때, 디스플레이 제어부(15)는 '네이버로 검색'에 대한 사용자 입력이 이루어진 경우, 표시된 POI 정보에 대한 검색 정보로서 도 13의 (d)와 같이 표시된 POI 정보를 키워드로 한 네이버 검색 결과를 사용자 단말(1)의 화면 상에 표시할 수 있다.In this case, when the user input for the 'search with Naver' is performed, the display control unit 15 displays a Naver search result using the POI information as shown in FIG. 13 (d) as the search information for the displayed POI information, Can be displayed on the screen of the display device (1).

이러한 본 장치(10) 내지 본 시스템(100)은 사용자가 실생활공간에 존재하는 주변의 POI를 사용자 단말의 이미지센서로 포커싱하는 것만으로도, 사용자 주변에 있는 POI를 쉽게 검색할 수 있는 지역 정보 검색 기술을 제공할 수 있다.The present apparatus 10 to the present system 100 can provide a local information search capable of easily searching POIs around the user by simply focusing the surrounding POIs existing in the real-life space with the image sensor of the user terminal Technology can be provided.

본원에서는 객체 저장공간부 및 정보 저장공간부를 통해 새로운 지리 정보 인프라를 구축하여 좀 더 사용자의 주변 상황을 고려한 정보 제공이 이루어질 수 있도록 할 수 있다. 본원에서 제안하는 본 시스템(100)은 객체 정보(건물 정보)와 POI 데이터만 존재한다면 확장할 수 있는 확장성을 지녀 인프라의 규모를 키울 수 있다. 또한, 본원에 의하면, 구축된 지리 정보 인프라를 이용해 POI 정보에 특화된 시스템의 활용이 가능하다.In the present invention, a new geographical information infrastructure can be constructed through the object storage space and the information storage space, thereby providing more information considering the user's surroundings. The present system 100 proposed in the present application can expand the scale of the infrastructure with extensibility that can be extended if only object information (building information) and POI data exist. Also, according to the present invention, it is possible to utilize a system specialized for POI information by using the constructed geographic information infrastructure.

또한, 본원은 실생활공간 객체의 실제 위치를 기반으로 하는 실외 MR 모델을 제안하며, 이 때 실생활공간 객체의 위치는 수치지도를 활용하여 추출될 수 있다. 또한, 본원은 본원에서 제안하는 실외 MR 모델을 기반으로 하는 서비스로서, 키워드 없이 실생활공간의 건물을 사용자 단말로 비추는 것만으로 POI 정보를 검색할 수 있는 Ambient Browser를 제공할 수 있다.In addition, this paper proposes an outdoor MR model based on the actual location of real - life spatial objects, where the location of real - life spatial objects can be extracted using a digital map. In addition, the present invention can provide an Ambient Browser capable of searching for POI information only by illuminating a building in a real-life space to a user terminal without keywords, based on the outdoor MR model proposed in the present application.

본원에서 제안된 실외 MR 모델에 의하면, 사용자 단말의 위치와 바라보는 방향 정보를 이용하여 사용자가 검색을 원하는 실생활공간의 위치 및 범위를 특정지을 수 있다. 이후, 특정된 위치와 범위 정보를 기반으로 객체 저장공간 레이어에서 해당 위치에 있는 객체에 대한 검색이 이루어질 수 있다. 이후, 정보 저장공간 레이어에서는 해당 위치에 있는 정보(POI 정보), 즉 객체 저장공간 레이어에서 검색된 객체들에 대한 POI 정보의 검색이 이루어질 수 있다. 이후, 객체 저장공간 레이어와 정보 저장공간 레이어에서 검색된 객체 정보들 및 그에 대응하는 POI 정보는 정보 표시공간에서 두 정보(객체 정보와 POI 정보)의 위치관계와 사용자 단말의 위치 정보 및 방향 정보 등을 고려하여 화면에 표시될 수 있다. 이렇게 표시된 정보(일예로 POI 정보)는 실생활공간의 사용자가 사용자 단말을 통해 인식할 수 있다.According to the outdoor MR model proposed in the present application, the location and range of the real-life space that the user desires to search can be specified using the position of the user terminal and the direction information of the user terminal. Then, based on the specified position and range information, an object in the object storage space layer can be searched for the object at the corresponding position. In the information storage space layer, information (POI information) at the corresponding location, that is, POI information about the objects retrieved from the object storage space layer, can be retrieved. Thereafter, the object information retrieved from the object storage space layer and the information storage space layer and the corresponding POI information correspond to the positional relationship between the two pieces of information (object information and POI information) in the information display space and the position information and direction information of the user terminal And can be displayed on the screen. The information (for example, POI information) thus displayed can be recognized by the user in the real-life space through the user terminal.

본원은 Ambient Intelligence 개념이 적용된 수치지도 기반의 모바일 MR 시스템인 Ambient Browser를 제공할 수 있다. 본원은 정보를 얻기 원하는 실생활공간의 건물에 대해 키워드 없이 사용자 단말의 이미지센서로 비추는 것만으로 해당 건물에 대한 정보를 사용자가 제공받을 수 있도록 할 수 있다.We can provide Ambient Browser, a mobile MR system based on digital map with Ambient Intelligence concept. The present invention enables the user to receive information about a building in a real-life space in which information is to be obtained, by illuminating the building with an image sensor of the user terminal without a keyword.

본원은 종래의 MR 연구가 실내 사용을 고려하고 있다는 점에 착안하여, 실외 MR기반 서비스를 위한 실생활공간 위치기반의 실외 MR 모델을 제안한다. 이러한 본원에서는 실외 MR 모델에서 핵심이 되는 개체 저장공간을 수치지도를 활용해 구축함을 보였다. 또한, 본원은 실외 MR 모델에 기반한 서비스의 예로 Ambient Browser의 실제 활용 예(예시적으로, 도 10 내지 도 13 참조)를 보였다.This paper proposes an outdoor MR model based on real-life space location for outdoor MR-based services, considering that conventional MR research considers indoor use. In this paper, we showed that the object storage space, which is the core of the outdoor MR model, is constructed using the digital map. In addition, the present application shows an actual application example of the Ambient Browser (illustratively, see Figs. 10 to 13) as an example of the service based on the outdoor MR model.

한편, 본 장치(10)에서 추출부(11)는 후보 지형지물 객체들을 추출하기 이전에, 사용자 단말(1)로부터 획득된 위치 정보를 보정할 수 있다. 위치 정보의 보정에 대한 보다 상세한 설명은 다음과 같다.Meanwhile, in the present apparatus 10, the extracting unit 11 may correct position information obtained from the user terminal 1 before extracting the candidate feature objects. A more detailed description of the correction of the position information is as follows.

사용자 단말(1)로부터 획득된 위치 정보가 GPS 정보인 경우, GPS는 약 5m의 오차 범위를 가지고 있으며, 이는 주변 환경에 따라 그 범위가 더 커지거나 작아질 수 있다. 이러한 위치 정보의 오차는 사용자 단말의 위치 정보와 방향 정보를 기반으로 POI 검색을 수행하는 본 장치(10)에 대하여, 부정확한 POI 검색이 이루어지도록 할 수 있다. 따라서, 본 장치(10)는 보다 정확한 POI 검색이 이루어질 수 있도록, 수치지도에서 추출된 객체 정보(건물 정보)와 영상처리를 이용하여 사용자 단말(1)로부터 획득된 위치 정보에 대한 오차를 보정할 수 있으며, 보정된 위치 정보에 기반하여 POI 검색이 이루어지도록 제공할 수 있다.If the location information obtained from the user terminal 1 is GPS information, the GPS has an error range of about 5 m, which may be larger or smaller depending on the surrounding environment. The error of the location information may cause an incorrect POI search to be performed on the present apparatus 10 that performs the POI search based on the location information and the direction information of the user terminal. Accordingly, the apparatus 10 corrects the error of the position information obtained from the user terminal 1 by using the object information (building information) extracted from the digital map and the image processing so that a more accurate POI search can be performed And can provide a POI search based on the corrected location information.

추출부(11)는 검색 영역에 대한 영상 분석을 통해 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 영상 분석을 통해 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.If the extracting unit 11 determines that there are a plurality of feature objects whose entire widths are all exposed in the search area through the image analysis on the search area, An analysis-based width ratio set and a plurality of candidate feature objects corresponding to the positions and directions of each of the plurality of feature objects based on the feature objects stored in the object storage unit, And determine whether there is a mismatch between the set of object information-based width ratios calculated.

여기서, 폭 비율 셋트는 일예로 건물들 각각의 폭에 관한 비율을 의미할 수 있다. 다른 일예로 폭 비율 셋트는 건물들 각각의 폭 뿐만 아니라 각 건물들 사이 공간의 폭을 고려한 비율을 의미할 수 있다. 즉, 다른 일예로 폭 비율 셋트는 건물들 각각의 폭과 각 건물들 사이 공간의 폭에 관한 비율을 의미할 수 있다.Here, the width ratio set may mean, for example, a ratio with respect to the width of each of the buildings. As another example, a width ratio set can mean the ratio of not only the width of each building but also the width of space between buildings. In other words, a width ratio set can mean a ratio of the width of each of the buildings and the width of the space between each building.

또한, 영상 분석 기반 폭 비율 셋트는 사용자 단말(1)의 화면 상에 비추어지는 영상에 대한 영상 분석을 통해 산출되는 폭 비율 셋트를 의미할 수 있다. 또한 객체 정보 기반 폭 비율 셋트는 수치지도에서 추출된 객체정보(건물정보)에 기반하여 산출되는 폭 비율 셋트를 의미할 수 있다. 이러한 객체 정보 기반 폭 비율 셋트에는 복수의 후보 지형지물 객체에 대하여 탐색 위치에 따라 산출되는 복수의 객체 정보 기반 폭 비율 셋트가 포함될 수 있다. In addition, the image analysis-based width ratio set may mean a width ratio set calculated through image analysis on an image displayed on the screen of the user terminal 1. [ Also, the object information based width ratio set may mean a width ratio set calculated based on the object information (building information) extracted from the digital map. Such a set of object information-based width ratios may include a plurality of sets of object information-based width ratios that are calculated according to the search positions for a plurality of candidate feature objects.

추출부(11)는 판정 결과 불일치하는 것으로 판정된 경우, 사용자 단말로부터 획득된 방향 정보를 일정하게 유지한 상태로 위치 정보를 사용자 단말의 위치센서의 오차 범위 내에서 변경(시프트)하면서 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. 즉, 추출부(11)는 판정 결과 불일치하는 것으로 판정된 경우, 복수의 후보 지형지물 객체에 대하여 산출되는 복수의 객체 정보 기반 폭 비율 셋트 중 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. When it is determined that the determination result is inconsistent, the extraction unit 11 changes (shifts) the position information within the error range of the position sensor of the user terminal while keeping the direction information obtained from the user terminal constant, Width rate set and other object information based width rate sets corresponding to the set. That is, when it is determined that the determination result is inconsistent, the extracting unit 11 extracts, from the plurality of candidate information object-based width ratio sets calculated for the plurality of candidate feature information objects, You can search the rate set.

여기서, 위치 정보의 변경은 방위 정보를 바꾸지 않으면서 이동되는 시프트 이동에 의한 변경을 의미할 수 있다. 또한, 오차 범위 내에서의 위치 정보의 변경은 본 장치(10)에 의하여 자동으로 이루어질 수 있으나, 이에 한정되는 것은 아니고, 사용자 입력에 의하여 수동으로 이루어질 수 있다. 또한, 사용자 단말로부터 획득된 위치 정보에 오차가 있는지에 대한 오차 존재 여부 판단은 본 장치(10)에 의하여 자동으로 이루어질 수도 있고, 또는 사용자의 판단에 의해 수동으로 이루어질 수 있다. 이는 후술하는 설명을 통해 보다 쉽게 이해될 수 있다.Here, the change of the position information may mean a change by a shift movement that is moved without changing the orientation information. Further, the change of the position information within the error range can be automatically performed by the present apparatus 10, but is not limited thereto, and can be performed manually by user input. In addition, the presence or absence of an error as to whether or not there is an error in the positional information obtained from the user terminal may be automatically performed by the apparatus 10, or may be manually performed by the user's judgment. This can be more easily understood through the following description.

추출부(11)는 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 위치 정보에 오차가 있는 것으로 보아 사용자 단말로부터 획득된 위치 정보를 보정할 수 있다. 즉, 추출부(11)는 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 위치 정보에 오차가 있는 것으로 보아, 사용자 단말로부터 획득된 위치 정보를 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 산출된 탐색 위치로 보정할 수 있다. The extracting unit 11 may correct the position information obtained from the user terminal because there is an error in the position information if it is determined that there exists the other object information based width ratio set corresponding to the image analysis based width ratio set. That is, if it is determined that there exists an object information-based width ratio set corresponding to the image analysis-based width ratio set, the extracting unit 11 determines that there is an error in the position information, Based width ratio set and other object information based width ratio sets corresponding to the set can be corrected to the calculated search position.

위치 정보 보정에 대한 설명은 다음의 도면을 참조한 설명을 통해 보다 쉽게 이해될 수 있다.The description of the position information correction can be more easily understood with reference to the following drawings.

도 14는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 사용자의 판단에 의해 수동으로 이루어지는 경우의 예를 설명하기 위한 도면이다. 달리 말해, 도 14는 사용자가 실제 검색하고자 하는 건물(예를 들어, A 건물)과 본 장치(10)에 의해 인식된 사용자가 검색하고자 하는 건물(예를 들어, B 건물)이 불일치하는 경우의 예를 나타낸다. FIG. 14 is a diagram for explaining an example in which the determination of whether or not an error exists in the location information of the user terminal, which is obtained by the automatic local area information recognition apparatus 10 according to an embodiment of the present invention, is manually performed by the user . In other words, FIG. 14 shows a case in which a user (for example, a building A) that the user actually desires to search for and a building (for example, a building B) For example.

도 14에서, 도 14에서 pos 1은 본 장치(10)가 획득한 사용자 단말(1)의 위치 정보에 대응하는 위치, 즉 본 장치(10)가 인식한 사용자 단말(1)의 위치 좌표 예를 나타낸다. pos 2는 실제 사용자 단말(1)의 위치 좌표 예를 나타낸다. 또한, pos 1-f(focus)는 pos 1에서 인식되는 중심 시선(즉, 화면 상의 중심에 대응하는 시선)을 나타내고, pos 2-f는 pos 2에서 인식되는 중심 시선을 나타낸다.14, pos 1 in FIG. 14 indicates a position corresponding to the position information of the user terminal 1 acquired by the present apparatus 10, that is, an example of the position coordinates of the user terminal 1 recognized by the present apparatus 10 . pos 2 represents an example of the positional coordinates of the actual user terminal 1. Also, pos 1-f (focus) represents a central line of sight recognized in pos 1 (i.e., a line of sight corresponding to the center of the screen), and pos 2-f represents a central line of sight recognized by pos 2.

도 14를 참조하면, 일예로, 사용자가 A 건물에 대한 POI 검색(탐색)을 수행하고자 하는 경우, 사용자는 A 건물이 사용자 단말(1)의 화면 상에서 중심 부위에 위치하도록 사용자 단말(1)의 이미지센서를 A 건물을 향해 포커싱할 수 있다. 이에 따라, 사용자 단말(1)의 전체 화면 영역(S1)에는 A 건물이 중심에 위치하도록 시각적으로 표출될 수 있다.Referring to FIG. 14, for example, when a user desires to perform a POI search (search) for building A, the user may select a POI from the user terminal 1 so that the building A is located at the central portion on the screen of the user terminal 1 The image sensor can be focused toward the A building. Accordingly, in the entire screen area S1 of the user terminal 1, the A building can be visually displayed so as to be located at the center.

이때, 사용자 단말(1)의 화면의 일영역(S2)에는 본 장치(10)가 인식한 사용자 단말의 위치 정보 및 방향 정보가 나타난 지도가 제공될 수 있다. At this time, one area S2 of the screen of the user terminal 1 may be provided with a map showing the position information and the direction information of the user terminal recognized by the apparatus 10. [

이때, 본 장치(10)가 인식한 사용자 단말의 위치 정보에 오차가 있는 경우, 지도 상에 나타나는 사용자 단말의 위치는 실제 사용자의 위치(pos 2)와는 다른 오차가 있는 위치로 표시될 수 있다. 즉, 지도 상에 나타나는 오차가 있는 사용자의 위치에서는 B 건물이 중심 시선에 위치하는 건물인 것으로 인식될 수 있다.At this time, if there is an error in the position information of the user terminal recognized by the present apparatus 10, the position of the user terminal appearing on the map may be displayed as a position having an error different from the position (pos 2) of the actual user. That is, in the position of the user with an error appearing on the map, it can be recognized that the building B is located in the central line of sight.

이에 따르면, 정확한 검색이 이루어진 경우, 본 장치(10)는 사용자 단말(1)의 화면 상에 검색 대상 객체에 관한 POI 정보로서 A 건물의 POI 정보를 표시해야 할 것이다. 그러나, 도 14에 도시된 예시에서는 획득된 사용자 단말의 위치 정보의 오차 존재로 인해 검색 대상 객체가 잘못 인식됨에 따라 본 장치(10)는 B 건물의 POI 정보를 잘못 표시할 수 있다.According to this, when accurate retrieval is performed, the present device 10 should display POI information of A building as POI information about the object to be retrieved on the screen of the user terminal 1. However, in the example shown in FIG. 14, since the object to be searched is erroneously recognized due to the existence of the error of the acquired position information of the user terminal, the apparatus 10 can display the POI information of the B building in error.

이처럼, 본원에서는 사용자 단말(1)의 일영역(S2)에 제공되는 지도와 사용자 단말(1)의 전체 화면 영역(S1)에 제공되는 이미지센서를 통해 인식되는 영상을 이용하여 사용자가 사용자 단말(1)로부터 획득된 위치 정보에 대한 오차 존재 여부를 수동으로 감지(인지)할 수 있다.As described above, in the present invention, the user can search the user terminal 1 by using a map provided in one area S2 of the user terminal 1 and an image recognized through the image sensor provided in the full screen area S1 of the user terminal 1 (1) whether or not there is an error with respect to the positional information acquired from the positional information acquiring unit.

도 15는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 사용자 단말의 위치 정보를 사용자 입력에 의하여 수동으로 변경하는 경우의 예를 나타낸 도면이다.FIG. 15 is a diagram illustrating an example of manually changing the location information of the user terminal in the automatic local area information recognition apparatus 10 according to an embodiment of the present invention by user input.

도 15를 참조하면, 도 15에서 (a)는 사용자 단말의 위치 정보의 오차로 인해(즉, GPS 오차로 인해), 지도 상에 표시되는 사용자 단말의 위치가 사용자 단말의 이미지센서를 통해 인식된 영상에 대응하는 실제 사용자 단말의 위치와 다른 경우를 나타낸다. Referring to FIG. 15, (a) of FIG. 15 shows a case where a position of a user terminal displayed on a map is recognized through an image sensor of the user terminal due to an error of the position information of the user terminal Indicates a case where the position of the actual user terminal corresponding to the video is different from the position of the actual user terminal corresponding to the video.

이러한 경우, 사용자는 사용자 단말(1)의 지도 상에 표시된 위치 정보에 대응하는 위치 좌표(pos 1)을 일예로 화면 터치를 통해 드래그하는 등의 사용자 입력을 수행함으로써, 도 15의 (b)와 같이 위치 정보를 보정할 수 있다. In this case, the user performs a user input such as dragging the position coordinate (pos 1) corresponding to the position information displayed on the map of the user terminal 1 through a screen touch, for example, Similarly, the position information can be corrected.

다른 일예로, 사용자는 사용자 단말(1)의 화면의 일영역에 표시되는 위치 정보 조정 아이콘(Q)에 대한 사용자 입력을 통해 위치 정보를 보정할 수 있다. 이때, 위치 정보 조정 아이콘(Q)에 대한 사용자 입력에 의해, 지도 상에 표시되는 위치 정보가 실시간으로 변경되어 보여질 수 있다. 위치 정보 조정 아이콘(Q)에 의하여 위치 정보는 예를 들어 도면을 기준으로 상 또는 하 방향으로 이동될 수 있다. 다만, 이에만 한정되는 것은 아니고, 위치 정보 조정 아이콘(Q)에 의하여 위치 정보는 360도 방향 중 어느 하나의 방향으로 이동될 수 있다.In another example, the user can correct the position information through user input to the position information adjustment icon (Q) displayed in one area of the screen of the user terminal (1). At this time, the position information displayed on the map can be changed in real time by user input to the position information adjustment icon (Q). By the position information adjustment icon Q, the position information can be moved upward or downward, for example, with reference to the drawing. However, the present invention is not limited thereto, and the positional information can be moved in any one of the 360-degree directions by the positional information adjustment icon (Q).

사용자 입력에 의해, 지도 상에는 도 15의 (b)와 같이 수동으로 보정된 보정 위치 좌표(pos 1', 즉 실제 사용자 단말의 위치 좌표)가 표시될 수 있다. 이러한 경우, 본 장치(10)는 도 15의 (b)와 같이 보정된 위치 정보에 기반하여 POI 검색(탐색)을 수행할 수 있다. 즉, 본원에서 본 장치(10)가 인식한 사용자 단말(1)의 위치 정보는 일예로 사용자 입력에 의하여 수동으로 미세 조정됨에 따라 보정될 수 있다.By the user input, manually corrected position coordinates (pos 1 ', i.e., the position coordinates of the actual user terminal) can be displayed on the map as shown in FIG. 15 (b). In this case, the present apparatus 10 can perform POI search (search) based on the corrected position information as shown in FIG. 15 (b). That is, the positional information of the user terminal 1 recognized by the present apparatus 10 can be corrected by manually fine-tuning it by user input, for example.

도 16은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 본 장치(10)에 의해 자동으로 이루어지는 경우의 예를 설명하기 위한 도면이다.16 is a flowchart for explaining an example in which the apparatus 10 automatically determines whether there is an error in the location information of the user terminal acquired by the automatic local area information recognizing apparatus 10 according to an embodiment of the present invention FIG.

도 16에서 pos 1은 본 장치(10)가 획득한 사용자 단말(1)의 위치 정보에 대응하는 위치, 즉 본 장치(10)가 인식한 사용자 단말(1)의 위치 좌표 예를 나타낸다. pos 2는 실제 사용자 단말(1)의 위치 좌표 예를 나타낸다.16, pos 1 represents an example of a position corresponding to the position information of the user terminal 1 acquired by the present device 10, that is, an example of the position coordinates of the user terminal 1 recognized by the present device 10. pos 2 represents an example of the positional coordinates of the actual user terminal 1.

도 16을 참조하면, 추출부(11)는 도 16의 (a)와 같이 사용자 단말(1)에 표출되는 검색 영역(s)에 대응하는 영상에 대해 영상 분석을 수행함으로써, 영상 분석 기반 폭 비율 셋트를 산출할 수 있다. 이때, 사용자 단말(1)에 표출되는 영상으로부터 산출된 영상 분석 기반 폭 비율 셋트는 실제 pos 2의 위치에서 산출되는 폭 비율 셋트를 의미할 수 있다. 달리 말해, 도 16의 (a)에서 사용자 단말(1)에 표출되는 영상은 pos 2의 위치에서 인식되는 영상의 예를 나타낼 수 있다.16, the extracting unit 11 performs an image analysis on an image corresponding to the search region s displayed on the user terminal 1, as shown in FIG. 16A, The set can be calculated. In this case, the image analysis based width ratio set calculated from the image displayed on the user terminal 1 may mean a width ratio set calculated at the position of the actual pos 2. In other words, the image displayed on the user terminal 1 in FIG. 16A may represent an image recognized at the position of pos 2.

또한, 추출부(11)는 객체 저장부(15)에 저장된 지형지물 객체들을 기반으로 하여 복수의 후보 지형지물 객체에 대한 객체 정보 기반 폭 비율 셋트를 산출할 수 있다. 이때, 산출되는 객체 정보 기반 폭 비율 셋트는 일예로 도 16의 (b)에서 pos 2 위치에서 산출되는 폭 비율 세트를 의미할 수 있다. In addition, the extracting unit 11 may calculate an object information-based width ratio set for a plurality of candidate feature objects based on the feature objects stored in the object storage unit 15. [ In this case, the calculated object information-based width ratio set may be, for example, a set of width ratios calculated at position pos 2 in FIG. 16 (b).

이때, 추출부(11)는 사용자 단말(1)에 표출되는 영상으로부터 산출된 영상 분석 기반 폭 비율 셋트와 pos 2 위치에서 산출되는 객체 정보 기반 폭 비율 셋트가 불일치하는지 여부를 판정할 수 있다.At this time, the extracting unit 11 may determine whether the set of the image analysis-based width ratio calculated from the image displayed on the user terminal 1 and the set of the object information-based width ratio calculated at the pos 2 position are inconsistent.

판정 결과, 불일치하므로, 추출부(11)는 방향 정보를 일정하게 유지한 상태로, pos 1의 위치를 제1 위치(pos 1'), 제2 위치(pos 1'') 등과 같이 변경(시프트)하면서 영상 분석 기반 폭 비율 세트와 대응되는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. 이때, 제1 위치(pos 1')에서 산출되는 객체 정보 기반 폭 비율 셋트가 추출부(11)에 의해 탐색된 영상 분석 기반 폭 비율 세트와 대응되는 다른 객체 정보 기반 폭 비율 셋트를 의미할 수 있다. 따라서, 탐색 결과, 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 제1 위치(pos 1')에 대하여 존재하므로, 추출부(11)는 이를 사용자 단말(1)로부터 획득된 위치 정보에 오차가 있는 것으로 보아 본 장치(10)가 인식한 사용자 단말(1)의 위치 정보(pos 1)를 제1 위치(pos 1')로 보정할 수 있다.The extracting unit 11 changes the position of pos 1 to the first position pos 1 ', the second position pos 1' ', etc. in a state in which the direction information is kept constant, ) While searching for other sets of object information-based width ratios corresponding to the image analysis-based width ratio sets. Here, the object information-based width ratio set calculated at the first position (pos 1 ') may mean another object information-based width ratio set corresponding to the image analysis-based width ratio set detected by the extracting unit 11 . Therefore, as a result of the search, since the different object information-based width ratio sets corresponding to the image analysis-based width ratio sets exist for the first position (pos 1 '), the extracting unit 11 extracts It is possible to correct the position information (pos 1) of the user terminal 1 recognized by the present apparatus 10 to the first position (pos 1 ') because there is an error in the position information.

이때, 일예로 추출부(11)는 pos 1의 위치를 변경(시프트)할 때, 수치지도를 기반으로 하는 객체 저장부에 저장된 지형지물 객체들에 대하여, 방향 정보를 일정하게 유지한 상태로 이미지센서에서 인식 가능한 영상의 윈도우 폭을 좌우 방향에 대해 하나의 건물 폭에 대응하는 거리만큼 변경(시프트)시킬 수 있다.At this time, for example, when the position of pos 1 is changed (shifted), the extracting unit 11 extracts the image information of the feature objects stored in the object storage unit based on the digital map, The window width of the image recognizable by the sensor can be changed (shifted) by a distance corresponding to one building width with respect to the lateral direction.

이처럼, 본 장치(10)는 영상 분석을 통해 산출된 영상 분석 기반 폭 비율 셋트(달리 표현하여, 영상 상의 건물크기 비율 패턴)과 본 장치(10)가 인식한 사용자 단말의 위치에 대한 객체 정보 기반 폭 비율 셋트(달리 표현하여, 수치지도를 기반으로 한 본 장치(10)가 인식한 사용자 단말의 위치에 대한 건물크기 비율 패턴)을 비교함으로써 불일치 여부를 판정할 수 있다. 판정 결과 불일치하면, 본 장치(10)는 사용자 단말의 위치를 시프트하면서 시프트된 위치에 대한 객체 정보 기반 폭 비율 셋트를 비교하여 영상 분석 기반 폭 비율 셋트에 대응하는 객체 정보 기반 폭 비율 셋트를 탐색하고, 탐색된 해당 위치로 사용자 단말의 위치를 보정할 수 있다. As described above, the present apparatus 10 is configured to perform the object information based on the image analysis-based width ratio set (differently, the building size ratio pattern on the image) calculated through the image analysis and the position of the user terminal recognized by the apparatus 10 It is possible to judge inconsistency by comparing the width ratio set (the pattern of the size ratio of the building to the position of the user terminal recognized by the apparatus 10 based on the numerical map in different manners). If the determination result is inconsistent, the apparatus 10 searches the object information based width ratio set corresponding to the image analysis based width ratio set by comparing the object information based width ratio set for the shifted position while shifting the position of the user terminal , And the position of the user terminal can be corrected to the detected position.

본 장치(10)는 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단을 수치지도 및 영상 분석을 통해 자동으로 수행할 수 있다. 이때, 본원에서는 영상 분석시 기존재하거나 향후 개발되는 다양한 이미지 인식(분석) 알고리즘이 적용될 수 있다.The present apparatus 10 can automatically determine whether there is an error in the location information of the user terminal through digital map and image analysis. At this time, various image recognition (analysis) algorithms exist or may be developed at the time of image analysis.

도 17 및 도 18은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 사용자 단말의 위치 정보의 보정을 설명하기 위한 도면이다.17 and 18 are diagrams for explaining correction of the location information of the user terminal in the automatic local area information recognizing apparatus 10 according to an embodiment of the present invention.

도 17 및 도 18을 참조하면, 17의 (a)에 도시된 바와 같이, 본 장치(10)를 통해 인식된 사용자 단말(1)의 위치는 pos 1과 같고, 실제 사용자 단말(1)의 위치 좌표가 pos 2와 같다고 하자.17 and 18, as shown in (a) of FIG. 17, the position of the user terminal 1 recognized through the apparatus 10 is equal to pos 1, and the position of the actual user terminal 1 Let the coordinates be the same as pos 2.

추출부(11)는 사용자 단말(1)의 화면 상에 표출되는 영상에 대하여 영상 분석을 수행함으로써 도 17의 (b)와 같이 화면 상에 표출되는 건물들의 윤곽선을 추출할 수 있다.The extraction unit 11 can extract the contours of the buildings displayed on the screen as shown in FIG. 17 (b) by performing an image analysis on the images displayed on the screen of the user terminal 1.

다음으로, 추출부(11)는 도 17의 (c)와 같이, 영상 분석을 통해 추출된 건물들의 윤곽선에 기반하여, 영상 분석 기반 폭 비율 셋트(R1, 달리 표현하여 영상 상의 건물크기 비율 패턴)를 산출할 수 있다. 이때, 일예로 추출부(11)는 윤곽선의 세로선을 기준으로 영상 분석 기반 폭 비율 셋트(R1)를 산출할 수 있다.17 (c), the extraction unit 11 extracts an image analysis-based width ratio set R1 (i.e., a building size ratio pattern on the image by different expressions) based on the contours of the buildings extracted through the image analysis, Can be calculated. At this time, for example, the extracting unit 11 may calculate the image analysis-based width ratio set R1 based on the vertical line of the outline.

다음으로, 추출부(11)는 도 17의 (d)와 같이, 사용자 단말(1)의 위치센서의 오차 범위를 고려하여 오차 범위 내에서 인식 가능한 탐색 유효 영역을 특정지을 수 있다. 이후, 추출부(11)는 탐색 유효 영역 내에 위치하는 복수의 후보 지형지물 객체들을 기반으로 하여, pos 1의 위치를 오차 범위 내에서 변경하면서 영상 분석 기반 폭 비율 셋트(R1)와 대응하는 다른 객체 정보 기반 폭 비율 셋트에 대한 탐색을 수행할 수 있다.17 (d), the extracting unit 11 can identify the search valid area that can be recognized within the error range in consideration of the error range of the position sensor of the user terminal 1. [ Then, the extracting unit 11 extracts, based on the plurality of candidate feature objects located in the search valid region, the position of pos 1 within the error range, You can perform a search for an information-based width ratio set.

이때, 추출부(11)는 도 18의 (a)와 같이 방향 정보를 일정하게 유지한 상태로, pos 1의 위치를 오차 범위 내에서 좌우 방향으로 변경(시프트)하면서 영상 분석 기반 폭 비율 세트와 대응되는 객체 정보 기반 폭 비율 셋트(R2)를 탐색할 수 있다. At this time, the extraction unit 11 changes (shifts) the position of pos 1 in the error range to the right and left direction while keeping the direction information constant as shown in FIG. 18 (a) It is possible to search for the corresponding object information-based width ratio set R2.

탐색 결과 영상 분석 기반 폭 비율 셋트(R1)와 대응하는 다른 객체 정보 기반 폭 비율 셋트(R2)가 존재하면, 사용자 단말(1)로부터 획득된 위치 정보인 pos 1에 오차가 있는 것으로 보아, 추출부(11)는 도 18의 (b)와 같이 본 장치(10)가 인식한 사용자 단말(1)의 위치 정보 pos 1을 도 18의 (c)와 같이 영상 분석 기반 폭 비율 셋트(R1)와 대응하는 다른 객체 정보 기반 폭 비율 셋트(R2)의 획득이 이루어지는 위치 pos 1'로 보정할 수 있다.If there is an object information information based width ratio set R2 corresponding to the search result image analysis base width ratio set R1 and there is an error in the position information pos 1 obtained from the user terminal 1, The controller 11 compares the position information pos 1 of the user terminal 1 recognized by the apparatus 10 with the image analysis based width ratio set R 1 as shown in FIG. 18 (c) Can be corrected to a position pos 1 'at which acquisition of another object information-based width ratio set R2 is performed.

이처럼, 본 장치(10)는 보정된 사용자 단말의 위치 정보에 기반하여 POI 검색(탐색)을 수행함으로써, 보다 정확한 POI 정보를 제공할 수 있다.As described above, the present apparatus 10 can perform POI search (search) based on the position information of the corrected user terminal, thereby providing more accurate POI information.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, the operation flow of the present invention will be briefly described based on the details described above.

도 19는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법에 대한 동작 흐름도이다.FIG. 19 is a flowchart illustrating a method of automatically recognizing a local area through focusing on a user using the automatic area recognition apparatus 10 according to an embodiment of the present invention.

도 19에 도시된 지역 정보 자동 인식 방법은 앞서 설명된 지역 정보 자동 인식 장치(10, 본 장치)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 지역 정보 자동 인식 장치(10, 본 장치)에 대하여 설명된 내용은 지역 정보 자동 인식 방법에 대한 설명에도 동일하게 적용될 수 있다.The automatic local area recognition method shown in FIG. 19 can be performed by the local area automatic recognition apparatus 10 (this apparatus) described above. Therefore, even if the contents are omitted in the following description, the contents described for the automatic local area information recognizing apparatus 10 (the present apparatus) can be equally applied to the description of the automatic local area information recognizing method.

도 19를 참조하면, 단계S11에서는 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출할 수 있다.Referring to FIG. 19, in step S11, based on the location information and the direction information obtained from the user terminal, among the feature objects stored in the object storage unit of the local information automatic recognition apparatus, a search area set to be visually displayed on the user terminal The corresponding candidate feature objects can be extracted.

이때, 단계S11에서는, 검색 영역에 대한 영상 분석을 통해 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 영상 분석을 통해 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.If it is determined in step S11 that there are a plurality of feature objects whose entire widths are all exposed in the search area through image analysis for the search area, An analysis-based width ratio set and a plurality of candidate feature objects corresponding to the positions and directions of each of the plurality of feature objects based on the feature objects stored in the object storage unit, And determine whether there is a mismatch between the set of object information-based width ratios calculated.

단계S11에서는, 판정 결과 불일치하는 것으로 판정된 경우, 방향 정보를 일정하게 유지한 상태로 상기 위치 정보를 사용자 단말의 위치센서의 오차 범위 내에서 변경하면서 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. 이후, 단계S11에서는, 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 위치 정보에 오차가 있는 것으로 보아 위치 정보를 보정할 수 있다.In step S11, when it is determined that the determination result is not consistent, while the direction information is kept constant, the position information is changed within the error range of the position sensor of the user terminal while the other object information Based width ratio set. Thereafter, in step S11, if it is determined that there is a different object information-based width ratio set corresponding to the image analysis-based width ratio set, it is possible to correct the position information because there is an error in the position information.

단계S11에서는 보정된 위치 정보 및 방향 정보를 기반으로 후보 지형지물 객체들을 추출할 수 있다.In step S11, the candidate feature object objects can be extracted based on the corrected position information and orientation information.

다음으로, 단계S12에서는 단계S11에서 추출된 후보 지형지물 객체들 중 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다.Next, in step S12, among the candidate feature objects extracted in step S11, the visible feature objects visually recognizable in the search area can be selected.

또한, 단계S12에서는 검색 영역 내에서 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다.In step S12, the candidate feature objects are sequentially searched in the search area in the order close to the position corresponding to the position information, and the visible feature objects are selected. If the width of the selected visible feature object in the search area The region can be excluded from the search range from the next search.

단계S11에서 고려되는 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 수 있다. 이에 따라, 단계S12에서 고려되는 선별된 가시 지형지물 객체에 대응하는 폭 영역은 객체 정보를 고려하여 선별된 가시 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역을 의미할 수 있다.The object storage unit considered in step S11 may store information on the position and shape of the feature objects as object information. Accordingly, the width area corresponding to the selected visible feature object considered in step S12 may be an area corresponding to the width of the object appearing when the selected visible feature object is projected in the search area in consideration of the object information have.

여기서, 일예로 객체 저장부에서 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다. 다른 일예로, 객체 저장부에서 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장될 수 있다.Here, for example, information on the shape in the object storage unit may be stored in a MBR (Minimum Bounding Rectangle) form. In another example, information about the shape in the object storage unit may be stored in a MAR (Minimum Area Rectangle) form.

MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태를 의미할 수 있다.The MAR shape is a minimum area of all the cases in which an MBR shape is formed based on a local axis including a line connecting two adjacent vertexes among the vertexes contained in the contour of the feature object included in the digital map May mean a corresponding form.

다음으로, 단계S13에서는 단계S12에서 선별된 가시 지형지물 객체들 중 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식할 수 있다.Next, in step S13, the visible feature object located closest to the center of the search area among the visible feature objects selected in step S12 may be recognized as the area information request object.

또한, 도면에 도시하지는 않았으나, 본원의 일 실시예에 따른 지역 정보 자동 인식 방법은, 단계S13에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 지역 정보 요청 대상 상에 오버레이하여 표시하는 단계를 포함할 수 있다.In addition, although not shown in the drawing, the method for automatically recognizing local information according to an embodiment of the present invention may further include the step of, upon receiving the point of interest (POI) information corresponding to the local information request object recognized in step S13, And displaying the overlay on the display screen.

상술한 설명에서, 단계 S11 내지 S13은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S13 may be further divided into further steps or combined into fewer steps, according to embodiments of the present application. Also, some of the steps may be omitted as necessary, and the order between the steps may be changed.

본원의 일 실시 예에 따른 지역 정보 자동 인식 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method for automatically recognizing local information according to an embodiment of the present invention may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and configured for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 지역 정보 자동 인식 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.Further, the above-described method of automatically recognizing the area information may be implemented in the form of a computer program or an application executed by a computer stored in a recording medium.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those of ordinary skill in the art that the foregoing description of the embodiments is for illustrative purposes and that those skilled in the art can easily modify the invention without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

1: 사용자 단말
10: 지역 정보 자동 인식 장치
11: 추출부
12: 선별부
13: 인식부
14: 디스플레이 제어부
15: 객체 저장부
1: User terminal
10: Local information automatic recognition device
11:
12:
13:
14:
15: Object storage unit

Claims (19)

지역 정보 자동 인식 장치를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법으로서,
(a) 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 단계;
(b) 상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 단계; 및
(c) 상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 단계,
를 포함하는 지역 정보 자동 인식 방법.
A method for automatically recognizing a local area through focusing on a user using a local area automatic recognition apparatus,
(a) a candidate feature item corresponding to a search area set to be visually displayed on the user terminal among the feature objects stored in the object storage unit of the automatic localization device, based on the positional information and orientation information obtained from the user terminal Extracting objects;
(b) selecting visible feature objects visually recognizable within the search area among the candidate feature objects; And
(c) recognizing a visible feature object located closest to a center of the search area among the visible feature objects as a region information request object,
The method comprising the steps of:
제1항에 있어서,
상기 (b) 단계는,
상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외하는 것인, 지역 정보 자동 인식 방법.
The method according to claim 1,
The step (b)
The candidate feature objects are sequentially searched in the search area in the order close to the position corresponding to the position information to select the visible feature objects, and the selected visible feature objects include a width area occupied in the search area The method of automatically recognizing local information, which is excluded from the search range from the next search.
제2항에 있어서,
상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고,
상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역인 것인, 지역 정보 자동 인식 방법.
3. The method of claim 2,
Wherein the object storage unit stores information on the location and shape of the feature objects as object information,
Wherein the width area corresponding to the selected visible feature type object is an area corresponding to an object width appearing when the selected visible feature type object is projected on the search area in consideration of the object information, Way.
제3항에 있어서,
상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 방법.
The method of claim 3,
Wherein the information on the shape is stored in an MBR (Minimum Bounding Rectangle) format.
제3항에 있어서,
상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 방법.
The method of claim 3,
Wherein the information on the shape is stored in a MAR (Minimum Area Rectangle) format.
제5항에 있어서,
상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태인 것인, 지역 정보 자동 인식 방법.
6. The method of claim 5,
The MAR form is a minimum area of all the cases in which the MBR form is formed based on the local axis including the line connecting two adjacent vertexes among the vertexes included in the contour of the feature object included in the digital map Is a form corresponding to the local area information.
제3항에 있어서,
상기 (a) 단계는,
상기 검색 영역에 대한 영상 분석을 통해 상기 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 상기 영상 분석을 통해 상기 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 상기 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정하는 것인, 지역 정보 자동 인식 방법.
The method of claim 3,
The step (a)
If it is determined through the image analysis of the search area that there are a plurality of feature objects whose entire widths are all exposed in the search area, the image analysis based on the plurality of feature objects A plurality of candidate feature objects corresponding to positions and directions of each of the plurality of feature objects based on the feature objects stored in the object storage unit; And determining whether there is a discrepancy between the set of object information-based width ratios calculated by the automatic matching method.
제7항에 있어서,
상기 (a) 단계는,
불일치하는 것으로 판정된 경우, 상기 방향 정보를 일정하게 유지한 상태로 상기 위치 정보를 상기 사용자 단말의 위치센서의 오차 범위 내에서 변경하면서 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색하고,
상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 상기 위치 정보에 오차가 있는 것으로 보아 상기 위치 정보를 보정하는 것인, 지역 정보 자동 인식 방법.
8. The method of claim 7,
The step (a)
When the position information is determined to be inconsistent, the position information is changed within the error range of the position sensor of the user terminal while the direction information is kept constant, and the other information information based width ratio Search the set,
Wherein the location information is corrected based on an error in the location information when it is determined that the image analysis based width ratio set and another object information based width ratio set corresponding to the image analysis based width ratio set exist.
제1항에 있어서,
(d) 상기 (c) 단계에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 단계,
를 더 포함하는 지역 정보 자동 인식 방법.
The method according to claim 1,
(d) overlaying the POI (Point of Interest) information corresponding to the local information request object recognized in the step (c) on the local information request object,
The method comprising the steps of:
사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치로서,
사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 추출부;
상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 선별부; 및
상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 인식부,
를 포함하는 지역 정보 자동 인식 장치.
An apparatus for automatically recognizing a local area through focusing on a user's surroundings,
Based on the location information and direction information obtained from the user terminal, candidate feature objects corresponding to the search area set to be visually displayed on the user terminal among the feature objects stored in the object storage unit of the automatic local area information device are extracted And
A sorting unit for sorting the visible feature objects visually recognizable within the search area among the candidate feature objects; And
A recognition unit for recognizing a visible feature object located closest to the center of the search area among the visible feature objects as a region information request object,
A local information automatic recognition device.
제10항에 있어서,
상기 선별부는,
상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외하는 것인, 지역 정보 자동 인식 장치.
11. The method of claim 10,
The sorting unit,
The candidate feature objects are sequentially searched in the search area in the order close to the position corresponding to the position information to select the visible feature objects, and the selected visible feature objects include a width area occupied in the search area And then excluded from the search target range from the next search.
제11항에 있어서,
상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고,
상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역인 것인, 지역 정보 자동 인식 장치.
12. The method of claim 11,
Wherein the object storage unit stores information on the location and shape of the feature objects as object information,
Wherein the width area corresponding to the selected visible feature type object is an area corresponding to an object width appearing when the selected visible feature type object is projected on the search area in consideration of the object information, Device.
제12항에 있어서,
상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 장치.
13. The method of claim 12,
Wherein the information on the shape is stored in the form of a minimum bounding rectangle (MBR).
제12항에 있어서,
상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 장치.
13. The method of claim 12,
Wherein the information on the shape is stored in a MAR (Minimum Area Rectangle) form.
제14항에 있어서,
상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태인 것인, 지역 정보 자동 인식 장치.
15. The method of claim 14,
The MAR form is a minimum area of all the cases in which the MBR form is formed based on the local axis including the line connecting two adjacent vertexes among the vertexes included in the contour of the feature object included in the digital map Wherein the local area information is in a form corresponding to the area information.
제12항에 있어서,
상기 추출부는,
상기 검색 영역에 대한 영상 분석을 통해 상기 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 상기 영상 분석을 통해 상기 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 상기 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정하는 것인, 지역 정보 자동 인식 장치.
13. The method of claim 12,
The extracting unit extracts,
If it is determined through the image analysis of the search area that there are a plurality of feature objects whose entire widths are all exposed in the search area, the image analysis based on the plurality of feature objects A plurality of candidate feature objects corresponding to positions and directions of each of the plurality of feature objects based on the feature objects stored in the object storage unit; And determining whether there is a mismatch between the set of object information-based width ratios calculated by the automatic determination unit.
제16항에 있어서,
상기 추출부는,
불일치하는 것으로 판정된 경우, 상기 방향 정보를 일정하게 유지한 상태로 상기 위치 정보를 상기 사용자 단말의 위치센서의 오차 범위 내에서 변경하면서 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색하고,
상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 상기 위치 정보에 오차가 있는 것으로 보아 상기 위치 정보를 보정하는 것인, 지역 정보 자동 인식 장치.
17. The method of claim 16,
The extracting unit extracts,
When the position information is determined to be inconsistent, the position information is changed within the error range of the position sensor of the user terminal while the direction information is kept constant, and the other information information based width ratio Search the set,
Wherein the positional information correction unit corrects the positional information based on the presence of an error in the positional information when it is determined that the image analysis based width rate set and other object information based width rate sets corresponding to the set exist.
제10항에 있어서,
상기 인식부에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 디스플레이 제어부,
를 더 포함하는 지역 정보 자동 인식 장치.
11. The method of claim 10,
A display controller for overlaying a point of interest (POI) information corresponding to the area information requested by the recognizing unit on the area information request object,
And an automatic local area information recognizing device.
제1항 내지 제9항 중 어느 한 항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터에서 판독 가능한 기록매체.A computer-readable recording medium on which a program for executing the method of any one of claims 1 to 9 is recorded.
KR1020180101150A 2018-01-16 2018-08-28 Apparatus and method for automatically recognizing local information through focusing around a user KR102157999B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200117207A KR102273919B1 (en) 2018-01-16 2020-09-11 Apparatus and method for automatically recognizing local information through focusing around a user

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180005387 2018-01-16
KR20180005387 2018-01-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200117207A Division KR102273919B1 (en) 2018-01-16 2020-09-11 Apparatus and method for automatically recognizing local information through focusing around a user

Publications (2)

Publication Number Publication Date
KR20190087267A true KR20190087267A (en) 2019-07-24
KR102157999B1 KR102157999B1 (en) 2020-09-21

Family

ID=67481418

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020180101150A KR102157999B1 (en) 2018-01-16 2018-08-28 Apparatus and method for automatically recognizing local information through focusing around a user
KR1020200117207A KR102273919B1 (en) 2018-01-16 2020-09-11 Apparatus and method for automatically recognizing local information through focusing around a user

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020200117207A KR102273919B1 (en) 2018-01-16 2020-09-11 Apparatus and method for automatically recognizing local information through focusing around a user

Country Status (1)

Country Link
KR (2) KR102157999B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220124572A (en) 2021-03-03 2022-09-14 주식회사 케이티 Business information providing server based on map platform

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110087623A (en) * 2010-01-26 2011-08-03 광주과학기술원 System and method for storing information of vision image, and the recording media storing the program performing the said method
US20110199479A1 (en) * 2010-02-12 2011-08-18 Apple Inc. Augmented reality maps
KR20150075532A (en) * 2013-12-26 2015-07-06 한국전자통신연구원 Apparatus and Method of Providing AR

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110087623A (en) * 2010-01-26 2011-08-03 광주과학기술원 System and method for storing information of vision image, and the recording media storing the program performing the said method
US20110199479A1 (en) * 2010-02-12 2011-08-18 Apple Inc. Augmented reality maps
KR20150075532A (en) * 2013-12-26 2015-07-06 한국전자통신연구원 Apparatus and Method of Providing AR

Also Published As

Publication number Publication date
KR102273919B1 (en) 2021-07-06
KR20200108403A (en) 2020-09-18
KR102157999B1 (en) 2020-09-21

Similar Documents

Publication Publication Date Title
US11692842B2 (en) Augmented reality maps
EP3616035B1 (en) Augmented reality interface for interacting with displayed maps
JP6312715B2 (en) Directional view and X-ray view techniques for navigation using mobile devices
US10309797B2 (en) User interface for displaying navigation information in a small display
JP5728775B2 (en) Information processing apparatus and information processing method
US20170328730A1 (en) Dynamic map synchronization
US11922588B2 (en) Cooperative augmented reality map interface
JP5785302B2 (en) A user portable terminal that retrieves target geographical information using the user's current position and current azimuth and provides the user with the information
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
JP2010118019A (en) Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
Basiri et al. Seamless pedestrian positioning and navigation using landmarks
KR20150075532A (en) Apparatus and Method of Providing AR
EP3827222B1 (en) Method and device for navigating two or more users to a meeting location
US10451431B2 (en) Route search system, route search device, route search method, program, and information storage medium
KR101568741B1 (en) Information System based on mobile augmented reality
KR102273919B1 (en) Apparatus and method for automatically recognizing local information through focusing around a user
JP6384898B2 (en) Route guidance system, method and program
US10157189B1 (en) Method and computer program for providing location data to mobile devices
Chernykh et al. Development of a Navigation System on the University Territory Using Augmented Reality Technology
KR20180135686A (en) Ar app
Patel et al. Improving Navigation for Street Data Using Mobile Augmented Reality
Ahmed Dynamic Visual Navigation System using Android Device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant