KR20200108403A - Apparatus and method for automatically recognizing local information through focusing around a user - Google Patents
Apparatus and method for automatically recognizing local information through focusing around a user Download PDFInfo
- Publication number
- KR20200108403A KR20200108403A KR1020200117207A KR20200117207A KR20200108403A KR 20200108403 A KR20200108403 A KR 20200108403A KR 1020200117207 A KR1020200117207 A KR 1020200117207A KR 20200117207 A KR20200117207 A KR 20200117207A KR 20200108403 A KR20200108403 A KR 20200108403A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- search
- user terminal
- area
- location
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
본원은 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치 및 방법에 관한 것이다. 즉, 본원은 사용자 주변의 객체(지형지물 객체)를 지역 정보 자동 인식 장치를 이용해 포커싱함으로써 포커싱된 객체에 대한 지역 정보를 자동으로 인식할 수 있는 지역 정보 자동 인식 장치 및 방법에 관한 것이다.The present application relates to an apparatus and method for automatically recognizing local information through focusing around a user. That is, the present application relates to an apparatus and method for automatically recognizing region information for automatically recognizing region information on a focused object by focusing an object (terrain object) around a user using a region information automatic recognition apparatus.
모바일 디바이스가 보급화되고 통신기술이 발달함에 따라, 이를 활용하여 생활에 편리함을 줄 수 있는 정보 검색/제공 서비스에 대한 요구가 증가하고 있다As mobile devices become popular and communication technologies develop, there is an increasing demand for information retrieval/providing services that can provide convenience in life by utilizing them.
일반적으로 정보를 검색할 수 있는 방법으로는 구글, 네이버 등의 검색엔진에 검색 대상의 키워드를 입력하여 검색하는 방법이 있다. 하지만 이 방법은 키워드를 모를 경우 정보를 검색하지 못하는 문제점이 있다. In general, as a method of searching for information, there is a method of searching by entering a keyword of the search target into a search engine such as Google or Naver. However, this method has a problem in that information cannot be searched if the keyword is not known.
이러한 문제를 해소하고자 사용자의 위치를 기반으로 주위 정보를 검색해 제공하는 서비스가 등장하고 있다.In order to solve this problem, a service that searches and provides surrounding information based on the user's location is emerging.
도 1은 일예로 AR(Augmented Reality) 기반의 정보 검색 서비스의 제공 예를 나타낸 도면이다.1 is a diagram illustrating an example of providing an information retrieval service based on Augmented Reality (AR).
도 1을 참조하면, AR(Augmented Reality) 기반의 정보 검색 서비스는 별도의 키워드를 필요로 하지 않으며, 사용자의 위치정보를 이용하여 사용자 주변의 정보(예를 들어, POI 정보)를 검색하여 카메라 영상 위에 오버레이하여 제공할 수 있다.Referring to FIG. 1, the AR (Augmented Reality)-based information search service does not require a separate keyword, and a camera image by searching for information around the user (eg, POI information) using the user's location information. It can be provided by overlaying it on top.
그런데, 종래에 공지된 AR 기반의 정보 검색 서비스들은 정보를 표시하는데 있어서 사용자의 위치만을 이용하고 있다. 이로 인해, AR 기반의 정보 검색 서비스들은 사용자가 이동하기 어려운 곳에 있는 정보들을 표시할 뿐만 아니라, 가까이 있는 정보와 멀리 있는 정보의 구분없이 모두 한 화면 상에 중첩하여 표시하므로, 사용자가 해당 정보(표시된 정보)를 쉽게 인식하기 힘든 문제가 있다.However, conventionally known AR-based information retrieval services use only the user's location to display information. For this reason, AR-based information retrieval services not only display information in places where it is difficult for the user to move, but also display both nearby information and distant information superimposed on one screen. Information) is difficult to recognize easily.
예시적으로, AR 앱 중 하나인 포켓몬GO는 사용자의 위치를 이용하여 지도상에 가상의 포켓몬이 있는 위치를 보여준다. 그리고 해당 포켓몬과 조우하면 카메라 영상 위에 사용자의 바라보는 방향에 따라 그 포켓몬을 나타낸다. 하지만, 포켓몬GO에서는 실생활공간의 지형지물에 대한 고려를 하지 않으므로, 포켓몬이 실생활공간의 물체와는 상관없이 허공에 떠 있는 것처럼 보이게 된다.For example, Pokemon GO, one of AR apps, uses the user's location to show the location of the virtual Pokemon on the map. And when you encounter the Pokemon, the Pokémon is displayed according to the user's viewing direction on the camera image. However, since Pokemon GO does not take into account the topographical features of real life space, it appears that Pokémon is floating in the air regardless of the objects in real life space.
또한, AR 앱 중 하나인 세카이 카메라(Sekai Camera)는 사용자가 특정 위치에 남긴 가상의 메모를 카메라 화면 위에 겹쳐 보여준다. 하지만, 이 또한 실생활공간의 건물이나 장애물에 가려져서 보이지 말아야 할 곳에 있는 메모가 보이게 된다.In addition, Sekai Camera, one of AR apps, superimposes virtual memos left at a specific location on the camera screen. However, this is also obscured by buildings or obstacles in the real life space, so that the memo is visible in places that should not be seen.
이처럼, 종래의 AR 기반 서비스는 사용자의 주변환경을 전혀 고려하지 않은 상태에서 사용자의 위치정보만을 활용하여 카메라를 통해 취득한 영상 위에 정보를 오버레이하고 있다. 즉, 종래의 AR 기반 서비스는 물체의 위치와 상관없이 정보를 허공에 제공하거나, 건물이나 장애물에 가려지지 않은 정보 뿐만 아니라 건물이나 장애물에 가려져 보이지 말아야 하는 정보를 모두 한 화면에 제공하며, 가까이 있는 정보와 멀리 있는 정보의 구분없이 모두 한 화면에 제공하므로, 사용자가 원하는 정보를 쉽게 인식하기 어려운 문제가 있다.As such, the conventional AR-based service overlays information on an image acquired through a camera using only the user's location information without considering the user's surrounding environment at all. In other words, the conventional AR-based service provides information in the air regardless of the location of an object, or provides information that should not be seen hidden by buildings or obstacles as well as information that is not covered by buildings or obstacles on one screen. Since all information is provided on one screen without distinction between information and distant information, there is a problem that it is difficult to easily recognize the information desired by the user.
한편, AR 서비스 기술에서 나아가, 사용자의 가시영역 내 실생활공간 개체(object)의 위치관계와 형상 등을 이용하여 정보를 표시하는 MR(Mixed Reality) 서비스 기술에 대한 연구가 이루어지고 있다.On the other hand, further from AR service technology, research is being conducted on MR (Mixed Reality) service technology that displays information by using the positional relationship and shape of real-life space objects in the user's visible area.
MR 서비스 기술은 객체 추출을 위해 주로 깊이센서와 영상처리 기술을 활용하며, AR에 비해 실생활공간에 보다 잘 정합된 정보를 제공한다. 그런데, 이러한 종래의 MR 서비스 기술들은 센싱 범위가 제한되어 있는 방, 사무실 등과 같은 실내공간에서는 좋은 결과를 보이나, 주위환경 변화가 큰 실외에서는 적용하기 어려운 문제가 있다.MR service technology mainly uses depth sensor and image processing technology for object extraction, and provides information that is better matched to real life space than AR. However, these conventional MR service technologies show good results in indoor spaces such as rooms, offices, etc., in which the sensing range is limited, but are difficult to apply outdoors where environmental changes are large.
또한, 종래의 MR 서비스 기술은 영상처리 기반으로 객체를 인식하기 때문에, 빛 등의 주변 환경에 영향을 받아 객체의 인식률이 떨어지고, 앞 건물에 의해 일부 영역이 가려져 보이는 객체에 대한 인식이 어려운 문제가 있다. In addition, since the conventional MR service technology recognizes an object based on image processing, the recognition rate of the object decreases due to the influence of the surrounding environment such as light, and it is difficult to recognize the object that is partially covered by the building in front. have.
즉, 실외 MR 서비스를 가능하게 하기 위해서는 실외 개체들의 정확한 위치정보가 필요하다고 할 수 있다. 그런데, 종래의 MR 서비스는 주로 실내 서비스를 전제로 연구가 이루어지고 있기 때문에, 깊이센서를 이용하거나 영상의 특징점을 이용해 실내 객체를 특정짓는 종래의 MR 서비스 기술로는 실외 객체들을 인식하는 데에 어려움이 있다.That is, in order to enable outdoor MR service, it can be said that accurate location information of outdoor entities is required. However, since the conventional MR service is mainly studied on the premise of indoor service, it is difficult to recognize outdoor objects with the conventional MR service technology that specifies indoor objects using a depth sensor or feature points of an image. There is this.
본원의 배경이 되는 기술은 한국공개특허공보 제10-2012-0075609호에 개시되어 있다.The technology behind the present application is disclosed in Korean Laid-Open Patent Publication No. 10-2012-0075609.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 키워드의 필요없이, 사용자 주변의 객체를 포커싱하는 것만으로 사용자가 원하는 정보(즉, 포커싱된 객체에 대한 지역 정보)를 자동으로 인식할 수 있는 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, without the need for a keyword, by simply focusing the object around the user, the user can automatically recognize the desired information (that is, local information on the focused object) An object of the present invention is to provide an apparatus and method for automatically recognizing local information through focusing around a user.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the embodiments of the present application is not limited to the technical problems as described above, and other technical problems may exist.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법은, (a) 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 단계; (b) 상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 단계; 및 (c) 상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 단계를 포함할 수 있다.As a technical means for achieving the above technical problem, a method for automatically recognizing region information through focusing around a user using an apparatus for automatically recognizing region information according to an embodiment of the present application includes: (a) location information obtained from a user terminal and Extracting candidate feature objects corresponding to a search area set to be visually displayed on a user terminal from among feature objects stored in an object storage unit of the apparatus for automatically recognizing location information based on direction information; (b) selecting visible feature objects that can be visually identified in the search area among the candidate feature objects; And (c) recognizing a visible feature object located closest to the center of the search area among the visible feature objects as a region information request target.
또한, 상기 (b) 단계는, 상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다.In addition, in the step (b), the candidate feature objects are sequentially searched in an order close to the location corresponding to the location information in the search area to select a visible feature object, and the selected visible feature object is The width area occupied within the search area may be excluded from the search target range from the next search.
또한, 상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고, 상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역일 수 있다.In addition, the object storage unit stores information on the location and shape of the feature objects as object information, and the width region corresponding to the selected visible feature object stores the selected visible feature object in consideration of the object information. It may be an area corresponding to the object width displayed in the state projected onto the search area.
또한, 상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다.In addition, information on the shape may be stored in the form of a minimum bounding rectangle (MBR).
또한, 상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장될 수 있다.In addition, information on the shape may be stored in a MAR (Minimum Area Rectangle) format.
또한, 상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태일 수 있다.In addition, the MAR shape is the minimum area among all cases in which the MBR shape is formed based on a local axis including a line connecting two neighboring vertices among vertices included in the contour of the feature object included in the digital map. It may be a form corresponding to the case of.
또한, 상기 (a) 단계는, 상기 검색 영역에 대한 영상 분석을 통해 상기 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 상기 영상 분석을 통해 상기 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 상기 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.In addition, in the step (a), if it is determined that there are a plurality of feature objects whose entire width is exposed within the search area through image analysis of the search area, the plurality of feature locations are analyzed through the image analysis. Based on the image analysis-based width ratio set calculated for the water object and the feature objects stored in the object storage unit, a plurality of candidate feature objects corresponding to the positions and directions of the plurality of feature objects are stored in the search area. It is possible to determine whether or not there is a discrepancy between the object information-based width ratio sets calculated in correspondence to the object width appearing in the projected state.
또한, 상기 (a) 단계는, 불일치하는 것으로 판정된 경우, 상기 방향 정보를 일정하게 유지한 상태로 상기 위치 정보를 상기 사용자 단말의 위치센서의 오차 범위 내에서 변경하면서 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색하고, 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 상기 위치 정보에 오차가 있는 것으로 보아 상기 위치 정보를 보정할 수 있다.In addition, in the step (a), when it is determined that there is a discrepancy, the position information is changed within the error range of the position sensor of the user terminal while the direction information is kept constant, while the image analysis-based width ratio set If it is determined that another object information-based width ratio set corresponding to and there is another object information-based width ratio set corresponding to the image analysis-based width ratio set, it is considered that there is an error in the location information and the location information Can be corrected.
또한, 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법은, (d) 상기 (c) 단계에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 단계를 더 포함할 수 있다.In addition, a method for automatically recognizing region information through focusing around a user using an apparatus for automatically recognizing region information according to an embodiment of the present application includes: (d) a point of interest corresponding to the region information request object recognized in step (c) ( It may further include displaying by overlaying POI (Point of Interest) information on the area information request target.
한편, 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치는, 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 추출부; 상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 선별부; 및 상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 인식부를 포함할 수 있다.On the other hand, the apparatus for automatically recognizing local information through focusing around a user according to an embodiment of the present application includes a feature object stored in the object storage unit of the apparatus for automatically recognizing location information based on location information and direction information acquired from a user terminal. An extraction unit for extracting candidate feature objects corresponding to the search area set to be visually displayed on the user terminal; A selection unit that selects visually identifiable visible feature objects from among the candidate feature objects; And a recognition unit for recognizing a visible feature object located closest to the center of the search area among the visible feature objects as a region information request target.
또한, 상기 선별부는, 상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다.In addition, the selection unit selects a visible feature object by sequentially searching for candidate feature objects in an order close to a location corresponding to the location information in the search area, and the selected visible feature object is the search area The width area occupied within can be excluded from the search target range from the next search.
또한, 상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고, 상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역일 수 있다.In addition, the object storage unit stores information on the location and shape of the feature objects as object information, and the width region corresponding to the selected visible feature object stores the selected visible feature object in consideration of the object information. It may be an area corresponding to the object width displayed in the state projected onto the search area.
또한, 상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다.In addition, information on the shape may be stored in the form of a minimum bounding rectangle (MBR).
또한, 상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장될 수 있다.In addition, information on the shape may be stored in a MAR (Minimum Area Rectangle) format.
또한, 상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태일 수 있다.In addition, the MAR shape is the minimum area among all cases in which the MBR shape is formed based on a local axis including a line connecting two neighboring vertices among vertices included in the contour of the feature object included in the digital map. It may be a form corresponding to the case of.
또한, 상기 추출부는, 상기 검색 영역에 대한 영상 분석을 통해 상기 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 상기 영상 분석을 통해 상기 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 상기 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.In addition, if it is determined through image analysis of the search area that there are a plurality of feature objects whose entire widths are exposed in the search area, the extracting unit may perform the image analysis on the plurality of feature objects. A state in which a plurality of candidate feature objects corresponding to the position and direction of each of the plurality of feature objects are projected onto the search area based on the calculated image analysis-based width ratio set and feature objects stored in the object storage unit It is possible to determine whether or not there is a discrepancy between the calculated object information-based width ratio sets corresponding to the object width shown in.
또한, 상기 추출부는, 불일치하는 것으로 판정된 경우, 상기 방향 정보를 일정하게 유지한 상태로 상기 위치 정보를 상기 사용자 단말의 위치센서의 오차 범위 내에서 변경하면서 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색하고, 상기 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 상기 위치 정보에 오차가 있는 것으로 보아 상기 위치 정보를 보정할 수 있다.In addition, when it is determined that the extraction unit is inconsistent, the location information is changed within the error range of the location sensor of the user terminal while maintaining the direction information, and corresponding to the image analysis-based width ratio set. If another object information-based width ratio set is searched and it is determined that another object information-based width ratio set corresponding to the image analysis-based width ratio set exists, it is considered that there is an error in the location information and the location information is corrected. I can.
또한, 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치는, 인식부에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 디스플레이 제어부를 더 포함할 수 있다.In addition, the apparatus for automatically recognizing region information through focusing around a user according to an embodiment of the present application provides point of interest (POI) information corresponding to the region information request target recognized by the recognition unit on the region information request target. It may further include a display control unit for displaying by overlaying on the.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present application. In addition to the above-described exemplary embodiments, additional embodiments may exist in the drawings and detailed description of the invention.
전술한 본원의 과제 해결 수단에 의하면, 키워드의 필요없이, 지역 정보 자동 인식 장치를 이용해 사용자 주변의 지형지물 객체를 포커싱하는 것만으로 사용자가 원하는 정보(즉, 포커싱된 지형지물 객체에 대한 지역 정보)를 자동으로 인식할 수 있다.According to the above-described problem solving means of the present application, information desired by the user (i.e., local information on the focused feature object) by simply focusing the feature object around the user using an automatic local information recognition device without the need for a keyword. Can be recognized automatically.
전술한 본원의 과제 해결 수단에 의하면, 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 객체 저장부에 저장된 지형지물 객체들을 이용해 사용자가 검색하고자 하는 지역 정보 요청 대상(달리 말해, 검색 대상 객체)를 효과적으로 인식(식별)할 수 있다.According to the above-described problem solving means of the present application, based on the location information and direction information obtained from the user terminal, the user is to request local information to be searched by using the feature objects stored in the object storage unit (in other words, the search target object ) Can be effectively recognized (identified).
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effect obtainable in the present application is not limited to the effects as described above, and other effects may exist.
도 1은 일예로 AR(Augmented Reality) 기반의 정보 검색 서비스의 제공 예를 나타낸 도면이다.
도 2는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치의 개략적인 구성을 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 설정 가능한 검색 영역을 설명하기 위한 도면이다.
도 4는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 사용자 단말에 시각적으로 표출되는 검색 영역의 예를 나타낸 도면이다.
도 5는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 고려되는 MBR 형태(a)와 MAR 형태(b)를 설명하기 위한 도면이다.
도 6은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 가시 지형지물 객체를 선별하는 과정을 설명하기 위한 도면이다.
도 7은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 포함하는 지역 정보 자동 인식 시스템의 구성을 개략적으로 나타낸 도면이다.
도 8은 본원의 일 실시예에 따른 지역 정보 자동 인식 시스템에 적용되는 실외 MR 모델의 구조를 개략적으로 나타낸 도면이다.
도 9는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 객체 정보의 저장 구조인 R-tree 구조를 설명하기 위한 도면이다.
도 10은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 지역 정보 요청 대상에 대한 POI 정보를 검색하는 예를 나타낸 도면이다.
도 11은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에 의하여 제공되는 검색 정보의 예를 나타낸 도면이다.
도 12는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에 의하여 제공되는 검색 정보의 다른 예를 나타낸 도면이다.
도 13은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에 의하여 제공되는 검색 정보의 또 다른 예를 나타낸 도면이다.
도 14는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 사용자의 판단에 의해 수동으로 이루어지는 경우의 예를 설명하기 위한 도면이다.
도 15는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 사용자 단말의 위치 정보를 사용자 입력에 의하여 수동으로 변경하는 경우의 예를 나타낸 도면이다.
도 16은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 본 장치에 의해 자동으로 이루어지는 경우의 예를 설명하기 위한 도면이다.
도 17 및 도 18은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치에서 사용자 단말의 위치 정보의 보정을 설명하기 위한 도면이다.
도 19는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법에 대한 동작 흐름도이다.1 is a diagram illustrating an example of providing an information retrieval service based on Augmented Reality (AR).
2 is a diagram illustrating a schematic configuration of an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.
3 is a diagram for describing a search area that can be set by an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.
4 is a diagram illustrating an example of a search area visually displayed on a user terminal in an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present application.
FIG. 5 is a diagram for explaining an MBR type (a) and a MAR type (b) considered in an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.
6 is a view for explaining a process of selecting a visible terrain object in an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.
7 is a diagram schematically illustrating a configuration of a system for automatically recognizing region information including an apparatus for automatically recognizing region information according to an embodiment of the present application.
8 is a diagram schematically showing the structure of an outdoor MR model applied to the system for automatically recognizing area information according to an embodiment of the present application.
9 is a diagram for explaining an R-tree structure, which is a storage structure of object information, in an apparatus for automatically recognizing local information according to an embodiment of the present application.
FIG. 10 is a diagram illustrating an example of searching for POI information on a region information request target in an apparatus for automatically recognizing region information according to an embodiment of the present application.
11 is a diagram illustrating an example of search information provided by an apparatus for automatically recognizing area information according to an embodiment of the present application.
12 is a diagram illustrating another example of search information provided by an apparatus for automatically recognizing area information according to an embodiment of the present application.
13 is a diagram illustrating another example of search information provided by an apparatus for automatically recognizing area information according to an embodiment of the present application.
14 is a view for explaining an example in which the determination of whether an error exists in the location information of a user terminal acquired by the apparatus for automatically recognizing local information according to an embodiment of the present application is manually performed by the user's determination.
15 is a diagram illustrating an example in which the location information of a user terminal is manually changed by a user input in the apparatus for automatically recognizing area information according to an embodiment of the present application.
FIG. 16 is a view for explaining an example of a case in which the apparatus automatically determines whether there is an error in the location information of a user terminal acquired by the apparatus for automatically recognizing local information according to an embodiment of the present disclosure.
17 and 18 are diagrams for explaining correction of location information of a user terminal in an apparatus for automatically recognizing area information according to an embodiment of the present application.
19 is a flowchart illustrating a method of automatically recognizing local information through focusing around a user using an apparatus for automatically recognizing local information according to an embodiment of the present application.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present application. However, the present application may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in the drawings, parts not related to the description are omitted in order to clearly describe the present application, and similar reference numerals are attached to similar parts throughout the specification.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout the present specification, when a part is said to be "connected" with another part, it is not only "directly connected", but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including the case.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned "on", "upper", "upper", "under", "lower", and "lower" of another member, this means that a member is located on another member. It includes not only the case where they are in contact but also the case where another member exists between the two members.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification of the present application, when a certain part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.
도 2는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치의 개략적인 구성을 나타낸 도면이다. 이하에서는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치(10)를 설명의 편의상 본 장치(10)라 하기로 한다.2 is a diagram illustrating a schematic configuration of an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure. Hereinafter, the
도 2를 참조하면, 본 장치(10)는 추출부(11), 선별부(12) 및 인식부(13)를 포함할 수 있다. 또한, 본 장치(10)는 디스플레이 제어부(14) 및 객체 저장부(15)를 포함할 수 있다. Referring to FIG. 2, the
본 장치(10)는 사용자 단말(1)에 포함(또는 설치, 내장, 구비)되는 장치일 수 있다.The
여기서, 사용자 단말(1)은 휴대성과 이동성이 보장되는 이동 통신 장치로서, 예를 들면, PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(WCode Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC, 노트북, 웨어러블 디바이스 등과 같은 모든 종류의 무선 통신 장치를 포함할 수 있다.Here, the
추출부(11)는 사용자 단말(1)로부터 획득된 위치 정보 및 방향 정보를 기반으로, 본 장치(10)의 객체 저장부(15)에 저장된 지형지물 객체들 중 사용자 단말(1)에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출할 수 있다.Based on the location information and direction information obtained from the
검색 영역은 사용자 단말(1)에 포함된 복수의 센서를 이용해 획득된 정보에 기초하여 설정될 수 있다. 검색 영역은 일예로 사용자의 시야와 유사한 영역을 갖도록 설정될 수 있다. 이는 도 3을 참조하여 보다 쉽게 이해될 수 있다.The search area may be set based on information acquired using a plurality of sensors included in the
도 3은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 설정 가능한 검색 영역을 설명하기 위한 도면이다.3 is a diagram for describing a search area that can be set by an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.
도 3을 참조하면, 검색 영역(s)은 사용자 단말(1)에 포함된 위치센서(위치획득센서)로부터 획득된 사용자 단말(1)의 위치 정보, 및 사용자 단말(1)에 포함된 자이로센서, 가속계, 자력계, 나침반(전자나침반) 중 적어도 하나로부터 획득된 사용자 단말(1)이 바라보고 있는 방향 정보를 고려하여 설정될 수 있다. 여기서, 방향 정보는 특히 사용자 단말(1)에 포함된 이미지센서(1a)가 바라보고 있는 방향에 관한 정보를 의미할 수 있으며, 방위각 정보라 달리 표현될 수 있다. 또한, 위치센서는 일예로 GPS 센서를 의미할 수 있으며, 이에 한정되는 것은 아니다. 또한, 이미지센서(1a)는 카메라, 이미지획득장치, 영상촬영장치 등으로 달리 표현될 수 있다.3, the search area (s) is the location information of the
또한, 검색 영역(s)은 사용자 단말(1)에 포함된 이미지센서(1a)의 렌즈의 초점거리(d)와 이미지센서(1a)의 가로 길이()를 이용하여 획득 가능한 이미지센서(1a)의 시야각(α), 및 인식거리를 더 고려하여 설정될 수 있다. 여기서, 시야각 α는 2*atan(/2d)의 조건을 만족할 수 있다. 여기서, 인식거리는 미리 설정된 거리로 설정될 수 있다. 예시적으로, 인식거리는 사용자의 시야를 고려하여 미리 설정된 거리로서 사용자 단말(1)의 위치로부터 일예로 200m 이내의 거리로 설정될 수 있으며, 이에 한정되는 것은 아니다.In addition, the search area s is the focal length d of the lens of the
이처럼, 검색 영역(s)은 사용자 단말(1)의 위치 정보, 방향(방위각) 정보, 시야각, 및 인식거리를 고려하여 설정될 수 있다. As such, the search area s may be set in consideration of location information, direction (azimuth angle) information, viewing angle, and recognition distance of the
도 4는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 사용자 단말(1)에 시각적으로 표출되는 검색 영역(s)의 예를 나타낸 도면이다.4 is a diagram illustrating an example of a search area s visually displayed on a
도 4를 참조하면, 검색 영역(s)은 사용자 단말(1)의 화면 상에 시각적으로 표출되는 영역을 의미할 수 있으며, 촬영 영역, 사용자 단말(1)의 이미지센서를 통해 인식 가능한 인식 영역 등으로 달리 표현될 수 있다.Referring to FIG. 4, the search area (s) may mean an area visually displayed on the screen of the
예시적으로, 사용자가 특정 지형지물 객체의 정보를 알고자하는 경우, 사용자 단말(1)에 시각적으로 표출되도록 설정된 검색 영역 내에 알고자하는 특정 지형지물 객체가 디스플레이되도록, 사용자는 사용자 단말(1)로 알고자하는 특정 지형지물 객체를 포커싱할 수 있다.As an example, when the user wants to know the information of a specific landmark object, the
이때, 추출부(11)는 객체 저장부(15)에 저장된 지형지물 객체들 중 사용자 단말(1)에 시각적으로 표출되도록 설정된 검색 영역(s)에 대응하는 후보 지형지물 객체들을 추출할 수 있다. 달리 표현하여, 추출부(11)는 객체 저장부(15)에 저장된 지형지물 객체들 중 검색 영역(s) 내에 위치한 지형지물 객체들을 후보 지형지물 객체들로서 추출할 수 있다.In this case, the
객체 저장부(15)는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 수 있다. 여기서, 객체 정보에는 지형지물 객체의 키워드 및 위상 정보가 포함될 수 있다. 또한, 지형지물 객체는 움직이지 않는 고정된 객체로서, 예시적으로 건물, 빌딩, 다리, 육교, 게시판, 대형 표지판, 기념비 등의 구조물을 의미할 수 있으며, 이에 한정되는 것은 아니다. 이하에서는 설명의 편의상 지형지물 객체가 건물을 의미하는 것으로 예를 들어 설명하기로 한다.The
일예로, 객체 저장부(15)에는 지형지물 객체들의 형상에 관한 정보가 MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다. 다른 일예로, 객체 저장부(15)에는 지형지물 객체들의 형상에 관한 정보가 MAR(Minimum Area Rectangle) 형태로 저장될 수 있다. 여기서, MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태를 의미할 수 있다. 보다 구체적인 설명은 도 5를 참조하여 보다 쉽게 이해될 수 있다.As an example, the
도 5는 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 고려되는 MBR 형태(a)와 MAR 형태(b)를 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining an MBR type (a) and a MAR type (b) considered in an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure.
도 5를 참조하면, 지형지물 객체들(예를 들어, 건물들)은 복수의 꼭짓점으로 이루어져 있으므로, 지형지물 객체에 대한 객체 정보의 사용이 보다 용이하도록, 객체 저장부(15)는 일예로 지형지물 객체들의 형상에 관한 정보를 MBR(Minimum Bounding Rectangle) 형태로 저장할 수 있다. 여기서, MBR 형태는 지형지물 객체의 모든 꼭짓점을 포함할 수 있는 최소 크기를 갖는 사각형(최소 경계 사각형) 형태를 의미할 수 있다.Referring to FIG. 5, since feature objects (for example, buildings) are composed of a plurality of vertices, the
이때, 지형지물 객체들의 형상에 관한 정보가 MBR 형태로 저장되는 경우 빈 공간이 많이 발생하게 된다. 따라서, 추출부(11)에서의 후보 지형지물 객체들의 추출시 MBR 형태로 저장된 지형지물 객체들의 정보가 이용되는 경우, 실제 건물의 영역과 겹치지는 않지만 MBR 영역이 겹치게 되어 지형지물 객체에 대한 정확한 탐색이 이루어지지 못할 수 있다. 즉, 도 5에 (a)와 같이 지형지물 객체들의 형상에 관한 정보가 MBR 형태로 저장되는 경우, 예시적으로 건물B의 탐색 시 검색영역에 위치한 건물이 함께 탐색되는 등 건물B에 대한 탐색 정확성이 떨어질 수 있다.At this time, when information about the shape of the feature objects is stored in the MBR format, a lot of empty spaces are generated. Therefore, when the information of the feature objects stored in the MBR format is used when extracting candidate feature objects in the
따라서, 객체 저장부(15)에는 지형지물 객체들의 형상에 관한 정보가 MBR의 변형 형태인 MAR 형태로 저장됨이 바람직할 수 있다. MAR 형태는 MBR 형태 중에서도 지형지물 객체의 모든 꼭짓점을 포함할 수 있는 최소 면적을 갖는 사각형(최소 면적 사각형) 형태를 의미할 수 있다Accordingly, it may be desirable to store information on the shape of the feature objects in the
MAR은 다음의 과정을 통해 구할 수 있다. MAR을 구하기 위해서는, 먼저 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 인접한 두 꼭짓점 사이의 각도를 구하고, x축 또는 y축에 맞게 회전시킨 후 MBR의 면적(넓이)을 구할 수 있다. 다음으로, 순서에 상관없이 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 인접한 꼭짓점의 모든 경우에 대하여 MBR의 면적을 구하고, 그 중 최소 면적을 갖는 경우의 MBR을 구할 수 있다. 다음으로, 최소 면적을 갖는 MBR을 다시 회전시킨 만큼 역회전시킴으로써, MAR를 구할 수 있다.MAR can be obtained through the following process. To obtain MAR, first, the angle between two adjacent vertices among the vertices included in the contour of the feature object is obtained, rotated to fit the x-axis or y-axis, and then the area (width) of the MBR can be obtained. Next, regardless of the order, the area of the MBR can be obtained for all cases of adjacent vertices among the vertices included in the contour of the feature object, and the MBR of the case with the minimum area can be obtained. Next, MAR can be obtained by rotating the MBR having the minimum area as much as it rotated again.
이처럼, 도 5에 (b)와 같이 지형지물 객체들의 형상에 관한 정보가 MAR 형태로 저장되는 경우, MBR과 대비하여 빈 공간을 없앨 수 있어 MBR 대비 보다 정확한 지형지물 객체에 대한 탐색이 이루어지도록 할 수 있다.As such, when information on the shape of the feature objects is stored in the form of MAR as shown in (b) in FIG. 5, the empty space can be eliminated compared to the MBR, so that more accurate search for the feature object is made compared to the MBR. I can.
본 장치(10)는 사용자 단말(1)로부터 위치 정보 및 방향 정보가 획득되면, 일예로 사용자 단말(1)의 위치로부터 미리 설정된 거리 범위 내에 위치하는 지형지물 객체들의 위치와 형상에 관한 정보를 서버로부터 획득하고, 획득된 지형지물 객체들의 형상에 관한 정보를 일예로 MAR 형태로 객체 저장부(15)에 저장해 둘 수 있다. 여기서, 미리 설정된 거리 범위는 예시적으로 사용자 단말(1)의 위치로부터 500m 이내의 범위를 의미할 수 있으며, 이에 한정되는 것은 아니고, 다양하게 설정될 수 있다.When the location information and direction information are obtained from the
이에 따르면, 서버에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보로서 저장되어 있을 수 있으며, 본 장치(10)의 객체 저장부(15)는 서버에 저장된 객체 정보들 중 일부의 정보(예를 들어, 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 지형지물 객체들의 위치와 형상에 관한 정보)를 서버로부터 획득하여 저장해 둘 수 있다.According to this, information on the location and shape of all terrain objects may be stored in the server as object information, and the
객체 저장부(15)는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 때, 해당 객체 정보에 대응하는 관심지점(POI, Point of Interest) 정보를 함께 연계하여 저장해 둘 수 있다. 여기서, 관심지점 정보는 서버로부터 획득될 수 있다. 이에 따르면, 서버의 데이터베이스에는 일예로 R-tree 구조로 구축된 객체 정보(지형지물 객체들의 위치와 형상에 관한 정보)와 그에 대응하는 관심지점 정보가 함께 연계(맵핑)되어 저장되어 있을 수 있다. 이에 대한 보다 상세한 설명은 후술하여 설명하기로 한다.When the
선별부(12)는 추출부(11)에서 추출된 후보 지형지물 객체들 중 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다. 이는 도 6을 참조하여 보다 쉽게 이해될 수 있다.The
도 6은 본원의 일 실시예에 따른 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치에서 가시 지형지물 객체를 선별하는 과정을 설명하기 위한 도면이다. 다시 말해, 도 6은 검색 영역(s) 내에서 가시 지형지물 객체에 대한 선별을 위해 탐색 대상 범위를 재설정하는 과정(달리 말해, 가시 지형지물 객체에 대한 탐색 알고리즘)을 설명하기 위한 도면이다.6 is a view for explaining a process of selecting a visible terrain object in an apparatus for automatically recognizing local information through focusing around a user according to an exemplary embodiment of the present disclosure. In other words, FIG. 6 is a diagram for explaining a process of resetting a search target range (that is, a search algorithm for a visible feature object) in order to select a visible feature object within the search area s.
도 6에서 (a) 및 (b)를 참조하면, 예시적으로 추출부(11)에 의해 추출된 검색 영역(s)에 대응하는 후보 지형지물 객체에는 제1 후보 지형지물 객체(O1, Object 1), 제2 후보 지형지물 객체(O2, Object 2), 및 제3 후보 지형지물 객체(O3, Object 3)가 포함될 수 있다.Referring to (a) and (b) in FIG. 6, for example, the candidate feature object corresponding to the search area (s) extracted by the
선별부(12)는 후보 지형지물 객체들(O1, O2, O3) 중 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체들(O1, O2)을 선별할 수 있다. The
이때, 선별부(12)는 검색 영역(s) 내에서 사용자 단말(1)의 위치 정보에 대응하는 위치(즉, 사용자 단말의 위치, pos)에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 검색 영역(s) 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다. At this time, the
여기서, 선별된 가시 지형지물 객체에 대응하는 폭 영역은 객체 저장부에 저장된 객체 정보(즉, 지형지물 객체들의 위치와 형상에 관한 정보)를 고려하여 선별된 가시 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역을 의미할 수 있다.Here, the width area corresponding to the selected visible feature object is a projected view of the selected visible feature object to the search area in consideration of the object information stored in the object storage unit (i.e., information on the location and shape of the feature objects). It may mean an area corresponding to the width of the object appearing in the state.
다시 말해, 선별부(12)는 먼저 검색 영역(s) 전체를 제1 탐색 대상 범위(s)로 하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 이때, 선별부(12)는 제1 탐색 대상 범위(s) 내에 위치한 후보 지형지물 객체들(O1, O2, O3) 중 사용자 단말의 위치(pos)에 가장 가까이 위치하는 후보 지형지물 객체(O1)를 일예로 제1 가시 지형지물 객체로서 선별할 수 있다.In other words, the
제1 탐색 대상 범위(s)에서 제1 가시 지형지물 객체(O1)에 대한 선별이 이루어진 이후, 선별부(12)는 선별된 제1 가시 지형지물 객체(O1)가 검색 영역(s) 내에서 차지하는 폭 영역을 탐색 대상 범위에서 제외하고, 제1 가시 지형지물 객체(O1)가 차지하는 폭 영역이 제외된 탐색 대상 범위에 대하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 즉, 선별부(12)는 제1 탐색 대상 범위(s)에서 제1 가시 지형지물 객체(O1)에 대한 선별이 이루어진 이후, 탐색 대상 범위를 재설정할 수 있다. 이때, 재설정된 탐색 대상 범위(즉, 제2 탐색 대상 범위, s1)는 검색 영역(s) 전체에 대응하는 제1 탐색 대상 범위(s) 중 선별된 제1 가시 지형지물 객체(O1)가 검색 영역(s) 내에서 차지하는 폭 영역이 제외된 영역(s1)을 의미할 수 있다. After selection of the first visible feature object O1 in the first search target range s, the
이에 따르면, 선별부(12)는 제1 가시 지형지물 객체(O1)에 대한 선별이 이루어진 이후, 제2 탐색 대상 범위(s1)에 대하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 제2 탐색 대상 범위(s1)에 대한 탐색 결과, 선별부(12)는 제2 탐색 대상 범위(s1) 내에 위치한 후보 지형지물 객체들(O3) 중 사용자 단말의 위치(pos)에 가장 가까이 위치하는 후보 지형지물 객체(O3)를 일예로 제2 가시 지형지물 객체로서 선별할 수 있다.Accordingly, after the first visible feature object O1 is selected, the
이후 선별부(12)는 제2 탐색 대상 범위(s1) 중 선별된 제2 가시 지형지물 객체(O3)가 검색 영역(s) 내에서 차지하는 폭 영역을 탐색 대상 범위에서 제외하고, 제3 가시 지형지물 객체(O3)가 차지하는 폭 영역이 제외된 탐색 대상 범위에 대하여 가시 지형지물 객체의 선별을 위한 탐색을 수행할 수 있다. 이에 따르면, 선별부(12)는 일예로 도 6의 (a)와 같이 검색 영역(s)이 설정되어 있는 경우, 가시 지형지물 객체의 선별을 위한 탐색을 3회 수행할 수 있다.Thereafter, the
도 6의 (a)와 같은 상황인 경우, 선별부(12)는 3회의 탐색을 통해 후보 지형지물 객체들(O1, O2, O3) 중 제1 후보 지형지물 객체(O1)와 제3 후보 지형지물 객체(O3)를 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체로서 선별할 수 있다. 이때, 제2 후보 지형지물 객체(O2)는 사용자 단말의 위치(pos)에서 보았을 때 제1 후보 지형지물 객체(O1)에 의해 가려져 보이지 않는 객체이므로, 선별부(12)는 제2 후보 지형지물 객체(O2)를 가시 지형지물 객체로서 선별하지 않게 된다.In the case of the situation as shown in (a) of FIG. 6, the
선별부(12)에 의한 가시 지형지물 객체들의 선별 과정을 다시 설명하면 다음과 같다. 도 6의 (b)에는 일예로 검색 영역(s) 내에 제1 후보 지형지물 객체(O1)로서 건물이 위치한 경우의 예가 도시되어 있다. The process of selecting visible terrain objects by the
도 6에서 (c)를 참조하면, 추출부(11)에 의해 후보 지형지물 객체들의 추출이 이루어진 이후, 선별부(12)는 추출된 후보 지형지물 객체들 중 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다. 이때, 선별부(12)는 앞에 있는 지형지물 객체(예를 들어, 건물)에 의해 가려져 보이지 않는 지형지물 객체는 인식하지 않도록 하기 위해, 다음과 같은 탐색 알고리즘을 사용하여 가시 지형지물 객체들을 선별할 수 있다.Referring to (c) in FIG. 6, after extraction of candidate feature objects is performed by the
선별부(12)는 우선 검색 영역(s)에 위치한 후보 지형지물 객체들 중 사용자 단말의 위치(pos)에 가까운 후보 지형지물 객체 순으로 가시 지형지물 객체에 대한 탐색을 수행할 수 있다. 탐색에 의해 하나의 가시 지형지물 객체에 대한 선별이 이루어지면, 이후 선별부(12)는 사용자 단말의 위치(pos)에 가장 가까운 후보 지형지물 객체가 차지하는 부분(즉, 가시 지형지물 객체가 검색 영역 내에서 차지하는 폭 영역)을 제외한 나머지 부분을 다시 탐색 대상 영역으로 재설정하는 과정 및 재설정된 탐색 대상 영역에서의 가시 지형지물 객체에 대한 탐색 과정을 반복 수행할 수 있다.First, the
선별부(12)는 검색 영역(s) 내에 포함된 후보 지형지물 객체들 중 가시 지형지물 객체들에 대한 선별이 모두 이루어질 때까지 탐색 대상 영역의 재설정 과정 및 재설정된 탐색 대상 영역에 대한 탐색 과정을 반복 수행할 수 있다.The
구체적인 예로, 검색 영역(s)이 (pos, , r)로 이루어져 있다고 하자. 산출부(12)는 검색 영역(s)을 탐색 대상 영역으로 하여 가시 지형지물 객체에 대한 1차 탐색을 수행함으로써, 탐색 대상 영역 내에 위치한 제1 후보 지형지물 객체(O1)를 가시 지형지물 객체로서 선별할 수 있다.As a specific example, the search area (s) is ( pos , and r ). The
이때, 선별된 제1 후보 지형지물 객체(O1)에 대응하는 (a, b) 부분이 검색 영역(s) 내 시각적으로 확인 가능한 영역 중 일부 영역을 차지하고 있음을 확인할 수 있다. 달리 말해, 검색 영역(s) 중에서 선별된 가시 지형지물 객체(O1)에 대응하는 폭 영역(pos, c, d)이 일부를 차지하고 있음을 확인할 수 있다. 여기서, 선별된 가시 지형지물 객체(O1)에 대응하는 폭 영역은 객체 저장부(15)에 저장된 객체 정보를 고려하여 선별된 가시 지형지물 객체(O1)를 검색 영역(s)에 투영한 상태에서 나타나는 객체 폭(a, b)에 대응하는 영역(pos, c, d)을 의미할 수 있다.In this case, it can be seen that the portions (a, b) corresponding to the selected first candidate geologic feature object O1 occupy some of the visually identifiable areas in the search area s. In other words, it can be seen that the width regions pos , c , and d corresponding to the visual feature object O1 selected from the search area s occupy a part. Here, the width area corresponding to the selected visible feature object O1 is in a state in which the selected visible feature object O1 is projected onto the search area s in consideration of object information stored in the
선별부(12)는 1차 탐색을 수행하여 하나의 가시 지형지물 객체에 대한 선별이 이루어지면, 이후 1차 탐색이 이루어진 검색 영역(s)에 대응하는 탐색 대상 영역 중 선별된 가시 지형지물 객체(O1)에 대응하는 폭 영역(pos, c, d)을 제외한 나머지 영역을 2차 탐색을 위한 탐색 대상 영역으로서 재설정하고, 재설정된 탐색 대상 영역에 대하여 가시 지형지물 객체에 대한 2차 탐색을 수행할 수 있다. 여기서, 2차 탐색 대상이 되는 탐색 대상 영역, 즉 재설정된 탐색 대상 영역에는 (pos, , c) 영역과 (pos, d, r) 영역이 포함될 수 있다.When the
탐색 알고리즘에 대하여 다시 설명하면 다음과 같다. 선별부(12)는 가시 지형지물 객체에 대한 선별을 위해 탐색 알고리즘을 수행할 수 있다. 탐색 알고리즘에서는 선분 (, r)이 재귀(Recursion) 인자로 설정되고, Recursion(, r)에서 검색 영역(s)의 좌표를 인자로 제공할 수 있다. 이를 통해, 선별부(12)는 탐색 알고리즘을 통해 검색 영역(s)에 대하여 건물들의 포함 관계를 판단할 수 있다.The search algorithm will be described again as follows. The
이때, 탐색 알고리즘의 경우, 검색 영역(s)에 대하여 건물이 완전히 포함되거나 건물이 부분 포함된 경우, Recursion(,c)과 Recursion(d,r)이 수행될 수 있다. 또한, 검색 영역(s)에 대하여 건물이 포함되지 않은 경우, 일예로 본 장치(10)의 디스플레이 제어부(14)는 건물이 포함된 영역에 대하여 재촬영(재인식)이 이루어지도록 하기 위한 알림을 사용자 단말(1)로 제공할 수 있다. 또한, 검색 영역(s)에 대하여 건물이 검색 영역(s)보다 큰 경우, 해당 건물이 가시 지형지물 객체로서 탐색된 이후 탐색 알고리즘이 종료될 수 있다.In this case, in the case of the search algorithm, when the building is completely included or the building is partially included in the search area (s), Recursion( , c ) and Recursion ( d , r ) can be performed. In addition, when a building is not included in the search area (s), as an example, the
이와 같은 탐색 알고리즘을 이용하여, 선별부(12)는 후보 지형지물 객체들 중에서 검색 영역(s) 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다. Using such a search algorithm, the
인식부(13)는 선별부(12)에서 선별된 가시 지형지물 객체들 중 검색 영역(s)의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상(달리 말해, 사용자가 검색하고자 하는 검색 대상 객체)으로 인식할 수 있다.The
사용자가 관심 대상(예를 들어, 특정 지형지물 객체)에 관한 정보를 알고자 하는 경우, 관심 대상을 화면(사용자 단말 상에 표시되는 영상 표시 화면)의 중심에 위치하도록 포커싱하는 것이 일반적이므로, 이러한 점을 고려하여, 인식부(13)는 가시 지형지물 객체들 중 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식할 수 있다. 이에 따르면, 본원은 사용자 단말(1)을 이용한 주변 건물의 포커싱을 통해 사용자가 직접 원하는 건물(검색 대상 객체)을 선택할 수 있도록 하는 편의성을 제공할 수 있다.When a user wants to know information about an object of interest (for example, a specific feature object), it is common to focus the object of interest to be located in the center of the screen (the image display screen displayed on the user terminal). In consideration of the point, the
일예로, 도 6의 (a)와 같은 상황인 경우, 인식부(13)는 선별부(12)에서 선별된 가시 지형지물 객체들(O1, O3) 중 검색 영역(S)의 중심에 가장 가깝게 위치하는 가시 지형지물 객체(O3)를 지역 정보 요청 대상으로 인식할 수 있다.For example, in the case of (a) of FIG. 6, the
후술하는 설명에서는 인식부(13)에서 인식하는 지역 정보 요청 대상을 검색 대상 객체라 달리 표현할 수 있다.In the description to be described later, a target for requesting local information recognized by the
본원의 일예에서는 인식부(13)가 선별된 가시 지형지물 객체들 중 검색 영역의 중심에 가장 가까이 위치하는 가시 지형지물 객체를 지역 정보 요청 대상(검색 대상 객체)으로 인식하는 것으로 예시하였으나, 이에 한정되는 것은 아니다. In an example of the present application, it is exemplified that the
다른 일예로, 본원에서 디스플레이 제어부(14)는 사용자 단말(1)의 화면의 중심에 중심 식별 마크가 표시되도록 할 수 있다. 이후, 사용자는 사용자 단말(1)의 화면 상에 표시된 중심 식별 마크가 실생활환경에서 검색하고자 하는 지형지물 객체(즉, 검색 대상 객체로서 예를 들어, 건물을 의미함) 상에 위치하여 표시되도록, 사용자 단말의 이미지센서로 검색하고자 하는 지형지물 객체를 비출 수 있다. 이때, 인식부(13)는 사용자 단말에 표시되는 지형지물 객체들 중 중심 식별 마크에 대응하는 지형지물 객체를 지역 정보 요청 대상(검색 대상 객체)로 인식할 수 있다. 이러한 본원의 다른 일예에 의하면, 중심 식별 마크를 이용해 검색 대상 객체를 보다 용이하게 인식(식별)할 수 있다.As another example, in the present application, the
디스플레이 제어부(14)는 인식부(13)에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 지역 정보 요청 대상 상에 오버레이하여 표시할 수 있다. 디스플레이 제어부(14)는 사용자 단말(1)의 화면 상에 표출되는 지역 정보 요청 대상 상에 지역 정보 요청 대상에 대응하는 관심지점 정보를 오버레이하여 표시할 수 있다. 여기서, 관심지점 정보에는 일예로 관심지점의 명칭(이름) 및 주소 중 적어도 하나가 포함될 수 있으나, 이에 한정되는 것은 아니다.The
객체 저장부(15)는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 수 있다. 또한, 객체 저장부(15)는 객체 정보에 대응하는 관심지점(POI, Point of Interest) 정보를 함께 연계하여 저장할 수 있다. 여기서, 객체 저장부(15)에 저장되는 객체 정보 및 그에 대응하는 POI 정보는 서버의 데이터베이스에 저장된 객체 정보와 그에 대응하는 POI 정보 중 일부의 정보(예를 들어, 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보)일 수 있다. 이에 대한 설명은 후술하는 설명을 통해 보다 쉽게 이해될 수 있다.The
도 7은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)를 포함하는 지역 정보 자동 인식 시스템(100)의 구성을 개략적으로 나타낸 도면이다.7 is a diagram schematically illustrating a configuration of a
도 7을 참조하면, 본원의 일 실시예에 따른 지역 정보 자동 인식 시스템(100)은 지역 정보 자동 인식 장치(본 장치, 10) 및 서버(20)를 포함할 수 있다.Referring to FIG. 7, the
여기서, 지역 정보 자동 인식 장치(10)는 앞서 설명된 본 장치(10)를 의미할 수 있다. 따라서, 이하 생략된 내용이라 하더라도 앞서 본 장치(10)에 대하여 설명된 내용은 후술하는 본 장치(10, 지역 정보 자동 인식 장치)에 대한 설명에도 동일하게 적용될 수 있다.Here, the
본 장치(10)는 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 서버(20)로 전송할 수 있다. 서버(20)의 데이터베이스에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보로서 저장되어 있을 수 있으며, 더하여 이러한 객체 정보에 대응하는 관심지점 정보가 연계(맵핑)되어 저장되어 있을 수 있다. The
따라서, 서버(20)는 본 장치(10)로부터 사용자 단말의 위치 정보 및 방향 정보를 획득하면, 획득된 정보(위치 정보 및 방향 정보)를 기반으로 사용자 단말의 위치 정보에 대응하는 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보를 데이터베이스에서 검색할 수 있다. 이후, 서버(20)는 검색된 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보를 본 장치(10)로 전송할 수 있다.Accordingly, when the
이후, 본 장치(10)는 서버(20)로부터 수신한 미리 설정된 거리 범위 내에 위치하는 객체 정보 및 그에 대응하는 POI 정보를 본 장치(10) 내 객체 저장부(15)에 저장할 수 있다. 이후 본 장치(10)는 객체 저장부(15)에 저장된 정보에 기초하여 추출부(11)를 통한 후보 지형지물 객체의 추출, 선별부(12)를 통한 가시 지형지물 객체의 선별 및 인식부(13)를 통한 지역 정보 요청 대상에 대한 인식, 및 디스플레이 제어부(14)를 통한 POI 정보 디스플레이 과정을 수행할 수 있다. Thereafter, the
본 장치(10)와 서버(20) 간에는 네트워크(30)를 통해 연결될 수 있다.The
네트워크(30)는 일예로3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함될 수 있으며, 이에 한정된 것은 아니다.The
한편, 엠비언트 브라우저(Ambient Browser)는 사용자 단말의 이미지센서로 검색을 원하는 실생활공간 상의 객체를 비추는 것만으로 그 객체의 정보를 얻을 수 있는 MR 시스템이라 할 수 있다. 이 시스템의 핵심은 검색 대상이 되는 실외 객체를 키워드 없이 특정짓는 것이라 할 수 있는데, 이러한 시스템을 구축하는데 있어서 센서/영상처리 기반의 종래 공지된 MR 연구을 활용하기 어려운 문제가 있다.On the other hand, the Ambient Browser can be said to be an MR system in which information of the object can be obtained simply by projecting an object on a real life space desired to be searched with an image sensor of a user terminal. The core of this system can be said to specify an outdoor object to be searched without a keyword. In constructing such a system, it is difficult to utilize the conventionally known MR research based on sensor/image processing.
다시 말해, 종래 MR 서비스는 앞서 설명한 바와 같이 주로 실내 공간에서의 서비스 제공을 전제로 하고 있어, 주위환경 변화가 큰 실외에서는 종래 MR 서비스를 적용하는 데에 한계가 있다.In other words, as described above, the conventional MR service is mainly based on the premise of providing a service in an indoor space, and thus there is a limitation in applying the conventional MR service in the outdoors where the surrounding environment changes greatly.
이에 본원에서는 본 시스템(100)을 통해, 종래와 같이 센서/영상처리 기반이 아닌, 수치지도의 실생활공간 객체 정보를 기반으로 사용자 단말의 위치 정보와 방향 정보를 이용하여 검색 대상 객체(즉, 인식부에서 인식하는 지역 정보 요청 대상)를 특정짓는 기술에 대하여 제안한다. 더하여, 본원에서는 이를 기반으로 실외 MR 서비스의 효과적인 구축을 위한 실생활공간 위치 기반의 실외 MR 모델에 대하여 제안한다. 이하 설명에서는 인식부(13)에서 인식하는 지역 정보 요청 대상을 사용자가 검색하고자 하는 대상 객체로서, 검색 대상 객체라 지칭할 수 있다.Therefore, in the present application, the object to be searched (that is, recognition) using the location information and direction information of the user terminal based on real-life spatial object information of a digital map, not based on sensor/image processing as in the prior art, through the
즉, 본원에서는 키워드의 필요없이, 본원에서 제안하는 실외 MR 모델을 활용하여 수치지도와 POI 정보를 기반으로 검색 대상 객체(즉, 인식부에서 인식하는 지역 정보 요청 대상)의 관심지점 정보를 제공할 수 있는 실외 MR 서비스인 엠비언트 브라우저(Ambient Browser)를 구축하는 기술에 대하여 제안한다. 달리 말해, 본 장치(10)는 실외 MR 서비스 제공을 위한 엠비언트 브라우저 장치라 달리 표현될 수 있다. 본원에서 제안하는 실외 MR 모델에 대한 설명은 도 8을 참조하여 보다 쉽게 이해될 수 있다.That is, in this application, without the need for keywords, the outdoor MR model proposed by the present application is used to provide information on the point of interest of the object to be searched (that is, the region information request target recognized by the recognition unit) based on the digital map and POI information. A technology for building Ambient Browser, which is a possible outdoor MR service, is proposed. In other words, the
도 8은 본원의 일 실시예에 따른 지역 정보 자동 인식 시스템(100)에 적용되는 실외 MR 모델의 구조를 개략적으로 나타낸 도면이다. 이러한 실외 MR 모델에 기초하여 관심지점 정보가 제공되는 과정에 대한 설명은 다음과 같다.8 is a diagram schematically showing the structure of an outdoor MR model applied to the
도 8을 참조하면, 본원에서 제안하는 실외 MR 모델은 실생활공간 레이어, 객체 저장공간 레이어, 정보 저장공간 레이어, 및 정보 표시공간 레이어로 이루어질 수 있다.Referring to FIG. 8, the outdoor MR model proposed in the present application may include a real life space layer, an object storage space layer, an information storage space layer, and an information display space layer.
실외 MR 모델은, 수치지도에서 추출된 객체 정보를 객체 저장공간 레이어에 저장하여 이를 검색 대상 객체(검색 대상이 되는 실외 객체)를 특정짓는데 활용하고, 특정지어진 검색 대상 객체를 기반으로 정보 저장공간 레이어에서 특정지어진 검색 대상 객체와 관련된 정보(즉, POI 정보)를 검색하는 것을 특징으로 한다. 보다 상세한 설명은 다음과 같다.The outdoor MR model stores object information extracted from a digital map in an object storage space layer and uses it to identify a search target object (an outdoor object to be searched for), and an information storage space layer based on the specified search target object. It is characterized in that it searches for information (ie, POI information) related to the search target object specified in. A more detailed description follows.
[실생활공간 레이어][Real life space layer]
실생활공간 레이어에 대응하는 실생활공간이라 함은 사용자가 생활하는 공간을 의미할 수 있다. 사용자는 정보 표시공간 레이어를 통하여 실생활공간에서 정보제공 서비스를 받을 수 있다. 여기서, 정보 표시공간 레이어는 사용자 단말(1) 상의 디스플레이 화면을 나타내는 것으로서, 보다 자세한 설명은 후술하여 설명하기로 한다.The real life space corresponding to the real life space layer may mean a space in which a user lives. Users can receive information provision services in real life spaces through the information display space layer. Here, the information display space layer represents a display screen on the
사용자 단말(1)을 소지한 사용자가 실생활공간에서 이동하는 중에 어떤 건물(어떤 지형지물 객체)에 대한 정보를 알고자하는 경우, 사용자는 사용자 단말(1)의 이미지센서를 이용해 해당 건물을 비출 수 있다. 즉, 사용자는 정보를 알고자하는 해당 건물(검색 대상 객체)이 사용자 단말(1)의 화면 상에 시각적으로 표출되도록 사용자 단말(1)의 의미지센서를 이용해 해당 건물을 포커싱하여 비출 수 있다.When a user with a
이때, 본 장치(10)는 예시적으로 사용자가 알고자하는 지형지물 객체를 미리 설정된 시간 동안 사용자 단말(1)로 포커싱한 경우, 사용자 단말(1)의 화면 상에 표시되는 알고자하는 지형지물 객체가 포함된 영상을 검색 대상 객체를 검색하기 위한(즉, 지역 정보 요청 대상의 인식을 위한) 검색 요청으로서 인식할 수 있다.At this time, the
즉, 본 장치(10)는 사용자 단말(1)이 지형지물 객체를 미리 설정된 시간 동안 포커싱한 것으로 판단되는 경우, 이를 검색 요청으로 인식하여 사용자 단말(1)로부터 위치 정보 및 방향 정보를 획득할 수 있다. 이를 위해 본 장치(10)는 위치 정보 및 방향 정보 획득부(미도시)를 포함할 수 있다. That is, when it is determined that the
여기서, 검색 요청의 인식 여부를 결정하는 미리 설정된 시간은 예시적으로 3초일 수 있으나, 이에 한정되는 것은 아니다. Here, the preset time for determining whether to recognize the search request may be 3 seconds as an example, but is not limited thereto.
본 장치(10)는 검색 요청이 인식되면, 사용자 단말(1)에 구비된 GPS 센서, 전자 나침반, 자이로센서 등으로부터 사용자 단말(1)의 위치 정보(경위도 좌표)와 사용자 단말(1)이 바라보는 방향 정보(방위각 정보)를 획득할 수 있다. 본 장치(10)는 획득한 사용자 단말(1)의 위치 정보와 방향 정보를 서버(20)로 전송할 수 있다. 특히, 본 장치(10)로부터 전송된 사용자 단말(1)의 위치 정보와 방향 정보는 서버(20) 내 객체 저장공간 레이어에 대응하는 객체 저장공간부에 전달될 수 있다. 달리 표현하여, 실생활공간 레이어에서는 사용자 단말(1)의 위치 정보와 방향 정보(위치+방향)를 객체 저장공간 레이어로 전달할 수 있다.When the search request is recognized, the
여기서, 서버(20)는 데이터베이스를 포함하며, 데이터베이스에는 객체 저장공간 레이어에 대응하는 객체 저장공간부 및 정보 저장공간 레이어에 대응하는 정보 저장공간부가 포함될 수 있다. 객체 저장공간부에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보(이러한 객체 정보에는 지형지물 객체의 키워드 및 위상 정보가 포함됨)로서 저장되어 있고, 정보 저장공간부에는 객체 정보에 대응하는 관심지점(POI, Point of Interest) 정보가 저장되어 있을 수 있다. 이에 따르면, 서버(20)의 데이터베이스에는 객체 정보 및 그에 대응하는 관심지점 정보가 서로 연계(맵핑)되어 저장되어 있을 수 있다.Here, the
[객체 저장공간 레이어][Object storage layer]
객체 저장공간 레이어에 대응하는 객체 저장공간이라 함은 실생활공간 상의 객체(지형지물 객체)들의 정보를 단순히 위치정보가 아닌 수치지도 정보(지리정보)에 기초하여 저장하는 공간을 의미할 수 있다. 이러한 실생활공간 상의 객체(지형지물 객체)들의 정보는 서버(20)의 데이터베이스, 특히 객체 저장공간부에 저장되어 있을 수 있다. 다시 말해, 객체 저장공간부에는 실생활공간에 존재하는 다양한 지형지물 객체들의 위치 정보가 수록되는 수치지도에서 추출된 객체 정보가 저장될 수 있다. 즉, 객체 저장공간부는 수치지도의 객체 정보를 활용하여 구축될 수 있다. The object storage space corresponding to the object storage space layer may mean a space for storing information of objects (terrain objects) in real life space based on digital map information (geographic information), not simply location information. The information on the objects (terrain objects) on the real life space may be stored in a database of the
객체 저장공간부에는 모든 지형지물 객체들의 위치와 형상에 관한 정보가 객체 정보로서 저장되어 있을 수 있다. 이때, 객체 저장공간부에는 객체 정보가 MBR로 변환되어 R-tree 구조로 저장되어 있다. 다만, 이에 한정되는 것은 아니고, 객체 저장공간부에는 객체 정보가 MAR로 변환되어 R-tree 구조로 저장되어 있을 수 있다. MBR 및 MAR 관련 설명은 앞서 자세히 설명했으므로, 이하 생략하기로 한다. In the object storage space unit, information on the location and shape of all terrain objects may be stored as object information. In this case, the object information is converted into an MBR in the object storage space and stored in an R-tree structure. However, the present invention is not limited thereto, and object information may be converted to MAR and stored in an R-tree structure in the object storage space. Since the description of MBR and MAR has been described in detail above, it will be omitted below.
도 9는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 객체 정보의 저장 구조인 R-tree 구조를 설명하기 위한 도면이다.9 is a diagram for explaining an R-tree structure, which is a storage structure of object information, in the
도 9를 참조하면, R-tree 구조는 지형지물 객체들에 대한 공간 정보를 저장하는 트리 자료의 구조라 할 수 있다. 여기서, 공간 정보는 객체 정보라 달리 표현할 수 있다. 따라서, 공간 정보라 함은 지형지물 객체들의 위치와 형상, 위상 등에 관한 정보를 포함하는 객체 정보를 의미할 수 있다.Referring to FIG. 9, the R-tree structure may be regarded as a structure of tree data that stores spatial information on feature objects. Here, the spatial information may be expressed differently as object information. Therefore, the spatial information may mean object information including information on the location, shape, and phase of the feature objects.
객체 저장공간부에는 객체 정보가 일예로 MBR의 형태의 R-tree 구조로 저장될 수 있다. 즉, 서버(20)에는 MBR로 표현되는 모든 객체 정보가 R-tree 구조로 저장(구축)되어 있을 수 있다. 이에 본원은 이를 기초로 하여 사용자 주변에 어떠한 건물들이 존재하는지에 대한 탐색(즉, 사용자 단말의 위치 정보에 대응하는 위치로부터 그 주변에 존재하는 건물들에 대한 탐색)을 보다 빠르게 수행할 수 있다. In the object storage space, object information may be stored in an R-tree structure in the form of an MBR, for example. That is, in the
예시적으로, R1 영역에는 1,2,3 지형지물 객체가 포함되고, R2 에는 4,5,6 지형지물 객체가 포함되도록 R-tree 구조가 구축되어 있을 수 있다. 이때, 탐색 범위가 도 9에 도시된 바와 같은 경우, 서버(20)는 R-tree 구조에 기초한 탐색을 통해, 탐색 범위 내에 3, 4, 6 지형지물 객체가 존재하고 있음을 확인(식별)할 수 있다.For example, an R-tree structure may be constructed such that 1,2,3 feature objects are included in the R1 area, and 4,5,6 feature objects are included in R2. In this case, when the search range is as shown in FIG. 9, the
일예로, 서버(20)의 객체 저장공간부에는 객체 정보가 MBR 형태로 저장되고, 본 장치(10)의 객체 저장부(15)에 저장되는 객체 정보는 MAR 형태로 저장될 수 있다. 다만 이에만 한정되는 것은 아니고, 다른 예로 객체 저장공간부에도 객체 정보가 MAR 형태로 저장될 수 있다.For example, object information may be stored in an MBR format in an object storage space of the
실생활공간 레이어로부터 전달받은 사용자 단말(1)의 위치 정보와 방향 정보를 이용하면, 객체 저장공간부에 R-tree 구조로 저장된 객체 정보를 기반으로 사용자가 위치한 주변 영역에 어떠한 건물들(지형지물 객체들)이 존재하는지 보다 빠르게 탐색(식별)될 수 있다. 서버(20)의 데이터베이스에는 이렇게 R-tree 구조로 저장된 객체 정보와 그에 대응하는 POI 정보가 맵핑되어 저장될 수 있다. Using the location information and direction information of the
따라서, 서버(20)는 본 장치(10)로부터 수신한 사용자 단말(1)의 위치 정보와 방향 정보를 이용하여, 객체 저장공간부에 저장된 객체 정보들 중 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들(즉, 지형지물 객체들의 위치와 형상에 관한 정보)을 R-tree를 이용해 보다 빠르게 식별할 수 있다. 다시 말해, 본원에서는 Tree의 특성 및 MBR 간의 포함관계를 이용해 건물 탐색에 관한 쿼리에 보다 빠르게 응답할 수 있는 객체정보 DB(달리 표현하여, 건물정보 DB)로서 객체 저장공간부를 제공할 수 있다. Accordingly, the
이후, 서버(20)는 객체 저장공간부에서 식별된 객체 정보들과, 후술하는 정보 저장공간부에서 식별되는 객체 정보들에 대응하는 관심지점 정보를 함께 본 장치(10)로 제공할 수 있다.Thereafter, the
객체 저장공간 레이어에서는 실생활공간 레이어로부터 전달받은 (위치+방향) 정보, 및 식별된 객체 정보를 정보 저장공간 레이어에 전달할 수 있다. 여기서, 식별된 객체 정보에는 지형지물 객체들(예를 들어, 건물들)의 키워드 및 위상 정보(즉, 건물 키워드+위상 정보)가 포함될 수 있다. 또한, 이러한 객체 정보에는 지형지물 객체의 위치와 형상에 관한 정보가 포함될 수 있다.In the object storage space layer, (location + direction) information transmitted from the real life space layer and the identified object information may be delivered to the information storage space layer. Here, the identified object information may include keyword and phase information (ie, building keyword + phase information) of terrain objects (eg, buildings). In addition, such object information may include information on the location and shape of the feature object.
[정보 저장공간 레이어][Information storage layer]
정보 저장공간 레이어에 대응하는 정보 저장공간이라 함은 객체 저장공간에 존재하는 객체 정보들에 대하여 수지지도 정보에 기초한 위치를 기준으로 그에 대응하는 관심지점(POI) 정보가 저장되는 공간을 의미할 수 있다. 이러한 관심지점 정보는 서버(20)의 데이터베이스, 특히 정보 저장공간부에 저장되어 있을 수 있다.The information storage space corresponding to the information storage space layer may mean a space in which point of interest (POI) information corresponding to the object information existing in the object storage space is stored based on a location based on the balance map information. have. This point of interest information may be stored in a database of the
본원에서는 일예로 정보 저장공간부에 객체 정보에 대응하여 그에 대응하는 POI 정보만 저장되는 것으로 예시하였으나, 이에 한정되는 것은 아니다. 다른 일예로, 정보 저장공간부에는 POI와 같이 공적인 성격을 가지는 정보 뿐만 아니라 사용자가 객체 정보에 대하여 직접 작성한 정보가 저장될 수 있다. In the present application, as an example, only POI information corresponding to the object information is stored in the information storage unit, but is not limited thereto. As another example, the information storage unit may store not only information having a public nature such as POI, but also information directly written by a user for object information.
정보 저장공간부에 저장된 정보(POI 정보)는 지형지물 객체의 위치 정보와 키워드 정보로 인덱싱되어 있을 수 있다. 다시 말해, 정보 저장공간부에는 POI 정보가 저장되어 있을 수 있다. 이때, POI 정보는 지형지물 객체의 위치(경위도 좌표)를 기반으로 객체 저장공간에 저장된 지형지물 객체의 키워드로 인덱싱되어 정보 저장공간부에 저장되어 있을 수 있다.Information (POI information) stored in the information storage space may be indexed with location information and keyword information of a feature object. In other words, POI information may be stored in the information storage space. In this case, the POI information may be indexed as a keyword of the feature object stored in the object storage space based on the location (longitude latitude coordinates) of the feature object and stored in the information storage space.
따라서, 정보 저장공간부에 의하면, 개체 저장공간 레이어에서 식별된 객체 정보를 이용하여, 그에 대응하는 지형지물 객체의 POI 정보가 식별(검색)될 수 있다. 달리 말해, 서버(20)는 객체 저장공간부에서 (위치+방향) 정보를 이용하여 객체 정보가 식별되면, 저장공간부에서 식별된 객체 정보에 대응하는 POI 정보를 식별(검색)할 수 있다. 즉, 서버(20)는 객체 저장공간부를 이용해 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들을 식별하고, 식별된 객체 정보들에 대응하는 POI 정보들을 정보 저장공간부를 이용해 식별(검색)할 수 있다.Accordingly, according to the information storage space unit, POI information of a feature object corresponding to the object information identified in the object storage space layer may be identified (searched). In other words, when object information is identified in the object storage space unit using (location + direction) information, the
정보 저장공간 레이어에서는 객체 저장공간 레이어로부터 전달받은 (위치+방향) 정보, 식별된 객체 정보로서 건물 키워드+위상 정보, 및 식별된 객체 정보들에 대응하는 정보(즉, POI 정보)를 정보 표시공간 레이어로 전달할 수 있다. 달리 표현하여, 서버(20)는 본 장치(10)로부터 사용자 단말(1)의 위치 정보와 방향 정보를 획득(수신)하면, 객체 저장공간부 및 정보 저장공간부를 포함하는 데이터베이스에 기반하여, 사용자 단말의 위치 정보에 대응하는 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들 및 그에 대응하는 POI 정보들을 식별하고, 식별된 정보(객체 정보들 및 그에 대응하는 POI 정보들)을 본 장치(10)로 전달(전송)할 수 있다. In the information storage layer, (location + direction) information received from the object storage layer, building keyword + phase information as the identified object information, and information corresponding to the identified object information (ie, POI information) are displayed as an information display space. You can pass it to the layer. In other words, when the
여기서, 객체 저장공간부는 건물정보DB라 달리 표현되고, 정보 저장공간부는 POI DB라 달리 표현될 수 있다. 또한, 예시적으로 본원에서는 객체 저장공간부에 R-tree로 구축된 건물정보에서 POI DB에 있는 건물 중심 좌표를 질의하고, 질의에 응답한 건물정보에 POI DB에 있는 건물 이름(명칭)을 맵핑함으로써 서버(20)의 데이터베이스가 구축될 수 있다. Here, the object storage space unit may be expressed differently as a building information DB, and the information storage space unit may be expressed differently as a POI DB. In addition, as an example, in the present application, the building center coordinates in the POI DB are queried from the building information constructed as an R-tree in the object storage space, and the building name (name) in the POI DB is mapped to the building information in response to the query. By doing so, the database of the
다시 말해, R-tree가 구축된 이후에, POI DB의 건물 중심 좌표를 R-tree에 질의하고 그 결과로서 건물 정보(객체 정보)와 POI가 맵핑됨으로써 POI DB가 구축될 수 있다. 이후 서버(20)는 본 장치(10)와의 통신을 통해 사용자 단말의 위치 정보 및 방향 정보를 전송 받으면, R-tree를 이용해 사용자 주변의 객체 정보들 및 그에 대응하는 POI 정보들을 사용자 단말로 제공할 수 있다. 본 장치(10)는 서버(20)로부터 제공받은 객체 정보들 및 그에 대응하는 POI 정보에 기초하여, 사용자가 원하는 건물에 대한 탐색을 수행하고, 탐색된 건물에 대한 POI 정보를 사용자 단말(1)의 화면 상에 제공할 수 있다.In other words, after the R-tree is constructed, the POI DB can be constructed by querying the R-tree for the coordinates of the building center of the POI DB, and mapping the building information (object information) and the POI as a result. Thereafter, when receiving the location information and direction information of the user terminal through communication with the
서버(20)의 데이터베이스에 대하여 다시 설명하자면 다음과 같다. 데이터베이스에는 객체 정보(건물정보) 및 그에 대응하는 POI 정보가 저장되어 있을 수 있다. 객체 정보(건물정보)는, 건물의 꼭짓점 좌표들로 구성될 수 있다. 하나의 객체 정보로는 한 건물의 모든 꼭짓점 좌표가 저장되어 있을 수 있다. 건물의 꼭짓점 좌표는 건물의 위도/경도 정보로 구성될 수 있다. 또한, 객체 정보와 관련하여 객체의 형상에 관한 정보는, 건물의 꼭짓점 좌표들의 시작과 끝이 항상 동일함에 따라 다각형(폴리곤)으로 이루어질 수 있다.The database of the
또한, 데이터베이스에 저장된 POI 정보와 관련하여, POI 정보는 예시적으로 NID, Ncode, name_full, Name_alias, Name_field, Xpos, Ypos, Admcode_A, Admname_A, Admcode_L, admname_L, LANDMARK, Codename, TOP_POI 형태로 구성될 수 있다. 또한, POI 정보로는 예시적으로 건물 이름(명칭), 건물 중심 좌표 및 건물 주소가 주된 데이터로서 사용될 수 있다. In addition, with respect to POI information stored in the database, the POI information may be exemplarily configured in the form of NID, Ncode, name_full, Name_alias, Name_field, Xpos, Ypos, Admcode_A, Admname_A, Admcode_L, admname_L, LANDMARK, Codename, and TOP_POI. . In addition, as POI information, for example, a building name (name), a building center coordinate, and a building address may be used as main data.
이에 따르면, 데이터베이스에는 R-tree를 이용해 구축된 객체정보(건물정보)와 그에 대응하는 POI 정보가 맵핑되어 저장될 수 있으며, 이를 통해 건물 꼭짓점과 건물 이름(명칭)이 서로 연계(연결)되어 저장되어 있을 수 있다.According to this, object information (building information) built using R-tree and POI information corresponding thereto can be mapped and stored in the database, through which the building vertices and building names (names) are linked (connected) to each other and stored. Can be.
[정보 표시공간 레이어][Information space layer]
정보 표시공간 레이어에 대응하는 정보 표시공간이라 함은 사용자 단말(1)의 화면 상에 보여지는 공간을 의미할 수 있다. 즉, 정보 표시공간 레이어는 정보 저장공간에서식별(검색)된 정보와 실생활공간을 연결하는 레이어로서, 사용자 단말(1)의 화면을 의미할 수 있다. 이러한 사용자 단말(1)에는 예시적으로 휴대 단말, 스마트 디바이스, HMD(Head Mounted Display), 디지털 사이니지 등 정보의 시각적 표출이 가능한 모든 종류의 기기가 포함될 수 있다. The information display space corresponding to the information display space layer may mean a space displayed on the screen of the
구체적으로, 본 장치(10)는 사용자 단말의 위치 정보와 방향 정보를 서버로 제공한 이후, 그에 응답하여 서버에 의해 식별된 사용자 단말의 위치 정보에 대응하는 위치로부터 미리 설정된 거리 범위 내에 위치하는 객체 정보들 및 그에 대응하는 POI 정보들을 획득할 수 있다. 본 장치(10)는 서버(20)로부터 획득한 정보들(객체 정보들 및 그에 대응하는 POI 정보들)을 본 장치(10)의 객체 저장부(15)에 저장할 수 있다. 이후, 본 장치(10)는 추출부(11), 선별부(12) 및 인식부(13)를 이용하여, 사용자 단말 상에 표출되는 검색 영역 내에 포함된 지형지물 객체들 중 지역 정보 요청 대상(검색 대상 객체)를 인식할(특정지을) 수 있다. 이때, 본 장치(10)는 사용자가 검색을 요구하는 검색 대상 객체가 사용자 단말(1)의 화면의 중앙에 가장 가까운 건물이라는 전제 하에, 사용자 단말 상에 표출되는 검색 영역 내에 포함된 지형지물 객체들 중에서 사용자가 어떠한 객체에 대한 POI 검색을 원하는지를 특정(즉, 검색 대상 객체를 특정)지을 수 있다. 이후, 본 장치(10)는 객체 저장부(15)에 저장된 정보에 기초하여 인식된 지역 정보 요청 대상(검색 대상 객체)에 대응하는 관심지점 정보를 사용자 단말(1)의 화면 상에 표출되는 지역 정보 요청 대상 상에 오버레이하여 표시할 수 있다. Specifically, the
이에 따르면, 본 장치(10) 내지 본 시스템(100)은, 사용자 단말(1)의 위치 정보와 방향 정보를 기반으로 식별된 POI 정보를 제공할 수 있다. 특히, 본 장치(10) 내지 본 시스템(100)은, 사용자가 사용자 단말(2)로 검색 대상 객체를 비추는 것만으로, 사용자가 인식하고자 하는 검색 대상 객체에 대한 POI 정보를 실생활공간에서의 사용자가 사용자 단말(1)의 화면을 통해 인지할 수 있도록 제공할 수 있다.Accordingly, the
본 장치(10)는 사용자 단말의 위치 정보 및 방향 정보, 객체의 위상 정보 등을 종합적으로 고려하여, 사용자가 검색하고자 하는 검색 대상 객체에 대한 POI 정보를 화면 상에 표출되는 검색 대상 객체 상에 오버레이하여 표시되도록 할 수 있다.The
본원은 키워드 없이 검색 대상 객체의 POI 검색이 가능한 실생활공간 위치 기반으로 구축된 실외 MR 모델에 기반한 실외 MR 기반 서비스를 제공할 수 있다.The present application can provide an outdoor MR-based service based on an outdoor MR model built based on the location of a real-life space that enables POI search of a search target object without a keyword.
도 10은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 지역 정보 요청 대상(검색 대상 객체)에 대한 POI 정보를 검색하는 예를 나타낸 도면이다. 특히, 도 10은 본 장치(10)에 의하여 사용자 단말(1)의 화면 상에 보여지는 화면의 예를 나타낸 도면이다. FIG. 10 is a diagram illustrating an example in which the
도 10를 참조하면, 사용자 단말(1)의 제1 영역(S1)에는 이미지센서를 통해 인식되는(비춰지는) 검색 영역(s)에 대응하는 화면이 표시될 수 있다.Referring to FIG. 10, a screen corresponding to a search area s recognized (illuminated) through an image sensor may be displayed in the first area S1 of the
또한, 사용자 단말(1)의 제2 영역(S2)에는 검색 영역(s)에 대응하는 지도 상의 위치가 표시되는 지도가 표시될 수 있다. In addition, in the second area S2 of the
예시적으로 제2 영역(S2)의 지도 상에 표시된 빨간색 테두리의 사각형(L1)은 현실에 존재하는 POI의 MAR를 나타낸다. 또한, 제2 영역(S2)의 지도 상에 표시된 여러 POI를 가리키는 빨간색 삼각형(L2)은 검색 영역 내에서 선별부(12)에 의한 시각적으로 확인 가능한 가시 지형지물 객체들의 선별을 직관적으로 확인할 수 있게 나타낸 것이다. 또한, 빨간색 삼각형(L2)가 가리키는 여러 POI 중 파란색 사각형(L3)은 인식부(13)에 의해 인식된 지역 정보 요청 대상(즉, 검색 대상 객체)를 나타낸다.Exemplarily, a rectangle L1 with a red border displayed on the map of the second area S2 represents the MAR of the POI that exists in reality. In addition, the red triangle L2 indicating various POIs displayed on the map of the second area S2 allows the selection of visually identifiable visual feature objects by the
사용자 단말(1)의 제3 영역(S3)에는 지도를 사용자 단말(1)의 화면 상에 표시할지 여부를 사용자가 선택(결정)할 수 있도록 하는 제1 UI(User Interface) 아이콘이 표시될 수 있다. 제1 UI 아이콘에 의한 지도 표시 여부에 따라 제1 영역(S1)의 화면 크기가 크게 또는 작게 설정될 수 있다.A first UI (User Interface) icon may be displayed in the third area S3 of the
사용자 단말(1)의 제4 영역(S4)에는 POI의 탐색 시작 여부를 사용자가 선택(결정)할 수 있도록 하는 제2 UI 아이콘이 표시될 수 있다. 일예로 탐색 시작 버튼 모양의 제2 UI 아이콘에 대한 사용자 입력이 이루어져 POI 탐색이 시작되면, 제4 영역(S4)에는 POI에 대한 탐색을 중지할 수 있도록 하는 탐색 정지 버튼 모양의 아이콘으로 바뀔 수 있다. 일예로, POI에 대한 탐색이 완료된 이후에는 재검색이 가능하도록 탐색 시작 버튼 모양의 아이콘이 나타날 수 있으며, 이에 대한 사용자 입력이 이루어진 경우 POI 재검색이 이루어질 수 있다. POI 탐색에 의하여 이미지센서를 통해 인식되는 화면 내 지형지물 객체들 중 사용자가 검색하고자 하는 검색 대상 객체(지역 정보 요청 대상)가 인식(식별)될 수 있다.A second UI icon may be displayed in the fourth area S4 of the
POI 탐색이 완료된 이후에는 이미지센서를 통해 인식되는 화면에서 인식(식별)된 검색 대상 객체 상에 검색 대상 객체에 대응하는 POI 정보가 오버레이되어 표시될 수 있다. 여기서, POI 정보에는 명칭(이름) 및 주소 중 적어도 하나가 포함될 수 있다.After the POI search is completed, POI information corresponding to the search target object may be overlaid and displayed on the search target object recognized (identified) on the screen recognized through the image sensor. Here, the POI information may include at least one of a name (name) and an address.
예시적으로, 사용자가 사용자 단말(1)의 이미지센서를 이용해 특정 지형지물 객체를 미리 설정된 시간(예를 들어, 3초) 동안 비추는 경우, 본 장치(10)는 이를 검색 요청으로 간주하고, 이미지센서를 통해 인식되는 영상 내에서 검색 대상 객체를 인식(식별)하여 그에 대응하는 POI 정보를 제공할 수 있다.As an example, when the user illuminates a specific feature object for a preset time (eg, 3 seconds) using the image sensor of the
본원의 일실시예에서는 본 장치(10)가 인식부(13)에서 인식된 하나의 지역 정보 요청 대상(검색 요청 대상)에 대해서만 POI 정보를 표시하는 것으로 예시하였으나, 이에 한정되는 것은 아니다. 다른 일예로, 본 장치(10)는 사용자 설정에 따라 선별부(12)에서 선별된 가시 지형지물 객체들 각각에 대응하는 POI 정보를 표시할 수 있다. 또 다른 일예로, 본 장치(10)는 객체 저장부(15)에 저장된 객체 정보들(즉, 사용자 단말의 위치로부터 미리 설정된 거리 범위 내에 위치하는 지형지물 객체들) 각각에 대응하는 POI 정보를 표시할 수 있다. 이러한 가시 지형지물 객체들에 대한 POI 정보 표시 여부 및 객체 저장부(15)에 저장된 객체 정보들에 대한 POI 정보 표시 여부는 사용자 입력에 기초하여 선택적으로 이루어질 수 있다.In the exemplary embodiment of the present application, it is exemplified that the
또한, 본 장치(10)의 디스플레이 제어부(14)는 인식부(13)에서 인식된 지역 정보 요청 대상에 대응하는 관심지점 정보를 표시한 이후 표시된 관심지점 정보에 대한 사용자 입력(예를 들어, 터치 등을 이용한 선택 입력)이 이루어진 것으로 판단되는 경우, 표시된 관심지점 정보(예를 들어, POI 명칭, POI 주소 등)를 기반으로 검색된 검색 정보를 사용자 단말(1)의 화면에 표시할 수 있다. 여기서, 표시되는 검색 정보는 사용자 입력이 이루어진 관심지점 정보에 대응하는 검색 정보로서, 검색엔진을 통해 검색된 정보일 수 있다. 예시적으로 검색엔진은 구글, 네이버, 다음 등의 검색엔진을 의미할 수 있으며, 이에 한정되는 것은 아니다. 이러한 검색 정보의 제공을 통해, 본 장치(10)는 본 장치(10)를 통해 식별 인식된 POI 정보에 대한 보다 상세한 정보를 제공할 수 있다.In addition, the
도 11은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에 의하여 제공되는 검색 정보의 예를 나타낸 도면이다.11 is a diagram illustrating an example of search information provided by the
도 11을 참조하면, 사용자는 도 11의 (a)와 같이 사용자 단말(1)의 이미지센서를 통해 실생활환경에 존재하는 건물들(지형지물 객체들) 중 검색하고자 하는 건물에 대하여 포커싱을 수행할 수 있다. 이러한 경우, 본 장치(10)는 이미지센서를 통해 인식되는 영상 건물들 중 사용자가 검색하고자 하는 포커싱된 건물을 인식(식별)하고, 인식된 포커싱된 건물(즉, 인식부에 의하여 인식된 지역 정보 요청 대상)에 대응하는 POI 정보를 도 11의 (b)와 같이 사용자 단말(1)의 화면 상에 표시할 수 있다. 예시적으로, 포커싱된 건물이 '피사의 사탑'인 경우, 디스플레이 제어부(15)는 사용자 단말(1)의 화면에 표시(표출)되는 건물 상에 포커싱된 건물의 POI 정보로서 POI의 명칭인 '피사의 사탑'을 오버레이하여 표시할 수 있다.Referring to FIG. 11, a user may perform focusing on a building to be searched among buildings (terrain objects) existing in a real life environment through an image sensor of the
또한, 디스플레이 제어부(15)는 도 11의 (b)와 같이 사용자 단말(1) 상에 표시된 POI 정보에 대하여 사용자 입력(예를 들어, 터치 등을 이용한 선택 입력)이 이루어진 것으로 판단되는 경우, 표시된 POI 정보를 기반으로 검색된 검색 정보를 사용자 단말(1)의 화면 상에 표시할 수 있다. 예시적으로, 사용자 단말(1)에 표시된 POI 정보인 '피사의 사탑'에 대하여 사용자 입력이 이루어진 경우, 디스플레이 제어부(15)는 도 11의 (c)와 같이 '피사의 사탑'에 대한 검색 정보를 화면에 표시할 수 있다.In addition, when it is determined that a user input (for example, a selection input using touch, etc.) is made for the POI information displayed on the
도 12는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에 의하여 제공되는 검색 정보의 다른 예를 나타낸 도면이다.12 is a diagram illustrating another example of search information provided by the
도 12를 참조하면, 사용자가 도 12의 (a)와 같이 사용자 단말(1)을 이용해 검색하고자 하는 건물을 포커싱한 경우, 본 장치(10)는 도 12의 (b)와 같이 사용자 단말(1)의 화면 상에 포커싱된 건물의 POI 정보로서 '항공대학교 강의동'과 같은 정보를 표시할 수 있다. 이후, 표시된 POI 정보(예를 들어, 항공대학교 강의동)에 대한 사용자 입력이 이루어진 경우, 본 장치(10)는 도 12의 (c)와 같이 '항공대학교 강의동' 정보를 기반으로 검색된 검색 정보(검색 결과 정보)를 사용자 단말(1)의 화면 상에 표시할 수 있다.Referring to FIG. 12, when the user focuses on the building to be searched using the
도 13은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에 의하여 제공되는 검색 정보의 또 다른 예를 나타낸 도면이다.13 is a diagram illustrating another example of search information provided by the
도 13을 참조하면, 사용자가 도 13의 (a)와 같이 사용자 단말을 이용해 검색하고자 하는 건물을 포커싱한 경우, 본 장치(10)는 도 13의 (b)와 같이 사용자 단말(1)의 화면 상에 포커싱된 건물의 POI 정보를 팝업창으로 제공할 수 있다. 일예로, 본 장치(10)의 디스플레이 제어부(15)는 "탐색된 건물의 정보는 롯데마트화정점(대한민국 경기도 고양시 덕양구 화중로 66) 입니다"와 같은 POI 정보를 팝업창 형태로 제공할 수 있다.Referring to FIG. 13, when a user focuses on a building to be searched using a user terminal as shown in FIG. 13(a), the
다음으로, 디스플레이 제어부(15)는 제공된 POI 정보 확인에 대한 사용자 입력이 이루어져 POI 정보에 대한 사용자 확인이 이루어진 것으로 판단되는 경우, 도 13의 (c)와 같이 표시된 POI 정보에 대한 상세 정보의 검색을 위한 검색 엔진 선택 메뉴를 제공할 수 있다. 예시적으로, 검색 엔진 선택 메뉴에는 '네이버로 검색', '다음으로 검색', '구글로 검색'과 같은 선택 메뉴가 포함될 수 있다.Next, when it is determined that the user has confirmed the POI information by making a user input for checking the provided POI information, the
이때, 디스플레이 제어부(15)는 '네이버로 검색'에 대한 사용자 입력이 이루어진 경우, 표시된 POI 정보에 대한 검색 정보로서 도 13의 (d)와 같이 표시된 POI 정보를 키워드로 한 네이버 검색 결과를 사용자 단말(1)의 화면 상에 표시할 수 있다.At this time, when a user input for'Search with Naver' is made, the
이러한 본 장치(10) 내지 본 시스템(100)은 사용자가 실생활공간에 존재하는 주변의 POI를 사용자 단말의 이미지센서로 포커싱하는 것만으로도, 사용자 주변에 있는 POI를 쉽게 검색할 수 있는 지역 정보 검색 기술을 제공할 수 있다.The
본원에서는 객체 저장공간부 및 정보 저장공간부를 통해 새로운 지리 정보 인프라를 구축하여 좀 더 사용자의 주변 상황을 고려한 정보 제공이 이루어질 수 있도록 할 수 있다. 본원에서 제안하는 본 시스템(100)은 객체 정보(건물 정보)와 POI 데이터만 존재한다면 확장할 수 있는 확장성을 지녀 인프라의 규모를 키울 수 있다. 또한, 본원에 의하면, 구축된 지리 정보 인프라를 이용해 POI 정보에 특화된 시스템의 활용이 가능하다.In the present application, a new geographic information infrastructure can be constructed through the object storage space unit and the information storage space unit, so that information can be provided in consideration of the surrounding situation of the user. The
또한, 본원은 실생활공간 객체의 실제 위치를 기반으로 하는 실외 MR 모델을 제안하며, 이 때 실생활공간 객체의 위치는 수치지도를 활용하여 추출될 수 있다. 또한, 본원은 본원에서 제안하는 실외 MR 모델을 기반으로 하는 서비스로서, 키워드 없이 실생활공간의 건물을 사용자 단말로 비추는 것만으로 POI 정보를 검색할 수 있는 Ambient Browser를 제공할 수 있다.In addition, the present application proposes an outdoor MR model based on the actual location of the real-life space object, in which case the location of the real-life space object can be extracted using a digital map. In addition, as a service based on the outdoor MR model proposed in the present application, the present application can provide an Ambient Browser that can search POI information simply by illuminating a building in a real life space to a user terminal without a keyword.
본원에서 제안된 실외 MR 모델에 의하면, 사용자 단말의 위치와 바라보는 방향 정보를 이용하여 사용자가 검색을 원하는 실생활공간의 위치 및 범위를 특정지을 수 있다. 이후, 특정된 위치와 범위 정보를 기반으로 객체 저장공간 레이어에서 해당 위치에 있는 객체에 대한 검색이 이루어질 수 있다. 이후, 정보 저장공간 레이어에서는 해당 위치에 있는 정보(POI 정보), 즉 객체 저장공간 레이어에서 검색된 객체들에 대한 POI 정보의 검색이 이루어질 수 있다. 이후, 객체 저장공간 레이어와 정보 저장공간 레이어에서 검색된 객체 정보들 및 그에 대응하는 POI 정보는 정보 표시공간에서 두 정보(객체 정보와 POI 정보)의 위치관계와 사용자 단말의 위치 정보 및 방향 정보 등을 고려하여 화면에 표시될 수 있다. 이렇게 표시된 정보(일예로 POI 정보)는 실생활공간의 사용자가 사용자 단말을 통해 인식할 수 있다.According to the outdoor MR model proposed in the present application, it is possible to specify the location and range of a real-life space that the user wants to search by using the location and viewing direction information of the user terminal. Thereafter, based on the specified location and range information, a search for an object at a corresponding location in the object storage space layer may be performed. Thereafter, in the information storage layer, information (POI information) at a corresponding location, that is, POI information for objects retrieved from the object storage layer may be searched. Thereafter, the object information retrieved from the object storage layer and the information storage layer and the corresponding POI information are the positional relationship between the two pieces of information (object information and POI information) and the location information and direction information of the user terminal in the information display space. It can be displayed on the screen in consideration. The displayed information (for example, POI information) can be recognized by a user in a real life space through a user terminal.
본원은 Ambient Intelligence 개념이 적용된 수치지도 기반의 모바일 MR 시스템인 Ambient Browser를 제공할 수 있다. 본원은 정보를 얻기 원하는 실생활공간의 건물에 대해 키워드 없이 사용자 단말의 이미지센서로 비추는 것만으로 해당 건물에 대한 정보를 사용자가 제공받을 수 있도록 할 수 있다.This application can provide Ambient Browser, a digital map-based mobile MR system to which the concept of Ambient Intelligence is applied. The present application can enable the user to receive information about the building by simply illuminating the building in a real-life space for which information is desired with an image sensor of a user terminal without a keyword.
본원은 종래의 MR 연구가 실내 사용을 고려하고 있다는 점에 착안하여, 실외 MR기반 서비스를 위한 실생활공간 위치기반의 실외 MR 모델을 제안한다. 이러한 본원에서는 실외 MR 모델에서 핵심이 되는 개체 저장공간을 수치지도를 활용해 구축함을 보였다. 또한, 본원은 실외 MR 모델에 기반한 서비스의 예로 Ambient Browser의 실제 활용 예(예시적으로, 도 10 내지 도 13 참조)를 보였다.The present application proposes an outdoor MR model based on real life space location for outdoor MR-based services, taking into account that the conventional MR research considers indoor use. In this study, it was shown that the object storage space, which is the core of the outdoor MR model, was constructed using a digital map. In addition, the present application shows an actual application example of the Ambient Browser (see FIGS. 10 to 13 as an example) as an example of a service based on an outdoor MR model.
한편, 본 장치(10)에서 추출부(11)는 후보 지형지물 객체들을 추출하기 이전에, 사용자 단말(1)로부터 획득된 위치 정보를 보정할 수 있다. 위치 정보의 보정에 대한 보다 상세한 설명은 다음과 같다.Meanwhile, in the
사용자 단말(1)로부터 획득된 위치 정보가 GPS 정보인 경우, GPS는 약 5m의 오차 범위를 가지고 있으며, 이는 주변 환경에 따라 그 범위가 더 커지거나 작아질 수 있다. 이러한 위치 정보의 오차는 사용자 단말의 위치 정보와 방향 정보를 기반으로 POI 검색을 수행하는 본 장치(10)에 대하여, 부정확한 POI 검색이 이루어지도록 할 수 있다. 따라서, 본 장치(10)는 보다 정확한 POI 검색이 이루어질 수 있도록, 수치지도에서 추출된 객체 정보(건물 정보)와 영상처리를 이용하여 사용자 단말(1)로부터 획득된 위치 정보에 대한 오차를 보정할 수 있으며, 보정된 위치 정보에 기반하여 POI 검색이 이루어지도록 제공할 수 있다.When the location information obtained from the
추출부(11)는 검색 영역에 대한 영상 분석을 통해 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 영상 분석을 통해 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.When it is determined that there are a plurality of feature objects whose entire width is exposed in the search area through image analysis of the search area, the
여기서, 폭 비율 셋트는 일예로 건물들 각각의 폭에 관한 비율을 의미할 수 있다. 다른 일예로 폭 비율 셋트는 건물들 각각의 폭 뿐만 아니라 각 건물들 사이 공간의 폭을 고려한 비율을 의미할 수 있다. 즉, 다른 일예로 폭 비율 셋트는 건물들 각각의 폭과 각 건물들 사이 공간의 폭에 관한 비율을 의미할 수 있다.Here, the width ratio set may mean a ratio with respect to the width of each of the buildings, for example. As another example, the width ratio set may mean a ratio considering not only the width of each of the buildings but also the width of the space between the buildings. That is, as another example, the width ratio set may mean a ratio related to the width of each of the buildings and the width of the space between the buildings.
또한, 영상 분석 기반 폭 비율 셋트는 사용자 단말(1)의 화면 상에 비추어지는 영상에 대한 영상 분석을 통해 산출되는 폭 비율 셋트를 의미할 수 있다. 또한 객체 정보 기반 폭 비율 셋트는 수치지도에서 추출된 객체정보(건물정보)에 기반하여 산출되는 폭 비율 셋트를 의미할 수 있다. 이러한 객체 정보 기반 폭 비율 셋트에는 복수의 후보 지형지물 객체에 대하여 탐색 위치에 따라 산출되는 복수의 객체 정보 기반 폭 비율 셋트가 포함될 수 있다. In addition, the image analysis-based width ratio set may mean a width ratio set calculated through image analysis for an image projected on the screen of the
추출부(11)는 판정 결과 불일치하는 것으로 판정된 경우, 사용자 단말로부터 획득된 방향 정보를 일정하게 유지한 상태로 위치 정보를 사용자 단말의 위치센서의 오차 범위 내에서 변경(시프트)하면서 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. 즉, 추출부(11)는 판정 결과 불일치하는 것으로 판정된 경우, 복수의 후보 지형지물 객체에 대하여 산출되는 복수의 객체 정보 기반 폭 비율 셋트 중 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. When it is determined that the determination result is inconsistent, the
여기서, 위치 정보의 변경은 방위 정보를 바꾸지 않으면서 이동되는 시프트 이동에 의한 변경을 의미할 수 있다. 또한, 오차 범위 내에서의 위치 정보의 변경은 본 장치(10)에 의하여 자동으로 이루어질 수 있으나, 이에 한정되는 것은 아니고, 사용자 입력에 의하여 수동으로 이루어질 수 있다. 또한, 사용자 단말로부터 획득된 위치 정보에 오차가 있는지에 대한 오차 존재 여부 판단은 본 장치(10)에 의하여 자동으로 이루어질 수도 있고, 또는 사용자의 판단에 의해 수동으로 이루어질 수 있다. 이는 후술하는 설명을 통해 보다 쉽게 이해될 수 있다.Here, the change of the location information may mean a change by shift movement that is moved without changing the orientation information. In addition, the change of the location information within the error range may be automatically performed by the
추출부(11)는 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 위치 정보에 오차가 있는 것으로 보아 사용자 단말로부터 획득된 위치 정보를 보정할 수 있다. 즉, 추출부(11)는 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 위치 정보에 오차가 있는 것으로 보아, 사용자 단말로부터 획득된 위치 정보를 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 산출된 탐색 위치로 보정할 수 있다. If it is determined that there is an image analysis-based width ratio set and another object information-based width ratio set corresponding to the image analysis-based width ratio set, it is deemed that there is an error in the location information and may correct the location information obtained from the user terminal. That is, if the
위치 정보 보정에 대한 설명은 다음의 도면을 참조한 설명을 통해 보다 쉽게 이해될 수 있다.A description of the position information correction may be more easily understood through description with reference to the following drawings.
도 14는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 사용자의 판단에 의해 수동으로 이루어지는 경우의 예를 설명하기 위한 도면이다. 달리 말해, 도 14는 사용자가 실제 검색하고자 하는 건물(예를 들어, A 건물)과 본 장치(10)에 의해 인식된 사용자가 검색하고자 하는 건물(예를 들어, B 건물)이 불일치하는 경우의 예를 나타낸다. FIG. 14 is a diagram for explaining an example in which the determination of whether an error exists in the location information of a user terminal acquired by the
도 14에서, 도 14에서 pos 1은 본 장치(10)가 획득한 사용자 단말(1)의 위치 정보에 대응하는 위치, 즉 본 장치(10)가 인식한 사용자 단말(1)의 위치 좌표 예를 나타낸다. pos 2는 실제 사용자 단말(1)의 위치 좌표 예를 나타낸다. 또한, pos 1-f(focus)는 pos 1에서 인식되는 중심 시선(즉, 화면 상의 중심에 대응하는 시선)을 나타내고, pos 2-f는 pos 2에서 인식되는 중심 시선을 나타낸다.In FIG. 14,
도 14를 참조하면, 일예로, 사용자가 A 건물에 대한 POI 검색(탐색)을 수행하고자 하는 경우, 사용자는 A 건물이 사용자 단말(1)의 화면 상에서 중심 부위에 위치하도록 사용자 단말(1)의 이미지센서를 A 건물을 향해 포커싱할 수 있다. 이에 따라, 사용자 단말(1)의 전체 화면 영역(S1)에는 A 건물이 중심에 위치하도록 시각적으로 표출될 수 있다.Referring to FIG. 14, as an example, when a user wants to perform a POI search (search) for building A, the user may select the
이때, 사용자 단말(1)의 화면의 일영역(S2)에는 본 장치(10)가 인식한 사용자 단말의 위치 정보 및 방향 정보가 나타난 지도가 제공될 수 있다. In this case, a map showing location information and direction information of the user terminal recognized by the
이때, 본 장치(10)가 인식한 사용자 단말의 위치 정보에 오차가 있는 경우, 지도 상에 나타나는 사용자 단말의 위치는 실제 사용자의 위치(pos 2)와는 다른 오차가 있는 위치로 표시될 수 있다. 즉, 지도 상에 나타나는 오차가 있는 사용자의 위치에서는 B 건물이 중심 시선에 위치하는 건물인 것으로 인식될 수 있다.In this case, when there is an error in the location information of the user terminal recognized by the
이에 따르면, 정확한 검색이 이루어진 경우, 본 장치(10)는 사용자 단말(1)의 화면 상에 검색 대상 객체에 관한 POI 정보로서 A 건물의 POI 정보를 표시해야 할 것이다. 그러나, 도 14에 도시된 예시에서는 획득된 사용자 단말의 위치 정보의 오차 존재로 인해 검색 대상 객체가 잘못 인식됨에 따라 본 장치(10)는 B 건물의 POI 정보를 잘못 표시할 수 있다.According to this, when an accurate search is made, the
이처럼, 본원에서는 사용자 단말(1)의 일영역(S2)에 제공되는 지도와 사용자 단말(1)의 전체 화면 영역(S1)에 제공되는 이미지센서를 통해 인식되는 영상을 이용하여 사용자가 사용자 단말(1)로부터 획득된 위치 정보에 대한 오차 존재 여부를 수동으로 감지(인지)할 수 있다.As such, in the present application, the user can use the map provided on one area S2 of the
도 15는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 사용자 단말의 위치 정보를 사용자 입력에 의하여 수동으로 변경하는 경우의 예를 나타낸 도면이다.15 is a diagram illustrating an example of a case where the location information of a user terminal is manually changed by a user input in the region information
도 15를 참조하면, 도 15에서 (a)는 사용자 단말의 위치 정보의 오차로 인해(즉, GPS 오차로 인해), 지도 상에 표시되는 사용자 단말의 위치가 사용자 단말의 이미지센서를 통해 인식된 영상에 대응하는 실제 사용자 단말의 위치와 다른 경우를 나타낸다. Referring to FIG. 15, in FIG. 15, (a) shows that the location of the user terminal displayed on the map is recognized through the image sensor of the user terminal due to an error in the location information of the user terminal (that is, due to a GPS error). It represents a case different from the location of the actual user terminal corresponding to the image.
이러한 경우, 사용자는 사용자 단말(1)의 지도 상에 표시된 위치 정보에 대응하는 위치 좌표(pos 1)을 일예로 화면 터치를 통해 드래그하는 등의 사용자 입력을 수행함으로써, 도 15의 (b)와 같이 위치 정보를 보정할 수 있다. In this case, the user performs a user input such as dragging the location coordinate (pos 1) corresponding to the location information displayed on the map of the
다른 일예로, 사용자는 사용자 단말(1)의 화면의 일영역에 표시되는 위치 정보 조정 아이콘(Q)에 대한 사용자 입력을 통해 위치 정보를 보정할 수 있다. 이때, 위치 정보 조정 아이콘(Q)에 대한 사용자 입력에 의해, 지도 상에 표시되는 위치 정보가 실시간으로 변경되어 보여질 수 있다. 위치 정보 조정 아이콘(Q)에 의하여 위치 정보는 예를 들어 도면을 기준으로 상 또는 하 방향으로 이동될 수 있다. 다만, 이에만 한정되는 것은 아니고, 위치 정보 조정 아이콘(Q)에 의하여 위치 정보는 360도 방향 중 어느 하나의 방향으로 이동될 수 있다.As another example, the user may correct the location information through a user input to the location information adjustment icon Q displayed on a portion of the screen of the
사용자 입력에 의해, 지도 상에는 도 15의 (b)와 같이 수동으로 보정된 보정 위치 좌표(pos 1', 즉 실제 사용자 단말의 위치 좌표)가 표시될 수 있다. 이러한 경우, 본 장치(10)는 도 15의 (b)와 같이 보정된 위치 정보에 기반하여 POI 검색(탐색)을 수행할 수 있다. 즉, 본원에서 본 장치(10)가 인식한 사용자 단말(1)의 위치 정보는 일예로 사용자 입력에 의하여 수동으로 미세 조정됨에 따라 보정될 수 있다.According to a user input, a manually corrected corrected position coordinate (pos 1', that is, the position coordinate of an actual user terminal) may be displayed on the map as shown in FIG. 15B. In this case, the
도 16은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 획득된 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단이 본 장치(10)에 의해 자동으로 이루어지는 경우의 예를 설명하기 위한 도면이다.16 is for explaining an example in which the determination of whether an error exists in the location information of the user terminal acquired by the
도 16에서 pos 1은 본 장치(10)가 획득한 사용자 단말(1)의 위치 정보에 대응하는 위치, 즉 본 장치(10)가 인식한 사용자 단말(1)의 위치 좌표 예를 나타낸다. pos 2는 실제 사용자 단말(1)의 위치 좌표 예를 나타낸다.In FIG. 16,
도 16을 참조하면, 추출부(11)는 도 16의 (a)와 같이 사용자 단말(1)에 표출되는 검색 영역(s)에 대응하는 영상에 대해 영상 분석을 수행함으로써, 영상 분석 기반 폭 비율 셋트를 산출할 수 있다. 이때, 사용자 단말(1)에 표출되는 영상으로부터 산출된 영상 분석 기반 폭 비율 셋트는 실제 pos 2의 위치에서 산출되는 폭 비율 셋트를 의미할 수 있다. 달리 말해, 도 16의 (a)에서 사용자 단말(1)에 표출되는 영상은 pos 2의 위치에서 인식되는 영상의 예를 나타낼 수 있다.Referring to FIG. 16, the
또한, 추출부(11)는 객체 저장부(15)에 저장된 지형지물 객체들을 기반으로 하여 복수의 후보 지형지물 객체에 대한 객체 정보 기반 폭 비율 셋트를 산출할 수 있다. 이때, 산출되는 객체 정보 기반 폭 비율 셋트는 일예로 도 16의 (b)에서 pos 2 위치에서 산출되는 폭 비율 세트를 의미할 수 있다. In addition, the
이때, 추출부(11)는 사용자 단말(1)에 표출되는 영상으로부터 산출된 영상 분석 기반 폭 비율 셋트와 pos 2 위치에서 산출되는 객체 정보 기반 폭 비율 셋트가 불일치하는지 여부를 판정할 수 있다.In this case, the
판정 결과, 불일치하므로, 추출부(11)는 방향 정보를 일정하게 유지한 상태로, pos 1의 위치를 제1 위치(pos 1'), 제2 위치(pos 1'') 등과 같이 변경(시프트)하면서 영상 분석 기반 폭 비율 세트와 대응되는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. 이때, 제1 위치(pos 1')에서 산출되는 객체 정보 기반 폭 비율 셋트가 추출부(11)에 의해 탐색된 영상 분석 기반 폭 비율 세트와 대응되는 다른 객체 정보 기반 폭 비율 셋트를 의미할 수 있다. 따라서, 탐색 결과, 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 제1 위치(pos 1')에 대하여 존재하므로, 추출부(11)는 이를 사용자 단말(1)로부터 획득된 위치 정보에 오차가 있는 것으로 보아 본 장치(10)가 인식한 사용자 단말(1)의 위치 정보(pos 1)를 제1 위치(pos 1')로 보정할 수 있다.As a result of the determination, since there is a discrepancy, the
이때, 일예로 추출부(11)는 pos 1의 위치를 변경(시프트)할 때, 수치지도를 기반으로 하는 객체 저장부에 저장된 지형지물 객체들에 대하여, 방향 정보를 일정하게 유지한 상태로 이미지센서에서 인식 가능한 영상의 윈도우 폭을 좌우 방향에 대해 하나의 건물 폭에 대응하는 거리만큼 변경(시프트)시킬 수 있다.At this time, as an example, when the location of
이처럼, 본 장치(10)는 영상 분석을 통해 산출된 영상 분석 기반 폭 비율 셋트(달리 표현하여, 영상 상의 건물크기 비율 패턴)과 본 장치(10)가 인식한 사용자 단말의 위치에 대한 객체 정보 기반 폭 비율 셋트(달리 표현하여, 수치지도를 기반으로 한 본 장치(10)가 인식한 사용자 단말의 위치에 대한 건물크기 비율 패턴)을 비교함으로써 불일치 여부를 판정할 수 있다. 판정 결과 불일치하면, 본 장치(10)는 사용자 단말의 위치를 시프트하면서 시프트된 위치에 대한 객체 정보 기반 폭 비율 셋트를 비교하여 영상 분석 기반 폭 비율 셋트에 대응하는 객체 정보 기반 폭 비율 셋트를 탐색하고, 탐색된 해당 위치로 사용자 단말의 위치를 보정할 수 있다. As such, the
본 장치(10)는 사용자 단말의 위치 정보에 대한 오차 존재 여부 판단을 수치지도 및 영상 분석을 통해 자동으로 수행할 수 있다. 이때, 본원에서는 영상 분석시 기존재하거나 향후 개발되는 다양한 이미지 인식(분석) 알고리즘이 적용될 수 있다.The
도 17 및 도 18은 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)에서 사용자 단말의 위치 정보의 보정을 설명하기 위한 도면이다.17 and 18 are diagrams for explaining correction of location information of a user terminal in the
도 17 및 도 18을 참조하면, 17의 (a)에 도시된 바와 같이, 본 장치(10)를 통해 인식된 사용자 단말(1)의 위치는 pos 1과 같고, 실제 사용자 단말(1)의 위치 좌표가 pos 2와 같다고 하자.17 and 18, as shown in (a) of 17, the location of the
추출부(11)는 사용자 단말(1)의 화면 상에 표출되는 영상에 대하여 영상 분석을 수행함으로써 도 17의 (b)와 같이 화면 상에 표출되는 건물들의 윤곽선을 추출할 수 있다.The
다음으로, 추출부(11)는 도 17의 (c)와 같이, 영상 분석을 통해 추출된 건물들의 윤곽선에 기반하여, 영상 분석 기반 폭 비율 셋트(R1, 달리 표현하여 영상 상의 건물크기 비율 패턴)를 산출할 수 있다. 이때, 일예로 추출부(11)는 윤곽선의 세로선을 기준으로 영상 분석 기반 폭 비율 셋트(R1)를 산출할 수 있다.Next, as shown in (c) of FIG. 17, based on the outlines of buildings extracted through image analysis, the
다음으로, 추출부(11)는 도 17의 (d)와 같이, 사용자 단말(1)의 위치센서의 오차 범위를 고려하여 오차 범위 내에서 인식 가능한 탐색 유효 영역을 특정지을 수 있다. 이후, 추출부(11)는 탐색 유효 영역 내에 위치하는 복수의 후보 지형지물 객체들을 기반으로 하여, pos 1의 위치를 오차 범위 내에서 변경하면서 영상 분석 기반 폭 비율 셋트(R1)와 대응하는 다른 객체 정보 기반 폭 비율 셋트에 대한 탐색을 수행할 수 있다.Next, the
이때, 추출부(11)는 도 18의 (a)와 같이 방향 정보를 일정하게 유지한 상태로, pos 1의 위치를 오차 범위 내에서 좌우 방향으로 변경(시프트)하면서 영상 분석 기반 폭 비율 세트와 대응되는 객체 정보 기반 폭 비율 셋트(R2)를 탐색할 수 있다. At this time, the
탐색 결과 영상 분석 기반 폭 비율 셋트(R1)와 대응하는 다른 객체 정보 기반 폭 비율 셋트(R2)가 존재하면, 사용자 단말(1)로부터 획득된 위치 정보인 pos 1에 오차가 있는 것으로 보아, 추출부(11)는 도 18의 (b)와 같이 본 장치(10)가 인식한 사용자 단말(1)의 위치 정보 pos 1을 도 18의 (c)와 같이 영상 분석 기반 폭 비율 셋트(R1)와 대응하는 다른 객체 정보 기반 폭 비율 셋트(R2)의 획득이 이루어지는 위치 pos 1'로 보정할 수 있다.As a result of the search, if there is an image analysis-based width ratio set (R1) and another object information-based width ratio set (R2) corresponding to the image analysis-based width ratio set (R2), it is considered that there is an error in
이처럼, 본 장치(10)는 보정된 사용자 단말의 위치 정보에 기반하여 POI 검색(탐색)을 수행함으로써, 보다 정확한 POI 정보를 제공할 수 있다.As such, the
이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, based on the details described above, the operation flow of the present application will be briefly described.
도 19는 본원의 일 실시예에 따른 지역 정보 자동 인식 장치(10)를 이용한, 사용자 주변 포커싱을 통한 지역 정보 자동 인식 방법에 대한 동작 흐름도이다.19 is a flowchart illustrating a method of automatically recognizing local information through focusing around a user using the
도 19에 도시된 지역 정보 자동 인식 방법은 앞서 설명된 지역 정보 자동 인식 장치(10, 본 장치)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 지역 정보 자동 인식 장치(10, 본 장치)에 대하여 설명된 내용은 지역 정보 자동 인식 방법에 대한 설명에도 동일하게 적용될 수 있다.The method for automatically recognizing region information illustrated in FIG. 19 may be performed by the
도 19를 참조하면, 단계S11에서는 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출할 수 있다.Referring to FIG. 19, in step S11, based on the location information and direction information obtained from the user terminal, among the feature objects stored in the object storage unit of the automatic region information recognition device, a search area set to be visually displayed on the user terminal is selected. Corresponding candidate feature objects can be extracted.
이때, 단계S11에서는, 검색 영역에 대한 영상 분석을 통해 검색 영역 내에서 폭 전체가 전부 노출되는 복수의 지형지물 객체가 존재하는 것으로 판단되면, 영상 분석을 통해 복수의 지형지물 객체에 관하여 산출된 영상 분석 기반 폭 비율 셋트와, 객체 저장부에 저장된 지형지물 객체들 기반으로 복수의 지형지물 객체 각각의 위치 및 방향에 대응하는 복수의 후보 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하여 산출된 객체 정보 기반 폭 비율 셋트 사이의 불일치 여부를 판정할 수 있다.At this time, in step S11, if it is determined that there are a plurality of feature objects whose entire width is exposed in the search area through image analysis of the search area, the image calculated for the plurality of feature objects through image analysis Based on the analysis-based width ratio set and the feature objects stored in the object storage unit, a plurality of candidate feature objects corresponding to the positions and directions of the plurality of feature objects are projected onto the search area to correspond to the object width. Thus, it is possible to determine whether there is a discrepancy between the calculated object information-based width ratio sets.
단계S11에서는, 판정 결과 불일치하는 것으로 판정된 경우, 방향 정보를 일정하게 유지한 상태로 상기 위치 정보를 사용자 단말의 위치센서의 오차 범위 내에서 변경하면서 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트를 탐색할 수 있다. 이후, 단계S11에서는, 영상 분석 기반 폭 비율 셋트와 대응하는 다른 객체 정보 기반 폭 비율 셋트가 존재하는 것으로 판단되면, 위치 정보에 오차가 있는 것으로 보아 위치 정보를 보정할 수 있다.In step S11, when it is determined that the determination result is inconsistent, the position information is changed within the error range of the position sensor of the user terminal while maintaining the direction information while other object information corresponding to the image analysis-based width ratio set. You can explore a set of base width ratios. Thereafter, in step S11, if it is determined that there is another object information-based width ratio set corresponding to the image analysis-based width ratio set, it is considered that there is an error in the location information, and the location information may be corrected.
단계S11에서는 보정된 위치 정보 및 방향 정보를 기반으로 후보 지형지물 객체들을 추출할 수 있다.In step S11, candidate terrain objects may be extracted based on the corrected location information and direction information.
다음으로, 단계S12에서는 단계S11에서 추출된 후보 지형지물 객체들 중 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별할 수 있다.Next, in step S12, among the candidate feature objects extracted in step S11, visible feature objects that can be visually identified within the search area may be selected.
또한, 단계S12에서는 검색 영역 내에서 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외할 수 있다.In addition, in step S12, a visible feature object is selected by sequentially searching for candidate feature objects in an order close to the location corresponding to the location information in the search area, but the width occupied by the selected visible feature object in the search area The area can be excluded from the search target range from the next search.
단계S11에서 고려되는 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장할 수 있다. 이에 따라, 단계S12에서 고려되는 선별된 가시 지형지물 객체에 대응하는 폭 영역은 객체 정보를 고려하여 선별된 가시 지형지물 객체를 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역을 의미할 수 있다.The object storage unit considered in step S11 may store information about the location and shape of the feature objects as object information. Accordingly, the width area corresponding to the selected visible feature object considered in step S12 may mean an area corresponding to the object width appearing in a state in which the selected visible feature object selected in consideration of object information is projected onto the search area. have.
여기서, 일예로 객체 저장부에서 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장될 수 있다. 다른 일예로, 객체 저장부에서 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장될 수 있다.Here, as an example, information about the shape in the object storage unit may be stored in the form of a minimum bounding rectangle (MBR). As another example, information about a shape in the object storage unit may be stored in a MAR (Minimum Area Rectangle) format.
MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태를 의미할 수 있다.The MAR shape is the smallest area among all cases in which the MBR shape is formed based on a local axis including a line connecting two neighboring vertices among the vertices included in the contour of the feature object included on the digital map. It can mean the corresponding form.
다음으로, 단계S13에서는 단계S12에서 선별된 가시 지형지물 객체들 중 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식할 수 있다.Next, in step S13, among the visible feature objects selected in step S12, the visible feature object located closest to the center of the search area may be recognized as a region information request object.
또한, 도면에 도시하지는 않았으나, 본원의 일 실시예에 따른 지역 정보 자동 인식 방법은, 단계S13에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 지역 정보 요청 대상 상에 오버레이하여 표시하는 단계를 포함할 수 있다.In addition, although not shown in the drawing, in the method for automatically recognizing local information according to an embodiment of the present application, point of interest (POI) information corresponding to the area information request object recognized in step S13 is transferred to the local information request object. It may include the step of overlaying and displaying.
상술한 설명에서, 단계 S11 내지 S13은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S13 may be further divided into additional steps or may be combined into fewer steps, depending on the embodiment of the present application. In addition, some steps may be omitted as necessary, and the order between steps may be changed.
본원의 일 실시 예에 따른 지역 정보 자동 인식 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method for automatically recognizing region information according to an exemplary embodiment of the present disclosure may be implemented in the form of program commands that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The above-described hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.
또한, 전술한 지역 정보 자동 인식 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described method for automatically recognizing area information may also be implemented in the form of a computer program or application executed by a computer stored in a recording medium.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present application is for illustrative purposes only, and those of ordinary skill in the art to which the present application pertains will be able to understand that it is possible to easily transform it into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present application.
1: 사용자 단말
10: 지역 정보 자동 인식 장치
11: 추출부
12: 선별부
13: 인식부
14: 디스플레이 제어부
15: 객체 저장부1: user terminal
10: area information automatic recognition device
11: extraction section
12: sorting unit
13: recognition
14: display control unit
15: object storage
Claims (15)
(a) 사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 단계;
(b) 상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 단계; 및
(c) 상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 단계,
를 포함하는 지역 정보 자동 인식 방법.As a method for automatically recognizing region information through focusing around a user using an automatic region information recognition device,
(a) Based on the location information and direction information obtained from the user terminal, among the feature objects stored in the object storage unit of the region information automatic recognition device, a candidate feature corresponding to a search area set to be visually displayed on the user terminal Extracting objects;
(b) selecting visible feature objects that can be visually identified in the search area among the candidate feature objects; And
(c) recognizing a visible feature object located closest to the center of the search area among the visible feature objects as a region information request object,
Local information automatic recognition method comprising a.
상기 (b) 단계는,
상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외하는 것인, 지역 정보 자동 인식 방법.The method of claim 1,
The step (b),
In the search area, a visible feature object is selected by sequentially searching for candidate feature objects in an order close to a location corresponding to the location information, and the width area occupied by the selected visible feature object in the search area A method for automatically recognizing local information from the next search to exclude it from the search target range.
상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고,
상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역인 것인, 지역 정보 자동 인식 방법.The method of claim 2,
The object storage unit stores information on the location and shape of the feature objects as object information,
The width area corresponding to the selected visible feature object is an area corresponding to the object width appearing when the selected visible feature object is projected onto the search area in consideration of the object information. Way.
상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 방법.The method of claim 3,
The information on the shape is stored in the form of MBR (Minimum Bounding Rectangle).
상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 방법.The method of claim 3,
The information on the shape is stored in a MAR (Minimum Area Rectangle) format.
상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태인 것인, 지역 정보 자동 인식 방법.The method of claim 5,
The MAR shape is the minimum area among all the cases in which the MBR shape is formed based on a local axis including a line connecting two adjacent vertices among vertices included in the contour of the feature object included on the digital map. In a form corresponding to, the method for automatically recognizing local information.
(d) 상기 (c) 단계에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 단계,
를 더 포함하는 지역 정보 자동 인식 방법.The method of claim 1,
(d) overlaying and displaying POI (Point of Interest) information corresponding to the region information request object recognized in step (c), on the region information request object,
Local information automatic recognition method further comprising a.
사용자 단말로부터 획득된 위치 정보 및 방향 정보를 기반으로, 상기 지역 정보 자동 인식 장치의 객체 저장부에 저장된 지형지물 객체들 중 사용자 단말에 시각적으로 표출되도록 설정된 검색 영역에 대응하는 후보 지형지물 객체들을 추출하는 추출부;
상기 후보 지형지물 객체들 중 상기 검색 영역 내에서 시각적으로 확인 가능한 가시 지형지물 객체들을 선별하는 선별부; 및
상기 가시 지형지물 객체들 중 상기 검색 영역의 중심에 가장 가깝게 위치하는 가시 지형지물 객체를 지역 정보 요청 대상으로 인식하는 인식부,
를 포함하는 지역 정보 자동 인식 장치.As an automatic local information recognition device through focusing around the user,
Based on the location information and direction information obtained from the user terminal, among the feature objects stored in the object storage unit of the automatic region information recognition device, candidate feature objects corresponding to the search area set to be visually displayed on the user terminal are extracted. An extraction unit;
A selection unit that selects visually identifiable visible feature objects from among the candidate feature objects; And
A recognition unit for recognizing a visible feature object located closest to the center of the search area among the visible feature objects as a region information request object,
Region information automatic recognition device comprising a.
상기 선별부는,
상기 검색 영역 내에서 상기 위치 정보에 대응하는 위치에 가까운 순서에 따라 후보 지형지물 객체를 순차적으로 탐색하여 가시 지형지물 객체를 선별하되, 선별된 가시 지형지물 객체가 상기 검색 영역 내에서 차지하는 폭 영역을 차기 탐색부터 탐색 대상 범위에서 제외하는 것인, 지역 정보 자동 인식 장치.The method of claim 8,
The selection unit,
In the search area, a visible feature object is selected by sequentially searching for candidate feature objects in an order close to a location corresponding to the location information, and the width area occupied by the selected visible feature object in the search area A device for automatically recognizing area information, which is to be excluded from the range to be searched from the next search.
상기 객체 저장부는 지형지물 객체들의 위치와 형상에 관한 정보를 객체 정보로서 저장하고,
상기 선별된 가시 지형지물 객체에 대응하는 폭 영역은 상기 객체 정보를 고려하여 상기 선별된 가시 지형지물 객체를 상기 검색 영역에 투영한 상태에서 나타나는 객체 폭에 대응하는 영역인 것인, 지역 정보 자동 인식 장치.The method of claim 9,
The object storage unit stores information on the location and shape of the feature objects as object information,
The width area corresponding to the selected visible feature object is an area corresponding to the object width appearing when the selected visible feature object is projected onto the search area in consideration of the object information. Device.
상기 형상에 관한 정보는, MBR(Minimum Bounding Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 장치.The method of claim 10,
The information on the shape is to be stored in the form of MBR (Minimum Bounding Rectangle), region information automatic recognition device.
상기 형상에 관한 정보는, MAR(Minimum Area Rectangle) 형태로 저장되는 것인, 지역 정보 자동 인식 장치.The method of claim 10,
The information on the shape is stored in a MAR (Minimum Area Rectangle) format.
상기 MAR 형태는, 수치 지도 상에 포함된 지형지물 객체의 윤곽에 포함되는 꼭짓점들 중 서로 이웃하는 두 꼭짓점을 연결한 라인을 포함하는 로컬 축을 기준으로 MBR 형태를 형성한 모든 경우 중 최소 면적인 경우에 대응하는 형태인 것인, 지역 정보 자동 인식 장치.The method of claim 12,
The MAR shape is the minimum area among all the cases in which the MBR shape is formed based on a local axis including a line connecting two adjacent vertices among vertices included in the contour of the feature object included on the digital map. The apparatus for automatically recognizing local information in a form corresponding to.
상기 인식부에서 인식된 지역 정보 요청 대상에 대응하는 관심지점(POI, Point of Interest) 정보를 상기 지역 정보 요청 대상 상에 오버레이하여 표시하는 디스플레이 제어부,
를 더 포함하는 지역 정보 자동 인식 장치.The method of claim 8,
A display control unit that overlays and displays point of interest (POI) information corresponding to the region information request object recognized by the recognition unit on the region information request object,
Region information automatic recognition device further comprising a.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20180005387 | 2018-01-16 | ||
KR1020180005387 | 2018-01-16 | ||
KR1020180101150A KR102157999B1 (en) | 2018-01-16 | 2018-08-28 | Apparatus and method for automatically recognizing local information through focusing around a user |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180101150A Division KR102157999B1 (en) | 2018-01-16 | 2018-08-28 | Apparatus and method for automatically recognizing local information through focusing around a user |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200108403A true KR20200108403A (en) | 2020-09-18 |
KR102273919B1 KR102273919B1 (en) | 2021-07-06 |
Family
ID=67481418
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180101150A KR102157999B1 (en) | 2018-01-16 | 2018-08-28 | Apparatus and method for automatically recognizing local information through focusing around a user |
KR1020200117207A KR102273919B1 (en) | 2018-01-16 | 2020-09-11 | Apparatus and method for automatically recognizing local information through focusing around a user |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180101150A KR102157999B1 (en) | 2018-01-16 | 2018-08-28 | Apparatus and method for automatically recognizing local information through focusing around a user |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102157999B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220124572A (en) | 2021-03-03 | 2022-09-14 | 주식회사 케이티 | Business information providing server based on map platform |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150075532A (en) * | 2013-12-26 | 2015-07-06 | 한국전자통신연구원 | Apparatus and Method of Providing AR |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101652311B1 (en) * | 2010-01-26 | 2016-08-30 | 광주과학기술원 | System and method for storing information of vision image, and the recording media storing the program performing the said method |
US9488488B2 (en) * | 2010-02-12 | 2016-11-08 | Apple Inc. | Augmented reality maps |
-
2018
- 2018-08-28 KR KR1020180101150A patent/KR102157999B1/en active IP Right Grant
-
2020
- 2020-09-11 KR KR1020200117207A patent/KR102273919B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150075532A (en) * | 2013-12-26 | 2015-07-06 | 한국전자통신연구원 | Apparatus and Method of Providing AR |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220124572A (en) | 2021-03-03 | 2022-09-14 | 주식회사 케이티 | Business information providing server based on map platform |
Also Published As
Publication number | Publication date |
---|---|
KR102157999B1 (en) | 2020-09-21 |
KR102273919B1 (en) | 2021-07-06 |
KR20190087267A (en) | 2019-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6833886B2 (en) | Systems and methods for using visual landmarks in initial navigation | |
US10309797B2 (en) | User interface for displaying navigation information in a small display | |
US8954275B2 (en) | Schematic maps | |
JP5728775B2 (en) | Information processing apparatus and information processing method | |
KR100985737B1 (en) | Method, terminal device and computer-readable recording medium for providing information on an object included in visual field of the terminal device | |
US9488488B2 (en) | Augmented reality maps | |
US20160063671A1 (en) | A method and apparatus for updating a field of view in a user interface | |
JP5652097B2 (en) | Image processing apparatus, program, and image processing method | |
US20120194547A1 (en) | Method and apparatus for generating a perspective display | |
US20120093369A1 (en) | Method, terminal device, and computer-readable recording medium for providing augmented reality using input image inputted through terminal device and information associated with same input image | |
US20150062114A1 (en) | Displaying textual information related to geolocated images | |
KR101042910B1 (en) | Method, system and computer-readable recording medium for providing service using electronic map | |
KR20150075532A (en) | Apparatus and Method of Providing AR | |
JP2010118019A (en) | Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium | |
KR102344393B1 (en) | Contextual map view | |
US10444954B2 (en) | Distinguishable geographic area presentation | |
JP6384898B2 (en) | Route guidance system, method and program | |
KR102273919B1 (en) | Apparatus and method for automatically recognizing local information through focusing around a user | |
US20230050644A1 (en) | Generating Computer Augmented Maps from Physical Maps | |
KR20100138554A (en) | Travelers navigation method and system thereof | |
JP7065455B2 (en) | Spot information display system | |
JP2005134242A (en) | Navigation system, navigation apparatus, navigation method, and navigation program | |
KR20200127107A (en) | Visualization System of Regional Commercial Areas Using Augmented Reality | |
Chernykh et al. | Development of a Navigation System on the University Territory Using Augmented Reality Technology | |
Patel et al. | A Survey on Improving Navigation for Street Data Using Mobile Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |