KR102299464B1 - Apparatus and method for augmented reality based road guidance - Google Patents
Apparatus and method for augmented reality based road guidance Download PDFInfo
- Publication number
- KR102299464B1 KR102299464B1 KR1020190168262A KR20190168262A KR102299464B1 KR 102299464 B1 KR102299464 B1 KR 102299464B1 KR 1020190168262 A KR1020190168262 A KR 1020190168262A KR 20190168262 A KR20190168262 A KR 20190168262A KR 102299464 B1 KR102299464 B1 KR 102299464B1
- Authority
- KR
- South Korea
- Prior art keywords
- internal
- information
- route
- user
- road
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3446—Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
- G01C21/367—Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
Abstract
증강현실 기반 길 안내 장치에 관한 것이며, 증강현실 기반 길 안내 장치는, 사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성하는 제1 경로 생성부; 상기 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 상기 요청 신호에 응답하여 상기 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하는 제2 경로 생성부; 및 생성된 상기 내부 길 안내 경로를 기반으로, 상기 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자 단말로 제공하는 제어부를 포함하고, 상기 제어부는, 상기 내부 길 안내 정보를 상기 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공할 수 있다.To an augmented reality-based road guidance device, the augmented reality-based road guidance device includes: a first route generator configured to generate a route from a starting point to a destination based on information about a starting point and a destination input from a user; When a request signal for requesting an internal route guidance for an internal movement section included in the generated route is received, a second route generator for generating an internal route guidance route corresponding to the internal movement section in response to the request signal ; and a controller for generating and providing internal route guidance information for guiding a user's movement on the internal route guidance route to a user terminal based on the generated internal route guidance route, wherein the controller includes: Guidance information may be provided based on augmented reality for an internal road belonging to the internal movement section.
Description
본원은 증강현실(Augmented Reality, AR) 기반 길 안내 장치 및 방법에 관한 것이다.The present application relates to an augmented reality (AR)-based road guidance apparatus and method.
경로(길) 안내 장치인 내비게이션(Navigation Device)은 일반적으로 차량(자동차)에 사용하도록 고안된 차량자동항법장치의 일종으로서, 차량의 현재 위치를 파악함으로써 사용자가 입력한 목적지로의 경로를 안내하는 것을 주목적으로 한다. 이러한 내비게이션은 신호위반 단속 구간, 과속 단속 구간, 주변 주유소 안내, 실시간 교통상황 안내 등 다양한 부가 기능과 편의성을 제공함으로써 차량운행에서 필수적인 장치로 인식되고 있다.A navigation device, which is a device for guiding a route (road), is a type of automatic vehicle navigation device designed for use in vehicles (cars) in general. do it for a purpose The navigation system is recognized as an essential device for vehicle operation by providing various additional functions and convenience, such as a signal violation enforcement section, a speeding enforcement section, information about nearby gas stations, and real-time traffic situation guidance.
그런데, 종래의 경로 안내 기술(내비게이션 기술)은 주로 차량에 초점이 맞춰져 차량이 이동할 수 있는 경로(즉, 지상의 도로 등)에 대해서만 길 안내를 지원할 뿐, 다소 큰 규모를 갖는 복잡하고 혼잡한 지하철 역사(驛舍) 내부나 대형 건물의 실내(내부) 등과 같은 내부 공간에 대해서는 관련 데이터의 부재로 인해 내부 공간에 대한 길 안내의 지원이 이루어지지 않고 있다.However, the conventional route guidance technology (navigation technology) is mainly focused on the vehicle and only supports the route guidance for the route that the vehicle can move (ie, the road on the ground, etc.), and a complex and crowded subway with a rather large scale For internal spaces such as the interior of a station or the interior (inside) of a large building, there is no support for directions to the interior space due to the absence of relevant data.
이처럼, 대부분 종래의 경로 안내 기술로는 내부 공간에 대한 정확한 길 안내의 제공에 어려움이 있어, 예시적으로 사용자가 도보를 이용해 상술한 내부 공간(특히나, 초행길에 있는 내부 공간)을 경유하여 목적지까지 이동하는 경우, 사용자가 해당 내부 공간에서의 이동시 길을 잃거나 헤매는 일이 생길 수 있으며, 이는 목적지까지의 이동 시간의 지연을 야기하게 된다.As such, most of the conventional route guidance technologies have difficulty in providing accurate route guidance to the internal space, so that the user can exemplarily use a walk to reach the destination via the aforementioned internal space (especially, the internal space on the first road). When moving, the user may get lost or get lost while moving in the corresponding internal space, which causes a delay in the travel time to the destination.
도 1은 지하철 역사 내 길 안내를 위한 표지판의 예를 나타낸 도면이다.1 is a view showing an example of a sign for guiding a road in a subway station.
도 1을 참조하면, 일반적으로 지하철 역사 등의 내부에 존재하는 표지판(전철의 이동 방향이나 출구를 안내하는 표지판 등)은 내선열차, 외선열차, a방면, b행 등과 같이 표기가 단순하고 모호하게 되어 있다. Referring to FIG. 1, in general, signs (signs guiding the moving direction or exit of a subway station, etc.) existing inside subway stations are simple and vague, such as internal trains, external trains, direction a, line b, etc. has been
따라서, 사용자가 복수 개의 지하철 노선이 교차하는 혼잡한 환승역(예를 들어, 고속터미널역, 삼성역, 잠실역 등)이나 대형 건물(백화점, 마트 등), 지하상가, 버스 터미널, 많은 출입구 등과 연결되고 여러 층(floor)으로 이루어진 지하/지상의 내부 공간 등에서 도 1과 같은 표지판에 의존하는 것만으로는 원하는 목적지까지 정확하게 이동하는 것에 한계가 있다.Therefore, the user is connected to a crowded transfer station (for example, Express Bus Terminal Station, Samseong Station, Jamsil Station, etc.) where multiple subway lines intersect, large buildings (department stores, marts, etc.), underground shopping malls, bus terminals, many entrances, etc. There is a limit to accurately moving to a desired destination only by relying on a sign as shown in FIG.
즉, 종래의 경로 안내 기술이나 표지판 등을 이용하는 것만으로는, 내부 공간에 대하여 사용자의 이동을 원하는 목적지까지 원활하고 정확하게 안내하는 데에 어려움이 있어, 사용자로 하여금 지하철 역사 내에서 가고자 하는 방향과는 반대 방향의 플랫폼으로 내려가게 되거나, 출구를 찾지 못하여 헤매게 되는 등의 일이 발생할 수 있다.That is, there is a difficulty in smoothly and accurately guiding the user to the desired destination with respect to the internal space only by using the conventional route guidance technology or signage, so that the direction the user wants to go in the subway station is different. It could happen that you go down to the platform in the opposite direction, or you get lost because you can't find an exit.
도 2 및 도 3은 종래에 자동차나 도보를 대상으로 한 경로(길) 안내의 예를 나타낸 도면이다.2 and 3 are diagrams showing an example of a route (road) guidance for a vehicle or a foot in the prior art.
도 2를 참조하면, 종래 포털 사이트(예를 들어, 네이버, 구글 등)에서는 도 2의 (a)와 같이 자동차를 기반으로 경로 안내 정보를 제공하거나, 도 2의 (b)와 같이 도보를 기반으로 경로 안내 정보를 제공함에 있어서, 사용자로부터 출발지와 목적지가 입력된 경우 출발지로부터 목적지까지의 경로, 해당 경로에 대한 거리, 및 해당 경로를 자동차나 도보로 이동하였을 때 소요되는 소요 시간(예상 소요 시간) 등에 관한 정보를 제공하고 있다.Referring to FIG. 2, conventional portal sites (eg, Naver, Google, etc.) provide route guidance information based on a vehicle as shown in FIG. In providing route guidance information by using , when the origin and destination are input from the user, the route from the origin to the destination, the distance to the route, and the time required when the route is moved by car or on foot (estimated time required) ), etc., are provided.
그런데, 이와 같은 종래의 경로 안내 기술은, 앞서 말한 바와 같이 주로 차량이 이동할 수 있는 경로(즉, 지상의 도로 등)에 한하여 2차원 지도를 기반으로 목적지까지의 경로를 제공할 뿐이어서, 도보를 이용해 복잡한 지하철 역사 내부나 대형 건물의 실내(내부)를 경유하여 이동함에 있어서 사용자가 해당 내부 공간을 헤매지 않고 정확히 이동할 수 있도록 안내(가이드) 하는 데에 어려움이 있다.However, such a conventional route guidance technology only provides a route to a destination based on a two-dimensional map only for a route (ie, a road on the ground) that a vehicle can mainly move, as described above, It is difficult to guide (guide) so that the user can move accurately without wandering through the interior space of a complex subway station or the interior (inside) of a large building.
또한, 도 3을 참조하면, 종래의 경로 안내 기술은 복수의 층이 존재하는 내부 공간에 대하여, 각 층의 이동 경로를 확실하게 구분하여 표시하고 있지 않기 때문에, 일예로 사용자가 해당 내부 공간 내에 특정 가게를 방문하고자 할 때 정확히 찾아가는 데에 어려움이 있다.In addition, referring to FIG. 3 , the conventional route guidance technology does not clearly distinguish and display the movement route of each floor with respect to the internal space in which a plurality of floors exist. When you want to visit the store, it is difficult to find it exactly.
도 4는 지하철 관련 정보를 제공하는 종래의 어플리케이션 화면의 예를 나타낸 도면이다.4 is a diagram illustrating an example of a conventional application screen that provides subway-related information.
도 4를 참조하면, 종래의 지하철 관련 정보를 제공하는 어플리케이션은 지하철의 빠른 환승 정보, 시설정보, 역 안내도 등에 관한 정보를 제공하는데, 이러한 정보를 단순히 텍스트 형태로 제공하거나 개략적으로만 제공하고 있다. 따라서, 사용자가 일예로 화장실을 이용하고자 하는 경우, 이러한 어플리케이션을 통해서는 화장실의 위치를 정확히 알 수 없어 이용하는 데에 어려움이 있을 수 있다.Referring to FIG. 4 , the conventional application providing subway-related information provides information on quick transfer information of the subway, facility information, station map, etc., and provides such information in text form or only schematically. . Therefore, when the user wants to use the toilet as an example, it may be difficult to use the toilet because the location of the toilet cannot be accurately known through such an application.
본원의 배경이 되는 기술은 한국등록특허공보 제10-0401640호에 개시되어 있다.The technology that is the background of the present application is disclosed in Korean Patent Publication No. 10-0401640.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 다소 큰 규모를 갖는 복잡하고 혼잡한 지하철 역사 내부나 대형 건물의 실내(내부) 등의 내부 공간에 대하여, 사용자가 해당 내부 공간을 거쳐 목적지까지로 이동할 때 헤매지 않고 보다 원활하고 정확히 이동할 수 있도록 지원할 수 있는 증강현실 기반 길 안내 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is intended to solve the problems of the prior art described above, and with respect to an internal space such as a complex and crowded subway station having a rather large scale or the interior (inside) of a large building, the user goes through the internal space to the destination An object of the present invention is to provide an augmented reality-based navigation device and method that can support smoother and more accurate movement without getting lost when moving.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems as described above, and other technical problems may exist.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 증강현실(Augmented Reality) 기반 길 안내 장치는, 사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성하는 제1 경로 생성부; 상기 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 상기 요청 신호에 응답하여 상기 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하는 제2 경로 생성부; 및 생성된 상기 내부 길 안내 경로를 기반으로, 상기 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자 단말로 제공하는 제어부를 포함하고, 상기 제어부는, 상기 내부 길 안내 정보를 상기 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공할 수 있다.As a technical means for achieving the above technical problem, the augmented reality (Augmented Reality) based road guidance device according to an embodiment of the present application is based on the information about the starting point and the destination input from the user, from the starting point to the destination a first path generator for generating a path; When a request signal for requesting an internal route guidance for an internal movement section included in the generated route is received, a second route generator for generating an internal route guidance route corresponding to the internal movement section in response to the request signal ; and a controller for generating and providing internal route guidance information for guiding a user's movement on the internal route guidance route to a user terminal based on the generated internal route guidance route, wherein the controller includes: Guidance information may be provided based on augmented reality for an internal road belonging to the internal movement section.
또한, 상기 내부 이동 구간은, 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간일 수 있다.In addition, the internal movement section may be a section corresponding to the internal space of a structure provided in the basement and/or the ground.
또한, 상기 제2 경로 생성부는, 상기 구조물의 층(floor)별 내부 공간의 구조 및 상기 구조물의 내부 공간에 존재하는 편의시설을 고려하여 상기 내부 길 안내 경로를 생성할 수 있다.In addition, the second path generation unit may generate the internal path guide path in consideration of the structure of the internal space for each floor of the structure and convenience facilities existing in the internal space of the structure.
또한, 상기 제2 경로 생성부는, 상기 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 상기 사용자 단말로부터 획득된 경우, 획득된 상기 내부 길 관련 이미지를 상기 요청 신호로서 인식할 수 있다.In addition, the second route generating unit may recognize the obtained internal road related image as the request signal when the internal road related image related to the internal road belonging to the internal movement section is obtained from the user terminal.
또한, 상기 제2 경로 생성부는, 상기 내부 길 관련 이미지가 획득된 경우, 상기 내부 길 관련 이미지에 대응하는 위치로부터 상기 내부 이동 구간에 속하는 출구들 중 상기 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로를 상기 내부 길 안내 경로로 생성할 수 있다.In addition, when the internal road-related image is obtained, the second route generating unit is configured to: a position of an exit that is closest to the location of the destination among exits belonging to the internal movement section from a position corresponding to the internal road-related image A route to . may be generated as the internal navigation route.
또한, 상기 제어부는, 상기 내부 길 안내 정보를 화면 표시 정보, 사운드 정보 및 진동 정보 중 적어도 하나의 정보 유형으로 생성하여 제공할 수 있다.Also, the controller may generate and provide the internal route guidance information as at least one information type of screen display information, sound information, and vibration information.
또한, 상기 제어부는, 획득된 상기 내부 길 관련 이미지 내에 복수 개의 방향 지시 정보가 포함되어 있는 경우, 상기 복수 개의 방향 지시 정보 중 상기 내부 길 안내 경로에 대응하는 대응 방향 지시 정보의 아이콘이 상기 내부 길 안내 경로에 대응하지 않는 미대응 방향 지시 정보의 아이콘 보다 인식 또는 식별이 용이한 형태로 표시되도록, 상기 화면 표시 정보를 제어할 수 있다.In addition, the control unit, when a plurality of direction indication information is included in the obtained internal road related image, an icon of corresponding direction indication information corresponding to the inner road guide path among the plurality of direction indication information is displayed on the inside road The screen display information may be controlled to be displayed in a form that is easier to recognize or identify than an icon of the non-responsive direction indication information that does not correspond to the guide route.
또한, 상기 제어부는, 상기 사용자 단말 내 위치 획득 센서로부터 획득되는 사용자 위치 정보를 고려하여, 사용자가 이동 방향을 바꾸어야 하는 방향 전환 지점까지의 잔여 거리에 대응하여 상기 화면 표시 정보의 내용, 상기 사운드 정보의 내용 및 상기 진동 정보의 진동 유형을 변경할 수 있다.In addition, the control unit, in consideration of the user location information obtained from the location acquisition sensor in the user terminal, the content of the screen display information, the sound information in response to the remaining distance to the direction change point to which the user needs to change the moving direction content and the vibration type of the vibration information can be changed.
한편, 본원의 일 실시예에 따른 증강현실(Augmented Reality) 기반 길 안내 방법은, (a) 제1 경로 생성부에서, 사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성하는 단계; (b) 제2 경로 생성부에서, 상기 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 상기 요청 신호에 응답하여 상기 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하는 단계; 및 (c) 제어부에서, 생성된 상기 내부 길 안내 경로를 기반으로, 상기 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자 단말로 제공하는 단계를 포함하고, 상기 (c) 단계에서 상기 제어부는, 상기 내부 길 안내 정보를 상기 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공할 수 있다.On the other hand, the augmented reality (Augmented Reality)-based road guidance method according to an embodiment of the present application, (a) based on the information about the origin and destination received from the user in the first route generator, from the origin to the destination creating a path; (b) when a request signal for requesting an inner route guidance for an inner movement section included in the generated route is received in the second route generator, an inner road corresponding to the inner movement section in response to the request signal generating a guide route; and (c) generating, in the control unit, internal navigation information for guiding a user's movement on the internal route guidance route based on the generated internal route guidance route and providing the generated internal route guidance information to the user terminal, In step (c), the control unit may provide the internal route guidance information based on augmented reality for the internal road belonging to the internal movement section.
또한, 상기 내부 이동 구간은, 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간일 수 있다.In addition, the internal movement section may be a section corresponding to the internal space of a structure provided in the basement and/or the ground.
또한, 상기 (b) 단계는, 상기 구조물의 층(floor)별 내부 공간의 구조 및 상기 구조물의 내부 공간에 존재하는 편의시설을 고려하여 상기 내부 길 안내 경로를 생성할 수 있다.In addition, in step (b), the internal path guide path may be generated in consideration of the structure of the internal space for each floor of the structure and convenience facilities existing in the internal space of the structure.
또한, 상기 (b) 단계는, 상기 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 상기 사용자 단말로부터 획득된 경우, 획득된 상기 내부 길 관련 이미지를 상기 요청 신호로서 인식할 수 있다.Also, in the step (b), when the internal road-related image related to the internal road belonging to the internal movement section is obtained from the user terminal, the acquired internal road-related image may be recognized as the request signal.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.
전술한 본원의 과제 해결 수단에 의하면, 증강현실 기반 길 안내 장치의 제공을 통해, 사용자가 목적지까지 이동함에 있어서 다소 큰 규모로 복잡하고 혼잡한 지하철 역사 내부나 대형 건물의 실내(내부)를 경유하여 지나가게 되는 경우에도, 이러한 내부 공간에서 길을 헤매지 않고 목적지까지(혹은 목적지를 향한 출구까지) 정확하게 이동할 수 있도록 사용자의 이동을 지원(안내, 가이드, 인도)할 수 있다.According to the above-described problem solving means of the present application, through the provision of an augmented reality-based road guidance device, the user moves to the destination on a rather large scale, via the inside of a complex and crowded subway station or the interior (inside) of a large building. Even when passing, it is possible to support (guide, guide, guide) the user's movement so that he or she can accurately move to the destination (or to the exit toward the destination) without getting lost in the interior space.
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the above-described effects, and other effects may exist.
도 1은 지하철 역사 내 길 안내를 위한 표지판의 예를 나타낸 도면이다.
도 2 및 도 3은 종래에 자동차나 도보를 대상으로 한 경로 안내의 예를 나타낸 도면이다.
도 4는 지하철 관련 정보를 제공하는 종래의 어플리케이션 화면의 예를 나타낸 도면이다.
도 5은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치의 개략적인 구성을 나타낸 도면이다.
도 6은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치에서 사용자 단말로부터 획득되는 내부 길 관련 이미지의 예를 나타낸 도면이다.
도 7은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치에서 화면 표시 정보의 제어 예를 나타낸 도면이다.
도 8은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치에서 증강현실을 기반으로 내부 길 안내 정보를 화면 표시 정보의 형태로 제공하는 경우의 예를 나타낸 도면이다.
도 9는 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치의 기능을 설명하기 위한 도면이다.
도 10은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치에 의한 사용자 단말의 화면 표시의 예를 나타낸 도면이다.
도 11은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치를 통해 제공되는 일반 길찾기 기능의 화면 표시 예를 나타낸 도면이다.
도 12는 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치를 통해 제공되는 AR 기반 길찾기 기능의 화면 표시 예를 나타낸 도면이다.
도 13은 본원의 일 실시예에 따른 증강현실 기반 길 안내 방법에 대한 동작 흐름도이다.1 is a view showing an example of a sign for guiding a road in a subway station.
2 and 3 are diagrams showing an example of a route guidance for a vehicle or a foot in the prior art.
4 is a diagram illustrating an example of a conventional application screen that provides subway-related information.
5 is a view showing a schematic configuration of an augmented reality-based road guidance device according to an embodiment of the present application.
6 is a diagram illustrating an example of an internal road-related image obtained from a user terminal in the augmented reality-based road guidance device according to an embodiment of the present application.
7 is a diagram illustrating an example of controlling screen display information in the augmented reality-based road guidance device according to an embodiment of the present application.
8 is a diagram illustrating an example of providing internal route guidance information in the form of screen display information based on augmented reality in the augmented reality-based road guidance device according to an embodiment of the present application.
9 is a view for explaining the function of the augmented reality-based way guidance device according to an embodiment of the present application.
10 is a diagram illustrating an example of a screen display of a user terminal by an augmented reality-based road guidance device according to an embodiment of the present application.
11 is a diagram illustrating an example of a screen display of a general wayfinding function provided through an augmented reality-based wayfinding apparatus according to an embodiment of the present application.
12 is a diagram illustrating a screen display example of an AR-based wayfinding function provided through an augmented reality-based wayfinding device according to an embodiment of the present application.
13 is a flowchart illustrating an augmented reality-based way guidance method according to an embodiment of the present application.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present application pertains can easily implement them. However, the present application may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including cases where
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when it is said that a member is positioned "on", "on", "on", "under", "under", or "under" another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.
본원은 사용자가 목적지까지 이동함에 있어서 다소 큰 규모를 갖는 복잡하고 혼잡한 지하철 역사 내부나 대형 건물의 실내(내부) 등과 같은 내부 공간을 경유하여 지나가게 되는 경우에도, 이러한 내부 공간에서 길을 헤매지 않고 목적지까지(혹은 목적지를 향한 출구까지) 정확하게 이동할 수 있도록 사용자의 이동을 지원(안내, 가이드, 인도)하는 증강현실(Augmented Reality) 기반 길 안내 장치에 대하여 제안한다.In the present application, even when a user passes through an internal space such as a complex and crowded subway station with a rather large scale or the interior (inside) of a large building, the user does not get lost in such an internal space when moving to a destination. We propose an Augmented Reality-based road guide device that supports the user's movement (guide, guide, and guide) so that he or she can accurately move to a destination (or to an exit toward the destination).
도 5는 본원의 일 실시예에 따른 증강현실(Augmented Reality, AR) 기반 길 안내 장치(10)의 개략적인 구성을 나타낸 도면이다.5 is a diagram showing a schematic configuration of an augmented reality (AR)-based
이하에서는 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)를 설명의 편의상 본 장치(10)라 하기로 한다.Hereinafter, the augmented reality-based
도 5를 참조하면, 본 장치(10)는 일예로 사용자 단말(20)에 포함된 장치의 형태로 마련될 수 있다. 이러한 경우, 본 장치(10)는 사용자 단말(20)에 설치되는 프로그램 또는 애플리케이션의 형태로 구현 가능한 장치일 수 있다. 달리 말해, 본 장치(10)를 통해 제공되는 증강현실 기반 길 안내 방법은 일예로 프로그램 또는 애플리케이션의 형태로 구현되어 사용자 단말(20)을 통해 제공될 수 있다.Referring to FIG. 5 , the
다만, 이에 한정되는 것은 아니고, 다른 일예로 본 장치(10)는 사용자 단말(20)과 데이터 송수신이 가능한 서버의 형태로 마련될 수 있다. 이하에서는 일예로 본 장치(10)가 사용자 단말(20)에 포함된 장치인 것으로 예시하기로 한다.However, the present invention is not limited thereto, and as another example, the
본 장치(10)는 제1 경로 생성부(11), 제2 경로 생성부(12) 및 제어부(13)를 포함할 수 있다.The
제1 경로 생성부(11)는 사용자로부터 입력받은 출발지와 목적지에 관한 정보(즉, 출발지 정보와 목적지 정보)를 기반으로, 출발지로부터 목적지까지의 경로를 생성할 수 있다. 이때, 제1 경로 생성부(11)는 사용자가 소지한 사용자 단말(20)을 통하여 출발지와 목적지에 관한 정보를 사용자로부터 입력받을 수 있다.The
이하에서는 설명의 편의성, 제1 경로 생성부(11)에 의해 생성된 경로를 기준 경로라고 지칭하기로 한다.Hereinafter, for convenience of explanation, a path generated by the
여기서, 사용자 단말(20)은 본 장치(10)와 네트워크를 통해 정보 송수신이 가능한 단말로서, 일예로 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(WCode Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC, 노트북, 웨어러블 디바이스, 데스크탑 PC 등과 같은 모든 종류의 유무선 통신 장치를 포함할 수 있으며, 이에 한정되는 것은 아니다.Here, the
여기서, 웨어러블 디바이스는 사용자의 신체의 적어도 일부에 착용 가능한 디바이스로서, 예시적으로 HMD(Head mounted Display), 구글 글라스 등이 포함될 수 있으나, 이에 한정되는 것은 아니다. Here, the wearable device is a device that can be worn on at least a part of the user's body, and may include, for example, a head mounted display (HMD), Google Glass, and the like, but is not limited thereto.
또한, 본 장치(10)와 사용자 단말(20) 간에 연결 가능한 네트워크는, 일예로 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함될 수 있으며, 이에 한정된 것은 아니다.In addition, the network connectable between the
사용자는 일예로 출발지 정보와 목적지 정보를 사용자 단말(20)을 통해 키워드(단어) 형태로 입력하거나 주소 형태로 입력할 수 있다. 다른 일예로 사용자는 사용자 단말(20)의 화면 상에 제공되는 지도에서 특정 위치를 터치하거나 클릭할 수 있으며, 이러한 터치(클릭) 입력을 기반으로 사용자 단말(20)에 출발지 정보와 목적지 정보가 입력될 수 있다. The user may input, for example, departure point information and destination information in the form of keywords (words) or in the form of addresses through the
제1 경로 생성부(11)는 사용자 단말(20)을 통해 사용자로부터 출발지 정보와 목적지 정보를 입력받을 수 있으며, 이에 기초하여 출발지 정보에 대응하는 위치로부터 목적지 정보에 대응하는 위치까지의 경로를 생성할 수 있다.The
이때, 출발지 정보의 위치로부터 목적지 정보의 위치까지의 경로는 복수개가 존재할 수 있는데, 제1 경로 생성부(11)는 이러한 복수개의 경로 중 이동 시간(특히, 도보 이동 시간)이 최소가 되는 경로(즉, 최소 시간 경로, 최단 경로)를 생성할 수 있다. 일예로 제1 경로 생성부(11)는 출발지 정보의 위치로부터 목적지 정보의 위치까지의 경로로서, 도보 이동 시간이 최소가 되는 경로를 생성할 수 있다.In this case, there may be a plurality of routes from the location of the departure point information to the location of the destination information, and the first
제1 경로 생성부(11)에 의해 생성되는 경로는 예시적으로 도 2의 (b) 또는 도 3과 같은 형태로 사용자 단말(20)의 화면에 표시될 수 있으며, 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에 한정되는 것은 아니다.The path generated by the first
제2 경로 생성부(12)는, 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로)에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 요청 신호에 응답하여 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성할 수 있다.The
즉, 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로)에는 내부 이동 구간이 적어도 일부 포함되어 있을 수도 있고, 포함되어 있지 않을 수도 있다.That is, the path (reference path) generated by the
이때, 제2 경로 생성부(12)는 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로)에 내부 이동 구간이 포함되어 있되, 이러한 내부 이동 구간에 대하여 길 안내를 요청(즉, 내부 길 안내)를 요청하는 요청 신호가 사용자(혹은 사용자 단말)로부터 수신된 경우, 수신된 요청 신호에 응답하여 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성할 수 있다.At this time, the
여기서, 내부 이동 구간은 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간을 의미할 수 있다. 이때, 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간이라 함은, 지하철 역사(驛舍), 지하도, 지하상가, 건물 등에 해당하는 내부의 공간(내부 공간)을 의미할 수 있다. 또한, 건물은 일예로 백화점, 병원, 마트, 쇼핑몰, 버스터미널 등을 의미할 수 있으나, 이에만 한정되는 것은 아니다.Here, the internal movement section may mean a section corresponding to the internal space of a structure provided underground and/or on the ground. In this case, the internal space of a structure provided underground and/or above the ground may mean an internal space (internal space) corresponding to a subway station, an underpass, an underground shopping mall, a building, or the like. In addition, the building may mean, for example, a department store, a hospital, a mart, a shopping mall, a bus terminal, and the like, but is not limited thereto.
본원에서 고려되는 내부 이동 구간은 바람직하게 지하에 마련되는 구조물인 지하철 역사(지하철역)에 대응하는 구간을 의미할 수 있다.The internal movement section considered herein may mean a section corresponding to a subway station (subway station), which is a structure that is preferably provided underground.
제2 경로 생성부(12)는 지하 및/또는 지상에 마련되어 있는 구조물의 층(floor)별 내부 공간의 구조(내부 구조) 및 구조물의 내부 공간에 존재하는 편의시설을 고려하여 내부 길 안내 경로를 생성할 수 있다. 이에 따르면, 제2 경로 생성부(12)는, 내부 공간의 각 층별로 이동경로의 구분이 명확하게 구분되도록 하는 경로(내부 길 아낸 경로)를 생성할 수 있다. The second
여기서, 내부 공간에 존재하는 편의시설에는 예시적으로 지하철 역 내 화장실, 에스컬레이터, 엘리베이터(elevator, 승강기), 음료수 자판기, 편의점, 물품 보관함, 상황실, 교통카드 충전소, 상점(음식점, 옷가게 등) 등이 포함될 수 있으나, 이에 한정되는 것은 아니고, 지하철역 내 다양한 편의시설이 적용될 수 있다.Here, convenience facilities existing in the interior space include, for example, toilets, escalators, elevators, beverage vending machines, convenience stores, lockers, situation rooms, transportation card charging stations, shops (restaurants, clothing stores, etc.) in subway stations. It may be included, but is not limited thereto, and various convenience facilities in the subway station may be applied.
이처럼, 제2 경로 생성부(12)는 사용자가 내부 이동 구간 내에서 목적지까지 보다 용이하게 이동할 수 있도록, 내부 이동 구간 내 구조물의 층별 내부 구조나 편의시설의 위치 등을 고려하여, 목적지로의 이동 경로를 안내하기 위한 내부 길 안내 경로를 생성할 수 있다.As such, the
제2 경로 생성부(12)는 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신되었을 때, 수신한 요청 신호에 응답하여 내부 길 안내 경로를 생성할 수 있다. 이때, 제2 경로 생성부(12)는 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 사용자 단말(20)로부터 획득된 경우, 획득된 내부 길 관련 이미지를 요청 신호로서 인식하고, 인식된 요청 신호에 응답하여 내부 길 안내 경로를 생성할 수 있다.When a request signal for requesting internal navigation for an internal movement section is received, the
도 6은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)에서 사용자 단말(20)로부터 획득되는 내부 길 관련 이미지의 예를 나타낸 도면이다.6 is a diagram illustrating an example of an internal road-related image obtained from the
도 6을 참조하면, 사용자가 사용자 단말(20)을 통해 특정 지하철 역사 내에 존재하는 길 안내 표지판에 관한 이미지로서 일예로 도 6과 같은 이미지를 획득하였다고 하자.Referring to FIG. 6 , it is assumed that the user acquires the image shown in FIG. 6 as an image related to a road guide sign existing in a specific subway station through the
이때, 제2 경로 생성부(12)는 사용자 단말(20)을 통해 획득된 이미지가 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로) 내 내부 이동 구간에 대하여 촬영된 이미지인지 판단할 수 있다. 즉, 제2 경로 생성부(12)는 사용자 단말(20)을 통해 획득된 이미지가, 기준 경로 내 내부 이동 구간에 속해 있는 내부 길 중 어느 하나의 영역을 촬영함으로써 획득된 이미지(즉, 내부 이동 구간에 속한 내부 길을 촬영한 이미지)인지 판단할 수 있다.At this time, the second
판단 결과, 사용자 단말(20)을 통해 획득된 이미지가 내부 이동 구간에 속한 내부 길을 촬영함으로써 획득한 이미지인 경우, 제2 경로 생성부(12)는 이처럼 사용자 단말(20)로부터 획득된 이미지를 기준 경로 내 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지인 것으로 식별할 수 있다. As a result of the determination, when the image obtained through the
여기서, 제2 경로 생성부(12)에서 사용자 단말(20)로부터 획득된 이미지가 내부 길 관련 이미지인지 식별하기 위해, 일예로 본 장치(10)는 지하 및/또는 지상에 마련되어 있는 구조물(모든 구조물)의 내부 공간에 대한 복수의 이미지(즉, 해당 내부 공간에 속한 내부 길을 촬영한 이미지)를 기 저장해 두는 데이터베이스부(미도시)를 포함할 수 있다.Here, in order to identify whether the image acquired from the
데이터베이스부(미도시)에는 이러한 복수의 이미지들 각각이, 해당 이미지를 촬영할 때의 위치 정보(즉, 해당 이미지의 촬영시 사용자 단말의 위치 정보)와 해당 이미지를 촬영할 때의 방향 정보와 함께 연계하여 저장될 수 있다. 여기서, 방향 정보라 함은 방위각 정보를 의미할 수 있다. 또한, 위치 정보에는 GPS 정보, 고도 정보 등이 포함될 수 있다.In the database unit (not shown), each of these plurality of images is linked together with location information when the image is taken (that is, location information of the user terminal when the image is taken) and direction information when the image is taken. can be saved. Here, the direction information may mean azimuth information. In addition, the location information may include GPS information, altitude information, and the like.
제2 경로 생성부(12)는 사용자 단말(20)로부터 획득된 이미지와 데이터베이스부(미도시)에 기 저장된 복수의 이미지들 간의 비교(매칭)를 통해, 사용자 단말(20)로부터 획득된 이미지가 기준 경로 내 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지인지 식별할 수 있다.The second
이후, 사용자 단말(20)로부터 획득된 이미지가 내부 길 관련 이미지인 것으로 식별되면, 제2 경로 생성부(12)는 식별된 내부 길 관련 이미지를 요청 신호로 인식하여, 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성할 수 있다.Thereafter, when it is identified that the image obtained from the
예시적으로, 사용자가 출발지로부터 목적지까지의 경로를 안내받기 위해 출발지와 목적지에 관한 정보를 사용자 단말(20)을 통해 입력한 경우, 제1 경로 생성부(11)는 출발지로부터 목적지까지의 경로(기준 경로)를 생성할 수 있다. 이때, 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로)에 관한 정보는 일예로 사용자 단말(20)의 화면 상에 표시될 수 있다.Illustratively, when the user inputs information about a departure point and a destination through the
이후, 사용자는 제1 경로 생성부(11)를 통해 생성된 경로(기준 경로)를 기반으로(참고하여) 목적지로의 이동을 수행할 수 있다. 이때, 경로(기준 경로) 내에 내부 이동 구간으로서 일예로 다수의 출입구와 백화점, 버스 터미널 등이 연결되어 있고 여러층으로 이루어져 있는 다소 복잡하고 혼잡한 지하철 역사(이하 대상 지하철 역사라 함)가 포함되어 있다고 하자. 즉, 사용자가 목적지까지 이동을 수행함에 있어서 이러한 대상 지하철 역사를 경유하여 지나가야 한다고 하자.Thereafter, the user may move to a destination based on (with reference to) a route (reference route) generated through the
이때, 대상 지하철 역사에 해당하는 공간이 광범위하고, 앞서 말한 바와 같이 다수의 출입구와 백화점, 버스 터미널 등이 연결되고 여러 층으로 이루어져 있는 경우에는, 사용자가 일예로 도 6과 같은 길 안내 표지판만을 보고 목적지까지 이동함에 있어서 길을 잃거나 헤매는 경우가 발생할 수 있다.At this time, when the space corresponding to the target subway station is wide, and as mentioned above, a number of entrances, department stores, bus terminals, etc. are connected and consist of multiple floors, the user sees only the road guide sign as shown in FIG. 6 as an example You may get lost or get lost while traveling to your destination.
이러한 경우, 사용자는 제1 경로 생성부(11)를 통해 생성된 경로(기준 경로)를 기반으로(참고하여) 목적지로의 이동을 수행함에 있어서, 기준 경로 중 내부 이동 구간에 대한 내부 길 안내를 받고자 하는 경우, 일예로 내부 길 안내를 제공받고자 하는 해당 내부 이동 구간에 진입하거나 해당 내부 이동 구간에 위치해 있을 때, 해당 내부 이동 구간에 속해 있는 길 안내 표지판에 관한 이미지(예시적으로, 도 1이나 도 6에 도시된 것과 같은 이미지)를 사용자 단말(20)을 이용해 촬영할 수 있다.In this case, when the user moves to the destination based on (refer to) the route (reference route) generated through the
제2 경로 생성부(12)는 사용자 단말(20)을 통해 획득된 이미지와 데이터베이스부(미도시)에 기 저장된 이미지들 간의 비교(매칭)를 통해, 획득된 이미지가 해당 내부 이동 구간과 관련된 내부 길 관련 이미지인 것으로 식별된 경우, 이를 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호인 것으로 인식할 수 있다.The second
제2 경로 생성부(12)는 요청 신호가 수신된 경우(즉, 내부 길 관련 이미지가 사용자 단말로부터 획득된 경우), 요청 신호에 응답하여 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하고, 생성된 내부 길 안내 경로를 일예로 사용자 단말(20)의 화면에 표시되도록 제공할 수 있다.When the request signal is received (that is, when an image related to an internal road is obtained from the user terminal), the
제2 경로 생성부(12)는 내부 길 관련 이미지가 획득된 경우, 내부 길 관련 이미지에 대응하는 위치로부터 내부 이동 구간에 속하는 출구들 중 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있다.When the internal road-related image is obtained, the second
사용자로부터 입력받은 목적지의 위치가 지상에 존재하는 건물의 위치인 경우, 제2 경로 생성부(12)는 내부 이동 구간에 속하는 출구들(즉, 지하철 역 내 출구들) 중 목적지의 위치로부터 가장 가까이 위치해 있는 출구의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있는데, 이에만 한정되는 것은 아니다.When the location of the destination input from the user is the location of a building existing on the ground, the
다른 일예로, 사용자로부터 입력받은 목적지의 위치가 지상에 존재하는 건물의 위치인 경우, 제2 경로 생성부(12)는 내부 이동 구간(즉, 지하철 역 내 내부 공간)에 속한 복수의 개찰구 중 목적지의 위치로부터 가장 가까이 위치해 있는 개찰구의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있다.As another example, when the location of the destination input from the user is the location of a building on the ground, the second
예시적으로, 목적지의 위치가 지상에 존재하는 지상 건물에 해당하는 위치인 경우, 제2 경로 생성부(12)는 내부 길 관련 이미지에 대응하는 위치로부터 내부 이동 구간에 속하는 출구들 중 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있다. 여기서, 내부 길 관련 이미지에 대응하는 위치는, 내부 길 관련 이미지를 획득한 사용자 단말(20)의 위치로서, 이는 내부 길 관련 이미지를 촬영/획득한 사용자의 현 위치를 의미할 수 있다.Exemplarily, when the location of the destination is a location corresponding to a ground building existing on the ground, the second
한편, 목적지의 위치가 일예로 내부 이동 구간에 속해 있는 복수의 건물들 중 어느 하나인 지하 건물(달리 표현해, 내부 이동 구간인 지하상가에 속해 있는 복수의 상가들 중 어느 하나의 상가)에 해당하는 위치인 경우, 제2 경로 생성부(12)는 내부 길 관련 이미지에 대응하는 위치로부터 내부 이동 구간 내 목적지의 위치(즉, 내부 이동 구간 내 어느 하나의 지하 건물에 해당하는 위치)까지의 경로를 내부 길 안내 경로로 생성할 수 있다.On the other hand, the location of the destination corresponds to, for example, an underground building that is any one of a plurality of buildings belonging to the inner movement section (in other words, any one of a plurality of shopping malls belonging to the underground shopping mall belonging to the inner movement section) In the case of a location, the second
이때, 내부 길 관련 이미지에 대응하는 위치로부터 목적지 정보의 위치까지의 경로는 복수개가 존재할 수 있는데, 제2 경로 생성부(12)는 이러한 복수개의 경로 중 이동 시간(특히, 도보 이동 시간)이 최소가 되는 경로(즉, 최소 시간 경로, 최단 경로)를 내부 길 안내 경로로서 생성할 수 있다. 즉, 제2 경로 생성부(12)는 사용자 단말(20)로부터 획득한 내부 길 관련 이미지에 대응하는 위치로부터 목적지 정보의 위치까지의 경로로서, 도보 이동 시간이 최소가 되는 경로를 내부 길 안내 경로로서 생성할 수 있다.At this time, there may be a plurality of routes from the location corresponding to the internal road-related image to the location of the destination information. A path (ie, a minimum time path, a shortest path) may be generated as an internal navigation path. That is, the second
제어부(13)는 제2 경로 생성부(12)에서 생성된 내부 길 안내 경로를 기반으로, 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자가 소지한 사용자 단말(20)로 제공할 수 있다. 이때, 제어부(13)는 사용자의 위치 정보(사용자 위치 정보)를 고려하여 내부 길 안내 정보를 사용자 단말(20)로 제공할 수 있다. 또한, 내부 길 안내 정보는 제2 경로 생성부(12)에서 생성된 내부 길 안내 경로에 관한 정보 및 사용자의 이동에 따라 변화되는 사용자의 위치 정보를 고려한 이동 안내 정보를 포함할 수 있다.The
여기서, 사용자의 위치 정보는 사용자 단말(20)에 포함된 위치 획득 센서를 통해 획득되는 위치 정보로서, 예시적으로 GPS 정보 등일 수 있으나, 이에 한정되는 것은 아니다. 다른 일예로, 사용자의 위치 정보는 비주얼 로컬라이제이션 (Visual Localization) 기술을 이용함으로써, 일예로 GPS 가 통하지 않는 지하나 실내 등에서도 한 장의 이미지(사진)를 통해 사용자의 위치 정보를 획득할 수 있다.Here, the user's location information is location information acquired through a location acquisition sensor included in the
제어부(13)는 내부 길 안내 정보를 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공할 수 있다. 즉, 제어부(13)는 내부 길 안내 정보를 증강현실에 기반하여 제공할 수 있다.The
제어부(13)는 내부 이동 구간에 대한 내부 길 안내 정보를 화면 표시 정보(직진표시 화살표 표시, 유턴 표시, 잔여 거리 표시 등등, 표시 내용), 사운드 정보 및 진동 정보 중 적어도 하나의 정보 유형으로 생성하여 사용자 단말(20)로 제공할 수 있다.The
제어부(13)는 일예로, 사용자 단말(20)로부터 획득된 내부 길 관련 이미지 내에 복수 개의 방향 지시 정보가 포함되어 있는 경우, 복수 개의 방향 지시 정보 중 내부 길 안내 경로에 대응하는 대응 방향 지시 정보의 아이콘이 내부 길 안내 경로에 대응하지 않는 미대응 방향 지시 정보의 아이콘 보다 인식 또는 식별이 용이한 형태로 표시되도록, 사용자 단말(20)에 제공되는 화면 표시 정보를 제어할 수 있다.For example, when a plurality of direction indication information is included in the internal road-related image acquired from the
이때, 아이콘을 인식 또는 식별이 용이한 형태로 표시한다는 것은, 시각적으로 강조된 형태, 크기가 확장된 형태, 청각적인 효과를 수반하는 형태 및 동적인 애니메이션 형태 중 적어도 하나로 표시하는 것을 의미할 수 있다. 이는 도 7을 참조하여 보다 쉽게 이해될 수 있다.In this case, displaying the icon in a form that is easy to recognize or identify may mean displaying at least one of a visually emphasized form, an expanded form, a form accompanying an auditory effect, and a dynamic animation form. This can be more easily understood with reference to FIG. 7 .
도 7은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)에서 화면 표시 정보의 제어 예를 나타낸 도면이다.7 is a diagram illustrating an example of controlling screen display information in the augmented reality-based
도 7을 참조하면, 일예로 사용자가 '역삼역'에 해당하는 지하철 역사 내에 위치하고, 지하철을 이용해 '건대입구역'까지 이동한다고 하자. Referring to FIG. 7 , as an example, it is assumed that a user is located in a subway station corresponding to 'Yeoksam Station' and moves to 'Kon University Station' by using the subway.
예시적으로, 사용자는 '역삼역' 내에서 '건대입구역'까지의 내부 길 안내를 요청받기 위해, '역삼역' 내에서 사용자 단말(20)을 이용해 내부 길 관련 이미지로서 도 7의 (a)와 같은 이미지를 촬영할 수 있다. 이때, 제2 경로 생성부(12)는 사용자의 현 위치로부터 건대입구역까지의 길(경로)을 나타내는 내부 길 안내 경로를 생성할 수 있다. Illustratively, the user uses the
한편, 획득된 내부 길 관련 이미지 내에 복수 개의 방향 지시 정보로서 '교대/사당 방향'을 안내하는 제1 방향 지시 정보 및 '선릉/잠실 방향'을 안내하는 제2 방향 지시 정보가 포함되어 있다고 하자.On the other hand, it is assumed that the first direction indication information for guiding the 'Gyodae/Sadang direction' and the second direction indication information for guiding the 'Seolleung/Jamsil direction' are included as a plurality of direction indication information in the obtained interior road-related image.
이때, 사용자가 가고자 하는 목적지가 '건대입구역'이므로, 사용자는 획득된 내부 길 관련 이미지에 포함된 복수 개의 방향 지시 정보 중 제2 방향 지시 정보를 따라 '선릉/잠실 방향'으로 이동해야 할 필요가 있다.At this time, since the destination the user wants to go to is 'Konneung University Station', the user needs to move in the 'Seolleung/Jamsil direction' according to the second direction indication information among a plurality of direction indication information included in the acquired interior road related image. there is
제어부(13)는, 제2 경로 생성부(12)에 의해 생성된 내부 길 안내 경로에 기초하여, 내부 길 관련 이미지에 포함된 복수 개의 방향 지시 정보 중 제2 방향 지시 정보를 내부 길 안내 경로에 대응하는 대응 방향 지시 정보인 것으로 인식하는 한편, 복수 개의 방향 지시 정보 중 제1 방향 지시 정보를 내부 길 안내 경로에 대응하지 않는 미대응 방향 지시 정보인 것으로 인식할 수 있다.The
이에 따르면, 대응 방향 지시 정보라 함은 복수 개의 방향 지시 정보(복수 개의 방향을 가리키는 정보) 중 사용자가 가야하는 방향과 일치하는 방향을 가리키는 정보(방향 지시 정보)를 의미할 수 있다.Accordingly, the corresponding direction indication information may refer to information (direction indication information) indicating a direction coincident with the direction to which the user should go among a plurality of direction indication information (information indicating a plurality of directions).
이처럼, 복수 개의 방향 지시 정보 중 제2 방향 지시 정보를 대응 방향 지시 정보로 인식한 이후, 제어부(13)는 내부 길 안내 경로를 기반으로 생성된 내부 길 안내 정보를 화면 표시 정보로서 일예로 도 7의 (b)와 같이 사용자 단말(20)의 화면에 제공할 수 있다.In this way, after recognizing the second direction indication information among the plurality of direction indication information as the corresponding direction indication information, the
즉, 제어부(13)는 도 7의 (b)에서 A 부분에 도시된 바와 같이, 복수 개의 방향 지시 정보 중 대응 방향 지시 정보의 아이콘이 미대응 방향 지시 정보의 아이콘 보다 인식 또는 식별이 용이한 형태로 표시되도록 화면 표시 정보를 제공할 수 있다.That is, as shown in part A of FIG. 7B , the
이러한 대응 방향 지시 정보에 대한 화면 표시 정보의 제어와 더불어, 제어부(13)는 일예로 사용자 단말(20)의 화면에 표시되는 내부 길 안내 정보 중 이동 안내 정보(사용자의 이동에 따라 변화되는 사용자의 위치 정보를 고려한 이동 안내 정보)로서 도 7의 (b)에서 B부분에 도시된 바와 같이, ['건대입구역'으로 가시려면 100m 직진 후 우회전하여 '선릉/잠실 방향' 열차를 타주세요]와 같은 문구가 사용자 단말(20)의 화면에 표시되도록, 화면 표시 정보를 제어할 수 있다.In addition to the control of the screen display information for the corresponding direction indication information, the
이처럼, 본 장치(10)는 내부 이동 구간에 대한 내부 길 안내 정보를 증강현실 기반으로 제공함에 있어서, 길 안내 표지판에 포함된 복수 개의 방향 지시 정보 중 사용자가 가고자 하는 방향과 매칭되는 방향 지시 정보가 미대응 방향 지시 정보 대비 인식 또는 식별이 용이한 형태로 표시되도록 사용자 단말(20)의 화면을 제어할 수 있다. 이러한 본 장치(10)는 사용자가 화면에 표시된 정보를 토대로 본인이 가야할 방향을 보다 직관적으로 인지할 수 있도록 제공하며, 이를 통해 사용자가 목적지까지 이동하는 데에 있어서 길을 헤매지 않고 신속히 이동 가능하도록 길 이동을 안내(가이드, 제공)할 수 있다.In this way, when the
또한, 제어부(13)는 사용자 단말 내 위치 획득 센서(일예로, GPS 센서 등)로부터 획득되는 실시간 사용자 위치 정보를 고려하여, 사용자가 이동 방향을 바꾸어야 하는 방향 전환 지점까지의 잔여 거리에 대응하여 화면 표시 정보의 내용, 사운드 정보의 내용 및 진동 정보의 진동 유형을 변경할 수 있다.In addition, the
이때, 제어부(13)는 사운드 정보의 경우 사용자에게 착용된 웨어러블 사운드 입출력 유닛 또는 사용자 단말(20)의 스피커부를 통해 제공하고, 진동 정보의 경우 사용자에게 착용된 웨어러블 진동 출력 유닛 또는 사용자 단말(200을 통해 제공할 수 있다.At this time, the
일예로, 제어부(13)는 내부 길 안내 정보를 사용자가 소리로 인지할 수 있도록(내부 길 안내 정보가 사운드 출력으로 제공될 수 있도록) 사운드 정보로 생성하여 제공할 수 있다. 또한, 제어부(13)는 내부 길 안내 정보를 사용자가 진동으로 인지할 수 있도록(내부 길 안내 정보가 진동 출력으로 제공될 수 있도록) 진동 정보로 생성하여 제공할 수 있다.For example, the
이때, 제어부(13)에 의해 생성된 사운드 정보는 사용자에게 착용된 웨어러블 사운드 입출력 유닛(미도시) 또는 사용자 단말(20)의 스피커부를 통해 제공될 수 있다. 또한 제어부(13)에 의해 생성된 진동 정보는 사용자에게 착용된 웨어러블 진동 출력 유닛(미도시) 또는 사용자 단말(20)에 구비된 진동 유닛을 통해 제공될 수 있다. 달리 표현하여, 제어부(13)는 생성된 사운드 정보가 사용자에게 제공될 수 있도록 웨어러블 사운드 입출력 유닛 또는 사용자 단말(20)의 스피커부를 제어할 수 있다. 또한, 제어부(13)는 생성된 진동 정보가 사용자에게 제공될 수 있도록 웨어러블 진동 출력 유닛 또는 사용자 단말(20)의 진동 유닛을 제어할 수 있다.In this case, the sound information generated by the
다만 이에만 한정되는 것은 아니고, 본 장치(10)에 자체적으로 사운드 입출력 유닛 및 진동 출력 유닛이 포함된 경우, 생성된 사운드 정보는 본 장치(10)의 자체 사운드 입출력 유닛을 통해 제공되고, 생성된 진동 정보는 본 장치(10)의 자체 진동 출력 유닛을 통해 제공될 수 있다.However, the present invention is not limited thereto, and when the
본 장치(10)는 사용자 단말뿐만 아니라 웨어러블 사운드 입출력 유닛 및 웨어러블 진동 출력 유닛과 네트워크를 통해 연결될 수 있다. 이때, 두 유닛(즉, 웨어러블 사운드 입출력 유닛과 웨어러블 진동 출력 유닛) 및 본 장치(10) 간에 연결되는 네트워크는 일예로 무선통신 네트워크일 수 있으나, 이에 한정되는 것은 아니다.The
웨어러블 사운드 입출력 유닛은 예시적으로 사용자의 머리, 목 등에 착용 가능하고, 음성 입/출력이 가능한 헤드셋, 이어폰 등일 수 있다. 일예로, 웨어러블 사운드 입출력 유닛은 목에 착용되는 경우 목걸이형 헤드셋으로 달리 표현될 수 있다. 일예로 웨어러블 사운드 입출력 유닛은 헤드폰 장치 등으로 달리 표현될 수 있다.The wearable sound input/output unit may be, for example, a headset, earphones, etc. that can be worn on the user's head and neck, and can input/output voice. For example, when the wearable sound input/output unit is worn on the neck, it may be expressed differently as a necklace-type headset. For example, the wearable sound input/output unit may be expressed differently as a headphone device or the like.
일예로, 사용자가 시각 정보가 차단된 시각장애인인 경우 귀를 통해 얻을 수 있는 소리 정보가 소정 이상 차단되지 않도록, 웨어러블 사운드 입출력 유닛은 사용자의 귀 주변에 착용되는 골전도 방식의 헤드셋 또는 이어폰임이 바람직할 수 있다.For example, if the user is blind with visual information blocked, the wearable sound input/output unit is preferably a bone conduction headset or earphone worn around the user's ear so that sound information obtainable through the ear is not blocked more than a predetermined amount can do.
웨어러블 사운드 입출력 유닛은 일예로 사용자가 말한 음성 정보(일예로, 출발지 정보 및 목적지 정보에 관한 발화 음성 정보)를 입력받을 수 있으며, 이를 본 장치(10)로 제공할 수 있다. 본 장치(10)의 제1 경로 생성부(11)는 웨어러블 사운드 입출력 유닛으로부터 제공받은 음성 정보의 음성 분석을 기초로, 출발지 정보와 목적지 정보를 인식하고, 인식된 정보에 기초하여 경로(기준 경로)를 생성할 수 있다. 또한, 웨어러블 사운드 입출력 유닛은 제어부(13)에 의해 생성된 사운드 정보를 출력(표출)할 수 있다.The wearable sound input/output unit may receive, for example, voice information spoken by the user (eg, utterance voice information related to source information and destination information), and may provide it to the
제어부(13)는, 사용자의 실시간 위치 정보 및 내부 길 안내 정보(특히, 내부 길 안내 경로)를 기초로, 사용자가 이동 방향을 바꾸어야 하는 방향 전환 지점까지의 잔여 거리에 대응하여 진동 정보의 진동 유형 또는 사운드 정보의 내용을 변경할 수 있다. 이때, 진동 유형은 진동 세기 및 진동 패턴 중 적어도 하나를 포함할 수 있다.The
제어부(13)는 전방 이동, 후방 이동, 좌측 이동, 우측 이동 등 이동 방향에 따라 진동 세기를 달리 하거나, 진동 패턴을 달리하여 진동 정보를 생성할 수 있다. 다른 예로, 제어부(13)는 1시 방향으로 이동, 2시 방향으로 이동, 3시 방향으로 이동 등 이동 방향에 따라 진동 세기가 달리 되거나 진동 패턴이 달리 되도록 진동 정보를 생성할 수 있다.The
예시적으로, 내부 길 안내 정보(특히, 내부 길 안내 경로)가 현재 사용자 위치 정보로부터 300m 직진한 이후 우회전 하는 경로를 따르는 경우, 제어부(13)는 '300m 직진해야 합니다'라는 사운드 정보를 웨어러블 사운드 입출력 유닛(또는 스피커부)으로 제공할 수 있으며, 이를 통해 웨어러블 사운드 입출력 유닛은 사운드 정보를 출력할 수 있다. 이때, 제어부(13)는 사용자가 이동을 바꾸어야 하는 방향 전환 지점(우회전 해야 하는 지점)까지의 잔여 거리에 대응하여 사운드 정보의 내용을 변경하고, 변경된 사운드 정보를 웨어러블 사운드 입출력 유닛으로 제공할 수 있다.For example, when the internal navigation information (particularly, the internal navigation route) follows a path turning right after going straight 300 m from the current user location information, the
즉, '300m 직진해야 합니다'라는 사운드 정보에 기초하여 사용자가 이동함에 따라 방향 전환 지점까지의 잔여 거리는 점차 줄어들 수 있다. 이때, 제어부(13)는 잔여 거리에 대응하여(잔여 거리를 고려하여) 미리 설정된 거리 마다 사운드 정보가 변경되도록 제어할 수 있다. 예를 들어, 제어부(13)는 잔여 거리가 100m 이하로 남은 시점부터 10m 간격 마다 사운드 정보가 변경되도록 사운드 정보를 생성하여 웨어러블 사운드 입출력 유닛으로 제공할 수 있다.That is, as the user moves based on the sound information 'You must go straight 300m', the remaining distance to the turning point may gradually decrease. In this case, the
구체적으로, 제어부(13)는 방향 전환 지점까지의 잔여 거리가 100m 이하로 남은 시점에서 '100m 직진 후 우회전해야 합니다'라는 사운드 정보가 웨어러블 사운드 입출력 유닛을 통해 사용자에게 제공될 수 있도록 사운드 정보를 변경할 수 있다. 마찬가지로, 제어부(13)는 90m 이하로 남은 시점에서는 '90m 직진 후 우회전해야 합니다'라는 사운드 정보가 제공되도록 사운드 정보를 변경하고, 80m 이하로 남은 시점에서는 '80m 직진 후 우회전해야 합니다'라는 사운드 정보가 제공되도록 사운드 정보를 변경할 수 있다. 일예로, 제어부(13)는 잔여 거리가 10m 이하로 남은 시점에서는 1m 거리 마다 사운드 정보가 변경되어 제공되도록 사운드 정보를 생성할 수 있다.Specifically, the
다른 예로, 내부 길 안내 정보(특히, 내부 길 안내 경로)가 현재 사용자 위치 정보로부터 300m 직진한 이후 우회전 하는 경로를 따르는 경우, 제어부(13)는 10 단계의 진동 세기 중 가장 약한 제1 진동 세기를 갖는 진동 정보를 생성하여 웨어러블 진동 출력 유닛으로 제공할 수 있다. 이를 통해, 웨어러블 진동 출력 유닛은 제어부(13)로부터 제공받은 진동 정보를 표출시켜 사용자에게 제공할 수 있다.As another example, when the internal guidance information (particularly, the internal guidance route) follows a path turning right after going straight 300 m from the current user location information, the
이때, 제어부(13)는 사용자가 이동을 바꾸어야 하는 방향 전환 지점(우회전 해야 하는 지점)까지의 잔여 거리에 대응하여 진동 정보의 진동 유형을 변경하고, 변경된 진동 정보를 웨어러블 진동 출력 유닛으로 제공할 수 있다. 즉, 제1 진동 세기의 진동 정보에 기초하여 사용자가 이동함에 따라 방향 전환 지점까지의 잔여 거리는 점차 줄어들 수 있다. 이때, 제어부(13)는 잔여 거리에 대응하여(잔여 거리를 고려하여) 미리 설정된 거리 마다 진동 정보의 진동 유형이 변경되도록 제어할 수 있다.At this time, the
예를 들어, 제어부(13)는 잔여 거리가 100m 이하로 남은 시점부터 10m 간격 마다 진동 세기가 점차 강해지는 방향으로 진동 정보를 변경시키고, 변경된 진동 정보를 웨어러블 진동 출력 유닛으로 제공할 수 있다.For example, the
즉, 제어부(13)는 방향 전환 지점까지의 잔여 거리가 100m 이하로 남은 시점에서는 제1 진동 세기의 진동 정보를 생성하여 웨어러블 진동 출력 유닛으로 제공하고, 90m 이하로 남은 시점에서는 제1 진동 세기에서 제2 진동 세기로 변경시켜, 제2 진동 세기를 갖는 진동 정보를 웨어러블 진동 출력 유닛으로 제공할 수 있다. 또한, 제어부(13)는 80m 이하로 남은 시점에서는 제2 진동 세기에서 제3 진동 세기로 진동 세기를 변경시키고, 변경된 제3 진동 세기를 갖는 진동 정보를 생성하여 웨어러블 진동 출력 유닛을 통해 사용자에게 제공할 수 있다.That is, the
또한, 제어부(13)는 방향 전환 지점까지의 잔여 거리에 대응하여(잔여 거리를 고려하여) 진동 정보의 진동 유형으로서 진동 패턴을 변경할 수 있다. 예를 들어, 제어부(13)는 잔여 거리가 10m 이하로 남은 시점부터 1m 거리 마다 진동 패턴을 변경시킬 수 있다. Also, the
구체적으로, 잔여 거리가 10m 이하로 남은 시점에서 제어부(13)는 제1 진동 세기의 진동이 2초에 1회 진동하는 패턴(진동 패턴)으로 진동 정보를 생성하여 웨어러블 진동 출력 유닛으로 제공할 수 있다. 또한, 잔여 거리가 9m 이하로 남은 시점에서 제어부(13)는 제2 진동 세기의 진동이 1초에 1회 진동하는 패턴(진동 패턴)으로 진동 정보를 생성하여 웨어러블 진동 출력 유닛으로 제공할 수 있다. 또한, 잔여 거리가 1m 이하로 남은 시점에서 제어부(13)는 제10 진동 세기를 갖는 진동이 1초에 5회 진동하는 패턴으로 진동 정보를 생성하여 웨어러블 진동 출력 유닛을 제어할 수 있다.Specifically, when the remaining distance remains 10 m or less, the
이처럼, 제어부(13)는 방향 전환 지점까지의 잔여 거리에 대응하여(잔여 거리를 고려하여) 진동 정보의 진동 유형 또는 사운드 정보의 내용을 변경시킬 수 있으며, 이를 통해 변경된 정보(즉, 진동 유형이 변경된 진동 정보와 사운드 내용이 변경된 사운드 정보)를 제공할 수 있다.As such, the
또한, 제어부(13)는 내부 길 안내 정보(특히, 내부 길 안내 경로)를 기초로, 사용자가 내부 길 안내 정보에 대응하는 경로(즉, 내부 길 안내 경로)를 이탈한 것으로 판단되면 이에 대응하여 진동 정보의 진동 유형 또는 사운드 정보의 내용을 변경할 수 있다.In addition, when it is determined that the user deviated from the route corresponding to the internal route guidance information (that is, the internal route guidance route) based on the internal route guidance information (particularly, the internal route guidance route), the
예를 들어, 제어부(13)는 내부 길 안내 경로를 기초로 하여 '100m 직진 후 우회전해야 합니다'라는 사운드 정보를 생성하여 웨어러블 사운드 입출력 유닛으로 제공할 수 있다. 이때, 사용자가 표시 경로를 이탈한 것으로 판단되는 경우, 제어부(13)는 '경로를 이탈했습니다' 또는 '경로를 이탈했습니다. 유턴하여 되돌아 가십시오'라는 사운드 정보의 내용으로 변경하고, 변경된 내용의 사운드 정보를 제공할 수 있다.For example, the
다른 예로, 사용자가 내부 길 안내 경로를 이탈한 것으로 판단되는 경우, 제어부(13)는 현재의 진동 정보(예를 들어, 제1 진동 세기를 갖는 진동 정보)를 제10 진동 세기를 갖는 진동 정보로 변경하고, 변경된 진동 정보를 웨어러블 진동 출력 유닛으로 제공할 수 있다. 또는 사용자가 내부 길 안내 경로를 이탈한 것으로 판단되는 경우, 제어부(13)는 1초에 제1 진동 세기로 1회 진동하는 진동 패턴을 갖는 진동 정보를 1초에 제10 진동 세기로 5회 진동하는 진동 패턴을 갖는 진동 정보로 변경하고, 변경된 진동 정보를 제공할 수 있다.As another example, when it is determined that the user deviated from the internal navigation path, the
웨어러블 진동 출력 유닛은 사용자의 신체 일부에 착용 가능한 형태로 배치(구비)될 수 있다. 일예로 웨어러블 진동 출력 유닛은 사용자의 손목에 착용 가능한 형태(일예로, 팔찌 등)로 배치(구비)될 수 있다. 사용자의 신체 일부에는 웨어러블 진동 출력 유닛이 한 개 또는 복수개 배치될 수 있다.The wearable vibration output unit may be disposed (provided) in a wearable form on a part of the user's body. For example, the wearable vibration output unit may be disposed (provided) in a wearable form (eg, a bracelet, etc.) on a user's wrist. One or a plurality of wearable vibration output units may be disposed on a part of the user's body.
웨어러블 진동 출력 유닛은 사용자에 대하여 서로 다른 위치에 복수개 배치될 수 있다. 일예로, 웨어러블 진동 출력 유닛은 사용자의 양 손목 각각에 배치될 수 있다. 즉, 웨어러블 진동 출력 유닛은 서로 다른 위치로서 사용자의 양 손목 각각에 배치될 수 있으며, 이러한 경우 웨어러블 진동 출력 유닛은 복수개로서 2개 배치될 수 있다. A plurality of wearable vibration output units may be disposed at different positions with respect to the user. For example, the wearable vibration output unit may be disposed on each of the user's wrists. That is, the wearable vibration output unit may be disposed at different positions on each of the user's wrists, and in this case, two wearable vibration output units may be disposed as a plurality.
또한, 웨어러블 진동 출력 유닛은 진동을 발생시키는 진동 발생 유닛을 포함할 수 있으며, 진동 발생 유닛은 적어도 하나 이상 배치(구비)될 수 있다. In addition, the wearable vibration output unit may include a vibration generating unit that generates vibration, and at least one vibration generating unit may be disposed (provided).
또한, 웨어러블 진동 출력 유닛은 다른 일예로 사용자의 머리에 착용 가능한 머리밴드 형태로 배치(구비)될 수 있다. 이때, 머리밴드 형태의 웨어러블 진동 출력 유닛에는 복수 개의 진동 발생 유닛이 머리밴드의 내측에 둘레를 따라 서로 다른 위치에 배치될 수 있다.Also, as another example, the wearable vibration output unit may be disposed (provided) in the form of a headband that can be worn on the user's head. In this case, in the wearable vibration output unit in the form of a headband, a plurality of vibration generating units may be disposed at different positions along the circumference inside the headband.
또한, 웨어러블 진동 출력 유닛은 사용자의 허리에 착용 가능한 벨트 형태로 배치(구비)될 수 있다. 이때, 벨트 형태의 웨어러블 진동 출력 유닛에는 복수 개의 진동 발생 유닛이 벨트의 내측에 둘레를 따라 서로 다른 위치에 배치될 수 있다.In addition, the wearable vibration output unit may be disposed (provided) in the form of a belt that can be worn on the user's waist. In this case, in the wearable vibration output unit in the form of a belt, a plurality of vibration generating units may be arranged at different positions along the circumference of the belt.
제어부(13)는 내부 길 안내 정보(특히, 내부 길 안내 경로)를 기초로, 사용자에 대해 서로 다른 위치에 배치된 복수개의 웨어러블 진동 출력 유닛 각각의 위치(배치 위치)와 사용자의 이동 방향과의 관계를 고려하여 복수개의 웨어러블 진동 출력 유닛의 진동 유형을 제어(개별적으로 제어, 개별적으로 달리 제어)할 수 있다.The
일예로, 사용자의 양 손목에 배치된 복수개의 웨어러블 진동 출력 유닛에 대하여, 왼쪽 손목에 배치된 웨어러블 진동 출력 유닛은 제1 웨어러블 진동 출력 유닛이고, 오른쪽 손목에 배치된 웨어러블 진동 출력 유닛은 제2 웨어러블 진동 출력 유닛이라고 하자. 이때, 제어부(13)는 복수개의 웨어러블 진동 출력 유닛 각각의 위치(즉, 제1 웨어러블 진동 출력 유닛이 왼쪽 손목에 위치해 있고 제2 웨어러블 진동 출력 유닛이 오른쪽 손목에 위치해 있음을 고려)와 사용자의 이동 방향과의 관계를 고려하여, 내부 길 안내 경로를 기초로 한 복수개의 웨어러블 진동 출력 유닛의 진동 유형을 제어할 수 있다. For example, with respect to the plurality of wearable vibration output units disposed on both wrists of the user, the wearable vibration output unit disposed on the left wrist is a first wearable vibration output unit, and the wearable vibration output unit disposed on the right wrist is the second wearable Let's call it a vibration output unit. At this time, the
구체적으로, 사용자가 직진으로 이동하고 있는 상태에서 내부 길 안내 경로에 따라 사용자가 좌회전 해야 하는 경우, 제어부(13)는 사용자의 왼쪽(좌측) 손목에 배치된 제1 웨어러블 진동 출력 유닛을 통해 진동 정보가 표출되도록(달리 말해, 진동이 발생하도록) 제1 웨어러블 진동 출력 유닛으로 진동 정보를 제공할 수 있다. 이와 같이, 제어부(13)는 사용자의 이동 방향(좌회전)을 고려하여 제1 웨어러블 진동 출력 유닛의 제어를 수행할 수 있으며, 이를 통해 사용자에게 좌회전으로 이동해야 함을 진동으로 제공할 수 있다(알릴 수 있다).Specifically, when the user has to turn left according to the internal road guidance route in a state in which the user is moving straight, the
다른 예로, 사용자가 직진으로 이동하고 있는 상태에서 내부 길 안내 경로에 따라 사용자가 우회전 해야 하는 경우, 제어부(13)는 사용자의 오른쪽(우측) 손목에 배치된 제2 웨어러블 진동 출력 유닛을 통해 진동 정보가 표출되도록(달리 말해, 진동이 발생하도록) 제2 웨어러블 진동 출력 유닛으로 진동 정보를 제공할 수 있다. 이와 같이, 제어부(13)는 사용자의 이동 방향(우회전)을 고려하여 제2 웨어러블 진동 출력 유닛의 제어를 수행할 수 있으며, 이를 통해 사용자에게 우회전으로 이동해야 함을 진동으로 제공할 수 있다(알릴 수 있다).As another example, when the user has to turn right according to the internal navigation route while the user is moving straight, the
또한, 웨어러블 진동 출력 유닛이 머리밴드 형태의 웨어러블 진동 출력 유닛인 경우로 가정하여 설명하면 다음과 같다. In addition, the following description will be made on the assumption that the wearable vibration output unit is a wearable vibration output unit in the form of a headband.
머리밴드 형태의 웨어러블 진동 출력 유닛에는 복수 개의 진동 발생 유닛이 머리밴드의 내측에 둘레를 따라 배치될 수 있다. 일예로 복수 개의 진동 발생 유닛에는 4개의 진동 발생 유닛이 포함될 수 있다. 이때, 제1 진동 발생 유닛은 머리밴드의 내측 둘레 중 사용자의 이마 중심(앞쪽 머리)에 대응하는 위치에 배치되고, 제2 진동 발생 유닛은 사용자의 오른쪽 머리에 대응하는 위치에 배치되고, 제3 진동 발생 유닛은 사용자의 뒤통수(뒤쪽 머리)에 대응하는 위치에 배치되고, 제4 진동 발생 유닛은 사용자의 왼쪽 머리에 대응하는 위치에 배치될 수 있다.In the wearable vibration output unit in the form of a headband, a plurality of vibration generating units may be disposed along the circumference inside the headband. For example, the plurality of vibration generating units may include four vibration generating units. In this case, the first vibration generating unit is disposed at a position corresponding to the center of the user's forehead (front head) among the inner circumferences of the headband, and the second vibration generating unit is disposed at a position corresponding to the user's right head, and the third The vibration generating unit may be disposed at a position corresponding to the back of the head (rear head) of the user, and the fourth vibration generating unit may be disposed at a position corresponding to the user's left head.
이때, 사용자가 직진으로 이동하고 있는 상태에서 이동 경로 정보에 따라 사용자가 우회전 해야 하는 경우, 제어부(13)는 사용자를 직진으로 이동 안내하는 동안 제1 진동 발생 유닛을 통해 진동 정보가 제공되도록 머리밴드 형태의 웨어러블 진동 출력 유닛을 제어할 수 있다. 제어부(13)는 사용자가 우회전 해야 하는 경우 제2 진동 발생 유닛을 통해 진동 정보가 제공되도록 머리밴드 형태의 웨어러블 진동 출력 유닛을 제어할 수 있다.At this time, when the user needs to turn right according to the movement path information while the user is moving straight, the
또한 사용자가 좌회전 해야 하는 경우 제어부(13)는 제4 진동 발생 유닛을 통해 진동 정보가 제공되도록 머리밴드 형태의 웨어러블 진동 출력 유닛을 제어할 수 있다. 또한, 사용자가 유턴해야 하는 경우 제어부(13)는 제3 진동 발생 유닛을 통해 진동 정보가 제공되도록 머리밴드 형태의 웨어러블 진동 출력 유닛을 제어할 수 있다.Also, when the user needs to turn left, the
이처럼, 제어부(13)는 복수개의 웨어러블 진동 출력 유닛 각각의 위치(사용자에 대한 배치 위치)(또는 웨어러블 진동 출력 유닛에 포함된 복수개의 진동 발생 유닛 각각의 위치)와 사용자의 이동 방향과의 관계를 고려하여, 웨어러블 진동 출력 유닛의 진동 유형을 제어할 수 있다.As such, the
제어부(13)는 경로 안내 정보(특히, 표시 경로)를 기초로 생성된 이동 가이드 정보를 일예로 사용자의 손목에 착용된 웨어러블 진동 출력 유닛을 통해 진동으로 제공(즉, 진동 세기나 진동 패턴을 달리하는 진동 정보로 제공)하거나, 일예로 사용자의 머리에 착용된 웨어러블 사운드 입출력 유닛을 통해 음성으로 제공(즉, 음성 안내로 제공)할 수 있다.The
이러한 본 장치(10)는 내부 길 안내 정보를 웨어러블 사운드 입출력 유닛을 통해 음성 정보로 제공할 뿐만 아니라, 웨어러블 진동 출력 유닛을 통해 진동 정보로 제공함으로써, 일반 사용자(보행자)뿐만 아니라 시각 장애 등을 가진 시각장애인에 대해서도 내부 길 안내 경로에 대한 보다 안전하고 정확한 이동 안내(가이드)가 이루어질 수 있도록 제공할 수 있으며, 사용자의 편의성 및 활동성을 극대화시킬 수 있다.This
뿐만 아니라, 본 장치(10)는 이동 가이드 정보를 음성 정보 및 진동 정보로 제공함으로써, 사용자가 내부 길 안내 정보가 표시되는 사용자 단말(20)의 화면을 도보 이동 중에 지속적으로 확인할 수 없는 경우(예를 들어, 시각 장애인이 도보 이동하는 경우라거나, 일반 사용자가 양손 가득히 짐을 가지고 도보 이동을 수행하는 경우 등)에 대해서도 보다 정확한 경로 안내 내지 이동 안내(가이드)가 이루어지도록 제공할 수 있다.In addition, the
도 8은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)에서 증강현실을 기반으로 내부 길 안내 정보를 화면 표시 정보의 형태로 제공하는 경우의 예를 나타낸 도면이다.FIG. 8 is a diagram illustrating an example in which the augmented reality-based
도 8을 참조하면, 제어부(13)는 내부 길 안내 정보를 화면 표시 정보로서 도 8에 도시된 바와 같이 사용자 단말(20)의 화면 상에 제공할 수 있다. 이때, 화면 표시 정보에는 일예로 직진, 우회전, 좌회전, 유턴 등과 관련된 화살표 표시, 잔여 거리와 관련된 잔여 거리 표시 등이 포함될 수 있으나, 이에 한정되는 것은 아니다.Referring to FIG. 8 , the
이러한 본 장치(10)는 증강현실(AR) 기반 길 안내 장치에 관한 것이다. 이러한 본 장치(10)는, AR 지하철 방향 알림이 서비스의 제공이 가능한 AR 기반 길 안내 장치, AR 내비게이션, AR 기반 경로 가이드 장치 등이라 달리 표현될 수 있다.This
본 장치(10)는 AR 기반 내부 길 안내 정보를 제공함으로써, 종래에 혼잡한 지하철, 불친절한 위치 설명 등의 이유로 지하철 속 미로와 같은 길을 찾기 힘들어 하는 사용자(예시적으로, 외국인, 관광객, 지하철 이용자 등)에게 있어서, 사용자가 내부 이동 구간을 보다 용이하게 이동할 수 있도록 제공(지원)할 수 있다.The
본 장치(10)는 예시적으로 관광이나 이동의 이유로 초행길의 지하철 등을 이용하는 사용자들, 불친절한 설명들(즉, 종래 지하철 역사 내 길 안내 표지판 등)로 인하여 지하철 이용에 불편을 겪는 사용자들에게 있어서, 초행길에 대해서도 길을 헤매는 것 없이 보다 신속하고 정확히 이동할 수 있도록 제공할 수 있다.The
이하에서는 본 장치(10)에 의하여 제공되는 기능 및 본 장치(10)에 의한 사용자 단말(20)의 화면 표시 예에 대하여 설명하기로 한다.Hereinafter, a function provided by the
도 9는 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)의 기능을 설명하기 위한 도면이다.9 is a view for explaining the function of the augmented reality-based
도 9를 참조하면, 본 장치(10)는 AR 길 안내 기능, 점포 안내 기능, 역내편의시설 안내 기능, 캐릭터 서비스 기능 및 안심 서비스 기능을 제공할 수 있다.Referring to FIG. 9 , the
AR 길 안내 기능에는 출입구 인식 기능, QR코드 스캔 기능, 방향안내 기능, 소요시간 안내 기능, 역 도착 알림 기능, 점포안내 기능, 및 지하철 노선도 안내 기능이 포함될 수 있다. 점포 안내 기능에는 상세 정보 기능, 찜 하기 기능, 및 후기 작성 기능이 포함될 수 잇다. 역내편의시설 안내 기능에는 편의시설 유무 안내 기능, 위치 안내 기능, 및 AR 길 찾기 기능이 포함될 수 있다.The AR navigation function may include an entrance recognition function, a QR code scanning function, a direction guidance function, a required time guidance function, a station arrival notification function, a store guidance function, and a subway route map guidance function. The store guide function may include a detailed information function, a wish list function, and a review writing function. The in-station convenience facility guidance function may include a convenience facility presence guidance function, a location guidance function, and an AR directions function.
캐릭터 서비스 기능에는 캐쉬 컬랙팅 기능, 미니게임 제공 기능, 제휴 서비스 안내 기능, 이벤트 안내 기능, 캐릭터 꾸미기 기능, 및 QR 코드 캐릭터 인증샷 기능이 포함될 수 있다. 안심 서비스 기능에는 지하철 에티켓 안내 기능, 위치 공유 서비스 기능, 분실물 찾기 기능 및 불편신고 기능이 포함될 수 있다.The character service function may include a cash collecting function, a mini-game provision function, an affiliate service guide function, an event guide function, a character decoration function, and a QR code character authentication shot function. The safety service function may include a subway etiquette guide function, a location sharing service function, a lost and found function, and a complaint report function.
본 장치(10)는 사용자 입력(일예로 터치 입력 등)에 기초하여, 상술한 다양한 기능들 중 사용자가 요청한 기능에 해당하는 기능을 제공할 수 있다.The
도 10은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)에 의한 사용자 단말(20)의 화면 표시의 예를 나타낸 도면이다.10 is a diagram illustrating an example of a screen display of the
도 10을 참조하면, 예시적으로 본 장치(10)의 제어부(13)는 사용자 단말(20)의 화면 상에 메인 화면으로서, 도 10의 (a)와 같은 화면을 표시할 수 있다.Referring to FIG. 10 , for example, the
제어부(13)는 일예로 사용자에 의하여 선택 가능한 복수의 탭 메뉴를 포함하는 메인 화면이 사용자 단말(20)에 표시되도록 제어할 수 있다. 여기서, 복수의 메뉴에는 일예로 AR 스캔 탭(1), 빠른 길 찾기 탭(2), 및 캐릭터 이벤트(제휴) 탭(3)이 포함될 수 있다.The
사용자 단말(20)의 화면에 표시된 복수의 메뉴 중 어느 하나의 메뉴를 선택하는 사용자 입력(일예로, 터치 입력 등)이 이루어진 경우, 본 장치(10)의 제어부(13)는 사용자 입력에 응답하여, 사용자 입력에 의해 선택된 탭(선택 탭)에 대응하는 화면이 확장되어 사용자 단말(20)의 화면에 표시되도록, 사용자 단말(20)의 화면을 제어할 수 있다.When a user input (for example, a touch input, etc.) for selecting any one of a plurality of menus displayed on the screen of the
일예로, 도 10의 (a)와 같은 화면에서, 사용자가 도 10의 (b)와 같이 빠른 길 찾기 탭(2)을 선택하는 사용자 입력을 수행하였다고 하자. 이러한 경우, 제어부(13)는 빠른 길 찾기 탭(2)에 대한 사용자 입력에 응답하여, 사용자 단말(20)의 화면에 도 10의 (c)와 같은 화면이 확장되어 표시되도록 사용자 단말(20)의 화면을 제어할 수 있다. 이때, 일예로 빠른 길 찾기 탭(2)에 대한 사용자 입력에 응답하여 확장된 화면은 빠른 길 찾기 탭(2)에 대한 확장 화면이라 달리 지칭될 수 있다.For example, it is assumed that, on the screen as shown in FIG. 10(a), the user performs a user input for selecting the
이러한 빠른 길 찾기 탭(2)에 대한 확장 화면에는 일예로 역검색 메뉴, 빠른검색 메뉴, 지하상가 검색 메뉴, 주변역 검색 메뉴 등 복수의 메뉴가 포함될 수 있으나, 이에 한정되는 것은 아니다.The expanded screen for the
메인 화면에 포함된 빠른 길 찾기 탭(2)은 출발지로부터 목적지까지의 경로를 검색하기 위한 탭(메뉴)을 의미할 수 있다. 특히나, 빠른 길 찾기 탭(2)은 예시적으로 지하철 노선도 상에서 출발지에 해당하는 출발지 역으로부터 목적지에 해당하는 목적지 역까지의 길(경로)을 찾기 위한 메뉴를 의미할 수 있다.The
메인 화면에 포함된 AR 스캔 탭(1)은 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로)에 포함된 내부 이동 구간에 대하여 길 안내를 요청(즉, 내부 길 안내)를 요청하는 요청 신호를 입력하기 위한 탭(메뉴)을 의미할 수 있다. 달리 표현하여, AR 스캔 탭(1)은 일예로 내부 길 관련 이미지를 촬영하기 위한 탭 메뉴를 의미할 수 있으나, 이에 한정되는 것은 아니다.The
메인 화면에 포함된 캐릭터 이벤트(제휴) 탭(3)은, 본 장치(10)를 사용하는 사용자의 참여도에 따라 사용자에게 보상을 제공하는 이벤트 관련 정보를 제공하는 탭을 의미할 수 있다. The character event (affiliation)
한편, 빠른 길 찾기 탭(2)은 복수 유형의 메뉴로서, 일예로 일반 길찾기 메뉴 및 AR 기반 길찾기 메뉴를 포함할 수 있다. 여기서, 일반 길찾기에 해당하는 화면은 일예로 도 11을 참조하여 보다 쉽게 이해될 수 있으며, AR 기반 길찾기에 해당하는 화면은 도 12를 참조하여 보다 쉽게 이해될 수 있다.Meanwhile, the
도 11은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)를 통해 제공되는 일반 길찾기 기능의 화면 표시 예를 나타낸 도면이다.11 is a view showing an example of a screen display of a general wayfinding function provided through the augmented reality-based
도 11을 참조하면, 일예로 사용자가 출발지 정보로서 '고속터미널역'을 입력하고, 목적지 정보로서 '건대입구역'을 입력한 경우, 본 장치(10)의 제어부(13)는 지하철 노선도 상에서 출발지 정보에 해당하는 역에서부터 목적지 정보에 해당하는 역까지의 경로를 생성하여 사용자 단말(20)의 화면에 표시할 수 있다.Referring to FIG. 11 , for example, when the user inputs 'Express Terminal Station' as departure information and 'Kon University Station' as destination information, the
도 12는 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)를 통해 제공되는 AR 기반 길찾기 기능의 화면 표시 예를 나타낸 도면이다.12 is a diagram illustrating an example of a screen display of an AR-based wayfinding function provided through the augmented reality-based
도 12를 참조하면, 일예로 사용자가 현재 특정 역사의 내부 공간 내에 위치하고, 사용자 자신이 위치한 내부 공간(즉, 내부 이동 구간에 해당하는 내부 공간) 내 위치로부터 목적지 위치까지의 경로(즉, 내부 길 안내 경로)를 제공받고자 한다고 하자.Referring to FIG. 12 , as an example, the user is currently located in the internal space of a specific station, and the user himself/herself is located in the internal space (ie, the internal space corresponding to the internal movement section) from the location to the destination location (ie, the internal road) Let's say you want to be provided with a guide route).
이러한 경우, 사용자는 도 10과 같은 메인 화면에서 AR 스캔 탭(1)을 선택할 수 있으며, AR 스캔 탭(1)에 대한 사용자 입력(선택)에 응답하여 제어부(13)는 사용자 단말(20)의 이미지 획득 센서(즉, 카메라)를 이미지 촬영/획득이 가능한 활성 ON 상태로 제어할 수 있다. 이때, 이미지 획득 센서가 활성 ON 상태로 제어된 상태에서의 사용자 단말(20)의 화면은 일예로 도 12의 (a) 화면과 같을 수 있다.In this case, the user may select the
이러한 상태에서, 사용자는 자신이 원하는 목적지 위치까지의 경로(내부 길 안내 경로)를 제공받기 위해, 사용자 단말(20)을 이용해 자신이 위치한 내부 공간에 구비된(존재하는) 길 안내 표지판을 촬영할 수 있다.In this state, the user can use the
일예로 사용자가 도 12의 (a)에 도시된 것과 같이 길 안내 표지판을 촬영한 경우, 제2 경로 생성부(12)는 사용자 단말(20)로부터 촬영하여 획득된 이미지와 데이터베이스부(미도시)에 기 저장된 복수의 이미지들 간의 비교(매칭)를 통해, 사용자 단말(20)로부터 획득된 이미지가 기준 경로 내 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지인지 식별할 수 있다.For example, when the user photographs a road guide sign as shown in (a) of FIG. 12 , the second
식별 결과, 사용자 단말(20)로부터 획득된 이미지가 내부 길 관련 이미지인 것으로 식별되면, 일예로 제어부(13)는 내부 길 관련 이미지를 획득한 사용자에게 일예로 도 12의 (b)에 도시된 바와 같이 보상을 제공할 수 있다.As a result of the identification, if it is identified that the image obtained from the
여기서, 보상(reward)은 정상적인 내부 길 관련 이미지가 획득했을 때 사용자에게 주어지는 리워드로서, 예시적으로 도 12의 (b)에 도시된 것과 같이 루비 형태, 혹은 코인, 포인트 등의 형태로 제공될 수 있다. 일예로, 제어부(13)는 정상적인 내부 길 관련 이미지가 1개 획득될 때마다 보상으로서 1개의 루비를 사용자에게 제공(지급)할 수 있다.Here, the reward is a reward given to the user when a normal internal road-related image is obtained, and may be provided in the form of rubies, coins, points, etc. have. For example, the
이러한 보상은 미리 설정된 조건을 충족할 정도로 획득되었을 때(일예로 50개의 루비가 획득되었을 때), 사용자가 본 장치(10)와 연계된(제휴된) 상점에서 현금처럼 사용 가능하도록 제공될 수 있다.When such a reward has been obtained enough to satisfy a preset condition (for example, when 50 rubies are obtained), the user may be provided to use it like cash at a store associated (affiliated) with the
이때, 보상이 이루어진 이미지는, 내부 이동 구간에 속하는 내부 길과 관련된 정상적인 내부 길 관련 이미지인 것으로 판단된 이미지로서, 이는 위치 정보와 방향 정보와 함께 연계하여 데이터베이스부(미도시)에 추가 저장될 수 있다. 이렇게, 데이터베이스부(미도시)에 추가로 저장된 이미지들은, 추후에 다른 사용자에 의하여 내부 길 관련 이미지가 획득되었을 때, 해당 내부 길 관련 이미지가 정상적인 이미지(정상적인 내부 길 관련 이미지)인지 판단하는데 기준이 되는 데이터(비교 데이터)로 활용될 수 있다.In this case, the compensated image is an image determined to be a normal internal road-related image related to an internal road belonging to an internal movement section, which may be additionally stored in a database unit (not shown) in connection with location information and direction information. have. In this way, when the images additionally stored in the database unit (not shown) are later acquired by another user, the reference is to determine whether the corresponding internal road-related image is a normal image (normal internal road-related image). data (comparative data).
또한, 상술한 설명에서는 정상적인 내부 길 관련 이미지가 획득되었는지에 따라 보상의 제공 여부가 결정되는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 일예로, 제어부(13)는 각각의 지하철 역사 내에 일 영역에 위치한 QR 코드를 사용자 단말(20)을 통해 인식한 경우, 인식된 QR 코드에 응답하여 보상(루비)을 제공할 수 있다.Also, in the above description, it has been exemplified that whether to provide a reward is determined depending on whether a normal internal road-related image is obtained, but the present invention is not limited thereto. For example, when a QR code located in an area within each subway station is recognized through the
또한, 도 12의 (a)에 도시된 것과 같은 길 안내 표지판을 포함하는 이미지가 획득된 경우, 제2 경로 생성부(12)는 획득된 이미지에 대한 분석을 통해, 획득된 이미지가 사용자가 위치한 내부 공간에 속한 내부 길과 관련된 이미지(즉, 내부 길 관련 이미지)인지 식별할 수 있다. 여기서, 이미지에 대한 분석시에는 종래에 공지되거나 향후 개발되는 다양한 이미지 인식 알고리즘 등이 적용될 수 있으나, 이에 한정되는 것은 아니다. 제2 경로 생성부(12)는 데이터베이스부(미도시)에 기 저장된 복수의 이미지들과의 비교(매칭)를 통해, 획득된 이미지가 내부 길 관련 이미지인지 식별할 수 있다.In addition, when an image including a road guide sign as shown in (a) of FIG. 12 is acquired, the
뿐만 아니라, 제2 경로 생성부(12)는 식별된 내부 길 관련 이미지를 기초로, 사용자의 현재 위치를 파악할 수 있다. 즉, 데이터베이스부(미도시)에 저장되는 복수의 이미지들은 앞서 말한 바와 해당 이미지를 촬영할 때의 위치 정보와 방향 정보가 함께 연계되어 저장되어 있으므로, 이를 기초로 제2 경로 생성부(12)는 데이터베이스부(미도시)에 기 저장된 이미지들 중 획득된 이미지와 매칭되는 매칭 이미지를 식별하고, 식별된 매칭 이미지를 토대로 사용자의 현재 위치를 파악할 수 있다. 이때, 제2 경로 생성부(12)는 매칭 이미지와 연계되어 저장된 위치 정보를 사용자의 현재 위치인 것으로 파악할 수 있다.In addition, the
제2 경로 생성부(12)는 앞서 말한 바와 같이 일예로 사용자 단말(20)의 위치 획득 센서를 통해 사용자의 위치 정보(현재 위치 정보)를 파악할 수도 있으나, 다른 일예로 사용자 단말(20)을 통해 획득된 이미지와 데이터베이스부(미도시)에 기 저장된 이미지들 간의 매칭 결과를 기초로 사용자의 위치 정보(현재 위치 정보)를 파악할 수 있다.As described above, the
데이터베이스부(미도시)에 기 저장된 이미지들과의 매칭 결과, 일예로 제2 경로 생성부(12)가 도 12의 (c)에 도시된 것과 같이 '동인천 1호선 플랫폼'을 사용자의 현재 위치인 것으로 파악하였다고 하자. 이후, 제어부(13)는 사용자에게 목적지 정보를 입력받기 위한 목적지(혹은 도착지) 입력 메뉴를 사용자 단말(20)의 화면에 도 12의 (c)에 도시된 것과 같이 제공할 수 있다.As a result of matching with images pre-stored in the database unit (not shown), as an example, the
이때, 제어부(13)는 목적지 입력 메뉴를 일예로 제1 경로 생성부(11)에서 경로(기준 경로)가 생성되지 않은 경우에 제공할 수 있다. 다시 말해, 제어부(13)는 일예로, 제1 경로 생성부(11)에서 사용자로부터 출발지와 목적지에 관한 정보가 입력되지 않음에 따라 목적지까지의 경로(기준 경로)가 생성되지 않은 경우에, 목적지 입력 메뉴를 사용자 단말(20)의 화면에 제공할 수 있다.In this case, the
이처럼, 화면에 표시된 목적지 입력 메뉴에 응답하여, 사용자는 사용자 단말(20)을 통해 목적지 정보(도착지 정보)를 일예로 직접 타이핑함으로써 입력할 수 있다. 제2 경로 생성부(12)는 사용자 단말(20)로부터 획득된 내부 길 관련 이미지에 해당하는 위치(사용자의 현재 위치, 출발지의 위치)로부터 목적지 입력 메뉴에 응답하여 사용자로부터 입력받은 도착지 정보의 위치까지 경로를 내부 길 안내 경로로서 생성할 수 있다. 이에 따르면, 제1 경로 생성부(11)는 상술한 설명에서 본 장치(10)에 포함되는 것으로만 예시하였으나, 이에 한정되는 것은 아니고, 다른 예로 제1 경로 생성부(11)는 필요에 따라 생략될 수 있다.As such, in response to the destination input menu displayed on the screen, the user may input destination information (destination information) by directly typing, for example, through the
제어부(13)는 제2 경로 생성부(12)에서 생성된 내부 길 안내 경로를 기반으로, 해당 내부 길 안내 경로를 포함하는 내부 길 안내 정보를 생성할 수 있다. 제어부(13)는 생성된 내부 길 안내 정보를 일예로 도 12의 (d)에 도시된 것과 같이 증강현실을 기반으로 사용자 단말(20)의 화면에 표시되도록 제공(제어)할 수 있다.The
제어부(13)는 내부 길 안내 정보의 제공시 내부 길 안내 경로에 관한 정보 및 사용자의 이동에 따라 변화되는 사용자의 위치 정보를 고려한 이동 안내 정보를 제공할 수 있다.The
또한, 상술한 본원의 일예에서는, 도 12의 (c)와 같은 화면에서 목적지 정보(도착지 정보)를 사용자로부터 직접 타이핑하여 입력받는 것으로 예시하였으나, 이에 한정되는 것은 아니다. 다른 일예로, 목적지 정보(도착지 정보)는 사용자 단말(20)의 화면에 제공되는 복수의 선택 메뉴(일예로, 노선도 선택 메뉴, 지하상가 선택 메뉴, 편의시설 선택 메뉴) 중 어느 하나의 선택 메뉴를 선택한 이후, 선택된 해당 선택 메뉴에 포함된 세부 메뉴 중 어느 하나를 선택함으로써 입력될 수 있다.In addition, in the above-described example of the present application, destination information (destination information) is exemplified by directly typing and receiving input from the user on the screen as shown in FIG. 12(c), but the present invention is not limited thereto. As another example, destination information (destination information) selects any one of a plurality of selection menus (eg, route map selection menu, underground shopping center selection menu, convenience facility selection menu) provided on the screen of the
노선도 선택 메뉴에 대한 선택이 이루어진 경우, 제어부(13)는 그에 대한 세부 메뉴로서 지하철 노선도 상에 존재하는 전체 지하철 역에 대한 리스트 정보를 제공할 수 있다. 이러한 전체 지하철 역에 대한 리스트 정보 중 사용자가 어느 하나의 지하철 역을 선택함으로써, 선택된 지하철역이 목적지 정보로 입력될 수 있다.When the route map selection menu is selected, the
또한, 지하상가 선택 메뉴에 대한 선택이 이루어진 경우, 제어부(13)는 그에 대한 세부 메뉴로서 해당 내부 공간에 포함된 복수의 상가들에 대한 리스트 정보를 사용자 단말(20)의 화면에 제공할 수 있다. 이러한 복수의 상가들에 대한 리스트 정보 중 사용자가 어느 하나의 상가를 선택함으로써, 선택된 상가의 위치가 목적지 정보로 입력될 수 있다.In addition, when the selection of the underground shopping mall selection menu is made, the
마찬가지로, 편의시설 선택 메뉴에 대한 선택이 이루어진 경우, 제어부(13)는 그에 대한 세부 메뉴로서 해당 내부 공간(사용자가 현재 위치하고 있는 내부 공간)에 포함된 복수의 편의시설들(예를 들어, 지하철 역 내 화장실, 에스컬레이터, 엘리베이터, 편의점, 안내데스크, 교통카드 충전소, 물품 보관함 등)에 대한 리스트 정보를 사용자 단말(20)의 화면에 제공할 수 있다. 이러한 복수의 편의시설들에 대한 리스트 정보 중 사용자가 어느 하나의 상가를 선택함으로써, 선택된 편의시설의 위치가 목적지 정보로 입력될 수 있다.Similarly, when a selection for the convenience facility selection menu is made, the
예시적으로, 복수의 편의시설들에 대한 리스트 정보 중 일예로 지하철 역 내 화장실이 목적지 정보로 입력된 경우, 제2 경로 생성부(12)는 내부 길 관련 이미지에 대응하는 위치로부터 사용자가 선택한 목적지 정보인 지하철 역 내 화장실의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있다. 제어부(13)는 이러한 내부 길 안내 경로에 기초하여 생성된 내부 길 안내 정보를 사용자 단말(20)의 화면에 AR 기반으로 제공할 수 있다.Illustratively, when a toilet in a subway station is input as destination information among list information of a plurality of convenience facilities, the second
다른 예로, 사용자가 복수의 편의시설들에 대한 리스트 정보 중 교통카드 충전소(이는, 사용자가 위치한 내부 공간인 지하철 역사 내에 존재하는 교통카드 충전소를 의미함)를 선택함에 따라, 선택된 교통카드 충전소가 목적지 정보로 입력되었다고 하자. 이러한 경우, 제2 경로 생성부(12)는 내부 길 관련 이미지에 대응하는 위치(즉, 사용자의 현 위치)로부터 사용자가 선택한 목적지 정보인 지하철 역 내 교통카드 충전소의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있다. 제어부(13)는 이러한 내부 길 안내 경로에 기초하여 생성된 내부 길 안내 정보를 사용자 단말(20)의 화면에 AR 기반으로 제공할 수 있다.As another example, as the user selects a transportation card charging station (this means a transportation card charging station existing in a subway station that is an internal space where the user is located) among list information for a plurality of convenience facilities, the selected transportation card charging station is the destination Let's say the information is entered. In this case, the
이때, 제어부(13)는 목적지 정보로서 일예로 편의시설이 선택된 경우, 사용자 단말(20) 상에 선택된 편의시설에 대응하는 위치에 일예로 해당 편의시설에 해당하는 아이콘을 도 8에 도시된 것과 같이 표시할 수 있다. At this time, when a convenient facility is selected as the destination information, the
또한, 앞서 말한 바와 같이, 제2 경로 생성부(12)는 내부 길 관련 이미지에 대응하는 위치로부터 내부 이동 구간에 속하는 출구들 중 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로(최단 경로)를 내부 길 안내 경로로 생성하고, 생성된 내부 길 안내 경로를 기반으로 한 내부 길 안내 정보를 사용자 단말(20)로 제공할 수 있다.In addition, as described above, the second
이때, 내부 길 안내 정보는 예상 도보 이동 시간이 포함될 수 있다. 이때, 예상 도보 이동 시간은 본 장치(10)에 포함된 산출부(미도시), 도보 데이터 DB(미도시), 지형지물 DB(미도시) 및 분석부(미도시)에 의하여 산출될 수 있다.In this case, the internal route guidance information may include an estimated walking time. In this case, the estimated walking time may be calculated by a calculator (not shown), a walking data DB (not shown), a feature DB (not shown) and an analysis unit (not shown) included in the
즉, 도면에 도시하지는 않았으나, 본 장치(10)는 산출부(미도시), 도보 데이터 DB(미도시), 지형지물 DB(미도시) 및 분석부(미도시)를 포함할 수 있다.That is, although not shown in the drawings, the
산출부(미도시)는 제어부(13)에 의해 제공되는 내부 길 안내 정보에 대응하는 내부 길 안내 경로(즉, 제2 경로 생성부에 의해 생성되는 내부 길 안내 경로)에 대한 도보 이동 시간(예측 도보 이동 시간)을 산출할 수 있다. 이때, 산출부(미도시)는 도보 데이터 DB(미도시)에 기 저장된 사용자의 도보 센싱 데이터를 분석함으로써 획득된 사용자의 도보 특성 정보를 고려하여 도보 이동 시간을 산출할 수 있다.The calculator (not shown) calculates the walking travel time (prediction) for the internal guidance path (ie, the internal guidance path generated by the second path generator) corresponding to the internal guidance information provided by the
이를 위해, 분석부(미도시)는 도보 데이터 DB(미도시)에 저장된 도보 센싱 데이터를 이용해 사용자의 도보 특성 정보를 분석할 수 있다. To this end, the analysis unit (not shown) may analyze the user's walking characteristic information using the walking sensing data stored in the walking data DB (not shown).
여기서, 도보 센싱 데이터는, 사용자가 도보 이동을 수행함에 따라 사용자 단말(20)에 구비된 도보센서를 통해 센싱되는 데이터(센싱값, 측정값)를 의미할 수 있다. 도보센서는 사용자의 도보(걸음)와 관련된 데이터를 센싱(측정)할 수 있는 센서로서, 일예로 자이로 센서, 가속도 센서, GPS 센서 등을 포함할 수 있으며, 이에만 한정되는 것은 아니고, 만보기 등이 포함될 수 있다.Here, the walking sensing data may refer to data (sensing values, measured values) sensed through the walking sensor provided in the
또한, 본원의 일예에서는 도보 센싱 데이터가 사용자 단말(20)에 구비된 도보센서를 이용해 센싱(측정, 획득)되는 데이터인 것으로 예시하였으나, 이에만 한정되는 것은 아니고, 사용자의 도보(걸음) 수, 보폭, 도보 속도(걷는 속도, 보속), 도보 이동거리 등을 측정하거나 산출할 수 있는 다양한 도보 분석 기술들(즉, 종래에 기 알려져 있거나 향후 개발되는 다양한 도보 분석 기술들)이 적용될 수 있다.In addition, in an example of the present application, the walk sensing data is exemplified as data sensed (measured, acquired) using a walk sensor provided in the
또한, 도보 특성 정보는, 도보 데이터 DB(미도시)에 기 저장된 도보 센싱 데이터를 지형지물 DB(미도시)에 저장된 지형지물 정보와 연계하여 분석함으로써 획득되는 정보를 의미할 수 있다. 즉, 분석부(미도시)는 도보 데이터 DB(미도시)에 저장된 도보 센싱 데이터를 이용한 분석을 통해 도보 특성 정보를 획득할 수 있다. 특히, 분석부(미도시)는 도보 센싱 데이터와 지형지물 DB(미도시)에 저장된 지형지물 정보를 서로 연계하여 분석을 수행함으로써 사용자의 도보 특성 정보를 획득할 수 있다.In addition, the walking characteristic information may refer to information obtained by analyzing walking sensing data previously stored in the walking data DB (not shown) in association with the feature information stored in the feature DB (not shown). That is, the analysis unit (not shown) may acquire walking characteristic information through analysis using the walking sensing data stored in the walking data DB (not shown). In particular, the analysis unit (not shown) may acquire the walking characteristic information of the user by performing analysis by linking the walking sensing data and the feature information stored in the feature DB (not shown) with each other.
도보 특성 정보는 지형지물 정보가 고려된 사용자의 도보 특성에 관한 정보로서, 일예로 도보 속도(보속)를 의미할 수 있으며, 이에만 한정되는 것은 아니다. 도보 특성 정보는 단순히 거리에 따른 속도가 아닌, 지형지물 정보가 고려된 속도 정보를 의미할 수 있다.The walking characteristic information is information about the user's walking characteristics in consideration of the topographical information, and may mean, for example, walking speed (walking speed), but is not limited thereto. The walking characteristic information may refer to speed information in which topographic information is taken into consideration, not simply speed according to distance.
도보 데이터 DB(미도시)는 사용자가 도보 이동을 수행하는 경우에, 사용자가 소지한 사용자 단말(20)에 구비된 도보센서를 통해 센싱(측정)되는 도보 센싱 데이터를 도보센서로부터 획득하여 저장할 수 있다. 도보 데이터 DB(미도시)에는 도보 센싱 데이터가 누적하여 저장될 수 있다.The walking data DB (not shown) may obtain and store the walking sensing data sensed (measured) through the walk sensor provided in the
지형지물 DB(미도시)는 지형지물 정보를 저장할 수 있다. 지형지물은 땅의 생김새(모양)와 땅 위에 있는 모든 물체를 지칭할 수 있다.The feature DB (not shown) may store feature information. A landmark can refer to the appearance (shape) of the land and all objects on the ground.
지형지물 정보에는 특정 구간에 대한 지형의 경사 정보(경사도)가 포함될 수 있다. 경사 정보는 경사도가 0값을 갖는 평지인지, 경사도 양의 값(+x°)을 갖는 오르막 지형인지, 경사도가 마이너스 값(-x°)을 갖는 내리막 지형인지, 내부 길이 움푹 파여있는지 등의 정보가 포함될 수 있다. 또한, 지형지물 정보에는 특정 구간에 대한 지물의 정보로서, 해당 특정 구간이 에스컬레이터 구간인지, 엘리베이터 영역인지 등의 정보가 포함될 수 있다.The feature information may include slope information (slope) of the terrain for a specific section. The slope information includes information such as whether it is a flat land with a slope of 0, an uphill terrain with a positive slope value (+x°), a downhill terrain with a negative slope (-x°), and whether the interior length is recessed. may be included. In addition, the feature information may include information such as whether the specific section is an escalator section or an elevator area as feature information for a specific section.
이때, 지형지물 DB(미도시)에 저장되는 지형지물 정보는 종래에 기 알려져 있거나 향후 개발되는 다양한 지형지물 측량 기술을 이용해 획득된 정보일 수 있으며, 구체적인 설명은 생략하기로 한다.At this time, the feature information stored in the feature DB (not shown) may be information obtained using various feature surveying techniques that are known in the prior art or developed in the future, and a detailed description thereof will be omitted.
분석부(미도시)는 이러한 도보 데이터 DB(미도시)에 저장된 도보 센싱 데이터와 지형지물 DB(미도시)에 저장된 지형지물 정보를 서로 연계하여, 사용자의 도보 특성에 관한 정보(즉, 도보 특성 정보)를 분석할 수 있다. 즉, 분석부(미도시)는 도보 센싱 데이터와 지형지물 정보를 연계한 분석을 통해, 지형지물 정보가 고려된 사용자의 도보 특성 정보를 획득할 수 있다.The analysis unit (not shown) links the walking sensing data stored in the walking data DB (not shown) and the feature information stored in the feature DB (not shown) with each other, and information about the user's walking characteristics (that is, walking characteristics) information) can be analyzed. That is, the analysis unit (not shown) may acquire the walking characteristic information of the user in consideration of the geographical feature information through analysis by linking the walking sensing data and the feature information.
예시적으로, 지형지물 정보가 고려된 사용자의 도보 특성 정보에는, 분석부(미도시)에 의하여 분석된 정보로서, 경사도가 +60°인 100m의 구간을 사용자가 걸을 때의 보속은 1.66m/s, 경사도가 +20°인 100m의 구간을 사용자가 걸을 때의 보속은 1.79m/s, 경사도가 0°인 평지인 100m의 구간을 사용자가 걸을 때의 보속은 2.5m/s, 경사도가 60°로 형성된 100m 구간의 계단을 사용자가 걸을 때의 보속은 1.55m/s 등과 같은 분석 정보가 포함될 수 있다.Illustratively, in the walking characteristic information of the user in consideration of the topographical information, as information analyzed by the analysis unit (not shown), the walking speed when the user walks in a section of 100m with an inclination of +60° is 1.66m/ s, when the user walks a section of 100m with an inclination of +20°, the stride speed is 1.79m/s Analysis information such as 1.55m/s may be included in the stride rate when the user walks the stairs of 100m section formed in °.
분석부(미도시)는 일예로 도보 센싱 데이터와 지형지물 정보를 서로 연계하여 딥러닝 모델을 기반으로 분석을 수행(즉, 딥러닝 모델을 이용하여 학습)할 수 있으며, 이를 통해 시간이 지남에 따라 도보 센싱 데이터의 수가 증가할수록, 보다 정확한 지형지물 정보가 고려된 사용자의 도보 특성 정보를 획득(즉, 지형지물 정보의 각종 유형을 고려하여, 각 지형지물 유형에 최적화된 정확한 사용자의 도보 특성 정보를 획득)할 수 있다.The analysis unit (not shown) can perform analysis based on the deep learning model (ie, learning using the deep learning model) by linking the walking sensing data and the topographical information with each other, for example, and through this, Accordingly, as the number of walking sensing data increases, more accurate feature information is obtained, the user's walking characteristic information is acquired (that is, accurate user's walking characteristic information optimized for each feature type, taking into account various types of feature information) can be obtained).
딥러닝 모델은 일예로 인공지능(AI) 알고리즘 모델, 기계학습(머신러닝) 모델, 신경망 모델(인공 신경망 모델), 뉴로 퍼지 모델 등을 의미할 수 있다. 또한, 딥러닝 모델은 예시적으로 컨볼루션 신경망(Convolution Neural Network, CNN, 합성곱 신경망), 순환신경망(RNN, Recurrent Neural Network), 딥 신경망(Deep Neural Network) 등 종래에 이미 공지되었거나 향후 개발되는 다양한 신경망 모델이 적용될 수 있다.The deep learning model may refer to, for example, an artificial intelligence (AI) algorithm model, a machine learning (machine learning) model, a neural network model (an artificial neural network model), a neurofuzzy model, and the like. In addition, the deep learning model is exemplarily a convolutional neural network (CNN, convolutional neural network), a recurrent neural network (RNN), a deep neural network, etc. that have been previously known or developed in the future. Various neural network models can be applied.
산출부(미도시)는 분석부(미도시)에 의한 분석을 통해 획득된 사용자의 도보 특성 정보(즉, 지형지물 정보가 고려된 사용자의 도보 특성 정보)를 고려하여, 출발지 정보의 위치로부터 목적지 정보의 위치까지의 내부 길 안내 경로에 대한 도보 이동 시간을 산출할 수 있다. 산출부(미도시)에 의해 산출되는 도보 이동 시간은 예측 도보 이동 시간, 도보 소요 시간, 예상 도보 이동(소요) 시간 등으로 달리 표현될 수 있다.The calculation unit (not shown) considers the user's walking characteristic information obtained through analysis by the analysis unit (not shown) (that is, the user's walking characteristic information in which the topographical information is considered), from the location of the departure point information to the destination. It is possible to calculate the walking travel time for the internal navigation route to the location of the information. The walking time calculated by the calculator (not shown) may be expressed differently as a predicted walking time, a required walking time, an estimated walking (required) time, and the like.
제어부(13)에서 제공되는 내부 길 안내 정보에 대응하는 내부 길 안내 경로에 대한 도보 이동 시간(예측 도보 이동 시간)을 산출하기 위해, 산출부(미도시)는 지형지물 DB(미도시)로부터 내부 길 안내 경로에 대응하는 경로 상 지형지물 정보를 식별하고, 분석부(미도시)에 의하여 분석(획득)된 사용자의 도보 특성 정보와 식별된 경로 상 지형지물 정보를 고려하여 예측 도보 이동 시간을 산출할 수 있다.In order to calculate the walking travel time (predicted walking travel time) for the internal guidance path corresponding to the internal guidance information provided by the
여기서, 지형지물 DB(미도시)에 저장되는 지형지물 정보는, 사용자의 도보 이동시 보속에 영향을 미치는 제1 요소와 관련된 정보를 포함할 수 있다. 이때, 제1 요소와 관련된 정보는 지형의 경사도(평지, 오르막, 내리막), 계단, 에스컬레이터, 및 엘리베이터 중 적어도 하나와 관련된 정보일 수 있다.Here, the feature information stored in the feature DB (not shown) may include information related to the first factor affecting the gait speed when the user moves on foot. In this case, the information related to the first element may be information related to at least one of the slope of the terrain (flat, uphill, downhill), stairs, escalators, and elevators.
본원의 일예에서는 사용자의 보속에 영향을 미치는 제1 요소와 관련된 정보로서, 지형의 경사도, 계단, 엘리베이터 및 에스컬레이터 중 적어도 하나가 고려되는 것으로만 예시하였으나, 이에만 한정되는 것은 아니고, 사용자의 보속에 영향을 줄 수 있는 다양한 지형지물 관련 요소들이 고려될 수 있다.In one example of the present application, as information related to the first factor affecting the user's pace, at least one of the slope of the terrain, stairs, elevator, and escalator has been exemplified, but it is not limited thereto, and the user's pace is not limited thereto. Various terrain-related factors that can influence can be considered.
구체적으로, 사용자의 도보 이동시의 속도(즉, 보속)는 해당 사용자가 이동하는 지형이 평지인지, 오르막길인지, 내리막길인지, 혹은 계단인지, 에스컬레이터인지, 엘리베이터인지 등에 따라 차이가 있을 수 있으며, 이러한 보속 차이는 사용자마다 각기 다르게 나타날 수 있다. Specifically, the user's walking speed (i.e., walking speed) may differ depending on whether the user's moving terrain is flat, uphill, downhill, stairs, escalator, elevator, etc. The pacing rate may differ from user to user.
종래기술의 경우에는 특정 경로에 대한 도보 이동 시간을 제공함에 있어서, 개개인의 도보 특성을 고려하는 것 없이 단지 거리에 따라 정해지는 획일화된 도보 이동 시간을 제공하였다. 예시적으로, 종래기술의 경우에는 특정 경로에 대한 도보 이동 시간을 100m이면 1분, 200m이면 2분 등과 같이 거리와 비례하게 획일화된 도보 이동 시간을 제공하였다.In the case of the prior art, in providing the walking time for a specific route, a standardized walking time determined only according to the distance without considering individual walking characteristics was provided. Illustratively, in the case of the prior art, a uniform walking time for a specific route is provided in proportion to the distance, such as 1 minute for 100 m, 2 minutes for 200 m, and the like.
이에 반해, 산출부(미도시)는, 내부 길 안내 경로에 대응하는 경로 상 지형지물 정보에 대하여 분석부(미도시)에 의해 분석된 사용자(사용자 개인)의 도보 특성 정보를 적용시킴으로써, 산출되는 내부 길 안내 경로에 대한 도보 이동 시간으로서, 해당 내부 길 안내 경로의 지형지물의 특성을 반영하여 사용자의 도보 특성에 맞춤화된 사용자 개인 맞춤형 도보 이동 시간을 산출할 수 있다.On the other hand, the calculation unit (not shown) applies the walking characteristic information of the user (user individual) analyzed by the analysis unit (not shown) to the feature information on the path corresponding to the internal road guide path, which is calculated by As the walking travel time for the internal guidance path, the user's personalized walking time customized to the user's walking characteristics may be calculated by reflecting the characteristics of the features of the corresponding internal guidance path.
예를 들어, 산출부(미도시)에 의한 경로 상 지형지물 정보의 식별 결과, 식별된 경로 상 지형지물 정보에 대응하는 내부 길 안내 경로가, 경사도가 +20°인 200m에 해당하는 제1 구간, 내려가는 계단이 존재하는 100m에 해당하는 제2 구간, 및 평지인 100m에 해당하는 제3 구간으로 이루어져 있다고 하자.For example, as a result of identification of the feature information on the path by the calculator (not shown), the internal path guidance path corresponding to the identified feature information on the path is a first section corresponding to 200m with an inclination of +20° , a second section corresponding to 100 m in which there is a descending staircase, and a third section corresponding to 100 m, which is flat ground.
이러한 경우, 산출부(미도시)는 분석부(미도시)에 의하여 분석된 사용자의 도보 특성 정보를 고려하여, 해당 내부 길 안내 경로에 포함된 각 구간(제1 구간 내지 제3 구간 각각)에 대하여 사용자에게 맞춤화된 구간별 도보 이동 시간을 산출할 수 있으며, 산출된 구간별 도보 이동 시간을 합산함으로써 최종적으로 내부 길 안내 경로에 대한 도보 이동 시간(즉, 사용자의 도보 특성을 기반으로 한 예측 도보 소요 시간)을 산출할 수 있다.In this case, the calculation unit (not shown) considers the walking characteristic information of the user analyzed by the analysis unit (not shown), and applies the information to each section (each of the first section to the third section) included in the corresponding internal route guidance route. It is possible to calculate the walking time for each section customized to the user, and by summing the calculated walking time for each section, finally the walking time for the internal guidance route (that is, the estimated walking time based on the user’s walking characteristics) required time) can be calculated.
산출부(미도시)는 제1 요소와 관련된 정보를 고려하여 도보 이동 시간을 산출할 때, 경사도의 절대값이 큰 값을 가질수록(즉, 오르막 경사가 급할수록, 내리막 경사가 급할수록), 도보 이동 시간이 더 오래 걸리는 것으로 예측하여 도보 이동 시간을 보다 큰 값으로 산출할 수 있다. 달리 표현해, 산출부(미도시)에 의해 산출되는 도보 이동 시간은, 일예로 경로상 지형지물 정보에 포함된 제1 요소와 관련된 정보에 있어서 경사도의 절대값이 클수록 큰 값으로 산출될 수 있다.The calculator (not shown) calculates the walking travel time in consideration of the information related to the first factor, as the absolute value of the slope has a larger value (that is, the steeper the uphill slope, the steeper the downhill slope), By predicting that the walking travel time takes longer, the walking travel time can be calculated as a larger value. In other words, the walking travel time calculated by the calculator (not shown) may be calculated as, for example, a larger value as the absolute value of the inclination in the information related to the first element included in the feature information on the route increases.
또한, 산출부(미도시)는 사용자로부터 기 획득된 착용품 정보를 고려하여 내부 길 안내 경로에 대한 예측 도보 이동 시간을 산출할 수 있다.In addition, the calculator (not shown) may calculate the estimated walking time for the internal navigation route in consideration of the wearable information previously obtained from the user.
여기서, 착용품 정보는 사용자가 내부 길 안내 경로에 대한 도보 이동시 착용 예정이거나 소지 예정인 착용품에 관한 정보를 의미할 수 있다. 이러한 경우, 산출부(미도시)는 도보 특성 정보, 내부 길 안내 경로에 대한 경로 상 지형지물 정보 및 착용품 정보를 고려하여 예측 도보 이동 시간을 산출할 수 있다.Here, the wearable article information may mean information about a wearable article that the user is scheduled to wear or possess when the user walks along an internal navigation route. In this case, the calculator (not shown) may calculate the estimated walking travel time in consideration of walking characteristic information, information on features on a route for an internal route guidance route, and information on wearable items.
착용품 정보는 일예로 사용자가 사용자 단말(20)을 통해 직접 입력한 정보일 수 있다. 다만, 이에만 한정되는 것은 아니고, 착용품 정보는 사용자가 착용한 착용품에 대한 정보 제공이 가능한 착용품 정보 제공 유닛(주변 기기)과 본 장치(10)가 서로 간에 연동됨으로써, 착용품 정보 제공 유닛으로부터 획득된 정보일 수 있다. 여기서, 착용품 정보 제공 유닛은 일예로 사용자 단말(20)에 구비된 이미지 획득 센서(즉, 카메라)를 등일 수 있으나, 이에 한정되는 것은 아니다.The wearing article information may be, for example, information directly input by the user through the
예시적으로, 사용자는 사용자 단말(20)의 이미지 획득 센서를 통해 사용자 자신이 소지하거나 착용하고 있는 착용품(이는 소지품도 포함)을 촬영하여 착용품 관련 이미지를 획득할 수 있다. For example, the user may acquire a wearable article-related image by photographing a wearable item (including belongings) that the user owns or is wearing through an image acquisition sensor of the
산출부(미도시)는, 착용품 관련 이미지에 대하여 이미지 분석을 수행함으로써, 해당 이미지에 포함된 착용품을 식별할 수 있으며, 식별된 착용품에 대한 검색을 수행함으로써 식별된 착용품에 관한 정보(즉, 착용품 정보)를 획득할 수 있다. 이때, 착용품 정보는 제2 요소와 관련된 정보를 포함하는 정보를 의미할 수 있다.The calculator (not shown) may identify the wearable article included in the image by performing image analysis on the wearable article-related image, and information on the identified wearable article by performing a search for the identified wearable article (that is, information on wearing items) can be obtained. In this case, the wearable information may refer to information including information related to the second element.
여기서, 착용품 정보는, 사용자의 도보 이동시 보속에 영향을 미치는 제2 요소와 관련된 정보를 포함할 수 있다. 제2 요소와 관련된 정보는, 짐 소지 여부, 짐의 유형, 사용자가 착용한 신발의 유형, 및 사용자의 옷차림 유형 중 적어도 하나와 관련된 정보일 수 있다.Here, the wearable information may include information related to a second factor that affects the walking speed when the user walks. The information related to the second element may be information related to at least one of whether the user has luggage, the type of luggage, the type of shoes worn by the user, and the type of clothing worn by the user.
산출부(미도시)는 일예로 인터넷 등과의 연계를 통해 이미지 분석으로 식별된 착용품과 동일한 착용품을 인터넷에서 자동 검색할 수 있으며, 이를 기초로 사용자가 소지하거나 착용한 착용품에 관한 정보(즉, 착용품 정보)를 획득할 수 있다.The calculator (not shown) may automatically search the Internet for the same wearable article as the wearable article identified by image analysis through connection with the Internet, for example, and based on this, information on the wearable article possessed or worn by the user ( That is, information on wearing items) may be obtained.
일예로, 이미지 획득 센서로부터 촬영된 이미지 내에 사용자가 신은 신발로서 하이힐이 포함되어 있다고 하자. 산출부(미도시)는 획득된 착용품 관련 이미지에 대하여 이미지 분석을 수행함으로써, 이미지에 포함된 착용품으로서 하이힐을 식별할 수 있다. 이후, 산출부(미도시)는 식별된 이미지 내 하이힐과 매칭되는 하이힐(즉, 매칭되는 동일 착용품)을 인터넷을 이용해 검색할 수 있다. 이러한 인터넷 검색 결과를 기초로, 산출부(미도시)는 식별된 이미지 내 포함된 하이힐에 관한 정보(즉, 착용품 정보)를 획득할 수 있다. 이때, 하이힐에 관한 정보에는 일예로 하이힐의 굽 높이, 무게 등에 관한 정보가 포함될 수 있다.For example, it is assumed that high heels are included as shoes worn by the user in the image captured by the image acquisition sensor. The calculator (not shown) may identify the high heel as a wearable article included in the image by performing image analysis on the acquired wearable article-related image. Thereafter, the calculator (not shown) may search for high heels matching the high heels in the identified image (ie, the same wearing item that matches) using the Internet. Based on such an Internet search result, the calculator (not shown) may acquire information about high heels included in the identified image (ie, information on wearing items). In this case, the information about the high heel may include, for example, information about the heel height and weight of the high heel.
이때, 이미지 획득 센서로부터 획득된 이미지의 분석은, 종래에 기 존재하거나 향후 개발되는 다양한 이미지 분석 알고리즘(이미지 내 객체를 식별하는 다양한 이미지 분석 알고리즘)이 적용될 수 있다. In this case, various image analysis algorithms (various image analysis algorithms for identifying objects in an image) that are conventionally existing or developed in the future may be applied to the analysis of the image acquired from the image acquisition sensor.
산출부(미도시)는 착용품 정보가 획득되지 않은 경우, 도보 특성 정보와 경로 상 지형지물 정보를 고려하여 내부 길 안내 경로에 대한 도보 이동 시간을 산출할 수 있다. 한편, 산출부(미도시)는 착용품 정보가 획득된 경우, 도보 특성 정보와 경로 상 지형지물 정보뿐만 아니라 착용품 정보를 더 고려하여 내부 길 안내 경로에 대한 도보 이동 시간을 산출할 수 있다.When the wearable information is not obtained, the calculator (not shown) may calculate the walking travel time for the inner path guidance path in consideration of the walking characteristic information and the feature information on the path. On the other hand, when the wearable information is obtained, the calculator (not shown) may calculate the walking moving time for the internal route guidance route by further considering the wearing information as well as the walking characteristic information and the information on the features on the route.
본 장치(10)에서는 보다 사용자에게 맞춤화된 정확한 도보 이동 시간을 제공하기 위해, 도보 특성 정보와 경로 상 지형지물 정보뿐만 아니라 착용품 정보를 더 고려하여 도보 이동 시간을 산출하는 것이 바람직할 수 있다.In the
여기서, 착용품 정보는 사용자의 도보 이동시 보속에 영향을 미치는 제2 요소와 관련된 정보를 포함할 수 있다. 제2 요소와 관련된 정보는, 짐 소지 여부, 짐의 유형, 사용자가 착용한 신발의 유형, 및 사용자의 옷차림 유형 중 적어도 하나와 관련된 정보일 수 있다.Here, the wearable information may include information related to a second factor that affects the gait speed when the user walks. The information related to the second element may be information related to at least one of whether the user has luggage, the type of luggage, the type of shoes worn by the user, and the type of clothing worn by the user.
이때, 짐의 유형에는 짐의 무게, 짐의 크기 및 짐의 형태 등이 포함될 수 있다. 여기서, 짐의 형태라 함은 일예로 짐이 가방인 경우, 끄는 형태의 바퀴 달린 캐리어인지, 사용자가 등에 멜 수 있는 가방인지, 한쪽 어깨로 메는 가방인지, 단순히 손잡이만 있어 손으로 들어야 하는 가방인지 등을 의미할 수 있다. 또한, 짐의 형태에는 박스 상자인지 등이 포함될 수 있다.In this case, the type of the load may include the weight of the load, the size of the load, the shape of the load, and the like. Here, the shape of the luggage means, for example, if the luggage is a bag, whether it is a wheeled carrier of a towable type, a bag that the user can carry on his or her back, a bag to be carried over one shoulder, or a bag that has only a handle and must be carried by hand. can mean etc. In addition, the shape of the luggage may include whether it is a box box or the like.
사용자가 착용한 신발의 유형에는 신발의 종류, 신발의 굽 높이 등이 포함될 수 있다. 여기서, 신발의 종류로는 운동화인지, 하이힐인지 등이 포함될 수 있으나, 이에 한정되는 것은 아니다.The type of shoe worn by the user may include a type of shoe, a heel height of the shoe, and the like. Here, the type of shoe may include, but is not limited to, whether it is sneakers or high heels.
사용자의 옷차림 유형에는 치마인지, 바지인지, 셔츠인지, 맨투맨 티인지, 정장인지 등이 포함될 수 있으나, 이에 한정되는 것은 아니다.The user's attire type may include, but is not limited to, whether it is a skirt, pants, a shirt, a sweatshirt, or a suit.
본원의 일예에서는, 사용자의 보속에 영향을 미치는 제2 요소와 관련된 정보로서, 짐 소지 여부, 짐의 유형, 사용자가 착용한 신발의 유형, 및 사용자의 옷차림 유형 중 적어도 하나가 고려되는 것으로만 예시하였으나, 이에만 한정되는 것은 아니고, 사용자의 보속에 영향을 줄 수 있는 다양한 소지품 내지 착용품 등이 고려될 수 있다.In one example of the present application, as information related to the second factor affecting the user's walking speed, it is exemplified that at least one of whether the user has luggage, the type of luggage, the type of shoes worn by the user, and the type of clothing of the user is considered However, the present invention is not limited thereto, and various belongings or wearables that may affect the user's perseverance may be considered.
예시적으로, 사용자가 도보 이동의 수행시 상대적으로 무거운 짐을 가지고 이동하고자 하는 경우, 사용자의 보속은 짐을 가지고 있지 않을 때의 보속(기본 보속)과 대비하여 느려질 수 있다. 또한, 사용자가 도보 이동시, 7cm의 굽을 가지는 하이힐을 신는 경우에는 운동화를 신고 있는 경우와 대비하여 보속이 느려질 수 있다. 또한, 사용자가 도보 이동시, 7cm의 굽을 가지는 하이힐을 신는 경우에는 3cm의 굽을 가지는 하이힐을 신는 경우와 대비하여 보속이 느려질 수 있다.Illustratively, if the user intends to move with a relatively heavy load when performing walking, the user's stride rate may be slower than that of the user without the load (basic stride rate). In addition, when the user walks, when he wears high heels having a heel of 7 cm, the pace may be slower than when he wears sneakers. Also, when the user walks, when he wears high heels having a heel of 7 cm, the pace may be slower than when he wears high heels having a heel of 3 cm.
이처럼, 사용자의 도보 이동시의 속도(즉, 보속)는 해당 사용자가 소지하거나 착용하고 있는 착용품 정보의 유형에 따라(구체적으로, 제2 요소와 관련된 정보의 유형에 따라) 차이가 있을 수 있으며, 이러한 보속 차이는 사용자마다 각기 다르게 나타날 수 있다. 따라서, 산출부(미도시)는 이러한 소지품 정보의 유형을 고려하여 사용자에게 맞춤화된 예측 도보 이동 시간을 산출할 수 있다. As such, the user's walking speed (ie, pace) may vary depending on the type of wearable information that the user has or is wearing (specifically, according to the type of information related to the second element), This gait difference may appear differently for each user. Accordingly, the calculator (not shown) may calculate the predicted walking time customized to the user in consideration of the type of information about belongings.
본원에서 착용품 정보라 함은 사용자의 신체에 착용되는 모자, 의류, 바지, 신발, 액세서리 등과 같은 착용품뿐만 아니라 캐리어, 박스, 쇼핑백 등과 같은 소지품에 관한 정보를 모두 포함하는 개념으로 이해됨이 바람직하다.In the present application, the information on wearables is preferably understood as a concept that includes not only wearables such as hats, clothes, pants, shoes, and accessories worn on the user's body, but also information about belongings such as carriers, boxes, and shopping bags. do.
산출부(미도시)는 제2 요소와 관련된 정보를 고려하여 도보 이동 시간을 산출할 때, 짐의 무게 값 및 크기 값이 큰 값을 가질수록, 도보 이동 시간이 더 오래 걸리는 것으로 예측하여 도보 이동 시간을 보다 큰 값으로 산출할 수 있다. 달리 표현해, 산출부(미도시)에 의해 산출되는 도보 이동 시간은, 일예로 착용품 정보에 포함된 제2 요소와 관련된 정보에 있어서 짐의 무게 값 및 크기 값이 큰 값을 가질수록 큰 값으로 산출될 수 있다.When calculating the walking travel time in consideration of the information related to the second factor, the calculator (not shown) predicts that the walking time will take longer as the weight and size of the load are larger. Time can be calculated to a larger value. In other words, the walking travel time calculated by the calculator (not shown) is, for example, a larger value as the weight value and size value of the load in the information related to the second element included in the wearables information have larger values. can be calculated.
이처럼, 산출부(미도시)는 출발지로부터 목적지(목적지)까지의 특정 경로(내부 길 안내 경로)에 대한 도보 이동 시간을 제공함에 있어서, 일반적으로 획일화된 도보 이동 시간을 제공하는 종래의 기술들과는 달리, 사용자가 도보로 이동할 때 보속에 영향을 미칠 수 있는 다양한 요소들(즉, 지형지물 관련 제1 요소들, 착용품 관련 제2 요소들)과 사용자의 도보 특성 정보를 고려하여 사용자 개개인에 최적으로 맞춤화된 도보 이동 시간을 산출할 수 있다.In this way, the calculator (not shown) provides the walking travel time for a specific route (internal route guidance route) from the origin to the destination (destination), unlike conventional techniques that generally provide a standardized walking travel time. In contrast, when the user moves on foot, it is optimal for each user in consideration of various factors that may affect gait speed (that is, first factors related to a feature, second factors related to wearables) and information about the user's walking characteristics can calculate the customized walking travel time.
제어부(13)는 산출부(미도시)에서 산출된 예측 도보 이동 시간과 내부 길 안내 정보를 사용자 단말(20)의 화면에 표시할 수 있다. 달리 표현해, 제어부(13)는 예측 도보 이동 시간을 포함하는 내부 길 안내 정보를 사용자 단말(20)의 화면에 표시되도록 제어(제공)할 수 있다.The
즉, 화면에 표시되는 내부 길 안내 정보에는, 내부 길 안내 경로, 및 해당 내부 길 안내 경로를 사용자가 도보로 이동하는 경우에 소요되는 시간을 본 장치(10)가 예측한 예측 도보 이동 시간이 포함될 수 있다. 뿐만 아니라, 내부 길 안내 정보에는 내부 길 안내 경로에 대한 거리 정보가 포함될 수 있다.That is, the internal navigation information displayed on the screen includes an internal navigation route and a predicted walking time estimated by the
본 장치(10)는 내부 길 안내 경로에 대한 도보 소요 시간(예상 도보 이동 시간)을 개인화된 걸음 정보(즉, 도보 특성 정보)를 기반으로 산출할 수 있다. 이러한 본 장치(10)는 사용자에게 최적화된 도보의 소요시간(도보 이동 시간)을 제공할 수 있다.The
본 장치(10)는 사용자(보행자)의 걸음 데이터(도보 센싱 데이터)를 누적하여 도보 데이터 DB(미도시)에 저장할 수 있다. 도보 데이터 DB(미도시)에 저장된 도보 센싱 데이터를 이용하여 분석된 사용자의 도보 특성 정보를 고려하여, 본 장치(10)는 획일적인 소요 시간이 아닌 사용자 개인의 누적 걸음 데이터(누적 도보 센싱 데이터)에 기초한 정확한 사용자 개인별 예상 도보 이동 시간(예상 도보 소요 시간)을 산출하여 제공할 수 있다.The
또한, 본 장치(10)는 경로 상 지형지물 정보를 더 고려하여 도보 이동 시간을 산출할 수 있다. 즉, 본 장치(10)는 지형지물 DB(미도시)에 저장된 지형지물 정보를 이용해 생성된 내부 길 안내 경로 상의 지형지물을 파악하고, 파악된 지형지물을 고려해 도보 이동 시간을 산출할 수 있다.In addition, the
즉, 본 장치(10)는 지형지물 DB(미도시)에 저장된 지형지물 정보를 이용하여 내부 길 안내 경로 상에 존재하는 사용자의 보속에 영향을 미치는 요소들(제1 요소들)을 파악한 후, 파악된 요소들에 대하여 분석부(미도시)에 의해 기 분석된 사용자의 도보 특성 정보를 적용함으로써, 경로 상의 지형지물 정보에 의한 영향(즉, 제1 요소들에 의한 영향)이 고려된 사용자에게 맞춤화된 도보 이동 시간을 산출할 수 있다.That is, the
또한, 본 장치(10)는 사용자의 도보 특성 정보와 지형지물 정보뿐만 아니라 사용자가 소지하거나 착용한 착용품 정보를 더 고려하여 도보 이동 시간을 산출할 수 있다. 여기서, 착용품 정보에는 사용자가 착용하고 있거나 소지하고 있는 물품에 관한 것으로서, 짐, 물건, 옷차림, 착용하고 있는 신발 등에 관한 정보가 포함될 수 있다. 이러한 본 장치(10)는 사용자에게 맞춤화된 출발지로부터 도착지까지의 예상 도보 이동 시간을 제공할 수 있다. 즉, 본 장치(10)는 내부 길 안내 경로에 대한 도보 이동 시간으로서, 사용자 도보에 맞춤화된 예측 도보 실소요시간을 제공할 수 있다.In addition, the
본 장치(10)는 사용자 개인의 걸음 속도(도보 속도, 보속)를 고려하여 출발지로부터 목적지까지의 도보 이동 시간(도보 소요 시간)을 애플리케이션의 유저인터페이스(UI, User Interface) 형태로 제공할 수 있다.The
종래기술에서는 단순히 출발지와 목적지까지 획일화된 도보 이동 시간(도보 소요 시간)을 제공하였다. 반면, 본 장치(10)는 도보 이동 시간을 제공함에 있어서, 사용자의 걸음 데이터(도보 센싱 데이터)를 저장한 다음, 저장된 도보 센싱 데이터를 이용해 분석된 도보 특성 정보, 사용자가 요청한 경로(출발지로부터 도착지까지의 경로) 상에서 지형지물에 대한 환경, 및 주변기기와의 연동을 통해 획득 가능한 사용자의 착용품 정보(일예로, 짐, 물건, 옷차림, 신발 등)를 함께 종합적으로 고려(반영)하여 도보 이동 시간을 산출할 수 있다.In the prior art, a uniform walking travel time (walking time required) to a starting point and a destination is simply provided. On the other hand, in providing the walking time, the
다시 말해, 본 장치(10)는, 개인화된 도보 특성 정보(개인화된 사용자 걸음 정보)와 더불어 보속에 영향을 미칠 수 있는 경로상의 지형지물(오르막, 내리막, 교차로, 육교, 지하도 등)을 더 고려하여 출발지로부터 도착지까지의 예상 도보 이동 시간을 산출할 수 있다. 더하여, 본 장치(10)는 개인화된 도보 특성 정보, 지형지물 정보뿐만 아니라 보속에 영향을 미칠 수 있는 사용자의 착용품 정보(즉, 사용자가 가지고 있는 짐, 물건 또는 사용자의 옷차림, 착용하고 있는 신발 등)를 더 고려함으로써 출발지로부터 도착지까지의 예상 도보 이동 시간을 보다 정확히 산출할 수 있다. 여기서, 본 장치(10)는 사용자의 착용품 정보를 일예로 주변기기와의 연동을 통해 획득하거나 혹은 사용자로부터 입력 받음으로써 획득할 수 있다.In other words, the
이러한, 본 장치(10)는 획일화된 이동 시간이 아닌, 사용자 개개인에 맞추어 예상된 도보 이동 시간을 제공할 수 있다. 즉, 본 장치(10)는 각각의 사용자의 상황에 맞는 정확한 개인화된 도보 이동 시간을 산출(예측)하여 제공할 수 있다.As such, the
본 장치(10)를 통해 산출되어 제공되는 도보 이동 시간은, 종래에 제공되는 도보 이동 시간을 사용자 개개인의 도보 특성, 지형지물 정보 및 착용품 정보 등을 고려해 보정함으로써 재산출된 도보 이동 시간이라 할 수 있다.The walking travel time calculated and provided through the
상술한 설명에 따르면, 본 장치(10)는 AR 기술을 기반으로 복잡한 지하 길 찾기 기능을 제공할 수 있다. 본 장치(10)는 평소에 안내도가 필요했던 실내의 길을 간편하게 안내 받을 수 있도록 제공할 수 있다. 또한, 본 장치(10)는 남녀노소 사용 가능하며, 주거 지역에 관계없이 사용 가능하다. 또한, 본 장치(10)는 신기술(AR 등)의 개발로 인해 이후 발전 가능성이 크다고 할 수 있다.According to the above description, the
본 장치(10)는 지상뿐만 아니라 지하의 길을 찾아주는 내비게이션 기능을 제공할 수 있다. 본 장치(10)는 지하도의 층수, 지도 및 가게(상점)의 위치까지 상세히 표시할 수 있다.The
또한, 종래에 지하철 역사 내에는 단순히 a방면, b행 등과 같이 표기가 단순하고 모호하게 되어 있었던 반면, 본 장치(10)는 일예로 사용자가 이동하는 이동방향의 다음 역을 사용자 단말(20)의 화면 상에 제공할 수 있다.In addition, in the conventional subway station, while the notation is simple and vague, such as the direction a, the line b, etc., the
또한, 본 장치(10)는 AR 서비스를 기반으로 내부 공간에 대한 길 안내가 가능하며, 예시적으로 각 역의 출구부터 지하철 승차장까지의 상세 경로를 AR 기반으로 안내할 수 있다. 본 장치(10)는 각 역의 QR 코드의 인식을 통해 각 역의 루비를 획득하고, 획득한 루비를 본 장치(10)와 연계된 상점에서 사용 가능하도록 제공할 수 있다.In addition, the
또한, 본 장치(10)는 목적지(일예로 지하철 노선 상에서 선택된 특정 지하철역에 해당하는 목적지)까지의 길 안내 내지 내부 공간 내 편의시설까지의 길 안내를 AR 기반으로 하여 직관적으로 이해하기 쉬운 형태로 사용자 단말(20)에 제공할 수 있다.In addition, the
또한, 본 장치(10)는 AR 기반으로 길 안내를 제공함에 있어서, 내부 길 안내 경로에 대한 예측 도보 이동 시간으로서 사용자에게 맞춤화된 도보 이동 시간을 제공함으로써, 사용자에게 보다 정확한 길 안내가 이루어지도록 제공할 수 있다.In addition, in providing AR-based route guidance, the
본 장치(10)는 내부 이동 구간으로서 예시적으로 지하철역 내부에 관한 길 안내 정보를 제공할 수 있다. 본 장치(10)는 증강현실을 이용하여 지하철역 내부의 출구, 상점, 층별 안내 등의 정보를 제공할 수 있다.The
본 장치(10)는 지하철역 내의 화장실, 상점, 교통카드 충전소, 상황실, 물품 보관함 등 지하철역 내의 다양한 편의시설까지의 경로(이동 경로)를 AR 기반으로 각 목적지에 따른 다양한 형태로 제공할 수 있다.The
본 장치(10)는 특정 내부 이동 구간에 대하여 특정 지하철역과 연결되는 외부 건물(예를 들어, 대형 쇼핑몰, 병원 등)이 존재하는 경우, 특정 내부 이동 구간에 대한 내부 길 안내 정보와 관련하여, 해당 외부 건물까지의 개찰구, 출구, 외부 건물의 층별 안내 등 지하철역과 연결된 외부 건물에 대한 종합 정보를 증강현실을 기반으로 내부 길 안내 정보로서 제공할 수 있다.When an external building (eg, a large shopping mall, a hospital, etc.) connected to a specific subway station exists for a specific internal movement section, the
또한, 본 장치(10)는 사용자가 특정 지하철역에서 하차한 것으로 판단되는 경우, 하차한 지하철역과 연계된 편의시설 또는 외부 건물 등을 포함하는 목적지 목록을 사용자 단말(20) 상에 제공할 수 있다. 이때, 제공된 목적지 목록 중 어느 하나에 대한 목적지에 대한 사용자 입력(선택 입력)이 이루어진 경우, 본 장치(10)의 제어부(13)는 사용자에 의해 선택된 목적지까지의 경로(내부 길 안내 경로)를 포함하는 내부 길 안내 정보를 사용자 단말(20)로 제공할 수 있다. 여기서, 목적지 목록이라 함은 상술한 복수의 선택 메뉴(일예로, 노선도 선택 메뉴, 지하상가 선택 메뉴, 편의시설 선택 메뉴) 중 어느 하나의 선택 메뉴와 관련된 리스트 정보를 의미할 수 있으나, 이에 한정되는 것은 아니다.Also, when it is determined that the user gets off at a specific subway station, the
또한, 본 장치(10)는 사용자 단말(20)에 저장되거나 어플을 통해 확보한 사용자 개개인에 대한 개인화 데이터를 이용하여, 개인화 및 목적지에 따라 내부 길 안내 정보를 증강현실에 기반하여 다양한 형태로 제공할 수 있다.In addition, the
또한, 본 장치(10)는 사용자의 참여 정도(참여도)에 따라 어플리케이션 내/외에서 사용 가능한 리워드(루비, 코인 등)를 제공할 수 있으며, 이를 토대로 본 장치(10)와 연계된 어플에 대한 사용을 사용자에게 유도할 수 있다.In addition, the
본 장치(10)는 지하철역 내의 다양한 편의시설의 경로를 각 목적지에 따라 증강현실 형태로 제공할 수 있다. 또한, 본 장치(10)는 목적지의 위치가 지상에 존재하는 외부 건물에 해당하는 위치인 경우, 내부 이동 구간에서의 해당 외부 건물까지의 개찰구(혹은 출구) 관련 정보와 외부 건물의 층별 안내도 정보 등을 포함하는 지하철 역과 연관된 외부 건물에 대한 종합 정보를 증강 현실 기반으로 제공할 수 있다.The
또한, 본 장치(10)는 사용자 단말(20)에 저장되거나 어플을 통해 확보한 개인화 데이터를 이용해 목적지에 따라 다양한 형태로 증강현실을 제공함으로써, 보다 효과적인 길 안내가 이루어지도록 할 수 있다.In addition, the
이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, an operation flow of the present application will be briefly reviewed based on the details described above.
도 13은 본원의 일 실시예에 따른 증강현실 기반 길 안내 방법에 대한 동작 흐름도이다.13 is a flowchart illustrating an augmented reality-based way guidance method according to an embodiment of the present application.
도 13에 도시된 증강현실 기반 길 안내 방법은 앞서 설명된 증강현실 기반 길 안내 장치(본 장치, 10)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 증강현실 기반 길 안내 장치(본 장치, 10)에 대하여 설명된 내용은 증강현실 기반 길 안내 방법에 대한 설명에도 동일하게 적용될 수 있다.The augmented reality-based road guidance method shown in FIG. 13 may be performed by the augmented reality-based road guidance device (the present device, 10) described above. Therefore, even if omitted below, the description of the augmented reality-based way guidance device (the present device, 10) may be equally applied to the description of the augmented reality-based way guidance method.
도 13을 참조하면, 단계S11에서 제1 경로 생성부는, 사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성할 수 있다.Referring to FIG. 13 , in step S11 , the first route generator may generate a route from the origin to the destination based on information about the origin and destination received from the user.
다음으로, 단계S12에서 제2 경로 생성부는, 단계S11에서 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 요청 신호에 응답하여 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성할 수 있다.Next, in step S12, when a request signal for requesting inner navigation for the inner movement section included in the route generated in step S11 is received, the second route generating unit responds to the request signal to provide a corresponding to the inner movement section. You can create internal navigation routes.
이때, 내부 이동 구간은, 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간을 의미할 수 있다.In this case, the internal movement section may mean a section corresponding to the internal space of a structure provided underground and/or on the ground.
또한, 단계S12에서 제2 경로 생성부는, 구조물의 층(floor)별 내부 공간의 구조(내부 구조) 및 구조물의 내부 공간에 존재하는 편의시설을 고려하여 내부 길 안내 경로를 생성할 수 있다.In addition, in step S12 , the second path generator may generate an internal route guidance path in consideration of the structure (internal structure) of the internal space for each floor of the structure and convenience facilities existing in the internal space of the structure.
또한, 단계S12에서 제2 경로 생성부는, 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 사용자 단말로부터 획득된 경우, 획득된 내부 길 관련 이미지를 요청 신호로서 인식할 수 있다.In addition, in step S12 , when the internal road related image related to the internal road belonging to the internal movement section is obtained from the user terminal, the second route generating unit may recognize the acquired internal road related image as a request signal.
또한, 단계S12에서 제2 경로 생성부는, 내부 길 관련 이미지가 획득된 경우, 내부 길 관련 이미지에 대응하는 위치로부터 내부 이동 구간에 속하는 출구들 중 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로(최단 경로)를 내부 길 안내 경로로 생성할 수 있다.In addition, in step S12, when the internal road-related image is obtained, the second route generating unit is configured to: A route (shortest route) can be created as an internal navigation route.
다음으로, 단계S13에서 제어부는, 단계S12에서 생성된 내부 길 안내 경로를 기반으로, 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자가 소지한 사용자 단말로 제공할 수 있다.Next, in step S13, the control unit generates internal navigation information for guiding the movement of the user on the internal navigation route based on the internal navigation route generated in step S12, and provides it to the user terminal possessed by the user. can do.
또한, 단계S13에서 제어부는, 내부 길 안내 정보를 화면 표시 정보, 사운드 정보 및 진동 정보 중 적어도 하나의 정보 유형으로 생성하여 사용자 단말로 제공할 수 있다.In addition, in step S13 , the controller may generate the internal route guidance information as at least one information type of screen display information, sound information, and vibration information and provide it to the user terminal.
또한, 단계S13에서 제어부는, 획득된 내부 길 관련 이미지 내에 복수 개의 방향 지시 정보가 포함되어 있는 경우, 복수 개의 방향 지시 정보 중 내부 길 안내 경로에 대응하는 대응 방향 지시 정보의 아이콘이 내부 길 안내 경로에 대응하지 않는 미대응 방향 지시 정보의 아이콘 보다 인식 또는 식별이 용이한 형태로 표시되도록, 사용자 단말로 제공되는 화면 표시 정보를 제어할 수 있다.In addition, in step S13, if a plurality of direction indication information is included in the obtained internal road related image, the icon of the corresponding direction indication information corresponding to the internal road guide path among the plurality of direction indication information is displayed on the inner road guide path. The screen display information provided to the user terminal may be controlled to be displayed in a form that is easier to recognize or identify than an icon of non-responsive direction indication information that does not correspond to .
또한, 단계S13에서 제어부는, 사용자 단말 내 위치 획득 센서로부터 획득되는 사용자 위치 정보를 고려하여, 사용자가 이동 방향을 바꾸어야 하는 방향 전환 지점까지의 잔여 거리에 대응하여 화면 표시 정보의 내용, 사운드 정보의 내용 및 진동 정보의 진동 유형을 변경할 수 있다.In addition, in step S13, the control unit, in consideration of the user location information obtained from the location acquisition sensor in the user terminal, the content of the screen display information, the sound information in response to the remaining distance to the direction change point to which the user needs to change the moving direction You can change the vibration type of the content and vibration information.
상술한 설명에서, 단계 S11 내지 S13은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S13 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted as necessary, and the order between steps may be changed.
본원의 일 실시 예에 따른 증강현실 기반 길 안내 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The augmented reality-based way guidance method according to an embodiment of the present application may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
또한, 전술한 증강현실 기반 길 안내 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the augmented reality-based way guidance method described above may be implemented in the form of a computer program or application executed by a computer stored in a recording medium.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may be implemented in a combined form.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present application.
10: 증강현실 기반 길 안내 장치
11: 제1 경로 생성부
12: 제2 경로 생성부
13: 제어부10: Augmented reality-based navigation device
11: first path generator
12: second path generator
13: control
Claims (13)
사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성하는 제1 경로 생성부;
상기 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 상기 요청 신호에 응답하여 상기 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하는 제2 경로 생성부;
생성된 상기 내부 길 안내 경로를 기반으로, 상기 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자 단말로 제공하는 제어부; 및
지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대한 복수의 이미지가 상기 복수의 이미지 각각을 촬영할 때의 사용자 단말의 위치 정보 및 방향 정보와 연계하여 저장된 데이터베이스부를 포함하고,
상기 제어부는, 상기 내부 길 안내 정보를 상기 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공하고,
상기 제2 경로 생성부는 상기 사용자 단말을 통해 획득된 이미지를 상기 데이터베이스부에 기 저장된 복수의 이미지와 매칭하여 매칭 이미지를 식별하고, 상기 매칭 이미지에 대한 상기 위치 정보 및 상기 방향 정보를 고려하여 상기 사용자 단말의 현재 위치를 파악하고,
상기 제2 경로 생성부는 상기 매칭 이미지에 기초하여 상기 획득된 이미지가 상기 내부 이동 구간과 관련된 내부 길 관련 이미지인지 여부를 식별하고,
상기 획득된 이미지가 상기 내부 길 관련 이미지인 것으로 식별되면,
상기 데이터베이스부는 상기 획득된 이미지를 추가 저장하고, 상기 제어부는 상기 사용자 단말로 상기 내부 이동 구간에 대한 내부 길 관련 이미지의 제공에 따른 보상을 제공하는 것인, 증강현실 기반 길 안내 장치.As an augmented reality (Augmented Reality) based road guide device,
a first route generator configured to generate a route from the source to the destination based on the information about the source and destination received from the user;
When a request signal for requesting internal navigation for an internal movement section included in the generated route is received, a second route generator for generating an internal navigation route corresponding to the internal movement section in response to the request signal ;
a control unit for generating internal navigation information for guiding a user's movement on the internal route guidance route based on the generated internal route guidance route and providing the generated internal route guidance information to the user terminal; and
A plurality of images of the internal space of the structure provided in the basement and / or above the ground includes a database unit stored in association with the location information and direction information of the user terminal when each of the plurality of images is photographed,
The control unit provides the internal route guidance information based on augmented reality for the internal road belonging to the internal movement section,
The second path generator identifies a matching image by matching the image acquired through the user terminal with a plurality of images previously stored in the database unit, and considers the location information and the direction information for the matching image. to determine the current location of the terminal,
The second path generator identifies whether the acquired image is an image related to an internal path related to the internal movement section based on the matching image,
If the acquired image is identified as the interior road related image,
The database unit additionally stores the acquired image, and the control unit provides a reward according to the provision of an image related to an internal road for the internal movement section to the user terminal.
상기 내부 이동 구간은,
지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간인 것인, 증강현실 기반 길 안내 장치.According to claim 1,
The inner movement section,
An augmented reality-based road guidance device that is a section corresponding to the internal space of a structure provided underground and/or on the ground.
상기 제2 경로 생성부는,
상기 구조물의 층(floor)별 내부 공간의 구조 및 상기 구조물의 내부 공간에 존재하는 편의시설을 고려하여 상기 내부 길 안내 경로를 생성하는 것인, 증강현실 기반 길 안내 장치.3. The method of claim 2,
The second path generating unit,
The augmented reality-based road guidance device that generates the internal navigation route in consideration of the structure of the internal space for each floor of the structure and convenience facilities existing in the internal space of the structure.
상기 제2 경로 생성부는,
상기 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 상기 사용자 단말로부터 획득된 경우, 획득된 상기 내부 길 관련 이미지를 상기 요청 신호로서 인식하는 것인, 증강현실 기반 길 안내 장치.3. The method of claim 2,
The second path generating unit,
When the internal road-related image related to the internal road belonging to the internal movement section is acquired from the user terminal, the acquired internal road-related image is recognized as the request signal.
상기 제2 경로 생성부는,
상기 내부 길 관련 이미지가 획득된 경우, 상기 내부 길 관련 이미지에 대응하는 위치로부터 상기 내부 이동 구간에 속하는 출구들 중 상기 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로를 상기 내부 길 안내 경로로 생성하는 것인, 증강현실 기반 길 안내 장치.5. The method of claim 4,
The second path generating unit,
When the internal road-related image is obtained, a route from a location corresponding to the internal road-related image to the location of the nearest exit from the location of the destination among exits belonging to the internal movement section is defined as the internal road guidance path An augmented reality-based way guidance device that is generated by
상기 제어부는,
상기 내부 길 안내 정보를 화면 표시 정보, 사운드 정보 및 진동 정보 중 적어도 하나의 정보 유형으로 생성하여 제공하는 것인, 증강현실 기반 길 안내 장치.5. The method of claim 4,
The control unit is
The augmented reality-based road guidance device that generates and provides the internal route guidance information as at least one information type of screen display information, sound information, and vibration information.
상기 제어부는,
획득된 상기 내부 길 관련 이미지 내에 복수 개의 방향 지시 정보가 포함되어 있는 경우, 상기 복수 개의 방향 지시 정보 중 상기 내부 길 안내 경로에 대응하는 대응 방향 지시 정보의 아이콘이 상기 내부 길 안내 경로에 대응하지 않는 미대응 방향 지시 정보의 아이콘 보다 인식 또는 식별이 용이한 형태로 표시되도록, 상기 화면 표시 정보를 제어하는 것인, 증강현실 기반 길 안내 장치.7. The method of claim 6,
The control unit is
When a plurality of direction indication information is included in the obtained internal road-related image, an icon of the corresponding direction indication information corresponding to the internal road guide path among the plurality of direction indication information does not correspond to the internal road guide path. The augmented reality-based road guidance device that controls the screen display information to be displayed in a form that is easier to recognize or identify than an icon of non-responsive direction indication information.
상기 제어부는,
상기 사용자 단말 내 위치 획득 센서로부터 획득되는 사용자 위치 정보를 고려하여, 사용자가 이동 방향을 바꾸어야 하는 방향 전환 지점까지의 잔여 거리에 대응하여 상기 화면 표시 정보의 내용, 상기 사운드 정보의 내용 및 상기 진동 정보의 진동 유형을 변경하는 것인, 증강현실 기반 길 안내 장치.7. The method of claim 6,
The control unit is
In consideration of the user location information obtained from the location acquisition sensor in the user terminal, the content of the screen display information, the content of the sound information, and the vibration information corresponding to the remaining distance to the direction change point to which the user needs to change the moving direction An augmented reality-based navigation device that changes the vibration type of
(a) 제1 경로 생성부에서, 사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성하는 단계;
(b) 제2 경로 생성부에서, 상기 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 상기 요청 신호에 응답하여 상기 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하는 단계; 및
(c) 제어부에서, 생성된 상기 내부 길 안내 경로를 기반으로, 상기 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자 단말로 제공하는 단계를 포함하고,
상기 (c) 단계에서 상기 제어부는, 상기 내부 길 안내 정보를 상기 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공하고,
상기 (b) 단계는,
상기 사용자 단말을 통해 획득된 이미지를 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대한 복수의 이미지가 상기 복수의 이미지 각각을 촬영할 때의 사용자 단말의 위치 정보 및 방향 정보와 연계하여 저장된 데이터베이스부에 기 저장된 복수의 이미지와 매칭하여 매칭 이미지를 식별하는 단계;
상기 매칭 이미지에 대한 상기 위치 정보 및 상기 방향 정보를 고려하여 상기 사용자 단말의 현재 위치를 파악하는 단계; 및
상기 매칭 이미지에 기초하여 상기 획득된 이미지가 상기 내부 이동 구간과 관련된 내부 길 관련 이미지인지 여부를 식별하는 단계,
를 포함하되,
상기 획득된 이미지가 상기 내부 길 관련 이미지인 것으로 식별되면,
상기 데이터베이스부는 상기 획득된 이미지를 추가 저장하고, 상기 제어부는 상기 사용자 단말로 상기 내부 이동 구간에 대한 내부 길 관련 이미지의 제공에 따른 보상을 제공하는 것인, 증강현실 기반 길 안내 방법.As an augmented reality (Augmented Reality) based road guidance method,
(a) generating, in the first route generating unit, a route from the source to the destination based on the information about the source and destination received from the user;
(b) when the second route generator receives a request signal for requesting an inner route guidance for an inner movement section included in the generated route, an inner road corresponding to the inner movement section in response to the request signal generating a guide route; and
(c) generating, in the control unit, internal navigation information for guiding a user's movement on the internal route guidance route based on the generated internal route guidance route and providing it to a user terminal,
In the step (c), the control unit provides the internal route guidance information based on augmented reality for the internal road belonging to the internal movement section,
Step (b) is,
A database unit stored in association with the location information and direction information of the user terminal when a plurality of images of the internal space of a structure provided in the basement and/or the ground of the image acquired through the user terminal are photographed, respectively, of the plurality of images identifying a matching image by matching with a plurality of images previously stored in the ;
determining the current location of the user terminal in consideration of the location information and the direction information for the matching image; and
identifying whether the acquired image is an image related to an internal road related to the internal movement section based on the matching image;
including,
If the acquired image is identified as the interior road related image,
The database unit additionally stores the acquired image, and the control unit provides a reward according to the provision of an image related to an internal road for the internal movement section to the user terminal.
상기 내부 이동 구간은,
지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간인 것인, 증강현실 기반 길 안내 방법.10. The method of claim 9,
The inner movement section,
An augmented reality-based road guidance method that is a section corresponding to the internal space of a structure provided underground and/or on the ground.
상기 (b) 단계는,
상기 구조물의 층(floor)별 내부 공간의 구조 및 상기 구조물의 내부 공간에 존재하는 편의시설을 고려하여 상기 내부 길 안내 경로를 생성하는 것인, 증강현실 기반 길 안내 방법.11. The method of claim 10,
Step (b) is,
The augmented reality-based way guidance method, which generates the inner way guide route in consideration of the structure of the inner space for each floor of the structure and the convenience facilities existing in the inner space of the structure.
상기 (b) 단계는,
상기 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 상기 사용자 단말로부터 획득된 경우, 획득된 상기 내부 길 관련 이미지를 상기 요청 신호로서 인식하는 것인, 증강현실 기반 길 안내 방법.11. The method of claim 10,
Step (b) is,
When the internal road-related image related to the internal road belonging to the internal movement section is acquired from the user terminal, the acquired internal road-related image is recognized as the request signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190168262A KR102299464B1 (en) | 2019-12-16 | 2019-12-16 | Apparatus and method for augmented reality based road guidance |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190168262A KR102299464B1 (en) | 2019-12-16 | 2019-12-16 | Apparatus and method for augmented reality based road guidance |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210076755A KR20210076755A (en) | 2021-06-24 |
KR102299464B1 true KR102299464B1 (en) | 2021-09-06 |
Family
ID=76607254
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190168262A KR102299464B1 (en) | 2019-12-16 | 2019-12-16 | Apparatus and method for augmented reality based road guidance |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102299464B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113449211B (en) * | 2021-07-22 | 2023-09-19 | 北京百度网讯科技有限公司 | Line navigation method and device, electronic equipment and computer readable medium |
CN118706104A (en) * | 2023-03-27 | 2024-09-27 | 华为技术有限公司 | AR route making method, related device and communication system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101994521B1 (en) * | 2017-04-20 | 2019-09-30 | 김현우 | Navigation system by using augmented reality |
KR101994542B1 (en) * | 2017-11-24 | 2019-06-28 | 이화여자대학교 산학협력단 | Pedestrian Movement Tracking Web System, Method and Recording Medium thereof |
KR102033587B1 (en) * | 2017-11-27 | 2019-10-17 | (의)삼성의료재단 | Method, apparratus and computer program for navigation using augmented reality |
KR102102810B1 (en) * | 2018-04-24 | 2020-04-22 | 한국항공대학교산학협력단 | Moving guide device to guide user's movement using the drone and method for controlling the same |
-
2019
- 2019-12-16 KR KR1020190168262A patent/KR102299464B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20210076755A (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10295350B2 (en) | Providing a route guide using building information modeling (BIM) data | |
KR101511514B1 (en) | Method and server for providing contents | |
KR102216050B1 (en) | System and method for recommending exercise routes | |
US10012505B2 (en) | Wearable system for providing walking directions | |
US6728636B2 (en) | Destination guidance system and method for generating individually tailored routes within a complex structure | |
US10653359B2 (en) | System and method for providing walking path guidance service based on measurement of motion of user | |
Flores et al. | Weallwalk: An annotated dataset of inertial sensor time series from blind walkers | |
US20170229045A1 (en) | Information processing device, control method, and program | |
KR102299464B1 (en) | Apparatus and method for augmented reality based road guidance | |
JP2013195143A (en) | Position detecting device, electronic apparatus, position detecting system, and program | |
KR20170048920A (en) | System and method for guiding footpath based on user movement detection | |
JP2019056674A (en) | Display system, electronic apparatus and method for displaying map information | |
KR101572548B1 (en) | Stick and mobile apparatus and system for navigating of blind person, recording medium for performing the method | |
Árvai | Mobile phone based indoor navigation system for blind and visually impaired people: VUK—Visionless supporting frameworK | |
KR20200017393A (en) | Information processing device and information processing method | |
Motta et al. | Overview of smart white canes: connected smart cane from front end to back end | |
KR102477817B1 (en) | Apparatus and method that guides the information of the locker | |
KR102259251B1 (en) | Smart block guide system | |
KR102375570B1 (en) | Apparatus and method for providing longterm care service | |
KR102278615B1 (en) | Apparatus and method for providing walk-based route guidance | |
JP6483953B2 (en) | Information processing system, information processing method, and information processing program | |
KR20200110855A (en) | Smart braille block system | |
Krainz et al. | Catching the right bus-Improvement of vehicle communication with Bluetooth Low Energy for Visually Impaired and Blind People | |
KR20220087037A (en) | Apparatus and method for managing the schedule of sunlight expose | |
KR102112099B1 (en) | Apparatus and system for providing navigation contents using augmented reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |