KR102299464B1 - Apparatus and method for augmented reality based road guidance - Google Patents

Apparatus and method for augmented reality based road guidance Download PDF

Info

Publication number
KR102299464B1
KR102299464B1 KR1020190168262A KR20190168262A KR102299464B1 KR 102299464 B1 KR102299464 B1 KR 102299464B1 KR 1020190168262 A KR1020190168262 A KR 1020190168262A KR 20190168262 A KR20190168262 A KR 20190168262A KR 102299464 B1 KR102299464 B1 KR 102299464B1
Authority
KR
South Korea
Prior art keywords
internal
information
route
user
road
Prior art date
Application number
KR1020190168262A
Other languages
Korean (ko)
Other versions
KR20210076755A (en
Inventor
정혜경
류희경
Original Assignee
건국대학교 글로컬산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 글로컬산학협력단 filed Critical 건국대학교 글로컬산학협력단
Priority to KR1020190168262A priority Critical patent/KR102299464B1/en
Publication of KR20210076755A publication Critical patent/KR20210076755A/en
Application granted granted Critical
Publication of KR102299464B1 publication Critical patent/KR102299464B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)

Abstract

증강현실 기반 길 안내 장치에 관한 것이며, 증강현실 기반 길 안내 장치는, 사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성하는 제1 경로 생성부; 상기 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 상기 요청 신호에 응답하여 상기 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하는 제2 경로 생성부; 및 생성된 상기 내부 길 안내 경로를 기반으로, 상기 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자 단말로 제공하는 제어부를 포함하고, 상기 제어부는, 상기 내부 길 안내 정보를 상기 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공할 수 있다.To an augmented reality-based road guidance device, the augmented reality-based road guidance device includes: a first route generator configured to generate a route from a starting point to a destination based on information about a starting point and a destination input from a user; When a request signal for requesting an internal route guidance for an internal movement section included in the generated route is received, a second route generator for generating an internal route guidance route corresponding to the internal movement section in response to the request signal ; and a controller for generating and providing internal route guidance information for guiding a user's movement on the internal route guidance route to a user terminal based on the generated internal route guidance route, wherein the controller includes: Guidance information may be provided based on augmented reality for an internal road belonging to the internal movement section.

Description

증강현실 기반 길 안내 장치 및 방법 {APPARATUS AND METHOD FOR AUGMENTED REALITY BASED ROAD GUIDANCE}AR-based road guidance device and method {APPARATUS AND METHOD FOR AUGMENTED REALITY BASED ROAD GUIDANCE}

본원은 증강현실(Augmented Reality, AR) 기반 길 안내 장치 및 방법에 관한 것이다.The present application relates to an augmented reality (AR)-based road guidance apparatus and method.

경로(길) 안내 장치인 내비게이션(Navigation Device)은 일반적으로 차량(자동차)에 사용하도록 고안된 차량자동항법장치의 일종으로서, 차량의 현재 위치를 파악함으로써 사용자가 입력한 목적지로의 경로를 안내하는 것을 주목적으로 한다. 이러한 내비게이션은 신호위반 단속 구간, 과속 단속 구간, 주변 주유소 안내, 실시간 교통상황 안내 등 다양한 부가 기능과 편의성을 제공함으로써 차량운행에서 필수적인 장치로 인식되고 있다.A navigation device, which is a device for guiding a route (road), is a type of automatic vehicle navigation device designed for use in vehicles (cars) in general. do it for a purpose The navigation system is recognized as an essential device for vehicle operation by providing various additional functions and convenience, such as a signal violation enforcement section, a speeding enforcement section, information about nearby gas stations, and real-time traffic situation guidance.

그런데, 종래의 경로 안내 기술(내비게이션 기술)은 주로 차량에 초점이 맞춰져 차량이 이동할 수 있는 경로(즉, 지상의 도로 등)에 대해서만 길 안내를 지원할 뿐, 다소 큰 규모를 갖는 복잡하고 혼잡한 지하철 역사(驛舍) 내부나 대형 건물의 실내(내부) 등과 같은 내부 공간에 대해서는 관련 데이터의 부재로 인해 내부 공간에 대한 길 안내의 지원이 이루어지지 않고 있다.However, the conventional route guidance technology (navigation technology) is mainly focused on the vehicle and only supports the route guidance for the route that the vehicle can move (ie, the road on the ground, etc.), and a complex and crowded subway with a rather large scale For internal spaces such as the interior of a station or the interior (inside) of a large building, there is no support for directions to the interior space due to the absence of relevant data.

이처럼, 대부분 종래의 경로 안내 기술로는 내부 공간에 대한 정확한 길 안내의 제공에 어려움이 있어, 예시적으로 사용자가 도보를 이용해 상술한 내부 공간(특히나, 초행길에 있는 내부 공간)을 경유하여 목적지까지 이동하는 경우, 사용자가 해당 내부 공간에서의 이동시 길을 잃거나 헤매는 일이 생길 수 있으며, 이는 목적지까지의 이동 시간의 지연을 야기하게 된다.As such, most of the conventional route guidance technologies have difficulty in providing accurate route guidance to the internal space, so that the user can exemplarily use a walk to reach the destination via the aforementioned internal space (especially, the internal space on the first road). When moving, the user may get lost or get lost while moving in the corresponding internal space, which causes a delay in the travel time to the destination.

도 1은 지하철 역사 내 길 안내를 위한 표지판의 예를 나타낸 도면이다.1 is a view showing an example of a sign for guiding a road in a subway station.

도 1을 참조하면, 일반적으로 지하철 역사 등의 내부에 존재하는 표지판(전철의 이동 방향이나 출구를 안내하는 표지판 등)은 내선열차, 외선열차, a방면, b행 등과 같이 표기가 단순하고 모호하게 되어 있다. Referring to FIG. 1, in general, signs (signs guiding the moving direction or exit of a subway station, etc.) existing inside subway stations are simple and vague, such as internal trains, external trains, direction a, line b, etc. has been

따라서, 사용자가 복수 개의 지하철 노선이 교차하는 혼잡한 환승역(예를 들어, 고속터미널역, 삼성역, 잠실역 등)이나 대형 건물(백화점, 마트 등), 지하상가, 버스 터미널, 많은 출입구 등과 연결되고 여러 층(floor)으로 이루어진 지하/지상의 내부 공간 등에서 도 1과 같은 표지판에 의존하는 것만으로는 원하는 목적지까지 정확하게 이동하는 것에 한계가 있다.Therefore, the user is connected to a crowded transfer station (for example, Express Bus Terminal Station, Samseong Station, Jamsil Station, etc.) where multiple subway lines intersect, large buildings (department stores, marts, etc.), underground shopping malls, bus terminals, many entrances, etc. There is a limit to accurately moving to a desired destination only by relying on a sign as shown in FIG.

즉, 종래의 경로 안내 기술이나 표지판 등을 이용하는 것만으로는, 내부 공간에 대하여 사용자의 이동을 원하는 목적지까지 원활하고 정확하게 안내하는 데에 어려움이 있어, 사용자로 하여금 지하철 역사 내에서 가고자 하는 방향과는 반대 방향의 플랫폼으로 내려가게 되거나, 출구를 찾지 못하여 헤매게 되는 등의 일이 발생할 수 있다.That is, there is a difficulty in smoothly and accurately guiding the user to the desired destination with respect to the internal space only by using the conventional route guidance technology or signage, so that the direction the user wants to go in the subway station is different. It could happen that you go down to the platform in the opposite direction, or you get lost because you can't find an exit.

도 2 및 도 3은 종래에 자동차나 도보를 대상으로 한 경로(길) 안내의 예를 나타낸 도면이다.2 and 3 are diagrams showing an example of a route (road) guidance for a vehicle or a foot in the prior art.

도 2를 참조하면, 종래 포털 사이트(예를 들어, 네이버, 구글 등)에서는 도 2의 (a)와 같이 자동차를 기반으로 경로 안내 정보를 제공하거나, 도 2의 (b)와 같이 도보를 기반으로 경로 안내 정보를 제공함에 있어서, 사용자로부터 출발지와 목적지가 입력된 경우 출발지로부터 목적지까지의 경로, 해당 경로에 대한 거리, 및 해당 경로를 자동차나 도보로 이동하였을 때 소요되는 소요 시간(예상 소요 시간) 등에 관한 정보를 제공하고 있다.Referring to FIG. 2, conventional portal sites (eg, Naver, Google, etc.) provide route guidance information based on a vehicle as shown in FIG. In providing route guidance information by using , when the origin and destination are input from the user, the route from the origin to the destination, the distance to the route, and the time required when the route is moved by car or on foot (estimated time required) ), etc., are provided.

그런데, 이와 같은 종래의 경로 안내 기술은, 앞서 말한 바와 같이 주로 차량이 이동할 수 있는 경로(즉, 지상의 도로 등)에 한하여 2차원 지도를 기반으로 목적지까지의 경로를 제공할 뿐이어서, 도보를 이용해 복잡한 지하철 역사 내부나 대형 건물의 실내(내부)를 경유하여 이동함에 있어서 사용자가 해당 내부 공간을 헤매지 않고 정확히 이동할 수 있도록 안내(가이드) 하는 데에 어려움이 있다.However, such a conventional route guidance technology only provides a route to a destination based on a two-dimensional map only for a route (ie, a road on the ground) that a vehicle can mainly move, as described above, It is difficult to guide (guide) so that the user can move accurately without wandering through the interior space of a complex subway station or the interior (inside) of a large building.

또한, 도 3을 참조하면, 종래의 경로 안내 기술은 복수의 층이 존재하는 내부 공간에 대하여, 각 층의 이동 경로를 확실하게 구분하여 표시하고 있지 않기 때문에, 일예로 사용자가 해당 내부 공간 내에 특정 가게를 방문하고자 할 때 정확히 찾아가는 데에 어려움이 있다.In addition, referring to FIG. 3 , the conventional route guidance technology does not clearly distinguish and display the movement route of each floor with respect to the internal space in which a plurality of floors exist. When you want to visit the store, it is difficult to find it exactly.

도 4는 지하철 관련 정보를 제공하는 종래의 어플리케이션 화면의 예를 나타낸 도면이다.4 is a diagram illustrating an example of a conventional application screen that provides subway-related information.

도 4를 참조하면, 종래의 지하철 관련 정보를 제공하는 어플리케이션은 지하철의 빠른 환승 정보, 시설정보, 역 안내도 등에 관한 정보를 제공하는데, 이러한 정보를 단순히 텍스트 형태로 제공하거나 개략적으로만 제공하고 있다. 따라서, 사용자가 일예로 화장실을 이용하고자 하는 경우, 이러한 어플리케이션을 통해서는 화장실의 위치를 정확히 알 수 없어 이용하는 데에 어려움이 있을 수 있다.Referring to FIG. 4 , the conventional application providing subway-related information provides information on quick transfer information of the subway, facility information, station map, etc., and provides such information in text form or only schematically. . Therefore, when the user wants to use the toilet as an example, it may be difficult to use the toilet because the location of the toilet cannot be accurately known through such an application.

본원의 배경이 되는 기술은 한국등록특허공보 제10-0401640호에 개시되어 있다.The technology that is the background of the present application is disclosed in Korean Patent Publication No. 10-0401640.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 다소 큰 규모를 갖는 복잡하고 혼잡한 지하철 역사 내부나 대형 건물의 실내(내부) 등의 내부 공간에 대하여, 사용자가 해당 내부 공간을 거쳐 목적지까지로 이동할 때 헤매지 않고 보다 원활하고 정확히 이동할 수 있도록 지원할 수 있는 증강현실 기반 길 안내 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is intended to solve the problems of the prior art described above, and with respect to an internal space such as a complex and crowded subway station having a rather large scale or the interior (inside) of a large building, the user goes through the internal space to the destination An object of the present invention is to provide an augmented reality-based navigation device and method that can support smoother and more accurate movement without getting lost when moving.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems as described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 증강현실(Augmented Reality) 기반 길 안내 장치는, 사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성하는 제1 경로 생성부; 상기 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 상기 요청 신호에 응답하여 상기 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하는 제2 경로 생성부; 및 생성된 상기 내부 길 안내 경로를 기반으로, 상기 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자 단말로 제공하는 제어부를 포함하고, 상기 제어부는, 상기 내부 길 안내 정보를 상기 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공할 수 있다.As a technical means for achieving the above technical problem, the augmented reality (Augmented Reality) based road guidance device according to an embodiment of the present application is based on the information about the starting point and the destination input from the user, from the starting point to the destination a first path generator for generating a path; When a request signal for requesting an internal route guidance for an internal movement section included in the generated route is received, a second route generator for generating an internal route guidance route corresponding to the internal movement section in response to the request signal ; and a controller for generating and providing internal route guidance information for guiding a user's movement on the internal route guidance route to a user terminal based on the generated internal route guidance route, wherein the controller includes: Guidance information may be provided based on augmented reality for an internal road belonging to the internal movement section.

또한, 상기 내부 이동 구간은, 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간일 수 있다.In addition, the internal movement section may be a section corresponding to the internal space of a structure provided in the basement and/or the ground.

또한, 상기 제2 경로 생성부는, 상기 구조물의 층(floor)별 내부 공간의 구조 및 상기 구조물의 내부 공간에 존재하는 편의시설을 고려하여 상기 내부 길 안내 경로를 생성할 수 있다.In addition, the second path generation unit may generate the internal path guide path in consideration of the structure of the internal space for each floor of the structure and convenience facilities existing in the internal space of the structure.

또한, 상기 제2 경로 생성부는, 상기 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 상기 사용자 단말로부터 획득된 경우, 획득된 상기 내부 길 관련 이미지를 상기 요청 신호로서 인식할 수 있다.In addition, the second route generating unit may recognize the obtained internal road related image as the request signal when the internal road related image related to the internal road belonging to the internal movement section is obtained from the user terminal.

또한, 상기 제2 경로 생성부는, 상기 내부 길 관련 이미지가 획득된 경우, 상기 내부 길 관련 이미지에 대응하는 위치로부터 상기 내부 이동 구간에 속하는 출구들 중 상기 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로를 상기 내부 길 안내 경로로 생성할 수 있다.In addition, when the internal road-related image is obtained, the second route generating unit is configured to: a position of an exit that is closest to the location of the destination among exits belonging to the internal movement section from a position corresponding to the internal road-related image A route to . may be generated as the internal navigation route.

또한, 상기 제어부는, 상기 내부 길 안내 정보를 화면 표시 정보, 사운드 정보 및 진동 정보 중 적어도 하나의 정보 유형으로 생성하여 제공할 수 있다.Also, the controller may generate and provide the internal route guidance information as at least one information type of screen display information, sound information, and vibration information.

또한, 상기 제어부는, 획득된 상기 내부 길 관련 이미지 내에 복수 개의 방향 지시 정보가 포함되어 있는 경우, 상기 복수 개의 방향 지시 정보 중 상기 내부 길 안내 경로에 대응하는 대응 방향 지시 정보의 아이콘이 상기 내부 길 안내 경로에 대응하지 않는 미대응 방향 지시 정보의 아이콘 보다 인식 또는 식별이 용이한 형태로 표시되도록, 상기 화면 표시 정보를 제어할 수 있다.In addition, the control unit, when a plurality of direction indication information is included in the obtained internal road related image, an icon of corresponding direction indication information corresponding to the inner road guide path among the plurality of direction indication information is displayed on the inside road The screen display information may be controlled to be displayed in a form that is easier to recognize or identify than an icon of the non-responsive direction indication information that does not correspond to the guide route.

또한, 상기 제어부는, 상기 사용자 단말 내 위치 획득 센서로부터 획득되는 사용자 위치 정보를 고려하여, 사용자가 이동 방향을 바꾸어야 하는 방향 전환 지점까지의 잔여 거리에 대응하여 상기 화면 표시 정보의 내용, 상기 사운드 정보의 내용 및 상기 진동 정보의 진동 유형을 변경할 수 있다.In addition, the control unit, in consideration of the user location information obtained from the location acquisition sensor in the user terminal, the content of the screen display information, the sound information in response to the remaining distance to the direction change point to which the user needs to change the moving direction content and the vibration type of the vibration information can be changed.

한편, 본원의 일 실시예에 따른 증강현실(Augmented Reality) 기반 길 안내 방법은, (a) 제1 경로 생성부에서, 사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성하는 단계; (b) 제2 경로 생성부에서, 상기 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 상기 요청 신호에 응답하여 상기 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하는 단계; 및 (c) 제어부에서, 생성된 상기 내부 길 안내 경로를 기반으로, 상기 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자 단말로 제공하는 단계를 포함하고, 상기 (c) 단계에서 상기 제어부는, 상기 내부 길 안내 정보를 상기 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공할 수 있다.On the other hand, the augmented reality (Augmented Reality)-based road guidance method according to an embodiment of the present application, (a) based on the information about the origin and destination received from the user in the first route generator, from the origin to the destination creating a path; (b) when a request signal for requesting an inner route guidance for an inner movement section included in the generated route is received in the second route generator, an inner road corresponding to the inner movement section in response to the request signal generating a guide route; and (c) generating, in the control unit, internal navigation information for guiding a user's movement on the internal route guidance route based on the generated internal route guidance route and providing the generated internal route guidance information to the user terminal, In step (c), the control unit may provide the internal route guidance information based on augmented reality for the internal road belonging to the internal movement section.

또한, 상기 내부 이동 구간은, 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간일 수 있다.In addition, the internal movement section may be a section corresponding to the internal space of a structure provided in the basement and/or the ground.

또한, 상기 (b) 단계는, 상기 구조물의 층(floor)별 내부 공간의 구조 및 상기 구조물의 내부 공간에 존재하는 편의시설을 고려하여 상기 내부 길 안내 경로를 생성할 수 있다.In addition, in step (b), the internal path guide path may be generated in consideration of the structure of the internal space for each floor of the structure and convenience facilities existing in the internal space of the structure.

또한, 상기 (b) 단계는, 상기 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 상기 사용자 단말로부터 획득된 경우, 획득된 상기 내부 길 관련 이미지를 상기 요청 신호로서 인식할 수 있다.Also, in the step (b), when the internal road-related image related to the internal road belonging to the internal movement section is obtained from the user terminal, the acquired internal road-related image may be recognized as the request signal.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.

전술한 본원의 과제 해결 수단에 의하면, 증강현실 기반 길 안내 장치의 제공을 통해, 사용자가 목적지까지 이동함에 있어서 다소 큰 규모로 복잡하고 혼잡한 지하철 역사 내부나 대형 건물의 실내(내부)를 경유하여 지나가게 되는 경우에도, 이러한 내부 공간에서 길을 헤매지 않고 목적지까지(혹은 목적지를 향한 출구까지) 정확하게 이동할 수 있도록 사용자의 이동을 지원(안내, 가이드, 인도)할 수 있다.According to the above-described problem solving means of the present application, through the provision of an augmented reality-based road guidance device, the user moves to the destination on a rather large scale, via the inside of a complex and crowded subway station or the interior (inside) of a large building. Even when passing, it is possible to support (guide, guide, guide) the user's movement so that he or she can accurately move to the destination (or to the exit toward the destination) without getting lost in the interior space.

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the above-described effects, and other effects may exist.

도 1은 지하철 역사 내 길 안내를 위한 표지판의 예를 나타낸 도면이다.
도 2 및 도 3은 종래에 자동차나 도보를 대상으로 한 경로 안내의 예를 나타낸 도면이다.
도 4는 지하철 관련 정보를 제공하는 종래의 어플리케이션 화면의 예를 나타낸 도면이다.
도 5은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치의 개략적인 구성을 나타낸 도면이다.
도 6은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치에서 사용자 단말로부터 획득되는 내부 길 관련 이미지의 예를 나타낸 도면이다.
도 7은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치에서 화면 표시 정보의 제어 예를 나타낸 도면이다.
도 8은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치에서 증강현실을 기반으로 내부 길 안내 정보를 화면 표시 정보의 형태로 제공하는 경우의 예를 나타낸 도면이다.
도 9는 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치의 기능을 설명하기 위한 도면이다.
도 10은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치에 의한 사용자 단말의 화면 표시의 예를 나타낸 도면이다.
도 11은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치를 통해 제공되는 일반 길찾기 기능의 화면 표시 예를 나타낸 도면이다.
도 12는 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치를 통해 제공되는 AR 기반 길찾기 기능의 화면 표시 예를 나타낸 도면이다.
도 13은 본원의 일 실시예에 따른 증강현실 기반 길 안내 방법에 대한 동작 흐름도이다.
1 is a view showing an example of a sign for guiding a road in a subway station.
2 and 3 are diagrams showing an example of a route guidance for a vehicle or a foot in the prior art.
4 is a diagram illustrating an example of a conventional application screen that provides subway-related information.
5 is a view showing a schematic configuration of an augmented reality-based road guidance device according to an embodiment of the present application.
6 is a diagram illustrating an example of an internal road-related image obtained from a user terminal in the augmented reality-based road guidance device according to an embodiment of the present application.
7 is a diagram illustrating an example of controlling screen display information in the augmented reality-based road guidance device according to an embodiment of the present application.
8 is a diagram illustrating an example of providing internal route guidance information in the form of screen display information based on augmented reality in the augmented reality-based road guidance device according to an embodiment of the present application.
9 is a view for explaining the function of the augmented reality-based way guidance device according to an embodiment of the present application.
10 is a diagram illustrating an example of a screen display of a user terminal by an augmented reality-based road guidance device according to an embodiment of the present application.
11 is a diagram illustrating an example of a screen display of a general wayfinding function provided through an augmented reality-based wayfinding apparatus according to an embodiment of the present application.
12 is a diagram illustrating a screen display example of an AR-based wayfinding function provided through an augmented reality-based wayfinding device according to an embodiment of the present application.
13 is a flowchart illustrating an augmented reality-based way guidance method according to an embodiment of the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present application pertains can easily implement them. However, the present application may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including cases where

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when it is said that a member is positioned "on", "on", "on", "under", "under", or "under" another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

본원은 사용자가 목적지까지 이동함에 있어서 다소 큰 규모를 갖는 복잡하고 혼잡한 지하철 역사 내부나 대형 건물의 실내(내부) 등과 같은 내부 공간을 경유하여 지나가게 되는 경우에도, 이러한 내부 공간에서 길을 헤매지 않고 목적지까지(혹은 목적지를 향한 출구까지) 정확하게 이동할 수 있도록 사용자의 이동을 지원(안내, 가이드, 인도)하는 증강현실(Augmented Reality) 기반 길 안내 장치에 대하여 제안한다.In the present application, even when a user passes through an internal space such as a complex and crowded subway station with a rather large scale or the interior (inside) of a large building, the user does not get lost in such an internal space when moving to a destination. We propose an Augmented Reality-based road guide device that supports the user's movement (guide, guide, and guide) so that he or she can accurately move to a destination (or to an exit toward the destination).

도 5는 본원의 일 실시예에 따른 증강현실(Augmented Reality, AR) 기반 길 안내 장치(10)의 개략적인 구성을 나타낸 도면이다.5 is a diagram showing a schematic configuration of an augmented reality (AR)-based way guidance device 10 according to an embodiment of the present application.

이하에서는 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)를 설명의 편의상 본 장치(10)라 하기로 한다.Hereinafter, the augmented reality-based road guidance device 10 according to an embodiment of the present application will be referred to as the present device 10 for convenience of description.

도 5를 참조하면, 본 장치(10)는 일예로 사용자 단말(20)에 포함된 장치의 형태로 마련될 수 있다. 이러한 경우, 본 장치(10)는 사용자 단말(20)에 설치되는 프로그램 또는 애플리케이션의 형태로 구현 가능한 장치일 수 있다. 달리 말해, 본 장치(10)를 통해 제공되는 증강현실 기반 길 안내 방법은 일예로 프로그램 또는 애플리케이션의 형태로 구현되어 사용자 단말(20)을 통해 제공될 수 있다.Referring to FIG. 5 , the device 10 may be provided in the form of a device included in the user terminal 20 , for example. In this case, the device 10 may be a device that can be implemented in the form of a program or application installed in the user terminal 20 . In other words, the augmented reality-based road guidance method provided through the device 10 may be implemented in the form of a program or application, for example, and provided through the user terminal 20 .

다만, 이에 한정되는 것은 아니고, 다른 일예로 본 장치(10)는 사용자 단말(20)과 데이터 송수신이 가능한 서버의 형태로 마련될 수 있다. 이하에서는 일예로 본 장치(10)가 사용자 단말(20)에 포함된 장치인 것으로 예시하기로 한다.However, the present invention is not limited thereto, and as another example, the device 10 may be provided in the form of a server capable of transmitting and receiving data with the user terminal 20 . Hereinafter, as an example, the present device 10 will be exemplified as a device included in the user terminal 20 .

본 장치(10)는 제1 경로 생성부(11), 제2 경로 생성부(12) 및 제어부(13)를 포함할 수 있다.The apparatus 10 may include a first path generating unit 11 , a second path generating unit 12 , and a control unit 13 .

제1 경로 생성부(11)는 사용자로부터 입력받은 출발지와 목적지에 관한 정보(즉, 출발지 정보와 목적지 정보)를 기반으로, 출발지로부터 목적지까지의 경로를 생성할 수 있다. 이때, 제1 경로 생성부(11)는 사용자가 소지한 사용자 단말(20)을 통하여 출발지와 목적지에 관한 정보를 사용자로부터 입력받을 수 있다.The first route generator 11 may generate a route from the source to the destination based on information about the source and destination (ie, source information and destination information) received from the user. In this case, the first route generator 11 may receive information about the departure point and the destination from the user through the user terminal 20 carried by the user.

이하에서는 설명의 편의성, 제1 경로 생성부(11)에 의해 생성된 경로를 기준 경로라고 지칭하기로 한다.Hereinafter, for convenience of explanation, a path generated by the first path generator 11 will be referred to as a reference path.

여기서, 사용자 단말(20)은 본 장치(10)와 네트워크를 통해 정보 송수신이 가능한 단말로서, 일예로 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(WCode Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC, 노트북, 웨어러블 디바이스, 데스크탑 PC 등과 같은 모든 종류의 유무선 통신 장치를 포함할 수 있으며, 이에 한정되는 것은 아니다.Here, the user terminal 20 is a terminal capable of transmitting and receiving information through the device 10 and the network, for example, a Personal Communication System (PCS), a Global System for Mobile communication (GSM), a Personal Digital Cellular (PDC), and a PHS. (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (WCode Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, It may include all types of wired/wireless communication devices such as a smartphone, a smartpad, a tablet PC, a notebook computer, a wearable device, and a desktop PC, but is not limited thereto.

여기서, 웨어러블 디바이스는 사용자의 신체의 적어도 일부에 착용 가능한 디바이스로서, 예시적으로 HMD(Head mounted Display), 구글 글라스 등이 포함될 수 있으나, 이에 한정되는 것은 아니다. Here, the wearable device is a device that can be worn on at least a part of the user's body, and may include, for example, a head mounted display (HMD), Google Glass, and the like, but is not limited thereto.

또한, 본 장치(10)와 사용자 단말(20) 간에 연결 가능한 네트워크는, 일예로 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함될 수 있으며, 이에 한정된 것은 아니다.In addition, the network connectable between the device 10 and the user terminal 20 is, for example, a 3rd Generation Partnership Project (3GPP) network, a Long Term Evolution (LTE) network, a World Interoperability for Microwave Access (WIMAX) network, and the Internet ( Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (Bluetooth) network, NFC (Near Field Communication) network, satellite broadcasting network , an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, and the like, but is not limited thereto.

사용자는 일예로 출발지 정보와 목적지 정보를 사용자 단말(20)을 통해 키워드(단어) 형태로 입력하거나 주소 형태로 입력할 수 있다. 다른 일예로 사용자는 사용자 단말(20)의 화면 상에 제공되는 지도에서 특정 위치를 터치하거나 클릭할 수 있으며, 이러한 터치(클릭) 입력을 기반으로 사용자 단말(20)에 출발지 정보와 목적지 정보가 입력될 수 있다. The user may input, for example, departure point information and destination information in the form of keywords (words) or in the form of addresses through the user terminal 20 . As another example, the user may touch or click a specific location on the map provided on the screen of the user terminal 20 , and based on the touch (click) input, the source information and the destination information are input to the user terminal 20 . can be

제1 경로 생성부(11)는 사용자 단말(20)을 통해 사용자로부터 출발지 정보와 목적지 정보를 입력받을 수 있으며, 이에 기초하여 출발지 정보에 대응하는 위치로부터 목적지 정보에 대응하는 위치까지의 경로를 생성할 수 있다.The first route generator 11 may receive source information and destination information from a user through the user terminal 20 , and based on this, generates a route from a location corresponding to the source information to a location corresponding to the destination information. can do.

이때, 출발지 정보의 위치로부터 목적지 정보의 위치까지의 경로는 복수개가 존재할 수 있는데, 제1 경로 생성부(11)는 이러한 복수개의 경로 중 이동 시간(특히, 도보 이동 시간)이 최소가 되는 경로(즉, 최소 시간 경로, 최단 경로)를 생성할 수 있다. 일예로 제1 경로 생성부(11)는 출발지 정보의 위치로부터 목적지 정보의 위치까지의 경로로서, 도보 이동 시간이 최소가 되는 경로를 생성할 수 있다.In this case, there may be a plurality of routes from the location of the departure point information to the location of the destination information, and the first route generating unit 11 is a route (particularly, walking time) that minimizes travel time (particularly, walking time) among the plurality of routes ( That is, a minimum time path, a shortest path) can be generated. For example, the first route generator 11 may generate a route that minimizes walking time as a route from the location of the departure point information to the location of the destination information.

제1 경로 생성부(11)에 의해 생성되는 경로는 예시적으로 도 2의 (b) 또는 도 3과 같은 형태로 사용자 단말(20)의 화면에 표시될 수 있으며, 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에 한정되는 것은 아니다.The path generated by the first path generating unit 11 may be displayed on the screen of the user terminal 20 in the form of FIG. This is only an example, and is not limited thereto.

제2 경로 생성부(12)는, 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로)에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 요청 신호에 응답하여 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성할 수 있다.The second route generator 12 is configured to receive a request signal for requesting internal route guidance for an inner movement section included in the route (reference route) generated by the first route generator 11 , when received. In response, an internal navigation route corresponding to the internal movement section may be generated.

즉, 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로)에는 내부 이동 구간이 적어도 일부 포함되어 있을 수도 있고, 포함되어 있지 않을 수도 있다.That is, the path (reference path) generated by the first path generator 11 may or may not include at least a part of the internal movement section.

이때, 제2 경로 생성부(12)는 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로)에 내부 이동 구간이 포함되어 있되, 이러한 내부 이동 구간에 대하여 길 안내를 요청(즉, 내부 길 안내)를 요청하는 요청 신호가 사용자(혹은 사용자 단말)로부터 수신된 경우, 수신된 요청 신호에 응답하여 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성할 수 있다.At this time, the second route generator 12 includes an internal movement section in the route (reference route) generated by the first route generator 11 , and requests a route guidance for this inner movement section (that is, When a request signal for requesting internal navigation) is received from the user (or user terminal), an internal navigation route corresponding to the internal movement section may be generated in response to the received request signal.

여기서, 내부 이동 구간은 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간을 의미할 수 있다. 이때, 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간이라 함은, 지하철 역사(驛舍), 지하도, 지하상가, 건물 등에 해당하는 내부의 공간(내부 공간)을 의미할 수 있다. 또한, 건물은 일예로 백화점, 병원, 마트, 쇼핑몰, 버스터미널 등을 의미할 수 있으나, 이에만 한정되는 것은 아니다.Here, the internal movement section may mean a section corresponding to the internal space of a structure provided underground and/or on the ground. In this case, the internal space of a structure provided underground and/or above the ground may mean an internal space (internal space) corresponding to a subway station, an underpass, an underground shopping mall, a building, or the like. In addition, the building may mean, for example, a department store, a hospital, a mart, a shopping mall, a bus terminal, and the like, but is not limited thereto.

본원에서 고려되는 내부 이동 구간은 바람직하게 지하에 마련되는 구조물인 지하철 역사(지하철역)에 대응하는 구간을 의미할 수 있다.The internal movement section considered herein may mean a section corresponding to a subway station (subway station), which is a structure that is preferably provided underground.

제2 경로 생성부(12)는 지하 및/또는 지상에 마련되어 있는 구조물의 층(floor)별 내부 공간의 구조(내부 구조) 및 구조물의 내부 공간에 존재하는 편의시설을 고려하여 내부 길 안내 경로를 생성할 수 있다. 이에 따르면, 제2 경로 생성부(12)는, 내부 공간의 각 층별로 이동경로의 구분이 명확하게 구분되도록 하는 경로(내부 길 아낸 경로)를 생성할 수 있다. The second path generating unit 12 generates an internal route guidance path in consideration of the structure (internal structure) of the internal space for each floor of the structure provided in the basement and/or the ground and the convenience facilities existing in the internal space of the structure. can create Accordingly, the second path generating unit 12 may generate a path (internally cut path) so that the division of the movement path is clearly divided for each floor of the internal space.

여기서, 내부 공간에 존재하는 편의시설에는 예시적으로 지하철 역 내 화장실, 에스컬레이터, 엘리베이터(elevator, 승강기), 음료수 자판기, 편의점, 물품 보관함, 상황실, 교통카드 충전소, 상점(음식점, 옷가게 등) 등이 포함될 수 있으나, 이에 한정되는 것은 아니고, 지하철역 내 다양한 편의시설이 적용될 수 있다.Here, convenience facilities existing in the interior space include, for example, toilets, escalators, elevators, beverage vending machines, convenience stores, lockers, situation rooms, transportation card charging stations, shops (restaurants, clothing stores, etc.) in subway stations. It may be included, but is not limited thereto, and various convenience facilities in the subway station may be applied.

이처럼, 제2 경로 생성부(12)는 사용자가 내부 이동 구간 내에서 목적지까지 보다 용이하게 이동할 수 있도록, 내부 이동 구간 내 구조물의 층별 내부 구조나 편의시설의 위치 등을 고려하여, 목적지로의 이동 경로를 안내하기 위한 내부 길 안내 경로를 생성할 수 있다.As such, the second route generator 12 moves to the destination in consideration of the internal structure of each floor of the structure or the location of convenience facilities in the inner movement section so that the user can more easily move to the destination within the inner movement section. An internal navigation route can be created to guide the route.

제2 경로 생성부(12)는 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신되었을 때, 수신한 요청 신호에 응답하여 내부 길 안내 경로를 생성할 수 있다. 이때, 제2 경로 생성부(12)는 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 사용자 단말(20)로부터 획득된 경우, 획득된 내부 길 관련 이미지를 요청 신호로서 인식하고, 인식된 요청 신호에 응답하여 내부 길 안내 경로를 생성할 수 있다.When a request signal for requesting internal navigation for an internal movement section is received, the second route generator 12 may generate an internal navigation route in response to the received request signal. In this case, the second route generating unit 12 recognizes the obtained internal road related image as a request signal when the internal road related image related to the internal road belonging to the internal moving section is obtained from the user terminal 20, An internal navigation route may be generated in response to the request signal.

도 6은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)에서 사용자 단말(20)로부터 획득되는 내부 길 관련 이미지의 예를 나타낸 도면이다.6 is a diagram illustrating an example of an internal road-related image obtained from the user terminal 20 in the augmented reality-based road guidance device 10 according to an embodiment of the present application.

도 6을 참조하면, 사용자가 사용자 단말(20)을 통해 특정 지하철 역사 내에 존재하는 길 안내 표지판에 관한 이미지로서 일예로 도 6과 같은 이미지를 획득하였다고 하자.Referring to FIG. 6 , it is assumed that the user acquires the image shown in FIG. 6 as an image related to a road guide sign existing in a specific subway station through the user terminal 20 .

이때, 제2 경로 생성부(12)는 사용자 단말(20)을 통해 획득된 이미지가 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로) 내 내부 이동 구간에 대하여 촬영된 이미지인지 판단할 수 있다. 즉, 제2 경로 생성부(12)는 사용자 단말(20)을 통해 획득된 이미지가, 기준 경로 내 내부 이동 구간에 속해 있는 내부 길 중 어느 하나의 영역을 촬영함으로써 획득된 이미지(즉, 내부 이동 구간에 속한 내부 길을 촬영한 이미지)인지 판단할 수 있다.At this time, the second path generating unit 12 determines whether the image acquired through the user terminal 20 is an image captured for an internal movement section within the path (reference path) generated by the first path generating unit 11 . can do. That is, the second path generating unit 12 uses the image obtained through the user terminal 20 to capture an image (ie, internal movement) obtained by photographing any one of the inner roads belonging to the inner movement section within the reference route. It is possible to determine whether it is an image taken of an internal road belonging to the section).

판단 결과, 사용자 단말(20)을 통해 획득된 이미지가 내부 이동 구간에 속한 내부 길을 촬영함으로써 획득한 이미지인 경우, 제2 경로 생성부(12)는 이처럼 사용자 단말(20)로부터 획득된 이미지를 기준 경로 내 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지인 것으로 식별할 수 있다. As a result of the determination, when the image obtained through the user terminal 20 is an image obtained by photographing an inner road belonging to the inner movement section, the second route generating unit 12 generates the image obtained from the user terminal 20 as described above. It may be identified as an image related to an internal road related to an internal road belonging to an internal movement section within the reference route.

여기서, 제2 경로 생성부(12)에서 사용자 단말(20)로부터 획득된 이미지가 내부 길 관련 이미지인지 식별하기 위해, 일예로 본 장치(10)는 지하 및/또는 지상에 마련되어 있는 구조물(모든 구조물)의 내부 공간에 대한 복수의 이미지(즉, 해당 내부 공간에 속한 내부 길을 촬영한 이미지)를 기 저장해 두는 데이터베이스부(미도시)를 포함할 수 있다.Here, in order to identify whether the image acquired from the user terminal 20 in the second path generator 12 is an image related to an internal road, the device 10, for example, is a structure (all structures) provided underground and/or on the ground. ) may include a database unit (not shown) that pre-stores a plurality of images of the internal space (that is, an image obtained by photographing an internal road belonging to the corresponding internal space).

데이터베이스부(미도시)에는 이러한 복수의 이미지들 각각이, 해당 이미지를 촬영할 때의 위치 정보(즉, 해당 이미지의 촬영시 사용자 단말의 위치 정보)와 해당 이미지를 촬영할 때의 방향 정보와 함께 연계하여 저장될 수 있다. 여기서, 방향 정보라 함은 방위각 정보를 의미할 수 있다. 또한, 위치 정보에는 GPS 정보, 고도 정보 등이 포함될 수 있다.In the database unit (not shown), each of these plurality of images is linked together with location information when the image is taken (that is, location information of the user terminal when the image is taken) and direction information when the image is taken. can be saved. Here, the direction information may mean azimuth information. In addition, the location information may include GPS information, altitude information, and the like.

제2 경로 생성부(12)는 사용자 단말(20)로부터 획득된 이미지와 데이터베이스부(미도시)에 기 저장된 복수의 이미지들 간의 비교(매칭)를 통해, 사용자 단말(20)로부터 획득된 이미지가 기준 경로 내 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지인지 식별할 수 있다.The second path generating unit 12 compares (matching) the image obtained from the user terminal 20 with a plurality of images previously stored in the database unit (not shown), and the image obtained from the user terminal 20 is It may be identified whether the image is related to the internal road related to the internal road belonging to the internal movement section within the reference route.

이후, 사용자 단말(20)로부터 획득된 이미지가 내부 길 관련 이미지인 것으로 식별되면, 제2 경로 생성부(12)는 식별된 내부 길 관련 이미지를 요청 신호로 인식하여, 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성할 수 있다.Thereafter, when it is identified that the image obtained from the user terminal 20 is an internal road-related image, the second path generator 12 recognizes the identified internal road-related image as a request signal, and an internal path corresponding to the internal movement section You can create a navigation route.

예시적으로, 사용자가 출발지로부터 목적지까지의 경로를 안내받기 위해 출발지와 목적지에 관한 정보를 사용자 단말(20)을 통해 입력한 경우, 제1 경로 생성부(11)는 출발지로부터 목적지까지의 경로(기준 경로)를 생성할 수 있다. 이때, 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로)에 관한 정보는 일예로 사용자 단말(20)의 화면 상에 표시될 수 있다.Illustratively, when the user inputs information about a departure point and a destination through the user terminal 20 in order to receive a route guidance from the departure point to the destination, the first route generating unit 11 may display a route ( reference path) can be created. In this case, information about the path (reference path) generated by the first path generating unit 11 may be displayed on the screen of the user terminal 20 , for example.

이후, 사용자는 제1 경로 생성부(11)를 통해 생성된 경로(기준 경로)를 기반으로(참고하여) 목적지로의 이동을 수행할 수 있다. 이때, 경로(기준 경로) 내에 내부 이동 구간으로서 일예로 다수의 출입구와 백화점, 버스 터미널 등이 연결되어 있고 여러층으로 이루어져 있는 다소 복잡하고 혼잡한 지하철 역사(이하 대상 지하철 역사라 함)가 포함되어 있다고 하자. 즉, 사용자가 목적지까지 이동을 수행함에 있어서 이러한 대상 지하철 역사를 경유하여 지나가야 한다고 하자.Thereafter, the user may move to a destination based on (with reference to) a route (reference route) generated through the first route generator 11 . At this time, as an internal movement section within the route (reference route), a rather complicated and congested subway station (hereinafter referred to as the target subway station) is included, for example, a multi-story, connected multiple entrances, department stores, and bus terminals. let's say there is That is, it is assumed that the user must pass through such a target subway station when moving to a destination.

이때, 대상 지하철 역사에 해당하는 공간이 광범위하고, 앞서 말한 바와 같이 다수의 출입구와 백화점, 버스 터미널 등이 연결되고 여러 층으로 이루어져 있는 경우에는, 사용자가 일예로 도 6과 같은 길 안내 표지판만을 보고 목적지까지 이동함에 있어서 길을 잃거나 헤매는 경우가 발생할 수 있다.At this time, when the space corresponding to the target subway station is wide, and as mentioned above, a number of entrances, department stores, bus terminals, etc. are connected and consist of multiple floors, the user sees only the road guide sign as shown in FIG. 6 as an example You may get lost or get lost while traveling to your destination.

이러한 경우, 사용자는 제1 경로 생성부(11)를 통해 생성된 경로(기준 경로)를 기반으로(참고하여) 목적지로의 이동을 수행함에 있어서, 기준 경로 중 내부 이동 구간에 대한 내부 길 안내를 받고자 하는 경우, 일예로 내부 길 안내를 제공받고자 하는 해당 내부 이동 구간에 진입하거나 해당 내부 이동 구간에 위치해 있을 때, 해당 내부 이동 구간에 속해 있는 길 안내 표지판에 관한 이미지(예시적으로, 도 1이나 도 6에 도시된 것과 같은 이미지)를 사용자 단말(20)을 이용해 촬영할 수 있다.In this case, when the user moves to the destination based on (refer to) the route (reference route) generated through the first route generator 11 , the user receives internal route guidance for the internal movement section of the reference route. If you want to receive, for example, when you enter the corresponding internal movement section to be provided with internal route guidance or are located in the corresponding internal movement section, an image (eg, in FIG. 1 or An image as shown in FIG. 6 ) may be photographed using the user terminal 20 .

제2 경로 생성부(12)는 사용자 단말(20)을 통해 획득된 이미지와 데이터베이스부(미도시)에 기 저장된 이미지들 간의 비교(매칭)를 통해, 획득된 이미지가 해당 내부 이동 구간과 관련된 내부 길 관련 이미지인 것으로 식별된 경우, 이를 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호인 것으로 인식할 수 있다.The second path generating unit 12 compares (matching) the images acquired through the user terminal 20 and the images previously stored in the database unit (not shown), so that the acquired image is internally related to the corresponding internal movement section. When it is identified as a road-related image, it may be recognized as a request signal for requesting an internal route guidance for an internal movement section.

제2 경로 생성부(12)는 요청 신호가 수신된 경우(즉, 내부 길 관련 이미지가 사용자 단말로부터 획득된 경우), 요청 신호에 응답하여 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하고, 생성된 내부 길 안내 경로를 일예로 사용자 단말(20)의 화면에 표시되도록 제공할 수 있다.When the request signal is received (that is, when an image related to an internal road is obtained from the user terminal), the second route generator 12 generates an internal route guidance route corresponding to the internal movement section in response to the request signal, The generated internal navigation route may be provided to be displayed on the screen of the user terminal 20 as an example.

제2 경로 생성부(12)는 내부 길 관련 이미지가 획득된 경우, 내부 길 관련 이미지에 대응하는 위치로부터 내부 이동 구간에 속하는 출구들 중 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있다.When the internal road-related image is obtained, the second route generating unit 12 calculates a path from the position corresponding to the internal road-related image to the position of the nearest exit from the destination position among exits belonging to the internal movement section. Can be created as an internal navigation route.

사용자로부터 입력받은 목적지의 위치가 지상에 존재하는 건물의 위치인 경우, 제2 경로 생성부(12)는 내부 이동 구간에 속하는 출구들(즉, 지하철 역 내 출구들) 중 목적지의 위치로부터 가장 가까이 위치해 있는 출구의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있는데, 이에만 한정되는 것은 아니다.When the location of the destination input from the user is the location of a building existing on the ground, the second route generator 12 is the closest to the location of the destination among the exits (ie, exits within the subway station) belonging to the internal movement section. A route to the location of the located exit may be generated as an internal navigation route, but is not limited thereto.

다른 일예로, 사용자로부터 입력받은 목적지의 위치가 지상에 존재하는 건물의 위치인 경우, 제2 경로 생성부(12)는 내부 이동 구간(즉, 지하철 역 내 내부 공간)에 속한 복수의 개찰구 중 목적지의 위치로부터 가장 가까이 위치해 있는 개찰구의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있다.As another example, when the location of the destination input from the user is the location of a building on the ground, the second route generating unit 12 is a destination among a plurality of ticket gates belonging to an internal movement section (ie, an internal space within a subway station). A route from the location of the wicket to the location of the nearest ticket gate can be created as an internal navigation route.

예시적으로, 목적지의 위치가 지상에 존재하는 지상 건물에 해당하는 위치인 경우, 제2 경로 생성부(12)는 내부 길 관련 이미지에 대응하는 위치로부터 내부 이동 구간에 속하는 출구들 중 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있다. 여기서, 내부 길 관련 이미지에 대응하는 위치는, 내부 길 관련 이미지를 획득한 사용자 단말(20)의 위치로서, 이는 내부 길 관련 이미지를 촬영/획득한 사용자의 현 위치를 의미할 수 있다.Exemplarily, when the location of the destination is a location corresponding to a ground building existing on the ground, the second route generating unit 12 is the location of the destination among the exits belonging to the inner movement section from the location corresponding to the inner road related image. A route from the to the location of the nearest exit can be created as an internal navigation route. Here, the location corresponding to the internal road-related image is the location of the user terminal 20 that has acquired the internal road-related image, which may mean the current location of the user who has captured/obtained the internal road-related image.

한편, 목적지의 위치가 일예로 내부 이동 구간에 속해 있는 복수의 건물들 중 어느 하나인 지하 건물(달리 표현해, 내부 이동 구간인 지하상가에 속해 있는 복수의 상가들 중 어느 하나의 상가)에 해당하는 위치인 경우, 제2 경로 생성부(12)는 내부 길 관련 이미지에 대응하는 위치로부터 내부 이동 구간 내 목적지의 위치(즉, 내부 이동 구간 내 어느 하나의 지하 건물에 해당하는 위치)까지의 경로를 내부 길 안내 경로로 생성할 수 있다.On the other hand, the location of the destination corresponds to, for example, an underground building that is any one of a plurality of buildings belonging to the inner movement section (in other words, any one of a plurality of shopping malls belonging to the underground shopping mall belonging to the inner movement section) In the case of a location, the second route generating unit 12 calculates a path from a location corresponding to the internal road-related image to the location of the destination within the internal movement section (that is, a location corresponding to any one underground building in the internal movement section) Can be created as an internal navigation route.

이때, 내부 길 관련 이미지에 대응하는 위치로부터 목적지 정보의 위치까지의 경로는 복수개가 존재할 수 있는데, 제2 경로 생성부(12)는 이러한 복수개의 경로 중 이동 시간(특히, 도보 이동 시간)이 최소가 되는 경로(즉, 최소 시간 경로, 최단 경로)를 내부 길 안내 경로로서 생성할 수 있다. 즉, 제2 경로 생성부(12)는 사용자 단말(20)로부터 획득한 내부 길 관련 이미지에 대응하는 위치로부터 목적지 정보의 위치까지의 경로로서, 도보 이동 시간이 최소가 되는 경로를 내부 길 안내 경로로서 생성할 수 있다.At this time, there may be a plurality of routes from the location corresponding to the internal road-related image to the location of the destination information. A path (ie, a minimum time path, a shortest path) may be generated as an internal navigation path. That is, the second route generating unit 12 is a route from the location corresponding to the internal road-related image acquired from the user terminal 20 to the location of the destination information, and sets the route with the minimum walking time as the internal route guidance route. can be created as

제어부(13)는 제2 경로 생성부(12)에서 생성된 내부 길 안내 경로를 기반으로, 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자가 소지한 사용자 단말(20)로 제공할 수 있다. 이때, 제어부(13)는 사용자의 위치 정보(사용자 위치 정보)를 고려하여 내부 길 안내 정보를 사용자 단말(20)로 제공할 수 있다. 또한, 내부 길 안내 정보는 제2 경로 생성부(12)에서 생성된 내부 길 안내 경로에 관한 정보 및 사용자의 이동에 따라 변화되는 사용자의 위치 정보를 고려한 이동 안내 정보를 포함할 수 있다.The controller 13 generates internal navigation information for guiding the movement of the user on the internal route guidance route based on the internal route guidance route generated by the second route generator 12, and a user terminal possessed by the user. (20) can be provided. In this case, the controller 13 may provide the internal route guidance information to the user terminal 20 in consideration of the user's location information (user location information). In addition, the internal guidance information may include movement guidance information in consideration of the information on the internal guidance route generated by the second route generator 12 and the location information of the user that is changed according to the movement of the user.

여기서, 사용자의 위치 정보는 사용자 단말(20)에 포함된 위치 획득 센서를 통해 획득되는 위치 정보로서, 예시적으로 GPS 정보 등일 수 있으나, 이에 한정되는 것은 아니다. 다른 일예로, 사용자의 위치 정보는 비주얼 로컬라이제이션 (Visual Localization) 기술을 이용함으로써, 일예로 GPS 가 통하지 않는 지하나 실내 등에서도 한 장의 이미지(사진)를 통해 사용자의 위치 정보를 획득할 수 있다.Here, the user's location information is location information acquired through a location acquisition sensor included in the user terminal 20, and may be, for example, GPS information, but is not limited thereto. As another example, the user's location information can be obtained through a single image (photo) even in the basement or indoors where GPS does not pass, for example, by using a visual localization technology.

제어부(13)는 내부 길 안내 정보를 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공할 수 있다. 즉, 제어부(13)는 내부 길 안내 정보를 증강현실에 기반하여 제공할 수 있다.The controller 13 may provide the internal route guidance information based on augmented reality for the internal road belonging to the internal movement section. That is, the controller 13 may provide the internal route guidance information based on augmented reality.

제어부(13)는 내부 이동 구간에 대한 내부 길 안내 정보를 화면 표시 정보(직진표시 화살표 표시, 유턴 표시, 잔여 거리 표시 등등, 표시 내용), 사운드 정보 및 진동 정보 중 적어도 하나의 정보 유형으로 생성하여 사용자 단말(20)로 제공할 수 있다.The control unit 13 generates the internal route guidance information for the internal movement section as at least one information type of screen display information (direct display arrow display, U-turn display, remaining distance display, etc., display content), sound information, and vibration information. It may be provided to the user terminal 20 .

제어부(13)는 일예로, 사용자 단말(20)로부터 획득된 내부 길 관련 이미지 내에 복수 개의 방향 지시 정보가 포함되어 있는 경우, 복수 개의 방향 지시 정보 중 내부 길 안내 경로에 대응하는 대응 방향 지시 정보의 아이콘이 내부 길 안내 경로에 대응하지 않는 미대응 방향 지시 정보의 아이콘 보다 인식 또는 식별이 용이한 형태로 표시되도록, 사용자 단말(20)에 제공되는 화면 표시 정보를 제어할 수 있다.For example, when a plurality of direction indication information is included in the internal road-related image acquired from the user terminal 20 , the control unit 13 may control the corresponding direction indication information corresponding to the internal road guide path among the plurality of direction indication information. The screen display information provided to the user terminal 20 may be controlled so that the icon is displayed in a form that is easier to recognize or identify than an icon of non-responsive direction indication information that does not correspond to the internal navigation path.

이때, 아이콘을 인식 또는 식별이 용이한 형태로 표시한다는 것은, 시각적으로 강조된 형태, 크기가 확장된 형태, 청각적인 효과를 수반하는 형태 및 동적인 애니메이션 형태 중 적어도 하나로 표시하는 것을 의미할 수 있다. 이는 도 7을 참조하여 보다 쉽게 이해될 수 있다.In this case, displaying the icon in a form that is easy to recognize or identify may mean displaying at least one of a visually emphasized form, an expanded form, a form accompanying an auditory effect, and a dynamic animation form. This can be more easily understood with reference to FIG. 7 .

도 7은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)에서 화면 표시 정보의 제어 예를 나타낸 도면이다.7 is a diagram illustrating an example of controlling screen display information in the augmented reality-based road guidance device 10 according to an embodiment of the present application.

도 7을 참조하면, 일예로 사용자가 '역삼역'에 해당하는 지하철 역사 내에 위치하고, 지하철을 이용해 '건대입구역'까지 이동한다고 하자. Referring to FIG. 7 , as an example, it is assumed that a user is located in a subway station corresponding to 'Yeoksam Station' and moves to 'Kon University Station' by using the subway.

예시적으로, 사용자는 '역삼역' 내에서 '건대입구역'까지의 내부 길 안내를 요청받기 위해, '역삼역' 내에서 사용자 단말(20)을 이용해 내부 길 관련 이미지로서 도 7의 (a)와 같은 이미지를 촬영할 수 있다. 이때, 제2 경로 생성부(12)는 사용자의 현 위치로부터 건대입구역까지의 길(경로)을 나타내는 내부 길 안내 경로를 생성할 수 있다. Illustratively, the user uses the user terminal 20 in 'Yeoksam Station' to receive a request for guidance on the internal route from 'Yeoksam Station' to 'Kon University Station' in FIG. 7 (a) and You can shoot the same image. In this case, the second route generator 12 may generate an internal route guidance route indicating a route (path) from the user's current location to the Konkuk University Station.

한편, 획득된 내부 길 관련 이미지 내에 복수 개의 방향 지시 정보로서 '교대/사당 방향'을 안내하는 제1 방향 지시 정보 및 '선릉/잠실 방향'을 안내하는 제2 방향 지시 정보가 포함되어 있다고 하자.On the other hand, it is assumed that the first direction indication information for guiding the 'Gyodae/Sadang direction' and the second direction indication information for guiding the 'Seolleung/Jamsil direction' are included as a plurality of direction indication information in the obtained interior road-related image.

이때, 사용자가 가고자 하는 목적지가 '건대입구역'이므로, 사용자는 획득된 내부 길 관련 이미지에 포함된 복수 개의 방향 지시 정보 중 제2 방향 지시 정보를 따라 '선릉/잠실 방향'으로 이동해야 할 필요가 있다.At this time, since the destination the user wants to go to is 'Konneung University Station', the user needs to move in the 'Seolleung/Jamsil direction' according to the second direction indication information among a plurality of direction indication information included in the acquired interior road related image. there is

제어부(13)는, 제2 경로 생성부(12)에 의해 생성된 내부 길 안내 경로에 기초하여, 내부 길 관련 이미지에 포함된 복수 개의 방향 지시 정보 중 제2 방향 지시 정보를 내부 길 안내 경로에 대응하는 대응 방향 지시 정보인 것으로 인식하는 한편, 복수 개의 방향 지시 정보 중 제1 방향 지시 정보를 내부 길 안내 경로에 대응하지 않는 미대응 방향 지시 정보인 것으로 인식할 수 있다.The control unit 13, based on the internal path generated by the second path generating unit 12, sets the second direction indication information among a plurality of direction indication information included in the internal road related image to the internal way guide path. While recognition as corresponding corresponding direction indication information, the first direction indication information among a plurality of direction indication information may be recognized as non-corresponding direction indication information that does not correspond to an internal navigation route.

이에 따르면, 대응 방향 지시 정보라 함은 복수 개의 방향 지시 정보(복수 개의 방향을 가리키는 정보) 중 사용자가 가야하는 방향과 일치하는 방향을 가리키는 정보(방향 지시 정보)를 의미할 수 있다.Accordingly, the corresponding direction indication information may refer to information (direction indication information) indicating a direction coincident with the direction to which the user should go among a plurality of direction indication information (information indicating a plurality of directions).

이처럼, 복수 개의 방향 지시 정보 중 제2 방향 지시 정보를 대응 방향 지시 정보로 인식한 이후, 제어부(13)는 내부 길 안내 경로를 기반으로 생성된 내부 길 안내 정보를 화면 표시 정보로서 일예로 도 7의 (b)와 같이 사용자 단말(20)의 화면에 제공할 수 있다.In this way, after recognizing the second direction indication information among the plurality of direction indication information as the corresponding direction indication information, the control unit 13 uses the internal way guide information generated based on the inner way guide route as screen display information as an example in FIG. 7 . It can be provided on the screen of the user terminal 20 as shown in (b).

즉, 제어부(13)는 도 7의 (b)에서 A 부분에 도시된 바와 같이, 복수 개의 방향 지시 정보 중 대응 방향 지시 정보의 아이콘이 미대응 방향 지시 정보의 아이콘 보다 인식 또는 식별이 용이한 형태로 표시되도록 화면 표시 정보를 제공할 수 있다.That is, as shown in part A of FIG. 7B , the control unit 13 has a form in which the icon of the corresponding direction indication information among the plurality of direction indication information is easier to recognize or identify than the icon of the non-corresponding direction indication information. It is possible to provide screen display information to be displayed as .

이러한 대응 방향 지시 정보에 대한 화면 표시 정보의 제어와 더불어, 제어부(13)는 일예로 사용자 단말(20)의 화면에 표시되는 내부 길 안내 정보 중 이동 안내 정보(사용자의 이동에 따라 변화되는 사용자의 위치 정보를 고려한 이동 안내 정보)로서 도 7의 (b)에서 B부분에 도시된 바와 같이, ['건대입구역'으로 가시려면 100m 직진 후 우회전하여 '선릉/잠실 방향' 열차를 타주세요]와 같은 문구가 사용자 단말(20)의 화면에 표시되도록, 화면 표시 정보를 제어할 수 있다.In addition to the control of the screen display information for the corresponding direction indication information, the control unit 13 may control movement guide information (the user's change according to the movement of the user) among the internal road guide information displayed on the screen of the user terminal 20 , for example. As shown in part B in Fig. 7(b), as shown in part B of Fig. 7(b), [go straight 100m and turn right to go to 'Konik University Station'] and take the 'Seolleung/Jamsil direction' train] The screen display information may be controlled so that the same phrase is displayed on the screen of the user terminal 20 .

이처럼, 본 장치(10)는 내부 이동 구간에 대한 내부 길 안내 정보를 증강현실 기반으로 제공함에 있어서, 길 안내 표지판에 포함된 복수 개의 방향 지시 정보 중 사용자가 가고자 하는 방향과 매칭되는 방향 지시 정보가 미대응 방향 지시 정보 대비 인식 또는 식별이 용이한 형태로 표시되도록 사용자 단말(20)의 화면을 제어할 수 있다. 이러한 본 장치(10)는 사용자가 화면에 표시된 정보를 토대로 본인이 가야할 방향을 보다 직관적으로 인지할 수 있도록 제공하며, 이를 통해 사용자가 목적지까지 이동하는 데에 있어서 길을 헤매지 않고 신속히 이동 가능하도록 길 이동을 안내(가이드, 제공)할 수 있다.In this way, when the device 10 provides the internal road guidance information for the internal movement section based on augmented reality, the direction indication information matching the direction the user wants to go among the plurality of direction indication information included in the road guide sign is displayed. The screen of the user terminal 20 may be controlled to be displayed in a form that is easy to recognize or identify compared to the non-corresponding direction indication information. This device 10 provides the user to more intuitively recognize the direction he or she should go based on the information displayed on the screen, so that the user can move quickly without getting lost in moving to the destination. You can guide (guide, provide) the movement.

또한, 제어부(13)는 사용자 단말 내 위치 획득 센서(일예로, GPS 센서 등)로부터 획득되는 실시간 사용자 위치 정보를 고려하여, 사용자가 이동 방향을 바꾸어야 하는 방향 전환 지점까지의 잔여 거리에 대응하여 화면 표시 정보의 내용, 사운드 정보의 내용 및 진동 정보의 진동 유형을 변경할 수 있다.In addition, the control unit 13 considers real-time user location information obtained from a location acquisition sensor (eg, a GPS sensor, etc.) in the user terminal, and corresponds to the remaining distance to the direction change point to which the user needs to change the moving direction on the screen The content of the display information, the content of the sound information, and the vibration type of the vibration information can be changed.

이때, 제어부(13)는 사운드 정보의 경우 사용자에게 착용된 웨어러블 사운드 입출력 유닛 또는 사용자 단말(20)의 스피커부를 통해 제공하고, 진동 정보의 경우 사용자에게 착용된 웨어러블 진동 출력 유닛 또는 사용자 단말(200을 통해 제공할 수 있다.At this time, the control unit 13 provides sound information through the speaker unit of the wearable sound input/output unit or user terminal 20 worn by the user in the case of sound information, and in the case of vibration information, the wearable vibration output unit or the user terminal 200 worn by the user can be provided through

일예로, 제어부(13)는 내부 길 안내 정보를 사용자가 소리로 인지할 수 있도록(내부 길 안내 정보가 사운드 출력으로 제공될 수 있도록) 사운드 정보로 생성하여 제공할 수 있다. 또한, 제어부(13)는 내부 길 안내 정보를 사용자가 진동으로 인지할 수 있도록(내부 길 안내 정보가 진동 출력으로 제공될 수 있도록) 진동 정보로 생성하여 제공할 수 있다.For example, the controller 13 may generate and provide sound information so that the user can recognize the internal way guide information as sound (so that the inner way guide information can be provided as a sound output). Also, the controller 13 may generate and provide the vibration information so that the user can recognize the internal route guidance information as vibration (so that the internal route guidance information can be provided as vibration output).

이때, 제어부(13)에 의해 생성된 사운드 정보는 사용자에게 착용된 웨어러블 사운드 입출력 유닛(미도시) 또는 사용자 단말(20)의 스피커부를 통해 제공될 수 있다. 또한 제어부(13)에 의해 생성된 진동 정보는 사용자에게 착용된 웨어러블 진동 출력 유닛(미도시) 또는 사용자 단말(20)에 구비된 진동 유닛을 통해 제공될 수 있다. 달리 표현하여, 제어부(13)는 생성된 사운드 정보가 사용자에게 제공될 수 있도록 웨어러블 사운드 입출력 유닛 또는 사용자 단말(20)의 스피커부를 제어할 수 있다. 또한, 제어부(13)는 생성된 진동 정보가 사용자에게 제공될 수 있도록 웨어러블 진동 출력 유닛 또는 사용자 단말(20)의 진동 유닛을 제어할 수 있다.In this case, the sound information generated by the controller 13 may be provided through a wearable sound input/output unit (not shown) worn by the user or a speaker unit of the user terminal 20 . Also, the vibration information generated by the controller 13 may be provided through a wearable vibration output unit (not shown) worn by the user or a vibration unit provided in the user terminal 20 . In other words, the controller 13 may control the wearable sound input/output unit or the speaker unit of the user terminal 20 so that the generated sound information can be provided to the user. Also, the controller 13 may control the wearable vibration output unit or the vibration unit of the user terminal 20 so that the generated vibration information may be provided to the user.

다만 이에만 한정되는 것은 아니고, 본 장치(10)에 자체적으로 사운드 입출력 유닛 및 진동 출력 유닛이 포함된 경우, 생성된 사운드 정보는 본 장치(10)의 자체 사운드 입출력 유닛을 통해 제공되고, 생성된 진동 정보는 본 장치(10)의 자체 진동 출력 유닛을 통해 제공될 수 있다.However, the present invention is not limited thereto, and when the device 10 itself includes a sound input/output unit and a vibration output unit, the generated sound information is provided through the device 10's own sound input/output unit, and generated Vibration information may be provided through a self-vibration output unit of the device 10 .

본 장치(10)는 사용자 단말뿐만 아니라 웨어러블 사운드 입출력 유닛 및 웨어러블 진동 출력 유닛과 네트워크를 통해 연결될 수 있다. 이때, 두 유닛(즉, 웨어러블 사운드 입출력 유닛과 웨어러블 진동 출력 유닛) 및 본 장치(10) 간에 연결되는 네트워크는 일예로 무선통신 네트워크일 수 있으나, 이에 한정되는 것은 아니다.The device 10 may be connected to the user terminal as well as the wearable sound input/output unit and the wearable vibration output unit through a network. In this case, the network connected between the two units (that is, the wearable sound input/output unit and the wearable vibration output unit) and the present device 10 may be, for example, a wireless communication network, but is not limited thereto.

웨어러블 사운드 입출력 유닛은 예시적으로 사용자의 머리, 목 등에 착용 가능하고, 음성 입/출력이 가능한 헤드셋, 이어폰 등일 수 있다. 일예로, 웨어러블 사운드 입출력 유닛은 목에 착용되는 경우 목걸이형 헤드셋으로 달리 표현될 수 있다. 일예로 웨어러블 사운드 입출력 유닛은 헤드폰 장치 등으로 달리 표현될 수 있다.The wearable sound input/output unit may be, for example, a headset, earphones, etc. that can be worn on the user's head and neck, and can input/output voice. For example, when the wearable sound input/output unit is worn on the neck, it may be expressed differently as a necklace-type headset. For example, the wearable sound input/output unit may be expressed differently as a headphone device or the like.

일예로, 사용자가 시각 정보가 차단된 시각장애인인 경우 귀를 통해 얻을 수 있는 소리 정보가 소정 이상 차단되지 않도록, 웨어러블 사운드 입출력 유닛은 사용자의 귀 주변에 착용되는 골전도 방식의 헤드셋 또는 이어폰임이 바람직할 수 있다.For example, if the user is blind with visual information blocked, the wearable sound input/output unit is preferably a bone conduction headset or earphone worn around the user's ear so that sound information obtainable through the ear is not blocked more than a predetermined amount can do.

웨어러블 사운드 입출력 유닛은 일예로 사용자가 말한 음성 정보(일예로, 출발지 정보 및 목적지 정보에 관한 발화 음성 정보)를 입력받을 수 있으며, 이를 본 장치(10)로 제공할 수 있다. 본 장치(10)의 제1 경로 생성부(11)는 웨어러블 사운드 입출력 유닛으로부터 제공받은 음성 정보의 음성 분석을 기초로, 출발지 정보와 목적지 정보를 인식하고, 인식된 정보에 기초하여 경로(기준 경로)를 생성할 수 있다. 또한, 웨어러블 사운드 입출력 유닛은 제어부(13)에 의해 생성된 사운드 정보를 출력(표출)할 수 있다.The wearable sound input/output unit may receive, for example, voice information spoken by the user (eg, utterance voice information related to source information and destination information), and may provide it to the device 10 . The first path generating unit 11 of the device 10 recognizes the source information and the destination information based on the voice analysis of the voice information provided from the wearable sound input/output unit, and based on the recognized information, the path (reference path) ) can be created. Also, the wearable sound input/output unit may output (express) sound information generated by the control unit 13 .

제어부(13)는, 사용자의 실시간 위치 정보 및 내부 길 안내 정보(특히, 내부 길 안내 경로)를 기초로, 사용자가 이동 방향을 바꾸어야 하는 방향 전환 지점까지의 잔여 거리에 대응하여 진동 정보의 진동 유형 또는 사운드 정보의 내용을 변경할 수 있다. 이때, 진동 유형은 진동 세기 및 진동 패턴 중 적어도 하나를 포함할 수 있다.The control unit 13, based on the user's real-time location information and the internal navigation information (particularly, the internal road guidance route), corresponds to the remaining distance to the direction change point to which the user needs to change the moving direction, the vibration type of the vibration information Alternatively, the content of the sound information may be changed. In this case, the vibration type may include at least one of a vibration intensity and a vibration pattern.

제어부(13)는 전방 이동, 후방 이동, 좌측 이동, 우측 이동 등 이동 방향에 따라 진동 세기를 달리 하거나, 진동 패턴을 달리하여 진동 정보를 생성할 수 있다. 다른 예로, 제어부(13)는 1시 방향으로 이동, 2시 방향으로 이동, 3시 방향으로 이동 등 이동 방향에 따라 진동 세기가 달리 되거나 진동 패턴이 달리 되도록 진동 정보를 생성할 수 있다.The controller 13 may generate vibration information by varying the intensity of vibration according to a movement direction, such as forward movement, backward movement, left movement, or right movement, or by changing a vibration pattern. As another example, the controller 13 may generate the vibration information so that the vibration intensity or the vibration pattern is different depending on the movement direction, such as moving in the 1 o'clock direction, moving in the 2 o'clock direction, or moving in the 3 o'clock direction.

예시적으로, 내부 길 안내 정보(특히, 내부 길 안내 경로)가 현재 사용자 위치 정보로부터 300m 직진한 이후 우회전 하는 경로를 따르는 경우, 제어부(13)는 '300m 직진해야 합니다'라는 사운드 정보를 웨어러블 사운드 입출력 유닛(또는 스피커부)으로 제공할 수 있으며, 이를 통해 웨어러블 사운드 입출력 유닛은 사운드 정보를 출력할 수 있다. 이때, 제어부(13)는 사용자가 이동을 바꾸어야 하는 방향 전환 지점(우회전 해야 하는 지점)까지의 잔여 거리에 대응하여 사운드 정보의 내용을 변경하고, 변경된 사운드 정보를 웨어러블 사운드 입출력 유닛으로 제공할 수 있다.For example, when the internal navigation information (particularly, the internal navigation route) follows a path turning right after going straight 300 m from the current user location information, the control unit 13 transmits the sound information 'must go straight 300 m' to the wearable sound It may be provided to an input/output unit (or a speaker unit), through which the wearable sound input/output unit may output sound information. In this case, the control unit 13 may change the content of the sound information in response to the remaining distance to the direction change point (the point where the user needs to turn right) to change the movement, and provide the changed sound information to the wearable sound input/output unit. .

즉, '300m 직진해야 합니다'라는 사운드 정보에 기초하여 사용자가 이동함에 따라 방향 전환 지점까지의 잔여 거리는 점차 줄어들 수 있다. 이때, 제어부(13)는 잔여 거리에 대응하여(잔여 거리를 고려하여) 미리 설정된 거리 마다 사운드 정보가 변경되도록 제어할 수 있다. 예를 들어, 제어부(13)는 잔여 거리가 100m 이하로 남은 시점부터 10m 간격 마다 사운드 정보가 변경되도록 사운드 정보를 생성하여 웨어러블 사운드 입출력 유닛으로 제공할 수 있다.That is, as the user moves based on the sound information 'You must go straight 300m', the remaining distance to the turning point may gradually decrease. In this case, the controller 13 may control the sound information to be changed for each preset distance corresponding to the remaining distance (in consideration of the remaining distance). For example, the controller 13 may generate sound information so that the sound information is changed at intervals of 10 m from a point in time when the remaining distance is less than or equal to 100 m, and provide the generated sound information to the wearable sound input/output unit.

구체적으로, 제어부(13)는 방향 전환 지점까지의 잔여 거리가 100m 이하로 남은 시점에서 '100m 직진 후 우회전해야 합니다'라는 사운드 정보가 웨어러블 사운드 입출력 유닛을 통해 사용자에게 제공될 수 있도록 사운드 정보를 변경할 수 있다. 마찬가지로, 제어부(13)는 90m 이하로 남은 시점에서는 '90m 직진 후 우회전해야 합니다'라는 사운드 정보가 제공되도록 사운드 정보를 변경하고, 80m 이하로 남은 시점에서는 '80m 직진 후 우회전해야 합니다'라는 사운드 정보가 제공되도록 사운드 정보를 변경할 수 있다. 일예로, 제어부(13)는 잔여 거리가 10m 이하로 남은 시점에서는 1m 거리 마다 사운드 정보가 변경되어 제공되도록 사운드 정보를 생성할 수 있다.Specifically, the control unit 13 changes the sound information so that the sound information 'You must turn right after going straight for 100m' is provided to the user through the wearable sound input/output unit when the remaining distance to the direction change point is less than 100m. can Similarly, the control unit 13 changes the sound information so that the sound information 'must go straight after 90m' is provided at the time remaining below 90m, and sound information 'must turn right after going straight after 80m' at the time remaining below 80m. You can change the sound information to provide For example, when the remaining distance is less than 10 m, the controller 13 may generate sound information so that the sound information is changed and provided for every 1 m distance.

다른 예로, 내부 길 안내 정보(특히, 내부 길 안내 경로)가 현재 사용자 위치 정보로부터 300m 직진한 이후 우회전 하는 경로를 따르는 경우, 제어부(13)는 10 단계의 진동 세기 중 가장 약한 제1 진동 세기를 갖는 진동 정보를 생성하여 웨어러블 진동 출력 유닛으로 제공할 수 있다. 이를 통해, 웨어러블 진동 출력 유닛은 제어부(13)로부터 제공받은 진동 정보를 표출시켜 사용자에게 제공할 수 있다.As another example, when the internal guidance information (particularly, the internal guidance route) follows a path turning right after going straight 300 m from the current user location information, the control unit 13 selects the weakest first vibration intensity among the 10 vibration strengths. The vibration information may be generated and provided to the wearable vibration output unit. Through this, the wearable vibration output unit may express the vibration information provided from the control unit 13 and provide it to the user.

이때, 제어부(13)는 사용자가 이동을 바꾸어야 하는 방향 전환 지점(우회전 해야 하는 지점)까지의 잔여 거리에 대응하여 진동 정보의 진동 유형을 변경하고, 변경된 진동 정보를 웨어러블 진동 출력 유닛으로 제공할 수 있다. 즉, 제1 진동 세기의 진동 정보에 기초하여 사용자가 이동함에 따라 방향 전환 지점까지의 잔여 거리는 점차 줄어들 수 있다. 이때, 제어부(13)는 잔여 거리에 대응하여(잔여 거리를 고려하여) 미리 설정된 거리 마다 진동 정보의 진동 유형이 변경되도록 제어할 수 있다.At this time, the controller 13 changes the vibration type of the vibration information in response to the remaining distance to the direction change point (the point where the user needs to turn right) to change the movement, and provides the changed vibration information to the wearable vibration output unit. have. That is, as the user moves based on the vibration information of the first vibration intensity, the remaining distance to the direction change point may gradually decrease. In this case, the controller 13 may control the vibration type of the vibration information to be changed for each preset distance corresponding to the remaining distance (in consideration of the remaining distance).

예를 들어, 제어부(13)는 잔여 거리가 100m 이하로 남은 시점부터 10m 간격 마다 진동 세기가 점차 강해지는 방향으로 진동 정보를 변경시키고, 변경된 진동 정보를 웨어러블 진동 출력 유닛으로 제공할 수 있다.For example, the controller 13 may change the vibration information in a direction in which the vibration intensity is gradually increased at intervals of 10 m from a time when the remaining distance remains less than or equal to 100 m, and may provide the changed vibration information to the wearable vibration output unit.

즉, 제어부(13)는 방향 전환 지점까지의 잔여 거리가 100m 이하로 남은 시점에서는 제1 진동 세기의 진동 정보를 생성하여 웨어러블 진동 출력 유닛으로 제공하고, 90m 이하로 남은 시점에서는 제1 진동 세기에서 제2 진동 세기로 변경시켜, 제2 진동 세기를 갖는 진동 정보를 웨어러블 진동 출력 유닛으로 제공할 수 있다. 또한, 제어부(13)는 80m 이하로 남은 시점에서는 제2 진동 세기에서 제3 진동 세기로 진동 세기를 변경시키고, 변경된 제3 진동 세기를 갖는 진동 정보를 생성하여 웨어러블 진동 출력 유닛을 통해 사용자에게 제공할 수 있다.That is, the control unit 13 generates vibration information of the first vibration intensity when the remaining distance to the direction change point remains less than or equal to 100 m and provides it to the wearable vibration output unit, and when the remaining distance to the direction change point is less than or equal to 90 m, at the first vibration intensity By changing to the second vibration intensity, vibration information having the second vibration intensity may be provided to the wearable vibration output unit. In addition, the controller 13 changes the vibration intensity from the second vibration intensity to the third vibration intensity at a time point remaining below 80 m, generates vibration information having the changed third vibration intensity, and provides it to the user through the wearable vibration output unit can do.

또한, 제어부(13)는 방향 전환 지점까지의 잔여 거리에 대응하여(잔여 거리를 고려하여) 진동 정보의 진동 유형으로서 진동 패턴을 변경할 수 있다. 예를 들어, 제어부(13)는 잔여 거리가 10m 이하로 남은 시점부터 1m 거리 마다 진동 패턴을 변경시킬 수 있다. Also, the controller 13 may change the vibration pattern as a vibration type of vibration information in response to the remaining distance to the direction change point (taking the remaining distance into consideration). For example, the controller 13 may change the vibration pattern every 1 m from the time when the remaining distance remains 10 m or less.

구체적으로, 잔여 거리가 10m 이하로 남은 시점에서 제어부(13)는 제1 진동 세기의 진동이 2초에 1회 진동하는 패턴(진동 패턴)으로 진동 정보를 생성하여 웨어러블 진동 출력 유닛으로 제공할 수 있다. 또한, 잔여 거리가 9m 이하로 남은 시점에서 제어부(13)는 제2 진동 세기의 진동이 1초에 1회 진동하는 패턴(진동 패턴)으로 진동 정보를 생성하여 웨어러블 진동 출력 유닛으로 제공할 수 있다. 또한, 잔여 거리가 1m 이하로 남은 시점에서 제어부(13)는 제10 진동 세기를 갖는 진동이 1초에 5회 진동하는 패턴으로 진동 정보를 생성하여 웨어러블 진동 출력 유닛을 제어할 수 있다.Specifically, when the remaining distance remains 10 m or less, the control unit 13 generates vibration information in a pattern (vibration pattern) in which the vibration of the first vibration intensity vibrates once every 2 seconds and provides it to the wearable vibration output unit. have. In addition, when the remaining distance is less than or equal to 9 m, the control unit 13 generates vibration information in a pattern (vibration pattern) in which the vibration of the second vibration intensity vibrates once per second and can be provided to the wearable vibration output unit. . Also, when the remaining distance remains less than or equal to 1 m, the controller 13 may control the wearable vibration output unit by generating vibration information in a pattern in which vibration having the tenth vibration intensity vibrates 5 times per second.

이처럼, 제어부(13)는 방향 전환 지점까지의 잔여 거리에 대응하여(잔여 거리를 고려하여) 진동 정보의 진동 유형 또는 사운드 정보의 내용을 변경시킬 수 있으며, 이를 통해 변경된 정보(즉, 진동 유형이 변경된 진동 정보와 사운드 내용이 변경된 사운드 정보)를 제공할 수 있다.As such, the control unit 13 may change the vibration type of vibration information or the content of the sound information in response to the remaining distance to the direction change point (in consideration of the remaining distance), and through this, the changed information (that is, the vibration type is Changed vibration information and sound information with changed sound content) may be provided.

또한, 제어부(13)는 내부 길 안내 정보(특히, 내부 길 안내 경로)를 기초로, 사용자가 내부 길 안내 정보에 대응하는 경로(즉, 내부 길 안내 경로)를 이탈한 것으로 판단되면 이에 대응하여 진동 정보의 진동 유형 또는 사운드 정보의 내용을 변경할 수 있다.In addition, when it is determined that the user deviated from the route corresponding to the internal route guidance information (that is, the internal route guidance route) based on the internal route guidance information (particularly, the internal route guidance route), the controller 13 responds accordingly It is possible to change the vibration type of the vibration information or the content of the sound information.

예를 들어, 제어부(13)는 내부 길 안내 경로를 기초로 하여 '100m 직진 후 우회전해야 합니다'라는 사운드 정보를 생성하여 웨어러블 사운드 입출력 유닛으로 제공할 수 있다. 이때, 사용자가 표시 경로를 이탈한 것으로 판단되는 경우, 제어부(13)는 '경로를 이탈했습니다' 또는 '경로를 이탈했습니다. 유턴하여 되돌아 가십시오'라는 사운드 정보의 내용으로 변경하고, 변경된 내용의 사운드 정보를 제공할 수 있다.For example, the control unit 13 may generate sound information 'you must turn right after going straight 100m' based on the internal route guidance path and provide it to the wearable sound input/output unit. At this time, if it is determined that the user deviated from the displayed path, the control unit 13 'deviates from the path' or 'deviates from the path. You can change it to the sound information of 'Please U-turn and go back', and provide sound information of the changed content.

다른 예로, 사용자가 내부 길 안내 경로를 이탈한 것으로 판단되는 경우, 제어부(13)는 현재의 진동 정보(예를 들어, 제1 진동 세기를 갖는 진동 정보)를 제10 진동 세기를 갖는 진동 정보로 변경하고, 변경된 진동 정보를 웨어러블 진동 출력 유닛으로 제공할 수 있다. 또는 사용자가 내부 길 안내 경로를 이탈한 것으로 판단되는 경우, 제어부(13)는 1초에 제1 진동 세기로 1회 진동하는 진동 패턴을 갖는 진동 정보를 1초에 제10 진동 세기로 5회 진동하는 진동 패턴을 갖는 진동 정보로 변경하고, 변경된 진동 정보를 제공할 수 있다.As another example, when it is determined that the user deviated from the internal navigation path, the controller 13 converts the current vibration information (eg, vibration information having a first vibration intensity) to vibration information having a tenth vibration intensity. changed, and the changed vibration information may be provided to the wearable vibration output unit. Alternatively, when it is determined that the user deviated from the internal navigation path, the controller 13 vibrates the vibration information having a vibration pattern that vibrates once at the first vibration intensity per second at the tenth vibration intensity 5 times per second It is possible to change to vibration information having a vibration pattern, and provide the changed vibration information.

웨어러블 진동 출력 유닛은 사용자의 신체 일부에 착용 가능한 형태로 배치(구비)될 수 있다. 일예로 웨어러블 진동 출력 유닛은 사용자의 손목에 착용 가능한 형태(일예로, 팔찌 등)로 배치(구비)될 수 있다. 사용자의 신체 일부에는 웨어러블 진동 출력 유닛이 한 개 또는 복수개 배치될 수 있다.The wearable vibration output unit may be disposed (provided) in a wearable form on a part of the user's body. For example, the wearable vibration output unit may be disposed (provided) in a wearable form (eg, a bracelet, etc.) on a user's wrist. One or a plurality of wearable vibration output units may be disposed on a part of the user's body.

웨어러블 진동 출력 유닛은 사용자에 대하여 서로 다른 위치에 복수개 배치될 수 있다. 일예로, 웨어러블 진동 출력 유닛은 사용자의 양 손목 각각에 배치될 수 있다. 즉, 웨어러블 진동 출력 유닛은 서로 다른 위치로서 사용자의 양 손목 각각에 배치될 수 있으며, 이러한 경우 웨어러블 진동 출력 유닛은 복수개로서 2개 배치될 수 있다. A plurality of wearable vibration output units may be disposed at different positions with respect to the user. For example, the wearable vibration output unit may be disposed on each of the user's wrists. That is, the wearable vibration output unit may be disposed at different positions on each of the user's wrists, and in this case, two wearable vibration output units may be disposed as a plurality.

또한, 웨어러블 진동 출력 유닛은 진동을 발생시키는 진동 발생 유닛을 포함할 수 있으며, 진동 발생 유닛은 적어도 하나 이상 배치(구비)될 수 있다. In addition, the wearable vibration output unit may include a vibration generating unit that generates vibration, and at least one vibration generating unit may be disposed (provided).

또한, 웨어러블 진동 출력 유닛은 다른 일예로 사용자의 머리에 착용 가능한 머리밴드 형태로 배치(구비)될 수 있다. 이때, 머리밴드 형태의 웨어러블 진동 출력 유닛에는 복수 개의 진동 발생 유닛이 머리밴드의 내측에 둘레를 따라 서로 다른 위치에 배치될 수 있다.Also, as another example, the wearable vibration output unit may be disposed (provided) in the form of a headband that can be worn on the user's head. In this case, in the wearable vibration output unit in the form of a headband, a plurality of vibration generating units may be disposed at different positions along the circumference inside the headband.

또한, 웨어러블 진동 출력 유닛은 사용자의 허리에 착용 가능한 벨트 형태로 배치(구비)될 수 있다. 이때, 벨트 형태의 웨어러블 진동 출력 유닛에는 복수 개의 진동 발생 유닛이 벨트의 내측에 둘레를 따라 서로 다른 위치에 배치될 수 있다.In addition, the wearable vibration output unit may be disposed (provided) in the form of a belt that can be worn on the user's waist. In this case, in the wearable vibration output unit in the form of a belt, a plurality of vibration generating units may be arranged at different positions along the circumference of the belt.

제어부(13)는 내부 길 안내 정보(특히, 내부 길 안내 경로)를 기초로, 사용자에 대해 서로 다른 위치에 배치된 복수개의 웨어러블 진동 출력 유닛 각각의 위치(배치 위치)와 사용자의 이동 방향과의 관계를 고려하여 복수개의 웨어러블 진동 출력 유닛의 진동 유형을 제어(개별적으로 제어, 개별적으로 달리 제어)할 수 있다.The control unit 13 determines the relationship between the position (placement position) of each of the plurality of wearable vibration output units arranged at different positions with respect to the user and the movement direction of the user based on the internal navigation information (particularly, the internal navigation route). In consideration of the relationship, the vibration types of the plurality of wearable vibration output units may be controlled (individually controlled, individually controlled differently).

일예로, 사용자의 양 손목에 배치된 복수개의 웨어러블 진동 출력 유닛에 대하여, 왼쪽 손목에 배치된 웨어러블 진동 출력 유닛은 제1 웨어러블 진동 출력 유닛이고, 오른쪽 손목에 배치된 웨어러블 진동 출력 유닛은 제2 웨어러블 진동 출력 유닛이라고 하자. 이때, 제어부(13)는 복수개의 웨어러블 진동 출력 유닛 각각의 위치(즉, 제1 웨어러블 진동 출력 유닛이 왼쪽 손목에 위치해 있고 제2 웨어러블 진동 출력 유닛이 오른쪽 손목에 위치해 있음을 고려)와 사용자의 이동 방향과의 관계를 고려하여, 내부 길 안내 경로를 기초로 한 복수개의 웨어러블 진동 출력 유닛의 진동 유형을 제어할 수 있다. For example, with respect to the plurality of wearable vibration output units disposed on both wrists of the user, the wearable vibration output unit disposed on the left wrist is a first wearable vibration output unit, and the wearable vibration output unit disposed on the right wrist is the second wearable Let's call it a vibration output unit. At this time, the control unit 13 controls the position of each of the plurality of wearable vibration output units (that is, considering that the first wearable vibration output unit is located on the left wrist and the second wearable vibration output unit is located on the right wrist) and the user's movement In consideration of the relationship with the direction, the vibration type of the plurality of wearable vibration output units based on the inner navigation path may be controlled.

구체적으로, 사용자가 직진으로 이동하고 있는 상태에서 내부 길 안내 경로에 따라 사용자가 좌회전 해야 하는 경우, 제어부(13)는 사용자의 왼쪽(좌측) 손목에 배치된 제1 웨어러블 진동 출력 유닛을 통해 진동 정보가 표출되도록(달리 말해, 진동이 발생하도록) 제1 웨어러블 진동 출력 유닛으로 진동 정보를 제공할 수 있다. 이와 같이, 제어부(13)는 사용자의 이동 방향(좌회전)을 고려하여 제1 웨어러블 진동 출력 유닛의 제어를 수행할 수 있으며, 이를 통해 사용자에게 좌회전으로 이동해야 함을 진동으로 제공할 수 있다(알릴 수 있다).Specifically, when the user has to turn left according to the internal road guidance route in a state in which the user is moving straight, the control unit 13 provides vibration information through the first wearable vibration output unit disposed on the user's left (left) wrist. Vibration information may be provided to the first wearable vibration output unit to be expressed (in other words, to generate vibration). As such, the control unit 13 may control the first wearable vibration output unit in consideration of the user's movement direction (left rotation), and through this, may provide the user with vibration indicating that the user should move to the left (refer to the left rotation). can).

다른 예로, 사용자가 직진으로 이동하고 있는 상태에서 내부 길 안내 경로에 따라 사용자가 우회전 해야 하는 경우, 제어부(13)는 사용자의 오른쪽(우측) 손목에 배치된 제2 웨어러블 진동 출력 유닛을 통해 진동 정보가 표출되도록(달리 말해, 진동이 발생하도록) 제2 웨어러블 진동 출력 유닛으로 진동 정보를 제공할 수 있다. 이와 같이, 제어부(13)는 사용자의 이동 방향(우회전)을 고려하여 제2 웨어러블 진동 출력 유닛의 제어를 수행할 수 있으며, 이를 통해 사용자에게 우회전으로 이동해야 함을 진동으로 제공할 수 있다(알릴 수 있다).As another example, when the user has to turn right according to the internal navigation route while the user is moving straight, the control unit 13 provides vibration information through the second wearable vibration output unit disposed on the user's right (right) wrist. Vibration information may be provided to the second wearable vibration output unit to express (in other words, to generate vibration). As such, the control unit 13 may control the second wearable vibration output unit in consideration of the user's moving direction (right turn), and through this, may provide the user with vibration indicating that the user should move to the right (refer to the right turn). can).

또한, 웨어러블 진동 출력 유닛이 머리밴드 형태의 웨어러블 진동 출력 유닛인 경우로 가정하여 설명하면 다음과 같다. In addition, the following description will be made on the assumption that the wearable vibration output unit is a wearable vibration output unit in the form of a headband.

머리밴드 형태의 웨어러블 진동 출력 유닛에는 복수 개의 진동 발생 유닛이 머리밴드의 내측에 둘레를 따라 배치될 수 있다. 일예로 복수 개의 진동 발생 유닛에는 4개의 진동 발생 유닛이 포함될 수 있다. 이때, 제1 진동 발생 유닛은 머리밴드의 내측 둘레 중 사용자의 이마 중심(앞쪽 머리)에 대응하는 위치에 배치되고, 제2 진동 발생 유닛은 사용자의 오른쪽 머리에 대응하는 위치에 배치되고, 제3 진동 발생 유닛은 사용자의 뒤통수(뒤쪽 머리)에 대응하는 위치에 배치되고, 제4 진동 발생 유닛은 사용자의 왼쪽 머리에 대응하는 위치에 배치될 수 있다.In the wearable vibration output unit in the form of a headband, a plurality of vibration generating units may be disposed along the circumference inside the headband. For example, the plurality of vibration generating units may include four vibration generating units. In this case, the first vibration generating unit is disposed at a position corresponding to the center of the user's forehead (front head) among the inner circumferences of the headband, and the second vibration generating unit is disposed at a position corresponding to the user's right head, and the third The vibration generating unit may be disposed at a position corresponding to the back of the head (rear head) of the user, and the fourth vibration generating unit may be disposed at a position corresponding to the user's left head.

이때, 사용자가 직진으로 이동하고 있는 상태에서 이동 경로 정보에 따라 사용자가 우회전 해야 하는 경우, 제어부(13)는 사용자를 직진으로 이동 안내하는 동안 제1 진동 발생 유닛을 통해 진동 정보가 제공되도록 머리밴드 형태의 웨어러블 진동 출력 유닛을 제어할 수 있다. 제어부(13)는 사용자가 우회전 해야 하는 경우 제2 진동 발생 유닛을 통해 진동 정보가 제공되도록 머리밴드 형태의 웨어러블 진동 출력 유닛을 제어할 수 있다.At this time, when the user needs to turn right according to the movement path information while the user is moving straight, the control unit 13 provides the vibration information through the first vibration generating unit while guiding the user to go straight. It is possible to control a wearable vibration output unit in the form of The controller 13 may control the wearable vibration output unit in the form of a headband to provide vibration information through the second vibration generating unit when the user needs to turn right.

또한 사용자가 좌회전 해야 하는 경우 제어부(13)는 제4 진동 발생 유닛을 통해 진동 정보가 제공되도록 머리밴드 형태의 웨어러블 진동 출력 유닛을 제어할 수 있다. 또한, 사용자가 유턴해야 하는 경우 제어부(13)는 제3 진동 발생 유닛을 통해 진동 정보가 제공되도록 머리밴드 형태의 웨어러블 진동 출력 유닛을 제어할 수 있다.Also, when the user needs to turn left, the controller 13 may control the wearable vibration output unit in the form of a headband to provide vibration information through the fourth vibration generating unit. In addition, when the user needs to make a U-turn, the controller 13 may control the wearable vibration output unit in the form of a headband to provide vibration information through the third vibration generating unit.

이처럼, 제어부(13)는 복수개의 웨어러블 진동 출력 유닛 각각의 위치(사용자에 대한 배치 위치)(또는 웨어러블 진동 출력 유닛에 포함된 복수개의 진동 발생 유닛 각각의 위치)와 사용자의 이동 방향과의 관계를 고려하여, 웨어러블 진동 출력 유닛의 진동 유형을 제어할 수 있다.As such, the control unit 13 determines the relationship between the position of each of the plurality of wearable vibration output units (placement position with respect to the user) (or the position of each of the plurality of vibration generating units included in the wearable vibration output unit) and the movement direction of the user. Taking this into account, it is possible to control the vibration type of the wearable vibration output unit.

제어부(13)는 경로 안내 정보(특히, 표시 경로)를 기초로 생성된 이동 가이드 정보를 일예로 사용자의 손목에 착용된 웨어러블 진동 출력 유닛을 통해 진동으로 제공(즉, 진동 세기나 진동 패턴을 달리하는 진동 정보로 제공)하거나, 일예로 사용자의 머리에 착용된 웨어러블 사운드 입출력 유닛을 통해 음성으로 제공(즉, 음성 안내로 제공)할 수 있다.The control unit 13 provides movement guide information generated based on the route guide information (in particular, the displayed route) as vibration through a wearable vibration output unit worn on the user's wrist as an example (that is, the vibration intensity or vibration pattern is different). vibration information) or, for example, through a wearable sound input/output unit worn on the user's head, may be provided by voice (ie, as voice guidance).

이러한 본 장치(10)는 내부 길 안내 정보를 웨어러블 사운드 입출력 유닛을 통해 음성 정보로 제공할 뿐만 아니라, 웨어러블 진동 출력 유닛을 통해 진동 정보로 제공함으로써, 일반 사용자(보행자)뿐만 아니라 시각 장애 등을 가진 시각장애인에 대해서도 내부 길 안내 경로에 대한 보다 안전하고 정확한 이동 안내(가이드)가 이루어질 수 있도록 제공할 수 있으며, 사용자의 편의성 및 활동성을 극대화시킬 수 있다.This device 10 provides not only the internal way guide information as voice information through the wearable sound input/output unit, but also vibration information through the wearable vibration output unit, so that not only general users (passengers) but also people with visual impairments, etc. Even for the visually impaired, it is possible to provide safer and more accurate movement guidance (guide) for the internal route guidance route, and it is possible to maximize the user's convenience and activity.

뿐만 아니라, 본 장치(10)는 이동 가이드 정보를 음성 정보 및 진동 정보로 제공함으로써, 사용자가 내부 길 안내 정보가 표시되는 사용자 단말(20)의 화면을 도보 이동 중에 지속적으로 확인할 수 없는 경우(예를 들어, 시각 장애인이 도보 이동하는 경우라거나, 일반 사용자가 양손 가득히 짐을 가지고 도보 이동을 수행하는 경우 등)에 대해서도 보다 정확한 경로 안내 내지 이동 안내(가이드)가 이루어지도록 제공할 수 있다.In addition, the device 10 provides the movement guide information as voice information and vibration information, so that when the user cannot continuously check the screen of the user terminal 20 on which the internal navigation information is displayed while walking (for example) For example, it is possible to provide a more accurate route guidance or movement guidance (guide) even for a case in which a visually impaired person walks or a general user performs a walking movement with both hands full).

도 8은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)에서 증강현실을 기반으로 내부 길 안내 정보를 화면 표시 정보의 형태로 제공하는 경우의 예를 나타낸 도면이다.FIG. 8 is a diagram illustrating an example in which the augmented reality-based path guidance device 10 according to an embodiment of the present application provides internal path guidance information in the form of screen display information based on augmented reality.

도 8을 참조하면, 제어부(13)는 내부 길 안내 정보를 화면 표시 정보로서 도 8에 도시된 바와 같이 사용자 단말(20)의 화면 상에 제공할 수 있다. 이때, 화면 표시 정보에는 일예로 직진, 우회전, 좌회전, 유턴 등과 관련된 화살표 표시, 잔여 거리와 관련된 잔여 거리 표시 등이 포함될 수 있으나, 이에 한정되는 것은 아니다.Referring to FIG. 8 , the controller 13 may provide internal route guidance information as screen display information on the screen of the user terminal 20 as shown in FIG. 8 . In this case, the screen display information may include, for example, an arrow display related to going straight, a right turn, a left turn, and a U-turn, and a residual distance display related to the remaining distance, but is not limited thereto.

이러한 본 장치(10)는 증강현실(AR) 기반 길 안내 장치에 관한 것이다. 이러한 본 장치(10)는, AR 지하철 방향 알림이 서비스의 제공이 가능한 AR 기반 길 안내 장치, AR 내비게이션, AR 기반 경로 가이드 장치 등이라 달리 표현될 수 있다.This device 10 relates to an augmented reality (AR)-based way guidance device. The present device 10 may be expressed differently as an AR-based road guide device, AR navigation device, AR-based route guide device, and the like, in which AR subway direction notification can provide a service.

본 장치(10)는 AR 기반 내부 길 안내 정보를 제공함으로써, 종래에 혼잡한 지하철, 불친절한 위치 설명 등의 이유로 지하철 속 미로와 같은 길을 찾기 힘들어 하는 사용자(예시적으로, 외국인, 관광객, 지하철 이용자 등)에게 있어서, 사용자가 내부 이동 구간을 보다 용이하게 이동할 수 있도록 제공(지원)할 수 있다.The device 10 provides AR-based internal route guidance information to users (eg, foreigners, tourists, subway users) who find it difficult to find a way like a maze in the subway due to conventionally crowded subways, unfriendly location descriptions, etc. etc.), so that the user can more easily move the internal movement section (support) can be provided.

본 장치(10)는 예시적으로 관광이나 이동의 이유로 초행길의 지하철 등을 이용하는 사용자들, 불친절한 설명들(즉, 종래 지하철 역사 내 길 안내 표지판 등)로 인하여 지하철 이용에 불편을 겪는 사용자들에게 있어서, 초행길에 대해서도 길을 헤매는 것 없이 보다 신속하고 정확히 이동할 수 있도록 제공할 수 있다.The device 10 is illustratively for users who use the subway for the first time for reasons of tourism or movement, and users who suffer from inconvenience in using the subway due to unfriendly explanations (ie, road guide signs in conventional subway stations, etc.) , even on the first road, it can be provided to move more quickly and accurately without getting lost.

이하에서는 본 장치(10)에 의하여 제공되는 기능 및 본 장치(10)에 의한 사용자 단말(20)의 화면 표시 예에 대하여 설명하기로 한다.Hereinafter, a function provided by the device 10 and an example of a screen display of the user terminal 20 by the device 10 will be described.

도 9는 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)의 기능을 설명하기 위한 도면이다.9 is a view for explaining the function of the augmented reality-based way guidance device 10 according to an embodiment of the present application.

도 9를 참조하면, 본 장치(10)는 AR 길 안내 기능, 점포 안내 기능, 역내편의시설 안내 기능, 캐릭터 서비스 기능 및 안심 서비스 기능을 제공할 수 있다.Referring to FIG. 9 , the device 10 may provide an AR route guidance function, a store guidance function, a station convenience facility guidance function, a character service function, and a relief service function.

AR 길 안내 기능에는 출입구 인식 기능, QR코드 스캔 기능, 방향안내 기능, 소요시간 안내 기능, 역 도착 알림 기능, 점포안내 기능, 및 지하철 노선도 안내 기능이 포함될 수 있다. 점포 안내 기능에는 상세 정보 기능, 찜 하기 기능, 및 후기 작성 기능이 포함될 수 잇다. 역내편의시설 안내 기능에는 편의시설 유무 안내 기능, 위치 안내 기능, 및 AR 길 찾기 기능이 포함될 수 있다.The AR navigation function may include an entrance recognition function, a QR code scanning function, a direction guidance function, a required time guidance function, a station arrival notification function, a store guidance function, and a subway route map guidance function. The store guide function may include a detailed information function, a wish list function, and a review writing function. The in-station convenience facility guidance function may include a convenience facility presence guidance function, a location guidance function, and an AR directions function.

캐릭터 서비스 기능에는 캐쉬 컬랙팅 기능, 미니게임 제공 기능, 제휴 서비스 안내 기능, 이벤트 안내 기능, 캐릭터 꾸미기 기능, 및 QR 코드 캐릭터 인증샷 기능이 포함될 수 있다. 안심 서비스 기능에는 지하철 에티켓 안내 기능, 위치 공유 서비스 기능, 분실물 찾기 기능 및 불편신고 기능이 포함될 수 있다.The character service function may include a cash collecting function, a mini-game provision function, an affiliate service guide function, an event guide function, a character decoration function, and a QR code character authentication shot function. The safety service function may include a subway etiquette guide function, a location sharing service function, a lost and found function, and a complaint report function.

본 장치(10)는 사용자 입력(일예로 터치 입력 등)에 기초하여, 상술한 다양한 기능들 중 사용자가 요청한 기능에 해당하는 기능을 제공할 수 있다.The device 10 may provide a function corresponding to a function requested by the user among the various functions described above based on a user input (eg, a touch input, etc.).

도 10은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)에 의한 사용자 단말(20)의 화면 표시의 예를 나타낸 도면이다.10 is a diagram illustrating an example of a screen display of the user terminal 20 by the augmented reality-based way guidance device 10 according to an embodiment of the present application.

도 10을 참조하면, 예시적으로 본 장치(10)의 제어부(13)는 사용자 단말(20)의 화면 상에 메인 화면으로서, 도 10의 (a)와 같은 화면을 표시할 수 있다.Referring to FIG. 10 , for example, the controller 13 of the device 10 may display a screen as shown in FIG. 10 (a) as a main screen on the screen of the user terminal 20 .

제어부(13)는 일예로 사용자에 의하여 선택 가능한 복수의 탭 메뉴를 포함하는 메인 화면이 사용자 단말(20)에 표시되도록 제어할 수 있다. 여기서, 복수의 메뉴에는 일예로 AR 스캔 탭(1), 빠른 길 찾기 탭(2), 및 캐릭터 이벤트(제휴) 탭(3)이 포함될 수 있다.The controller 13 may control, for example, to display a main screen including a plurality of tab menus selectable by the user on the user terminal 20 . Here, the plurality of menus may include, for example, an AR scan tab 1 , a quick route finding tab 2 , and a character event (affiliation) tab 3 .

사용자 단말(20)의 화면에 표시된 복수의 메뉴 중 어느 하나의 메뉴를 선택하는 사용자 입력(일예로, 터치 입력 등)이 이루어진 경우, 본 장치(10)의 제어부(13)는 사용자 입력에 응답하여, 사용자 입력에 의해 선택된 탭(선택 탭)에 대응하는 화면이 확장되어 사용자 단말(20)의 화면에 표시되도록, 사용자 단말(20)의 화면을 제어할 수 있다.When a user input (for example, a touch input, etc.) for selecting any one of a plurality of menus displayed on the screen of the user terminal 20 is made, the controller 13 of the device 10 responds to the user input , it is possible to control the screen of the user terminal 20 so that the screen corresponding to the tap (selection tap) selected by the user input is expanded and displayed on the screen of the user terminal 20 .

일예로, 도 10의 (a)와 같은 화면에서, 사용자가 도 10의 (b)와 같이 빠른 길 찾기 탭(2)을 선택하는 사용자 입력을 수행하였다고 하자. 이러한 경우, 제어부(13)는 빠른 길 찾기 탭(2)에 대한 사용자 입력에 응답하여, 사용자 단말(20)의 화면에 도 10의 (c)와 같은 화면이 확장되어 표시되도록 사용자 단말(20)의 화면을 제어할 수 있다. 이때, 일예로 빠른 길 찾기 탭(2)에 대한 사용자 입력에 응답하여 확장된 화면은 빠른 길 찾기 탭(2)에 대한 확장 화면이라 달리 지칭될 수 있다.For example, it is assumed that, on the screen as shown in FIG. 10(a), the user performs a user input for selecting the quick navigation tab 2 as shown in FIG. 10(b). In this case, the controller 13 responds to the user input for the quick route finding tab 2, so that the screen as shown in FIG. 10 (c) is expanded and displayed on the screen of the user terminal 20. You can control the screen of In this case, for example, a screen expanded in response to a user input for the quick directions tab 2 may be referred to as an extended screen for the quick directions tab 2 .

이러한 빠른 길 찾기 탭(2)에 대한 확장 화면에는 일예로 역검색 메뉴, 빠른검색 메뉴, 지하상가 검색 메뉴, 주변역 검색 메뉴 등 복수의 메뉴가 포함될 수 있으나, 이에 한정되는 것은 아니다.The expanded screen for the quick navigation tab 2 may include, for example, a plurality of menus such as a station search menu, a quick search menu, an underground shopping mall search menu, and a nearby station search menu, but is not limited thereto.

메인 화면에 포함된 빠른 길 찾기 탭(2)은 출발지로부터 목적지까지의 경로를 검색하기 위한 탭(메뉴)을 의미할 수 있다. 특히나, 빠른 길 찾기 탭(2)은 예시적으로 지하철 노선도 상에서 출발지에 해당하는 출발지 역으로부터 목적지에 해당하는 목적지 역까지의 길(경로)을 찾기 위한 메뉴를 의미할 수 있다.The quick navigation tab 2 included in the main screen may mean a tab (menu) for searching for a route from a starting point to a destination. In particular, the quick route finding tab 2 may refer to, for example, a menu for finding a route (route) from a departure station corresponding to a departure point to a destination station corresponding to a destination on a subway map.

메인 화면에 포함된 AR 스캔 탭(1)은 제1 경로 생성부(11)에 의해 생성된 경로(기준 경로)에 포함된 내부 이동 구간에 대하여 길 안내를 요청(즉, 내부 길 안내)를 요청하는 요청 신호를 입력하기 위한 탭(메뉴)을 의미할 수 있다. 달리 표현하여, AR 스캔 탭(1)은 일예로 내부 길 관련 이미지를 촬영하기 위한 탭 메뉴를 의미할 수 있으나, 이에 한정되는 것은 아니다.The AR scan tab 1 included in the main screen requests a route guidance (ie, internal route guidance) for an internal movement section included in the route (reference route) generated by the first route generator 11 . It may mean a tap (menu) for inputting a request signal. In other words, the AR scan tab 1 may mean, for example, a tab menu for photographing an image related to an interior road, but is not limited thereto.

메인 화면에 포함된 캐릭터 이벤트(제휴) 탭(3)은, 본 장치(10)를 사용하는 사용자의 참여도에 따라 사용자에게 보상을 제공하는 이벤트 관련 정보를 제공하는 탭을 의미할 수 있다. The character event (affiliation) tab 3 included in the main screen may mean a tab that provides event-related information that provides a reward to the user according to the user's participation level using the device 10 .

한편, 빠른 길 찾기 탭(2)은 복수 유형의 메뉴로서, 일예로 일반 길찾기 메뉴 및 AR 기반 길찾기 메뉴를 포함할 수 있다. 여기서, 일반 길찾기에 해당하는 화면은 일예로 도 11을 참조하여 보다 쉽게 이해될 수 있으며, AR 기반 길찾기에 해당하는 화면은 도 12를 참조하여 보다 쉽게 이해될 수 있다.Meanwhile, the quick directions tab 2 is a plurality of types of menus, and may include, for example, a general directions menu and an AR-based directions menu. Here, the screen corresponding to general wayfinding may be more easily understood with reference to FIG. 11 as an example, and the screen corresponding to AR-based wayfinding may be more easily understood with reference to FIG. 12 .

도 11은 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)를 통해 제공되는 일반 길찾기 기능의 화면 표시 예를 나타낸 도면이다.11 is a view showing an example of a screen display of a general wayfinding function provided through the augmented reality-based way guidance device 10 according to an embodiment of the present application.

도 11을 참조하면, 일예로 사용자가 출발지 정보로서 '고속터미널역'을 입력하고, 목적지 정보로서 '건대입구역'을 입력한 경우, 본 장치(10)의 제어부(13)는 지하철 노선도 상에서 출발지 정보에 해당하는 역에서부터 목적지 정보에 해당하는 역까지의 경로를 생성하여 사용자 단말(20)의 화면에 표시할 수 있다.Referring to FIG. 11 , for example, when the user inputs 'Express Terminal Station' as departure information and 'Kon University Station' as destination information, the controller 13 of the device 10 controls departure information on the subway map. A route from a station corresponding to , to a station corresponding to destination information may be generated and displayed on the screen of the user terminal 20 .

도 12는 본원의 일 실시예에 따른 증강현실 기반 길 안내 장치(10)를 통해 제공되는 AR 기반 길찾기 기능의 화면 표시 예를 나타낸 도면이다.12 is a diagram illustrating an example of a screen display of an AR-based wayfinding function provided through the augmented reality-based wayfinding device 10 according to an embodiment of the present application.

도 12를 참조하면, 일예로 사용자가 현재 특정 역사의 내부 공간 내에 위치하고, 사용자 자신이 위치한 내부 공간(즉, 내부 이동 구간에 해당하는 내부 공간) 내 위치로부터 목적지 위치까지의 경로(즉, 내부 길 안내 경로)를 제공받고자 한다고 하자.Referring to FIG. 12 , as an example, the user is currently located in the internal space of a specific station, and the user himself/herself is located in the internal space (ie, the internal space corresponding to the internal movement section) from the location to the destination location (ie, the internal road) Let's say you want to be provided with a guide route).

이러한 경우, 사용자는 도 10과 같은 메인 화면에서 AR 스캔 탭(1)을 선택할 수 있으며, AR 스캔 탭(1)에 대한 사용자 입력(선택)에 응답하여 제어부(13)는 사용자 단말(20)의 이미지 획득 센서(즉, 카메라)를 이미지 촬영/획득이 가능한 활성 ON 상태로 제어할 수 있다. 이때, 이미지 획득 센서가 활성 ON 상태로 제어된 상태에서의 사용자 단말(20)의 화면은 일예로 도 12의 (a) 화면과 같을 수 있다.In this case, the user may select the AR scan tab 1 on the main screen as shown in FIG. 10 , and in response to a user input (selection) for the AR scan tab 1 , the control unit 13 controls the user terminal 20 . The image acquisition sensor (ie, the camera) can be controlled to an active ON state capable of image capturing/acquisition. In this case, the screen of the user terminal 20 in a state in which the image acquisition sensor is controlled to be active ON may be the same as that of the screen (a) of FIG. 12 , for example.

이러한 상태에서, 사용자는 자신이 원하는 목적지 위치까지의 경로(내부 길 안내 경로)를 제공받기 위해, 사용자 단말(20)을 이용해 자신이 위치한 내부 공간에 구비된(존재하는) 길 안내 표지판을 촬영할 수 있다.In this state, the user can use the user terminal 20 to take a picture of a road guide sign provided (existing) in the internal space where the user is located in order to be provided with a route to the desired destination location (internal route guide route). have.

일예로 사용자가 도 12의 (a)에 도시된 것과 같이 길 안내 표지판을 촬영한 경우, 제2 경로 생성부(12)는 사용자 단말(20)로부터 촬영하여 획득된 이미지와 데이터베이스부(미도시)에 기 저장된 복수의 이미지들 간의 비교(매칭)를 통해, 사용자 단말(20)로부터 획득된 이미지가 기준 경로 내 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지인지 식별할 수 있다.For example, when the user photographs a road guide sign as shown in (a) of FIG. 12 , the second route generating unit 12 includes an image obtained by photographing from the user terminal 20 and a database unit (not shown). Through comparison (matching) between a plurality of images pre-stored in , it may be identified whether the image obtained from the user terminal 20 is an image related to an internal road related to an internal road belonging to an internal movement section within the reference route.

식별 결과, 사용자 단말(20)로부터 획득된 이미지가 내부 길 관련 이미지인 것으로 식별되면, 일예로 제어부(13)는 내부 길 관련 이미지를 획득한 사용자에게 일예로 도 12의 (b)에 도시된 바와 같이 보상을 제공할 수 있다.As a result of the identification, if it is identified that the image obtained from the user terminal 20 is an image related to the inner road, for example, the controller 13 provides the user who has obtained the image related to the inner road as shown in FIG. 12 ( b ) as an example. Compensation can be provided as well.

여기서, 보상(reward)은 정상적인 내부 길 관련 이미지가 획득했을 때 사용자에게 주어지는 리워드로서, 예시적으로 도 12의 (b)에 도시된 것과 같이 루비 형태, 혹은 코인, 포인트 등의 형태로 제공될 수 있다. 일예로, 제어부(13)는 정상적인 내부 길 관련 이미지가 1개 획득될 때마다 보상으로서 1개의 루비를 사용자에게 제공(지급)할 수 있다.Here, the reward is a reward given to the user when a normal internal road-related image is obtained, and may be provided in the form of rubies, coins, points, etc. have. For example, the controller 13 may provide (pay) one ruby to the user as a reward whenever one normal internal road-related image is obtained.

이러한 보상은 미리 설정된 조건을 충족할 정도로 획득되었을 때(일예로 50개의 루비가 획득되었을 때), 사용자가 본 장치(10)와 연계된(제휴된) 상점에서 현금처럼 사용 가능하도록 제공될 수 있다.When such a reward has been obtained enough to satisfy a preset condition (for example, when 50 rubies are obtained), the user may be provided to use it like cash at a store associated (affiliated) with the device 10. .

이때, 보상이 이루어진 이미지는, 내부 이동 구간에 속하는 내부 길과 관련된 정상적인 내부 길 관련 이미지인 것으로 판단된 이미지로서, 이는 위치 정보와 방향 정보와 함께 연계하여 데이터베이스부(미도시)에 추가 저장될 수 있다. 이렇게, 데이터베이스부(미도시)에 추가로 저장된 이미지들은, 추후에 다른 사용자에 의하여 내부 길 관련 이미지가 획득되었을 때, 해당 내부 길 관련 이미지가 정상적인 이미지(정상적인 내부 길 관련 이미지)인지 판단하는데 기준이 되는 데이터(비교 데이터)로 활용될 수 있다.In this case, the compensated image is an image determined to be a normal internal road-related image related to an internal road belonging to an internal movement section, which may be additionally stored in a database unit (not shown) in connection with location information and direction information. have. In this way, when the images additionally stored in the database unit (not shown) are later acquired by another user, the reference is to determine whether the corresponding internal road-related image is a normal image (normal internal road-related image). data (comparative data).

또한, 상술한 설명에서는 정상적인 내부 길 관련 이미지가 획득되었는지에 따라 보상의 제공 여부가 결정되는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 일예로, 제어부(13)는 각각의 지하철 역사 내에 일 영역에 위치한 QR 코드를 사용자 단말(20)을 통해 인식한 경우, 인식된 QR 코드에 응답하여 보상(루비)을 제공할 수 있다.Also, in the above description, it has been exemplified that whether to provide a reward is determined depending on whether a normal internal road-related image is obtained, but the present invention is not limited thereto. For example, when a QR code located in an area within each subway station is recognized through the user terminal 20 , the controller 13 may provide a reward (ruby) in response to the recognized QR code.

또한, 도 12의 (a)에 도시된 것과 같은 길 안내 표지판을 포함하는 이미지가 획득된 경우, 제2 경로 생성부(12)는 획득된 이미지에 대한 분석을 통해, 획득된 이미지가 사용자가 위치한 내부 공간에 속한 내부 길과 관련된 이미지(즉, 내부 길 관련 이미지)인지 식별할 수 있다. 여기서, 이미지에 대한 분석시에는 종래에 공지되거나 향후 개발되는 다양한 이미지 인식 알고리즘 등이 적용될 수 있으나, 이에 한정되는 것은 아니다. 제2 경로 생성부(12)는 데이터베이스부(미도시)에 기 저장된 복수의 이미지들과의 비교(매칭)를 통해, 획득된 이미지가 내부 길 관련 이미지인지 식별할 수 있다.In addition, when an image including a road guide sign as shown in (a) of FIG. 12 is acquired, the second route generator 12 analyzes the acquired image, and the acquired image is located at the location of the user. It can be identified whether the image is related to an interior road belonging to the interior space (ie, an image related to the interior road). Here, when analyzing an image, various image recognition algorithms known in the prior art or developed in the future may be applied, but the present invention is not limited thereto. The second path generator 12 may identify whether the acquired image is an internal road-related image through comparison (matching) with a plurality of images previously stored in a database unit (not shown).

뿐만 아니라, 제2 경로 생성부(12)는 식별된 내부 길 관련 이미지를 기초로, 사용자의 현재 위치를 파악할 수 있다. 즉, 데이터베이스부(미도시)에 저장되는 복수의 이미지들은 앞서 말한 바와 해당 이미지를 촬영할 때의 위치 정보와 방향 정보가 함께 연계되어 저장되어 있으므로, 이를 기초로 제2 경로 생성부(12)는 데이터베이스부(미도시)에 기 저장된 이미지들 중 획득된 이미지와 매칭되는 매칭 이미지를 식별하고, 식별된 매칭 이미지를 토대로 사용자의 현재 위치를 파악할 수 있다. 이때, 제2 경로 생성부(12)는 매칭 이미지와 연계되어 저장된 위치 정보를 사용자의 현재 위치인 것으로 파악할 수 있다.In addition, the second route generator 12 may determine the current location of the user based on the identified internal road related image. That is, since the plurality of images stored in the database unit (not shown) are stored in association with the above-mentioned location information and direction information at the time of photographing the corresponding image, the second path generating unit 12 based on this is stored in the database It is possible to identify a matching image matching the acquired image among images previously stored in the unit (not shown), and determine the user's current location based on the identified matching image. In this case, the second route generator 12 may determine the location information stored in association with the matching image as the user's current location.

제2 경로 생성부(12)는 앞서 말한 바와 같이 일예로 사용자 단말(20)의 위치 획득 센서를 통해 사용자의 위치 정보(현재 위치 정보)를 파악할 수도 있으나, 다른 일예로 사용자 단말(20)을 통해 획득된 이미지와 데이터베이스부(미도시)에 기 저장된 이미지들 간의 매칭 결과를 기초로 사용자의 위치 정보(현재 위치 정보)를 파악할 수 있다.As described above, the second path generator 12 may determine the user's location information (current location information) through the location acquisition sensor of the user terminal 20 as an example, but as another example, through the user terminal 20 Based on the matching result between the acquired image and images previously stored in the database unit (not shown), the user's location information (current location information) may be determined.

데이터베이스부(미도시)에 기 저장된 이미지들과의 매칭 결과, 일예로 제2 경로 생성부(12)가 도 12의 (c)에 도시된 것과 같이 '동인천 1호선 플랫폼'을 사용자의 현재 위치인 것으로 파악하였다고 하자. 이후, 제어부(13)는 사용자에게 목적지 정보를 입력받기 위한 목적지(혹은 도착지) 입력 메뉴를 사용자 단말(20)의 화면에 도 12의 (c)에 도시된 것과 같이 제공할 수 있다.As a result of matching with images pre-stored in the database unit (not shown), as an example, the second path generator 12 selects the 'Dongincheon Line 1 platform' as the user's current location as shown in FIG. 12(c). Let us assume that Thereafter, the controller 13 may provide a destination (or destination) input menu for receiving destination information to the user on the screen of the user terminal 20 as shown in FIG. 12(c) .

이때, 제어부(13)는 목적지 입력 메뉴를 일예로 제1 경로 생성부(11)에서 경로(기준 경로)가 생성되지 않은 경우에 제공할 수 있다. 다시 말해, 제어부(13)는 일예로, 제1 경로 생성부(11)에서 사용자로부터 출발지와 목적지에 관한 정보가 입력되지 않음에 따라 목적지까지의 경로(기준 경로)가 생성되지 않은 경우에, 목적지 입력 메뉴를 사용자 단말(20)의 화면에 제공할 수 있다.In this case, the controller 13 may provide a destination input menu, for example, when a route (reference route) is not generated by the first route generator 11 . In other words, the control unit 13, for example, when a route (reference route) to the destination is not generated as information about the origin and destination is not input from the user in the first route generator 11 , the destination An input menu may be provided on the screen of the user terminal 20 .

이처럼, 화면에 표시된 목적지 입력 메뉴에 응답하여, 사용자는 사용자 단말(20)을 통해 목적지 정보(도착지 정보)를 일예로 직접 타이핑함으로써 입력할 수 있다. 제2 경로 생성부(12)는 사용자 단말(20)로부터 획득된 내부 길 관련 이미지에 해당하는 위치(사용자의 현재 위치, 출발지의 위치)로부터 목적지 입력 메뉴에 응답하여 사용자로부터 입력받은 도착지 정보의 위치까지 경로를 내부 길 안내 경로로서 생성할 수 있다. 이에 따르면, 제1 경로 생성부(11)는 상술한 설명에서 본 장치(10)에 포함되는 것으로만 예시하였으나, 이에 한정되는 것은 아니고, 다른 예로 제1 경로 생성부(11)는 필요에 따라 생략될 수 있다.As such, in response to the destination input menu displayed on the screen, the user may input destination information (destination information) by directly typing, for example, through the user terminal 20 . The second route generating unit 12 is the location of the destination information received from the user in response to the destination input menu from the location (the user's current location, the location of the departure point) corresponding to the internal road-related image obtained from the user terminal 20 path can be created as an internal navigation path. Accordingly, the first path generating unit 11 has been exemplified only as being included in the device 10 in the above description, but the present invention is not limited thereto, and as another example, the first path generating unit 11 is omitted if necessary. can be

제어부(13)는 제2 경로 생성부(12)에서 생성된 내부 길 안내 경로를 기반으로, 해당 내부 길 안내 경로를 포함하는 내부 길 안내 정보를 생성할 수 있다. 제어부(13)는 생성된 내부 길 안내 정보를 일예로 도 12의 (d)에 도시된 것과 같이 증강현실을 기반으로 사용자 단말(20)의 화면에 표시되도록 제공(제어)할 수 있다.The controller 13 may generate internal guidance information including the corresponding internal guidance route based on the internal guidance route generated by the second route generator 12 . The controller 13 may provide (control) the generated internal route guidance information to be displayed on the screen of the user terminal 20 based on augmented reality as shown in FIG. 12(d) as an example.

제어부(13)는 내부 길 안내 정보의 제공시 내부 길 안내 경로에 관한 정보 및 사용자의 이동에 따라 변화되는 사용자의 위치 정보를 고려한 이동 안내 정보를 제공할 수 있다.The controller 13 may provide movement guide information in consideration of the information on the internal route guide route and the location information of the user that is changed according to the movement of the user when the inner route guide information is provided.

또한, 상술한 본원의 일예에서는, 도 12의 (c)와 같은 화면에서 목적지 정보(도착지 정보)를 사용자로부터 직접 타이핑하여 입력받는 것으로 예시하였으나, 이에 한정되는 것은 아니다. 다른 일예로, 목적지 정보(도착지 정보)는 사용자 단말(20)의 화면에 제공되는 복수의 선택 메뉴(일예로, 노선도 선택 메뉴, 지하상가 선택 메뉴, 편의시설 선택 메뉴) 중 어느 하나의 선택 메뉴를 선택한 이후, 선택된 해당 선택 메뉴에 포함된 세부 메뉴 중 어느 하나를 선택함으로써 입력될 수 있다.In addition, in the above-described example of the present application, destination information (destination information) is exemplified by directly typing and receiving input from the user on the screen as shown in FIG. 12(c), but the present invention is not limited thereto. As another example, destination information (destination information) selects any one of a plurality of selection menus (eg, route map selection menu, underground shopping center selection menu, convenience facility selection menu) provided on the screen of the user terminal 20 After selection, the input may be made by selecting any one of the detailed menus included in the selected corresponding selection menu.

노선도 선택 메뉴에 대한 선택이 이루어진 경우, 제어부(13)는 그에 대한 세부 메뉴로서 지하철 노선도 상에 존재하는 전체 지하철 역에 대한 리스트 정보를 제공할 수 있다. 이러한 전체 지하철 역에 대한 리스트 정보 중 사용자가 어느 하나의 지하철 역을 선택함으로써, 선택된 지하철역이 목적지 정보로 입력될 수 있다.When the route map selection menu is selected, the controller 13 may provide list information on all subway stations existing on the subway route map as a detailed menu therefor. When the user selects any one subway station from the list information on all subway stations, the selected subway station may be input as destination information.

또한, 지하상가 선택 메뉴에 대한 선택이 이루어진 경우, 제어부(13)는 그에 대한 세부 메뉴로서 해당 내부 공간에 포함된 복수의 상가들에 대한 리스트 정보를 사용자 단말(20)의 화면에 제공할 수 있다. 이러한 복수의 상가들에 대한 리스트 정보 중 사용자가 어느 하나의 상가를 선택함으로써, 선택된 상가의 위치가 목적지 정보로 입력될 수 있다.In addition, when the selection of the underground shopping mall selection menu is made, the control unit 13 may provide list information on a plurality of shopping malls included in the corresponding internal space as a detailed menu thereto on the screen of the user terminal 20 . . When the user selects any one of the list information on the plurality of shopping malls, the location of the selected shopping mall may be input as destination information.

마찬가지로, 편의시설 선택 메뉴에 대한 선택이 이루어진 경우, 제어부(13)는 그에 대한 세부 메뉴로서 해당 내부 공간(사용자가 현재 위치하고 있는 내부 공간)에 포함된 복수의 편의시설들(예를 들어, 지하철 역 내 화장실, 에스컬레이터, 엘리베이터, 편의점, 안내데스크, 교통카드 충전소, 물품 보관함 등)에 대한 리스트 정보를 사용자 단말(20)의 화면에 제공할 수 있다. 이러한 복수의 편의시설들에 대한 리스트 정보 중 사용자가 어느 하나의 상가를 선택함으로써, 선택된 편의시설의 위치가 목적지 정보로 입력될 수 있다.Similarly, when a selection for the convenience facility selection menu is made, the controller 13 controls a plurality of convenience facilities (eg, a subway station) included in the corresponding internal space (the internal space where the user is currently located) as a detailed menu for the menu. List information on my toilet, escalator, elevator, convenience store, information desk, transportation card charging station, storage box, etc.) may be provided on the screen of the user terminal 20 . When the user selects any one of the list information on the plurality of convenience facilities, the location of the selected convenience facility may be input as destination information.

예시적으로, 복수의 편의시설들에 대한 리스트 정보 중 일예로 지하철 역 내 화장실이 목적지 정보로 입력된 경우, 제2 경로 생성부(12)는 내부 길 관련 이미지에 대응하는 위치로부터 사용자가 선택한 목적지 정보인 지하철 역 내 화장실의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있다. 제어부(13)는 이러한 내부 길 안내 경로에 기초하여 생성된 내부 길 안내 정보를 사용자 단말(20)의 화면에 AR 기반으로 제공할 수 있다.Illustratively, when a toilet in a subway station is input as destination information among list information of a plurality of convenience facilities, the second route generating unit 12 is a destination selected by the user from a location corresponding to an internal road-related image. The route to the location of the toilet in the subway station, which is information, can be created as an internal route guidance route. The controller 13 may provide, on the screen of the user terminal 20 , the internal navigation information generated based on the internal navigation route based on AR.

다른 예로, 사용자가 복수의 편의시설들에 대한 리스트 정보 중 교통카드 충전소(이는, 사용자가 위치한 내부 공간인 지하철 역사 내에 존재하는 교통카드 충전소를 의미함)를 선택함에 따라, 선택된 교통카드 충전소가 목적지 정보로 입력되었다고 하자. 이러한 경우, 제2 경로 생성부(12)는 내부 길 관련 이미지에 대응하는 위치(즉, 사용자의 현 위치)로부터 사용자가 선택한 목적지 정보인 지하철 역 내 교통카드 충전소의 위치까지의 경로를 내부 길 안내 경로로 생성할 수 있다. 제어부(13)는 이러한 내부 길 안내 경로에 기초하여 생성된 내부 길 안내 정보를 사용자 단말(20)의 화면에 AR 기반으로 제공할 수 있다.As another example, as the user selects a transportation card charging station (this means a transportation card charging station existing in a subway station that is an internal space where the user is located) among list information for a plurality of convenience facilities, the selected transportation card charging station is the destination Let's say the information is entered. In this case, the second route generator 12 guides the route from the location corresponding to the internal road-related image (that is, the user's current location) to the location of the transportation card charging station in the subway station, which is the destination information selected by the user. path can be created. The controller 13 may provide, on the screen of the user terminal 20 , the internal navigation information generated based on the internal navigation route based on AR.

이때, 제어부(13)는 목적지 정보로서 일예로 편의시설이 선택된 경우, 사용자 단말(20) 상에 선택된 편의시설에 대응하는 위치에 일예로 해당 편의시설에 해당하는 아이콘을 도 8에 도시된 것과 같이 표시할 수 있다. At this time, when a convenient facility is selected as the destination information, the control unit 13 places an icon corresponding to the convenient facility at a location corresponding to the selected convenient facility on the user terminal 20 as shown in FIG. 8 as an example. can be displayed

또한, 앞서 말한 바와 같이, 제2 경로 생성부(12)는 내부 길 관련 이미지에 대응하는 위치로부터 내부 이동 구간에 속하는 출구들 중 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로(최단 경로)를 내부 길 안내 경로로 생성하고, 생성된 내부 길 안내 경로를 기반으로 한 내부 길 안내 정보를 사용자 단말(20)로 제공할 수 있다.In addition, as described above, the second route generating unit 12 is a path (shortest route) from the location corresponding to the internal road-related image to the location of the closest exit from the location of the destination among the exits belonging to the internal movement section. ) may be generated as an internal guidance route, and internal guidance information based on the generated internal guidance route may be provided to the user terminal 20 .

이때, 내부 길 안내 정보는 예상 도보 이동 시간이 포함될 수 있다. 이때, 예상 도보 이동 시간은 본 장치(10)에 포함된 산출부(미도시), 도보 데이터 DB(미도시), 지형지물 DB(미도시) 및 분석부(미도시)에 의하여 산출될 수 있다.In this case, the internal route guidance information may include an estimated walking time. In this case, the estimated walking time may be calculated by a calculator (not shown), a walking data DB (not shown), a feature DB (not shown) and an analysis unit (not shown) included in the device 10 . .

즉, 도면에 도시하지는 않았으나, 본 장치(10)는 산출부(미도시), 도보 데이터 DB(미도시), 지형지물 DB(미도시) 및 분석부(미도시)를 포함할 수 있다.That is, although not shown in the drawings, the apparatus 10 may include a calculation unit (not shown), a walking data DB (not shown), a feature DB (not shown), and an analysis unit (not shown).

산출부(미도시)는 제어부(13)에 의해 제공되는 내부 길 안내 정보에 대응하는 내부 길 안내 경로(즉, 제2 경로 생성부에 의해 생성되는 내부 길 안내 경로)에 대한 도보 이동 시간(예측 도보 이동 시간)을 산출할 수 있다. 이때, 산출부(미도시)는 도보 데이터 DB(미도시)에 기 저장된 사용자의 도보 센싱 데이터를 분석함으로써 획득된 사용자의 도보 특성 정보를 고려하여 도보 이동 시간을 산출할 수 있다.The calculator (not shown) calculates the walking travel time (prediction) for the internal guidance path (ie, the internal guidance path generated by the second path generator) corresponding to the internal guidance information provided by the controller 13 . walking time) can be calculated. In this case, the calculator (not shown) may calculate the walking travel time in consideration of the user's walking characteristic information obtained by analyzing the user's walking sensing data pre-stored in the walking data DB (not shown).

이를 위해, 분석부(미도시)는 도보 데이터 DB(미도시)에 저장된 도보 센싱 데이터를 이용해 사용자의 도보 특성 정보를 분석할 수 있다. To this end, the analysis unit (not shown) may analyze the user's walking characteristic information using the walking sensing data stored in the walking data DB (not shown).

여기서, 도보 센싱 데이터는, 사용자가 도보 이동을 수행함에 따라 사용자 단말(20)에 구비된 도보센서를 통해 센싱되는 데이터(센싱값, 측정값)를 의미할 수 있다. 도보센서는 사용자의 도보(걸음)와 관련된 데이터를 센싱(측정)할 수 있는 센서로서, 일예로 자이로 센서, 가속도 센서, GPS 센서 등을 포함할 수 있으며, 이에만 한정되는 것은 아니고, 만보기 등이 포함될 수 있다.Here, the walking sensing data may refer to data (sensing values, measured values) sensed through the walking sensor provided in the user terminal 20 as the user walks. The walk sensor is a sensor that can sense (measure) data related to the user's walk (step), and may include, for example, a gyro sensor, an acceleration sensor, a GPS sensor, etc., but is not limited thereto, and a pedometer, etc. may be included.

또한, 본원의 일예에서는 도보 센싱 데이터가 사용자 단말(20)에 구비된 도보센서를 이용해 센싱(측정, 획득)되는 데이터인 것으로 예시하였으나, 이에만 한정되는 것은 아니고, 사용자의 도보(걸음) 수, 보폭, 도보 속도(걷는 속도, 보속), 도보 이동거리 등을 측정하거나 산출할 수 있는 다양한 도보 분석 기술들(즉, 종래에 기 알려져 있거나 향후 개발되는 다양한 도보 분석 기술들)이 적용될 수 있다.In addition, in an example of the present application, the walk sensing data is exemplified as data sensed (measured, acquired) using a walk sensor provided in the user terminal 20, but is not limited thereto, and the number of steps (steps) of the user; Various walking analysis techniques that can measure or calculate stride length, walking speed (walking speed, gait), walking distance, etc. (ie, various walking analysis techniques known in the prior art or developed in the future) may be applied.

또한, 도보 특성 정보는, 도보 데이터 DB(미도시)에 기 저장된 도보 센싱 데이터를 지형지물 DB(미도시)에 저장된 지형지물 정보와 연계하여 분석함으로써 획득되는 정보를 의미할 수 있다. 즉, 분석부(미도시)는 도보 데이터 DB(미도시)에 저장된 도보 센싱 데이터를 이용한 분석을 통해 도보 특성 정보를 획득할 수 있다. 특히, 분석부(미도시)는 도보 센싱 데이터와 지형지물 DB(미도시)에 저장된 지형지물 정보를 서로 연계하여 분석을 수행함으로써 사용자의 도보 특성 정보를 획득할 수 있다.In addition, the walking characteristic information may refer to information obtained by analyzing walking sensing data previously stored in the walking data DB (not shown) in association with the feature information stored in the feature DB (not shown). That is, the analysis unit (not shown) may acquire walking characteristic information through analysis using the walking sensing data stored in the walking data DB (not shown). In particular, the analysis unit (not shown) may acquire the walking characteristic information of the user by performing analysis by linking the walking sensing data and the feature information stored in the feature DB (not shown) with each other.

도보 특성 정보는 지형지물 정보가 고려된 사용자의 도보 특성에 관한 정보로서, 일예로 도보 속도(보속)를 의미할 수 있으며, 이에만 한정되는 것은 아니다. 도보 특성 정보는 단순히 거리에 따른 속도가 아닌, 지형지물 정보가 고려된 속도 정보를 의미할 수 있다.The walking characteristic information is information about the user's walking characteristics in consideration of the topographical information, and may mean, for example, walking speed (walking speed), but is not limited thereto. The walking characteristic information may refer to speed information in which topographic information is taken into consideration, not simply speed according to distance.

도보 데이터 DB(미도시)는 사용자가 도보 이동을 수행하는 경우에, 사용자가 소지한 사용자 단말(20)에 구비된 도보센서를 통해 센싱(측정)되는 도보 센싱 데이터를 도보센서로부터 획득하여 저장할 수 있다. 도보 데이터 DB(미도시)에는 도보 센싱 데이터가 누적하여 저장될 수 있다.The walking data DB (not shown) may obtain and store the walking sensing data sensed (measured) through the walk sensor provided in the user terminal 20 possessed by the user from the walk sensor when the user performs walking. have. In the walking data DB (not shown), walking sensing data may be accumulated and stored.

지형지물 DB(미도시)는 지형지물 정보를 저장할 수 있다. 지형지물은 땅의 생김새(모양)와 땅 위에 있는 모든 물체를 지칭할 수 있다.The feature DB (not shown) may store feature information. A landmark can refer to the appearance (shape) of the land and all objects on the ground.

지형지물 정보에는 특정 구간에 대한 지형의 경사 정보(경사도)가 포함될 수 있다. 경사 정보는 경사도가 0값을 갖는 평지인지, 경사도 양의 값(+x°)을 갖는 오르막 지형인지, 경사도가 마이너스 값(-x°)을 갖는 내리막 지형인지, 내부 길이 움푹 파여있는지 등의 정보가 포함될 수 있다. 또한, 지형지물 정보에는 특정 구간에 대한 지물의 정보로서, 해당 특정 구간이 에스컬레이터 구간인지, 엘리베이터 영역인지 등의 정보가 포함될 수 있다.The feature information may include slope information (slope) of the terrain for a specific section. The slope information includes information such as whether it is a flat land with a slope of 0, an uphill terrain with a positive slope value (+x°), a downhill terrain with a negative slope (-x°), and whether the interior length is recessed. may be included. In addition, the feature information may include information such as whether the specific section is an escalator section or an elevator area as feature information for a specific section.

이때, 지형지물 DB(미도시)에 저장되는 지형지물 정보는 종래에 기 알려져 있거나 향후 개발되는 다양한 지형지물 측량 기술을 이용해 획득된 정보일 수 있으며, 구체적인 설명은 생략하기로 한다.At this time, the feature information stored in the feature DB (not shown) may be information obtained using various feature surveying techniques that are known in the prior art or developed in the future, and a detailed description thereof will be omitted.

분석부(미도시)는 이러한 도보 데이터 DB(미도시)에 저장된 도보 센싱 데이터와 지형지물 DB(미도시)에 저장된 지형지물 정보를 서로 연계하여, 사용자의 도보 특성에 관한 정보(즉, 도보 특성 정보)를 분석할 수 있다. 즉, 분석부(미도시)는 도보 센싱 데이터와 지형지물 정보를 연계한 분석을 통해, 지형지물 정보가 고려된 사용자의 도보 특성 정보를 획득할 수 있다.The analysis unit (not shown) links the walking sensing data stored in the walking data DB (not shown) and the feature information stored in the feature DB (not shown) with each other, and information about the user's walking characteristics (that is, walking characteristics) information) can be analyzed. That is, the analysis unit (not shown) may acquire the walking characteristic information of the user in consideration of the geographical feature information through analysis by linking the walking sensing data and the feature information.

예시적으로, 지형지물 정보가 고려된 사용자의 도보 특성 정보에는, 분석부(미도시)에 의하여 분석된 정보로서, 경사도가 +60°인 100m의 구간을 사용자가 걸을 때의 보속은 1.66m/s, 경사도가 +20°인 100m의 구간을 사용자가 걸을 때의 보속은 1.79m/s, 경사도가 0°인 평지인 100m의 구간을 사용자가 걸을 때의 보속은 2.5m/s, 경사도가 60°로 형성된 100m 구간의 계단을 사용자가 걸을 때의 보속은 1.55m/s 등과 같은 분석 정보가 포함될 수 있다.Illustratively, in the walking characteristic information of the user in consideration of the topographical information, as information analyzed by the analysis unit (not shown), the walking speed when the user walks in a section of 100m with an inclination of +60° is 1.66m/ s, when the user walks a section of 100m with an inclination of +20°, the stride speed is 1.79m/s Analysis information such as 1.55m/s may be included in the stride rate when the user walks the stairs of 100m section formed in °.

분석부(미도시)는 일예로 도보 센싱 데이터와 지형지물 정보를 서로 연계하여 딥러닝 모델을 기반으로 분석을 수행(즉, 딥러닝 모델을 이용하여 학습)할 수 있으며, 이를 통해 시간이 지남에 따라 도보 센싱 데이터의 수가 증가할수록, 보다 정확한 지형지물 정보가 고려된 사용자의 도보 특성 정보를 획득(즉, 지형지물 정보의 각종 유형을 고려하여, 각 지형지물 유형에 최적화된 정확한 사용자의 도보 특성 정보를 획득)할 수 있다.The analysis unit (not shown) can perform analysis based on the deep learning model (ie, learning using the deep learning model) by linking the walking sensing data and the topographical information with each other, for example, and through this, Accordingly, as the number of walking sensing data increases, more accurate feature information is obtained, the user's walking characteristic information is acquired (that is, accurate user's walking characteristic information optimized for each feature type, taking into account various types of feature information) can be obtained).

딥러닝 모델은 일예로 인공지능(AI) 알고리즘 모델, 기계학습(머신러닝) 모델, 신경망 모델(인공 신경망 모델), 뉴로 퍼지 모델 등을 의미할 수 있다. 또한, 딥러닝 모델은 예시적으로 컨볼루션 신경망(Convolution Neural Network, CNN, 합성곱 신경망), 순환신경망(RNN, Recurrent Neural Network), 딥 신경망(Deep Neural Network) 등 종래에 이미 공지되었거나 향후 개발되는 다양한 신경망 모델이 적용될 수 있다.The deep learning model may refer to, for example, an artificial intelligence (AI) algorithm model, a machine learning (machine learning) model, a neural network model (an artificial neural network model), a neurofuzzy model, and the like. In addition, the deep learning model is exemplarily a convolutional neural network (CNN, convolutional neural network), a recurrent neural network (RNN), a deep neural network, etc. that have been previously known or developed in the future. Various neural network models can be applied.

산출부(미도시)는 분석부(미도시)에 의한 분석을 통해 획득된 사용자의 도보 특성 정보(즉, 지형지물 정보가 고려된 사용자의 도보 특성 정보)를 고려하여, 출발지 정보의 위치로부터 목적지 정보의 위치까지의 내부 길 안내 경로에 대한 도보 이동 시간을 산출할 수 있다. 산출부(미도시)에 의해 산출되는 도보 이동 시간은 예측 도보 이동 시간, 도보 소요 시간, 예상 도보 이동(소요) 시간 등으로 달리 표현될 수 있다.The calculation unit (not shown) considers the user's walking characteristic information obtained through analysis by the analysis unit (not shown) (that is, the user's walking characteristic information in which the topographical information is considered), from the location of the departure point information to the destination. It is possible to calculate the walking travel time for the internal navigation route to the location of the information. The walking time calculated by the calculator (not shown) may be expressed differently as a predicted walking time, a required walking time, an estimated walking (required) time, and the like.

제어부(13)에서 제공되는 내부 길 안내 정보에 대응하는 내부 길 안내 경로에 대한 도보 이동 시간(예측 도보 이동 시간)을 산출하기 위해, 산출부(미도시)는 지형지물 DB(미도시)로부터 내부 길 안내 경로에 대응하는 경로 상 지형지물 정보를 식별하고, 분석부(미도시)에 의하여 분석(획득)된 사용자의 도보 특성 정보와 식별된 경로 상 지형지물 정보를 고려하여 예측 도보 이동 시간을 산출할 수 있다.In order to calculate the walking travel time (predicted walking travel time) for the internal guidance path corresponding to the internal guidance information provided by the controller 13 , the calculator (not shown) is configured to calculate the internal navigation time from the feature DB (not shown). Identifies information on features on the route corresponding to the route guidance route, and calculates the estimated walking time by considering the user's walking characteristic information analyzed (acquired) by the analysis unit (not shown) and the identified feature information on the route can do.

여기서, 지형지물 DB(미도시)에 저장되는 지형지물 정보는, 사용자의 도보 이동시 보속에 영향을 미치는 제1 요소와 관련된 정보를 포함할 수 있다. 이때, 제1 요소와 관련된 정보는 지형의 경사도(평지, 오르막, 내리막), 계단, 에스컬레이터, 및 엘리베이터 중 적어도 하나와 관련된 정보일 수 있다.Here, the feature information stored in the feature DB (not shown) may include information related to the first factor affecting the gait speed when the user moves on foot. In this case, the information related to the first element may be information related to at least one of the slope of the terrain (flat, uphill, downhill), stairs, escalators, and elevators.

본원의 일예에서는 사용자의 보속에 영향을 미치는 제1 요소와 관련된 정보로서, 지형의 경사도, 계단, 엘리베이터 및 에스컬레이터 중 적어도 하나가 고려되는 것으로만 예시하였으나, 이에만 한정되는 것은 아니고, 사용자의 보속에 영향을 줄 수 있는 다양한 지형지물 관련 요소들이 고려될 수 있다.In one example of the present application, as information related to the first factor affecting the user's pace, at least one of the slope of the terrain, stairs, elevator, and escalator has been exemplified, but it is not limited thereto, and the user's pace is not limited thereto. Various terrain-related factors that can influence can be considered.

구체적으로, 사용자의 도보 이동시의 속도(즉, 보속)는 해당 사용자가 이동하는 지형이 평지인지, 오르막길인지, 내리막길인지, 혹은 계단인지, 에스컬레이터인지, 엘리베이터인지 등에 따라 차이가 있을 수 있으며, 이러한 보속 차이는 사용자마다 각기 다르게 나타날 수 있다. Specifically, the user's walking speed (i.e., walking speed) may differ depending on whether the user's moving terrain is flat, uphill, downhill, stairs, escalator, elevator, etc. The pacing rate may differ from user to user.

종래기술의 경우에는 특정 경로에 대한 도보 이동 시간을 제공함에 있어서, 개개인의 도보 특성을 고려하는 것 없이 단지 거리에 따라 정해지는 획일화된 도보 이동 시간을 제공하였다. 예시적으로, 종래기술의 경우에는 특정 경로에 대한 도보 이동 시간을 100m이면 1분, 200m이면 2분 등과 같이 거리와 비례하게 획일화된 도보 이동 시간을 제공하였다.In the case of the prior art, in providing the walking time for a specific route, a standardized walking time determined only according to the distance without considering individual walking characteristics was provided. Illustratively, in the case of the prior art, a uniform walking time for a specific route is provided in proportion to the distance, such as 1 minute for 100 m, 2 minutes for 200 m, and the like.

이에 반해, 산출부(미도시)는, 내부 길 안내 경로에 대응하는 경로 상 지형지물 정보에 대하여 분석부(미도시)에 의해 분석된 사용자(사용자 개인)의 도보 특성 정보를 적용시킴으로써, 산출되는 내부 길 안내 경로에 대한 도보 이동 시간으로서, 해당 내부 길 안내 경로의 지형지물의 특성을 반영하여 사용자의 도보 특성에 맞춤화된 사용자 개인 맞춤형 도보 이동 시간을 산출할 수 있다.On the other hand, the calculation unit (not shown) applies the walking characteristic information of the user (user individual) analyzed by the analysis unit (not shown) to the feature information on the path corresponding to the internal road guide path, which is calculated by As the walking travel time for the internal guidance path, the user's personalized walking time customized to the user's walking characteristics may be calculated by reflecting the characteristics of the features of the corresponding internal guidance path.

예를 들어, 산출부(미도시)에 의한 경로 상 지형지물 정보의 식별 결과, 식별된 경로 상 지형지물 정보에 대응하는 내부 길 안내 경로가, 경사도가 +20°인 200m에 해당하는 제1 구간, 내려가는 계단이 존재하는 100m에 해당하는 제2 구간, 및 평지인 100m에 해당하는 제3 구간으로 이루어져 있다고 하자.For example, as a result of identification of the feature information on the path by the calculator (not shown), the internal path guidance path corresponding to the identified feature information on the path is a first section corresponding to 200m with an inclination of +20° , a second section corresponding to 100 m in which there is a descending staircase, and a third section corresponding to 100 m, which is flat ground.

이러한 경우, 산출부(미도시)는 분석부(미도시)에 의하여 분석된 사용자의 도보 특성 정보를 고려하여, 해당 내부 길 안내 경로에 포함된 각 구간(제1 구간 내지 제3 구간 각각)에 대하여 사용자에게 맞춤화된 구간별 도보 이동 시간을 산출할 수 있으며, 산출된 구간별 도보 이동 시간을 합산함으로써 최종적으로 내부 길 안내 경로에 대한 도보 이동 시간(즉, 사용자의 도보 특성을 기반으로 한 예측 도보 소요 시간)을 산출할 수 있다.In this case, the calculation unit (not shown) considers the walking characteristic information of the user analyzed by the analysis unit (not shown), and applies the information to each section (each of the first section to the third section) included in the corresponding internal route guidance route. It is possible to calculate the walking time for each section customized to the user, and by summing the calculated walking time for each section, finally the walking time for the internal guidance route (that is, the estimated walking time based on the user’s walking characteristics) required time) can be calculated.

산출부(미도시)는 제1 요소와 관련된 정보를 고려하여 도보 이동 시간을 산출할 때, 경사도의 절대값이 큰 값을 가질수록(즉, 오르막 경사가 급할수록, 내리막 경사가 급할수록), 도보 이동 시간이 더 오래 걸리는 것으로 예측하여 도보 이동 시간을 보다 큰 값으로 산출할 수 있다. 달리 표현해, 산출부(미도시)에 의해 산출되는 도보 이동 시간은, 일예로 경로상 지형지물 정보에 포함된 제1 요소와 관련된 정보에 있어서 경사도의 절대값이 클수록 큰 값으로 산출될 수 있다.The calculator (not shown) calculates the walking travel time in consideration of the information related to the first factor, as the absolute value of the slope has a larger value (that is, the steeper the uphill slope, the steeper the downhill slope), By predicting that the walking travel time takes longer, the walking travel time can be calculated as a larger value. In other words, the walking travel time calculated by the calculator (not shown) may be calculated as, for example, a larger value as the absolute value of the inclination in the information related to the first element included in the feature information on the route increases.

또한, 산출부(미도시)는 사용자로부터 기 획득된 착용품 정보를 고려하여 내부 길 안내 경로에 대한 예측 도보 이동 시간을 산출할 수 있다.In addition, the calculator (not shown) may calculate the estimated walking time for the internal navigation route in consideration of the wearable information previously obtained from the user.

여기서, 착용품 정보는 사용자가 내부 길 안내 경로에 대한 도보 이동시 착용 예정이거나 소지 예정인 착용품에 관한 정보를 의미할 수 있다. 이러한 경우, 산출부(미도시)는 도보 특성 정보, 내부 길 안내 경로에 대한 경로 상 지형지물 정보 및 착용품 정보를 고려하여 예측 도보 이동 시간을 산출할 수 있다.Here, the wearable article information may mean information about a wearable article that the user is scheduled to wear or possess when the user walks along an internal navigation route. In this case, the calculator (not shown) may calculate the estimated walking travel time in consideration of walking characteristic information, information on features on a route for an internal route guidance route, and information on wearable items.

착용품 정보는 일예로 사용자가 사용자 단말(20)을 통해 직접 입력한 정보일 수 있다. 다만, 이에만 한정되는 것은 아니고, 착용품 정보는 사용자가 착용한 착용품에 대한 정보 제공이 가능한 착용품 정보 제공 유닛(주변 기기)과 본 장치(10)가 서로 간에 연동됨으로써, 착용품 정보 제공 유닛으로부터 획득된 정보일 수 있다. 여기서, 착용품 정보 제공 유닛은 일예로 사용자 단말(20)에 구비된 이미지 획득 센서(즉, 카메라)를 등일 수 있으나, 이에 한정되는 것은 아니다.The wearing article information may be, for example, information directly input by the user through the user terminal 20 . However, the present invention is not limited thereto, and the wearable article information is provided by interlocking the wearable article information providing unit (peripheral device) capable of providing information on the wearable article worn by the user and the present device 10 with each other, thereby providing wearable article information It may be information obtained from the unit. Here, the wearing article information providing unit may be, for example, an image acquisition sensor (ie, a camera) provided in the user terminal 20 , but is not limited thereto.

예시적으로, 사용자는 사용자 단말(20)의 이미지 획득 센서를 통해 사용자 자신이 소지하거나 착용하고 있는 착용품(이는 소지품도 포함)을 촬영하여 착용품 관련 이미지를 획득할 수 있다. For example, the user may acquire a wearable article-related image by photographing a wearable item (including belongings) that the user owns or is wearing through an image acquisition sensor of the user terminal 20 .

산출부(미도시)는, 착용품 관련 이미지에 대하여 이미지 분석을 수행함으로써, 해당 이미지에 포함된 착용품을 식별할 수 있으며, 식별된 착용품에 대한 검색을 수행함으로써 식별된 착용품에 관한 정보(즉, 착용품 정보)를 획득할 수 있다. 이때, 착용품 정보는 제2 요소와 관련된 정보를 포함하는 정보를 의미할 수 있다.The calculator (not shown) may identify the wearable article included in the image by performing image analysis on the wearable article-related image, and information on the identified wearable article by performing a search for the identified wearable article (that is, information on wearing items) can be obtained. In this case, the wearable information may refer to information including information related to the second element.

여기서, 착용품 정보는, 사용자의 도보 이동시 보속에 영향을 미치는 제2 요소와 관련된 정보를 포함할 수 있다. 제2 요소와 관련된 정보는, 짐 소지 여부, 짐의 유형, 사용자가 착용한 신발의 유형, 및 사용자의 옷차림 유형 중 적어도 하나와 관련된 정보일 수 있다.Here, the wearable information may include information related to a second factor that affects the walking speed when the user walks. The information related to the second element may be information related to at least one of whether the user has luggage, the type of luggage, the type of shoes worn by the user, and the type of clothing worn by the user.

산출부(미도시)는 일예로 인터넷 등과의 연계를 통해 이미지 분석으로 식별된 착용품과 동일한 착용품을 인터넷에서 자동 검색할 수 있으며, 이를 기초로 사용자가 소지하거나 착용한 착용품에 관한 정보(즉, 착용품 정보)를 획득할 수 있다.The calculator (not shown) may automatically search the Internet for the same wearable article as the wearable article identified by image analysis through connection with the Internet, for example, and based on this, information on the wearable article possessed or worn by the user ( That is, information on wearing items) may be obtained.

일예로, 이미지 획득 센서로부터 촬영된 이미지 내에 사용자가 신은 신발로서 하이힐이 포함되어 있다고 하자. 산출부(미도시)는 획득된 착용품 관련 이미지에 대하여 이미지 분석을 수행함으로써, 이미지에 포함된 착용품으로서 하이힐을 식별할 수 있다. 이후, 산출부(미도시)는 식별된 이미지 내 하이힐과 매칭되는 하이힐(즉, 매칭되는 동일 착용품)을 인터넷을 이용해 검색할 수 있다. 이러한 인터넷 검색 결과를 기초로, 산출부(미도시)는 식별된 이미지 내 포함된 하이힐에 관한 정보(즉, 착용품 정보)를 획득할 수 있다. 이때, 하이힐에 관한 정보에는 일예로 하이힐의 굽 높이, 무게 등에 관한 정보가 포함될 수 있다.For example, it is assumed that high heels are included as shoes worn by the user in the image captured by the image acquisition sensor. The calculator (not shown) may identify the high heel as a wearable article included in the image by performing image analysis on the acquired wearable article-related image. Thereafter, the calculator (not shown) may search for high heels matching the high heels in the identified image (ie, the same wearing item that matches) using the Internet. Based on such an Internet search result, the calculator (not shown) may acquire information about high heels included in the identified image (ie, information on wearing items). In this case, the information about the high heel may include, for example, information about the heel height and weight of the high heel.

이때, 이미지 획득 센서로부터 획득된 이미지의 분석은, 종래에 기 존재하거나 향후 개발되는 다양한 이미지 분석 알고리즘(이미지 내 객체를 식별하는 다양한 이미지 분석 알고리즘)이 적용될 수 있다. In this case, various image analysis algorithms (various image analysis algorithms for identifying objects in an image) that are conventionally existing or developed in the future may be applied to the analysis of the image acquired from the image acquisition sensor.

산출부(미도시)는 착용품 정보가 획득되지 않은 경우, 도보 특성 정보와 경로 상 지형지물 정보를 고려하여 내부 길 안내 경로에 대한 도보 이동 시간을 산출할 수 있다. 한편, 산출부(미도시)는 착용품 정보가 획득된 경우, 도보 특성 정보와 경로 상 지형지물 정보뿐만 아니라 착용품 정보를 더 고려하여 내부 길 안내 경로에 대한 도보 이동 시간을 산출할 수 있다.When the wearable information is not obtained, the calculator (not shown) may calculate the walking travel time for the inner path guidance path in consideration of the walking characteristic information and the feature information on the path. On the other hand, when the wearable information is obtained, the calculator (not shown) may calculate the walking moving time for the internal route guidance route by further considering the wearing information as well as the walking characteristic information and the information on the features on the route.

본 장치(10)에서는 보다 사용자에게 맞춤화된 정확한 도보 이동 시간을 제공하기 위해, 도보 특성 정보와 경로 상 지형지물 정보뿐만 아니라 착용품 정보를 더 고려하여 도보 이동 시간을 산출하는 것이 바람직할 수 있다.In the present device 10, in order to provide a more customized accurate walking time to the user, it may be preferable to calculate the walking time by considering not only the walking characteristic information and the information on the features on the path, but also the wearables information.

여기서, 착용품 정보는 사용자의 도보 이동시 보속에 영향을 미치는 제2 요소와 관련된 정보를 포함할 수 있다. 제2 요소와 관련된 정보는, 짐 소지 여부, 짐의 유형, 사용자가 착용한 신발의 유형, 및 사용자의 옷차림 유형 중 적어도 하나와 관련된 정보일 수 있다.Here, the wearable information may include information related to a second factor that affects the gait speed when the user walks. The information related to the second element may be information related to at least one of whether the user has luggage, the type of luggage, the type of shoes worn by the user, and the type of clothing worn by the user.

이때, 짐의 유형에는 짐의 무게, 짐의 크기 및 짐의 형태 등이 포함될 수 있다. 여기서, 짐의 형태라 함은 일예로 짐이 가방인 경우, 끄는 형태의 바퀴 달린 캐리어인지, 사용자가 등에 멜 수 있는 가방인지, 한쪽 어깨로 메는 가방인지, 단순히 손잡이만 있어 손으로 들어야 하는 가방인지 등을 의미할 수 있다. 또한, 짐의 형태에는 박스 상자인지 등이 포함될 수 있다.In this case, the type of the load may include the weight of the load, the size of the load, the shape of the load, and the like. Here, the shape of the luggage means, for example, if the luggage is a bag, whether it is a wheeled carrier of a towable type, a bag that the user can carry on his or her back, a bag to be carried over one shoulder, or a bag that has only a handle and must be carried by hand. can mean etc. In addition, the shape of the luggage may include whether it is a box box or the like.

사용자가 착용한 신발의 유형에는 신발의 종류, 신발의 굽 높이 등이 포함될 수 있다. 여기서, 신발의 종류로는 운동화인지, 하이힐인지 등이 포함될 수 있으나, 이에 한정되는 것은 아니다.The type of shoe worn by the user may include a type of shoe, a heel height of the shoe, and the like. Here, the type of shoe may include, but is not limited to, whether it is sneakers or high heels.

사용자의 옷차림 유형에는 치마인지, 바지인지, 셔츠인지, 맨투맨 티인지, 정장인지 등이 포함될 수 있으나, 이에 한정되는 것은 아니다.The user's attire type may include, but is not limited to, whether it is a skirt, pants, a shirt, a sweatshirt, or a suit.

본원의 일예에서는, 사용자의 보속에 영향을 미치는 제2 요소와 관련된 정보로서, 짐 소지 여부, 짐의 유형, 사용자가 착용한 신발의 유형, 및 사용자의 옷차림 유형 중 적어도 하나가 고려되는 것으로만 예시하였으나, 이에만 한정되는 것은 아니고, 사용자의 보속에 영향을 줄 수 있는 다양한 소지품 내지 착용품 등이 고려될 수 있다.In one example of the present application, as information related to the second factor affecting the user's walking speed, it is exemplified that at least one of whether the user has luggage, the type of luggage, the type of shoes worn by the user, and the type of clothing of the user is considered However, the present invention is not limited thereto, and various belongings or wearables that may affect the user's perseverance may be considered.

예시적으로, 사용자가 도보 이동의 수행시 상대적으로 무거운 짐을 가지고 이동하고자 하는 경우, 사용자의 보속은 짐을 가지고 있지 않을 때의 보속(기본 보속)과 대비하여 느려질 수 있다. 또한, 사용자가 도보 이동시, 7cm의 굽을 가지는 하이힐을 신는 경우에는 운동화를 신고 있는 경우와 대비하여 보속이 느려질 수 있다. 또한, 사용자가 도보 이동시, 7cm의 굽을 가지는 하이힐을 신는 경우에는 3cm의 굽을 가지는 하이힐을 신는 경우와 대비하여 보속이 느려질 수 있다.Illustratively, if the user intends to move with a relatively heavy load when performing walking, the user's stride rate may be slower than that of the user without the load (basic stride rate). In addition, when the user walks, when he wears high heels having a heel of 7 cm, the pace may be slower than when he wears sneakers. Also, when the user walks, when he wears high heels having a heel of 7 cm, the pace may be slower than when he wears high heels having a heel of 3 cm.

이처럼, 사용자의 도보 이동시의 속도(즉, 보속)는 해당 사용자가 소지하거나 착용하고 있는 착용품 정보의 유형에 따라(구체적으로, 제2 요소와 관련된 정보의 유형에 따라) 차이가 있을 수 있으며, 이러한 보속 차이는 사용자마다 각기 다르게 나타날 수 있다. 따라서, 산출부(미도시)는 이러한 소지품 정보의 유형을 고려하여 사용자에게 맞춤화된 예측 도보 이동 시간을 산출할 수 있다. As such, the user's walking speed (ie, pace) may vary depending on the type of wearable information that the user has or is wearing (specifically, according to the type of information related to the second element), This gait difference may appear differently for each user. Accordingly, the calculator (not shown) may calculate the predicted walking time customized to the user in consideration of the type of information about belongings.

본원에서 착용품 정보라 함은 사용자의 신체에 착용되는 모자, 의류, 바지, 신발, 액세서리 등과 같은 착용품뿐만 아니라 캐리어, 박스, 쇼핑백 등과 같은 소지품에 관한 정보를 모두 포함하는 개념으로 이해됨이 바람직하다.In the present application, the information on wearables is preferably understood as a concept that includes not only wearables such as hats, clothes, pants, shoes, and accessories worn on the user's body, but also information about belongings such as carriers, boxes, and shopping bags. do.

산출부(미도시)는 제2 요소와 관련된 정보를 고려하여 도보 이동 시간을 산출할 때, 짐의 무게 값 및 크기 값이 큰 값을 가질수록, 도보 이동 시간이 더 오래 걸리는 것으로 예측하여 도보 이동 시간을 보다 큰 값으로 산출할 수 있다. 달리 표현해, 산출부(미도시)에 의해 산출되는 도보 이동 시간은, 일예로 착용품 정보에 포함된 제2 요소와 관련된 정보에 있어서 짐의 무게 값 및 크기 값이 큰 값을 가질수록 큰 값으로 산출될 수 있다.When calculating the walking travel time in consideration of the information related to the second factor, the calculator (not shown) predicts that the walking time will take longer as the weight and size of the load are larger. Time can be calculated to a larger value. In other words, the walking travel time calculated by the calculator (not shown) is, for example, a larger value as the weight value and size value of the load in the information related to the second element included in the wearables information have larger values. can be calculated.

이처럼, 산출부(미도시)는 출발지로부터 목적지(목적지)까지의 특정 경로(내부 길 안내 경로)에 대한 도보 이동 시간을 제공함에 있어서, 일반적으로 획일화된 도보 이동 시간을 제공하는 종래의 기술들과는 달리, 사용자가 도보로 이동할 때 보속에 영향을 미칠 수 있는 다양한 요소들(즉, 지형지물 관련 제1 요소들, 착용품 관련 제2 요소들)과 사용자의 도보 특성 정보를 고려하여 사용자 개개인에 최적으로 맞춤화된 도보 이동 시간을 산출할 수 있다.In this way, the calculator (not shown) provides the walking travel time for a specific route (internal route guidance route) from the origin to the destination (destination), unlike conventional techniques that generally provide a standardized walking travel time. In contrast, when the user moves on foot, it is optimal for each user in consideration of various factors that may affect gait speed (that is, first factors related to a feature, second factors related to wearables) and information about the user's walking characteristics can calculate the customized walking travel time.

제어부(13)는 산출부(미도시)에서 산출된 예측 도보 이동 시간과 내부 길 안내 정보를 사용자 단말(20)의 화면에 표시할 수 있다. 달리 표현해, 제어부(13)는 예측 도보 이동 시간을 포함하는 내부 길 안내 정보를 사용자 단말(20)의 화면에 표시되도록 제어(제공)할 수 있다.The controller 13 may display the predicted walking travel time and the internal route guidance information calculated by the calculator (not shown) on the screen of the user terminal 20 . In other words, the control unit 13 may control (provide) the internal route guidance information including the estimated walking time to be displayed on the screen of the user terminal 20 .

즉, 화면에 표시되는 내부 길 안내 정보에는, 내부 길 안내 경로, 및 해당 내부 길 안내 경로를 사용자가 도보로 이동하는 경우에 소요되는 시간을 본 장치(10)가 예측한 예측 도보 이동 시간이 포함될 수 있다. 뿐만 아니라, 내부 길 안내 정보에는 내부 길 안내 경로에 대한 거리 정보가 포함될 수 있다.That is, the internal navigation information displayed on the screen includes an internal navigation route and a predicted walking time estimated by the device 10 for a time required when the user moves the corresponding internal route guidance route on foot. can In addition, the internal navigation information may include distance information on the internal navigation route.

본 장치(10)는 내부 길 안내 경로에 대한 도보 소요 시간(예상 도보 이동 시간)을 개인화된 걸음 정보(즉, 도보 특성 정보)를 기반으로 산출할 수 있다. 이러한 본 장치(10)는 사용자에게 최적화된 도보의 소요시간(도보 이동 시간)을 제공할 수 있다.The device 10 may calculate the required walking time (expected walking travel time) for the internal navigation route based on personalized step information (ie, walking characteristic information). This device 10 may provide the user with an optimized walking time (walking travel time).

본 장치(10)는 사용자(보행자)의 걸음 데이터(도보 센싱 데이터)를 누적하여 도보 데이터 DB(미도시)에 저장할 수 있다. 도보 데이터 DB(미도시)에 저장된 도보 센싱 데이터를 이용하여 분석된 사용자의 도보 특성 정보를 고려하여, 본 장치(10)는 획일적인 소요 시간이 아닌 사용자 개인의 누적 걸음 데이터(누적 도보 센싱 데이터)에 기초한 정확한 사용자 개인별 예상 도보 이동 시간(예상 도보 소요 시간)을 산출하여 제공할 수 있다.The device 10 may accumulate step data (walking sensing data) of a user (a pedestrian) and store it in a walking data DB (not shown). Considering the user's walking characteristic information analyzed using the walking sensing data stored in the walking data DB (not shown), the device 10 is not a uniform required time, but the user's individual accumulated step data (accumulated walking sensing data) It is possible to calculate and provide an accurate estimated walking travel time (estimated walking time required) for each individual user based on .

또한, 본 장치(10)는 경로 상 지형지물 정보를 더 고려하여 도보 이동 시간을 산출할 수 있다. 즉, 본 장치(10)는 지형지물 DB(미도시)에 저장된 지형지물 정보를 이용해 생성된 내부 길 안내 경로 상의 지형지물을 파악하고, 파악된 지형지물을 고려해 도보 이동 시간을 산출할 수 있다.In addition, the apparatus 10 may calculate the walking time by further considering the information on the features on the route. That is, the device 10 may determine the features on the internal road guide path generated by using the feature information stored in the feature DB (not shown), and calculate the walking travel time in consideration of the identified features.

즉, 본 장치(10)는 지형지물 DB(미도시)에 저장된 지형지물 정보를 이용하여 내부 길 안내 경로 상에 존재하는 사용자의 보속에 영향을 미치는 요소들(제1 요소들)을 파악한 후, 파악된 요소들에 대하여 분석부(미도시)에 의해 기 분석된 사용자의 도보 특성 정보를 적용함으로써, 경로 상의 지형지물 정보에 의한 영향(즉, 제1 요소들에 의한 영향)이 고려된 사용자에게 맞춤화된 도보 이동 시간을 산출할 수 있다.That is, the device 10 uses the feature information stored in the feature DB (not shown) to determine the factors (first elements) that affect the user's gait existing on the inner road guide path, By applying the user's walking characteristic information previously analyzed by the analysis unit (not shown) to the identified elements, the influence of the geographical feature information on the path (ie, the influence of the first elements) is given to the user in consideration. Customized walking travel times can be calculated.

또한, 본 장치(10)는 사용자의 도보 특성 정보와 지형지물 정보뿐만 아니라 사용자가 소지하거나 착용한 착용품 정보를 더 고려하여 도보 이동 시간을 산출할 수 있다. 여기서, 착용품 정보에는 사용자가 착용하고 있거나 소지하고 있는 물품에 관한 것으로서, 짐, 물건, 옷차림, 착용하고 있는 신발 등에 관한 정보가 포함될 수 있다. 이러한 본 장치(10)는 사용자에게 맞춤화된 출발지로부터 도착지까지의 예상 도보 이동 시간을 제공할 수 있다. 즉, 본 장치(10)는 내부 길 안내 경로에 대한 도보 이동 시간으로서, 사용자 도보에 맞춤화된 예측 도보 실소요시간을 제공할 수 있다.In addition, the device 10 may calculate the walking travel time by further considering the user's walking characteristic information and topographical feature information, as well as information on items worn or possessed by the user. Here, the wearable article information relates to articles worn or possessed by the user, and may include information about luggage, articles, clothes, shoes being worn, and the like. This device 10 may provide the user with an estimated walking travel time from the origin to the destination customized to the user. That is, the device 10 may provide the estimated actual walking time customized to the user's walking as the walking travel time for the internal navigation route.

본 장치(10)는 사용자 개인의 걸음 속도(도보 속도, 보속)를 고려하여 출발지로부터 목적지까지의 도보 이동 시간(도보 소요 시간)을 애플리케이션의 유저인터페이스(UI, User Interface) 형태로 제공할 수 있다.The device 10 may provide the walking travel time (walking time required) from the starting point to the destination in the form of a user interface (UI, User Interface) of the application in consideration of the user's individual walking speed (walking speed, walking speed) .

종래기술에서는 단순히 출발지와 목적지까지 획일화된 도보 이동 시간(도보 소요 시간)을 제공하였다. 반면, 본 장치(10)는 도보 이동 시간을 제공함에 있어서, 사용자의 걸음 데이터(도보 센싱 데이터)를 저장한 다음, 저장된 도보 센싱 데이터를 이용해 분석된 도보 특성 정보, 사용자가 요청한 경로(출발지로부터 도착지까지의 경로) 상에서 지형지물에 대한 환경, 및 주변기기와의 연동을 통해 획득 가능한 사용자의 착용품 정보(일예로, 짐, 물건, 옷차림, 신발 등)를 함께 종합적으로 고려(반영)하여 도보 이동 시간을 산출할 수 있다.In the prior art, a uniform walking travel time (walking time required) to a starting point and a destination is simply provided. On the other hand, in providing the walking time, the device 10 stores the user's step data (walking sensing data), and then, walking characteristic information analyzed using the stored walking sensing data, and the route requested by the user (from the origin to the destination). walking time by comprehensively considering (reflecting) the environment of the terrain and information on the user's wearables (for example, luggage, objects, clothes, shoes, etc.) that can be obtained through interlocking with peripheral devices can be calculated.

다시 말해, 본 장치(10)는, 개인화된 도보 특성 정보(개인화된 사용자 걸음 정보)와 더불어 보속에 영향을 미칠 수 있는 경로상의 지형지물(오르막, 내리막, 교차로, 육교, 지하도 등)을 더 고려하여 출발지로부터 도착지까지의 예상 도보 이동 시간을 산출할 수 있다. 더하여, 본 장치(10)는 개인화된 도보 특성 정보, 지형지물 정보뿐만 아니라 보속에 영향을 미칠 수 있는 사용자의 착용품 정보(즉, 사용자가 가지고 있는 짐, 물건 또는 사용자의 옷차림, 착용하고 있는 신발 등)를 더 고려함으로써 출발지로부터 도착지까지의 예상 도보 이동 시간을 보다 정확히 산출할 수 있다. 여기서, 본 장치(10)는 사용자의 착용품 정보를 일예로 주변기기와의 연동을 통해 획득하거나 혹은 사용자로부터 입력 받음으로써 획득할 수 있다.In other words, the device 10 further considers features on the path (uphill, downhill, intersection, overpass, underpass, etc.) Thus, the estimated walking time from the origin to the destination can be calculated. In addition, the device 10 provides not only personalized walking characteristic information, topographical information, but also information about the user's wearables that may affect gait (ie, the user's luggage, objects, or the user's attire, the shoes he is wearing). etc.), it is possible to more accurately calculate the estimated walking time from the origin to the destination. Here, the device 10 may obtain the user's wearables information, for example, by interworking with a peripheral device or by receiving an input from the user.

이러한, 본 장치(10)는 획일화된 이동 시간이 아닌, 사용자 개개인에 맞추어 예상된 도보 이동 시간을 제공할 수 있다. 즉, 본 장치(10)는 각각의 사용자의 상황에 맞는 정확한 개인화된 도보 이동 시간을 산출(예측)하여 제공할 수 있다.As such, the device 10 may provide an estimated walking time according to each user, rather than a uniform travel time. That is, the device 10 may calculate (predict) and provide an accurate personalized walking time suitable for each user's situation.

본 장치(10)를 통해 산출되어 제공되는 도보 이동 시간은, 종래에 제공되는 도보 이동 시간을 사용자 개개인의 도보 특성, 지형지물 정보 및 착용품 정보 등을 고려해 보정함으로써 재산출된 도보 이동 시간이라 할 수 있다.The walking travel time calculated and provided through the device 10 is called the recalculated walking time by correcting the conventionally provided walking time in consideration of individual walking characteristics, topographical information, and wearables information. can

상술한 설명에 따르면, 본 장치(10)는 AR 기술을 기반으로 복잡한 지하 길 찾기 기능을 제공할 수 있다. 본 장치(10)는 평소에 안내도가 필요했던 실내의 길을 간편하게 안내 받을 수 있도록 제공할 수 있다. 또한, 본 장치(10)는 남녀노소 사용 가능하며, 주거 지역에 관계없이 사용 가능하다. 또한, 본 장치(10)는 신기술(AR 등)의 개발로 인해 이후 발전 가능성이 크다고 할 수 있다.According to the above description, the present device 10 may provide a complex underground wayfinding function based on AR technology. The present device 10 may provide a guide map so that the user can easily receive a guide on an indoor road that normally requires a guide map. In addition, the device 10 can be used by anyone, regardless of age, and can be used regardless of a residential area. In addition, it can be said that the present device 10 has a high potential for future development due to the development of new technologies (AR, etc.).

본 장치(10)는 지상뿐만 아니라 지하의 길을 찾아주는 내비게이션 기능을 제공할 수 있다. 본 장치(10)는 지하도의 층수, 지도 및 가게(상점)의 위치까지 상세히 표시할 수 있다.The device 10 may provide a navigation function for finding a road on the ground as well as underground. The device 10 can display the number of floors of an underpass, a map, and even the location of a store (shop) in detail.

또한, 종래에 지하철 역사 내에는 단순히 a방면, b행 등과 같이 표기가 단순하고 모호하게 되어 있었던 반면, 본 장치(10)는 일예로 사용자가 이동하는 이동방향의 다음 역을 사용자 단말(20)의 화면 상에 제공할 수 있다.In addition, in the conventional subway station, while the notation is simple and vague, such as the direction a, the line b, etc., the present device 10, for example, determines the next station in the moving direction of the user terminal 20 of the user terminal 20. It can be provided on the screen.

또한, 본 장치(10)는 AR 서비스를 기반으로 내부 공간에 대한 길 안내가 가능하며, 예시적으로 각 역의 출구부터 지하철 승차장까지의 상세 경로를 AR 기반으로 안내할 수 있다. 본 장치(10)는 각 역의 QR 코드의 인식을 통해 각 역의 루비를 획득하고, 획득한 루비를 본 장치(10)와 연계된 상점에서 사용 가능하도록 제공할 수 있다.In addition, the device 10 can guide the way to the inner space based on the AR service, for example, it can guide the detailed route from the exit of each station to the subway boarding point based on AR. The device 10 may obtain the ruby of each station through the recognition of the QR code of each station, and may provide the acquired ruby to be used in a store associated with the device 10 .

또한, 본 장치(10)는 목적지(일예로 지하철 노선 상에서 선택된 특정 지하철역에 해당하는 목적지)까지의 길 안내 내지 내부 공간 내 편의시설까지의 길 안내를 AR 기반으로 하여 직관적으로 이해하기 쉬운 형태로 사용자 단말(20)에 제공할 수 있다.In addition, the device 10 provides the user with an intuitively easy-to-understand form based on AR-based road guidance to a destination (for example, a destination corresponding to a specific subway station selected on a subway line) or a road guidance to convenience facilities in the internal space. It may be provided to the terminal 20 .

또한, 본 장치(10)는 AR 기반으로 길 안내를 제공함에 있어서, 내부 길 안내 경로에 대한 예측 도보 이동 시간으로서 사용자에게 맞춤화된 도보 이동 시간을 제공함으로써, 사용자에게 보다 정확한 길 안내가 이루어지도록 제공할 수 있다.In addition, in providing AR-based route guidance, the device 10 provides a customized walking travel time to the user as a predicted walking travel time for an internal route guidance route, so that more accurate route guidance is provided to the user can do.

본 장치(10)는 내부 이동 구간으로서 예시적으로 지하철역 내부에 관한 길 안내 정보를 제공할 수 있다. 본 장치(10)는 증강현실을 이용하여 지하철역 내부의 출구, 상점, 층별 안내 등의 정보를 제공할 수 있다.The device 10 may provide route guidance information about the inside of a subway station, for example, as an internal movement section. The device 10 may use augmented reality to provide information such as an exit inside a subway station, a store, a guide for each floor, and the like.

본 장치(10)는 지하철역 내의 화장실, 상점, 교통카드 충전소, 상황실, 물품 보관함 등 지하철역 내의 다양한 편의시설까지의 경로(이동 경로)를 AR 기반으로 각 목적지에 따른 다양한 형태로 제공할 수 있다.The device 10 can provide routes (movement routes) to various convenience facilities in the subway station, such as toilets, shops, transportation card charging stations, situation rooms, and storage boxes, in various forms according to each destination based on AR.

본 장치(10)는 특정 내부 이동 구간에 대하여 특정 지하철역과 연결되는 외부 건물(예를 들어, 대형 쇼핑몰, 병원 등)이 존재하는 경우, 특정 내부 이동 구간에 대한 내부 길 안내 정보와 관련하여, 해당 외부 건물까지의 개찰구, 출구, 외부 건물의 층별 안내 등 지하철역과 연결된 외부 건물에 대한 종합 정보를 증강현실을 기반으로 내부 길 안내 정보로서 제공할 수 있다.When an external building (eg, a large shopping mall, a hospital, etc.) connected to a specific subway station exists for a specific internal movement section, the device 10 relates to internal route guidance information for a specific internal movement section, Comprehensive information on external buildings connected to subway stations, such as ticket gates, exits, and floor-by-floor guidance to external buildings can be provided as internal route guidance information based on augmented reality.

또한, 본 장치(10)는 사용자가 특정 지하철역에서 하차한 것으로 판단되는 경우, 하차한 지하철역과 연계된 편의시설 또는 외부 건물 등을 포함하는 목적지 목록을 사용자 단말(20) 상에 제공할 수 있다. 이때, 제공된 목적지 목록 중 어느 하나에 대한 목적지에 대한 사용자 입력(선택 입력)이 이루어진 경우, 본 장치(10)의 제어부(13)는 사용자에 의해 선택된 목적지까지의 경로(내부 길 안내 경로)를 포함하는 내부 길 안내 정보를 사용자 단말(20)로 제공할 수 있다. 여기서, 목적지 목록이라 함은 상술한 복수의 선택 메뉴(일예로, 노선도 선택 메뉴, 지하상가 선택 메뉴, 편의시설 선택 메뉴) 중 어느 하나의 선택 메뉴와 관련된 리스트 정보를 의미할 수 있으나, 이에 한정되는 것은 아니다.Also, when it is determined that the user gets off at a specific subway station, the device 10 may provide a list of destinations including convenience facilities or external buildings associated with the subway station to which the user got off on the user terminal 20 . At this time, when a user input (selection input) is made for a destination for any one of the provided destination lists, the control unit 13 of the device 10 includes a route (internal route guidance route) to the destination selected by the user. may be provided to the user terminal 20 with internal route guidance information. Here, the destination list may mean list information related to any one of the above-described plurality of selection menus (eg, route map selection menu, underground shopping mall selection menu, convenience facility selection menu), but is limited thereto. it is not

또한, 본 장치(10)는 사용자 단말(20)에 저장되거나 어플을 통해 확보한 사용자 개개인에 대한 개인화 데이터를 이용하여, 개인화 및 목적지에 따라 내부 길 안내 정보를 증강현실에 기반하여 다양한 형태로 제공할 수 있다.In addition, the device 10 provides internal route guidance information in various forms based on augmented reality according to personalization and destination by using personalized data for each user stored in the user terminal 20 or secured through an application. can do.

또한, 본 장치(10)는 사용자의 참여 정도(참여도)에 따라 어플리케이션 내/외에서 사용 가능한 리워드(루비, 코인 등)를 제공할 수 있으며, 이를 토대로 본 장치(10)와 연계된 어플에 대한 사용을 사용자에게 유도할 수 있다.In addition, the device 10 may provide rewards (ruby, coin, etc.) that can be used in/out of the application according to the user's participation degree (participation level), and based on this, the device 10 and related application User can be encouraged to use it.

본 장치(10)는 지하철역 내의 다양한 편의시설의 경로를 각 목적지에 따라 증강현실 형태로 제공할 수 있다. 또한, 본 장치(10)는 목적지의 위치가 지상에 존재하는 외부 건물에 해당하는 위치인 경우, 내부 이동 구간에서의 해당 외부 건물까지의 개찰구(혹은 출구) 관련 정보와 외부 건물의 층별 안내도 정보 등을 포함하는 지하철 역과 연관된 외부 건물에 대한 종합 정보를 증강 현실 기반으로 제공할 수 있다.The device 10 may provide routes of various convenience facilities in the subway station in the form of augmented reality according to each destination. In addition, when the location of the destination is a location corresponding to an external building existing on the ground, the device 10 includes information related to the ticket gate (or exit) to the external building in the internal movement section and information on the floor plan of the external building. Comprehensive information on an external building associated with a subway station, including the like, may be provided based on augmented reality.

또한, 본 장치(10)는 사용자 단말(20)에 저장되거나 어플을 통해 확보한 개인화 데이터를 이용해 목적지에 따라 다양한 형태로 증강현실을 제공함으로써, 보다 효과적인 길 안내가 이루어지도록 할 수 있다.In addition, the present device 10 provides augmented reality in various forms according to destinations using personalized data stored in the user terminal 20 or secured through an application, so that more effective route guidance can be achieved.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, an operation flow of the present application will be briefly reviewed based on the details described above.

도 13은 본원의 일 실시예에 따른 증강현실 기반 길 안내 방법에 대한 동작 흐름도이다.13 is a flowchart illustrating an augmented reality-based way guidance method according to an embodiment of the present application.

도 13에 도시된 증강현실 기반 길 안내 방법은 앞서 설명된 증강현실 기반 길 안내 장치(본 장치, 10)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 증강현실 기반 길 안내 장치(본 장치, 10)에 대하여 설명된 내용은 증강현실 기반 길 안내 방법에 대한 설명에도 동일하게 적용될 수 있다.The augmented reality-based road guidance method shown in FIG. 13 may be performed by the augmented reality-based road guidance device (the present device, 10) described above. Therefore, even if omitted below, the description of the augmented reality-based way guidance device (the present device, 10) may be equally applied to the description of the augmented reality-based way guidance method.

도 13을 참조하면, 단계S11에서 제1 경로 생성부는, 사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성할 수 있다.Referring to FIG. 13 , in step S11 , the first route generator may generate a route from the origin to the destination based on information about the origin and destination received from the user.

다음으로, 단계S12에서 제2 경로 생성부는, 단계S11에서 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 요청 신호에 응답하여 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성할 수 있다.Next, in step S12, when a request signal for requesting inner navigation for the inner movement section included in the route generated in step S11 is received, the second route generating unit responds to the request signal to provide a corresponding to the inner movement section. You can create internal navigation routes.

이때, 내부 이동 구간은, 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간을 의미할 수 있다.In this case, the internal movement section may mean a section corresponding to the internal space of a structure provided underground and/or on the ground.

또한, 단계S12에서 제2 경로 생성부는, 구조물의 층(floor)별 내부 공간의 구조(내부 구조) 및 구조물의 내부 공간에 존재하는 편의시설을 고려하여 내부 길 안내 경로를 생성할 수 있다.In addition, in step S12 , the second path generator may generate an internal route guidance path in consideration of the structure (internal structure) of the internal space for each floor of the structure and convenience facilities existing in the internal space of the structure.

또한, 단계S12에서 제2 경로 생성부는, 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 사용자 단말로부터 획득된 경우, 획득된 내부 길 관련 이미지를 요청 신호로서 인식할 수 있다.In addition, in step S12 , when the internal road related image related to the internal road belonging to the internal movement section is obtained from the user terminal, the second route generating unit may recognize the acquired internal road related image as a request signal.

또한, 단계S12에서 제2 경로 생성부는, 내부 길 관련 이미지가 획득된 경우, 내부 길 관련 이미지에 대응하는 위치로부터 내부 이동 구간에 속하는 출구들 중 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로(최단 경로)를 내부 길 안내 경로로 생성할 수 있다.In addition, in step S12, when the internal road-related image is obtained, the second route generating unit is configured to: A route (shortest route) can be created as an internal navigation route.

다음으로, 단계S13에서 제어부는, 단계S12에서 생성된 내부 길 안내 경로를 기반으로, 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자가 소지한 사용자 단말로 제공할 수 있다.Next, in step S13, the control unit generates internal navigation information for guiding the movement of the user on the internal navigation route based on the internal navigation route generated in step S12, and provides it to the user terminal possessed by the user. can do.

또한, 단계S13에서 제어부는, 내부 길 안내 정보를 화면 표시 정보, 사운드 정보 및 진동 정보 중 적어도 하나의 정보 유형으로 생성하여 사용자 단말로 제공할 수 있다.In addition, in step S13 , the controller may generate the internal route guidance information as at least one information type of screen display information, sound information, and vibration information and provide it to the user terminal.

또한, 단계S13에서 제어부는, 획득된 내부 길 관련 이미지 내에 복수 개의 방향 지시 정보가 포함되어 있는 경우, 복수 개의 방향 지시 정보 중 내부 길 안내 경로에 대응하는 대응 방향 지시 정보의 아이콘이 내부 길 안내 경로에 대응하지 않는 미대응 방향 지시 정보의 아이콘 보다 인식 또는 식별이 용이한 형태로 표시되도록, 사용자 단말로 제공되는 화면 표시 정보를 제어할 수 있다.In addition, in step S13, if a plurality of direction indication information is included in the obtained internal road related image, the icon of the corresponding direction indication information corresponding to the internal road guide path among the plurality of direction indication information is displayed on the inner road guide path. The screen display information provided to the user terminal may be controlled to be displayed in a form that is easier to recognize or identify than an icon of non-responsive direction indication information that does not correspond to .

또한, 단계S13에서 제어부는, 사용자 단말 내 위치 획득 센서로부터 획득되는 사용자 위치 정보를 고려하여, 사용자가 이동 방향을 바꾸어야 하는 방향 전환 지점까지의 잔여 거리에 대응하여 화면 표시 정보의 내용, 사운드 정보의 내용 및 진동 정보의 진동 유형을 변경할 수 있다.In addition, in step S13, the control unit, in consideration of the user location information obtained from the location acquisition sensor in the user terminal, the content of the screen display information, the sound information in response to the remaining distance to the direction change point to which the user needs to change the moving direction You can change the vibration type of the content and vibration information.

상술한 설명에서, 단계 S11 내지 S13은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S13 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

본원의 일 실시 예에 따른 증강현실 기반 길 안내 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The augmented reality-based way guidance method according to an embodiment of the present application may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 증강현실 기반 길 안내 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the augmented reality-based way guidance method described above may be implemented in the form of a computer program or application executed by a computer stored in a recording medium.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present application.

10: 증강현실 기반 길 안내 장치
11: 제1 경로 생성부
12: 제2 경로 생성부
13: 제어부
10: Augmented reality-based navigation device
11: first path generator
12: second path generator
13: control

Claims (13)

증강현실(Augmented Reality) 기반 길 안내 장치로서,
사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성하는 제1 경로 생성부;
상기 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 상기 요청 신호에 응답하여 상기 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하는 제2 경로 생성부;
생성된 상기 내부 길 안내 경로를 기반으로, 상기 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자 단말로 제공하는 제어부; 및
지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대한 복수의 이미지가 상기 복수의 이미지 각각을 촬영할 때의 사용자 단말의 위치 정보 및 방향 정보와 연계하여 저장된 데이터베이스부를 포함하고,
상기 제어부는, 상기 내부 길 안내 정보를 상기 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공하고,
상기 제2 경로 생성부는 상기 사용자 단말을 통해 획득된 이미지를 상기 데이터베이스부에 기 저장된 복수의 이미지와 매칭하여 매칭 이미지를 식별하고, 상기 매칭 이미지에 대한 상기 위치 정보 및 상기 방향 정보를 고려하여 상기 사용자 단말의 현재 위치를 파악하고,
상기 제2 경로 생성부는 상기 매칭 이미지에 기초하여 상기 획득된 이미지가 상기 내부 이동 구간과 관련된 내부 길 관련 이미지인지 여부를 식별하고,
상기 획득된 이미지가 상기 내부 길 관련 이미지인 것으로 식별되면,
상기 데이터베이스부는 상기 획득된 이미지를 추가 저장하고, 상기 제어부는 상기 사용자 단말로 상기 내부 이동 구간에 대한 내부 길 관련 이미지의 제공에 따른 보상을 제공하는 것인, 증강현실 기반 길 안내 장치.
As an augmented reality (Augmented Reality) based road guide device,
a first route generator configured to generate a route from the source to the destination based on the information about the source and destination received from the user;
When a request signal for requesting internal navigation for an internal movement section included in the generated route is received, a second route generator for generating an internal navigation route corresponding to the internal movement section in response to the request signal ;
a control unit for generating internal navigation information for guiding a user's movement on the internal route guidance route based on the generated internal route guidance route and providing the generated internal route guidance information to the user terminal; and
A plurality of images of the internal space of the structure provided in the basement and / or above the ground includes a database unit stored in association with the location information and direction information of the user terminal when each of the plurality of images is photographed,
The control unit provides the internal route guidance information based on augmented reality for the internal road belonging to the internal movement section,
The second path generator identifies a matching image by matching the image acquired through the user terminal with a plurality of images previously stored in the database unit, and considers the location information and the direction information for the matching image. to determine the current location of the terminal,
The second path generator identifies whether the acquired image is an image related to an internal path related to the internal movement section based on the matching image,
If the acquired image is identified as the interior road related image,
The database unit additionally stores the acquired image, and the control unit provides a reward according to the provision of an image related to an internal road for the internal movement section to the user terminal.
제1항에 있어서,
상기 내부 이동 구간은,
지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간인 것인, 증강현실 기반 길 안내 장치.
According to claim 1,
The inner movement section,
An augmented reality-based road guidance device that is a section corresponding to the internal space of a structure provided underground and/or on the ground.
제2항에 있어서,
상기 제2 경로 생성부는,
상기 구조물의 층(floor)별 내부 공간의 구조 및 상기 구조물의 내부 공간에 존재하는 편의시설을 고려하여 상기 내부 길 안내 경로를 생성하는 것인, 증강현실 기반 길 안내 장치.
3. The method of claim 2,
The second path generating unit,
The augmented reality-based road guidance device that generates the internal navigation route in consideration of the structure of the internal space for each floor of the structure and convenience facilities existing in the internal space of the structure.
제2항에 있어서,
상기 제2 경로 생성부는,
상기 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 상기 사용자 단말로부터 획득된 경우, 획득된 상기 내부 길 관련 이미지를 상기 요청 신호로서 인식하는 것인, 증강현실 기반 길 안내 장치.
3. The method of claim 2,
The second path generating unit,
When the internal road-related image related to the internal road belonging to the internal movement section is acquired from the user terminal, the acquired internal road-related image is recognized as the request signal.
제4항에 있어서,
상기 제2 경로 생성부는,
상기 내부 길 관련 이미지가 획득된 경우, 상기 내부 길 관련 이미지에 대응하는 위치로부터 상기 내부 이동 구간에 속하는 출구들 중 상기 목적지의 위치에서 가장 가까이 위치해 있는 출구의 위치까지의 경로를 상기 내부 길 안내 경로로 생성하는 것인, 증강현실 기반 길 안내 장치.
5. The method of claim 4,
The second path generating unit,
When the internal road-related image is obtained, a route from a location corresponding to the internal road-related image to the location of the nearest exit from the location of the destination among exits belonging to the internal movement section is defined as the internal road guidance path An augmented reality-based way guidance device that is generated by
제4항에 있어서,
상기 제어부는,
상기 내부 길 안내 정보를 화면 표시 정보, 사운드 정보 및 진동 정보 중 적어도 하나의 정보 유형으로 생성하여 제공하는 것인, 증강현실 기반 길 안내 장치.
5. The method of claim 4,
The control unit is
The augmented reality-based road guidance device that generates and provides the internal route guidance information as at least one information type of screen display information, sound information, and vibration information.
제6항에 있어서,
상기 제어부는,
획득된 상기 내부 길 관련 이미지 내에 복수 개의 방향 지시 정보가 포함되어 있는 경우, 상기 복수 개의 방향 지시 정보 중 상기 내부 길 안내 경로에 대응하는 대응 방향 지시 정보의 아이콘이 상기 내부 길 안내 경로에 대응하지 않는 미대응 방향 지시 정보의 아이콘 보다 인식 또는 식별이 용이한 형태로 표시되도록, 상기 화면 표시 정보를 제어하는 것인, 증강현실 기반 길 안내 장치.
7. The method of claim 6,
The control unit is
When a plurality of direction indication information is included in the obtained internal road-related image, an icon of the corresponding direction indication information corresponding to the internal road guide path among the plurality of direction indication information does not correspond to the internal road guide path. The augmented reality-based road guidance device that controls the screen display information to be displayed in a form that is easier to recognize or identify than an icon of non-responsive direction indication information.
제6항에 있어서,
상기 제어부는,
상기 사용자 단말 내 위치 획득 센서로부터 획득되는 사용자 위치 정보를 고려하여, 사용자가 이동 방향을 바꾸어야 하는 방향 전환 지점까지의 잔여 거리에 대응하여 상기 화면 표시 정보의 내용, 상기 사운드 정보의 내용 및 상기 진동 정보의 진동 유형을 변경하는 것인, 증강현실 기반 길 안내 장치.
7. The method of claim 6,
The control unit is
In consideration of the user location information obtained from the location acquisition sensor in the user terminal, the content of the screen display information, the content of the sound information, and the vibration information corresponding to the remaining distance to the direction change point to which the user needs to change the moving direction An augmented reality-based navigation device that changes the vibration type of
증강현실(Augmented Reality) 기반 길 안내 방법으로서,
(a) 제1 경로 생성부에서, 사용자로부터 입력받은 출발지와 목적지에 관한 정보를 기반으로, 출발지로부터 목적지까지의 경로를 생성하는 단계;
(b) 제2 경로 생성부에서, 상기 생성된 경로에 포함된 내부 이동 구간에 대한 내부 길 안내를 요청하는 요청 신호가 수신된 경우, 상기 요청 신호에 응답하여 상기 내부 이동 구간에 대응하는 내부 길 안내 경로를 생성하는 단계; 및
(c) 제어부에서, 생성된 상기 내부 길 안내 경로를 기반으로, 상기 내부 길 안내 경로에 대한 사용자의 이동을 안내하기 위한 내부 길 안내 정보를 생성하여 사용자 단말로 제공하는 단계를 포함하고,
상기 (c) 단계에서 상기 제어부는, 상기 내부 길 안내 정보를 상기 내부 이동 구간에 속하는 내부 길에 대한 증강현실을 기반으로 제공하고,
상기 (b) 단계는,
상기 사용자 단말을 통해 획득된 이미지를 지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대한 복수의 이미지가 상기 복수의 이미지 각각을 촬영할 때의 사용자 단말의 위치 정보 및 방향 정보와 연계하여 저장된 데이터베이스부에 기 저장된 복수의 이미지와 매칭하여 매칭 이미지를 식별하는 단계;
상기 매칭 이미지에 대한 상기 위치 정보 및 상기 방향 정보를 고려하여 상기 사용자 단말의 현재 위치를 파악하는 단계; 및
상기 매칭 이미지에 기초하여 상기 획득된 이미지가 상기 내부 이동 구간과 관련된 내부 길 관련 이미지인지 여부를 식별하는 단계,
를 포함하되,
상기 획득된 이미지가 상기 내부 길 관련 이미지인 것으로 식별되면,
상기 데이터베이스부는 상기 획득된 이미지를 추가 저장하고, 상기 제어부는 상기 사용자 단말로 상기 내부 이동 구간에 대한 내부 길 관련 이미지의 제공에 따른 보상을 제공하는 것인, 증강현실 기반 길 안내 방법.
As an augmented reality (Augmented Reality) based road guidance method,
(a) generating, in the first route generating unit, a route from the source to the destination based on the information about the source and destination received from the user;
(b) when the second route generator receives a request signal for requesting an inner route guidance for an inner movement section included in the generated route, an inner road corresponding to the inner movement section in response to the request signal generating a guide route; and
(c) generating, in the control unit, internal navigation information for guiding a user's movement on the internal route guidance route based on the generated internal route guidance route and providing it to a user terminal,
In the step (c), the control unit provides the internal route guidance information based on augmented reality for the internal road belonging to the internal movement section,
Step (b) is,
A database unit stored in association with the location information and direction information of the user terminal when a plurality of images of the internal space of a structure provided in the basement and/or the ground of the image acquired through the user terminal are photographed, respectively, of the plurality of images identifying a matching image by matching with a plurality of images previously stored in the ;
determining the current location of the user terminal in consideration of the location information and the direction information for the matching image; and
identifying whether the acquired image is an image related to an internal road related to the internal movement section based on the matching image;
including,
If the acquired image is identified as the interior road related image,
The database unit additionally stores the acquired image, and the control unit provides a reward according to the provision of an image related to an internal road for the internal movement section to the user terminal.
제9항에 있어서,
상기 내부 이동 구간은,
지하 및/또는 지상에 마련되어 있는 구조물의 내부 공간에 대응하는 구간인 것인, 증강현실 기반 길 안내 방법.
10. The method of claim 9,
The inner movement section,
An augmented reality-based road guidance method that is a section corresponding to the internal space of a structure provided underground and/or on the ground.
제10항에 있어서,
상기 (b) 단계는,
상기 구조물의 층(floor)별 내부 공간의 구조 및 상기 구조물의 내부 공간에 존재하는 편의시설을 고려하여 상기 내부 길 안내 경로를 생성하는 것인, 증강현실 기반 길 안내 방법.
11. The method of claim 10,
Step (b) is,
The augmented reality-based way guidance method, which generates the inner way guide route in consideration of the structure of the inner space for each floor of the structure and the convenience facilities existing in the inner space of the structure.
제10항에 있어서,
상기 (b) 단계는,
상기 내부 이동 구간에 속하는 내부 길과 관련된 내부 길 관련 이미지가 상기 사용자 단말로부터 획득된 경우, 획득된 상기 내부 길 관련 이미지를 상기 요청 신호로서 인식하는 것인, 증강현실 기반 길 안내 방법.
11. The method of claim 10,
Step (b) is,
When the internal road-related image related to the internal road belonging to the internal movement section is acquired from the user terminal, the acquired internal road-related image is recognized as the request signal.
제9항 내지 제12항 중 어느 한 항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터에서 판독 가능한 기록매체.13. A computer-readable recording medium recording a program for executing the method of any one of claims 9 to 12 in a computer.
KR1020190168262A 2019-12-16 2019-12-16 Apparatus and method for augmented reality based road guidance KR102299464B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190168262A KR102299464B1 (en) 2019-12-16 2019-12-16 Apparatus and method for augmented reality based road guidance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190168262A KR102299464B1 (en) 2019-12-16 2019-12-16 Apparatus and method for augmented reality based road guidance

Publications (2)

Publication Number Publication Date
KR20210076755A KR20210076755A (en) 2021-06-24
KR102299464B1 true KR102299464B1 (en) 2021-09-06

Family

ID=76607254

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190168262A KR102299464B1 (en) 2019-12-16 2019-12-16 Apparatus and method for augmented reality based road guidance

Country Status (1)

Country Link
KR (1) KR102299464B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113449211B (en) * 2021-07-22 2023-09-19 北京百度网讯科技有限公司 Line navigation method and device, electronic equipment and computer readable medium
CN118706104A (en) * 2023-03-27 2024-09-27 华为技术有限公司 AR route making method, related device and communication system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101994521B1 (en) * 2017-04-20 2019-09-30 김현우 Navigation system by using augmented reality
KR101994542B1 (en) * 2017-11-24 2019-06-28 이화여자대학교 산학협력단 Pedestrian Movement Tracking Web System, Method and Recording Medium thereof
KR102033587B1 (en) * 2017-11-27 2019-10-17 (의)삼성의료재단 Method, apparratus and computer program for navigation using augmented reality
KR102102810B1 (en) * 2018-04-24 2020-04-22 한국항공대학교산학협력단 Moving guide device to guide user's movement using the drone and method for controlling the same

Also Published As

Publication number Publication date
KR20210076755A (en) 2021-06-24

Similar Documents

Publication Publication Date Title
US10295350B2 (en) Providing a route guide using building information modeling (BIM) data
KR101511514B1 (en) Method and server for providing contents
KR102216050B1 (en) System and method for recommending exercise routes
US10012505B2 (en) Wearable system for providing walking directions
US6728636B2 (en) Destination guidance system and method for generating individually tailored routes within a complex structure
US10653359B2 (en) System and method for providing walking path guidance service based on measurement of motion of user
Flores et al. Weallwalk: An annotated dataset of inertial sensor time series from blind walkers
US20170229045A1 (en) Information processing device, control method, and program
KR102299464B1 (en) Apparatus and method for augmented reality based road guidance
JP2013195143A (en) Position detecting device, electronic apparatus, position detecting system, and program
KR20170048920A (en) System and method for guiding footpath based on user movement detection
JP2019056674A (en) Display system, electronic apparatus and method for displaying map information
KR101572548B1 (en) Stick and mobile apparatus and system for navigating of blind person, recording medium for performing the method
Árvai Mobile phone based indoor navigation system for blind and visually impaired people: VUK—Visionless supporting frameworK
KR20200017393A (en) Information processing device and information processing method
Motta et al. Overview of smart white canes: connected smart cane from front end to back end
KR102477817B1 (en) Apparatus and method that guides the information of the locker
KR102259251B1 (en) Smart block guide system
KR102375570B1 (en) Apparatus and method for providing longterm care service
KR102278615B1 (en) Apparatus and method for providing walk-based route guidance
JP6483953B2 (en) Information processing system, information processing method, and information processing program
KR20200110855A (en) Smart braille block system
Krainz et al. Catching the right bus-Improvement of vehicle communication with Bluetooth Low Energy for Visually Impaired and Blind People
KR20220087037A (en) Apparatus and method for managing the schedule of sunlight expose
KR102112099B1 (en) Apparatus and system for providing navigation contents using augmented reality

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant