WO2022108113A1 - 실내 측위에 따른 화면 표시 방법 및 장치 - Google Patents

실내 측위에 따른 화면 표시 방법 및 장치 Download PDF

Info

Publication number
WO2022108113A1
WO2022108113A1 PCT/KR2021/013896 KR2021013896W WO2022108113A1 WO 2022108113 A1 WO2022108113 A1 WO 2022108113A1 KR 2021013896 W KR2021013896 W KR 2021013896W WO 2022108113 A1 WO2022108113 A1 WO 2022108113A1
Authority
WO
WIPO (PCT)
Prior art keywords
node
correction
moving object
subsequent
end node
Prior art date
Application number
PCT/KR2021/013896
Other languages
English (en)
French (fr)
Inventor
정상수
이은정
이영수
싱다난지아
Original Assignee
주식회사 베스텔라랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 베스텔라랩 filed Critical 주식회사 베스텔라랩
Priority to EP21894885.9A priority Critical patent/EP4249852A1/en
Priority to US18/008,905 priority patent/US20230274486A1/en
Publication of WO2022108113A1 publication Critical patent/WO2022108113A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/383Indoor data

Definitions

  • the present invention relates to a method and apparatus for displaying a screen according to indoor positioning.
  • a location can be determined using a GPS signal outdoors.
  • the influence of structures or obstacles that interfere with signal transmission and reception is small, and the error of signal transmission and reception is not large.
  • positioning accuracy is deteriorated due to a GPS signal reception error or error occurring due to structures such as ceilings, walls, and pillars.
  • the signal of the positioning sensor also has a limit in improving the accuracy of positioning due to an error that occurs depending on the surrounding environment.
  • a recent navigation device is provided in a moving object such as a vehicle or provides a navigation function in a separate mobile device.
  • the navigation device guides a route to a destination set by the driver of the vehicle while moving with the moving object as it moves.
  • the accuracy of positioning is lowered due to errors in positioning data, so there is a problem in securing accuracy even in a screen display method according to indoor positioning. have.
  • Embodiments of the present invention provide a method and apparatus for displaying a screen according to indoor positioning that can improve accuracy in an indoor environment as well as provide a smoother and smoother visual guidance effect to a user.
  • a screen display method includes setting node data including information about the location of a positioning sensor according to a preset rule on a moving path through which a moving object can move with respect to an indoor space. step; Create and display a first correction UI moving in a first direction in which the moving object moves based on the first positioning data of the first time point of the moving object, wherein the first correction UI is first terminated from a first starting node a first display step of displaying a corrected speed compared to the actual speed of the moving object up to a node; and determining whether to rotate the moving object at the first end node to determine a subsequent display step.
  • the first displaying step may include: determining the first starting node based on the first positioning data; determining a first target node in which the first positioning data obtained using the node data satisfies a preset reference value; determining the first end node based on the first target node; and generating and displaying a first correction UI displayed at a uniform speed from the first start node to the first end node.
  • the subsequent display step is a second display that generates and displays a second correction UI moving from a second start node extending in the first direction to a second end node
  • the method may include: replacing the first end node with a second start node and determining a second target node adjacent to the first end node as the second end node; and generating and displaying a second correction UI displayed at a uniform speed from the second start node to the second end node.
  • the subsequent display step includes a third display step of generating and displaying a third correction UI moving in a second direction different from the first direction, wherein the third The displaying step may include: generating a 3-1 correction UI moving in the first direction from the first starting node to the first ending node; and generating a 3-2 correction UI moving in the second direction toward a third end node determined based on a third target node adjacent to the first end node in the second direction.
  • the screen display method further includes receiving a selection signal for a display mode, wherein the display mode includes an object switching mode in which an indoor space image is fixed and a moving object UI is moved, and an object switching mode in which the moving object UI is fixed and the indoor space image is fixed. It may include a background transition mode in which the spatial image moves.
  • the generating the 3-1 correction UI further includes comparing the precedence relationship between the first end node and a subsequent node corresponding to the subsequent positioning data obtained at a second time point after the first time point, , when the comparison result determines that the subsequent node is located before the first ending node in the first direction, between the 3-1st correction UI generating step and the 3-2th corrected UI generating step, the second and rotating one of the moving object UI and the indoor space image according to the display mode selected according to the selection signal based on the first end node.
  • the generating the 3-1 correction UI further includes comparing the precedence relationship between the first end node and a subsequent node corresponding to the subsequent positioning data obtained at a second time point after the first time point, , when the comparison result determines that the subsequent node is ahead of the first end node in the first direction, generating the 3-1 correction UI may include setting the position of the moving object as the first end node. generating a refreshed fifth correction UI; and rotating any one of the moving object UI and the indoor space image according to the display mode selected according to the selection signal based on the first end node.
  • At least one of the first displaying step and the subsequent displaying step may include: calculating a distance between a location of a displayed moving object UI based on the first location data and a location corresponding to the first location data; and performing a stop correction operation of the moving object UI when the position of the moving object UI is advanced by a predetermined distance from the position corresponding to the first positioning data.
  • a screen display device for indoor positioning includes a controller, wherein the controller includes information about the location of a positioning sensor according to a preset rule on a movement path through which a moving object can move with respect to an indoor space Set node data including, and generate and display a first correction UI moving in a first direction in which the moving object moves based on the first positioning data of the first time point of the moving object, wherein the first correction UI is displayed as a corrected speed compared to the actual speed of the moving object from the first start node to the first end node, and determines whether the moving object is rotated at the first end node to determine a subsequent display step.
  • the control unit determines the first starting node based on the first positioning data, and the first positioning data obtained using the node data is a preset reference value Determine a first target node that is satisfied, determine the first end node based on the first target node, and a first correction UI displayed from the first start node to the first end node at a uniform speed can be created and displayed.
  • the subsequent display step includes generating and displaying a second correction UI moving from a second start node extending in the first direction to the second end node , wherein the control unit replaces the first end node with a second start node and determines a second target node adjacent to the first end node as a second end node, and the second end node from the second start node It is possible to generate a second correction UI displayed at a uniform speed up to the node.
  • the subsequent display step is a step of generating and displaying a third correction UI moving in a second direction different from the first direction, wherein the control unit is configured to display the third correction UI
  • a 3-1 correction UI moving in the first direction from the first start node to the first end node is generated, and a third target adjacent to the first end node in the second direction is generated.
  • a 3-2 correction UI may be generated that moves in the second direction toward the third end node determined based on the node.
  • the screen display device receives a selection signal for a display mode, and the display mode includes an object switching mode in which the indoor space image is fixed and the moving object UI is moved, and the moving object UI is fixed and the indoor space image is moved. It may include a background transition mode.
  • the control unit When generating the 3-1 correction UI, the control unit compares a precedence relationship between the first end node and a subsequent node corresponding to the subsequent positioning data obtained at a second time point after the first time point, and the comparison When it is determined as a result that the subsequent node is located before the first end node in the first direction, after generating the 3-1 correction UI and before generating the 3-2 correction UI, the second An operation of rotating one of the moving object UI and the indoor space image according to the display mode selected according to the selection signal based on the first end node may be performed.
  • the control unit When generating the 3-1 correction UI, the control unit compares a precedence relationship between the first end node and a subsequent node corresponding to the subsequent positioning data obtained at a second time point after the first time point, and the comparison When it is determined that the subsequent node precedes the first end node in the first direction as a result, a fifth correction UI for refreshing the position of the moving object to the first end node is generated, and the first end node
  • An operation of rotating any one of the moving object UI and the indoor space image may be performed according to a display mode selected according to the selection signal based on .
  • the control unit when performing at least one of the step of displaying the first correction UI and the step of displaying the subsequent display, corresponds to the position of the moving object UI displayed based on the first positioning data and the first positioning data and calculating a distance between the positions, and when the position of the moving object UI is ahead of the position corresponding to the first positioning data by a predetermined distance, a stop correction operation of the moving object UI may be performed.
  • FIG. 1 is a diagram schematically illustrating a configuration of a screen display system according to an embodiment of the present invention.
  • FIG. 2 is a configuration diagram illustrating in more detail the configuration of a screen display system according to an embodiment of the present invention.
  • FIG. 3 is a configuration diagram illustrating the configuration of a sensor unit according to an embodiment of the present invention.
  • FIG. 4 is a diagram for explaining node data according to an embodiment of the present invention.
  • FIG. 5 is a diagram for explaining a single path display method according to an embodiment of the present invention.
  • FIG. 6 is a view for explaining a single path display method according to another embodiment of the present invention.
  • FIG. 7 is a view for explaining a display mode according to an embodiment of the present invention.
  • FIG. 8 is a view for explaining a display mode according to another embodiment of the present invention.
  • 9 is a view for explaining a display method during rotation.
  • FIG. 10 is a view for explaining a method of displaying a screen during rotation according to an embodiment of the present invention.
  • FIG. 11 is a view for explaining a method of displaying a screen during rotation according to another embodiment of the present invention.
  • FIG. 12 is a diagram for explaining a method of generating a correction UI according to whether or not a stop is performed according to an embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating a screen display method according to an embodiment of the present invention.
  • FIG. 14 is a flowchart for describing in more detail some steps of a screen display method according to an embodiment of the present invention.
  • FIG. 1 is a diagram schematically illustrating a configuration of a screen display system 10 according to an embodiment of the present invention.
  • the screen display system 10 may include a screen display server 1000 and an indoor space server 2000 .
  • the two servers 1000 and 2000 may communicate through the communication network 300 and exchange data with each other.
  • the screen display server 1000 may perform indoor positioning of a moving object moving in an indoor space.
  • the screen display server 1000 may include the screen display device 100 as shown in FIGS. 2 and 3 , which will be described in more detail with reference to FIGS. 2 and 3 to be described later.
  • the screen display server 1000 may be a server that manages a positioning application installed on the screen display device 100 .
  • the screen display server 1000 and the screen display device 100 may exchange data with each other through the application.
  • the indoor space server 2000 is a server related to the indoor space in which the moving object to be positioned in the present disclosure moves.
  • the indoor space of the present disclosure may be various spaces having obstacles in receiving GPS signals, such as indoor/underground parking lots, tunnels, underpasses, underground shopping malls, and inside buildings.
  • the indoor space server 2000 may be a local server existing in each individual indoor space, or may be a central server that manages information about several indoor spaces.
  • the indoor space may be an indoor parking lot and the indoor space server 2000 may be described as a parking lot server, for example.
  • the indoor space server 2000 may include a positioning sensor 200 as shown in FIG. 2 for indoor positioning of a moving object.
  • the operating subject of the screen display server 1000 and the indoor space server 2000 may be the same.
  • the communication network 300 may mean a communication network that mediates data transmission and reception between each component of the positioning system 10 .
  • the communication network 300 may include wired networks such as Local Area Networks (LANs), Wide Area Networks (WANs), Metropolitan Area Networks (MANs), Integrated Service Digital Networks (ISDNs), etc., Wi-Fi, wireless LANs, It may cover wireless networks such as CDMA, Bluetooth, and satellite communication, but the scope of the present invention is not limited thereto.
  • FIGS. 2 and 3 are block diagram illustrating the screen display system 10 according to an embodiment of the present invention in more detail
  • FIG. 3 is a block diagram showing the configuration of the sensor unit 140 according to an embodiment of the present invention. to be.
  • the screen display device 100 is a device corresponding to a moving object, such as a vehicle, and may be a mobile terminal such as a mobile phone or tablet PC owned by the owner of the vehicle, or may be an electronic device connected to or embedded in the vehicle.
  • An application for performing the indoor positioning method for a moving object according to an embodiment of the present invention may be installed on the screen display device 100 .
  • the concept of the location of the moving object may be described by mixing it with the concept of the location of the screen display device 100 .
  • the screen display device 100 may include a control unit 110 , a communication unit 120 , a memory 130 , a sensor unit 140 , and a display unit 150 .
  • a control unit 110 may control the operation of the display unit 150 .
  • the controller 110 may perform an operation to control the screen display apparatus 100 as a whole. Specific operation of the control unit 110 will be described in more detail in the related drawings to be described later.
  • the controller 110 may include all kinds of devices capable of processing data, such as a processor.
  • the 'processor' may refer to a data processing device embedded in hardware having a physically structured circuit to perform a function expressed as, for example, a code or a command included in a program.
  • a microprocessor a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated (ASIC) Circuit
  • a processing device such as a field programmable gate array (FPGA) may be included, but the scope of the present invention is not limited thereto.
  • the communication unit 120 may be a device including hardware and software necessary for transmitting and receiving control signals or data through the communication network 300 according to various types of communication methods.
  • the communication unit 120 may communicate with various types of external devices and servers, for example, the positioning sensor 200 or the indoor space server 2000 of FIG. 2 .
  • the memory 130 performs a function of temporarily and/or permanently storing all kinds of data generated and processed by the screen display device 100 .
  • the memory 130 may store program applications, data, commands, etc. installed in the screen display device 100 , and may store all types of data input/output through the screen display device 100 .
  • the memory 130 may include random access memory (RAM), read only memory (ROM), and permanent mass storage devices such as disk drives, flash storage media, and solid state drives (SSDs).
  • RAM random access memory
  • ROM read only memory
  • SSDs solid state drives
  • the sensor unit 140 is a sensor for obtaining movement information including the position, movement status, movement direction/angle, and posture of the moving object, and includes a plurality of sensors for sensing an internal or external state of the device 100 can do.
  • the sensor unit 140 may include at least one of an acceleration sensor 141 , a gyroscope 142 , and a magnetic field sensor 143 .
  • the first sensing data regarding the movement information of the moving object may be obtained through the sensor unit 140 .
  • the acceleration sensor 141 senses the acceleration of a moving object, and may be a 3-axis sensor of the X-axis, the Y-axis, and the Z-axis.
  • the gyro sensor 142 senses the angular velocity of a moving object and may be a three-axis sensor of Rx, Ry, and Rz.
  • the controller 110 obtains movement information of the moving object using the sensing values of the acceleration sensor 141 and the gyro sensor 142 , but the movement information includes a roll angle and a pitch of the moving object. It is possible to obtain rotation information (angle change amount) and speed information including information about an angle and a yaw angle.
  • the geomagnetic sensor 143 may measure the azimuth of the moving object. In the sensed value obtained by the geomagnetic sensor 143, when the moving object is stationary without moving, the range of fluctuation of the value is reduced. When the change value of the output sensor value is less than or equal to a preset reference, it may be determined that the vehicle is in a stopped state.
  • the controller 110 may reduce an error in determining whether a moving object moves or rotates by using the sensed value of the geomagnetic sensor 143 together with the sensed value of the acceleration sensor 141 and the gyro sensor 142 . In this way, the screen display device 100 may determine movement and speed information in various three-dimensional directions including three axes of the moving object based on the first sensing data acquired through the sensor unit 140 .
  • the display unit 150 may display data input/output through the screen display device 100 .
  • Positioning data processed and output by the indoor positioning method according to an embodiment of the present invention may be displayed through the display unit 150 as an output method according to the operation of the positioning application stored in the screen display device 100 .
  • 4 to 8 to be described later are exemplary views of a display screen output through the display unit 150 .
  • the screen display device 100 may be provided outside the screen display server 1000 separately from the screen display server 1000 .
  • the indoor space server 2000 may include a positioning sensor 200 installed in an indoor space for indoor positioning of a moving object.
  • the positioning sensor 200 may be a beacon module that transmits a beacon signal including a beacon ID through the communication network 300 .
  • the beacon signal may include a Universally Unique Identifier (UUID), a Major ID, a Minor ID, and a Received Signal Strength Indication (RSSI).
  • UUID Universally Unique Identifier
  • the major ID and minor ID may consist of three-digit numbers, and a unique number may be assigned to each floor in the hundredth digit, and a unique number may be assigned to the tenth and one digit for each beacon.
  • RSSI corresponds to the strength of the beacon signal.
  • the positioning sensor 200 transmits the beacon signal to the screen display server through all available wireless communication networks 300 such as Wi-Fi, Bluetooth, Zigbee, Long Term Evolution, 3G, etc. (1000) may periodically wirelessly transmit.
  • second sensing data data obtained by the positioning sensor 200
  • the second sensing data may refer to the beacon signal
  • FIG. 4 is a diagram for explaining node data according to an embodiment of the present invention, and is an exemplary view of a display screen displayed through the display unit 150 .
  • the indoor space 20 On the display screen, the indoor space 20, the parking surface 21, the obstacle 22, etc. are shown in the form of data-processed images, and the parking surface 21 and the obstacle 22 are appropriately adapted to the actual indoor space 20. can be placed.
  • the indoor space 20 will be described as an example of the parking lot 20 .
  • the controller 110 sets node data including information about the position of the positioning sensor 200 according to a preset rule on a movement path through which a moving object can move with respect to the indoor space 20 .
  • the space other than the parking surface 21 and the obstacle 22 may be a movement path through which a moving object can move.
  • a plurality of nodes N indicating the positions of the positioning sensors 200 (refer to FIG. 2 ) installed according to a preset rule are shown on the movement path.
  • the 'position of the node N' and the 'position of the positioning sensor 200' may be described interchangeably.
  • the positioning sensor 200 may be installed at regular intervals according to a preset rule on the movement path.
  • a node may also be set on the parking surface 21 .
  • the plurality of nodes N includes a node A on a first movement path and a node B on a second movement path, and the nodes A are A-1, A-2, A-3, and A-4. , including nodes A-5, and node B is illustrated as including nodes B-1, B-2, B-3, B-4, and B-5.
  • the location and number of the plurality of nodes N are not limited thereto.
  • the node data relates to location information in which the positioning sensor 200 is installed, and the location information includes an ID of the positioning sensor 200, self-position information of each of the plurality of nodes (N), and each other. Connection information between different nodes may be included.
  • the plurality of nodes N may include an initial node where the positioning operation starts, a final node where the positioning operation ends, a rotation node located at an intersection such as a three-way intersection or a crossroad, and an intermediate node located between the nodes.
  • the initial node may correspond to an entrance of the indoor space
  • the final node may correspond to an exit of the indoor space.
  • node A-1 may be an initial node
  • node B-1 may be a final node
  • nodes A-5 and B-5 may be rotation nodes
  • other nodes may be intermediate nodes.
  • the positioning sensor 200 may be installed on a straight path of the moving object, a point where the direction of the moving object is changed, such as an intersection, or the like. In this case, when the distance between two adjacent positioning sensors 200 on the straight path is greater than or equal to a certain standard, in order to increase positioning accuracy, an additional positioning sensor 200 may be installed therebetween.
  • the control unit 110 uses at least one of the node data, the first sensing data obtained through the sensor unit 140 , and the second sensing data obtained through the positioning sensor 200 provided in the indoor space 20 . , it is possible to obtain first positioning data for determining a first section in which the object is currently located.
  • the first positioning data may include current location coordinates as the current location of the moving object (at the starting point of the positioning operation), and distance information between the screen display device 100 and the positioning sensor 200 .
  • the controller 110 may determine whether the first positioning data satisfies a preset reference value for a boundary node defining the first section. For example, if the first section in FIG. 4 is a section between the node A-2 and the node A-3, the two nodes A-2 and A-3 are boundary nodes of the first section. For example, whether the reference value is satisfied is whether the calculated distance between the positioning sensor 200 and the screen display device 100 is less than or equal to a certain value, that is, whether the moving object is close to the specific positioning sensor 200 within a certain distance. can be determined, and when it is determined that the content is satisfied, the next positioning operation (next positioning sensor 200 ) may be performed.
  • a preset reference value for a boundary node defining the first section For example, if the first section in FIG. 4 is a section between the node A-2 and the node A-3, the two nodes A-2 and A-3 are boundary nodes of the first section.
  • whether the reference value is satisfied is whether the calculated distance between the positioning sensor 200 and the
  • the criterion satisfying condition may be whether the screen display device 100 receives the sensor signals of the various positioning sensors 200 continuously and at a high frequency, and within various ranges that are easy for positioning. change may be applied.
  • the criterion satisfying condition is whether the indoor positioning device 100 and several positioning sensors 200 are relatively close by using the RSSI data, and this can be utilized together with the aforementioned frequency.
  • the moving object may be displayed as the moving object UI 400 on the display screen according to the determined position.
  • the first UI object 410 indicates the positioned position of the moving object
  • the second UI object 420 is a display indicating the actual position of the moving object.
  • the moving object UI 400 means the position of the moving object displayed on the display screen based on the positioned position expressed by the first UI object 410 at an arbitrary point in time.
  • the moving direction of the moving object may be interpreted as a direction toward the first UI object 410 which is a positioned position from the moving object UI 400 which is a display position.
  • the controller 110 may determine a subsequent display step by determining whether the moving object is rotated in the first target node. A specific example of determining the subsequent display step will be described with reference to the drawings to be described later.
  • FIG. 5 is a diagram for explaining a single path display method according to an embodiment of the present invention.
  • the control unit 110 of the screen display device 100 is a first correction UI ( 510) can be generated and displayed.
  • the first correction UI 510 may be a concept referring to a correction UI generated in a straight section (single path section).
  • the first correction UI 510 may be displayed at the corrected correction speed compared to the actual velocity of the moving object from the first starting node to the first ending node.
  • control unit 110 may generate and display the first correction UI 510 by steps to be described later.
  • a first starting node is determined based on the first positioning data.
  • a first target node in which first positioning data obtained using at least one of node data, first sensing data by the sensor unit 140, and second sensing data by the positioning sensor 200 satisfies a preset reference value can decide
  • the first starting node may be determined to be a 401 node, which is a display position by the first positioning data at an arbitrary point in time.
  • the 'node' of the 'start node' or the 'end node' is simply a node corresponding to the installation position of the positioning sensor 200 included in the node data, as well as the position of the moving object UI 400 displayed at any point in time. It may be a concept that includes It is assumed that, while the moving object is moving in the first direction D1 , the controller 110 recognizes a node that satisfies a preset reference value in the start node 401 , and a node B in FIG. 5 . Then, node B may be determined as the first target node Nt.
  • the controller 110 may determine a first end node that is an end node of the first correction UI 510 based on the first target node Nt.
  • the first end node may be determined as the first target node Nt or a node next adjacent to the first target node Nt in the first direction D1, or the like.
  • the first end node since the first target node Nt is recognized as the B node at the display position 401 of the moving object, the first end node may be the B node or the C node.
  • the first correction UI 510 is displayed in the first section A1
  • the first correction UI 510 is displayed in the first section A1 and the second section A1. It may be displayed in section A2.
  • an embodiment in which the first end node Nf is the next node C adjacent to the first target node Nt in the first direction D1 is illustrated.
  • the controller 110 generates and displays the first correction UI 510 displayed at a uniform speed from the first start node 401 to the first end node.
  • the uniform speed may be a speed corrected compared to the speed of the actual moving object.
  • moving objects do not move at a uniform speed in a specific section, and even if they move at a uniform speed, positioning data cannot be accurately collected in real time due to various factors such as an indoor environment with obstacles, and communication quality and condition. There is a difficult problem.
  • embodiments of the present invention determine a start/end point based on positioning data obtained based on node data and sensing data, and a correction UI (correction animation) in which the moving object UI moves at a uniform speed in the interval It has the advantage of being able to provide a navigation service with a smoother and easier visual effect to users.
  • the entire section in which the correction UI is displayed may include a plurality of sections displayed at different uniform speeds, respectively.
  • FIG. 6 is a view for explaining a single path display method according to another embodiment of the present invention. A description overlapping with FIG. 5 will be omitted, and differences will be mainly described.
  • node C is recognized as a node that satisfies a preset reference value in the 401 node. That is, in FIG. 6 , node C may be determined as the first target node Nt.
  • the difference from FIG. 5 is that the target node recognized by the start node is not the closest node (node B) to the start node (current location) among the node data, but the next adjacent node C.
  • the controller 110 may similarly determine a first end node that is an end node of the first correction UI 510 ′ based on the first target node Nt.
  • the first end node may be determined as the first target node Nt or a node next adjacent to the first target node Nt in the first direction D1, or the like.
  • the first end node since the first target node Nt is recognized as the C node at the display position 401 of the moving object, the first end node may be the C node or the D node.
  • the first correction UI 510 ′ is displayed in the first and second sections A1 and A2 , and in the case of the D node, the first correction UI 510 ′ is the first correction UI 510 ′. It may be displayed in the to third sections A1, A2, and A3.
  • the first end node Nf is the D node which is the next node adjacent to the first target node Nt in the first direction D1 is illustrated.
  • the screen display method and apparatus it is possible to flexibly and accurately determine a target node according to positioning data of a moving object obtained in real time. Accordingly, it is possible to provide a navigation service accompanied by a smoother and more effective visual effect to the user.
  • a second correction UI moving from a second start node extending in the first direction D1 to a second end node in a subsequent display step can be created and displayed.
  • the controller 110 replaces the aforementioned first end node with a second start node and determines a second target node adjacent to the first end node as the second end node. Thereafter, a second correction UI displayed at a uniform speed from the second start node to the second end node may be generated and displayed.
  • the controller 110 controls the first end node.
  • the C node which is the first end node
  • the D node (not shown) adjacent to the C node and the D node (not shown) in the moving direction of the moving object in the first direction D1 is replaced with a second It can be determined as an end node.
  • a subsequent target node may be determined. That is, in this case, node D is recognized as the second target node and determined as the second end node.
  • the controller 110 may generate and display a second correction UI (not shown) displayed at a uniform speed from the second start node to the second end node.
  • FIGS. 7 and 8 are diagrams for explaining a display mode according to an embodiment of the present invention
  • FIG. 8 is a diagram for explaining a display mode according to another embodiment of the present invention.
  • the screen display device 100 may receive a selection signal for a display mode through the communication unit 120 or an input/output module (not shown).
  • the selection signal may be input by a user's manipulation, may be executed by an algorithm preset on the controller 110 or the memory 130, and may be received by the screen display device 100 in various ways.
  • the display mode may include an object transition mode as shown in FIG. 7 and a background transition mode as shown in FIG. 8 .
  • FIG. 7 display screens 151 and 152 of different viewpoints displayed through the display unit 150 are illustrated.
  • the display screen 152 on the right is a screen after the display screen 151 on the left.
  • the display mode shown in FIG. 7 is an object switching mode in which the indoor space image m is fixed and the moving object UIs 401 and 402 move. Referring to the two display screens 151 and 152 together, the movement of the moving object rotates in the first direction D1 at the node B-3 is illustrated. At this time, the indoor space image (m) is fixed, and the moving object UI is moved from position 401 to position 402.
  • FIG. 8 display screens 151 , 152 , and 153 at different viewpoints are illustrated. It is a display screen according to the sequential time flow from the left.
  • the display mode shown in FIG. 8 is a background switching mode in which the moving object UI 400 is fixed and the indoor space images m1, m2, and m3 are moved. Referring to the three display screens 151 , 152 , and 153 together, the movement of the moving object rotates in a direction parallel to the first direction D1 at the node B-3 is shown. At this time, the moving object UI 400 is fixed, and the indoor space image is switched from m1 to m2, and then from m2 to m3. In this case, the movement of the indoor space image may be performed gradually and continuously according to the indoor space image (map data) stored in the memory 130 .
  • control unit 110 determines a rotation when determining the above-described subsequent display step.
  • FIG. 9 is a view for explaining a general display method during rotation. This figure shows a display example when there is no animation effect through the correction UI for rotation.
  • the controller 110 determines that the moving object rotates in the rotation section R1 formed at the B-3 node, and accordingly, the moving object UI is displayed in the section between the A-3 node and the B-3 node at the first time point. It is displayed as the moving object UI 401 in , and is displayed as the moving object UI 402 in the section between the B-3 node and the C-3 node at the second time point after rotation. As shown in FIG.
  • FIG. 10 is a view for explaining a method of displaying a screen during rotation according to an embodiment of the present invention.
  • the subsequent display step is It may be a step of generating and displaying a third correction UI 530 including a correction UI moving in a second direction D2 different from the first direction D1.
  • the controller 110 first moves from the first start node 400s to the first end node B-3 in the first direction D1 ( 3-1 ).
  • a correction UI 531 may be generated.
  • the third end node 3-2 moves in the second direction toward the third end node determined based on the third target node B-2 adjacent to the first end node B-3 in the second direction D2. You can create a calibration UI.
  • the third end node may be a B-2 node or a B-1 node adjacent to the left of B-2 not shown in the drawing, and according to an embodiment, the moving object moves in the second direction D2 If it stops before the B-2 node during the process, it may be a stopped node (the 400f node in FIG. 10).
  • the control unit 110 in generating the 3-1 correction UI 531 , has a precedence relationship between the first end node and a subsequent node corresponding to the subsequent positioning data obtained at a second time point after the first time point. can be compared. 10 , when it is determined that the subsequent node is located before the first ending node Nr in the first direction D1 as shown in FIG. 10 , the control unit 110 controls the 3-1 correction UI 531 ) between the generation step and the step 3-2 correction UI 532 generation, the moving object UI 400 and the indoor space image m according to the display mode selected according to the selection signal based on the first end node Nr ) can be operated to rotate.
  • the controller 110 may stop the aforementioned first correction UI displayed in the section between the A-3 node and the B-3 node. Thereafter, when the display speed of the first corrected UI is referred to as the first speed, a fourth corrected UI that proceeds at a second speed different from the first speed up to the first end node (B-3; Nr) may be generated. have.
  • the 3-1 correction UI 531 of FIG. 10 is illustrated as a concept including both the first correction UI and the fourth correction UI. Thereafter, the first end node B-3 (Nr) may be rotated according to the selected display mode.
  • the rotation according to the selected display mode may be made based on the direction data shown in the upper right of FIG. 10 .
  • the controller 110 may calculate first direction data regarding the rotation amount of the moving object by using the first sensing data.
  • the 'first direction data' may be calculated by performing a fusion operation on the 1-1 coordinate value of the 1-1 sensing data and the 1-2 coordinate value of the 1-2 sensing data.
  • the 1-1 and 1-2 sensing data are concepts included in the first sensing data acquired by the sensor unit 140 .
  • the 1-1 sensing data is a sensing value obtained by the acceleration sensor 141
  • the 1-2 sensing data is a sensing value obtained by the gyro sensor 142 . That is, the amount of rotation and the rotation direction of the moving object can be calculated using the sensing values of the acceleration sensor 141 and the gyro sensor 142 , as will be described in detail later.
  • the two sensors 141 and 142 are three-axis sensors, and the 1-1 coordinate value and the 1-2 coordinate value are respectively (acc(x), acc(y), acc(z)), (gyr(x) , gyr(y), gyr(z)).
  • the 'first direction data' includes a first change amount, a second change amount, and a third change amount below. Assuming that the radian change per second is the first change amount ( ⁇ s1), the degree change amount per second is the second change amount ( ⁇ s2), and the actual degree change is the third change amount ( ⁇ s3), each value is as follows.
  • 1000 is a variable determined based on the value of time, meaning that 1000 units are seconds (sec). That is, referring to Equation 3, it is possible to obtain a third change amount ⁇ s3 that is an actual change amount by integrating the second change amount ⁇ s2.
  • the second variation ⁇ s2 has no range limit depending on the amount of rotation, and since the third variation ⁇ s3 is the actual variation at one point in time, the degree value in which the third variation ⁇ s3 is accumulated is 0 It may have a value within the range of degrees to 360 degrees.
  • the moving object rotates and the accumulated degree value of the third change amount ( ⁇ s3) becomes greater than 360 degrees, it is changed to 0 degrees again and calculated, and the degree value with the third change amount ( ⁇ s3) accumulated is 0 steps If it becomes a small value, it may be a method of calculating by changing it back to 360 degrees.
  • the controller 110 may determine the rotation information by determining the second direction data regarding the rotation direction by linking the above-described first direction data and node data.
  • the second direction data a description will be given with reference to the Compass variable shown in the upper right of FIG. 8 .
  • the Compass variable is set as an example in which the moving object's moving path has four values: East, West, South, North (values of 1, 2, and 3 in a clockwise direction from 0) in consideration of node data on possible moving paths. For example, assuming that 0 ⁇ a ⁇ 90 (degrees), the controller 110 controls the second direction data when the accumulated degree value of the third change amount ⁇ s3 is (360-a) or more and +a degrees or less.
  • the second direction data is 1, the degree value in which the third change amount ( ⁇ s3) is accumulated If it is greater than or equal to (180-a) and less than or equal to (180+a), the second direction data is 2, and the accumulated degree value of the third change amount ( ⁇ s3) is greater than or equal to (270-a) and less than or equal to (270+a).
  • the second direction data may be determined as 3 .
  • the types and determination methods of the first direction data and the second direction data are not limited to those described above.
  • 11 is a view for explaining a method of displaying a screen during rotation according to another embodiment of the present invention. 11 is an exemplary embodiment in which the comparison result determines that the subsequent node is ahead of the first ending node B-3 (Nr) in the first direction D1.
  • the controller 110 in generating the 3-1 correction UI 531 , the controller 110 generates a fifth correction UI 535 that refreshes the position of the moving object to the first end node B-3 (Nr). can do. Thereafter, one of the moving object UI 400 and the indoor space image m may be rotated according to the display mode selected based on the first end node. In this case, the 3-2 correction UI 532 moving in the second direction D2 is generated and displayed after the fifth correction UI 535 is generated.
  • FIG. 12 is a diagram for explaining a method of generating a correction UI according to whether or not a stop is performed according to an embodiment of the present invention.
  • the controller 110 may determine a display stop condition and perform a stop correction operation.
  • the stop correction operation may include stopping the display of the moving object UI 400 for a predetermined period of time or slowing down the display speed of the moving object UI 400 .
  • the distance between the position of the moving object UI 400 displayed at one time point and the position of the first UI object 410 corresponding to the positioning data obtained at the one time point may be calculated.
  • the stop correction operation may be performed.
  • the predetermined distance may be a length of one section defined by an adjacent boundary node, but is not limited thereto.
  • the moving object UI 400 is displayed behind the first UI object 410
  • the first correction UI described above in FIGS. 5 and 6 is generated and displayed instead of performing the static correction operation. can do.
  • the control unit 110 determines whether the display of the moving object UI 400 is stopped. It is possible to determine whether to stop based on the sensed data. For example, if the value of the fusion acceleration calculated according to a certain standard using the sensing value of the acceleration sensor differs by more than a certain value between one point in time and another point in time after the first point in time, it is judged as moving and is lower than a certain value. If there is a difference, it can be judged as a stop.
  • the fusion acceleration value is (acc(x), acc(y), acc(z)) as a coordinate value as a sensing value of the acceleration sensor, as an example, the fusion acceleration value may be as follows.
  • the standard of the predetermined value for determining whether the stop may be set differently according to a time period during which the controller 110 acquires the fusion acceleration data.
  • the screen display device 100 may perform a recommended route display correction operation, which will be described later.
  • the controller 110 may determine whether the subsequent positioning data deviates from the recommended route data by a predetermined distance or more. When the determination result is within a predetermined distance, the indication on the recommended route may be maintained without correcting the position of the moving object with the obtained positioning data. On the other hand, if the determination result is greater than or equal to a certain distance, the position of the moving object may be refreshed with the obtained positioning data, and a new recommended route may be generated and displayed using the refreshed point as a starting point.
  • FIG. 13 is a flowchart illustrating a screen display method according to an embodiment of the present invention.
  • the screen display method may include the steps to be described later, and will be described with reference to the aforementioned drawings together.
  • Node data including information about the location of the positioning sensor is set according to a preset rule on a moving path through which a moving object can move with respect to an indoor space (S100).
  • a first correction UI is generated and displayed based on the first positioning data of the first time point in which the moving object moves in a first direction, wherein the first correction UI is generated from the first starting node.
  • a first display step of displaying the corrected speed compared to the actual speed of the moving object is performed up to the first end node (S200).
  • the first target node determines whether the moving object is rotated to determine a subsequent display step (S300).
  • step S300 is performed after step S200, steps S200 and S300 may be performed in parallel according to an embodiment.
  • the first target node may be a concept of a rotation node rather than a node satisfying the reference value.
  • step S300 is a flowchart for explaining in more detail step S300, which is a part of a screen display method according to an embodiment of the present invention.
  • the step ( S300 ) of determining a subsequent display step may include steps to be described later.
  • the subsequent display step When it is determined that non-rotation is performed in the step of determining the subsequent display step (S300-N), the subsequent display step generates a second correction UI that moves from a second start node extending in the first direction to the second end node.
  • a second display step of displaying may be included.
  • the second display step replaces the first end node with a second start node and determines a second target node adjacent to the first end node as a second end node ( S310 ).
  • a second correction UI displayed at a uniform speed from the second start node to the second end node is generated and displayed ( S320 ).
  • the second correction animation may be generated according to the same principle as the first correction animation.
  • the subsequent display step is a third display step of generating and displaying a third correction UI moving in a second direction different from the first direction may include
  • the third display step generates a 3-1 correction UI moving in the first direction from the first start node to the first end node (S330).
  • a 3-2 correction UI moving in the second direction is generated using the first end node and a third target node adjacent in the second direction as the third end node (S340).
  • the screen display method of the present disclosure may further include receiving a selection signal for a display mode ( S350 ).
  • the display mode may include an object switching mode in which the indoor space image is fixed and the moving object UI is moved, and a background switching mode in which the moving object UI is fixed and the indoor space image is moved.
  • the step (S330) of generating the 3-1 correction UI may include the following embodiments.
  • the step of comparing the precedence relationship between the first end node and the subsequent node corresponding to the subsequent positioning data obtained at a second time point after the first time point may include more.
  • the position of the moving object when the comparison result determines that the subsequent node is ahead of the first end node in the first direction, the position of the moving object generating a fifth correction UI (535) that refreshes , to the first end node; and rotating any one of the moving object UI and the indoor space image according to the display mode selected according to the selection signal based on the first end node.
  • correction UI correction animation
  • the above-described embodiment according to the present invention may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded in a computer-readable medium.
  • the medium may be to store a program executable by a computer. Examples of the medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and those configured to store program instructions, including ROM, RAM, flash memory, and the like.
  • the computer program may be specially designed and configured for the present invention, or may be known and used by those skilled in the computer software field.
  • Examples of the computer program may include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예에 따른 화면 표시 방법은, 실내 공간에 대하여 이동 객체가 이동 가능한 이동 경로 상에 미리 설정된 규칙에 따라 측위 센서의 위치에 관한 정보를 포함하는 노드 데이터를 설정하는 단계; 상기 이동 객체의 제1 시점의 제1 측위 데이터를 기초로 상기 이동 객체가 이동하는 제1 방향으로 움직이는 제1 보정 UI를 생성하여 표시하되, 상기 제1 보정 UI는 제1 시작 노드로부터 제1 종료 노드까지 상기 이동 객체의 실제 속도 대비 보정 속도로 표시되는 제1 표시 단계; 및 상기 제1 종료 노드에서 상기 이동 객체의 회전 여부를 판단하여 후속 표시 단계를 결정하는 단계;를 포함한다.

Description

실내 측위에 따른 화면 표시 방법 및 장치
본 발명은 실내 측위에 따른 화면 표시 방법 및 장치에 관한 것이다.
일반적으로 실외에서는 GPS 신호를 이용하여 위치를 파악할 수 있는데, 실외 환경에서는 신호 송수신에 방해가 되는 구조물이나 장애물의 영향이 적고 신호 송수신의 오차가 크지 않다. 하지만, 실내 측위 시에는 천장, 벽, 기둥 등의 구조물로 인하여 발생하는 GPS 신호 수신 장애 또는 오차에 의해 측위의 정확성이 떨어지는 문제점이 있다.
이에 대응하여 개발된 측위 방법으로서 비콘, 와이파이 등의 측위 센서를 사용한 삼변측량, 핑거프린트, 카메라 기법 등이 있다. 그러나 측위 센서의 신호 또한 주변 환경에 따라 생기는 오차로 인해 측위의 정확성 향상에 한계가 있다.
한편, 최근 내비게이션 장치는 차량 등의 이동 객체 내에 마련되거나, 또는 별도의 모바일 기기 등에서 내비게이션 기능을 제공하고 있다. 내비게이션 장치는 이동 객체가 이동함에 따라 함께 이동하면서 차량의 운전자가 설정한 목적지로의 경로 안내를 수행한다. 그러나, 전술한 바와 같이 실내 환경에서는 측위 데이터의 오차 등으로 측위의 정확성이 떨어지므로 실내 측위에 따른 화면 표시 방법에 있어서도 정확성 확보에 문제점이 있고, 이에 따라 사용자에게 실시간의 정확한 내비게이션 서비스 제공에도 한계가 있다.
본 발명의 실시예들은 실내 환경에서도 정확성이 향상될 뿐만 아니라 사용자에게 보다 원활하고 매끄러운 시각적 안내 효과를 줄 수 있는 실내 측위에 따른 화면 표시 방법 및 장치를 제공하고자 한다.
본 발명의 일 실시예에 따른 실내 측위에 따른 화면 표시 방법은, 실내 공간에 대하여 이동 객체가 이동 가능한 이동 경로 상에 미리 설정된 규칙에 따라 측위 센서의 위치에 관한 정보를 포함하는 노드 데이터를 설정하는 단계; 상기 이동 객체의 제1 시점의 제1 측위 데이터를 기초로 상기 이동 객체가 이동하는 제1 방향으로 움직이는 제1 보정 UI를 생성하여 표시하되, 상기 제1 보정 UI는 제1 시작 노드로부터 제1 종료 노드까지 상기 이동 객체의 실제 속도 대비 보정 속도로 표시되는 제1 표시 단계; 및 상기 제1 종료 노드에서 상기 이동 객체의 회전 여부를 판단하여 후속 표시 단계를 결정하는 단계;를 포함한다.
상기 제1 표시 단계는, 상기 제1 측위 데이터를 기초로 상기 제1 시작 노드를 결정하는 단계; 상기 노드 데이터를 이용하여 획득한 상기 제1 측위 데이터가 미리 설정된 기준치를 만족하는 제1 타겟 노드를 결정하는 단계; 상기 제1 타겟 노드를 기준으로 상기 제1 종료 노드를 결정하는 단계; 및 상기 제1 시작 노드로부터 상기 제1 종료 노드까지 균일한 속도로 표시되는 제1 보정 UI를 생성하여 표시하는 단계;를 포함할 수 있다.
상기 후속 표시 단계를 결정하는 단계에서 비회전으로 판단한 경우, 상기 후속 표시 단계는 상기 제1 방향으로 연장되는 제2 시작 노드로부터 제2 종료 노드까지 움직이는 제2 보정 UI를 생성하여 표시하는 제2 표시 단계를 포함하되, 상기 제2 표시 단계는, 상기 제1 종료 노드를 제2 시작 노드로 대체하고 상기 제1 종료 노드와 인접하는 제2 타겟 노드를 상기 제2 종료 노드로 결정하는 단계; 및 상기 제2 시작 노드로부터 상기 제2 종료 노드까지 균일한 속도로 표시되는 제2 보정 UI를 생성하여 표시하는 단계;를 포함할 수 있다.
상기 후속 표시 단계를 결정하는 단계에서 회전으로 판단한 경우, 상기 후속 표시 단계는 상기 제1 방향과 상이한 제2 방향으로 움직이는 제3 보정 UI를 생성하여 표시하는 제3 표시 단계를 포함하고, 상기 제3 표시 단계는, 상기 제1 시작 노드로부터 상기 제1 종료 노드까지 상기 제1 방향으로 움직이는 제3-1 보정 UI를 생성하는 단계; 및 상기 제1 종료 노드와 상기 제2 방향으로 인접하는 제3 타겟 노드를 기준으로 결정된 제3 종료 노드를 향해 상기 제2 방향으로 움직이는 제3-2 보정 UI를 생성하는 단계를 포함할 수 있다.
상기 화면 표시 방법은 표시 모드에 대한 선택 신호를 수신하는 단계를 더 포함하고, 상기 표시 모드는, 실내 공간 이미지는 고정되고 이동 객체 UI가 이동하는 객체 전환 모드 및 상기 이동 객체 UI는 고정되고 상기 실내 공간 이미지가 이동하는 배경 전환 모드를 포함할 수 있다.
상기 제3-1 보정 UI를 생성하는 단계는, 상기 제1 종료 노드와 상기 제1 시점 이후의 제2 시점에 획득한 후속 측위 데이터에 대응하는 후속 노드의 선후 관계를 비교하는 단계를 더 포함하고, 상기 비교 결과가 상기 후속 노드가 상기 제1 방향으로 상기 제1 종료 노드 전에 위치하는 것으로 판단한 경우, 상기 제3-1 보정 UI 생성 단계 및 상기 제3-2 보정 UI 생성 단계 사이에, 상기 제1 종료 노드를 기준으로 상기 선택 신호에 따라 선택된 표시 모드에 따라 상기 이동 객체 UI 및 상기 실내 공간 이미지 중 어느 하나가 회전하는 단계를 포함할 수 있다.
상기 제3-1 보정 UI를 생성하는 단계는, 상기 제1 종료 노드와 상기 제1 시점 이후의 제2 시점에 획득한 후속 측위 데이터에 대응하는 후속 노드의 선후 관계를 비교하는 단계를 더 포함하고, 상기 비교 결과가 상기 후속 노드가 상기 제1 방향으로 상기 제1 종료 노드보다 앞서는 것으로 판단한 경우, 상기 제3-1 보정 UI를 생성하는 단계는, 상기 이동 객체의 위치를 상기 제1 종료 노드로 새로 고침하는 제5 보정 UI를 생성하는 단계; 및 상기 제1 종료 노드를 기준으로 상기 선택 신호에 따라 선택된 표시 모드에 따라 상기 이동 객체 UI 및 상기 실내 공간 이미지 중 어느 하나가 회전하는 단계를 포함할 수 있다.
상기 제1 표시 단계 및 상기 후속 표시 단계 중 적어도 어느 하나의 단계는, 상기 제1 측위 데이터에 기반하여 표시되는 이동 객체 UI의 위치와 상기 제1 측위 데이터에 대응하는 위치 간의 거리를 산출하는 단계; 및 상기 이동 객체 UI의 위치가 상기 제1 측위 데이터에 대응하는 위치보다 소정의 거리만큼 앞서는 경우 상기 이동 객체 UI의 정지 보정 동작을 수행하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 실내 측위에 따른 화면 표시 장치는 제어부를 포함하고, 상기 제어부는, 실내 공간에 대하여 이동 객체가 이동 가능한 이동 경로 상에 미리 설정된 규칙에 따라 측위 센서의 위치에 관한 정보를 포함하는 노드 데이터를 설정하고, 상기 이동 객체의 제1 시점의 제1 측위 데이터를 기초로 상기 이동 객체가 이동하는 제1 방향으로 움직이는 제1 보정 UI를 생성하여 표시하되, 상기 제1 보정 UI는 제1 시작 노드로부터 제1 종료 노드까지 상기 이동 객체의 실제 속도 대비 보정 속도로 표시되고, 상기 제1 종료 노드에서 상기 이동 객체의 회전 여부를 판단하여 후속 표시 단계를 결정한다.
상기 제어부는, 제1 보정 UI를 생성하여 표시할 때, 상기 제1 측위 데이터를 기초로 상기 제1 시작 노드를 결정하고, 상기 노드 데이터를 이용하여 획득한 상기 제1 측위 데이터가 미리 설정된 기준치를 만족하는 제1 타겟 노드를 결정하고, 상기 제1 타겟 노드를 기준으로 상기 제1 종료 노드를 결정하며, 상기 제1 시작 노드로부터 상기 제1 종료 노드까지 균일한 속도로 표시되는 제1 보정 UI를 생성하여 표시할 수 있다.
상기 제어부가 상기 후속 표시 단계를 결정할 때 비회전으로 판단한 경우, 상기 후속 표시 단계는 상기 제1 방향으로 연장되는 제2 시작 노드로부터 상기 제2 종료 노드까지 움직이는 제2 보정 UI를 생성하여 표시하는 단계로서, 상기 제어부는, 상기 제1 종료 노드를 제2 시작 노드로 대체하고 상기 제1 종료 노드와 인접하는 제2 타겟 노드를 제2 종료 노드로 결정하고, 상기 제2 시작 노드로부터 상기 제2 종료 노드까지 균일한 속도로 표시되는 제2 보정 UI를 생성할 수 있다.
상기 제어부가 상기 후속 표시 단계를 결정할 때 회전으로 판단한 경우, 상기 후속 표시 단계는 상기 제1 방향과 상이한 제2 방향으로 움직이는 제3 보정 UI를 생성하여 표시하는 단계로서, 상기 제어부는 상기 제3 보정 UI를 생성할 때, 상기 제1 시작 노드로부터 상기 제1 종료 노드까지 상기 제1 방향으로 움직이는 제3-1 보정 UI를 생성하고, 상기 제1 종료 노드와 상기 제2 방향으로 인접하는 제3 타겟 노드를 기준으로 결정된 제3 종료 노드를 향해 상기 제2 방향으로 움직이는 제3-2 보정 UI를 생성할 수 있다.
상기 화면 표시 장치는 표시 모드에 대한 선택 신호를 수신하고, 상기 표시 모드는, 실내 공간 이미지는 고정되고 이동 객체 UI가 이동하는 객체 전환 모드 및 상기 이동 객체 UI는 고정되고 상기 실내 공간 이미지가 이동하는 배경 전환 모드를 포함할 수 있다.
상기 제어부는 상기 제3-1 보정 UI를 생성할 때, 상기 제1 종료 노드와 상기 제1 시점 이후의 제2 시점에 획득한 후속 측위 데이터에 대응하는 후속 노드의 선후 관계를 비교하고, 상기 비교 결과가 상기 후속 노드가 상기 제1 방향으로 상기 제1 종료 노드 전에 위치하는 것으로 판단한 경우, 상기 제3-1 보정 UI를 생성한 이후 및 상기 제3-2 보정 UI를 생성하기 이전에, 상기 제1 종료 노드를 기준으로 상기 선택 신호에 따라 선택된 표시 모드에 따라 상기 이동 객체 UI 및 상기 실내 공간 이미지 중 어느 하나가 회전하는 동작을 수행할 수 있다.
상기 제어부는 상기 제3-1 보정 UI를 생성할 때, 상기 제1 종료 노드와 상기 제1 시점 이후의 제2 시점에 획득한 후속 측위 데이터에 대응하는 후속 노드의 선후 관계를 비교하고, 상기 비교 결과가 상기 후속 노드가 상기 제1 방향으로 상기 제1 종료 노드보다 앞서는 것으로 판단한 경우, 상기 이동 객체의 위치를 상기 제1 종료 노드로 새로 고침하는 제5 보정 UI를 생성하고, 상기 제1 종료 노드를 기준으로 상기 선택 신호에 따라 선택된 표시 모드에 따라 상기 이동 객체 UI 및 상기 실내 공간 이미지 중 어느 하나가 회전하는 동작을 수행할 수 있다.
상기 제어부는, 상기 제1 보정 UI를 표시하는 단계 및 상기 후속 표시 단계 중 적어도 어느 하나를 수행할 때, 상기 제1 측위 데이터에 기반하여 표시되는 이동 객체 UI의 위치와 상기 제1 측위 데이터에 대응하는 위치 간의 거리를 산출하고, 상기 이동 객체 UI의 위치가 상기 제1 측위 데이터에 대응하는 위치보다 소정의 거리만큼 앞서는 경우 상기 이동 객체 UI의 정지 보정 동작을 수행할 수 있다.
본 발명의 실시예들에 따르면, 이동 가능한 경로 내의 노드 데이터를 활용한 측위 알고리즘을 사용함으로써 실시간의 정확성이 향상된 화면 표시 방법 및 장치를 제공할 수 있다.
또한, 본 발명의 실시예들에 따르면, 실내 측위 알고리즘 수행 시 발생하는 오차를 보정함으로써 사용자에게 보다 원활하고 매끄러운 시각적 효과와 이에 따른 양질의 내비게이션 서비스 제공이 가능하다.
도 1은 본 발명의 일 실시예에 따른 화면 표시 시스템의 구성을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 화면 표시 시스템의 구성을 더 상세하게 도시한 구성도이다.
도 3은 본 발명의 일 실시예에 따른 센서부의 구성을 도시한 구성도이다.
도 4는 본 발명의 일 실시예에 따른 노드 데이터를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 단일 경로 표시 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 단일 경로 표시 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 표시 모드를 설명하기 위한 도면이다.
도 8은 본 발명의 다른 실시예에 따른 표시 모드를 설명하기 위한 도면이다.
도 9는 회전 시 표시 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 회전 시 화면 표시 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 다른 실시예에 따른 회전 시 화면 표시 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 정지 여부에 따른 보정 UI 생성 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시예에 따른 화면 표시 방법을 설명하기 위한 순서도이다.
도 14는 본 발명의 일 실시예에 따른 화면 표시 방법의 일부 단계를 더 구체적으로 설명하기 위한 순서도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
도 1은 본 발명의 일 실시예에 따른 화면 표시 시스템(10)의 구성을 개략적으로 도시한 도면이다.
본 발명의 일 실시예에 따른 화면 표시 시스템(10)은 화면 표시 서버(1000) 및 실내 공간 서버(2000)를 포함할 수 있다. 두 서버(1000, 2000)는 통신망(300)을 통해 통신하며 서로 데이터를 주고 받을 수 있다.
화면 표시 서버(1000)는 실내 공간에서 이동하는 이동 객체의 실내 측위를 수행할 수 있다. 이를 위하여 화면 표시 서버(1000)는 도 2 및 도 3에 도시된 바와 같은 화면 표시 장치(100)를 구비할 수 있고, 후술하는 도 2 및 도 3에서 더 상세히 설명한다. 화면 표시 서버(1000)는 화면 표시 장치(100)에 설치되는 측위 애플리케이션을 관리하는 서버일 수 있다. 화면 표시 서버(1000)와 화면 표시 장치(100)는 상기 애플리케이션을 통해 서로 데이터를 주고 받을 수 있다.
실내 공간 서버(2000)는 본 개시에서 측위하고자 하는 이동 객체가 이동하는 실내 공간과 관련된 서버이다. 본 개시의 실내 공간은 실내/지하 주차장, 터널, 지하도로, 지하상가 및 건물 내부 등 GPS 신호를 수신하는데 장애 요소가 있는 여러 공간이 될 수 있다. 실내 공간 서버(2000)는 각 개별 실내 공간에 존재하는 로컬 서버일 수도 있고, 여러 실내 공간에 관한 정보를 관리하는 중앙 서버일 수도 있다. 이하, 실내 공간은 실내 주차장이고 실내 공간 서버(2000)는 주차장 서버인 것으로 예를 들어 설명할 수 있다. 실내 공간 서버(2000)는 이동 객체의 실내 측위를 위해 도 2에 도시된 바와 같은 측위 센서(200)를 구비할 수 있다.
실시예에 따라 화면 표시 서버(1000) 및 실내 공간 서버(2000)의 운영 주체는 동일할 수도 있다.
통신망(300)은 측위 시스템(10)의 각 구성 간의 데이터 송수신을 매개하는 통신망을 의미할 수 있다. 가령 통신망(300)은 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 와이파이(Wi-Fi), 무선 LANs, CDMA, 블루투스(Bluetooth), 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
이하, 도 2 및 도 3을 함께 사용하여 일 실시예에 따른 화면 표시 시스템(10)의 구성을 더 상세히 설명한다. 도 2는 본 발명의 일 실시예에 따른 화면 표시 시스템(10)을 더 상세하게 도시한 구성도이고, 도 3은 본 발명의 일 실시예에 따른 센서부(140)의 구성을 도시한 구성도이다.
화면 표시 장치(100)는 차량 등과 같은 이동 객체에 대응하는 장치로서, 차량의 차주가 소지하는 휴대폰, 태블릿 PC 등의 이동식 단말기일 수도 있고, 차량에 연결되거나 내장된 전자 기기일 수도 있다. 화면 표시 장치(100)에는 본 발명의 일 실시예에 따른 이동 객체에 대한 실내 측위 방법이 수행되는 애플리케이션이 설치될 수 있다. 이하, 이동 객체의 위치 개념은 화면 표시 장치(100)의 위치 개념과 혼용하여 설명될 수 있다.
화면 표시 장치(100)는 제어부(110), 통신부(120), 메모리(130), 센서부(140) 및 표시부(150)를 포함할 수 있다. 또한, 본 도면에서는 도시되지 않았으나 표시부(150) 이외의 입출력 인터페이스 등을 더 포함할 수 있다.
제어부(110)는 화면 표시 장치(100)를 전반적으로 제어하는 동작을 수행할 수 있다. 제어부(110)의 구체적인 동작에 관하여는 후술하는 관련 도면에서 더 상세히 설명한다.
제어부(110)는 프로세서(Processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(Processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
통신부(120)는 다양한 유형의 통신 방식에 따라 통신망(300)을 통해 제어 신호 또는 데이터 등을 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. 통신부(120)는 다양한 유형의 외부 장치, 서버, 예컨대 도 2의 측위 센서(200)나 실내 공간 서버(2000) 등과 통신할 수 있다.
메모리(130)는 화면 표시 장치(100)에 의해 생성 및 처리되는 모든 종류의 데이터를 일시적 및/또는 영구적으로 저장하는 기능을 수행한다. 메모리(130)는 화면 표시 장치(100)에 설치되는 프로그램 애플리케이션, 데이터, 명령어 등을 저장하고, 화면 표시 장치(100)를 통해 입출력되는 모든 종류의 데이터를 저장할 수 있다. 메모리(130)는 RAM(Random Access Memory), ROM(Read Only Memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(Permanent Mass Storage Device), 플래시 저장 매체 및 SSD(Solid State Drive) 등을 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
여기서 도 3을 함께 참조하여 센서부(140)에 관하여 설명한다. 센서부(140)는 이동 객체의 위치, 이동 여부, 이동 방향/각도 및 자세를 포함하는 이동 정보를 획득하기 위한 센서로서, 장치(100) 내부 도는 외부의 상태를 센싱하기 위한 복수의 센서들을 포함할 수 있다. 센서부(140)는 가속도 센서(Accelerometer)(141), 자이로 센서(Gyroscope)(142) 및 지자기 센서(Magnetic Field Sensor)(143) 중 적어도 하나를 포함할 수 있다. 센서부(140)를 통해 이동 객체의 상기 이동 정보에 관한 제1 센싱 데이터를 획득할 수 있다.
가속도 센서(141)는 이동 객체의 가속도를 센싱하는 것으로 X축, Y축, Z축의 3축 센서일 수 있다. 자이로 센서(142)는 이동 객체의 각속도를 센싱하는 것으로 Rx, Ry, Rz의 3축 센서일 수 있다. 가속도 센서(141)는 이동 객체의 가속도를 이용한 이동 객체의 이동 관성(단위의 일 예로 g(1 g=9.8 m/s2))을, 자이로 센서(142)는 이동 객체의 각속도를 이용한 회전 관성 및/또는 회전율(단위의 일 예로 deg/sec)을 측정할 수 있다. 가령, 제어부(110)는 가속도 센서(141) 및 자이로 센서(142)의 센싱값을 이용하여 이동 객체의 이동 정보를 획득하되, 상기 이동 정보는 이동 객체의 롤(roll) 각도, 피치(pitch) 각도, 요(yaw) 각도에 관한 정보를 포함하는 회전 정보(각도 변화량) 및 속도 정보를 획득할 수 있다.
지자기 센서(143)는 이동 객체의 방위각을 측정할 수 있다. 지자기 센서(143)에 의해 획득된 센싱값은 이동 객체가 이동 없이 정지해 있는 경우 값의 변동 폭이 감소한다. 출력된 센서값의 변화값이 미리 설정된 기준 이하일 경우 차량이 정지 상태인 것으로 판단할 수 있다. 제어부(110)는 가속도 센서(141)와 자이로 센서(142)의 센싱값과 함께 지자기 센서(143)의 센싱값을 함께 이용함으로써 이동 객체의 이동과 회전 여부 판단 시의 오차를 줄일 수 있다. 이와 같이, 화면 표시 장치(100)는 센서부(140)를 통해 획득하는 제1 센싱 데이터에 기반하여 이동 객체의 3축을 포함하는 3차원의 다양한 방향의 움직임, 속도 정보를 파악할 수 있다.
다시 도 2를 참조하면, 표시부(150)는 화면 표시 장치(100)를 통해 입출력되는 데이터를 디스플레이할 수 있다. 본 발명의 일 실시예에 따른 실내 측위 방법에 의해 처리, 출력되는 측위 데이터는 화면 표시 장치(100)에 저장된 측위 애플리케이션의 동작에 따른 출력 방식으로 표시부(150)를 통해 디스플레이될 수 있다. 후술하는 도 4 내지 도 8은 표시부(150)를 통해 출력되는 표시 화면의 예시도들이다.
실시예에 따라서 화면 표시 장치(100)는 화면 표시 서버(1000) 외부에 화면 표시 서버(1000)와 별개로 구비될 수도 있다.
실내 공간 서버(2000)는 이동 객체의 실내 측위를 위해 실내 공간 상에 설치되는 측위 센서(200)를 구비할 수 있다. 일 예로, 측위 센서(200)는 통신망(300)을 통해 비콘 ID를 포함하는 비콘 신호를 송신하는 비콘 모듈일 수 있다. 비콘 신호는 UUID(Universally Unique Identifier), 메이저ID(Major ID), 마이너ID(Minor ID), RSSI(Received Signal Strength Indication)를 포함할 수 있다. 일 예로, 메이저ID 및 마이너ID는 세 자리의 숫자로 이루어질 수 있으며, 백의 자리에는 층 별로 고유의 숫자를 할당하고, 십의 자리와 일의 자리에는 비콘 별로 고유의 숫자를 할당할 수 있다. RSSI는 비콘 신호의 세기에 대응한다. 이 경우 측위 센서(200)는 비콘 신호를 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), LTE(Long Term Evolution), 3G 등 사용 가능한 모든 무선 통신망(300)을 통해 화면 표시 서버(1000)로 주기적으로 무선 전송할 수 있다.
이하, 측위 센서(200)에 의해 획득되는 데이터를 제2 센싱 데이터로 지칭하고, 상기 제2 센싱 데이터는 상기 비콘 신호를 의미할 수 있다.
도 4는 본 발명의 일 실시예에 따른 노드 데이터를 설명하기 위한 도면으로, 표시부(150)를 통하여 디스플레이되는 표시 화면의 일 예시도이다.
표시 화면에는 실내 공간(20), 주차면(21), 장애물(22) 등이 데이터 처리된 이미지 형태로 도시되어 있고 주차면(21) 및 장애물(22)은 실제 실내 공간(20)에 적절하게 배치될 수 있다. 이하, 실내 공간(20)은 주차장(20)인 것을 예로 들어 설명한다.
제어부(110)는 실내 공간(20)에 대하여 이동 객체가 이동 가능한 이동 경로 상에 미리 설정된 규칙에 따라 측위 센서(200)의 위치에 관한 정보를 포함하는 노드 데이터를 설정한다.
실내 공간(20)에서 주차면(21), 장애물(22)을 제외한 나머지 공간은 이동 객체가 이동 가능한 이동 경로일 수 있다. 이동 경로 상에는 미리 설정된 규칙에 따라 설치되는 측위 센서(200)(도 2 참고)의 위치를 나타내는 복수의 노드(N)가 도시되어 있다. 이하, '노드(N)의 위치'와 '측위 센서(200)의 위치'는 혼용하여 설명할 수 있다. 측위 센서(200)는 이동 경로 상에 미리 설정된 규칙에 따라 일정한 간격에 따라 설치될 수 있다. 실시예에 따라 주차면(21)에도 노드가 설정될 수 있다.
일 예로, 도 4에서 복수의 노드(N)는 제1 이동 경로 상의 A 노드 및 제2 이동 경로 상의 B 노드를 포함하고, A 노드는 A-1, A-2, A-3, A-4, A-5 노드를 포함하고, B 노드는 B-1, B-2, B-3, B-4, B-5 노드를 포함하는 것으로 도시하였다. 그러나, 복수의 노드(N)의 위치 및 개수는 이에 한정되지 않는다.
본 발명의 일 실시예에 따른 노드 데이터는 측위 센서(200)가 설치되는 위치 정보에 관한 것으로서, 상기 위치 정보는 측위 센서(200)의 ID, 복수의 노드(N) 각각의 자기 위치 정보 및 서로 다른 노드 사이의 연결 정보를 포함할 수 있다.
복수의 노드(N)는 측위 동작이 시작되는 최초 노드, 측위 동작이 종료되는 최종 노드, 삼거리나 사거리 등의 교차로에 위치하는 회전 노드 및 상기 노드들 사이에 위치하는 중간 노드 등을 포함할 수 있다. 일 예로, 최초 노드는 실내 공간의 입구에 대응하고, 최종 노드는 실내 공간의 출구에 대응할 수 있다. 도 4에서는 A-1 노드가 최초 노드, B-1 노드가 최종 노드, A-5 및 B-5 노드가 회전 노드, 그 이외의 나머지 노드들이 중간 노드일 수 있다. 이와 같이 측위 센서(200)는 이동 객체의 직선 경로, 교차로와 같이 이동 객체의 방향이 전환되는 지점 등에 설치될 수 있다. 이때, 상기 직선 경로 상에서 인접한 두 측위 센서(200) 사이의 거리가 일정 기준 이상일 경우 측위의 정확성을 높이기 위하여 그 사이에 추가로 측위 센서(200)가 설치될 수 있다.
제어부(110)는 상기 노드 데이터, 센서부(140)를 통해 획득한 제1 센싱 데이터 및 실내 공간(20)에 구비되는 측위 센서(200)를 통해 획득한 제2 센싱 데이터 중 적어도 하나를 이용하여, 상기 객체가 현재 위치하는 제1 구간을 판단할 수 있는 제1 측위 데이터를 획득할 수 있다. 예컨대, 제1 측위 데이터는 (측위 동작의 시작점의) 이동 객체의 현재 위치로서 현재 위치 좌표, 화면 표시 장치(100)와 측위 센서(200) 사이의 거리 정보 등을 포함할 수 있다.
이후, 제어부(110)는 상기 제1 측위 데이터가 상기 제1 구간을 정의하는 경계 노드에 대한 미리 설정된 기준치를 만족하는지 여부를 판단할 수 있다. 예를 들어, 도 4에서 제1 구간이 A-2 노드 및 A-3 노드 사이의 구간이라 한다면, 두 노드(A-2, A-3)가 상기 제1 구간의 경계 노드이다. 예를 들어, 상기 기준치 만족 여부는 측위 센서(200)와 화면 표시 장치(100) 사이의 계산된 거리가 일정 값 이하인 경우, 즉, 이동 객체가 특정 측위 센서(200)와 일정 거리 내로 가까워졌는지로 판단할 수 있고, 만족하는 것으로 판단된 경우 다음 측위 동작(다음 측위 센서(200))을 수행할 수 있다. 실시예에 따라서, 기준치 만족 조건은 화면 표시 장치(100)가 수신하는 여러 측위 센서(200)의 센서 신호들 중에서 얼마나 지속적으로, 높은 빈도 수로 받았는지 여부일 수 있고, 측위에 용이한 다양한 범위 내에서 변경 적용될 수 있다. 실시예에 따라서, 상기 기준치 만족 조건은 상기 RSSI 데이터를 활용하여 실내 측위 장치(100)와 여러 측위 센서(200) 사이의 상대적으로 근접한지 여부이고, 이를 전술한 빈도 수와 함께 활용할 수 있다.
한편, 본 도면에서 이동 객체는 측위된 위치에 따라 표시 화면 상에 이동 객체 UI(400)로 표시될 수 있다. 제1 UI 객체(410)는 이동 객체의 측위된 위치를 나타내고, 제2 UI 객체(420)는 이동 객체의 실제 위치를 나타내는 표시이다. 이동 객체 UI(400)는 임의의 시점에서 상기 제1 UI 객체(410)로 표현되는 측위된 위치를 기초로 표시 화면에 표시되는 이동 객체의 위치를 의미한다. 이동 객체의 이동 방향은 표시 위치인 이동 객체 UI(400)로부터 측위된 위치인 제1 UI 객체(410)를 향하는 방향으로 해석할 수 있다.
이후, 제어부(110)는 상기 제1 타겟 노드에서 이동 객체의 회전 여부를 판단하여 후속 표시 단계를 결정할 수 있다. 상기 후속 표시 단계를 결정하는 구체적인 예시에 관하여 후술하는 도면들에서 설명한다.
도 5는 본 발명의 일 실시예에 따른 단일 경로 표시 방법을 설명하기 위한 도면이다.
화면 표시 장치(100)의 제어부(110)는 이동 객체(400)의 제1 시점의 제1 측위 데이터를 기초로 이동 객체(400)가 이동하는 제1 방향(D1)으로 움직이는 제1 보정 UI(510)를 생성하여 표시할 수 있다. 이하, 제1 보정 UI(510)라 함은 직선 구간(단일 경로 구간)에서 생성되는 보정 UI를 일컫는 개념일 수 있다. 제1 보정 UI(510)는 제1 시작 노드로부터 제1 종료 노드까지 이동 객체의 실제 속도 대비 보정된 보정 속도로 표시될 수 있다.
더 구체적으로, 제어부(110)는 후술하는 단계들에 의해 제1 보정 UI(510)를 생성하여 표시할 수 있다. 먼저 제1 측위 데이터를 기초로 제1 시작 노드를 결정한다. 노드 데이터, 센서부(140)에 의한 제1 센싱 데이터 및 측위 센서(200)에 의한 제2 센싱 데이터 중 적어도 하나를 이용하여 획득한 제1 측위 데이터가 미리 설정된 기준치를 만족하는 제1 타겟 노드를 결정할 수 있다.
가령, 도 5에서 제1 시작 노드는 임의의 시점의 제1 측위 데이터에 의한 표시 위치인 401 노드로 결정될 수 있다. 여기서, '시작 노드'또는 '종료 노드'의 '노드'는 단순히 노드 데이터가 포함하는 측위 센서(200)의 설치 위치에 대응하는 노드 뿐만 아니라 임의의 시점에서 표시되는 이동 객체 UI(400)의 위치를 포함하는 개념이 될 수도 있다. 이동 객체가 제1 방향(D1)으로 이동하는 중에 제어부(110)가 시작 노드(401)에서 미리 설정된 기준치를 만족하는 노드, 도 5에서는 B 노드를 인식하였다고 가정한다. 그러면 B 노드를 제1 타겟 노드(Nt)로 결정할 수 있다.
이후, 제어부(110)는 제1 타겟 노드(Nt)를 기준으로 제1 보정 UI(510)의 종료 노드인 제1 종료 노드를 결정할 수 있다. 이때, 제1 종료 노드는 제1 타겟 노드(Nt) 또는 제1 타겟 노드(Nt)와 제1 방향(D1)으로 다음 인접하는 노드 등으로 결정될 수 있다. 예를 들어 이동 객체의 표시 위치(401)에서 제1 타겟 노드(Nt)가 B 노드로 인식되었으므로 제1 종료 노드는 B 노드 또는 C 노드가 될 수 있다. 제1 종료 노드가 B 노드인 경우는 제1 보정 UI(510)가 제1 구간(A1)에서 표시되고, C 노드인 경우는 제1 보정 UI(510)가 제1 구간(A1) 및 제2 구간(A2)에서 표시될 수 있다. 본 도면에서는 제1 종료 노드(Nf)가 제1 타겟 노드(Nt)와 제1 방향(D1)으로 인접하는 다음 노드인 C 노드인 실시예를 도시하였다.
이후, 제어부(110)는 제1 시작 노드(401)로부터 제1 종료 노드까지 균일한 속도로 표시되는 제1 보정 UI(510)를 생성하여 표시한다. 상기 균일한 속도는 실제 이동 객체의 속도 대비 보정된 속도일 수 있다. 실제 이동 객체는 특정 구간에서 균일한 속도로 움직이지 않는 경우가 많고, 설령 균일한 속도로 움직인다 하더라도 장애물 등이 있는 실내 환경, 통신 품질 및 상태 등의 여러 요소로 인해 측위 데이터가 실시간으로 정확하게 수집되기 어려운 문제점이 있다. 이에, 본 발명의 실시예들은, 노드 데이터, 센싱 데이터 기반으로 획득된 측위 데이터를 기초로 시작/종료 지점을 결정하고, 그 사이 구간에서 이동 객체 UI가 균일한 속도로 움직이는 보정 UI(보정 애니메이션)를 제공함으로써 사용자에게 보다 원활하고 보기 편한 시각적 효과를 수반한 내비게이션 서비스를 제공할 수 있는 이점이 있다. 선택적 실시예에 따라서, 보정 UI가 표시되는 전체 구간에서 각각 서로 다른 균일한 속도로 표시되는 복수의 구간을 포함할 수도 있다.
도 6은 본 발명의 다른 실시예에 따른 단일 경로 표시 방법을 설명하기 위한 도면이다. 도 5와 중복되는 설명은 생략하고 차이점이 되는 부분을 위주로 설명한다.
도 6의 실시예에서도 시작 노드를 401이라고 할 때, 401 노드에서 미리 설정된 기준치를 만족하는 노드로서 C 노드를 인식하였다고 가정한다. 즉, 도 6에서는 C 노드를 제1 타겟 노드(Nt)로 결정할 수 있다. 여기서 도 5와 다른 점은 시작 노드에서 인식한 타겟 노드가 노드 데이터 중 시작 노드(현재 위치)와 가장 가까운 노드(B 노드)가 아닌 그 다음으로 인접하는 C 노드인 점이다.
이후, 제어부(110)는 마찬가지로 제1 타겟 노드(Nt)를 기준으로 제1 보정 UI(510')의 종료 노드인 제1 종료 노드를 결정할 수 있다. 이때, 제1 종료 노드는 제1 타겟 노드(Nt) 또는 제1 타겟 노드(Nt)와 제1 방향(D1)으로 다음 인접하는 노드 등으로 결정될 수 있다. 예를 들어, 본 도면에서는 이동 객체의 표시 위치(401)에서 제1 타겟 노드(Nt)가 C 노드로 인식되었으므로 제1 종료 노드는 C 노드 또는 D 노드가 될 수 있다. 제1 종료 노드가 C 노드인 경우는 제1 보정 UI(510')가 제1 및 제2 구간(A1, A2)에서 표시되고, D 노드인 경우는 제1 보정 UI(510')가 제1 내지 제3 구간(A1, A2, A3)에서 표시될 수 있다. 본 도면에서는 제1 종료 노드(Nf)가 제1 타겟 노드(Nt)와 제1 방향(D1)으로 인접하는 다음 노드인 D 노드인 실시예를 도시한 것이다.
이와 같이 본 발명의 일 실시예에 따른 화면 표시 방법 및 장치에 의하면, 실시간으로 획득되는 이동 객체의 측위 데이터에 따라 타겟 노드를 유동적으로, 그리고 정확하게 판단할 수 있다. 이에 따라 사용자에게 보다 원활하고 효과적인 시각적 효과가 수반된 내비게이션 서비스를 제공할 수 있다.
한편, 전술한 도 5 및 도 6과 관련하여 제어부(110)가 상기 후속 표시 단계를 결정할 때 비회전으로 판단한 경우의 화면 표시 방법에 대하여 설명한다.
제어부(110)가 상기 제1 종료 노드에서 상기 이동 객체가 회전하지 않는 것으로 판단한 경우, 후속 표시 단계에서 제1 방향(D1)으로 연장되는 제2 시작 노드로부터 제2 종료 노드까지 움직이는 제2 보정 UI를 생성하여 표시할 수 있다.
구체적으로, 제어부(110)는 전술한 제1 종료 노드를 제2 시작 노드로 대체하고 상기 제1 종료 노드와 인접하는 제2 타겟 노드를 제2 종료 노드로 결정한다. 이후, 상기 제2 시작 노드로부터 상기 제2 종료 노드까지 균일한 속도로 표시되는 제2 보정 UI를 생성하여 표시할 수 있다.
가령, 도 5를 예로 들어 설명하면, 시작 노드는 401 노드, 제1 타겟 노드(Nt)는 B 노드, 제1 종료 노드(Nf)는 C 노드인 실시예에서, 제어부(110)가 제1 종료 노드인 C 노드에서 이동 객체의 회전 여부를 판단하고 비회전으로 판단한 경우이다. 이때, 제1 종료 노드인 C 노드를 후속 표시 단계의 제2 시작 노드로 대체하고, 상기 C 노드와 제1 방향(D1)의 이동 객체의 이동 방향으로 인접하는 D 노드(미도시)를 제2 종료 노드로 결정할 수 있다. 이때, 제1 종료 노드(C)에서 회전 여부 판단과 함께, 후속 타겟 노드를 판단할 수 있다. 즉 이 경우는 D 노드가 제2 타겟 노드로 인식되어 제2 종료 노드로 결정된 것이다.
이후, 제어부(110)는 상기 제2 시작 노드로부터 상기 제2 종료 노드까지 균일한 속도로 표시되는 제2 보정 UI(미도시)를 생성하여 표시할 수 있다.
이하, 도 7 및 도 8을 함께 사용하여 본 발명의 일 실시예에 따른 화면 표시 방법의 표시 모드에 관하여 설명한다. 도 7은 본 발명의 일 실시예에 따른 표시 모드를 설명하기 위한 도면이고, 도 8은 본 발명의 다른 실시예에 따른 표시 모드를 설명하기 위한 도면이다.
화면 표시 장치(100)는 통신부(120)나 입출력 모듈(미도시)를 통해 표시 모드에 대한 선택 신호를 수신할 수 있다. 이때 상기 선택 신호는 사용자의 조작에 의해 입력될 수도 있고, 또는 제어부(110)나 메모리(130) 상에 미리 설정된 알고리즘에 의해 실행될 수도 있고, 다양한 방식으로 화면 표시 장치(100)에 수신될 수 있다. 표시 모드는 도 7에 도시된 바와 같은 객체 전환 모드 및 도 8에 도시된 바와 같은 배경 전환 모드를 포함할 수 있다.
먼저 도 7을 참조하면, 표시부(150)를 통해 표시되는 서로 다른 시점의 표시 화면(151, 152)이 도시되어 있다. 우측의 표시 화면(152)이 좌측의 표시 화면(151) 이후의 시점의 화면이다. 도 7에 도시된 표시 모드는 실내 공간 이미지(m)는 고정되고 이동 객체 UI(401, 402)가 이동하는 객체 전환 모드이다. 두 표시 화면(151, 152)을 함께 참조하면, 이동 객체가 B-3 노드에서 제1 방향(D1)으로 회전하는 이동을 도시한다. 이때 실내 공간 이미지(m)는 고정되고, 이동 객체 UI가 401에서 402 위치로 이동하였다.
다음 도 8을 참조하면, 서로 다른 시점의 표시 화면(151, 152, 153)이 도시되어 있다. 좌측부터 순차적인 시간 흐름에 따른 표시 화면이다. 도 8에 도시된 표시 모드는 이동 객체 UI(400)는 고정되고 실내 공간 이미지(m1, m2, m3)가 이동하는 배경 전환 모드이다. 세 표시 화면(151, 152, 153)을 함께 참조하면, 이동 객체가 B-3 노드에서 제1 방향(D1)과 나란한 방향으로 회전하는 이동을 도시한다. 이때 이동 객체 UI(400)는 고정되고, 실내 공간 이미지가 m1에서 m2로 전환되고, 이후 m2에서 m3로 전환된다. 이때, 실내 공간 이미지의 이동은 메모리(130)에 저장된 실내 공간 이미지(맵 데이터)에 따라 점진적이고 연속적으로 수행될 수 있다.
이하, 도 9 내지 도 11을 사용하여 제어부(110)가 전술한 후속 표시 단계를 결정할 때 회전으로 판단한 경우의 실시예들에 관하여 설명한다.
먼저 도 9는 일반적인 회전 시 표시 방법을 설명하기 위한 도면이다. 본 도면은 회전에 대한 보정 UI를 통한 애니메이션 효과가 없는 경우의 표시예를 도시한 것이다. 이때, 제어부(110)는 이동 객체가 B-3 노드에서 형성되는 회전 구간(R1)에서 회전하는 것으로 판단하고, 이에 따라 이동 객체 UI는 제1 시점에서 A-3 노드와 B-3 노드 사이 구간에서 이동 객체 UI(401)로 표시되고, 회전 후 제2 시점에서 B-3 노드와 C-3 노드 사이 구간에서 이동 객체 UI(402)로 표시되고 있다. 도 9에 도시된 바에 따르면, 이동 객체의 회전 이동에 있어서 보정 애니메이션 없이 이격적으로 표시된 이동 객체 UI만으로 이동을 파악하므로, 시작 지점부터 종료 지점까지 연속적인 회전 이동을 파악하기 어려운 문제점이 있다. 이에 후술하는 도 10 및 도 11에서 본 발명의 보정 애니메이션을 통한 화면 표시 방법 및 장치의 실시예들에 관하여 설명한다.
먼저 도 10의 실시예에 관하여 설명한다. 도 10은 본 발명의 일 실시예에 따른 회전 시 화면 표시 방법을 설명하기 위한 도면이다.
제어부(110)가 제1 종료 노드(도 10, 11에서 B-3 노드)(이하, 회전 노드(Nr)로도 지칭할 수 있다.)에서 이동 객체가 회전하는 것으로 판단한 경우, 후속 표시 단계는 제1 방향(D1)과 상이한 제2 방향(D2)으로 움직이는 보정 UI를 포함하는 제3 보정 UI(530)를 생성하여 표시하는 단계일 수 있다.
이때 제어부(110)는 상기 제3 보정 UI(530)를 생성할 때, 먼저 제1 시작 노드(400s)로부터 제1 종료 노드(B-3)까지 제1 방향(D1)으로 움직이는 제3-1 보정 UI(531)를 생성할 수 있다. 이후, 제1 종료 노드(B-3)와 제2 방향(D2)으로 인접하는 제3 타겟 노드(B-2)를 기준으로 결정된 제3 종료 노드를 향해 상기 제2 방향으로 움직이는 제3-2 보정 UI를 생성할 수 있다. 이때, 제3 종료 노드는 B-2 노드 일 수도 있고, 도면에는 도시되지 않은 B-2 좌측으로 인접하는 B-1 노드일 수도 있고, 실시예에 따라서 이동 객체가 제2 방향(D2)으로 이동하는 중에 B-2 노드 이전에 정지한 경우 정지한 노드(도 10의 400f 노드)일 수도 있다.
이때, 제어부(110)는 제3-1 보정 UI(531)를 생성함에 있어서, 상기 제1 종료 노드와 상기 제1 시점 이후의 제2 시점에 획득한 후속 측위 데이터에 대응하는 후속 노드의 선후 관계를 비교할 수 있다. 상기 비교 결과가 도 10에 도시된 바와 같이 상기 후속 노드가 제1 방향(D1)으로 상기 제1 종료 노드(Nr) 전에 위치하는 것으로 판단한 경우, 제어부(110)는 제3-1 보정 UI(531) 생성 단계 및 제3-2 보정 UI(532) 생성 단계 사이에, 상기 제1 종료 노드(Nr)를 기준으로 선택 신호에 따라 선택된 표시 모드에 따라 이동 객체 UI(400) 및 실내 공간 이미지(m) 중 어느 하나가 회전하도록 동작할 수 있다.
구체적으로, 제어부(110)는 제3-1 보정 UI(531)를 생성할 때, A-3 노드와 B-3 노드 사이 구간에서 표시되는 전술한 제1 보정 UI를 정지할 수 있다. 이후, 상기 제1 보정 UI의 표시 속도를 제1 속도라고 할 때, 제1 종료 노드(B-3; Nr)까지 상기 제1 속도와 상이한 제2 속도로 진행하는 제4 보정 UI를 생성할 수 있다. 도 10의 제3-1 보정 UI(531)가 제1 보정 UI 및 제4 보정 UI를 모두 포함하는 개념으로 도시하였다. 이후, 상기 제1 종료 노드(B-3; Nr)를 기준으로 선택된 표시 모드에 따라 회전하도록 할 수 있다.
이때 선택된 표시 모드에 따른 회전은 도 10의 우측 상단에 도시된 방향 데이터를 기초로 이루어질 수 있다.
제어부(110)는 제1 센싱 데이터를 이용하여 이동 객체의 회전량에 관한 제1 방향 데이터를 산출할 수 있다.
'제1 방향 데이터'는 제1-1 센싱 데이터의 제1-1 좌표값 및 제1-2 센싱 데이터의 제1-2 좌표값을 융합 연산하여 산출될 수 있다. 상기 제1-1, 제1-2 센싱 데이터는 센서부(140)에 의해 획득되는 제1 센싱 데이터에 포함되는 개념이다. 상기 제1-1 센싱 데이터는 가속도 센서(141)에 의해 획득되는 센싱값이고, 제1-2 센싱 데이터는 자이로 센서(142)에 의해 획득되는 센싱값이다. 즉, 가속도 센서(141)와 자이로 센서(142)의 센싱값을 이용하여 이동 객체의 회전량 및 회전 방향을 계산할 수 있는데 구체적으로 후술하는 바와 같다.
두 센서(141, 142)는 3축 센서로서, 제1-1 좌표값 및 제1-2 좌표값은 각각 (acc(x), acc(y), acc(z)), (gyr(x), gyr(y), gyr(z))라고 가정한다. ‘제1 방향 데이터’는 아래 제1 변화량, 제2 변화량 및 제3 변화량을 포함한다. 초당 radian 변화량을 제1 변화량(△s1), 초당 degree 변화량을 제2 변화량(△s2), 실제 degree 변화량을 제3 변화량(△s3)이라 할 때, 각 값은 아래 수학식들과 같다.
Figure PCTKR2021013896-appb-M000001
Figure PCTKR2021013896-appb-M000002
Figure PCTKR2021013896-appb-M000003
수학식 3에서 1000은 시간의 값의 기준으로 판단한 변수로서, 1000 단위가 초(sec)임을 의미한다. 즉, 수학식 3을 보면 제2 변화량(△s2)을 적분하여 실제 변화량인 제3 변화량(△s3)을 구할 수 있다. 예를 들어, 제2 변화량(△s2)은 회전량에 따라 범위의 제한이 없고, 제3 변화량(△s3)이 일 시점의 실제 변화량이므로 제3 변화량(△s3)이 누적된 degree 값은 0도 내지 360도 범위 내의 값을 가질 수 있다. 가령 이동 객체가 회전하여 제3 변화량(△s3)이 누적된 degree 값이 360도보다 큰 값이 되는 경우 다시 0도로 변경하여 계산하고, 제3 변화량(△s3)이 누적된 degree 값이 0도보다 작은 값이 되는 경우 다시 360도로 변경하여 계산하는 방식일 수 있다.
이후, 제어부(110)는 전술한 제1 방향 데이터와 노드 데이터를 연계하여 상기 회전 방향에 관한 제2 방향 데이터를 결정하여, 상기 회전 정보를 판단할 수 있다. 이때, 제2 방향 데이터의 예시로서, 도 8의 우측 상단에 도시된 Compass 변수를 함께 참고하여 설명한다.
본 도면에서는 Compass 변수가 이동 객체의 진행 경로를 가능한 이동 경로 상의 노드 데이터를 고려하여 Compass 값이 동서남북(0부터 시계 방향으로 1, 2, 3의 값)의 4 가지 값을 가지는 예시로 설정하였다. 예컨대, 0<a<90(도)이라 가정할 때, 제어부(110)는 제3 변화량(△s3)이 누적된 degree 값이 (360-a)도 이상 +a도 이하인 경우 제2 방향 데이터는 0, 제3 변화량(△s3)이 누적된 degree 값이 (90-a)도 이상 (90+a)도 이하인 경우 제2 방향 데이터는 1, 제3 변화량(△s3)이 누적된 degree 값이 (180-a)도 이상 (180+a)도 이하인 경우 제2 방향 데이터는 2, 그리고 제3 변화량(△s3)이 누적된 degree 값이 (270-a)도 이상 (270+a)도 이하인 경우 제2 방향 데이터는 3으로 결정할 수 있다.
회전 정보를 판단함에 있어서, 제1 방향 데이터 및 제2 방향 데이터의 종류 및 판단 방법은 전술한 바에 한정되지 않는다.
도 11은 본 발명의 다른 실시예에 따른 회전 시 화면 표시 방법을 설명하기 위한 도면이다. 도 11은 상기 비교 결과가 상기 후속 노드가 제1 방향(D1)으로 제1 종료 노드(B-3; Nr)보다 앞서는 것으로 판단한 경우의 실시예이다.
이때, 제어부(110)는 제3-1 보정 UI(531)를 생성함에 있어서, 이동 객체의 위치를 제1 종료 노드(B-3; Nr)로 새로 고침하는 제5 보정 UI(535)를 생성할 수 있다. 이후, 제1 종료 노드를 기준으로 선택된 표시 모드에 따라 상기 이동 객체 UI(400) 및 실내 공간 이미지(m) 중 어느 하나가 회전하도록 할 수 있다. 이때, 제2 방향(D2)으로 움직이는 제3-2 보정 UI(532)는 제5 보정 UI(535)를 생성한 이후에 생성하여 표시한다.
도 11의 실시예에서 회전할 때에도 도 10에서 전술한 방향 데이터를 기초로 회전하는 것과 동일한 원리가 적용될 수 있다.
도 12는 본 발명의 일 실시예에 따른 정지 여부에 따른 보정 UI 생성 방법을 설명하기 위한 도면이다.
전술한 제1 표시 단계 및 후속 표시 단계 중 적어도 어느 하나의 단계 에 있어서, 제어부(110)는 표시 정지 조건을 판단하여 정지 보정 동작을 수행할 수 있다. 상기 정지 보정 동작은 이동 객체 UI(400)의 표시를 일정 시간 동안 정지하거나, 이동 객체 UI(400)의 표시 속도가 느려지는 동작을 포함할 수 있다. 가령, 일 시점에서 표시되는 이동 객체 UI(400)의 위치와 상기 일 시점에서 획득된 측위 데이터에 대응하는 제1 UI 객체(410)의 위치 간의 거리를 산출할 수 있다. 산출 결과, 상기 산출된 거리가 일정 거리 이상으로 차이가 나는 경우, 다시 말해 이동 객체 UI(400)가 소정의 거리 이상 제1 UI 객체(410)보다 앞서는 경우, 상기 정지 보정 동작을 수행할 수 있다. 예를 들어 상기 소정의 거리는 인접하는 경계 노드로 정의되는 한 구간의 길이일 수 있으나, 이에 한정되지 않는다.
이와 달리, 이동 객체 UI(400)가 상기 제1 UI 객체(410)보다 뒤에 표시되는 경우는 상기 정지 보정 동작을 수행하는 것이 아닌, 도 5 및 도 6에서 전술한 제1 보정 UI를 생성하여 표시할 수 있다.
실시예에 따라서 제어부(110)는 상기 이동 객체 UI(400)의 표시의 정지 여부를 결정함에 있어서, 센서부(140), 특히 가속도 센서(141)나 자이로 센서(142)의 센싱값인 제1 센싱 데이터를 기초로 정지 여부를 결정할 수 있다. 예를 들어 가속도 센서의 센싱값을 이용하여 일정 기준에 따라 산출한 융합 가속도의 값이 일 시점과 상기 일 시점 이후의 타 시점 간에 일정 값 이상으로 차이가 나는 경우에는 이동으로 판단, 일정 값 이하로 차이가 나는 경우에는 정지로 판단할 수 있다. 상기 융합 가속도 값은 가속도 센서의 센싱값으로서의 좌표값을 (acc(x), acc(y), acc(z))라 할 때, 일 예로 아래 수학식과 같을 수 있다.
Figure PCTKR2021013896-appb-M000004
상기 정지 여부를 판단하는 일정 값의 기준은 제어부(110)가 상기 융합 가속도 데이터를 획득하는 시간 주기에 따라 다르게 설정될 수 있다.
한편, 본 발명의 일 실시예에 따른 화면 표시 장치(100)는, 후술하는 추천 경로 표시 보정 동작을 수행할 수 있다.
상기 제1 표시 단계 및 상기 후속 표시 단계 중 적어도 어느 하나의 단계 수행에 있어서, 제어부(110)는 후속 측위 데이터가 추천 경로 데이터와 일정 거리 이상으로 벗어났는지 여부를 판단할 수 있다. 상기 판단 결과가 일정 거리 이내인 경우 이동 객체의 위치를 획득된 측위 데이터로 보정하지 않고 상기 추천 경로 상의 표시를 유지할 수 있다. 이와 달리, 상기 판단 결과가 일정 거리 이상인 경우, 이동 객체의 위치를 획득된 측위 데이터로 새로 고침하고, 상기 새로 고침된 지점을 시작점으로 하여 새로운 추천 경로를 생성하여 표시할 수 있다.
도 13은 본 발명의 일 실시예에 따른 화면 표시 방법을 설명하기 위한 순서도이다. 화면 표시 방법은 후술하는 단계들을 포함할 수 있고, 전술한 도면들을 함께 참고하여 설명한다.
실내 공간에 대하여 이동 객체가 이동 가능한 이동 경로 상에 미리 설정된 규칙에 따라 측위 센서의 위치에 관한 정보를 포함하는 노드 데이터를 설정한다(S100).
이후, 상기 이동 객체의 제1 시점의 제1 측위 데이터를 기초로 상기 이동 객체가 이동하는 제1 방향으로 움직이는 제1 보정 UI를 생성하여 표시하되, 상기 제1 보정 UI는 제1 시작 노드로부터 제1 종료 노드까지 상기 이동 객체의 실제 속도 대비 보정 속도로 표시되는 제1 표시 단계를 수행한다(S200).
상기 제1 표시 단계는, 상기 제1 측위 데이터를 기초로 상기 제1 시작 노드를 결정하는 단계, 상기 노드 데이터를 이용하여 획득한 상기 제1 측위 데이터가 미리 설정된 기준치를 만족하는 상기 제1 타겟 노드를 결정하는 단계, 상기 제1 타겟 노드를 기준으로 상기 제1 종료 노드를 결정하는 단계, 및 상기 제1 시작 노드로부터 상기 제1 종료 노드까지 균일한 속도로 표시되는 제1 보정 UI를 생성하여 표시하는 단계를 포함할 수 있다.
이후, 상기 제1 타겟 노드에서 상기 이동 객체의 회전 여부를 판단하여 후속 표시 단계를 결정한다(S300). 본 도면에서는 S200 단계 이후에 S300 단계가 수행되는 것으로 도시하였으나, 실시예에 따라서 S200 단계 및 S300 단계는 병렬적으로 수행될 수도 있다. 다시 말해, 기준치 만족 여부와 상관 없이 노드 데이터 및 상기 제1 측위 데이터에 기초하여 회전 여부를 판단할 수도 있고, 이 경우 제1 타겟 노드는 기준치를 만족하는 노드가 아닌 회전 노드의 개념일 수 있다.
도 14는 본 발명의 일 실시예에 따른 화면 표시 방법의 일부 단계인 S300 단계를 더 구체적으로 설명하기 위한 순서도이다. 후속 표시 단계를 결정하는 단계(S300)는 후술하는 단계들을 포함할 수 있다.
후속 표시 단계를 결정하는 단계에서 비회전으로 판단한 경우(S300-N), 상기 후속 표시 단계는 상기 제1 방향으로 연장되는 제2 시작 노드로부터 상기 제2 종료 노드까지 움직이는 제2 보정 UI를 생성하여 표시하는 제2 표시 단계를 포함할 수 있다. 이때 상기 제2 표시 단계는, 상기 제1 종료 노드를 제2 시작 노드로 대체하고 상기 제1 종료 노드와 인접하는 제2 타겟 노드를 제2 종료 노드로 결정한다(S310). 이후, 상기 제2 시작 노드로부터 상기 제2 종료 노드까지 균일한 속도로 표시되는 제2 보정 UI를 생성하여 표시한다(S320). 제2 보정 애니메이션은 상기 제1 보정 애니메이션과 동일한 원리로 생성될 수 있다.
이와 달리, 후속 표시 단계를 결정하는 단계에서 회전으로 판단한 경우(S300-Y), 상기 후속 표시 단계는 상기 제1 방향과 상이한 제2 방향으로 움직이는 제3 보정 UI를 생성하여 표시하는 제3 표시 단계를 포함할 수 있다. 이때 상기 제3 표시 단계는, 상기 제1 시작 노드로부터 상기 제1 종료 노드까지 상기 제1 방향으로 움직이는 제3-1 보정 UI를 생성한다(S330). 이후, 상기 제1 종료 노드와 상기 제2 방향으로 인접하는 제3 타겟 노드를 제3 종료 노드로 하여 상기 제2 방향으로 움직이는 제3-2 보정 UI를 생성한다(S340).
본 개시의 화면 표시 방법은 표시 모드에 대한 선택 신호를 수신하는 단계(S350)를 더 포함할 수 있다. 상기 표시 모드는, 실내 공간 이미지는 고정되고 이동 객체 UI가 이동하는 객체 전환 모드 및 상기 이동 객체 UI는 고정되고 상기 실내 공간 이미지가 이동하는 배경 전환 모드를 포함할 수 있다.
상기 제3-1 보정 UI를 생성하는 단계(S330)는, 아래의 실시예들을 포함할 수 있다.
상기 제3-1 보정 UI를 생성하는 단계(S330)는, 상기 제1 종료 노드와 상기 제1 시점 이후의 제2 시점에 획득한 후속 측위 데이터에 대응하는 후속 노드의 선후 관계를 비교하는 단계를 더 포함할 수 있다. 상기 비교 결과가 상기 후속 노드가 상기 제1 방향으로 상기 제1 종료 노드 전에 위치하는 것으로 판단한 경우, 상기 제3-1 보정 UI 생성 단계(S330) 및 상기 제3-2 보정 UI 생성 단계(S340) 사이에, 상기 제1 종료 노드를 기준으로 상기 선택 신호에 따라 선택된 표시 모드에 따라 상기 이동 객체 UI 및 상기 실내 공간 이미지 중 어느 하나가 회전하는 단계를 포함할 수 있다.
다른 실시예에 따르면 상기 제3-1 보정 UI를 생성하는 단계(S330)는, 상기 비교 결과가 상기 후속 노드가 상기 제1 방향으로 상기 제1 종료 노드보다 앞서는 것으로 판단한 경우, 상기 이동 객체의 위치를 상기 제1 종료 노드로 새로 고침하는 제5 보정 UI(535)를 생성하는 단계; 및 상기 제1 종료 노드를 기준으로 상기 선택 신호에 따라 선택된 표시 모드에 따라 상기 이동 객체 UI 및 상기 실내 공간 이미지 중 어느 하나가 회전하는 단계를 포함할 수 있다.
전술한 S310, S320, S330 및 S340 단계 이후에 일정 시간 이상 후속 측위 데이터가 수집되지 않았는지 여부를 판단하여(S360), 수집되지 않은 경우(S360-Y) 종료하고, 일정 시간 내에 후속 측위 데이터가 수집된 경우(S360-N) 다시 전술한 단계들을 반복 수행할 수 있다.
이와 같이 본 발명의 실시예들에 따른 화면 표시 방법에 의하면, 이동 가능한 경로 내의 노드 데이터를 활용한 측위 알고리즘을 사용함으로써 실시간의 정확성이 향상된 화면 표시 방법 및 장치를 제공할 수 있다.
또한, 실내 측위 알고리즘 수행 시 발생하는 다양한 경우의 오차를 보정하는 보정 UI(보정 애니메이션)을 생성함으로써 이동 객체의 실제 위치와 표 시 위치 간의 오차를 최소화하고, 사용자에게 보다 원활하고 매끄러운 시각적 효과와 이에 따른 양질의 내비게이션 서비스 제공이 가능하다.
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 저장하는 것일 수 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
따라서, 본 발명의 사상은 앞에서 설명된 실시예들에 국한하여 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위가 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (16)

  1. 실내 공간에 대하여 이동 객체가 이동 가능한 이동 경로 상에 미리 설정된 규칙에 따라 측위 센서의 위치에 관한 정보를 포함하는 노드 데이터를 설정하는 단계;
    상기 이동 객체의 제1 시점의 제1 측위 데이터를 기초로 상기 이동 객체가 이동하는 제1 방향으로 움직이는 제1 보정 UI를 생성하여 표시하되, 상기 제1 보정 UI는 제1 시작 노드로부터 제1 종료 노드까지 상기 이동 객체의 실제 속도 대비 보정 속도로 표시되는 제1 표시 단계; 및
    상기 제1 종료 노드에서 상기 이동 객체의 회전 여부를 판단하여 후속 표시 단계를 결정하는 단계;를 포함하는, 실내 측위에 따른 화면 표시 방법.
  2. 제1항에 있어서,
    상기 제1 표시 단계는,
    상기 제1 측위 데이터를 기초로 상기 제1 시작 노드를 결정하는 단계;
    상기 노드 데이터를 이용하여 획득한 상기 제1 측위 데이터가 미리 설정된 기준치를 만족하는 제1 타겟 노드를 결정하는 단계;
    상기 제1 타겟 노드를 기준으로 상기 제1 종료 노드를 결정하는 단계; 및
    상기 제1 시작 노드로부터 상기 제1 종료 노드까지 균일한 속도로 표시되는 제1 보정 UI를 생성하여 표시하는 단계;를 포함하는, 실내 측위에 따른 화면 표시 방법.
  3. 제1항에 있어서,
    상기 후속 표시 단계를 결정하는 단계에서 비회전으로 판단한 경우,
    상기 후속 표시 단계는 상기 제1 방향으로 연장되는 제2 시작 노드로부터 제2 종료 노드까지 움직이는 제2 보정 UI를 생성하여 표시하는 제2 표시 단계를 포함하되, 상기 제2 표시 단계는,
    상기 제1 종료 노드를 제2 시작 노드로 대체하고 상기 제1 종료 노드와 인접하는 제2 타겟 노드를 상기 제2 종료 노드로 결정하는 단계; 및
    상기 제2 시작 노드로부터 상기 제2 종료 노드까지 균일한 속도로 표시되는 제2 보정 UI를 생성하여 표시하는 단계;를 포함하는, 실내 측위에 따른 화면 표시 방법.
  4. 제1항에 있어서,
    상기 후속 표시 단계를 결정하는 단계에서 회전으로 판단한 경우,
    상기 후속 표시 단계는 상기 제1 방향과 상이한 제2 방향으로 움직이는 제3 보정 UI를 생성하여 표시하는 제3 표시 단계를 포함하고, 상기 제3 표시 단계는,
    상기 제1 시작 노드로부터 상기 제1 종료 노드까지 상기 제1 방향으로 움직이는 제3-1 보정 UI를 생성하는 단계; 및
    상기 제1 종료 노드와 상기 제2 방향으로 인접하는 제3 타겟 노드를 기준으로 결정된 제3 종료 노드를 향해 상기 제2 방향으로 움직이는 제3-2 보정 UI를 생성하는 단계;를 포함하는, 실내 측위에 따른 화면 표시 방법.
  5. 제4항에 있어서,
    상기 화면 표시 방법은 표시 모드에 대한 선택 신호를 수신하는 단계를 더 포함하고,
    상기 표시 모드는,
    실내 공간 이미지는 고정되고 이동 객체 UI가 이동하는 객체 전환 모드 및
    상기 이동 객체 UI는 고정되고 상기 실내 공간 이미지가 이동하는 배경 전환 모드를 포함하는, 실내 측위에 따른 화면 표시 방법.
  6. 제5항에 있어서,
    상기 제3-1 보정 UI를 생성하는 단계는,
    상기 제1 종료 노드와 상기 제1 시점 이후의 제2 시점에 획득한 후속 측위 데이터에 대응하는 후속 노드의 선후 관계를 비교하는 단계를 더 포함하고,
    상기 비교 결과가 상기 후속 노드가 상기 제1 방향으로 상기 제1 종료 노드 전에 위치하는 것으로 판단한 경우,
    상기 제3-1 보정 UI 생성 단계 및 상기 제3-2 보정 UI 생성 단계 사이에,
    상기 제1 종료 노드를 기준으로 상기 선택 신호에 따라 선택된 표시 모드에 따라 상기 이동 객체 UI 및 상기 실내 공간 이미지 중 어느 하나가 회전하는 단계;를 포함하는, 실내 측위에 따른 화면 표시 방법.
  7. 제5항에 있어서,
    상기 제3-1 보정 UI를 생성하는 단계는,
    상기 제1 종료 노드와 상기 제1 시점 이후의 제2 시점에 획득한 후속 측위 데이터에 대응하는 후속 노드의 선후 관계를 비교하는 단계를 더 포함하고,
    상기 비교 결과가 상기 후속 노드가 상기 제1 방향으로 상기 제1 종료 노드보다 앞서는 것으로 판단한 경우, 상기 제3-1 보정 UI를 생성하는 단계는,
    상기 이동 객체의 위치를 상기 제1 종료 노드로 새로 고침하는 제5 보정 UI를 생성하는 단계; 및
    상기 제1 종료 노드를 기준으로 상기 선택 신호에 따라 선택된 표시 모드에 따라 상기 이동 객체 UI 및 상기 실내 공간 이미지 중 어느 하나가 회전하는 단계;를 포함하는, 실내 측위에 따른 화면 표시 방법.
  8. 제1항에 있어서,
    상기 제1 표시 단계 및 상기 후속 표시 단계 중 적어도 어느 하나의 단계는,
    상기 제1 측위 데이터에 기반하여 표시되는 이동 객체 UI의 위치와 상기 제1 측위 데이터에 대응하는 위치 간의 거리를 산출하는 단계; 및
    상기 이동 객체 UI의 위치가 상기 제1 측위 데이터에 대응하는 위치보다 소정의 거리만큼 앞서는 경우 상기 이동 객체 UI의 정지 보정 동작을 수행하는 단계;를 포함하는, 실내 측위에 따른 화면 표시 방법.
  9. 제어부를 포함하고, 상기 제어부는,
    실내 공간에 대하여 이동 객체가 이동 가능한 이동 경로 상에 미리 설정된 규칙에 따라 측위 센서의 위치에 관한 정보를 포함하는 노드 데이터를 설정하고,
    상기 이동 객체의 제1 시점의 제1 측위 데이터를 기초로 상기 이동 객체가 이동하는 제1 방향으로 움직이는 제1 보정 UI를 생성하여 표시하되, 상기 제1 보정 UI는 제1 시작 노드로부터 제1 종료 노드까지 상기 이동 객체의 실제 속도 대비 보정 속도로 표시되고,
    상기 제1 종료 노드에서 상기 이동 객체의 회전 여부를 판단하여 후속 표시 단계를 결정하는, 실내 측위에 따른 화면 표시 장치.
  10. 제9항에 있어서,
    상기 제어부는, 제1 보정 UI를 생성하여 표시할 때,
    상기 제1 측위 데이터를 기초로 상기 제1 시작 노드를 결정하고,
    상기 노드 데이터를 이용하여 획득한 상기 제1 측위 데이터가 미리 설정된 기준치를 만족하는 제1 타겟 노드를 결정하고,
    상기 제1 타겟 노드를 기준으로 상기 제1 종료 노드를 결정하며,
    상기 제1 시작 노드로부터 상기 제1 종료 노드까지 균일한 속도로 표시되는 제1 보정 UI를 생성하여 표시하는, 실내 측위에 따른 화면 표시 장치.
  11. 제9항에 있어서,
    상기 제어부가 상기 후속 표시 단계를 결정할 때 비회전으로 판단한 경우,
    상기 후속 표시 단계는 상기 제1 방향으로 연장되는 제2 시작 노드로부터 상기 제2 종료 노드까지 움직이는 제2 보정 UI를 생성하여 표시하는 단계로서,
    상기 제어부는,
    상기 제1 종료 노드를 제2 시작 노드로 대체하고 상기 제1 종료 노드와 인접하는 제2 타겟 노드를 제2 종료 노드로 결정하고,
    상기 제2 시작 노드로부터 상기 제2 종료 노드까지 균일한 속도로 표시되는 제2 보정 UI를 생성하는, 실내 측위에 따른 화면 표시 장치.
  12. 제9항에 있어서,
    상기 제어부가 상기 후속 표시 단계를 결정할 때 회전으로 판단한 경우,
    상기 후속 표시 단계는 상기 제1 방향과 상이한 제2 방향으로 움직이는 제3 보정 UI를 생성하여 표시하는 단계로서,
    상기 제어부는 상기 제3 보정 UI를 생성할 때,
    상기 제1 시작 노드로부터 상기 제1 종료 노드까지 상기 제1 방향으로 움직이는 제3-1 보정 UI를 생성하고,
    상기 제1 종료 노드와 상기 제2 방향으로 인접하는 제3 타겟 노드를 기준으로 결정된 제3 종료 노드를 향해 상기 제2 방향으로 움직이는 제3-2 보정 UI를 생성하는, 실내 측위에 따른 화면 표시 장치.
  13. 제12항에 있어서,
    상기 화면 표시 장치는 표시 모드에 대한 선택 신호를 수신하고,
    상기 표시 모드는,
    실내 공간 이미지는 고정되고 이동 객체 UI가 이동하는 객체 전환 모드 및
    상기 이동 객체 UI는 고정되고 상기 실내 공간 이미지가 이동하는 배경 전환 모드를 포함하는, 실내 측위에 따른 화면 표시 장치.
  14. 제13항에 있어서,
    상기 제어부는 상기 제3-1 보정 UI를 생성할 때,
    상기 제1 종료 노드와 상기 제1 시점 이후의 제2 시점에 획득한 후속 측위 데이터에 대응하는 후속 노드의 선후 관계를 비교하고,
    상기 비교 결과가 상기 후속 노드가 상기 제1 방향으로 상기 제1 종료 노드 전에 위치하는 것으로 판단한 경우,
    상기 제3-1 보정 UI를 생성한 이후 및 상기 제3-2 보정 UI를 생성하기 이전에,
    상기 제1 종료 노드를 기준으로 상기 선택 신호에 따라 선택된 표시 모드에 따라 상기 이동 객체 UI 및 상기 실내 공간 이미지 중 어느 하나가 회전하는 동작을 수행하는, 실내 측위에 따른 화면 표시 장치.
  15. 제13항에 있어서,
    상기 제어부는 상기 제3-1 보정 UI를 생성할 때,
    상기 제1 종료 노드와 상기 제1 시점 이후의 제2 시점에 획득한 후속 측위 데이터에 대응하는 후속 노드의 선후 관계를 비교하고,
    상기 비교 결과가 상기 후속 노드가 상기 제1 방향으로 상기 제1 종료 노드보다 앞서는 것으로 판단한 경우,
    상기 이동 객체의 위치를 상기 제1 종료 노드로 새로 고침하는 제5 보정 UI를 생성하고,
    상기 제1 종료 노드를 기준으로 상기 선택 신호에 따라 선택된 표시 모드에 따라 상기 이동 객체 UI 및 상기 실내 공간 이미지 중 어느 하나가 회전하는 동작을 수행하는, 실내 측위에 따른 화면 표시 장치.
  16. 제9항에 있어서,
    상기 제어부는,
    상기 제1 보정 UI를 표시하는 단계 및 상기 후속 표시 단계 중 적어도 어느 하나를 수행할 때,
    상기 제1 측위 데이터에 기반하여 표시되는 이동 객체 UI의 위치와 상기 제1 측위 데이터에 대응하는 위치 간의 거리를 산출하고,
    상기 이동 객체 UI의 위치가 상기 제1 측위 데이터에 대응하는 위치보다 소정의 거리만큼 앞서는 경우 상기 이동 객체 UI의 정지 보정 동작을 수행하는, 실내 측위에 따른 화면 표시 장치.
PCT/KR2021/013896 2020-11-19 2021-10-08 실내 측위에 따른 화면 표시 방법 및 장치 WO2022108113A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP21894885.9A EP4249852A1 (en) 2020-11-19 2021-10-08 Method and device for displaying screen according to indoor positioning
US18/008,905 US20230274486A1 (en) 2020-11-19 2021-10-08 Method and device for displaying screen depending upon indoor positioning

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200155904A KR102437769B1 (ko) 2020-11-19 2020-11-19 실내 측위에 따른 화면 표시 방법 및 장치
KR10-2020-0155904 2020-11-19

Publications (1)

Publication Number Publication Date
WO2022108113A1 true WO2022108113A1 (ko) 2022-05-27

Family

ID=81709163

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/013896 WO2022108113A1 (ko) 2020-11-19 2021-10-08 실내 측위에 따른 화면 표시 방법 및 장치

Country Status (4)

Country Link
US (1) US20230274486A1 (ko)
EP (1) EP4249852A1 (ko)
KR (1) KR102437769B1 (ko)
WO (1) WO2022108113A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100024631A (ko) * 2008-08-26 2010-03-08 팅크웨어(주) 내비게이션 시스템에 특화된 3차원 제어시스템 및 그 방법
KR100978060B1 (ko) * 2009-12-08 2010-08-25 주식회사 케이티 실내 측위 시스템의 위치 보정 방법
JP2015528897A (ja) * 2012-06-19 2015-10-01 クゥアルコム・インコーポレイテッドQualcomm Incorporated モバイルデバイスのための協調ナビゲーション技法
JP5957906B2 (ja) * 2012-01-25 2016-07-27 富士通株式会社 検出装置、検出プログラム、及び検出方法
KR20190112929A (ko) * 2018-03-27 2019-10-08 경북대학교 산학협력단 이동방향 추정 시스템 및 방법, 이를 수행하기 위한 기록매체

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4134626A1 (en) * 2017-06-02 2023-02-15 Apple Inc. Venues map application and system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100024631A (ko) * 2008-08-26 2010-03-08 팅크웨어(주) 내비게이션 시스템에 특화된 3차원 제어시스템 및 그 방법
KR100978060B1 (ko) * 2009-12-08 2010-08-25 주식회사 케이티 실내 측위 시스템의 위치 보정 방법
JP5957906B2 (ja) * 2012-01-25 2016-07-27 富士通株式会社 検出装置、検出プログラム、及び検出方法
JP2015528897A (ja) * 2012-06-19 2015-10-01 クゥアルコム・インコーポレイテッドQualcomm Incorporated モバイルデバイスのための協調ナビゲーション技法
KR20190112929A (ko) * 2018-03-27 2019-10-08 경북대학교 산학협력단 이동방향 추정 시스템 및 방법, 이를 수행하기 위한 기록매체

Also Published As

Publication number Publication date
EP4249852A1 (en) 2023-09-27
US20230274486A1 (en) 2023-08-31
KR20220068764A (ko) 2022-05-26
KR102437769B1 (ko) 2022-08-30

Similar Documents

Publication Publication Date Title
WO2015167080A1 (en) Unmanned aerial vehicle control apparatus and method
WO2017119737A1 (ko) 통신 시스템에서 영상 정보를 공유하는 방법 및 장치
WO2017086561A1 (en) Landmark location determination
CN106062510A (zh) 信息处理装置、信息处理方法和计算机程序
CN106061836A (zh) 控制装置、成像装置、控制方法、成像方法和计算机程序
WO2018164377A1 (ko) 지도 데이터를 생성하는 전자 장치 및 그 동작 방법
WO2021015435A1 (ko) 항공사진을 이용하여 3차원 지도를 생성하는 장치 및 방법
WO2016003060A1 (ko) 실내 네비게이션 서비스 제공 방법 및 장치
JP2019153274A (ja) 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム
US11528460B2 (en) Method of automatic keystone correction for projector system
KR101076803B1 (ko) 실내 기동 로봇의 지도 작성 방법 및 이를 이용한 기동 위치 판별 방법
WO2016076463A1 (ko) 플라잉 봇의 제어 장치 및 제어 방법
WO2021158062A1 (ko) 이동수단의 위치인식방법 및 위치인식시스템
WO2023104115A1 (zh) 获取全景视频的方法、装置、系统、设备及存储介质
WO2022154242A1 (ko) 로봇 및 그 제어 방법
WO2022108113A1 (ko) 실내 측위에 따른 화면 표시 방법 및 장치
WO2022211182A1 (ko) 포인트 클라우드를 이용한 무인이동체의 4차원 경로 표출 방법
WO2022108112A1 (ko) 실내 측위 방법 및 장치
WO2021145575A1 (ko) 굴삭 레벨 검측 장치
WO2020197126A1 (ko) 빅셀그리드맵을 이용한 이동체의 자세 추정 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램
WO2022240013A1 (ko) 관성 데이터 및 무선신호 데이터 기반 실내 측위 방법 및 장치
WO2017119695A1 (ko) 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법 및 이를 위한 장치
JP2020183920A (ja) 歩行者自律航法装置、方法、及びプログラム
CN112422886A (zh) 可视域立体布控显示系统
WO2022114551A1 (ko) 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21894885

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021894885

Country of ref document: EP

Effective date: 20230619