WO2016063999A1 - 네비게이션 디바이스 및 그 제어 방법 - Google Patents

네비게이션 디바이스 및 그 제어 방법 Download PDF

Info

Publication number
WO2016063999A1
WO2016063999A1 PCT/KR2014/009912 KR2014009912W WO2016063999A1 WO 2016063999 A1 WO2016063999 A1 WO 2016063999A1 KR 2014009912 W KR2014009912 W KR 2014009912W WO 2016063999 A1 WO2016063999 A1 WO 2016063999A1
Authority
WO
WIPO (PCT)
Prior art keywords
destination
vehicle
navigation device
loaded
identified object
Prior art date
Application number
PCT/KR2014/009912
Other languages
English (en)
French (fr)
Inventor
박시화
이주환
천시내
이도영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020177013032A priority Critical patent/KR102224491B1/ko
Priority to PCT/KR2014/009912 priority patent/WO2016063999A1/ko
Priority to US15/129,107 priority patent/US20180003519A1/en
Publication of WO2016063999A1 publication Critical patent/WO2016063999A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3617Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents

Definitions

  • the present invention relates to a navigation device and a control method thereof.
  • Vehicles eg automobiles
  • vehicles have traditionally been a collection of mechanical devices.
  • electronic devices are being mounted in vehicles.
  • the vehicle may track the location of the smart key and perform a function corresponding to the location of the smart key.
  • the navigation device is an example of an electronic device of a vehicle.
  • various navigation devices have been used.
  • a portable navigation device, a navigation device embedded in a vehicle, or a cellular phone equipped with a navigation application may perform a navigation function.
  • such navigation devices can track the position of the vehicle in real time while moving with the vehicle to guide the direction of travel.
  • a navigation device performs a destination search for destination setting.
  • the destination search the user must enter the destination into the navigation device.
  • the navigation device may provide a recommended destination, such as a list of recent destinations.
  • the list of recent destinations does not consider the current state of the user. Therefore, there is a need for a more improved method of providing a recommendation destination that takes into account the user's context.
  • the present specification is to provide a navigation device and a control method for providing a recommended destination based on an external object.
  • it is intended to present a more advanced navigation device that provides a recommended destination by generating a destination history associated with an external object.
  • a navigation device includes a display unit for displaying at least one image and receiving a touch input, a positioning unit for determining a position of the navigation device, and at least loaded in a vehicle.
  • a detecting unit and a display unit for detecting one object, a positioning unit and a processor for controlling the detecting unit, each at least one object including attribute information, and the navigation device being loaded into the vehicle;
  • the processor detects the object loaded in the vehicle using the detecting unit, identifies the detected object based on attribute information of the detected object, and includes destination information of the vehicle in which the identified object is loaded.
  • a destination history for the identified object After this generation, once the identified object is loaded back into the vehicle, it may provide at least one recommended destination based on the destination history for the object.
  • a method of controlling a navigation device may include detecting an object loaded in a vehicle using a detecting unit, and identifying a detected object based on attribute information included in the detected object. Generating a destination history for the identified object that includes the destination information of the vehicle from which the identified object was loaded, and after the identified object has been reloaded into the vehicle, the destination history for the object. And providing at least one recommended destination based on the.
  • the navigation device may provide a user with a recommended destination.
  • the navigation device may provide a recommendation destination that matches the user's context by generating a recommendation destination based on the identified object.
  • the navigation device may statistically analyze the user's context information by generating a destination history for the object.
  • FIG. 1 illustrates a network environment of a vehicle.
  • FIG. 2 is a block diagram of a navigation device according to an exemplary embodiment.
  • FIG. 3 illustrates a destination setting of a navigation device according to an embodiment.
  • FIG. 4 illustrates a destination history, according to one embodiment.
  • 5 illustrates a further destination recommendation, according to one embodiment.
  • FIG 6 illustrates an input interface according to one embodiment.
  • FIG. 8 illustrates an example of object notification using a user device.
  • FIG. 9 is a flowchart of a control method of a navigation device, according to an exemplary embodiment.
  • FIG. 1 illustrates a network environment of a vehicle.
  • vehicle 200 can communicate with various devices.
  • the vehicle 200 may communicate with the user device 351 via a network.
  • the vehicle 200 may communicate with the user device 351 through a system mounted on the vehicle 200 or through a navigation device that communicates with the system mounted on the vehicle 200.
  • the vehicle 200 may communicate with various objects 301, 302, 303, 304 loaded in the vehicle 200. Communication with the objects 301, 302, 303, 304 may be performed directly or indirectly.
  • the vehicle 200 may include other transportation means.
  • the vehicle 200 may be a motorcycle, a bicycle, a ship or an airplane.
  • the vehicle 200 of the present specification may include an automatic driving device. 1
  • a basketball ball 301, a shopping cart 302, a soccer ball 303, and a laptop computer 304 are shown as examples of objects, but various objects may be used as objects of the present specification.
  • a mobile phone is illustrated as a user device 351 in FIG. 1, various portable devices may be used as the user device 351 of the present specification.
  • the user device 351 may include a mobile phone, an electronic notebook, a head mounted mounted (HMD), and various portable devices.
  • HMD head mounted mounted
  • the objects 301, 302, 303, and 304 of the present specification may directly or indirectly communicate with the vehicle 200 or the navigation device.
  • the communication of the objects 301, 302, 303, 304 herein may be performed by a simple tag.
  • the objects 301, 302, 303, 304 may not have a function for separate data transmission / reception.
  • the vehicle 200 or the navigation device may identify the tag of the objects 301, 302, 303, 304. The identification of these tags can be included in the communication in a broad sense.
  • the navigation device of the present specification is not directly shown.
  • the navigation device described below may be embedded in the vehicle 200.
  • vehicle 200 may include a navigation device as part of a vehicle system.
  • the navigation device herein may be a portable device that is not embedded in an automobile.
  • a mobile phone may operate as the navigation device herein.
  • the navigation device of the present disclosure may be powered from the vehicle 200 and may be a removable device.
  • FIG. 2 is a block diagram of a navigation device according to an exemplary embodiment.
  • the navigation device may be part of the vehicle system or detachable from the vehicle.
  • the navigation device may include a positioning unit 130, a display unit 120, a detecting unit 140, and a processor 110.
  • the positioning unit 130 may determine the position of the navigation device 100.
  • the location determination unit 130 may include a satellite positioning system (GPS), a geographic information system (GIS), a terrestrial network based positioning system, and / or a hybrid assisted GPS wireless positioning system.
  • the detecting unit 140 may detect at least one object loaded in the vehicle.
  • the detecting unit 140 may detect the loading of the object.
  • the detecting unit 140 may detect the loading of the object by communicating with the object.
  • the detecting unit 140 may detect the loading of the object based on the strength of the signal from the object, the strength of the signal reflected from the object, and / or the response time from the object.
  • the detecting unit 140 may detect the loading of an object using an object sensor provided in the vehicle.
  • the vehicle may include an object sensor for sensing the loading of the object, and the detecting unit 140 may communicate with the object sensor.
  • the detecting unit 140 may determine the loading / unloading of the object based on a signal received from the object sensor of the vehicle.
  • the detecting unit 140 may detect the object loaded in the vehicle. In addition, the detecting unit 140 may identify the object based on the attribute information of the object. For example, the attribute information of the object may include the name, ID, type and / or unique identifier of the object. The detecting unit 140 may receive attribute information of the object by communicating with the object and identify the object based on the attribute information. In addition, the detecting unit 140 may identify the object by reading a tag included in the object.
  • the detecting unit 140 may include a communication unit communicating with an object, a user device, and / or a vehicle.
  • the detecting unit 140 may be coupled with a separate communication unit embedded in the navigation device 100.
  • the communication unit may perform communication and transmit / receive data via a wired or wireless network.
  • the communication unit includes a wireless LAN (WLAN), an IEEE 802.11-based wireless LAN communication, a wireless broadband (Wibro), a world interoperability for micorwave access (Wimax), and a high speed downlink packet (HSDPA) for connection with a wireless network.
  • Wibro wireless broadband
  • Wimax wireless broadband
  • HSDPA high speed downlink packet
  • Access, Bluetooth, Near Field Communication (NFC) standards can be used.
  • the communication unit can access the Internet via a wired / wireless network.
  • the display unit 120 may display at least one image and receive a touch input.
  • the display unit 120 may include a liquid crystal display (LCD), a plasma display, or another type of display.
  • the display unit 120 may include a touch sensor. That is, the display unit 120 may include a touch sensitive display unit.
  • the touch sensor may be located on or within the display unit 120.
  • the touch sensor senses a variety of touch or non-contact touch inputs, such as sliding touch inputs, multi-touch inputs, long-press touch inputs, short-press touch inputs, drag touch inputs, hovering inputs, or flicking touch inputs. can do.
  • the touch sensor may also sense touch input by various input tools such as a touch pen and a stylus pen.
  • the touch sensor may transmit a result of sensing the touch input to the processor 110.
  • the processor 110 may control the display unit 120, the positioning unit 130, and the detecting unit 140. In addition, the processor 110 may control other components included in the navigation device 100 described later.
  • the processor 110 may process data of the navigation device 100 to execute various applications.
  • the processor 110 may control the content executed in the navigation device 100 and the navigation device 100 based on the command.
  • the navigation device 100 may further include components not shown in FIG. 2.
  • the navigation device 100 may further include a memory, a power source, a housing, an audio receiving unit, an audio output unit, or an image sensing unit.
  • the image sensing unit may sense the image using visible light, infrared light, ultraviolet light, magnetic field, and / or sound waves.
  • the above-described configuration may be selectively combined according to the manufacturer's selection or the shape of the navigation device 100.
  • the above-described components may be connected to each other via a bus, and may be controlled by the processor 110.
  • a configuration diagram of the navigation device 100 illustrated in FIG. 1 is a block diagram according to an exemplary embodiment.
  • the navigation device 100 of the present specification may be controlled based on various inputs.
  • the navigation device 100 may include a physical button and may receive input from the physical button.
  • the navigation device 100 may include a voice receiving unit, perform voice recognition based on the received voice, and may be controlled based on the voice recognition.
  • the navigation device 100 may perform speech recognition in units of syllables, words, or sentences, or may perform a function by combining recognized syllables, words, or sentences.
  • the navigation device 100 may perform image analysis using the image sensing unit, and may be controlled based on the analyzed image.
  • the navigation device 100 may include a touch sensing unit and may be controlled based on a touch input to the touch sensing unit.
  • the navigation device 100 may be controlled based on the combination of the above-described inputs.
  • navigation device 100 operations performed by the navigation device 100 will be described with reference to FIGS. 3 to 9.
  • the configuration of the navigation device 100 described above with reference to FIGS. 1 and 2 may be used for the operation of the navigation device 100 described later.
  • the operation of the navigation device 100 and the operation of the processor 110 may be described in the following description.
  • the navigation device 100 may be embedded in or loaded into the vehicle.
  • FIG. 3 illustrates a destination setting of a navigation device according to an embodiment.
  • the navigation device (not shown) is embedded in or loaded into the vehicle 200.
  • a basketball 301 is loaded into the vehicle 200.
  • the navigation device may identify the object (basketball ball 301) loaded in the vehicle 200 using the detecting unit.
  • basketball 301 may include a wirelessly identifiable tag.
  • the navigation device may detect the basketball 301 loaded in the vehicle 200.
  • the tag of the basketball (301) may include attribute information for the basketball (301).
  • the basketball 301 may be in communication with a navigation device. In this case, the navigation device may receive attribute information based on communication with the basketball 301. Therefore, the navigation device may identify the basketball ball 301 loaded in the vehicle 200 based on the attribute information of the basketball ball 301.
  • the navigation device may generate a destination history for the object (basketball ball 301) including destination information of the vehicle in which the basketball ball 301 is loaded in the vehicle 200.
  • a user boarding the vehicle 200 sets a destination.
  • the navigation device may include the set destination in the destination history for the basketball 301.
  • the user may move to the destination without setting the destination in the navigation device.
  • the navigation device may include the position where the vehicle 200 stops and the basketball 301 unloaded in the destination history for the basketball 301.
  • a basketball court on the map is set as the destination.
  • the navigation device includes the basketball court in the destination history for the basketball ball 301.
  • the navigation device may provide at least one recommended destination based on the generated destination history after the destination history for the object (for example, the basketball 301) is generated, and the object is loaded back into the vehicle. That is, when the basketball 301 is loaded into the vehicle 200, the navigation device may provide a recommended destination based on the destination history generated for the basketball 301. For example, the navigation device may provide the highest ranked destination of the destination history for the basketball 301 as the recommended destination. For example, the navigation device may provide a basketball court in the destination history for basketball 301 as the recommended destination for basketball 301. The sorting / classifying of the destinations in the destination history will be described later with reference to FIG. 4. The navigation device may provide only one destination as the recommended destination.
  • the navigation device may provide two or more destinations (destinations in the destination history) as recommended destinations.
  • the navigation device may provide a recommendation destination through the display unit and may provide a recommendation destination through the voice output unit.
  • the navigation device may automatically set the highest ranking destination as the destination.
  • the vehicle 200 may be driven to the destination based on the set destination.
  • FIG. 4 illustrates a destination history, according to one embodiment.
  • the navigation device may generate a destination history for the identified object (eg, basketball 301).
  • the destination history may include the location of the destination, the last visit, and the number of visits.
  • the location of the destination may include geographic coordinates.
  • the destination may be identified as the name of the destination. 4 names and I.D. are shown as attribute information of the basketball ball 301.
  • the attribute information may include the name, ID, type and / or unique identifier of the object.
  • the destination history of FIG. 4 includes a destination, a last visit, and a visit frequency.
  • the destination history may include other information.
  • the navigation device may distinguish between a location where an object (eg, the basketball 301) is loaded into the vehicle and a location that is unloaded from the vehicle and include it in the destination history.
  • the navigation device can identify where an object is often loaded and often unloaded based on statistical experience.
  • the navigation device may classify the destination history, and the classification of the destination history may be reflected in the provision of the recommended destination described later. For example, only the highest ranked destination in the destination history may be provided as the recommended destination.
  • the navigation device may also provide a plurality of recommended destinations in the order in which the destination histories are arranged. For example, the navigation device may sort the destination history based on the last visit date and / or visit frequency.
  • the navigation device may also classify destinations in the destination history based on the location of the navigation device. For example, the navigation device may sort the destinations in the destination history in the order closest to the current location of the navigation device.
  • the sorting / classification of the destination history of the navigation device described above with respect to FIG. 4 may optionally be combined with the operation of the navigation device described above with respect to FIG. 3.
  • 5 illustrates a further destination recommendation, according to one embodiment.
  • the navigation device may provide at least one recommended destination.
  • the navigation device may provide at least one additional destination based on the attribute information of the object and the location of the navigation device.
  • a basketball 301 is loaded into the vehicle 200 as an object.
  • the basketball 301 can be identified by the navigation device.
  • the navigation device may search for a destination matching the basketball ball from the attribute information of the basketball ball 301 (for example, a basketball ball).
  • the navigation device may search the basketball court as a destination that matches the basketball 301.
  • the position of the navigation can be taken into account.
  • basketball courts within a predetermined distance from the location of the navigation may be provided as a recommended destination. That is, the additional recommended destination is for additionally providing the user with a destination that does not exist in the destination history for the identified object (eg, basketball 301).
  • the navigation device may determine the type of the object based on attribute information of the object loaded in the vehicle 200.
  • the navigation device may provide, as at least one recommended destination, a location existing within a predetermined distance from the location of the navigation device among the locations corresponding to the type of the determined object. That is, the navigation device may, for example, perform a similar search / semantic search based on the attributes of the basketball ball 301 as well as a destination that matches the name itself of the basketball 301.
  • the navigation device can provide a recommendation for a new place that the user has never been to.
  • provision of the additional recommended destination described above with respect to FIG. 5 may optionally be combined with the operation of the navigation device described above with respect to FIGS. 3 and 4.
  • FIG 6 illustrates an input interface according to one embodiment.
  • the navigation device 100 includes a display unit 120 and is mounted in the vehicle 200. As described above, the navigation device 100 may be removable from the vehicle 200. As shown in FIG. 6, the navigation device 100 may provide an interface 151 on the display unit 120 for setting a destination of the vehicle 200. The user may retrieve or set a destination through a virtual keyboard on the interface 151.
  • the navigation device 100 may set a destination based on an input to the interface 151.
  • the navigation device 100 may provide a notification for the absence of the identified object if the set destination exists in the destination history for the identified object and the identified object is not loaded into the vehicle.
  • the notification for the absence of the identified object is described.
  • a particular basketball court is included in the destination history for the basketball 301.
  • the user may set the basketball court as a destination using the interface 151 of FIG. 6.
  • the navigation device may inform the user that the basketball 301 is not loaded.
  • the navigation device may generate a notification through the display unit or voice message, "Would you like to take the basketball ball with you?" It can also be provided to the user via an output unit. Therefore, the user can take the basketball ball to the basketball court without forgetting.
  • Providing the notification described above with respect to FIG. 6 may optionally be combined with the operation of the navigation device described above with respect to FIGS.
  • the navigation device may generate a destination history for the identified object. That is, the object and the destination may be associated with each other. Thus, as described above with respect to FIG. 3, the navigation device can provide the associated destination as the recommended destination when the identified object is loaded into the vehicle. Conversely, as described above with respect to FIG. 6, the navigation device may inform the absence of an associated object if the associated object is not loaded into the vehicle even though the destination in the destination history has been set as the destination.
  • the navigation device may identify one or more objects and generate a destination history for each of the identified objects. For example, as shown in FIG. 7, each object 301, 302, 303, 304 may be associated with a different place from each other.
  • the navigation device may also provide a notification for the unloading of the identified object after arriving at the destination. For example, in FIG. 7, a user may move to a location associated with soccer ball 303 while loading soccer ball 303 in a vehicle. In this case, the navigation device may inform the user to unload the soccer ball 303 when the vehicle arrives at a location associated with the soccer ball 303. Thus, such notification can prevent the user from getting off the vehicle without the specific object at the place where the specific object is associated.
  • the navigation device may identify the object, distinguish the location where the identified object is loaded / unloaded, and store it in the destination history. Thus, the navigation device may not only provide a recommended destination based on the object, but may also recommend loading / unloading of the object based on the destination.
  • the provision of the notification described above with respect to FIG. 7 may optionally be combined with the operations of the navigation device described above with reference to FIGS. 3-6.
  • FIG. 8 illustrates an example of object notification using a user device.
  • the navigation device may use a separate user device 351 to provide a recommended destination or notification.
  • the user device 351 may include a schedule application.
  • the navigation device may communicate with a user device 351 loaded in the vehicle 200 using a communication unit.
  • the navigation device may receive schedule information from the user device 351.
  • the schedule information may include a time, a place, and a brief description.
  • the navigation device may identify an object associated with a current or later schedule of the user device 351 based on the schedule information.
  • the navigation device may identify the basketball 301 as an object associated with a schedule called "basketball.”
  • the navigation device may provide a notification for the absence of an object if an object associated with a current or later schedule is not loaded into the vehicle 200. For example, assume that a user boards the vehicle 200 at 4 pm on September 22, 2014. In this case, the navigation device may receive schedule information from the user device 351. In addition, the basketball 301 may be identified as an associated object based on the received schedule information. At this time, if the basketball ball 301 which is the identified object is not loaded in the vehicle 200, the navigation device may suggest that the user bring the basketball ball 301 together. Therefore, the user can take the objects necessary for the future schedule without forgetting.
  • the user device 351 and the navigation device are described as separate devices throughout the present specification.
  • the user device 351 and the navigation device may be the same device.
  • the navigation device may be a mobile phone that includes a navigation application.
  • the mobile phone may include a schedule application.
  • the mobile phone may provide the notification for the absence of the object described above with respect to FIG. 8 based on the schedule information of the schedule application.
  • FIG. 9 is a flowchart of a control method of a navigation device, according to an exemplary embodiment.
  • the navigation device may detect the object loaded in the vehicle 901 using the detecting unit and identify 902 the detected object based on attribute information included in the detected object. As described above in connection with FIGS. 2 and 3, the navigation device may identify the object by communicating with the object, by identifying the tag of the object, or using a sensor embedded in the vehicle. The navigation device generates 903 a destination history for the identified object that includes destination information of the vehicle in which the identified object was loaded. As described above with respect to FIG. 3, the navigation device may generate a destination history based on various methods. In addition, as described above with reference to FIG. 4, the navigation device may sort the destination history.
  • the navigation device may provide 904 at least one recommended destination based on the destination history for the object if the identified object is reloaded into the vehicle after the destination history has been generated. As described above with respect to FIG. 3, one or more recommended destinations may be provided. The navigation device may also set the recommended destination as the destination of the vehicle.
  • the control method of the navigation device of FIG. 9 may be selectively combined with the operations of the navigation device described above with reference to FIGS. 3 to 8. In addition, the method of controlling the navigation device of the present specification may be performed by the navigation device described above with reference to FIGS. 1 and 2.
  • the navigation device and its control method according to the present disclosure are not limited to the configuration and method of the above-described embodiments, but various modifications may be made by selectively combining all or some of the embodiments.
  • the navigation device and its control method of the present specification can be implemented as software in a processor-readable recording medium included in the navigation device.
  • the processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and the processor-readable recording medium is distributed in a networked computer system. In a distributed fashion, processor-readable code can be stored and executed.
  • the present invention has industrial applicability that can be used in terminal devices and that can be repeated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)

Abstract

본 명세서서의 일 실시예에 따른 네비게이션 디바이스는, 비히클(vehicle)에 로드(load)된 오브텍트를 식별하고, 식별된 오브젝트가 동반된 목적지 이력을 생성함으로써, 비히클에 로드된 오브젝트에 대한 추천 목적지를 제공할 수 있다.

Description

네비게이션 디바이스 및 그 제어 방법
본 발명은 네비게이션 디바이스 및 그 제어 방법에 대한 것이다.
비히클(vehicle)(예를 들어, 자동차)은 고전적으로 기계적 장치들에 집합체 였다. 그러나, 전자 기술의 발달과 함께, 전자 장치들이 비히클에 장착되고 있다. 예를 들어, 비히클은 스마트 키의 위치를 추적하여, 스마트 키의 위치에 대응하는 기능을 수행할 수 있다.
네비게이션 디바이스는 비히클의 전자 장치의 일 예이다. 네비게이션의 보급에 따라서, 다양한 네비게이션 디바이스가 이용되고 있다. 예를 들어, 휴대용 네비게이션 디바이스, 비히클에 내장된 네비게이션 디바이스 또는 네비게이션 어플리케이션이 설치된 셀룰러 폰 등은 네비게이션 기능을 수행할 수 있다. 일반적으로, 이러한 네비게이션 디바이스들은 비히클과 함께 이동하면서 실시간으로 비히클의 위치를 추적하여 진행 방향을 안내할 수 있다.
일반적으로, 네비게이션 디바이스는 목적지 설정을 위하여 목적지 검색을 수행한다. 그러나, 목적지 검색을 위하여 유저는 목적지를 네비게이션 디바이스에 입력하여야만 한다. 이러한 문제를 해결하기 위하여, 네비게이션 디바이스는 최근 목적지의 목록과 같은 추천 목적지를 제공할 수도 있다. 그러나, 최근 목적지의 목록은 유저의 현재 상태가 고려되지 않는다. 따라서, 유저의 컨텍스트가 고려된 보다 개선된 추천 목적지의 제공 방법이 요구된다.
본 명세서는, 외부 오브젝트에 기초하여 추천 목적지를 제공하는 네비게이션 디바이스 및 그 제어 방법을 제공하고자 한다. 특히, 외부 오브젝트와 연관된 목적지 이력을 생성함으로써 추천 목적지를 제공하는 보다 개선된 네비게이션 디바이스를 제시하고자 한다.
본 명세서의 일 실시예에 따른 네비게이션 디바이스는, 적어도 하나의 이미지를 디스플레이하고, 터치 입력을 수신하는 디스플레이 유닛, 네비게이션 디바이스의 위치를 결정하는 위치 결정 유닛, 비히클(vehicle)에 로드(load)된 적어도 하나의 오브젝트를 디텍트하는 디텍팅 유닛 및 디스플레이 유닛, 위치 결정 유닛 및 상기 디텍팅 유닛을 제어하는 프로세서를 포함하고, 각각의 적어도 하나의 오브젝트는 속성 정보를 포함하고, 네비게이션 디바이스는 비히클에 로드되며, 프로세서는, 디텍팅 유닛을 이용하여 비히클에 로드된 오브젝트를 디텍트하고, 디텍트된 오브젝트의 속성 정보에 기초하여 디텍트된 오브젝트를 식별하고, 식별된 오브젝트가 로드된 비히클의 목적지 정보를 포함하는 식별된 오브젝트에 대한 목적지 이력을 생성하고, 목적지 이력이 생성된 후, 식별된 오브젝트가 비히클에 다시 로드되면, 오브젝트에 대한 목적지 이력에 기초하여 적어도 하나의 추천 목적지를 제공할 수 있다.
본 명세서의 일 실시예에 따른 네비게이션 디바이스의 제어 방법은, 디텍팅 유닛을 이용하여 비히클에 로드된 오브젝트를 디텍팅하는 단계, 디텍트된 오브젝트에 포함된 속성 정보에 기초하여 디텍트된 오브젝트를 식별하는 단계, 식별된 오브젝트가 로드된 비히클의 목적지 정보를 포함하는 식별된 오브젝트에 대한 목적지 이력을 생성하는 단계 및 목적지 이력이 생성된 후, 식별된 오브젝트가 비히클에 다시 로드되면, 오브젝트에 대한 목적지 이력에 기초하여 적어도 하나의 추천 목적지를 제공하는 단계를 포함할 수 있다.
본 명세서에 따른 네비게이션 디바이스는 유저에게 추천 목적지를 제공할 수 있다.
또한, 본 명세서에 따른 네비게이션 디바이스는 식별된 오브젝트에 기초하여 추천 목적지를 생성함으로써 유저의 컨텍스트(context)에 부합하는 추천 목적지를 제공할 수 있다.
또한, 본 명세서에 따른 네비게이션 디바이스는 오브젝트에 대한 목적지 이력을 생성함으로써 유저의 컨텍스트 정보를 통계적으로 분석할 수 있다.
도 1은 비히클(vehicle)의 네트워크 환경을 도시한다.
도 2는 일 실시예에 따른 네비게이션 디바이스의 구성도이다.
도 3은 일 실시예에 따른 네비게이션 디바이스의 목적지 설정을 도시한다.
도 4는 일 실시예에 따른 목적지 이력을 도시한다.
도 5는 일 실시예에 따른 추가 목적지 추천을 도시한다.
도 6은 일 실시예에 따른 입력 인터페이스를 도시한다.
도 7은 식별된 오브젝트에 대한 추천 목적지의 일 예시를 도시한다.
도 8은 유저 디바이스를 이용한 오브젝트 노티피케이션의 일 예시를 도시한다.
도 9는 일 실시예에 따른 네비게이션 디바이스의 제어 방법의 흐름도이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시 예를 상세하게 설명한다. 그러나, 청구하고자 하는 범위는 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
도 1은 비히클(vehicle)의 네트워크 환경을 도시한다.
도 1에는 비히클(200)의 일 예시로서 자동차가 도시되어 있다. 자동차의 전자 장치가 증가함에 따라서, 자동차는 다양한 디바이스와 통신할 수 있다. 예를 들어, 자동차(200)는 네트워크를 통하여 유저 디바이스(351)와 통신할 수도 있다. 또한, 자동차(200)는 자동차(200)에 탑재된 시스템을 통하여 또는 자동차(200)에 탑재된 시스템과 커뮤니케이션하는 네비게이션 디바이스를 통하여 유저 디바이스(351)와 통신할 수도 있다. 또한, 자동차(200)는 자동차(200)에 로드된 다양한 오브젝트들(301, 302, 303, 304)과 커뮤니케이션할 수도 있다. 오브젝트들(301, 302, 303, 304)과의 커뮤니케이션은 직접적으로 또는 간접적으로 수행될 수도 있다.
한편, 도 1에는 비히클(200)의 예시로서 자동차가 도시되어 있으나, 비히클(200)은 다른 운송 수단을 포함할 수 있다. 예를 들어, 비히클(200)은 모터사이클, 자전거, 선박 또는 비행기일 수도 있다. 또한, 본 명세서의 비히클(200)은 자동 운전 장치를 포함할 수도 있다. 또한, 도 1에는 오브젝트의 예시로서, 농구공(301), 장바구니(302), 축구공(303) 및 랩탑(laptop) 컴퓨터(304)가 도시되어 있으나, 다양한 오브젝트가 본 명세서의 오브젝트로서 이용될 수 있다. 또한, 도 1에는 모바일 폰이 유저 디바이스(351)로 도시되어 있으나, 다양한 포터블 디바이스가 본 명세서의 유저 디바이스(351)로 이용될 수 있다. 예를 들어, 유저 디바이스(351)는 모바일 폰, 전자 수첩, HMD(Head Mounted Dsipaly) 및 다양한 포터블 디바이스를 포함할 수 있다.
한편, 본 명세서의 오브젝트들(301, 302, 303, 304)은 비히클(200) 또는 네비게이션 디바이스와 직접적 간접적으로 커뮤니케이션할 수 있다. 본 명세서의 오브젝트들(301, 302, 303, 304)의 커뮤니케이션은 단순한 태그(tag)에 의하여 수행될 수도 있다. 예를 들어, 오브젝트들(301, 302, 303, 304)은 별도의 데이터 송/수신을 위한 기능을 가지지 않을 수도 있다. 이 경우, 비히클(200) 또는 네비게이션 디바이스는 오브젝트들(301, 302, 303, 304)의 태그를 식별할 수도 있다. 이러한 태그의 식별은 넓은 의미에서 커뮤니케이션에 포함될 수 있다.
도 1에는 본 명세서의 네비게이션 디바이스가 직접 도시되지 않았다. 이하에서 후술하는 네비게이션 디바이스는 비히클(200)에 내장된 것일 수도 있다. 예를 들어, 비히클(200)은 비히클 시스템의 일부로서 네비게이션 디바이스를 포함할 수도 있다. 그러나, 본 명세서의 네비게이션 디바이스는 자동차에 내장된 것이 아닌 포터블 디바이스일 수도 있다. 예를 들어, 모바일 폰이 본 명세서의 네비게이션 디바이스로서 동작할 수도 있다. 또한, 본 명세서의 네비게이션 디바이스는 비히클(200)로부터 전원을 공급받을 수 있고, 탈부착이 가능한 디바이스일 수도 있다.
도 2는 일 실시예에 따른 네비게이션 디바이스의 구성도이다.
도 1과 관련하여 상술한 바와 같이, 네비게이션 디바이스는 비히클 시스템의 일부이거나 비히클로부터 탈부착가능할 수도 있다. 네비게이션 디바이스는 위치 결정 유닛(130), 디스플레이 유닛(120), 디텍팅 유닛(140) 및 프로세서(110)를 포함할 수 있다.
위치 결정 유닛(130)은 네비게이션 디바이스(100)의 위치를 결정할 수 있다. 위치 결정 유닛(130)은 위성 위치측정 시스템(GPS), 지리적 정보 시스템(GIS), 지상 네트워크 기반 위치 측정 시스템 및/또는 하이브리드 지원 GPS 무선 위치결정 시스템을 포함할 수도 있다.
디텍팅 유닛(140)은 비히클에 로드된 적어도 하나의 오브젝트를 디텍트할 수 있다. 디텍팅 유닛(140)은 오브젝트의 로딩을 디텍트할 수 있다. 예를 들어, 디텍팅 유닛(140)은 오브젝트와 커뮤니케이션함으로써 오브젝트의 로딩을 디텍트할 수도 있다. 디텍팅 유닛(140)은 오브젝트로부터의 신호의 세기, 오브젝트로부터 반사된 신호의 세기 및/또는 오브젝트로부터의 응답 시간에 기초하여 오브젝트의 로딩을 디텍트할 수도 있다. 또한, 디텍팅 유닛(140)은 비히클에 구비된 오브젝트 센서를 이용하여 오브젝트의 로딩을 디텍트할 수도 있다. 예를 들어, 비히클은 오브젝트의 로딩을 센싱하기 위한 오브젝트 센서를 포함하고, 디텍팅 유닛(140)은 오브젝트 센서와 커뮤니케이션할 수도 있다. 또한, 디텍팅 유닛(140)은 비히클의 오브젝트 센서로부터 수신되는 신호에 기초하여 오브젝트의 로딩/언로딩을 결정할 수도 있다.
또한, 디텍팅 유닛(140)은 비히클에 로드된 오브젝트를 디텍트할 수 있다. 또한, 디텍팅 유닛(140)은 오브젝트의 속성 정보에 기초하여 오브젝트를 식별할 수 있다. 예를 들어, 오브젝트의 속성 정보는 오브젝트의 명칭, ID, 유형 및/또는 고유 식별 문자를 포함할 수도 있다. 디텍팅 유닛(140)은 오브젝트와 커뮤니케이션함으로써 오브젝트의 속성 정보를 수신하고 속성 정보에 기초하여 오브젝트를 식별할 수도 있다. 또한, 디텍팅 유닛(140)은 오브젝트에 포함된 태그를 읽음으로써 오브젝트를 식별할 수도 있다.
한편, 도 2에는 미도시 되었으나, 디텍팅 유닛(140)은 오브젝트, 유저 디바이스 및/또는 비히클과 커뮤니케이션하는 커뮤니케이션 유닛을 포함할 수도 있다. 또한, 디텍팅 유닛(140)은 네비게이션 디바이스(100)에 내장된 별도의 커뮤니케이션 유닛과 커플링될 수도 있다. 커뮤니케이션 유닛은 유선 또는 무선 네트워크를 통하여 커뮤니케이션을 수행하고 데이터를 송신/수신할 수 있다. 예를 들어, 커뮤니케이션 유닛은 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN), IEEE 802.11 기반의 무선랜 통신, Wibro(Wireless Broadband), Wimax(World Interoperability for Micorwave Access), HSDPA(High Speed Downlink Packet Access), 블루투스, 근접장 통신(NFC: Near Field Communication) 규격 등을 이용할 수 있다. 또한, 커뮤니케이션 유닛은 유/무선 네트워크를 통하여 인터넷에 접속할 수 있다.
디스플레이 유닛(120)은 적어도 하나의 이미지를 디스플레이하고, 터치 입력을 수신할 수 있다. 디스플레이 유닛(120)은 LCD(Liquid Crystal Display), 플라즈마 디스플레이, 또는 다른 유형의 디스플레이를 포함할 수도 있다. 또한, 디스플레이 유닛(120)은 터치 센서를 포함할 수도 있다. 즉, 디스플레이 유닛(120)은 터치 센시티브(sensitive) 디스플레이 유닛을 포함할 수 있다. 터치 센서는 디스플레이 유닛(120) 상에 또는 디스플레이 유닛(120) 내에 위치될 수도 있다. 터치 센서는 슬라이딩 터치 입력, 멀티 터치 입력, 롱-프레스 터치 입력, 숏-프레스 터치 입력, 드래그 터치 입력, 호버링(hovering) 입력 또는 플리킹(flicking) 터치 입력 등 접촉 또는 비접촉의 다양한 터치 입력을 센싱할 수 있다. 나아가, 터치 센서는 터치 펜, 스타일러스 펜 등 다양한 입력 도구에 의한 터치 입력 또한 센싱할 수 있다. 터치 센서는 터치 입력을 센싱한 결과를 프로세서(110)에 전달할 수 있다.
프로세서(110)는 디스플레이 유닛(120), 위치 결정 유닛(130) 및 디텍팅 유닛(140)을 제어할 수 있다. 또한, 프로세서(110)는 후술하는 네비게이션 디바이스(100)에 포함된 다른 구성들을 제어할 수도 있다. 프로세서(110)는 네비게이션 디바이스(100)의 데이터를 프로세싱하여 다양한 어플리케이션을 실행할 수 있다. 프로세서(110)는 명령에 기초하여 네비게이션 디바이스(100) 및 네비게이션 디바이스(100)에서 실행되는 컨텐츠를 제어할 수 있다.
또한, 네비게이션 디바이스(100)는 도 2에 미도시된 구성들을 더 포함할 수도 있다. 예를 들어, 네비게이션 디바이스(100)는, 메모리, 전력원, 하우징(housing), 오디오 수신 유닛, 오디오 출력 유닛 또는 이미지 센싱 유닛을 더 포함할 수도 있다. 이미지 센싱 유닛은 가시 광선, 적외선, 자외선, 자기장 및/또는 음파를 이용하여 이미지를 센싱할 수도 있다.
또한, 상술한 구성들은 제조사의 선택 또는 네비게이션 디바이스(100)의 형태에 따라서 선택적으로 조합될 수 있다. 상술한 구성들은 버스를 통하여 서로 연결될 수 있으며, 프로세서(110)에 의하여 제어될 수 있다.
한편, 도 1에 도시된 네비게이션 디바이스(100)의 구성도는 일 실시예에 따른 블록도로서, 분리하여 표시한 블록도들은 하드웨어적인 구성 유닛들을 논리적으로 구별하여 도시한 것이다. 따라서, 상술한 네비게이션 디바이스(100)의 구성 유닛들은 디바이스의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 구현될 수도 있다.
한편, 본 명세서의 네비게이션 디바이스(100)는 다양한 입력에 기초하여 제어될 수도 있다. 예를 들어, 네비게이션 디바이스(100)는 물리적 버튼을 포함할 수 있으며, 물리적 버튼으로부터 입력을 수신할 수도 있다. 또한, 네비게이션 디바이스(100)는 음성 수신 유닛을 포함할 수 있으며, 수신된 음성에 기초하여 음성 인식을 수행하고, 음성 인식에 기초하여 제어될 수도 있다. 구체적으로, 네비게이션 디바이스(100)는 음절, 단어 또는 문장 단위의 음성 인식을 수행할 수도 있으며, 인식된 음절, 단어 또는 문장을 조합하여 기능을 수행할 수도 있다. 또한, 네비게이션 디바이스(100)는 이미지 센싱 유닛을 이용하여 이미지 분석을 수행할 수 있으며, 분석된 이미지에 기초하여 제어될 수도 있다. 또한, 네비게이션 디바이스(100)는 터치 센싱 유닛을 포함하며, 터치 센싱 유닛에 입력된 터치에 기초하여 제어될 수도 있다. 아울러, 네비게이션 디바이스(100)는 상술한 입력들의 조합에 기초하여 제어될 수도 있다.
이하에서는, 네비게이션 디바이스(100)에서 수행되는 동작을 도 3 내지 도 9를 참조하여 설명한다. 도 1 및 도 2와 관련하여 상술한 네비게이션 디바이스(100)의 구성은 후술하는 네비게이션 디바이스(100)의 동작에 이용될 수 있다. 또한, 이하에서 네비게이션 디바이스(100)의 동작과 프로세서(110)의 동작은 동일시되어 설명될 수도 있다. 또한, 이하에서 네비게이션 디바이스(100)는 비히클 내에 내장되거나 비히클에 로드된 상태일 수 있다.
도 3은 일 실시예에 따른 네비게이션 디바이스의 목적지 설정을 도시한다.
도 3에서, 네비게이션 디바이스(미도시)는 비히클(200)에 내장되어 있거나 비히클(200)에 로드된 상태이다. 도 3에서, 농구공(301)은 비히클(200)에 로드된다. 도 2와 관련하여 상술한 바와 같이, 네비게이션 디바이스는 디텍팅 유닛을 이용하여 비히클(200)에 로드된 오브젝트(농구공(301))을 식별할 수 있다. 예를 들어, 농구공(301)은 무선 식별가능한 태그를 포함할 수도 있다. 태그를 디텍트함으로써, 네비게이션 디바이스는 비히클(200)에 로드된 농구공(301)을 디텍트할 수도 있다. 또한, 농구공(301)의 태그에는 농구공(301)에 대한 속성 정보가 포함될 수도 있다. 도 1 및 도 2와 관련하여 상술한 바와 같이, 농구공(301)은 네비게이션 디바이스와 커뮤니케이션가능할 수도 있다. 이 경우, 네비게이션 디바이스는 농구공(301)과의 커뮤니케이션에 기초하여 속성 정보를 수신할 수도 있다. 따라서, 네비게이션 디바이스는 농구공(301)의 속성 정보에 기초하여 비히클(200)에 로드된 농구공(301)을 식별할 수 있다.
또한, 네비게이션 디바이스는 농구공(301)이 비히클(200)에 로드된 채로 이동한 비히클의 목적지 정보를 포함하는 오브젝트(농구공(301))에 대한 목적지 이력을 생성할 수 있다. 일반적으로, 비히클(200)에 탑승한 유저는 목적지를 설정한다. 이 경우, 네비게이션 디바이스는 설정된 목적지를 농구공(301)에 대한 목적지 이력에 포함시킬 수도 있다. 그러나, 유저는 목적지를 네비게이션 디바이스에 설정하지 않고 목적지로 이동할 수도 있다. 이 경우, 네비게이션 디바이스는 비히클(200)이 정지하고, 농구공(301)이 언로드된 위치를 농구공(301)에 대한 목적지 이력에 포함기시킬 수도 있다. 도 3의 경우, 지도 상의 한 농구장이 목적지로 설정된다. 이 경우, 네비게이션 디바이스는 해당 농구장을 농구공(301)에 대한 목적지 이력에 포함시킨다.
한편, 네비게이션 디바이스는 오브젝트(예를 들어 농구공 (301))에 대한 목적지 이력이 생성된 후, 오브젝트가 비히클에 다시 로드되면 생성된 목적지 이력에 기초하여 적어도 하나의 추천 목적지를 제공할 수 있다. 즉, 네비게이션 디바이스는 농구공(301)이 비히클(200)에 로드되면, 농구공(301)에 대하여 기생성된 목적지 이력에 기초하여 추천 목적지를 제공할 수 있다. 예를 들어, 네비게이션 디바이스는 농구공(301)에 대한 목적지 이력 중 가장 높은 순위의 목적지를 추천 목적지로서 제공할 수 있다. 예를 들어, 네비게이션 디바이스는 농구공(301)에 대한 목적지 이력 내의 농구장을 농구공(301)에 대한 추천 목적지로서 제공할 수도 있다. 목적지 이력 내의 목적지들의 정렬/분류에 대하여는 도 4와 관련하여 후술한다. 네비게이션 디바이스는 하나의 목적지 만을 추천 목적지로 제공할 수도 있다. 그러나, 네비게이션 디바이스는 2 이상의 목적지들(목적지 이력 내의 목적지들)을 추천 목적지로서 제공할 수도 있다. 네비게이션 디바이스는 디스플레이 유닛을 통하여 추천 목적지를 제공할 수도 있으며, 음성 출력 유닛을 통하여 추천 목적지를 제공할 수도 있다. 또한, 네비게이션 디바이스는 가장 높은 순위의 목적지를 자동적으로 목적지로 설정할 수도 있다. 비히클(200)이 자동 운전 장치를 포함하는 경우, 비히클(200)은 설정된 목적지에 기초하여 목적지까지 운전될 수도 있다.
도 4는 일 실시예에 따른 목적지 이력을 도시한다.
도 4에는 농구공(301)에 대한 목적지 이력이 도시되어 있다. 도 3과 관련하여 상술한 바와 같이, 네비게이션 디바이스는 식별된 오브젝트(예를 들어, 농구공(301))에 대한 목적지 이력을 생성할 수 있다. 목적지 이력은 목적지의 위치와 마지막 방문일, 그리고 방문 횟수를 포함할 수도 있다. 예를 들어, 목적지의 위치는 지리적 좌표를 포함할 수 있다. 또한, 목적지는 목적지의 명칭으로서 식별될 수도 있다. 또한, 도 4에는 농구공(301)에 대한 속성 정보로서 명칭과 I.D.가 도시되어 있다. 그러나, 도 2와 관련하여 상술한 바와 같이, 속성 정보는 오브젝트의 명칭, ID, 유형 및/또는 고유 식별 문자를 포함할 수도 있다.
도 4의 목적지 이력에는 목적지, 마지막 방문일 및 방문횟수가 포함되어 있다. 그러나, 이는 예시적인 것으로서, 목적지 이력은 다른 정보들을 포함할 수도 있다. 예를 들어, 네비게이션 디바이스는 오브젝트(예를 들어, 농구공(301))이 비히클에 로드된 위치와 비히클로부터 언로드된 위치를 구분하여 목적지 이력에 포함시킬 수도 있다. 따라서, 네비게이션 디바이스는 통계적인 경험에 기초하여 어떤 오브젝트가 종종 로드된 위치와 종종 언로드된 위치를 식별할 수 있다.
또한, 네비게이션 디바이스는 목적지 이력을 분류할 수 있으며, 목적지 이력의 분류는 후술하는 추천 목적지의 제공에 반영될 수 있다. 예를 들어, 목적지 이력 상의 가장 높은 순위의 목적지 만이 추천 목적지로서 제공될 수도 있다. 또한, 네비게이션 디바이스는 목적지 이력이 정렬된 순서대로 복수의 추천 목적지들을 제공할 수도 있다. 예를 들어, 네비게이션 디바이스는 목적지 이력을 마지막 방문 날짜 및/또는 방문 빈도에 기초하여 분류할 수도 있다. 또한, 네비게이션 디바이스는 목적지 이력 내의 목적지들을 네비게이션 디바이스의 위치에 기초하여 분류할 수도 있다. 예를 들어, 네비게이션 디바이스는 목적지 이력 내의 목적지들을 네비게이션 디바이스의 현재 위치와 가장 가까운 순서대로 분류할 수도 있다.
도 4와 관련하여 상술한 네비게이션 디바이스의 목적지 이력의 정렬/분류는 도 3과 관련하여 상술한 네비게이션 디바이스의 동작과 선택적으로 조합될 수 있다.
도 5는 일 실시예에 따른 추가 목적지 추천을 도시한다.
도 3과 관련하여 상술한 바와 같이, 네비게이션 디바이스는 적어도 하나의 추천 목적지를 제공할 수 있다. 또한, 네비게이션 디바이스는 오브젝트가 비히클(200)에 로드되면, 오브젝트의 속성 정보 및 네비게이션 디바이스의 위치에 기초하여 적어도 하나의 추가 목적지를 제공할 수도 있다.
예를 들어, 도 5에서 농구공(301)이 오브젝트로서 비히클(200)에 로드된다. 농구공(301)은 네비게이션 디바이스에 의하여 식별될 수 있다. 네비게이션 디바이스는 농구공(301)의 속성 정보(예를 들어, 농구공이라는 명칭)로부터 농구공에 매칭되는 목적지를 검색할 수 있다. 예를 들어, 네비게이션 디바이스는 농구공(301)에 매칭되는 목적지로서 농구장을 검색할 수 있다. 검색에 있어서, 네비게이션의 위치가 고려될 수 있다. 예를 들어, 네비게이션의 위치와 기설정된 거리 내에 있는 농구장들이 추천 목적지로서 제공될 수 있다. 즉, 추가 추천 목적지는 식별된 오브젝트(예를 들어, 농구공(301))에 대한 목적지 이력 내에 존재하지 않는 목적지를 유저에게 추가적으로 제공하기 위한 것이다.
예를 들어, 네비게이션 디바이스는 비히클(200)에 로드된 오브젝트의 속성 정보에 기초하여 오브젝트의 유형을 결정할 수도 있다. 또한, 네비게이션 디바이스는 결정된 오브젝트의 유형에 대응하는 위치들 중 네비게이션 디바이스의 위치로부터 기설정된 거리 내에 존재하는 위치를 적어도 하나의 추천 목적지로서 제공할 수 있다. 즉, 네비게이션 디바이스는, 예를 들어, 농구공(301)의 명칭 자체와 일치하는 목적지 뿐만 아니라, 농구공(301)의 속성에 기초한 유사 검색/의미론적 검색을 수행할 수도 있다.
또한, 추가 추천 목적지를 제공함에 있어서 네비게이션 디바이스의 현재 위치를 고려하기 때문에, 네비게이션 디바이스는 유저가 가본 적이 없는 새로운 장소에 대한 추천을 제공할 수 있다.
도 5와 관련하여 상술한 추가 추천 목적지의 제공은 도 3 및 도 4와 관련하여 상술한 네비게이션 디바이스의 동작과 선택적으로 조합될 수 있다.
도 6은 일 실시예에 따른 입력 인터페이스를 도시한다.
도 6에서 네비게이션 디바이스(100)는 디스플레이 유닛(120)을 포함하며, 비히클(200) 내에 장착되어 있다. 상술한 바와 같이, 네비게이션 디바이스(100)는 비히클(200)로부터 탈착가능할 수도 있다. 도 6에 도시된 바와 같이, 네비게이션 디바이스(100)는 비히클(200)의 목적지를 설정하기 위한 인터페이스(151)를 디스플레이 유닛(120) 상에 제공할 수 있다. 유저는 인터페이스(151) 상의 가상 키보드를 통하여 목적지를 검색하거나 설정할 수도 있다.
또한, 네비게이션 디바이스(100)는 인터페이스(151)에 대한 입력에 기초하여 목적지를 설정할 수 있다. 네비게이션 디바이스(100)는 설정된 목적지가 식별된 오브젝트에 대한 목적지 이력 내에 존재하고, 그리고 식별된 오브젝트가 비히클에 로드되지 않으면, 식별된 오브젝트의 부재에 대한 노티피케이션을 제공할 수 있다.
다시 도 3을 참조하여, 식별된 오브젝트의 부재에 대한 노티피케이션을 설명한다. 도 3에서, 특정 농구장이 농구공(301)에 대한 목적지 이력 내에 포함된다. 유저는 도 6의 인터페이스(도 6의 151)를 이용하여 해당 농구장을 목적지로 설정할 수 있다. 이 경우, 네비게이션 디바이스는 비히클(200) 내에 농구공(301)이 로드되지 않으면, 유저에게 농구공(301)이 로드되지 않았음을 알릴 수 있다. 예를 들어, 네비게이션 디바이스는 해당 농구장이 목적지로 설정되고 농구공(301)이 비히클(200)에 로드되지 않으면, "농구공을 함께 가져가시겠습니까?"라는 노티피케이션을 디스플레이 유닛을 통하여 또는 음성 출력 유닛을 통하여 유저에게 제공할 수도 있다. 따라서, 유저는 농구공을 잊지 않고 농구장에 가져갈 수 있다.
도 6과 관련하여 상술한 노티피케이션의 제공은 도 3 내지 도 5와 관련하여 상술한 네비게이션 디바이스의 동작과 선택적으로 조합될 수 있다.
도 7은 식별된 오브젝트에 대한 추천 목적지의 일 예시를 도시한다.
도 1 내지 도 6과 관련하여 상술한 바와 같이, 네비게이션 디바이스는 식별된 오브젝트에 대한 목적지 이력을 생성할 수 있다. 즉, 오브젝트와 목적지는 서로 연관될 수 있다. 따라서, 도 3과 관련하여 상술한 바와 같이, 네비게이션 디바이스는 식별된 오브젝트가 비히클에 로드되면 연관된 목적지를 추천 목적지로서 제공할 수 있다. 반대로, 도 6과 관련하여 상술한 바와 같이, 네비게이션 디바이스는 목적지 이력 내의 목적지가 목적지로서 설정되었음에도 불구하고 연관된 오브젝트가 비히클에 로드되지 않으면 연관된 오브젝트의 부재를 알릴 수 있다.
또한, 네비게이션 디바이스는 하나 이상의 오브젝트를 식별하고, 식별된 오브젝트 각각에 대한 목적지 이력을 생성할 수 있다. 예를 들어, 도 7에 도시된 바와 같이, 각 오브젝트(301, 302, 303, 304)는 서로 상이한 장소와 연관될 수 있다.
또한, 네비게이션 디바이스는 목적지에 도착 후 식별된 오브젝트의 언로드에 대한 노티피케이션을 제공할 수도 있다. 예를 들어, 도 7에서, 유저는 축구공(303)을 비히클에 로드한 채 축구공(303)과 연관된 장소로 이동할 수 있다. 이 경우, 네비게이션 디바이스는 비히클이 축구공(303)과 연관된 장소에 도착하면, 축구공(303)을 언로드할 것을 유저에게 알릴 수 있다. 따라서, 이러한 노티피케이션은 유저가 특정 오브젝트가 연관된 장소에서 특정 오브젝트 없이 비히클로부터 하차하는 것을 방지할 수 있다.
도 4와 관련하여 상술한 바와 같이, 네비게이션 디바이스는 오브젝트를 식별하고 식별된 오브젝트가 로드/언로드된 위치를 구분하여 목적지 이력에 저장할 수 있다. 따라서, 네비게이션 디바이스는 오브젝트에 기초하여 추천 목적지를 제공할 수 있을 뿐만 아니라, 목적지에 기초하여 오브젝트의 로드/언로드를 추천할 수도 있다.
또한, 도 7과 관련하여 상술한 노티피케이션의 제공은 도 3 내지 도 6고 ㅏ관련하여 상술한 네비게이션 디바이스의 동작들과 선택적으로 조합될 수 있다.
도 8은 유저 디바이스를 이용한 오브젝트 노티피케이션의 일 예시를 도시한다.
도 3 내지 7과 관련하여, 오브젝트 또는 위치(목적지)에 기초한 추천 목적지 또는 알림 제공 방법을 상술하였다. 그러나, 네비게이션 디바이스는 별도의 유저 디바이스(351)를 이용하여 추천 목적지 또는 알림을 제공할 수도 있다. 예를 들어, 유저 디바이스(351)는 스케쥴 어플리케이션을 포함할 수도 있다.
도 2와 관련하여 상술한 바와 같이, 네비게이션 디바이스는 커뮤니케이션 유닛을 이용하여 비히클(200)에 로드된 유저 디바이스(351)와 커뮤니케이션할 수도 있다. 예를 들어, 네비게이션 디바이스는 유저 디바이스(351)로부터 스케쥴 정보를 수신할 수 있다. 예를 들어, 도 8에 도시된 바와 같이, 스케쥴 정보는 시간, 장소 및 간단한 설명을 포함할 수 있다. 또한, 네비게이션 디바이스는 스케쥴 정보에 기초하여 유저 디바이스(351)의 현재 또는 이후의 스케쥴에 연관된 오브젝트를 식별할 수도 있다. 예를 들어, 네비게이션 디바이스는 "농구하기"라는 스케쥴에 연관된 오브젝트로서 농구공(301)을 식별할 수도 있다.
또한, 네비게이션 디바이스는 현재 또는 이후의 스케쥴에 연관된 오브젝트가 비히클(200)에 로드되지 않으면, 오브젝트의 부재에 대한 노티피케이션을 제공할 수 있다. 예를 들어, 2014년 9월 22일 오후 4시에 유저가 비히클(200)에 탑승한다고 가정한다. 이 경우, 네비게이션 디바이스는 유저 디바이스(351)로부터 스케쥴 정보를 수신할 수 있다. 또한, 수신된 스케쥴 정보에 기초하여 연관된 오브젝트로서 농구공(301)을 식별할 수도 있다. 이 때, 식별된 오브젝트인 농구공(301)이 비히클(200)에 로드되지 않으면, 네비게이션 디바이스는 유저에게 농구공(301)을 함께 가져갈 것을 제안할 수 있다. 따라서, 유저는 향후 일정에 필요한 오브젝트를 잊지않고 가져갈 수 있다.
한편, 본 명세서를 통하여 유저 디바이스(351)와 네비게이션 디바이스는 별도의 디바이스로 묘사되었다. 그러나, 유저 디바이스(351)와 네비게이션 디바이스는 동일한 디바이스일 수도 있다. 예를 들어, 네비게이션 디바이스는 네비게이션 어플리케이션을 포함하는 모바일 폰일 수도 있다. 이 경우, 모바일 폰은 스케쥴 어플리케이션을 포함할 수도 있다. 따라서, 모바일 폰은 스케쥴 어플리케이션의 스케쥴 정보에 기초하여 도 8과 관련하여 상술한 오브젝트의 부재에 대한 노티피케이션을 제공할 수도 있다.
도 8과 관련하여 상술한 노티피케이션의 제공은 도 3 내지 도 7과 관려하여 상술한 네비게이션 디바이스의 동작들과 선택적으로 조합될 수 있다.
도 9는 일 실시예에 따른 네비게이션 디바이스의 제어 방법의 흐름도이다.
네비게이션 디바이스는 디텍팅 유닛을 이용하여 비히클에 로드된 오브텍트를 디텍트(901)하고 디텍트된 오브젝트에 포함된 속성 정보에 기초하여 디텍트된 오브젝트를 식별(902)할 수 있다. 도 2 및 도 3과 관련하여 상술한 바와 같이, 네비게이션 디바이스는 오브젝트와 커뮤니케이션 함으로써, 또는 오브젝트의 태그를 식별함으로써, 또는 비히클에 내장된 센서를 이용하여 오브젝트를 식별할 수 있다. 네비게이션 디바이스는 식별된 오브젝트가 로드된 비히클의 목적지 정보를 포함하는 식별된 오브젝트에 대한 목적지 이력을 생성(903)한다. 도 3과 관련하여 상술한 바와 같이, 네비게이션 디바이스는 다양한 방법에 기초하여 목적지 이력을 생성할 수 있다. 또한, 도 4와 관련하여 상술한 바와 같이, 네비게이션 디바이스는 목적지 이력을 분류할 수 있다. 또한, 네비게이션 디바이스는 목적지 이력이 생성된 후, 식별된 오브젝트가 비히클에 다시 로드되면, 오브젝트에 대한 목적지 이력에 기초하여 적어도 하나의 추천 목적지를 제공(904)할 수 있다. 도 3과 관련하여 상술한 바와 같이, 하나 또는 복수의 추천 목적지가 제공될 수 있다. 또한, 네비게이션 디바이스는 추천 목적지를 비히클의 목적지로서 설정할 수도 있다. 아울러, 도 9의 네비게이션 디바이스의 제어 방법은 도 3 내지 도 8과 관련하여 상술한 네비게이션 디바이스의 동작들과 선택적으로 조합될 수 있다. 또한, 본 명세서의 네비게이션 디바이스의 제어 방법은 도 1 및 도 2와 관련하여 상술한 네비게이션 디바이스에 의하여 수행될 수 있다.
본 명세서에 따른 네비게이션 디바이스 및 그 제어 방법은 상술한 실시 예들의 구성과 방법으로 한정되어 적용되는 것이 아니라, 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 다양한 변형이 이루어질 수 있다.
한편, 본 명세서의 네비게이션 디바이스 및 그 제어 방법은 네비게이션 디바이스에 구비된 프로세서가 읽을 수 있는 기록 매체에 소프트웨어로서 구현되는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 명세서의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
-
본 발명은 단말 장치에서 사용 가능하고 반복 가능성이 있는 산업상 이용가능성이 있다.

Claims (21)

  1. 네비게이션 디바이스로서,
    적어도 하나의 이미지를 디스플레이하고, 터치 입력을 수신하는 디스플레이 유닛;
    상기 네비게이션 디바이스의 위치를 결정하는 위치 결정 유닛;
    비히클(vehicle)에 로드(load)된 적어도 하나의 오브젝트를 디텍트하는 디텍팅 유닛; 및
    상기 디스플레이 유닛, 상기 위치 결정 유닛 및 상기 디텍팅 유닛을 제어하는 프로세서를 포함하고,
    각각의 상기 적어도 하나의 오브젝트는 속성 정보를 포함하고,
    상기 네비게이션 디바이스는 상기 비히클에 로드되며,
    상기 프로세서는,
    디텍팅 유닛을 이용하여 상기 비히클에 로드된 오브젝트를 디텍트하고,
    상기 디텍트된 오브젝트의 속성 정보에 기초하여 상기 디텍트된 오브젝트를 식별하고,
    상기 식별된 오브젝트가 로드된 상기 비히클의 목적지 정보를 포함하는 상기 식별된 오브젝트에 대한 목적지 이력을 생성하고,
    상기 목적지 이력이 생성된 후, 상기 식별된 오브젝트가 상기 비히클에 다시 로드되면, 상기 오브젝트에 대한 상기 목적지 이력에 기초하여 적어도 하나의 추천 목적지를 제공하는, 네비게이션 디바이스.
  2. 제 1 항에 있어서,
    상기 적어도 하나의 추천 목적지는, 상기 식별된 오브젝트에 대한 상기 목적지 이력 내의 목적지들의 방문 빈도에 기초하여 분류되는, 네비게이션 디바이스.
  3. 제 2 항에 있어서,
    상기 프로세서는,
    상기 식별된 오브젝트에 대한 상기 목적지 이력 내의 목적지들 중 가장 방문 빈도가 높은 목적지를 상기 비히클의 목적지로서 설정하는, 네비게이션 디바이스.
  4. 제 1 항에 있어서,
    상기 적어도 하나의 추천 목적지는, 상기 식별된 오브젝트에 대한 상기 목적지 이력 내의 목적지들의 마지막 방문 날짜에 기초하여 분류되는, 네비게이션 디바이스.
  5. 제 1 항에 있어서,
    상기 적어도 하나의 추천 목적지는, 상기 네비게이션 디바이스의 위치에 기초하여 분류되는, 네비게이션 디바이스.
  6. 제 1 항에 있어서,
    상기 프로세서는,
    상기 목적지 이력이 생성된 후, 상기 식별된 오브젝트가 상기 비히클에 로드되면, 상기 식별된 오브젝트의 상기 속성 정보 및 상기 네비게이션 디바이스의 위치에 기초하여 적어도 하나의 추가 추천 목적지를 제공하는, 네비게이션 디바이스.
  7. 제 6 항에 있어서,
    상기 프로세서는,
    상기 속성 정보에 기초하여 상기 식별된 오브젝트의 유형을 결정하고,
    상기 네비게이션 디바이스의 위치로부터 기설정된 거리 내에 존재하는 상기 식별된 오브젝트의 상기 유형에 대응하는 적어도 하나의 위치를 상기 적어도 하나의 추가 추천 목적지로서 제공하는, 네비게이션 디바이스.
  8. 제 1 항에 있어서,
    상기 프로세서는,
    상기 비히클의 목적지를 설정하는 인터페이스를 상기 디스플레이 유닛 상에 제공하는, 네비게이션 디바이스.
  9. 제 8 항에 있어서,
    상기 프로세서는,
    상기 인터페이스에 대한 입력에 기초하여 목적지를 설정하고,
    상기 설정된 목적지가 상기 식별된 오브젝트에 대한 상기 목적지 이력 내에 존재하고, 상기 식별된 오브젝트가 상기 비히클에 로드되지 않으면, 상기 식별된 오브젝트의 부재에 대한 노티피케이션을 제공하는, 네비게이션 디바이스.
  10. 제 1 항에 있어서,
    상기 디텍팅 유닛은 상기 오브젝트로부터 상기 오브젝트의 속성 정보를 포함하는 신호를 수신하는, 네비게이션 디바이스.
  11. 제 1 항에 있어서,
    상기 프로세서는,
    상기 오브젝트로부터 수신된 신호의 세기 및 상기 오브젝트의 응답 시간 중 적어도 하나에 기초하여 상기 오브젝트가 상기 비히클에 로드되었거나 상기 비히클로부터 언로드(unload)되었는지를 결정하는, 네비게이션 디바이스.
  12. 제 11 항에 있어서,
    상기 프로세서는,
    상기 오브젝트가 상기 비히클에 로드된 제1 위치 및 상기 오브젝트가 상기 비히클로부터 언로드된 제2 위치에 기초하여 상기 오브젝트에 대한 상기 목적지 이력을 생성하는, 네비게이션 디바이스.
  13. 제 12 항에 있어서,
    상기 프로세서는,
    상기 오브젝트가 상기 비히클에 로드되고, 상기 네비게이션 디바이스가 상기 제1 위치로부터 상기 제2 위치로 이동되면, 상기 제2 위치에 도착한 후 상기 오브젝트의 언로드에 대한 노티피케이션을 제공하는, 네비게이션 디바이스.
  14. 제 1 항에 있어서,
    상기 디텍팅 유닛은 상기 비히클에 구비된 적어도 하나의 오브젝트 센서와 커뮤니케이션하고,
    상기 프로세서는,
    상기 적어도 하나의 오브젝트 센서로부터 수신되는 신호에 기초하여 상기 오브젝트가 상기 비히클에 로드되었거나 상기 비히클로부터 언로드되었는지를 결정하는, 네비게이션 디바이스.
  15. 제 1 항에 있어서,
    유저 디바이스와 커뮤니케이션하는 커뮤니케이션 유닛을 더 포함하고,
    상기 프로세서는,
    상기 비히클에 로드된 상기 유저 디바이스로부터 스케쥴 정보를 수신하고,
    상기 스케쥴 정보에 기초하여 상기 유저 디바이스의 현재 또는 이후의 스케쥴에 연관된 오브젝트를 식별하는, 네비게이션 디바이스.
  16. 제 15 항에 있어서,
    상기 현재 또는 이후의 스케쥴에 연관된 오브젝트가 상기 비히클에 로드되지 않으면, 상기 오브젝트의 부재에 대한 노티피케이션을 제공하는, 네비게이션 디바이스.
  17. 네비게이션 디바이스의 제어 방법으로서,
    디텍팅 유닛을 이용하여 비히클(vehicle)에 로드(load)된 오브젝트를 디텍팅하는 단계;
    디텍트된 오브젝트에 포함된 속성 정보에 기초하여 상기 디텍트된 오브젝트를 식별하는 단계;
    상기 식별된 오브젝트가 로드된 상기 비히클의 목적지 정보를 포함하는 상기 식별된 오브젝트에 대한 목적지 이력을 생성하는 단계; 및
    상기 목적지 이력이 생성된 후, 상기 식별된 오브젝트가 상기 비히클에 다시 로드되면, 상기 오브젝트에 대한 상기 목적지 이력에 기초하여 적어도 하나의 추천 목적지를 제공하는 단계를 포함하는, 네비게이션 디바이스의 제어 방법.
  18. 제 17 항에 있어서,
    상기 적어도 하나의 추천 목적지는, 상기 식별된 오브젝트에 대한 상기 목적지 이력 내의 목적지들의 방문 빈도에 기초하여 분류되는, 네비게이션 디바이스의 제어 방법.
  19. 제 17 항에 있어서,
    상기 적어도 하나의 추천 목적지는, 상기 식별된 오브젝트에 대한 상기 목적지 이력 내의 목적지들의 마지막 방문 날짜에 기초하여 분류되는, 네비게이션 디바이스의 제어 방법.
  20. 제 17 항에 있어서,
    위치 결정 유닛을 이용하여 상기 네비게이션 디바이스의 위치를 결정하는 단계; 및
    상기 목적지 이력이 생성된 후, 상기 식별된 오브젝트가 상기 비히클에 로드되면, 상기 식별된 오브젝트의 상기 속성 정보 및 상기 네비게이션 디바이스의 위치에 기초하여 적어도 하나의 추가 추천 목적지를 제공하는 단계를 더 포함하는, 네비게이션 디바이스의 제어 방법.
  21. 제 17 항에 있어서,
    유저로부터 상기 비히클의 목적지를 수신하는 단계; 및
    상기 수신된 목적지가 상기 식별된 오브젝트에 대한 상기 목적지 이력에 포함되고, 상기 식별된 오브젝트가 상기 비히클에 로드되지 않으면, 상기 식별된 오브젝트의 부재에 대한 노티피케이션을 상기 유저에게 제공하는 단계를 더 포함하는, 네비게이션 디바이스의 제어 방법.
PCT/KR2014/009912 2014-10-22 2014-10-22 네비게이션 디바이스 및 그 제어 방법 WO2016063999A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020177013032A KR102224491B1 (ko) 2014-10-22 2014-10-22 네비게이션 디바이스 및 그 제어 방법
PCT/KR2014/009912 WO2016063999A1 (ko) 2014-10-22 2014-10-22 네비게이션 디바이스 및 그 제어 방법
US15/129,107 US20180003519A1 (en) 2014-10-22 2014-10-22 Navigation device and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2014/009912 WO2016063999A1 (ko) 2014-10-22 2014-10-22 네비게이션 디바이스 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2016063999A1 true WO2016063999A1 (ko) 2016-04-28

Family

ID=55761029

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/009912 WO2016063999A1 (ko) 2014-10-22 2014-10-22 네비게이션 디바이스 및 그 제어 방법

Country Status (3)

Country Link
US (1) US20180003519A1 (ko)
KR (1) KR102224491B1 (ko)
WO (1) WO2016063999A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090046538A1 (en) * 1995-06-07 2009-02-19 Automotive Technologies International, Inc. Apparatus and method for Determining Presence of Objects in a Vehicle
US20100079256A1 (en) * 2008-09-29 2010-04-01 Avaya Inc. Monitoring Responsive Objects in Vehicles
KR20110130570A (ko) * 2010-05-28 2011-12-06 권영택 네비게이션단말기를 이용한 택배화물 배송방법
JP2013180634A (ja) * 2012-03-01 2013-09-12 Panasonic Corp 車載用電子機器とそれを搭載した自動車
KR20140031611A (ko) * 2012-09-05 2014-03-13 김동석 택배화물 배송시스템 및 이를 이용한 택배화물 배송방법

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6832092B1 (en) * 2000-10-11 2004-12-14 Motorola, Inc. Method and apparatus for communication within a vehicle dispatch system
US6974928B2 (en) * 2001-03-16 2005-12-13 Breakthrough Logistics Corporation Method and apparatus for efficient package delivery and storage
US6484094B1 (en) * 2002-02-19 2002-11-19 Alpine Electronics, Inc. Display method and apparatus for navigation system
CN1914633A (zh) * 2004-01-28 2007-02-14 Ww格兰杰有限公司 用于管理订货商品配送的系统和方法
US7136747B2 (en) * 2005-01-08 2006-11-14 Stephen Raney Method for GPS carpool rendezvous tracking and personal safety verification
KR20080022864A (ko) * 2006-09-08 2008-03-12 김도환 명함을 이용한 네비게이션 시스템
KR100835319B1 (ko) * 2007-02-06 2008-06-04 엘지전자 주식회사 네비게이션 장치 및 이의 주유소 검색 및 표시방법
JP2012502861A (ja) * 2008-07-15 2012-02-02 カルメル コンテナ システムズ リミテッド フォークリフトのツメにrfidリーダを搭載したスマート・ロジスティック・システム
KR101061836B1 (ko) * 2009-01-07 2011-09-02 이선영 유체 도난 감시시스템
KR20110041669A (ko) * 2009-10-16 2011-04-22 (주)한국공간정보통신 Rfid 기술을 이용하는 내비게이션 장치 및 이의 동작 방법
KR101077054B1 (ko) * 2011-05-13 2011-10-26 주식회사 모리아타운 길 안내 서비스 시스템 및 방법
US20140378159A1 (en) * 2013-06-24 2014-12-25 Amazon Technologies, Inc. Using movement patterns to anticipate user expectations

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090046538A1 (en) * 1995-06-07 2009-02-19 Automotive Technologies International, Inc. Apparatus and method for Determining Presence of Objects in a Vehicle
US20100079256A1 (en) * 2008-09-29 2010-04-01 Avaya Inc. Monitoring Responsive Objects in Vehicles
KR20110130570A (ko) * 2010-05-28 2011-12-06 권영택 네비게이션단말기를 이용한 택배화물 배송방법
JP2013180634A (ja) * 2012-03-01 2013-09-12 Panasonic Corp 車載用電子機器とそれを搭載した自動車
KR20140031611A (ko) * 2012-09-05 2014-03-13 김동석 택배화물 배송시스템 및 이를 이용한 택배화물 배송방법

Also Published As

Publication number Publication date
KR20170072258A (ko) 2017-06-26
KR102224491B1 (ko) 2021-03-08
US20180003519A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
CN107172590B (zh) 基于移动终端的活动状态信息处理方法、装置及移动终端
US20170091335A1 (en) Search method, server and client
WO2015016569A1 (en) Method and apparatus for constructing multi-screen display
WO2014073850A1 (en) Method and apparatus for managing message in electronic device
US9241242B2 (en) Information recommendation method and apparatus
WO2019061443A1 (zh) 一种通知显示方法及终端
WO2014163330A1 (en) Apparatus and method for providing additional information by using caller phone number
CN107305493A (zh) 具有集成搜索的图形键盘应用
CN108701137A (zh) 键盘内的图标建议
CN106104528A (zh) 用于屏幕上项目选择和消歧的基于模型的方法
KR20160021637A (ko) 컨텐츠 처리 방법 및 그 전자 장치
CN106294308B (zh) 命名实体识别方法及装置
CN105606118B (zh) 导航装置、用于输入位置给导航装置的系统,以及用于从终端输入位置给导航装置的方法
WO2017146327A1 (en) System and method for locating an occupant within a vehicle
CN109489674B (zh) 基于位置确定路段的方法、装置及存储介质
WO2019235653A1 (ko) 근거리 무선 통신을 기반으로 근처 지인을 파악하기 위한 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체
CN108151716A (zh) 飞行装置测绘作业区域规划方法、装置和终端
CN107341226B (zh) 信息展示方法、装置及移动终端
WO2013125785A1 (en) Task performing method, system and computer-readable recording medium
WO2016108336A1 (en) Pen type multimedia device for processing image data by using handwriting input and method for controlling the same
WO2015109992A1 (en) Information retrieval method, apparatus and system
WO2016063999A1 (ko) 네비게이션 디바이스 및 그 제어 방법
WO2013115493A1 (en) Method and apparatus for managing an application in a mobile electronic device
CN108270660A (zh) 消息的快捷回复方法及装置
KR20140127948A (ko) 승하차 관리 방법, 이를 위한 장치 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14904283

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15129107

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20177013032

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 14904283

Country of ref document: EP

Kind code of ref document: A1