WO2005064275A1 - ナビゲーション装置 - Google Patents

ナビゲーション装置 Download PDF

Info

Publication number
WO2005064275A1
WO2005064275A1 PCT/JP2004/018896 JP2004018896W WO2005064275A1 WO 2005064275 A1 WO2005064275 A1 WO 2005064275A1 JP 2004018896 W JP2004018896 W JP 2004018896W WO 2005064275 A1 WO2005064275 A1 WO 2005064275A1
Authority
WO
WIPO (PCT)
Prior art keywords
destination
unit
user
route
area
Prior art date
Application number
PCT/JP2004/018896
Other languages
English (en)
French (fr)
Inventor
Tomohiro Terada
Nobuyuki Nakano
Ryoutarou Iwami
Takeshi Takahashi
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2005516569A priority Critical patent/JPWO2005064275A1/ja
Priority to EP04807254A priority patent/EP1698859A4/en
Priority to US10/583,873 priority patent/US20070156331A1/en
Publication of WO2005064275A1 publication Critical patent/WO2005064275A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • G08G1/096827Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route where the route is computed onboard
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096833Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route
    • G08G1/096844Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route where the complete route is dynamically recomputed based on new data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096877Systems involving transmission of navigation instructions to the vehicle where the input to the navigation device is provided by a suitable I/O arrangement
    • G08G1/096894Systems involving transmission of navigation instructions to the vehicle where the input to the navigation device is provided by a suitable I/O arrangement where input is assisted by the navigation device, i.e. the user does not type the complete name of the destination, e.g. using zip codes, telephone numbers, progressively selecting from initial letters

Definitions

  • the present invention relates to a navigation device, and more particularly, to a navigation device that guides a user to a destination according to a searched route.
  • a navigation device that sets the destination in an interactive manner with the user (hereinafter, referred to as a first navigation in the background art section).
  • the first navigation device recognizes a user's operation instruction voice by using a voice recognition engine with reference to a voice recognition dictionary, and prunes unnecessary parts from the voice recognition tree configuration data.
  • the first navigation device estimates the user's intention from the remaining branches in the speech recognition tree configuration data, and outputs destination candidates to the user.
  • the first navigation device outputs a voice prompting any of the selection results (for example, see Japanese Patent Application Laid-Open No. 2001-249685).
  • the following navigation device (hereinafter, referred to as a second navigation device in the background art section) is also provided so that a user can quickly depart to a destination without the hassle of setting a destination. Proposed.
  • the conventional navigation device repeatedly extracts, from the map data, the names of administrative divisions that are at least a certain distance from the vehicle, and repeatedly displays on the screen a direction name button on which the extracted administrative division names are displayed.
  • the conventional navigation device when the user presses the direction name button displayed on the screen, the representative point of the administrative division displayed on the currently operated direction name button is set as a temporary destination. I do.
  • the conventional navigation device searches for a route to the set temporary destination and provides guidance according to the searched route (for example, Japanese Patent Application Laid-Open No. 2002-122435). Report).
  • the first navigation device is capable of interacting with the user to set a destination.
  • the first navigation device requires a small amount of interaction with the user and has a specific function. Deriving a destination is difficult. Therefore, interaction with the user is made to some extent many, As a result, the user is s problems force that can not be starting in quite towards the destination.
  • the second navigation device is configured so that a user can immediately depart to a destination by displaying a direction name button.
  • the second navigation device requires that the user not select the direction button properly before reaching the destination, i.e., which way is better to reach the destination If the user does not know it correctly in advance, a route that can reach the destination in the shortest time or the shortest distance cannot be provided.
  • the second navigation device provides the appropriate guidance. Can not provide.
  • the second navigation device has a problem in that it may provide inappropriate guidance for the user.
  • an object of the present invention is to provide a navigation device that allows a user to immediately depart to a destination and guide the user according to an appropriate route to the destination.
  • the navigation device includes: an area input unit that allows a user to input an area around a destination; A route search unit that searches for a direction and a route to the area input to the input unit; and a first guide that guides the user toward the area input to the area input unit according to the route searched by the route search unit. And after the guidance by the first guide has started, A destination specifying unit that specifies the user's destination in a dialogue with the user, a route selecting unit that selects a route to the destination specified by the destination specifying unit, and a route that is selected by the route selecting unit And a second guide unit for guiding the user to the destination specified by the destination specifying unit.
  • the destination specifying unit is a question output unit that creates and outputs a question that can be answered by the user alternatively, and an answer input unit that receives an answer to the question output by the question output unit. And specifies the destination of the user according to the answer input to the answer input unit.
  • the question output unit preferably outputs the question created by itself when the moving speed of the user is equal to or lower than a predetermined reference value.
  • the question output from the question output unit and the answer input to the answer input unit are voices.
  • the destination specifying unit derives the current position of the user, and then, based on the area input to the area input unit and the current position derived by itself. To set a temporary destination.
  • the route selecting unit selects a route to the temporary destination set by the destination specifying unit.
  • the destination specifying unit preferably sets the representative position closest to the current position derived by itself to a temporary position. Select as destination.
  • the destination specifying unit preferably updates the temporary destination until the route selecting unit can search the route.
  • the route search unit is preferably configured to set each representative position set in the area input to the area input unit. Search for multiple routes to.
  • the first guide unit guides the user according to each route searched by the route search unit.
  • the destination specifying unit specifies any of a plurality of representative positions set in the area input to the area input unit as a destination of the user.
  • the route selection unit selects a route toward the destination specified by the destination specification unit from among the plurality of routes searched by the route search unit.
  • the destination specifying unit sets a point, which is a predetermined distance from the end point of the overlapped section in the plurality of routes searched by the route searching unit in the user's direction, as a question output point.
  • a question output section for outputting a question to the user based on the question output point determined by the point setting section, and an answer input section for receiving an answer to the question output from the question output section. Then, the destination of the user is specified according to the answer input to the answer input unit.
  • a second aspect of the present invention is directed to a navigation method.
  • the navigation method includes an area obtaining step of obtaining an area around a destination of a user according to a user input, and an area obtaining step.
  • Route selecting step and following the route selected in the route selecting step, traveling to the destination specified in the destination specifying step. And a second scheme in the step of guiding the user Te.
  • a third aspect of the present invention is directed to a computer program for guiding a user to a destination, and the computer program changes an area around the user's destination according to a user's input.
  • the route search step to search for a route heading to the area acquired in the area acquisition step, and a user who is directed to the area acquired in the area acquisition step according to the route searched in the route search step.
  • a destination identification step of identifying the user's destination in an interactive manner with the user
  • a destination identification step A route selection step of selecting a route to the destination, and an eyeball according to the route selected in the route selection step.
  • a second guide step of guiding the user toward the destination identified by the land identifying step.
  • the computer program is exemplarily recorded on a storage medium.
  • the navigation device when an area is input by the user, the navigation device starts to guide the user in the direction of the input area for the time being. After the guidance in the area direction is started, the navigation device specifies the user's destination in an interactive manner, selects a heading route to the specified destination, and guides the user according to the selected route. . By starting guidance for the area entered after inputting the area in this way, the user can immediately depart for the destination, and after starting guidance for the area, identify the destination By providing guidance to the specified destination, the navigation device can guide the user according to an appropriate route to the destination.
  • FIG. 1 is a block diagram showing a functional configuration of a navigation device according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a hardware configuration of the navigation device shown in FIG. 1.
  • FIG. 3 is a schematic diagram illustrating a data structure of a place name database stored in a map storage unit 2 shown in FIG. 1 or 2.
  • FIG. 4 is a schematic diagram illustrating a data structure of a genre database stored in a map storage unit 2 shown in FIG. 1 or 2.
  • FIG. 5 is a schematic diagram showing a logical data structure of an alternative example of map information including both databases shown in FIGS. 4 and 5.
  • FIG. 6 is a main flowchart showing a processing procedure of the navigation device.
  • FIG. 7 is a flowchart showing a detailed processing procedure of step S105 shown in FIG.
  • FIG. 8 is a flowchart showing a detailed processing procedure of step S205 shown in FIG. 7.
  • FIG. 9 is a flowchart showing a detailed processing procedure of step S209 shown in FIG. The
  • FIG. 10 is a flowchart showing a detailed processing procedure of step S214 shown in FIG.
  • FIG. 11 is a schematic diagram showing a temporary destination set in step S506 shown in FIG.
  • FIG. 12 is a flowchart showing a detailed processing procedure of step S507 shown in FIG.
  • FIG. 13 is a flowchart showing a detailed processing procedure of step S508 shown in FIG.
  • FIG. 14 is a block diagram showing a functional configuration of a navigation device according to a second embodiment of the present invention.
  • FIG. 15 is a block diagram showing a hardware configuration of the navigation device shown in FIG.
  • FIG. 16 is a main flowchart showing a processing procedure of the arithmetic processing unit 7 shown in FIGS. 14 and 15.
  • FIG. 17 is a schematic diagram showing processing contents of the arithmetic processing unit 7 shown in FIG. 14 and FIG.
  • FIG. 18 is a flowchart showing a detailed processing procedure of step S805 shown in FIG.
  • FIG. 19 is a flowchart showing a detailed processing procedure of step S808 shown in FIG.
  • FIG. 20 is a flowchart showing a detailed processing procedure of step S812 shown in FIG.
  • FIG. 1 is a block diagram showing a functional configuration of the navigation device according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a hardware configuration of the navigation device shown in FIG.
  • the navigation device is mounted on a mobile object such as a vehicle, a mobile phone, or a PDA (Personal Digital Assistant), and includes an information input unit 1, a map storage unit 2, and a navigation unit.
  • the vehicle includes a vehicle position / posture detection unit 3, an arithmetic processing unit 4, and an information output unit 5.
  • the information input unit 1 is operated by a user of the above-mentioned moving body. The user enters the information input section
  • Operate 1 to enter various information As one of various types of information, enter the area required for processing of this navigation device. Here, the area can be input by the user and has a certain size.
  • the information input unit 1 includes a microphone 11 for a user to input information by voice. Instead of the microphone 11, the information input unit 1 may include a keyboard (not shown) for the user to input characters.
  • the information input unit 1 is assigned the functions of the navigation device and additionally includes buttons that can be operated by the user with his / her finger.
  • the map storage unit 2 stores map information.
  • the map storage unit 2 includes a node disk 21 and a disk control unit 22.
  • the hard disk 21 records at least digital map information.
  • the disk control unit 22 controls writing of information to the hard disk 21 or reading of information from the hard disk 21.
  • the map storage unit 2 may include a CD-ROM, a DVD, or another recording medium instead of the hard disk 21.
  • the map information stored in the map storage unit 2 includes a database described below in addition to the data included in the known map information.
  • FIG. 3 is a schematic diagram showing an example of a data structure of a place name database (hereinafter, referred to as place name DB) included in the map information.
  • the place name DB includes a plurality of first information sets each including at least one place name, area level, and landmark data.
  • a place name may be a relatively large administrative division such as a prefecture (for example, A prefecture), a small administrative division such as a municipal (for example, B ⁇ , C town), or a street number (for example, M)
  • a prefecture for example, A prefecture
  • a small administrative division such as a municipal (for example, B ⁇ , C town)
  • a street number for example, M
  • M This is the name of an area that can include the location of shoes and shoes (to be described later), such as the name of address N) or other areas (hereinafter referred to as other areas).
  • a representative point hereinafter, referred to as a representative point
  • representative position information for example, a combination of latitude coordinates and longitude coordinates
  • the other area is, for example, a relatively large area that cannot be represented as an administrative division and cannot be represented by a single representative location information, such as around Lake D or Mountain E.
  • the place name DB is configured so that the inclusion relation can be specified.
  • the first information set created for some small administrative divisions included in a large administrative division is the first information set created for the target large administrative division. It is recorded in a logically related recording area (in the example of FIG. 3, a logically continuous recording area).
  • the first information set created for an address included in a certain small-scale administrative division is a recording area logically related to the first information set of the target small-scale administrative division (in the example of FIG. 3, , Logically continuous recording areas).
  • the area level is information indicating the extent of the area name (area) included in the same first information set.
  • the large-scale administrative division is assigned an area level of “Large” indicating that it is wider than the small-scale administrative division.
  • small-scale administrative divisions are assigned an area level of “Medium”, which indicates that they are smaller than large-scale administrative divisions.
  • the address is assigned an area level of "Small” indicating that the area is smaller than the small administrative division.
  • the other areas include the above-mentioned “Area”, which indicates that the area is a large area as described above and does not belong to any of the large-scale administrative divisions, small-scale administrative divisions, and addresses. Information is assigned.
  • the landmark data includes the names of the landmarks located in the other area described above and the landmarks. This is data indicating the representative position. For example, assume that there is a convenience store F and an observatory G at mountain E as one of the other areas. Under this assumption, along with the other areas, the first information set includes, as landmark data, information indicating the name of the convenience store F and its representative position, and information indicating the name of the observatory G and its representative position. It is.
  • FIG. 4 is a schematic diagram showing an example of a data structure of a genre database (hereinafter, referred to as a genre DB) included in the map information.
  • the genre DB includes a plurality of second information sets including a POI (Point Of Interest) and a predetermined number of genre flags (in FIG. 4, five genre flags are illustrated).
  • P ⁇ I means the name of a single point represented by a representative point, which is different from the above-mentioned place name (area).
  • FIG. 4 shows a store H, a store I, a store J, and a store K as P ⁇ I.
  • the above-mentioned Jiannore flag is information indicating what genre a point included in the same second information set belongs to.
  • a genre flag is a convenience store flag indicating whether or not the target point is a convenience store, a liquor store flag indicating whether or not it handles alcohol, and a liquor store flag indicating that the target point is a convenience store.
  • “1” is a positive value.
  • FIG. 5 is a schematic diagram showing a logical data structure of an alternative example of the map information including both DBs described above.
  • the name of a large-scale administrative division for example, prefecture A
  • another area for example, mountain E
  • small-scale administrative divisions for example, B ⁇
  • Logical links are established in the order of small administrative divisions (eg, town C) and P ⁇ I or landmarks (eg, store H or observation deck G).
  • the vehicle position / posture detection unit 3 includes a GPS receiver 31, a gyro sensor 32, and a vehicle speed sensor 33 in the present embodiment, for example, in order to detect the current position and Z or posture of the vehicle.
  • the GPS receiver 31 is based on the satellite information and the received information contained in the GPS (Global Positioning System). Then, the absolute position of the vehicle on the earth is calculated and output to the arithmetic processing unit 4.
  • the gyro sensor 32 is installed in the vehicle, detects a direction in which the vehicle is currently traveling, and outputs the detected direction to the arithmetic processing unit 4.
  • the vehicle speed sensor 33 is installed in the vehicle, detects the speed at which the vehicle is currently moving, and outputs the detected speed to the arithmetic processing unit 4.
  • the navigation device employs both the radio navigation and the autonomous navigation, that is, the force that adopts the hybrid navigation.
  • the navigation device may employ only the radio navigation or the autonomous navigation.
  • the vehicle position / posture detection unit 3 may include a receiver (for example, a Galileo or Glonass receiver) for realizing other radio navigation instead of the GPS receiver 31.
  • the arithmetic processing section 4 performs a destination specifying process unique to the present embodiment. Specifically, when the user inputs a surrounding area including his / her destination through the information input unit 1, the arithmetic processing unit 4 first searches for a heading route in the input area, and searches After the guidance is started according to the route, question data indicating a question relating to the destination to the user is created and output from the information output unit 5. The user responds to the question output from the information output unit 5 using the information input unit 1, and the information input unit 1 generates answer data representing the input answer, and sends the answer data to the arithmetic processing unit 4. Output.
  • the arithmetic processing unit 4 attempts to specify a destination (that is, the above-mentioned point) based on the answer data obtained from the information input unit 1.
  • the arithmetic processing unit 4 performs such a routine at least once, and thereby the destination is specified.
  • the navigation device 1 specifies the destination in a dialogue with the user.
  • the arithmetic processing unit 4 searches for a route from the starting point of the vehicle to the specified destination or a tentative destination described later, using the map information stored in the map storage unit 2.
  • a well-known algorithm such as the Dijkstra method, is used for the route search algorithm.
  • the arithmetic processing unit 4 may use the information input by the user operating the information input unit 1 or use the current position of the vehicle calculated by the hybrid navigation, for example. May be.
  • the arithmetic processing unit 4 creates guidance information necessary for guiding the vehicle toward the destination based on the searched route.
  • guidance information a known one used. A specific example of the guidance information will be described.
  • On the search route there is an intersection or a junction where the vehicle should make a right or left turn.
  • the guidance information is typically voice data that has a content such as " ⁇ m right turn" at 700m, 300m, 100m and 10m before the intersection or junction.
  • the proposed information preferably includes information on landmarks existing near the target intersection or junction. With such landmark information, it is possible for the user to provide guidance at an intersection or a junction with ease.
  • the arithmetic processing unit 4 as described above includes a ROM 44, a CPU 45, and a RAM 46, as shown in FIG.
  • the ROM 44 stores a computer program in which the operation procedure of the CPU 45 is defined.
  • the CPU 45 performs various processes according to the computer program stored in the ROM 44.
  • the RAM 46 is used as a work area while the CPU 45 is processing.
  • the information output unit 5 outputs audio and / or images in accordance with various data or various information generated by the arithmetic processing unit 4.
  • the information output unit 5 includes a display 51 for displaying an image and a speed 52 for outputting a sound.
  • the navigation device may be provided with only one of the display 51 and the speaker 52, or only one of them.
  • FIG. 6 is a main flowchart showing a processing procedure of the navigation device.
  • the power of the navigation device is turned on (step S101).
  • the power of the navigation device be turned on when the accessory power supply of the vehicle is turned on.
  • the arithmetic processing unit 4 determines whether or not to continue the processing (step S102). Specifically, the arithmetic processing unit 4 causes the information output unit 5 to output a voice or an image in order to ask the user whether or not to use the navigation device. Specifically, a voice or image having the content "Do you want to guide you to the destination?" When a response is input from the user, the information input unit 1 outputs an electrical signal (hereinafter, referred to as an answer signal) indicating the content of the answer to the arithmetic processing unit 4. Arithmetic processing unit 4 If the answer signal transmitted from the information input unit 1 indicates No, it is determined in step S102 that the processing shown in FIG.
  • the arithmetic processing unit 4 causes the information output unit 5 to output a voice or an image in order to prompt the input of the destination (step S103). Specifically, a voice or image having the content "Please input the destination” is output.
  • a voice or image having the content "Please input the destination by voice” is output. Is preferred.
  • the user When prompted to input a destination in step S103, the user operates the information input unit 1 to input the destination.
  • the input destination may be the point defined above, or may be the area defined above.
  • the information input unit 1 transfers such an input destination to the RAM 46 (see FIG. 2) of the arithmetic processing unit 4 (step S104).
  • the microphone 11 picks up the destination uttered by the user as voice, and digitally represents the voice picked up.
  • the signal is converted to a signal and output to the arithmetic processing unit 4.
  • the combination of steps S103 and S104 allows the user to input a destination without releasing the hand from the steering wheel.
  • the information input unit 1 outputs a digital signal representing the manually input destination to the arithmetic processing unit 4.
  • step S105 the arithmetic processing unit 4 performs a destination specifying process.
  • FIG. 7 is a flowchart showing a detailed processing procedure of step S105.
  • the arithmetic processing unit 4 determines whether or not the temporary destination flag is set to ON (step S201).
  • the temporary destination flag is automatically turned off by the arithmetic processing unit 4 immediately after the power is turned on. The details of the temporary destination flag and the processing after the determination in Step S201 is Yes will be described later.
  • step S201 When step S201 is performed for the first time after the power is turned on, the arithmetic processing unit 4 determines No in this step. In this case, the arithmetic processing unit 4 acquires the destination stored in the RAM 46 (Step S202). When the destination is transferred from the microphone 11 to the RAM 46, the RAM 46 generally stores a digital audio signal. In this case, The CPU 45 converts the digital audio data into text data (character data) representing the destination because the various search processes cannot be performed.
  • the arithmetic processing unit 4 searches for a genre DB (see FIG. 4) (step S203). Specifically, based on the genre flag of the genre DB, the arithmetic processing unit 4 determines whether or not P ⁇ I along the genre of the destination acquired this time is in the genre DB (step S204). ). In other words, the arithmetic processing unit 4 determines whether or not the POI for which the genre flag corresponding to the destination Jiannore is set to “1” is registered in the genre DB. As a specific example, for example, it is assumed that the destination acquired this time is a “convenience store”. Under this assumption, it is determined whether there is a convenience store flag set to “1”. Step S204 is performed in the same manner when a destination belonging to another genre is acquired.
  • step S204 the arithmetic processing unit 4 performs a process of specifying a destination based on Giannore (step S205). Specifically, in this step, the arithmetic processing unit 4 attempts to specify a destination required in the subsequent processing by using various genre flags of the genre DB from the destination acquired this time.
  • FIG. 8 is a flowchart showing a detailed processing procedure of step S205.
  • the arithmetic processing unit 4 selects all POIs for which a target genre flag is set from the genre DBs as destination candidates (step S301).
  • the subject genre flag is the one used in step S204.
  • the arithmetic processing unit 4 derives the current position of the vehicle from the output information of the own vehicle position / posture detection unit 3 (Step S302).
  • step S303 a candidate for a destination located on the traveling lane side of the vehicle is selected.
  • the arithmetic processing unit 4 executes the "route search using this destination candidate" in order to confirm whether or not the destination candidate selected in step S303 may be used in subsequent processing.
  • audio data with the question of “Do you want to (Referred to as first question data) (step S304).
  • a voice message indicating whether or not to search for a route using this destination candidate (POI) is displayed. It is preferable from the viewpoint of safe driving that the first question data representing the contents of the vehicle be created. In other words, this allows the user to make an answer without releasing the hand from the steering wheel of the vehicle.
  • the arithmetic processing unit 4 creates the first question data by adding only the POI portion to the natural voice phrase or image data stored in the map storage unit 2 in advance.
  • the information output unit 5 receives the question data as described above, and outputs a sound or an image representing the content of the received question data (step S305). As a result, the navigation device prompts the user for an answer. In response to the question, the user operates the information input unit 1 to answer. The information input unit 1 transfers the input answer to the arithmetic processing unit 4 (Step S306).
  • the microphone 11 constituting the information input unit 1 picks up the user's answer voice in step S306, and represents the picked-up voice.
  • the signal is converted into a digital signal and output to the arithmetic processing unit 4.
  • the information input unit 1 outputs a digital signal representing the manually input answer to the arithmetic processing unit 4.
  • the processing unit 4 determines whether or not the answer SYes received from the information input unit 1 means (Step S307). If determined to be Yes, the arithmetic processing unit 4 sets the candidate selected this time in step S303 as the destination used for the route search (step S308). After that, the arithmetic processing unit 4 ends the processing shown in FIG.
  • step S307 the arithmetic processing unit 4 determines whether or not to continue the destination setting processing based on the genre, by specifying the destination identification based on the genre as it is.
  • Voice data or image data having a question content of "Do you want to continue?" are generated and output from the information output unit 5 (step S309).
  • the second question data is Please input voice as to whether or not to continue the destination specification based on the file. " Note that if step S309 is repeated many times, the user is likely to feel troublesome. Therefore, the processing shown in FIG. 8 is described in a computer program in ROM 44 so that step S309 is executed only once. It's okay to be done.
  • the user operates the information input unit 1 to give a reply.
  • the information input unit 1 transfers the input answer to the arithmetic processing unit 4.
  • the user's answer may be made by voice or manually.
  • the arithmetic processing section 4 determines whether or not the answer from the information input section 1 means Yes (step S310). When the determination is No, the arithmetic processing unit 4 ends the processing shown in FIG. 8 in order to end the destination specifying processing based on the genre.
  • step S311 the arithmetic processing unit 4 counts the number of executions of step S305 (step S311), and then determines whether the count value is equal to or less than a specified value (or smaller than the specified value). Is determined (step S312). If the determination is No, the arithmetic processing unit 4 determines that the necessary destination cannot be specified in the destination specifying process based on the genre, and ends the process illustrated in FIG. Thus, it is possible to prevent a distant destination candidate from being selected by repeated destination specifying processing based on a genre, and prevent the user from feeling bothered.
  • step S312 a candidate for a destination closest to the current position of the vehicle and not selected in the past is selected (step S312). S313). Also in step S313, preferably, a candidate for a destination located on the traveling lane side of the vehicle is selected. In step S313, the destination candidate is selected based on the distance. However, the present invention is not limited to this. According to the input keyword, a destination candidate that has not been selected in the past may be selected from the destination candidates selected in step S301.
  • the arithmetic processing unit 4 performs the following steps in the same manner as described above to confirm whether the destination candidate selected in step S313 can be used in the subsequent processing. Do.
  • step S205 it is determined whether or not the destination has been set (FIG. 7; step S206). If the determination is Yes, the arithmetic processing unit 4 ends the processing shown in FIG.
  • step S207 the arithmetic processing unit 4 searches the genre DB (see FIG. 4) (step S207), and the destination acquired this time is registered as a POI in the genre DB. It is determined whether or not it has been recorded (step S208). As a specific example, for example, it is assumed that the destination acquired in step S202 this time is “Store H”. Under this assumption, it is determined whether or not the POI itself is registered in the genre DB. Step S207 is also performed when No is determined in step S204 described above. Also, when another destination is acquired, step S208 is performed in the same manner.
  • step S208 the arithmetic processing unit 4 performs a destination specifying process based on the POI (step S209). Specifically, in this step, the arithmetic processing unit 4 attempts to specify a destination that can be used in a route search, using the POI of the genre DB, from the destination acquired this time.
  • FIG. 9 is a flowchart showing a detailed processing procedure of step S209.
  • the arithmetic processing unit 4 selects all target POIs from the genre DB as candidate destinations (step S401).
  • the target POI means the one found by the search in step S207.
  • the arithmetic processing unit 4 determines whether or not only one destination candidate has been found in step S401 (step S402). If determined to be Yes, the arithmetic processing unit 4 inquires of the user whether or not to use the single destination candidate selected in step S401 in subsequent processing (step S403). This inquiry is performed in the same manner as in steps S304 and S305 described above, although the content of the audio or image differs. As a specific example, a sound such as “Set store H as the destination in the route search” is output.
  • the arithmetic processing unit 4 sets the candidate selected this time in step S401 as a destination used for the route search (step S404). After that, the arithmetic processing unit 4 ends the processing shown in FIG.
  • step S402 If it is determined in step S402 that there is one or more destination candidates, the arithmetic processing unit 4 The current position of the vehicle is derived from the output information of the vehicle position / posture detection unit 3 (step S405).
  • the arithmetic processing unit 4 selects a destination candidate closest to the current position from the destination candidates selected in step S401 (step S406). From the same viewpoint as described above, preferably, a candidate for a destination located on the traveling lane side of the vehicle is selected.
  • the arithmetic processing unit 4 creates first question data using the destination candidate selected in step S406 in the same manner as in step S304 described above, and causes the information output unit 5 to output the first question data. You. Accordingly, the arithmetic processing unit 4 inquires whether the destination candidate selected in step S406 can be used in subsequent processing (step S407). As a specific example, a sound such as "Are you sure at convenience store F in town C?" Is output.
  • the arithmetic processing unit 4 determines whether or not the user's answer received from the information input unit 1 means Yes by the above-described procedure (step S408). If determined to be Yes, the arithmetic processing unit 4 sets the candidate selected this time in step S406 as the destination used for the route search (step S409). Thereafter, the arithmetic processing unit 4 ends the processing shown in FIG.
  • step S410 determines whether the destination setting process based on the POI may be continued. The processing in this step is performed in the same manner as in steps S309 to S310 described above. When the determination is No, the arithmetic processing unit 4 ends the processing shown in FIG. 9 in order to end the destination specifying processing by the POI.
  • the arithmetic processing unit 4 determines whether or not any of the candidates for the destination selected in step S401 has not been presented to the user in the past (Ste S411). If No, the arithmetic processing unit 4 notifies the user that there is no destination candidate (step S412), and then executes the processing shown in FIG. 9 in order to end the destination specifying processing by POI. finish. In step S412, the arithmetic processing unit 4 may notify that "Please input the destination manually using the display map".
  • step S413 the destination candidate that has not been presented to the user in the past is Then, the one closest to the current position of the vehicle is selected as a destination candidate (step S413). After the above step S413, the processing after step S407 is performed.
  • the arithmetic processing unit 4 determines whether or not the destination has been set by the destination specifying processing based on the POI (step S209) (step S209).
  • FIG. 7 Step S210). If the determination is Yes, the arithmetic processing unit 4 ends the processing shown in FIG.
  • the destination specifying process based on the POI after step S405, the destination is determined in the order close to the current position of the vehicle, that is, in the order in which the probability that the user is likely to go is high. Ground candidates are presented to the user. Therefore, it is possible to specify the destination used in the route search while reducing the number of inquiries to the user. As a result, the user can reduce the troublesomeness of repeatedly answering the inquiry.
  • the arithmetic processing unit 4 may ask the user to input an address within a known range, and may use the address in the subsequent destination specifying process based on the place name.
  • step S210 If the result of the determination in step S210 is No, the arithmetic processing unit 4 searches the place name DB (see FIG. 3) (step S211), and the destination acquired in step S202 is the place name ( It is determined whether it is registered as (area) (step S212). If No, the arithmetic processing unit 4 considers that the destination used for the route search cannot be specified in the processing of FIG. 7 and “input the destination manually using the display map”. Is notified to the user via the information output unit 5 (step S213). For the processing in step S213, a known technique is used.
  • step S212 the arithmetic processing unit 4 performs a process of specifying the destination based on the place name (step S214). Specifically, in this step, the arithmetic processing unit 4 attempts to specify a destination that can be used in the route search using the place name DB.
  • FIG. 10 is a flowchart showing the detailed processing procedure of step S214.
  • the arithmetic processing unit 4 selects all target place names from the place name DBs as destination candidate candidates (step S501).
  • the target place name means the place name found by the search in step S211.
  • the arithmetic processing unit 4 determines whether one candidate destination has been selected in step S501. It is determined whether or not it is (step S502).
  • the user may use the microphone 11 to input a destination. Therefore, even if different Chinese characters are used, the place names that have the same pronunciation in each other are selected in step S501 as the same place names. If the destination is manually input using a keyboard (not shown), even if the pronunciation is different, the place names expressed in the same kanji are selected as the same place name in step S501. Is done.
  • step S503 the arithmetic processing unit 4 determines whether or not the candidate for the destination selected this time can be used as a point for route search (step S503).
  • a destination needs to be a point.
  • steps S103 and S104 the user enters the destination or area as he or she likes.
  • Such input information is not always a point that can be used for route search. For example, even if the user inputs "mountain E" as the destination, the navigation device where the area generally called “mountain” is quite large, cannot set “mountain E” as the destination. Even if it can be set, the user may set an unintended destination.
  • the determination in step S503 is made based on whether or not the destination candidate selected this time matches a landmark registered in the place name DB. . If the destination candidate is a landmark, since the data indicating the representative position is assigned to each landmark in the place name DB (see FIG. 3), the arithmetic processing unit 4 determines YES in step S503. Then, the candidate selected this time is set as the destination used for the route search, and if the temporary destination flag is on, it is set off (step S504). After that, the arithmetic processing unit 4 ends the processing shown in FIG.
  • step S503 the destination candidate selected this time is registered as a large-scale administrative division, a small-scale administrative division, or another area in the place name DB.
  • the arithmetic processing unit 4 obtains, from the place name DB, a representative position of an area (large-scale administrative division, small-scale administrative division, or another area) that matches the present destination candidate (step S5). 05). If the representative point of each area is not assigned to the place name DB, in step S505, the arithmetic processing unit 4 may derive the representative point by calculation. For example, as shown in FIG. 11, assuming that an area A1 that matches the current destination candidate is identified, the arithmetic processing unit 4 calculates the center position C1 in the latitude and longitude directions of the area A1 by calculation. Derived and used as the representative position. Further, as the representative position, a representative landmark of an area corresponding to the present destination candidate (for example, a prefectural office, a city office, or a famous public facility) may be acquired in step S505.
  • a representative landmark of an area corresponding to the present destination candidate for example, a prefectural office, a city office, or a famous public facility
  • the arithmetic processing unit 4 sets the representative position derived as described above as a temporary destination, and sets a temporary destination flag to ON (step S506).
  • the arithmetic processing unit 4 performs a question creation process in order to narrow down the destination to one point (step S507).
  • FIG. 12 is a flowchart showing a detailed processing procedure of step S507.
  • the arithmetic processing unit 4 determines whether the area that matches the current destination candidate is either a large-scale administrative division or a small-scale administrative division (step S601). If the determination is Yes, the arithmetic processing unit 4 obtains the area level from the first information set to be targeted this time (that is, the first information set including the name of the large-scale administrative division or the small-scale administrative division). (Step S602).
  • the arithmetic processing section 4 determines whether or not the area level acquired this time is the lowest level (step S603). If the determination is Yes, it is considered that the area that matches the current destination candidate has been narrowed down to one point that can be used for the route search, and the arithmetic processing unit 4 sets this as the destination to be used for the route search. Then, the temporary destination flag is turned off (step S604). Thereafter, the arithmetic processing unit 4 ends the processing shown in FIG.
  • step S603 If No is determined in step S603, it is assumed that the area matching the current destination candidate has not been narrowed down to one point available for route search, and the arithmetic processing unit 4 One unselected first information set having an area level below the stage is selected and held (step S605).
  • step S606 in order to confirm with the user about the name of the area (small administrative division or address) specified by the first information set selected in step S605, for example, "A prefecture B ⁇ ? Or audio data with the question (Referred to as third question data) (step S606).
  • the third question data represents the content requested to input by voice.
  • the information output unit 5 outputs a voice or an image (that is, a question or a match) representing the content of the third question data created as described above (step S607).
  • the user operates the information input unit 1 and answers preferably by voice.
  • the information input unit 1 transfers the input answer to the arithmetic processing unit 4, and the arithmetic processing unit 4 holds the transferred answer (step S608).
  • step S601 the arithmetic processing unit 4 determines that one of the first information sets to be processed this time (that is, the first information set created for another area) is one. Acquire the name of the landmark (step S609).
  • the third question data as described above is subjected to arithmetic processing. Part 4 is created (step S610).
  • the third question data in this step is, for example, audio data having contents such as “Are you sure at the observation deck G (an example of a landmark) at mountain E (an example of another area)?” is there.
  • the information output unit 5 preferably outputs voice, that is, matches the question according to the third question data as described above (step S611).
  • the user operates the information input unit 1 and answers preferably by voice.
  • the arithmetic processing unit 4 acquires the user's answer from the information input unit 1 (step
  • step S612 it is determined whether the current answer is Yes (step S613).
  • the arithmetic processing unit 4 sets the representative point assigned to the landmark acquired this time as the destination used for the route search, and further turns off the temporary destination flag (step S614). Thereafter, the arithmetic processing unit 4 ends the processing shown in FIG.
  • step S613 determines whether there is an unselected landmark from the first information set targeted this time (step S615). , Yes, obtain one unselected landmark name (step S616). ), Perform step S610.
  • step S615 the destination setting unit 41
  • the representative point assigned to the landmark selected first is set as the destination used for the route search (step S617). After that, the arithmetic processing unit 4 ends the processing shown in FIG.
  • step S502 the arithmetic processing unit 4 performs the same place name resolution processing to narrow down a plurality of destination candidates to one (step S502).
  • FIG. 13 is a flowchart showing the detailed processing procedure of step S508.
  • the arithmetic processing unit 4 derives the current position of the vehicle from the output information of the vehicle position / posture detection unit 3 and further selects a candidate closer to the current position from a plurality of destination candidates. (Step S701).
  • the content includes, for example, "Are you sure in A prefecture?"
  • the third question data similar to the above is created, and is output from the information output unit 5 preferably by voice (step S702).
  • the contents represented by the third question data "Which is A in X prefecture or A in Y prefecture?" Will be longer. From the above viewpoints, it is desirable that the contents of the third question data be as simple as "Are you sure in A prefecture?" In this case, the user's answer is also a simple Yes or No.
  • the user operates the information input unit 1 and answers preferably by voice.
  • the arithmetic processing unit 4 determines whether or not the answer of the user sent from the information input unit 1 is Yes (step S703).
  • the arithmetic processing unit 4 ends the processing shown in FIG. As a result, for the currently selected destination candidate, the arithmetic processing unit 4 The indicated steps S503 and subsequent steps are performed.
  • step S703 the arithmetic processing unit 4 determines whether or not one or more destination candidates remain (step S704). Selects the remaining one or a destination candidate that has not been selected in the past and is closest to the current position (step S705). After that, the arithmetic processing unit 4 performs step S702.
  • step S704 If No is determined in step S704, the arithmetic processing unit 4 notifies the user that there is no destination candidate (step S706). Thereafter, the processing shown in FIG. Step S214 ends.
  • step S214 a temporary destination or a destination is set.
  • step S214 ends the arithmetic processing section 4 ends the processing shown in FIG.
  • the arithmetic processing unit 4 stores the route from the departure point of the vehicle to the destination or the temporary destination set in the above-described processing in the map stored in the map storage unit 2.
  • the search is performed using the information (step S106).
  • the arithmetic processing unit 4 creates guidance information necessary for guiding the vehicle to the destination based on the route searched in step S106 (step S107). Known information is used to create the guidance information.
  • the arithmetic processing unit 4 derives the current position of the vehicle as described above (Step S108).
  • the arithmetic processing unit 4 determines whether or not the current position of the vehicle on the searched route has reached a predetermined distance to an intersection or a junction where the vehicle should make a right or left turn (step S109).
  • the arithmetic processing unit 4 determines whether or not the temporary destination flag is on (step S110). As described above, in the destination specifying process (step S105), if the temporary destination is not set to ON, the route search process (step S106) searches for a route to the destination desired by the user. I have. That is, the current route is valid. Therefore, in order to continue guiding the vehicle according to the current route, the arithmetic processing unit 4 performs step S108. I do.
  • step S105 the arithmetic processing unit 4 performs step S105 again.
  • the arithmetic processing unit 4 immediately performs destination setting processing based on the place name (step S214).
  • the temporary destination flag is set to ON, it means that the processing of steps S603 to S608 in FIG. 12 has been performed in the previous destination specifying processing.
  • the arithmetic processing unit 4 holds the first information set having an area level one level lower than that used in the previous destination specifying processing, and also holds the user's answer to the area level. Become. By performing the destination specifying process again in such a state, the correct destination is narrowed down, so that the route search unit 42 can eventually obtain a route to the destination desired by the user. That is, for example, if the representative point C1 as shown in FIG. 11 is set as the temporary destination in the previous destination specifying processing, the current destination setting processing matches the current destination candidate. Assuming that the area A1 to be specified is specified, the arithmetic processing unit 4 derives the center position C2 of the current area A2 and sets it as the temporary destination in step S506 shown in FIG. it can. By repeating the above destination specifying process, as described above, a destination that can be used in route search and desired by the user is obtained.
  • step S109 the arithmetic processing unit 4 causes the information output unit 5 to output the guide information created by the guide information creation unit 43 (step Sl l).
  • guidance information is provided by image or voice to the user at a point where the distance to an intersection or a junction is 700 m, 300 m, 100 m, or 10 m.
  • the vehicle determines whether the host vehicle has reached the vicinity of the destination (step S112) 0
  • Destinations near determines, by using the well known techniques good. For example, when the current position of the vehicle enters a circle of a predetermined radius from the destination, the vehicle It is determined that the vehicle has reached near the destination.
  • step S108 is performed again.
  • the arithmetic processing unit 4 outputs the information output unit 5 to end the vehicle guidance, and then ends the process shown in FIG.
  • the navigation device when an area is input through the information input unit 1 (steps S103 and S104), the navigation device can use a destination that can be used for a route search to some extent. Is attempted (step S105), but if the destination cannot be specified, the temporary destination flag is set to on (step S506). Thereafter, the navigation device searches for a route to the set temporary destination (step S106), and guides the user along the searched route (step S107). Thus, the navigation device guides the user in the direction of the area input by the user for the time being. After a certain amount of processing is performed after the input of the area, the navigation device starts guiding in the direction of the input area, so that the user can immediately depart to the destination.
  • the navigation device After starting the guidance in the area direction as described above, when the temporary destination flag is on (step S201), the navigation device assigns an area level lower than the previous level in the place name DB. Attempt to identify the destination by interactively referring to the name of the place (step S605-S608 or S604). As a result, a new temporary destination is set or a destination required for route search is set, and the navigation device searches (selects) the newly set temporary destination or a route to the destination. (Step S106), the user is guided along the searched (selected) route (Step S107). In this way, after the guidance to the area is started, the destination is specified, and the guidance to the specified destination is performed, so that the navigation device guides the user according to an appropriate route to the destination. It becomes possible.
  • question data has been output. These question data are preferably output during a period in which it is assumed that the user does not concentrate on driving, for example, when the vehicle is stopped or running at low speed.
  • the navigation device has been described as being mounted on the vehicle, but is not limited to this, and may be portable by the user.
  • the computer program is stored in the ROM 44.
  • the present invention is not limited to this, and the computer program may be distributed in a state recorded on a writable distribution medium such as a CD-ROM, or may be distributed via a network. It may be stored in the device.
  • steps S203-210 are not performed.
  • FIG. 14 is a block diagram showing a functional configuration of the navigation device according to the second embodiment of the present invention.
  • FIG. 15 is a block diagram showing a hardware configuration of the navigation device shown in FIG. 14 and 15, the navigation device according to the present embodiment is different from the navigation device shown in FIGS. 1 and 2 in that the arithmetic processing unit 4 is replaced with the arithmetic processing unit 7. Since there is no other difference between the two navigation devices, the same reference numerals in FIGS. 14 and 15 denote the same components as those in the block configuration shown in FIG. 1, and a description thereof will be omitted.
  • the arithmetic processing unit 7 similarly to the arithmetic processing unit 4, the computer program stored in the ROM 44 including the R ROMM 44, the CPU 45, and the RAM 46 is different from that of the first embodiment. According to such a computer program, the arithmetic processing unit 7 performs the following processing.
  • FIG. 16 is a main flowchart showing a processing procedure of the arithmetic processing unit 7 shown in FIGS. 14 and 15.
  • the processing of the navigation device shown in FIGS. 14 and 15 will be described in detail with reference to the flowchart in FIG.
  • the arithmetic processing unit 7 acquires the destination input by the user in the same procedure as in steps S103 and S104 described above (step S801). Steps S802, S803).
  • the destination input by the user is not always usable in the subsequent processing, and has a certain size as shown in FIG.
  • the destination SA originally intended by the user (hereinafter referred to as the true destination) may be an area SA around Pg.
  • step S804 When such an area SA is registered in the place name DB illustrated in FIG. 3 as a place name (area), the arithmetic processing unit 7 performs, for example, the landmark assigned to the target place name (area). Are selected as candidate points P for a plurality of destinations (FIG. 16 shows three candidate points P1— Select P3) (step S804).
  • step S804 when the mountain E shown in FIG. 3 is input as the area SA, the convenience store F and the observation deck G are selected as the plurality of candidate points P.
  • step S804 a plurality of points selected from addresses to which "Small" is assigned as an area level are selected as candidate points P from the target place names (areas). It does not matter.
  • the arithmetic processing unit 7 routes the current position from the current position to each of the plurality of candidate points P selected this time (ie, , The number of paths corresponding to the number of candidate points P this time). Further, by executing the route search, the arithmetic processing unit 7 also acquires the distance from the current position to each route searched this time (step S805).
  • step S805 the arithmetic processing unit 7 searches for routes Rpl, Rp2, and Rp3 to the candidate points Pl, P2, and P3, for example, as shown in FIG. Any of a plurality of routes selected from all of them overlaps in a section from the current position Pv of the vehicle to a certain point Pt, and branches at an end point Pt of such an overlapping section.
  • the end point Ptl of the overlapping section of the route Rpl and the routes Rp2 and Rp3 is shown, and the end point Pt2 of the overlapping section of the route Rp2 and Rp3 is shown.
  • step S805 the arithmetic processing unit 7 selects one temporary destination PG as shown in FIG. 17 from the plurality of selected candidate points P (step S806).
  • FIG. 18 is a flowchart showing a detailed processing procedure of step S805 shown in FIG. In FIG. 18, the arithmetic processing unit 7 sets the above-mentioned temporary destination flag to ON (step S901).
  • the arithmetic processing unit 7 refers to the distances obtained in step S805, selects the candidate point P having the closest current position force as the temporary destination PG, and further selects the selected temporary destination PG
  • the route Rpg to the route is selected as a route for guidance (step S902).
  • step S902 ends, the processing shown in FIG. 18 ends, and the arithmetic processing unit 7 performs step S807 shown in FIG.
  • the arithmetic processing unit 7 selects the one selected in step S902. Based on the route, the vehicle is guided to the destination (temporary destination PG at present) (step S807).
  • step S807 the arithmetic processing unit 7 guides the vehicle to the temporary destination PG, that is, the surrounding area SA. Since the guidance of the vehicle to the destination is known, the description thereof is omitted.
  • FIG. 19 is a flowchart showing a detailed processing procedure of step S808 shown in FIG.
  • the arithmetic processing unit 7 acquires the current position of the vehicle (step S1001), and furthermore, on the route currently used for guiding the vehicle, the end point of the overlapping section where the vehicle should pass next. Pt (see end points Ptl and Pt2 illustrated in FIG. 16) is specified (step S1002).
  • the arithmetic processing unit 7 determines whether or not the vehicle is located within the reference distance from the end point Pt specified in step S1002 to the current position side of the vehicle on the currently used route. A judgment is made (step S1003).
  • the reference distance is set in advance to a value serving as an index for determining whether the vehicle has approached the end point Pt or not.
  • step S1003 If a half-IJ decision is made at No in step S1003, the arithmetic processing unit 7 determines that there is no need to ask an interactive question to the user yet, and sets the state flag to off (step S1004).
  • the status flag is information indicating whether it is necessary to ask an interactive question to the user. Conversely, when the determination is Yes in step S1003, the arithmetic processing unit 7 sets the status flag to ON (step S1005).
  • step S1004 or S1005 ends, the processing shown in FIG. 19 ends, and the arithmetic processing unit 7 performs step S809 shown in FIG. If the status flag is off in step S809, step S807 is performed again.
  • step S810 the navigation device prompts the user for an answer.
  • the user operates the information input unit 1 to answer.
  • the information input unit 1 transfers the input answer to the arithmetic processing unit 7 (scan Step S811).
  • FIG. 20 is a flowchart showing a detailed processing procedure of step S812 shown in FIG.
  • the arithmetic processing unit 7 determines whether or not the received answering ability ⁇ Yes is meant (step S1101). If determined to be Yes, the arithmetic processing unit 7 determines the currently selected temporary destination PG as the true destination Pg, and can reach the true destination Pg from those obtained in step S805. Select a route (step S1102). After that, the arithmetic processing unit 7 sets the temporary destination flag to off (step S1103). After that, the arithmetic processing unit 7 ends the processing shown in FIG.
  • step S1101 the arithmetic processing unit 7 determines that the currently selected temporary destination PG is not the true destination Pg, and excludes it from the candidate points P for the destination (step S1101). Top S 1104).
  • step S1104 there is a possibility that only one candidate point P selected in step S804 may remain. Therefore, the arithmetic processing unit 7 leaves a single candidate point P after step S1104. It is determined whether or not it is (step S1105).
  • the arithmetic processing unit 7 performs the processing after step S1102. On the other hand, if it is determined to be No, the arithmetic processing unit 7 sets one of the currently remaining candidate points P in the same manner as in step S806 to set another temporary destination PG. And the selected candidate point P (step S1106). After that, the arithmetic processing unit 7 ends the processing shown in FIG.
  • step S813 the arithmetic processing unit 7 determines whether or not the true destination Pg has been determined by referring to whether the temporary destination flag is on or off (step S813). Is determined to be off, the vehicle is guided until it reaches the destination Pg (steps S814, S815). On the other hand, if No and half IJ are cut off in Step S813, the arithmetic processing unit 7 performs Step S807.
  • the arithmetic processing unit 7 when the vehicle approaches a certain end point Pt, the arithmetic processing unit 7 creates question data for specifying the true destination Pg to the user, and Output The Thereafter, the information processing section 7 excludes at least one candidate point P other than the true destination based on the answer from the user. Each time the vehicle approaches each end point Pt, the arithmetic processing unit 7 performs such a dialogue with the user, and the candidate point P identified by the user's answer or the one remaining candidate point finally remains. Point P is specified as the user's true destination Pg, and a route to the specified destination Pg is selected. Note that the example in FIG. 17 shows a case where the candidate point P3 is the destination Pg.
  • the navigation device when a destination is input through the information input unit 1 (steps S802 and S803), the navigation device specifies an area SA including the input destination. After that, a plurality of candidate points P that can be used as destinations of the route search are selected (step S806). Further, one of the candidate points P is set as the temporary destination PG, and the navigation device guides the user in the direction of the temporary destination P for the time being (steps S806 and S807). Thus, after inputting the area, the navigation device starts guiding in the direction of the input area (the direction of the temporary destination P), so that the user immediately departs for the destination. become able to.
  • the navigation device After starting the guidance in the area direction as described above, the navigation device attempts to specify the destination in an interactive manner (steps S809-S812). As a result, a new temporary destination PG with higher certainty is set, or a true destination Pg required for route search is set, and the navigation device sets the newly set temporary destination or destination. A route to the route is searched (selected) (step S1102 or S1106), and the user is guided along the searched (selected) route (step S814). As described above, after the guidance to the area is started, the destination is specified and the guidance to the specified destination is performed, so that the navigation device can guide the user according to an appropriate route to the destination. It becomes possible.
  • the navigation device according to the present invention is required to have a technical effect that the user can immediately depart to the destination and can guide the user along an appropriate route to the destination. It can also be applied to applications such as on-vehicle or hand-held.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

 ユーザが目的地に向けてすぐに出発でき、かつ目的地までの適切な経路に従って、ユーザを案内可能なナビゲーション装置を提供するために、ナビゲーション装置は、目的地周辺のエリアを、ユーザが入力可能なエリア入力部(1)と、演算処理部(4)とを備え、演算処理部(4)は、エリア入力部(1)に入力されたエリアに向かう経路を探索し、探索した経路に従って、エリア入力部(1)に入力されたエリアに向けてユーザを案内する。また、演算処理部(4)は、エリアに向かう案内が開始された後に、ユーザとの対話形式により、ユーザの目的地を特定する。その後、演算処理部(4)は、特定された目的地に向かう経路を選択した後、選択した経路に従って、特定された目的地に向けてユーザを案内する。

Description

明 細 書
ナビゲーシヨン装置
技術分野
[0001] 本発明は、ナビゲーシヨン装置に関し、より特定的には、探索された経路に従って、 ユーザを目的地に案内するナビゲーシヨン装置に関する。
背景技術
[0002] 一般的なナビゲーシヨン装置では、ユーザがこれから向かう目的地が設定されると 、出発地から目的地までの経路を探索し、探索した経路に従って、ユーザを目的地 へと案内する。
[0003] しかしながら、 目的地の設定には煩わしい操作がユーザに要求されるので、ユーザ との対話形式で目的地を設定するナビゲーシヨン装置 (以下、背景技術の欄におい て、第 1のナビゲーシヨン装置と称する)が提案されている。具体的には、第 1のナビ ゲーシヨン装置は、ユーザの操作指示音声を、音声認識エンジンで音声認識用辞書 を参照して認識し、音声認識ツリー構成データから、不要部分の枝刈りをする。第 1 のナビゲーシヨン装置は、音声認識ツリー構成データにおいて残った枝から、ユーザ の意図を推定して、 目的地の候補をユーザに出力する。この時、第 1のナビグーショ ン装置は、複数の推定結果が存在する場合は、いずれかの選択を促す音声を出力 する(例えば、特開 2001—249685号公報を参照)。
[0004] 目的地設定の手間を省き、ユーザがすぐに目的地に向けて出発できるよう、以下の ようなナビゲーシヨン装置(以下、背景技術の欄において、第 2のナビゲーシヨン装置 と称する)も提案されている。従来のナビゲーシヨン装置は、車両から一定距離以上 離れた行政区画の名称を地図データから抽出し、抽出された行政区画の名称が表 示された方面名称ボタンを画面上に表示することを繰り返す。また、従来のナビグー シヨン装置は、画面上に表示された方面名称ボタンがユーザにより押されたときに、 今回操作された方面名称ボタンに表示された行政区画の代表地点を仮の目的地に 設定する。その後、従来のナビゲーシヨン装置は、設定された仮の目的地までの経 路を探索し、探索した経路に従って案内を行う(例えば、特開 2002— 122435号公 報を参照)。
発明の開示
発明が解決しょうとする課題
[0005] 上述のように、第 1のナビゲーシヨン装置は目的地設定のためにユーザと対話を行 う力 現実的には、第 1のナビゲーシヨン装置がユーザとの少ないやりとりで、ある特 定の目的地を導出することは難しい。従って、ユーザとのやりとりはある程度多くなり、 その結果、ユーザは、なかなか目的地に向けて出発することはできないという問題点 力 sある。
[0006] また、第 2のナビゲーシヨン装置は、方面名称ボタンを表示させることにより、ユーザ が目的地に向けてすぐに出発可能に構成されている。また、ユーザが方面ボタンを 何回か操作することで、ユーザはだんだんと目的地に近づく。し力 ながら、第 2のナ ビグーシヨン装置は、 目的地に到達するまでに、ユーザが方面ボタンを適切に選択し ないと、つまり、 目的地に到達するにはどの方面を通って行くのが良いのかユーザが 予め正しく分かっていないと、最短時間又は最短距離で目的地に到達可能な経路を 提供できない。特に、見知らぬ場所においてユーザが第 2のナビゲーシヨン装置によ る案内を必要とする場合、ユーザは方面ボタンを適切に選択できない可能性が高い ので、第 2のナビゲーシヨン装置は、適切な案内を提供できない。以上から明らかな ように、第 2のナビゲーシヨン装置は、ユーザにとって不適切な案内を行う可能性があ るという問題点があった。
[0007] それ故に、本発明の目的は、ユーザが目的地に向けてすぐに出発でき、かつ目的 地までの適切な経路に従って、ユーザを案内可能なナビゲーシヨン装置を提供する ことである。
課題を解決するための手段
[0008] 上記目的を達成するために、本発明の一局面は、ナビゲーシヨン装置に向けられ ており、ナビゲーシヨン装置は、 目的地周辺のエリアを、ユーザが入力可能なエリア 入力部と、エリア入力部に入力されたエリアに向力、う経路を探索する経路探索部と、 経路探索部により探索された経路に従って、エリア入力部に入力されたエリアに向け てユーザを案内する第 1の案内部と、第 1の案内部による案内が開始された後に、ュ 一ザとの対話形式により、ユーザの目的地を特定する目的地特定部と、 目的地特定 部により特定された目的地に向かう経路を選択する経路選択部と、経路選択部により 選択された経路に従って、 目的地特定部により特定された目的地に向けてユーザを 案内する第 2の案内部とを備える。
[0009] 目的地特定部は好ましくは、ユーザが二者択一で回答可能な質問を作成し出力す る質問出力部と、質問出力部により出力された質問に対する回答が入力される回答 入力部とを含み、回答入力部に入力された回答に従って、ユーザの目的地を特定す る。
[0010] 質問出力部は好ましくは、 自身が作成した質問を、ユーザの移動速度が所定の基 準値以下の場合に出力する。
[0011] また、好ましくは、質問出力部により出力される質問、及び回答入力部に入力され る回答はそれぞれ、音声である。
[0012] また、好ましくは、 目的地特定部は、 目的地を特定できない場合、ユーザの現在位 置を導出した後、エリア入力部に入力されたエリアと、 自身が導出した現在位置とに 基づいて、仮の目的地を設定する。この場合、経路選択部は、 目的地特定部により 設定された仮の目的地までの経路を選択する。
[0013] また、エリア入力部に入力されたエリアに、複数の代表位置が予め設定されている 場合、 目的地特定部は好ましくは、 自身が導出した現在位置から最も近い代表位置 を、仮の目的地として選択する。
[0014] また、経路選択部が経路探索を実行可能な場合、 目的地特定部は好ましくは、経 路選択部が経路探索可能になるまで、仮の目的地を更新する。
[0015] また、エリア入力部に入力されたエリアに、複数の代表位置が予め設定されている 場合、経路探索部は好ましくは、エリア入力部に入力されたエリアに設定される各代 表位置に向かう複数の経路を探索する。第 1の案内部は、経路探索部により探索さ れた各経路に従って、ユーザを案内する。 目的地特定部は、エリア入力部に入力さ れたエリアに設定される複数の代表位置のいずれかを、ユーザの目的地として特定 する。経路選択部は、経路探索部により探索された複数の経路のうち、 目的地特定 部により特定された目的地に向かう経路を選択する。 [0016] また、 目的地特定部は、経路探索部により探索された複数の経路において互いに 重複する区間の終点から所定距離だけユーザ側の方向に戻った地点を、質問出力 地点として設定する地点設定部と、地点設定部で決定された質問出力地点に基づ いて、ユーザに対する質問を出力する質問出力部と、質問出力部から出力された質 問に対する回答が入力される回答入力部とを含み、回答入力部に入力された回答 に従って、ユーザの目的地を特定する。
[0017] また、本発明の第 2の局面は、ナビゲーシヨン方法に向けられており、ナビゲーショ ン方法は、ユーザの入力に従って、ユーザの目的地周辺のエリアを取得するエリア 取得ステップと、エリア取得ステップで取得されたエリアに向力 経路を探索する経路 探索ステップと、経路探索ステップで探索された経路に従って、エリア取得ステップで 取得されたエリアに向けてユーザを案内する第 1の案内ステップと、第 1の案内ステツ プによる案内が開始された後に、ユーザとの対話形式により、ユーザの目的地を特 定する目的地特定ステップと、 目的地特定ステップにより特定された目的地に向かう 経路を選択する経路選択ステップと、経路選択ステップにより選択された経路に従つ て、 目的地特定ステップにより特定された目的地に向けてユーザを案内する第 2の案 内ステップとを備える。
[0018] また、本発明の第 3の局面は、ユーザを目的地へと案内するためのコンピュータプ ログラムに向けられており、コンピュータプログラムは、ユーザの入力に従って、ユー ザの目的地周辺のエリアを取得するエリア取得ステップと、エリア取得ステップで取得 されたエリアに向力う経路を探索する経路探索ステップと、経路探索ステップで探索 された経路に従って、エリア取得ステップで取得されたエリアに向けてユーザを案内 する第 1の案内ステップと、第 1の案内ステップによる案内が開始された後に、ユーザ との対話形式により、ユーザの目的地を特定する目的地特定ステップと、 目的地特定 ステップにより特定された目的地に向かう経路を選択する経路選択ステップと、経路 選択ステップにより選択された経路に従って、 目的地特定ステップにより特定された 目的地に向けてユーザを案内する第 2の案内ステップとを備える。
[0019] また、コンピュータプログラムは例示的には、記憶媒体に記録される。
発明の効果 [0020] 上記各局面によれば、ナビゲーシヨン装置は、ユーザによりエリアが入力されると、 取り敢えず、入力されたエリア方向へとユーザを案内することを開始する。エリア方向 への案内の開始後、ナビゲーシヨン装置は、対話形式により、ユーザの目的地を特 定して、特定した目的地に向力 経路を選択した後、選択した経路に従って、ユーザ を案内する。このようエリアの入力後に入力されたエリア方面への案内を開始すること で、ユーザは、 目的地に向けてすぐに出発できるようになり、さらに、エリア方面への 案内開始後に、 目的地を特定し、特定した目的地への案内を行うことで、ナビゲーシ ヨン装置は、 目的地までの適切な経路に従って、ユーザを案内することが可能となる
[0021] 本発明の上記及びその他の目的、特徴、局面及び利点は、以下に述べる本発明 の詳細な説明を添付の図面とともに理解したとき、より明らかになる。
図面の簡単な説明
[0022] [図 1]図 1は、本発明の第 1の実施形態に係るナビゲーシヨン装置の機能的な構成を 示すブロック図である。
[図 2]図 2は、図 1に示すナビゲーシヨン装置のハードウェア構成を示すブロック図で ある。
[図 3]図 3は、図 1又は図 2に示す地図記憶部 2に格納される地名データベースのデ ータ構造を例示する模式図である。
[図 4]図 4は、図 1又は図 2に示す地図記憶部 2に格納されるジャンルデータベースの データ構造を例示する模式図である。
[図 5]図 5は、図 4及び図 5に示される両データベースを含む地図情報の代替例につ レ、て論理的なデータ構造を示す模式図である。
[図 6]図 6は、本ナビゲーシヨン装置の処理手順を示すメインフローチャートである。
[図 7]図 7は、図 6に示すステップ S105の詳細な処理手順を示すフローチャートであ る。
[図 8]図 8は、図 7に示すステップ S205の詳細な処理手順を示すフローチャートであ る。
[図 9]図 9は、図 7に示すステップ S209の詳細な処理手順を示すフローチャートであ る。
[図 10]図 10は、図 7に示すステップ S214の詳細な処理手順を示すフローチャートで ある。
[図 11]図 11は、図 10に示すステップ S506で設定される仮目的地を示す模式図であ る。
[図 12]図 12は、図 10に示すステップ S507の詳細な処理手順を示すフローチャート である。
[図 13]図 13は、図 10に示すステップ S508の詳細な処理手順を示すフローチャート である。
[図 14]図 14は、本発明の第 2の実施形態に係るナビゲーシヨン装置の機能的な構成 を示すブロック図である。
[図 15]図 15は、図 14に示すナビゲーシヨン装置のハードウェア構成を示すブロック 図である。
[図 16]図 16は、図 14及び図 15に示す演算処理部 7の処理手順を示すメインフロー チャートである。
[図 17]図 17は、図 14及び図 15に示す演算処理部 7の処理内容を示す模式図であ る。
[図 18]図 18は、図 16に示すステップ S805の詳細な処理手順を示すフローチャート である。
[図 19]図 19は、図 16に示すステップ S808の詳細な処理手順を示すフローチャート である。
[図 20]図 20は、図 16に示すステップ S812の詳細な処理手順を示すフローチャート である。
符号の説明
1 情報入力部
2 地図記憶部
3 自車位置 ·姿勢検出部
4 演算処理部 41 目的地特定部
42 経路探索部
43 案内情報作成部
5 情報出力部
発明を実施するための最良の形態
[0024] (第 1の実施形態)
図 1は、本発明の第 1の実施形態に係るナビゲーシヨン装置の機能的な構成を示 すブロック図である。また、図 2は、図 1に示すナビゲーシヨン装置のハードウェア構成 を示すブロック図である。まず、図 1及び図 2において、ナビゲーシヨン装置は、例え ば車両、携帯電話又は PDA (Personal Digital Assistant)のような移動体に搭 載され、情報入力部 1と、地図記憶部 2と、 自車位置 ·姿勢検出部 3と、演算処理部 4 と、情報出力部 5とを備えている。
[0025] 情報入力部 1は、上記の移動体のユーザにより操作される。ユーザは、情報入力部
1を操作して各種情報を入力する。各種情報の一つとして、本ナビゲーシヨン装置の 処理に必要なエリアを入力する。ここで、エリアは、ユーザにより入力可能であり、また 、ある程度の広さを持っている。ここで、本実施形態では、好ましい構成として、情報 入力部 1は、ユーザが音声で情報を入力するためのマイク 11を含む。なお、マイク 1 1の代わりに、ユーザが文字を入力するためのキーボード(図示せず)を、情報入力 部 1は含んでいても構わない。また、情報入力部 1は、本ナビゲーシヨン装置の機能 が割り当てられており、ユーザが自身の指で操作可能なボタンを付加的に含む。
[0026] 地図記憶部 2は、地図情報を格納する。本実施形態では、典型的な構成として、地 図記憶部 2は、ノヽードディスク 21と、ディスク制御部 22とを含む。ハードディスク 21に は、デジタル形式の地図情報が少なくとも記録される。ディスク制御部 22は、ハード ディスク 21への情報の書き込み、又はハードディスク 21からの情報の読み出しを制 御する。なお、地図記憶部 2は、ハードディスク 21の代わりに、 CD-ROM, DVD又 はその他の記録媒体を含んでレ、ても構わなレ、。
[0027] 地図記憶部 2に格納される地図情報には、周知の地図情報が含むデータ以外に、 以下に説明するデータベースが含まれる。 [0028] ここで、図 3は、地図情報に含まれる地名データベース(以下、地名 DBと称する)の データ構造の一例を示す模式図である。図 3において、地名 DBは、地名、エリアレ ベル及びランドマークデータを少なくも 1つずつ含む第 1の情報セットを複数個含む。 地名は、例示的には、都道府県のような相対的に大規模な行政区画 (例えば A県)、 市町村のような小規模な行政区画 (例えば B巿、 C町)、番地 (例えば、 M番地 N号) 又はその他のエリア(以下、他エリアと称する)の名称のように、レ、くつもの地点(後述 )を含みうるエリアの名称である。ここで、各エリアには、それぞれを代表する地点(以 下、代表地点と称す)を特定し、かつ本ナビゲーシヨン装置で利用可能な代表位置 情報 (例えば、緯度座標及び経度座標の組み合わせ)が付加される。ここで、他エリ ァは、例えば、湖 D周辺又は山 Eのように、行政区画として表現できず、さらには単一 の代表位置情報で代表できないような相対的に広いエリアである。
[0029] また、大規模行政区画、小規模行政区画及び番地に関しては、包含関係を特定可 能に、地名 DBは構成される。具体的には、ある大規模行政区画に含まれるいくつか の小規模行政区画について作成されている第 1の情報セットは、対象となる大規模 行政区画について作成されている第 1の情報セットに論理的に関連のある記録領域 (図 3の例示では、論理的に互いに連続する記録領域)に記録される。また、ある小 規模行政区画に含まれる番地について作成された第 1の情報セットは、対象となる小 規模行政区画の第 1の情報セットに論理的に関連のある記録領域(図 3の例示では、 論理的に互いに連続する記録領域)に記録される。
[0030] また、エリアレベルは、同じ第 1の情報セットに含まれる地名(エリア)の広さの度合 いを示す情報である。本実施形態では、例示的に、大規模行政区画には、小規模行 政区画よりも広いことを示す「Large」というエリアレベルが割り当てられる。また、小規 模行政区画には、大規模行政区画よりも狭いことを示す「Medium」というエリアレべ ルが割り当てられる。また、番地には、小規模行政区画よりも狭いことを示す「Small」 とレ、うエリアレベルが割り当てられる。さらに、他エリアには、エリアレべノレとして、上述 のような広いエリアであり、さらに、大規模行政区画、小規模行政区画及び番地のい ずれにも属さなレ、ことを示す「Area」とレ、う情報が割り当てられる。
[0031] ランドマークデータは、上述の他エリア内に位置するランドマークの名称及びその 代表位置を示すデータである。例えば、他エリアの一つとしての山 Eには、コンビニェ ンスストア F及び展望台 Gがあると仮定する。この仮定下では、この他エリアとともに、 第 1の情報セットには、ランドマークデータとして、コンビニエンスストア Fの名称及び その代表位置を示す情報、展望台 Gの名称及びその代表位置を示す情報が含まれ る。
[0032] また、図 4は、地図情報に含まれるジャンルデータベース(以下、ジャンル DBと称す る)のデータ構造の一例を示す模式図である。図 4において、ジャンル DBは、 POI (P oint Of Interest)、及び予め定められた個数のジャンルフラグ(図 4には、 5個の ジャンルフラグを例示)を含む第 2の情報セットを複数個含む。 P〇Iは、本実施形態 では、代表地点により表される単一の地点の名称を意味し、この点で上述の地名(ェ リア)とは異なる。なお、図 4には、 P〇Iとして、店舗 H、店舗 I、店舗 J及び店舗 Kが例 示される。
[0033] また、上述のジヤンノレフラグとは、同じ第 2の情報セットに含まれる地点がどのような ジャンルに属しているかを示す情報である。このようなジャンルフラグとして、図 4の例 では、対象となる地点がコンビニエンスストアであるか否かを示すコンビニフラグ、そ れがアルコール類を取り扱っているか否かを示す酒屋フラグ、それが医薬品を取り扱 つてレ、るか否力を示す薬フラグ、それが文房具を取り扱ってレ、るか否かを示す文房 具フラグ、及びそれが生鮮品を取り扱っているか否かを示す生鮮品フラグが示されて いる。また、図 4の例では、「1」が肯定的な値である。
[0034] また、図 5は、上述の両 DBを含む地図情報の代替例について、論理的なデータ構 造を示す模式図である。図 5に示す地図情報では、大規模行政区画 (例えば A県) 又は他エリア(例えば山 E)の名称を最上位層として、下位層に進むに従って、小規 模行政区画 (例えば B巿)、小規模行政区画(例えば C町)及び P〇I又はランドマーク (例えば店舗 H又は展望台 G)の順番で論理的なリンクが張られる。
[0035] ここで、再度、図 1及び図 2を参照する。両図において、 自車位置 ·姿勢検出部 3は 、車両の現在位置及び Z又は姿勢を検出するため、本実施形態では例示的に、 GP S受信機 31、ジャイロセンサ 32及び車速センサ 33を含む。 GPS受信機 31は、 GPS (Global Positioning System)に収容される人工衛星力、ら受信情報に基づいて 、地球上における車両の絶対位置を算出して、演算処理部 4に出力する。また、ジャ イロセンサ 32は、車両に設置されており、車両が現在進行している方位を検出して、 演算処理部 4に出力する。車速センサ 33は、車両に設置されており、車両が現在移 動している速度を検出して、演算処理部 4に出力する。なお、図 2の例では、ナビゲ ーシヨン装置は、電波航法及び自律航法の双方、つまりハイブリッド航法を採用して いる力 これに限らず、電波航法及び自律航法のいずれかのみを採用しても構わな レ、。また、 自車位置 ·姿勢検出部 3は、 GPS受信機 31の代わりに、他の電波航法を 実現するための受信機 (例えばガリレオ又はグロナスの受信機)を含んでいても良い
[0036] 演算処理部 4は、本実施形態に特有の目的地特定処理を行う。具体的には、情報 入力部 1を通じてユーザにより、 自身の目的地を含む周辺エリアが入力された場合、 演算処理部 4は、まず、入力されたエリアに向力 経路を探索して、探索した経路に 従って案内を開始した後、ユーザへの目的地に関連する質問を表す質問データを 作成して、情報出力部 5から出力させる。ユーザは、情報出力部 5から出力された質 問に対して、情報入力部 1を使って回答し、情報入力部 1は、入力された回答を表す 回答データを生成し、演算処理部 4に出力する。演算処理部 4は、情報入力部 1から 取得した回答データに基づいて、 目的地(つまり、上述の地点)の特定を試みる。こ のようなルーチンを少なくとも 1回、演算処理部 4は行い、これによつて、 目的地が特 定される。言い換えれば、本ナビゲーシヨン装置 1は、ユーザとの対話形式で目的地 を特定する。
[0037] また、演算処理部 4は、車両の出発地から、特定された目的地又は後述する仮目 的地までの経路を、地図記憶部 2に格納された地図情報を使って探索する。経路探 索のアルゴリズムについては、例えばダイクストラ法のような周知のものが使われる。 ここで、車両の出発地については、演算処理部 4は、ユーザが情報入力部 1を操作し て入力したものを使っても良いし、例えばハイブリッド航法により算出された車両の現 在位置を使っても良い。
[0038] また、演算処理部 4は、探索された経路に基づいて、車両を目的地に向けて案内 するために必要な案内情報を作成する。案内情報の作成については、既知のものが 使われる。案内情報の具体例について説明する。探索経路上には、車両が右左折 すべき交差点又は分岐点が存在する。案内情報は典型的には、このような交差点又 は分岐点の 700m手前、 300m手前、 100手前及び 10m手前の地点についてそれ ぞれ「〇〇m先右折です」というような内容を有する音声データを作成する。また、案 内情報は好ましくは、対象となる交差点又は分岐点の付近に存在するランドマークの 情報を含む。このようなランドマークの情報により、交差点又は分岐点について、ユー ザにより分力 やすく案内を行うことが可能となる。
[0039] 以上のような演算処理部 4は、本実施形態では、図 2に示すように、 ROM44と、 CP U45と、 RAM46とを含んでいる。 ROM44は、 CPU45の動作手順が定義されたコ ンピュータプログラムを格納する。 CPU45は、 ROM44に格納されたコンピュータプ ログラムに従って各種処理を行う。 RAM46は、 CPU45が処理中に作業領域として 使われる。
[0040] 情報出力部 5は、演算処理部 4により生成された各種データ又は各種情報に従つ て、音声及び/又は画像を出力する。本実施形態では説明の便宜上、情報出力部 5は、図 2に示すように、画像を表示するディスプレイ 51、及び音声を出力するスピー 力 52を含んでいる。なお、ナビゲーシヨン装置は、ディスプレイ 51及びスピーカ 52の レ、ずれか一方のみを備えてレ、ても構わなレ、。
[0041] 次に、本ナビゲーシヨン装置の具体的な処理について説明する。図 6は、本ナビゲ ーシヨン装置の処理手順を示すメインフローチャートである。図 6において、まず、本 ナビゲーシヨン装置の電源が入れられる (ステップ S101)。なお、本実施形態では、 ナビゲーシヨン装置が車載用途の場合には、車両のアクセサリ電源がオンになると、 ナビゲーシヨン装置の電源が入ることが好ましい。
[0042] その後、演算処理部 4 (つまり、 CPU45)は、処理を続行するか否かを判断する(ス テツプ S102)。具体的には、本ナビゲーシヨン装置を利用するか否かをユーザに問 い合わせるために、演算処理部 4は、音声又は画像を情報出力部 5に出力させる。 具体的には、「目的地までの案内を行レ、ますか?」という内容を有する音声又は画像 が出力される。情報入力部 1は、ユーザからの回答が入力されると、回答内容を示す 電気信号 (以下、回答信号と称する)を演算処理部 4に出力する。演算処理部 4は、 情報入力部 1から送られてくる回答信号が Noを表す場合、図 5に示される処理を続 行しないとステップ S102で判断し、終了する。逆に、回答信号が Yesを表す場合、 演算処理部 4は、 目的地の入力を促すために、音声又は画像を情報出力部 5に出力 させる (ステップ S103)。具体的には、「目的地を入力してください」という内容を有す る音声又は画像が出力される。ここで、ステップ S101の後、ユーザは、車両の運転を 開始している場合も想定できることから、ステップ S103では、「目的地を音声入力し てください」という内容を有する音声又は画像が出力されることが好ましい。
[0043] ステップ S103により目的地の入力を促されると、ユーザは、情報入力部 1を操作し て、 目的地を入力する。ここで、入力目的地は、前述で定義した地点である場合もあ れば、前述で定義したエリアである場合もある。このような入力目的地を、情報入力部 1は演算処理部 4の RAM46 (図 2参照)に転送する(ステップ S104)。ここで、ステツ プ S103で目的地の音声入力が要求された場合、ステップ S104では、マイク 11 (図 2参照)が、ユーザにより発声された目的地を音声として拾い、拾った音声を表すデ ジタル信号に変換して、演算処理部 4に出力する。このようなステップ S103及び S10 4の組み合わせにより、ユーザは、ステアリングホイールから手を離すことなぐ 目的地 を入力することが可能となる。また、ステップ S103で目的地の手入力が要求された場 合、情報入力部 1は、手入力された目的地を表すデジタル信号を、演算処理部 4に 出力する。
[0044] ステップ S104の後、演算処理部 4は、 目的地特定処理を行う(ステップ S105)。こ こで、図 7は、ステップ S105の詳細な処理手順を示すフローチャートである。図 7に おいて、演算処理部 4は、仮目的地フラグがオンに設定されているか否かを判断する (ステップ S201)。仮目的地フラグは、電源投入直後、演算処理部 4により自動的に オフに設定される。なお、仮目的地フラグの詳細、さらにステップ S201で Yesと判断 した後の処理については後述する。
[0045] 電源投入後、ステップ S201が初めてを行われた場合、演算処理部 4は、本ステツ プで Noと判断する。この場合、演算処理部 4は、 RAM46に格納されている目的地 を取得する(ステップ S202)。なお、マイク 11から RAM46に目的地が転送された場 合、 RAM46には、大抵の場合、デジタル音声信号が格納される。この場合、後で行 われる各種検索処理が行えないことから、 CPU45は、デジタル音声データを、 目的 地を表すテキストデータ(キャラクタデータ)に変換する。
[0046] ステップ S202の後、演算処理部 4は、ジャンル DB (図 4参照)を検索する(ステップ S203)。具体的には、ジャンル DBのジャンルフラグに基づいて、今回取得された目 的地のジャンルに沿った P〇Iがジャンル DBにあるか否かを、演算処理部 4は判断す る(ステップ S204)。言い換えれば、演算処理部 4は、 目的地のジヤンノレと一致する ジャンルフラグが「1」に設定されている POIがジャンル DBに登録されているか否かを 判断する。具体例を挙げると、例えば、今回取得された目的地が「コンビニエンススト ァ」であると仮定する。この仮定下では、「1」に設定されているコンビニフラグの有無 が判断される。なお、他のジャンルに属する目的地が取得された場合にも、同様の要 領で、ステップ S204が行われる。
[0047] ステップ S204で Yesと判断した場合、演算処理部 4は、ジヤンノレに基づく目的地の 特定処理を行う(ステップ S205)。具体的には、本ステップにおいて、演算処理部 4 は、今回取得された目的地から、ジャンル DBの各種ジャンルフラグを使って、後の処 理で必要な目的地を特定しようと試みる。
[0048] ここで、図 8は、ステップ S205の詳細な処理手順を示すフローチャートである。図 8 において、演算処理部 4は、ジャンル DBの中から、対象となるジャンルフラグが設定 されている POIを目的地の候補として全て選択する(ステップ S301)。ここで、対象と なるジャンルフラグとは、ステップ S204で使われたものである。
[0049] 次に、演算処理部 4は、 自車位置 ·姿勢検出部 3の出力情報から、車両の現在位置 を導出する(ステップ S302)。
[0050] 次に、演算処理部 4は、ステップ S301で選択された目的地の候補から、ステップ S 302で導出された現在位置に最も近レ、目的地の候補を選択する (ステップ S303)。 ステップ S303では、車両の走行車線側に位置する目的地の候補が選択されること 力 Sさらに好ましい。
[0051] 次に、演算処理部 4は、ステップ S303で選択した目的地の候補を、後の処理で用 いても良いか否力 ^確認するために、「この目的地候補を使って経路探索を行いま すか?」という質問内容を有する音声データ又は画像データ(以下、これらを包括し て、第 1の質問データと称する)を作成する (ステップ S304)。ここで、車両の運転が 開始されている場合があることから、ステップ S304では、「この目的地候補 (POI)を 使って経路探索を行うかどうかを、音声入力してくださレ、」とレ、う内容を表す第 1の質 問データが作成されることが、安全運転の観点から好ましい。つまり、これによつて、 ユーザは、車両のステアリングホイールから手を離すことなぐ回答することが可能と なる。なお、演算処理部 4は、地図記憶部 2に予め格納されている自然音声フレーズ 又は画像データに、 POIの部分のみを追加して、上述の第 1の質問データを作成す る。
[0052] 情報出力部 5は、以上のような質問データを受け取り、受け取った質問データの内 容を表す音声又は画像を出力する(ステップ S305)。これによつて、本ナビグーショ ン装置は、ユーザに対して回答を促す。質問に応じて、ユーザは、情報入力部 1を操 作して、回答を行う。情報入力部 1は、入力回答を演算処理部 4に転送する (ステップ S306)。ここで、ステップ S305で回答の音声入力が要求された場合、情報入力部 1 を構成するマイク 11 (図 2参照)が、ステップ S306において、ユーザの回答音声を拾 レ、、拾った音声を表すデジタル信号に変換して、演算処理部 4に出力する。このよう なステップ S305及び S306の糸且み合わせにより、ユーザは、ステアリングホイ一ノレか ら手を離すことなぐ回答を入力することが可能となる。また、回答の手入力が要求さ れた場合、情報入力部 1は、手入力された回答を表すデジタル信号を、演算処理部 4に出力する。
[0053] 演算処理部 4は、情報入力部 1から受け取った回答力 SYesを意味するか否かを判 断する(ステップ S307)。 Yesと判断した場合、演算処理部 4は、今回ステップ S303 で選択した候補を、経路探索に使う目的地として設定する (ステップ S308)。その後 、演算処理部 4は、図 8に示される処理を終了する。
[0054] ステップ S307で Noと判断した場合、演算処理部 4は、ジヤンノレに基づく目的地設 定処理を続行しても良いか否かを確認するために、「このままジャンルに基づく目的 地特定を続けますか?」という質問内容を有する音声データ又は画像データ(以下、 これらを包括して、第 2の質問データと称する)を作成して、情報出力部 5から出力さ せる(ステップ S309)。前述と同様の観点から、第 2の質問データは、「このままジヤン ルに基づく目的地特定を続けるかどうかを、音声入力してください」という内容を表す ことが好ましい。なお、ステップ S309が何度も繰り返されると、ユーザは煩わしく感じ る可能性が高いので、ステップ S309は 1度だけ実行されるように、図 8に示される処 理は ROM44内のコンピュータプログラムに記述されても構わなレ、。
[0055] 以上のステップ S309の後、ユーザは、情報入力部 1を操作して、回答を行う。情報 入力部 1は、入力回答を演算処理部 4に転送する。ユーザの回答は、上述と同様、 音声によりなされても構わないし、手入力によりなされても構わない。演算処理部 4は 、情報入力部 1からの回答が Yesを意味するか否かを判断する(ステップ S310)。 No と判断した場合、演算処理部 4は、ジャンルによる目的地特定処理を終了するために 、図 8に示される処理を終了する。
[0056] 逆に、 Yesと判断した場合、演算処理部 4は、ステップ S305の実行回数をカウント し (ステップ S311)、その後、カウント値が規定値以下(又は規定値よりも小さい)か否 力を判断する(ステップ S312)。 Noと判断した場合、演算処理部 4は、ジャンルに基 づく目的地特定処理で、必要な目的地を特定できないとみなして、図 8に示される処 理を終了する。これにより、度重なるジャンルに基づく目的地特定処理により、遠い目 的地の候補が選択されること、さらにはユーザが煩わしく感じることを防止することが できる。
[0057] 逆に、ステップ S312で Yesと判断した場合、ステップ S301で選択された目的地の 候補から、車両の現在位置に最も近くかつ過去に選択されていない目的地の候補を 選択する(ステップ S313)。ステップ S313でも、好ましくは、車両の走行車線側に位 置する目的地の候補が選択される。なお、ステップ S313では、距離による目的地の 候補を選択しているが、これに限らず、演算処理部 4は、他の質問の場合と同じ要領 で、他のキーワードの入力をユーザに要求し、入力キーワードに従って、ステップ S3 01で選択された目的地の候補から、過去に選択されていない目的地の候補を選択 しても良い。
[0058] 以降、演算処理部 4は、今回のステップ S313で選択された目的地の候補を、後の 処理で用いても良いか否かを確認するために、前述と同様、以降のステップを行う。
[0059] 以上説明したような図 8に示される処理の終了後、演算処理部 4は、ジャンルに基 づく目的地特定処理 (ステップ S205)により、 目的地を設定できたか否力を判断する (図 7 ;ステップ S206)。 Yesと判断した場合、演算処理部 4は、図 7に示される処理を 終了する。
[0060] 逆に、ステップ S206で Noと判断した場合、演算処理部 4は、ジャンル DB (図 4参 照)を検索し (ステップ S207)、今回取得された目的地がジャンル DBに POIとして登 録されているか否力 ^判断する (ステップ S208)。具体例を挙げると、例えば、今回 のステップ S202で取得された目的地が「店舗 H」であると仮定する。この仮定下では 、 POIそのものがジャンル DBに登録されているか否かが判断される。なお、ステップ S207は、前述のステップ S204で Noと判断された場合にも行われる。また、他の目 的地が取得された場合にも、同様の要領で、ステップ S208が行われる。
[0061] ステップ S208で Yesと判断した場合、演算処理部 4は、 POIに基づく目的地の特 定処理を行う(ステップ S209)。具体的には、本ステップにおいて、演算処理部 4は、 今回取得された目的地から、ジャンル DBの POIを使って、経路探索で利用可能な 目的地を特定しようと試みる。
[0062] ここで、図 9は、ステップ S209の詳細な処理手順を示すフローチャートである。図 9 において、演算処理部 4は、ジャンル DBの中から、対象となる POIを全て、 目的地の 候補として選択する(ステップ S401)。ここで、対象となる POIとは、ステップ S207に おける検索により見つかつたものを意味する。
[0063] 次に、演算処理部 4は、ステップ S401において目的地の候補が 1つだけ見つかつ たか否かを判断する (ステップ S402)。 Yesと判断した場合、演算処理部 4は、ステツ プ S401で選択された単一の目的地の候補を、後の処理で用いるか否かをユーザに 問い合わせる(ステップ S403)。この問い合わせに関しては、音声又は画像の内容こ そ異なるが、前述のステップ S304及び S305と同じ要領で行われる。具体例としては 、「店舗 Hを経路探索における目的地に設定します」というような音声が出力される。
[0064] 次に、演算処理部 4は、今回ステップ S401で選択した候補を、経路探索に使う目 的地として設定する(ステップ S404)。その後、演算処理部 4は、図 9に示される処理 を終了する。
[0065] また、ステップ S402で目的地の候補が 1つ以上と判断した場合、演算処理部 4は、 自車位置 ·姿勢検出部 3の出力情報から、車両の現在位置を導出する(ステップ S40 5)。
[0066] 次に、演算処理部 4は、ステップ S401で選択された目的地の候補から、現在位置 に対して最寄りの目的地の候補を選択する(ステップ S406)。なお、前述と同様の観 点から、好ましくは、車両の走行車線側に位置する目的地の候補が選択される。
[0067] 次に、演算処理部 4は、前述のステップ S304と同じ要領で、ステップ S406で選択 された目的地の候補を使って第 1の質問データを作成し、情報出力部 5から出力させ る。これによつて、演算処理部 4は、ステップ S406で選択した目的地の候補を、後の 処理で用いて良いか否かを問い合わせる(ステップ S407)。具体例としては、「C町 にあるコンビニエンスストア Fでよろしいですか?」というような内容の音声が出力され る。
[0068] このような問い合わせの後、前述の手順により、演算処理部 4は、情報入力部 1から 受け取ったユーザの回答が Yesを意味するか否かを判断する(ステップ S408)。 Yes と判断した場合、演算処理部 4は、今回ステップ S406で選択した候補を、経路探索 に使う目的地として設定する (ステップ S409)。その後、演算処理部 4は、図 9に示さ れる処理を終了する。
[0069] ステップ S408で Noと判断した場合、演算処理部 4は、 POIに基づく目的地設定処 理を続行しても良いか否かを判断する(ステップ S410)。本ステップにおける処理に ついては、前述のステップ S309-S310と同じ要領で行われる。 Noと判断した場合、 演算処理部 4は、 POIによる目的地特定処理を終了するために、図 9に示される処理 を終了する。
[0070] 逆に、 Yesと判断した場合、演算処理部 4は、ステップ S401で選択した目的地の候 補の中に、過去にユーザに提示されていないものがあるか否かを判断する(ステップ S411)。 Noと判断した場合、演算処理部 4は、 目的地の候補が無いことをユーザに 通知し (ステップ S412)、その後、 POIによる目的地特定処理を終了するために、図 9に示される処理を終了する。なお、ステップ S412では、「表示地図を使って、手入 力で目的地を入力してください」と、演算処理部 4は通知しても構わない。
[0071] 逆に Yesと判断した場合、過去にユーザに提示されていない目的地の候補の中か ら、車両の現在位置に最も近いものを、 目的地の候補として選択する(ステップ S413 )。以上のステップ S413の後、ステップ S407以降の処理が行われる。
[0072] 以上説明したような図 9に示される処理の終了後、演算処理部 4は、 POIに基づく 目的地特定処理 (ステップ S209)により、 目的地を設定できたか否力、を判断する(図 7 ;ステップ S210)。 Yesと判断した場合、演算処理部 4は、図 7に示される処理を終 了する。
[0073] 以上説明したように、 POIに基づく目的地特定処理によれば、ステップ S405以降 は、車両の現在位置から近い順番で、つまり、ユーザが行く確率の高いと思われる順 番で、 目的地の候補がユーザに提示される。従って、ユーザへの問い合わせ回数を 減しつつ、経路探索で使う目的地を特定することが可能になる。これによつて、ユー ザは、問い合わせに対して何度も回答するという煩わしさを軽減することができる。
[0074] なお、 P〇Iが複数存在する場合、演算処理部 4は、ユーザに対して、分かる範囲で 住所を入力してもらい、以降の地名に基づく目的地特定処理で使っても良い。
[0075] また、上述のステップ S210で Noと判断した場合、演算処理部 4は、地名 DB (図 3 参照)を検索し (ステップ S211)、前述のステップ S202で取得された目的地が地名( エリア)として登録されているか否かを判断する (ステップ S212)。 Noと判断した場合 、演算処理部 4は、図 7の処理では、経路探索に用いられる目的地を特定できないと みなして、「表示地図を使って、手入力で目的地を入力してください」と、情報出力部 5を介してユーザに通知する(ステップ S213)。ステップ S213の処理については、周 知技術が用いられる。
[0076] 逆に、ステップ S212で Yesと判断した場合、演算処理部 4は、地名に基づく目的地 の特定処理を行う(ステップ S214)。具体的には、本ステップにおいて、演算処理部 4は、地名 DBを使って、経路探索で利用可能な目的地を特定しようと試みる。
[0077] ここで、図 10は、ステップ S214の詳細な処理手順を示すフローチャートである。図
10において、演算処理部 4は、地名 DBの中から、対象となる地名を全て、 目的地の 候補として選択する(ステップ S501)。ここで、対象となる地名とは、ステップ S211に おける検索により見つかつたものを意味する。
[0078] 次に、演算処理部 4は、ステップ S501において目的地の候補が 1つ選択されたか 否かを判断する(ステップ S502)。ここで、前述のようにユーザは、マイク 11を使って 目的地を入力する場合がある。従って、たとえ異なる漢字が使われていたとしても、 互いに読み方が同じである地名については、それら地名は同じものとしてステップ S5 01で選択される。また、キーボード(図示せず)で目的地が手入力された場合、例え 読み方が違うものであっても、互いに同じ漢字で表現される地名については、それら 地名は同じものとしてステップ S 501で選択される。
[0079] 説明の便宜のため、ステップ S502では Yesと判断されると仮定する。この仮定下で は、演算処理部 4は、今回の選択された目的地の候補が一地点として、経路探索に 使えるか否かを判断する (ステップ S503)。一般的に、ナビゲーシヨン装置で行われ る経路探索において、 目的地は地点である必要がある。し力、しながら、ユーザは、ス テツプ S103及び S104が実行される間、自分の好きなように目的地又はエリアを入 力する。このような入力情報は必ずしも、経路探索で使える地点とは限らない。例え ば、ユーザが目的地として「山 E」と入力しても、一般的に山と呼ばれるエリアはかなり 広ぐナビゲーシヨン装置は、「山 E」を目的地として設定できなレ、か、たとえ設定でき たとしても、ユーザが意図しない目的地を設定してしまう場合がある。
[0080] 以上のような観点から、本実施形態において、ステップ S503の判断は、今回選択 された目的地の候補が、地名 DBに登録されているランドマークに一致するか否かに より行われる。 目的地の候補がランドマークであれば、地名 DB (図 3参照)において、 各ランドマークに代表位置を示すデータが割り当てられているため、演算処理部 4は 、ステップ S503で Yesと判断して、今回選択された候補を、経路探索に使う目的地と して設定し、もし仮目的地フラグがオンの場合には、それをオフに設定する(ステップ S504)。その後、演算処理部 4は、図 10に示される処理を終了する。
[0081] 逆に、ステップ S503で Noと判断した場合、今回選択された目的地の候補は、地名 DBにおいて、大規模行政区画、小規模行政区画又は他エリアとして登録されている ことになる。
[0082] 次に、演算処理部 4は、地名 DBから、今回の目的地の候補に一致するエリア(大 規模行政区画、小規模行政区画又は他エリア)の代表位置を取得する (ステップ S 5 05)。なお、地名 DBに各エリアの代表地点が割り当てられていない場合には、ステツ プ S505において、演算処理部 4は、代表地点を演算により導出しても構わない。例 えば、図 11に示すように、今回の目的地の候補に一致するエリア A1が特定されたと 仮定すると、演算処理部 4は、エリア A1について緯度方向及び経度方向の中心位 置 C1を演算により導出して、代表位置として用いる。さらに、代表位置としては、今回 の目的地の候補に一致するエリアの代表的なランドマーク(例えば、県庁、市庁又は 有名な公共施設)のものがステップ S505で取得されても構わない。
[0083] 次に、演算処理部 4は、以上のように導出した代表位置を仮目的地として設定し、さ らに、仮目的地フラグをオンに設定する (ステップ S506)。
[0084] 次に、演算処理部 4は、 目的地を一地点に絞り込んでいくために、質問作成処理を 行う(ステップ S507)。
[0085] ここで、図 12は、ステップ S507の詳細な処理手順を示すフローチャートである。図 12において、演算処理部 4は、今回の目的地の候補に一致するエリアが、大規模行 政区画及び小規模行政区画のいずれか否かを判断する(ステップ S601)。 Yesと判 断した場合、演算処理部 4は、今回対象となる第 1の情報セット(つまり、大規模行政 区画又は小規模行政区画の名称を含む第 1の情報セット)から、エリアレベルを取得 する(ステップ S602)。
[0086] 次に、演算処理部 4は、今回取得したエリアレベルが最下位のものか否かを判断す る(ステップ S603)。 Yesと判断した場合、今回の目的地の候補に一致するエリアを、 経路探索に利用可能な一地点まで絞り込めたとみなして、演算処理部 4は、これを、 経路探索に使う目的地として設定し、さらに仮目的地フラグをオフにする (ステップ S6 04)。その後、演算処理部 4は、図 12に示される処理を終了する。
[0087] また、ステップ S603で Noと判断した場合、今回の目的地の候補に一致するエリア を、経路探索に利用可能な一地点まで絞り込めていないとみなして、演算処理部 4 は、一段階下のエリアレベルを有しておりかつ未選択の第 1の情報セットを 1つ選択 し保持する(ステップ S605)。
[0088] 次に、ステップ S605で選択した第 1の情報セットで特定されるエリアの名称 (小規 模行政区画又は番地)についてユーザに確認するために、例えば「A県 B巿でよろし いですか?」という質問内容を有する音声データ又は画像データ(以下、これらを包 括して、第 3の質問データと称する)を作成する (ステップ S606)。ここで、前述と同様 の観点から、第 3の質問データは、音声入力するよう要求する内容を表すことが好ま しい。
[0089] 情報出力部 5は、以上のように作成された第 3の質問データの内容を表す音声又 は画像(つまり、問レ、合わせ)を出力する(ステップ S607)。
[0090] このような問い合わせに応じて、ユーザは、情報入力部 1を操作して、好ましくは音 声で回答する。情報入力部 1は、入力回答を演算処理部 4に転送し、演算処理部 4 は、転送されてきた回答を保持する(ステップ S608)。
[0091] また、ステップ S601で Noと判断した場合、演算処理部 4は、今回対象となる第 1の 情報セット(つまり、他エリアのために作成された第 1の情報セット)から、 1つのランド マークの名称を取得する(ステップ S609)。
[0092] 次に、ステップ S609で取得したランドマークの名称を経路探索で目的地として使つ て良いか否力をユーザに確認するために、前述と同様の第 3の質問データを、演算 処理部 4は作成する(ステップ S610)。ここで、本ステップにおける第 3の質問データ は、例えば、「山 E (他エリアの一例)の展望台 G (ランドマークの一例)でよろしいです か?」をレ、う内容を有する音声データである。
[0093] 情報出力部 5は、以上のような第 3の質問データに従って、好ましくは音声を出力、 つまり問レ、合わせする(ステップ S611)。
[0094] このような問い合わせに応じて、ユーザは、情報入力部 1を操作して、好ましくは音 声で回答する。演算処理部 4は、情報入力部 1からユーザの回答を取得し (ステップ
S612)、今回の回答が Yesか否かを判断する(ステップ S613)。
[0095] Yesと判断した場合、演算処理部 4は、今回取得したランドマークに割り当てられて いる代表地点を、経路探索に使う目的地として設定し、さらに仮目的地フラグをオフ にする (ステップ S614)。その後、演算処理部 4は、図 12に示される処理を終了する
[0096] 逆に、ステップ S613で Noと判断した場合、 目的地設定部 41は、今回対象となる第 1の情報セットから、未選択のランドマークがあるか否かを判断し (ステップ S615)、 Y esと判断した場合には、未選択のランドマークの名称を 1つ取得して (ステップ S616 )、ステップ S610を行う。
[0097] また、ステップ S615で Noと判断した場合、 目的地設定部 41は、今回対象となる第
1の情報セットから、最初に選ばれたランドマークに割り当てられている代表地点を、 経路探索に使う目的地として設定する (ステップ S617)。その後、演算処理部 4は、 図 12に示される処理を終了する。
[0098] また、図 10に示すステップ S502において、 Noと判断した場合、演算処理部 4は、 複数の目的地の候補を 1つに絞り込むために、同一地名解決処理を行う(ステップ S
508)。
[0099] ここで、図 13は、ステップ S508の詳細な処理手順を示すフローチャートである。図 13において、演算処理部 4は、自車位置 ·姿勢検出部 3の出力情報から、車両の現 在位置を導出し、さらに、複数の目的地の候補から、現在位置に近い方を選択する( ステップ S 701)。
[0100] 次に、ステップ S701で選択した目的地の候補で処理を進めて良いか否かについ てユーザに確認するために、例えば「A県でよろしいですか?」という内容を有してお り、前述同様の第 3の質問データを作成して、好ましくは音声で情報出力部 5から出 力させる(ステップ S702)。
[0101] なお、第 3の質問データが表す内容の代替例として、「X県の Aと、 Y県の Aのどちら ですか?」というと、問い合わせに要する時間が長くなり、さらには、ユーザの回答も 長くなつてしまう。以上の観点から、第 3の質問データが表す内容は、「A県でよろし いですか?」のように簡素であることが望ましい。この場合には、ユーザの回答も、簡 素な Yes又は Noのレ、ずれかになる。
[0102] また、車両の現在位置から最も近い目的地の候補がユーザに提供されることにより 、問い合わせの回数を減らすことも可能となる。
[0103] 以上のような問い合わせに応じて、ユーザは、情報入力部 1を操作して、好ましくは 音声で回答する。演算処理部 4は、情報入力部 1から送られてくるユーザの回答が Y esか否かを判断する(ステップ S703)。
[0104] Yesであると判断した場合、演算処理部 4は、図 13に示される処理を終了する。こ れによって、現在選択されている目的地の候補について、演算処理部 4は、図 10に 示されるステップ S503以降を行う。
[0105] また、ステップ S703で Noであると判断した場合、演算処理部 4は、 1つ以上の目的 地の候補が残っているか否かを判断し (ステップ S704)、 Yesと判断した場合には、 残りの 1つ又は過去に選択されておらずかつ現在位置に最も近い目的地の候補を選 択する(ステップ S705)。その後、演算処理部 4は、ステップ S702を行う。
[0106] また、ステップ S704で Noと判断した場合には、演算処理部 4は、 目的地の候補が 無いことをユーザに通知し (ステップ S706)、その後、図 13に示される処理、さらには ステップ S214を終了する。
[0107] 以上のようなステップ S214により、仮目的地又は目的地が設定される。また、演算 処理部 4は、ステップ S214が終了すると、図 7に示される処理を終了する。
[0108] また、図 7に示される処理の終了により、図 6に示される目的地特定処理 (ステップ S
105)も終了する。
[0109] 以上のステップ S105の後、演算処理部 4は、車両の出発地から、上述の処理で設 定された目的地又は仮目的地までの経路を、地図記憶部 2に格納された地図情報を 使って探索する(ステップ S106)。
[0110] 次に、演算処理部 4は、ステップ S106で探索された経路に基づいて、車両を目的 地まで案内するために必要な案内情報を作成する(ステップ S107)。案内情報の作 成については、既知のものが使われる。
[0111] 次に、演算処理部 4は、既に説明したようにして、車両の現在位置を導出する(ステ ップ S 108)。
[0112] 次に、演算処理部 4は、探索された経路上における、車両の現在位置が、車両が 右左折すべき交差点又は分岐点まで所定距離に到達したか否力、を判断する (ステツ プ S109)。
[0113] Noと判断した場合、演算処理部 4は、仮目的地フラグがオンか否力、を判断する(ス テツプ S110)。前述のように、 目的地特定処理 (ステップ S105)において、仮目的地 がオンに設定されていない場合、経路探索処理 (ステップ S 106)では、ユーザが望 む目的地への経路が探索されている。つまり、現在の経路は有効である。それ故、演 算処理部 4は、引き続き現在の経路に従って車両を案内するために、ステップ S108 を行う。
[0114] 逆に、仮目的地フラグがオンに設定されている場合、例えばエリア A1 (図 11参照) の中心位置 C1のような仮目的地が設定されていることになる。このような場合、ユー ザが望む目的地への経路が探索されているとは限らず、ナビゲーシヨン装置は、車 両を目的地の近傍に向けて案内していることになる。このような場合、演算処理部 4 において、演算処理部 4は再度ステップ S105を行う。この場合、演算処理部 4は、図 7に示されるステップ S201で Yesを判断した後、すぐに地名に基づく目的地の設定 処理を行う(ステップ S214)。ここで、仮目的地フラグがオンに設定されるということは 、図 12のステップ S603—S608の処理が前回の目的地特定処理で行われたことに なる。従って、演算処理部 4は、前回の目的地特定処理で使ったものよりも一段階下 のエリアレベルを有する第 1の情報セット、さらに、そのエリアレベルに対するユーザ の回答も保持していることになる。このような状態で、再度目的地特定処理を行うこと により、正しい目的地が絞り込まれていくので、やがて経路探索部 42は、ユーザが望 む目的地までの経路を得ることが可能となる。つまり、例えば、前回の目的地特定処 理で、図 11に示すような代表地点 C1が仮目的地に設定されている場合、今回の目 的地設定処理に、今回の目的地の候補に一致するエリア A1が特定されたと仮定す ると、演算処理部 4は、今回のエリア A2の中心位置 C2を導出して、図 10に示される ステップ S506で、これを仮目的地として設定することができる。以上のような目的地 特定処理の繰り返しにより、上述のように、経路探索で利用可能であって、ユーザが 望む目的地が得られる。
[0115] ここで、再度、図 6を参照する。ステップ S109で Yesと判断した場合、演算処理部 4 は、案内情報作成部 43により作成された案内情報を、情報出力部 5から出力させる( ステップ Sl l l)。例えば、前述したように、交差点又は分岐点までの距離が 700m、 300m, 100m又は 10mというような地点において、ユーザに対して案内情報を画像 又は音声で提供する。
[0116] 次に、演算処理部 4は、車両が目的地付近に到達したか否かを判断する (ステップ S112) 0ここで、 目的地付近か否かの判断については、周知技術を用いれば良い。 例えば、車両の現在位置が目的地から所定半径の円内に進入した場合に、車両が 目的地付近に到達したと判断される。
[0117] ステップ S112で Noと判断した場合には、再度ステップ S108を行う。逆に Yesと判 断した場合には、演算処理部 4は、車両の案内を終了することを情報出力部 5から出 力させた後に、図 6に示される処理を終了する。
[0118] 以上のように、本実施形態によれば、ナビゲーシヨン装置は、情報入力部 1を通じて エリアが入力されると (ステップ S103、 S104)、ある程度、経路探索で使うことが可能 な目的地を特定しようと試みるが (ステップ S105)、 目的地を特定できなかった場合、 仮目的地フラグをオンに設定しておく(ステップ S506)。その後、ナビゲーシヨン装置 は、設定された仮目的地に至る経路を探索し (ステップ S106)、探索した経路に沿つ てユーザを案内する(ステップ S107)。これによつて、ナビゲーシヨン装置は、とりあえ ず、ユーザにより入力されたエリア方向へと、ユーザを案内する。このようエリアの入 力後、ある程度処理を行うと、ナビゲーシヨン装置は、入力されたエリア方向へと案内 を開始することで、ユーザは、 目的地に向けてすぐに出発できるようになる。
[0119] 以上のようなエリア方向への案内の開始後、ナビゲーシヨン装置は、仮目的地フラ グがオンの場合(ステップ S201)、地名 DBにおいて、前回よりも下位のエリアレベル が割り当てられている地名を参照して、対話形式により、 目的地を特定しようと試みる (ステップ S605— S608又は S604)。これにより、新たな仮目的地が設定されるか、 経路探索に必要な目的地が設定され、ナビゲーシヨン装置は、新たに設定された仮 目的地又は目的地に至る経路を探索 (選択)し (ステップ S106)、探索 (選択)した経 路に沿ってユーザを案内する(ステップ S107)。このように、エリア方面への案内開 始後に、 目的地を特定し、特定した目的地への案内を行うことで、ナビゲーシヨン装 置は、 目的地までの適切な経路に従って、ユーザを案内することが可能となる。
[0120] なお、以上の実施形態では、レ、くつかの質問データが出力されていた。これら質問 データは好ましくは、例えば、車両が停止時又は低速走行時のように、ユーザが運転 に集中しないと想定される期間に出力されることが好ましい。
[0121] また、以上の実施形態では、ナビゲーシヨン装置は車両に搭載されるとして説明し たが、これに限らず、ユーザが携帯可能なものであっても良い。
[0122] なお、以上の実施形態では、 ROM44にコンピュータプログラムが格納されるとして 説明したが、これに限らず、コンピュータプログラムは、 CD— ROMのような、情報を書 き込み可能な配布媒体に記録された状態で頒布されても良いし、ネットワークを介し て配信可能にコンピュータ装置に格納されていても構わない。
[0123] また、以上の実施形態において、ステップ S203—210は実行されなくとも良レ、。
[0124] (第 2の実施形態)
図 14は、本発明の第 2の実施形態に係るナビゲーシヨン装置の機能的な構成を示 すブロック図である。また、図 15は、図 14に示すナビゲーシヨン装置のハードウェア 構成を示すブロック図である。図 14及び図 15において、本実施形態に係るナビグー シヨン装置は、図 1及び図 2に示すそれと比較すると、演算処理部 4が演算処理部 7 に代わる点で相違する。それ以外に両ナビゲーシヨン装置の間に相違点は無いので 、図 14及び図 15において、図 1に示すブロック構成に相当するものには同一の参照 符号を付け、それぞれの説明を省略する。
[0125] 演算処理部 7は、演算処理部 4と同様、 R〇M44、 CPU45及び RAM46を含んで いる力 ROM44に格納されるコンピュータプログラムは、第 1の実施形態のそれと相 違する。このようなコンピュータプログラムに従って、演算処理部 7は、下記のような処 理を行う。
[0126] 図 16は、図 14及び図 15に示す演算処理部 7の処理手順を示すメインフローチヤ ートである。図 16のフローチャートを参照して、図 14及び図 15に示す本ナビゲーショ ン装置の処理について詳説する。図 16において、ナビゲーシヨン装置の電源がオン になった後(ステップ S801)、演算処理部 7は、前述のステップ S103及び S104と同 様の手順で、ユーザにより入力された目的地を取得する(ステップ S802、 S803)。こ こで、第 1の実施形態で説明したように、ユーザにより入力された目的地は、必ずしも 、後の処理で使えるとは限らず、図 17に示すようにある程度の広さを持ち、かつユー ザが本来意図した目的地(以下、真の目的地と称する) Pgの周辺のエリア SAである 場合がある。
[0127] このようなエリア SAが図 3に例示した地名 DBに地名(エリア)として登録されている 場合、演算処理部 7は、例えば、対象となる地名(エリア)に割り当てられているランド マークのいずれか複数個を、複数の目的地の候補点 P (図 16には 3個の候補点 P1— P3を例示)を選択する(ステップ S804)。ステップ S804の処理の例としては、図 3に 示す山 Eがエリア SAとして入力された場合、複数の候補点 Pとしては、コンビニェン スストア F及び展望台 Gが選ばれる。また、ステップ S804では代替的に、対象となる 地名(エリア)の中から、エリアレベルとして「Small」が割り当てられている番地の中か ら選ばれた複数の地点が、候補点 Pとして選択されても構わない。
[0128] 次に、演算処理部 7は、 自車位置 ·姿勢検出部 3から車両の現在位置を取得した後 、現在位置から、今回選択された複数の候補点 Pのそれぞれまでの経路(つまり、今 回の候補点 Pの個数に相当する数の経路)を探索する。また、経路探索を実行するこ とで、演算処理部 7は、現在位置から今回探索した各経路までの距離も取得する (ス テツプ S805)。
[0129] ステップ S805により、演算処理部 7は例えば、図 17に示すように、候補点 Pl、 P2 及び P3までの経路 Rpl、 Rp2及び Rp3を探索する。これら全ての中から選ばれた、 いずれか複数の経路は、車両の現在位置 Pvからある地点 Ptまでの区間で重複し、 このような重複区間の終点 Ptで分岐する。なお、図 16の例では、経路 Rplと、経路 R p2及び Rp3との重複区間の終点 Ptlが示されており、さらに、経路 Rp2及び Rp3の 重複区間の終点 Pt2が示されている。
[0130] ステップ S805の後、演算処理部 7は、選択した複数の候補点 Pの中から、図 17に 示すような 1個の仮目的地 PGを選択する(ステップ S806)。
[0131] ここで、図 18は、図 16に示すステップ S805の詳細な処理手順を示すフローチヤ一 トである。図 18において、演算処理部 7は、上述の仮目的地フラグをオンに設定する (ステップ S 901)。
[0132] その後、演算処理部 7は、ステップ S805で得られた各距離を参照して、現在位置 力 最も近い候補点 Pを、仮目的地 PGとして選択し、さらに、選択した仮目的地 PG までの経路 Rpgを、案内に用レ、るものとして選択する(ステップ S902)。図 17には、 例示的に、候補点 P1が仮目的地 PGとして選択された場合における、仮目的地 PG までの経路 Rpg (=Rpl)が示されてレ、る。
[0133] 以上のステップ S902が終了すると、図 18に示される処理は終了し、演算処理部 7 は、図 16に示すステップ S807を行う。演算処理部 7は、ステップ S902で選択された 経路に基づレ、て、車両を目的地(現時点では仮目的地 PG)まで案内する (ステップ S 807)。言い換えれば、ステップ S807で、演算処理部 7は、とりあえず、車両を仮目 的地 PG、つまり周辺エリア SAに向けて案内する。なお、車両を目的地に案内するこ とについては既知であるため、その説明を省略する。
[0134] 次に、演算処理部 7は、対話の可否判断を行う(ステップ S808)。ここで、図 19は、 図 16に示すステップ S808の詳細な処理手順を示すフローチャートである。図 19に おいて、演算処理部 7は、車両の現在位置を取得し (ステップ S1001)、さらに、現在 車両の案内に用いられている経路上で、次に車両が通過すべき重複区間の終点 Pt (図 16に例示される終点 Ptl及び Pt2を参照)を特定する(ステップ S1002)。
[0135] その後、演算処理部 7は、現在用いられている経路において、ステップ S1002で特 定した終点 Ptから、車両の現在位置側に基準距離の範囲内に車両が位置するか否 力、を判断する(ステップ S1003)。ここで、基準距離とは、車両が終点 Ptに接近したか 、まだ接近していないかを判断するための指標となる値に予め設定される。
[0136] ステップ S1003で Noと半 IJ断されると、演算処理部 7は、未だユーザに対話形式の 質問を投げかける必要はないとみなして、状態フラグをオフに設定する (ステップ S10 04)。ここで、状態フラグとは、ユーザに対して対話形式の質問を投げかける必要が あるか否かを示す情報である。逆に、ステップ S1003で Yesと判断されると、演算処 理部 7は状態フラグをオンに設定する(ステップ S1005)。
[0137] 以上のステップ S1004又は S1005が終了すると、図 19に示される処理は終了し、 演算処理部 7は、図 16に示すステップ S809を行う。ステップ S809において、状態フ ラグがオフであれば、ステップ S807が再度行われる。
[0138] 逆に、ステップ S809の実行時に状態フラグがオンであれば、現在選択されている 仮目的地 PGがユーザの真の目的地か否かを確認するために、「この仮目的地 PGの ままでいいですか?」という質問内容を有する音声データ又は画像データ(以下、こ れらを包括して、第 1の質問データと称する)を作成し、質問内容を情報出力部 5から 音声又は画像として出力させる(ステップ S810)。ステップ S810により、本ナビゲー シヨン装置は、ユーザに対して回答を促す。質問に応じて、ユーザは、情報入力部 1 を操作して、回答を行う。情報入力部 1は、入力回答を演算処理部 7に転送する (ス テツプ S811)。
[0139] 次に、演算処理部 7は、 目的地の特定処理を行う(ステップ S812)。ここで、図 20は 、図 16に示すステップ S812の詳細な処理手順を示すフローチャートである。図 20に おいて、演算処理部 7は、受け取った回答力 ^Yesを意味するか否かを判断する (ステ ップ S1101)。 Yesと判断した場合、演算処理部 7は、現在選択されている仮目的地 PGを真の目的地 Pgとして決定するとともに、ステップ S805で得られたものの中から 真の目的地 Pgに到達可能な経路を選択する (ステップ S1102)。その後、演算処理 部 7は、仮目的地フラグをオフに設定する (ステップ S1103)。その後、演算処理部 7 は、図 20に示される処理を終了する。
[0140] また、ステップ S1101で Noと判断した場合、演算処理部 7は、現在選択されている 仮目的地 PGが真の目的地 Pgでは無いとして、 目的地の候補点 Pから除外する(ステ ップ S 1104)。
[0141] ステップ S1104の結果、ステップ S804で選択された候補点 Pがーつだけ残る可能 性があるので、演算処理部 7は、ステップ S1104の次に、単一の候補点 Pが残ってい るか否かを判断する(ステップ S1105)。
[0142] Yesと判断した場合、演算処理部 7は、ステップ S1102以降の処理を行う。それに 対して、 Noと判断した場合、演算処理部 7は、別の仮目的地 PGを設定するために、 現在残っている候補点 Pの中から、前述のステップ S806と同様にして、 1個を選択す るとともに、選択した候補点 P (ステップ S1106)。その後、演算処理部 7は、図 20に 示される処理を終了する。
[0143] 図 20に示す処理が終了すると、演算処理部 7は、図 16に示すステップ S813を行う 。つまり、演算処理部 7は、仮目的地フラグがオンかオフかを参照することで、真の目 的地 Pgが決定されたか否かを判断し (ステップ S813)、 Yes,つまり仮目的地フラグ がオフである判断した場合、 目的地 Pgに到着するまで、車両を案内する (ステップ S8 14, S815)。逆に、ステップ S813で Noと半 IJ断すると、演算処理部 7は、ステップ S8 07を行う。
[0144] 以上の処理により、ある終点 Ptに車両が近づいた時、演算処理部 7は、ユーザに対 して真の目的地 Pgを特定するための質問データを作成し、情報出力部 5から出力す る。その後、情報処理部 7は、ユーザの回答に基づいて、真の目的地以外の候補点 Pを少なくとも 1個除外する。このようなユーザとの対話を各終点 Ptに車両が近づくた びに、演算処理部 7は行い、ユーザの回答により 1個に特定された候補点 P、又は最 終的に残った 1個の候補点 Pを、ユーザの真の目的地 Pgとして特定し、さらに、特定 した目的地 Pgまでの経路を選択する。なお、図 17の例では、候補点 P3が目的地 Pg である場合が示されている。
[0145] 以上のように、本実施形態によれば、ナビゲーシヨン装置は、情報入力部 1を通じて 目的地が入力されると(ステップ S802、 S803)、入力された目的地を含むエリア SA を特定した後、経路探索の目的地として利用可能な候補点 Pを複数個選択する (ス テツプ S806)。さらに、この中から、 1個の候補点 Pを仮目的地 PGとして設定して、ナ ビグーシヨン装置は、とりあえず、仮目的地 Pの方向へとユーザを案内する(ステップ S806, S807)。よって、このように、エリアの入力後、ナビゲーシヨン装置は、入力さ れたエリア方向(仮目的地 Pの方向)へと案内を開始することで、ユーザは、 目的地に 向けてすぐに出発できるようになる。
[0146] 以上のようなエリア方向への案内の開始後、ナビゲーシヨン装置は、対話形式で、 目的地を特定しようと試みる(ステップ S809-S812)。これにより、より確かさが高い 新たな仮目的地 PGが設定されるか、経路探索に必要な真の目的地 Pgが設定され、 ナビゲーシヨン装置は、新たに設定された仮目的地又は目的地に至る経路を探索( 選択)し (ステップ S1102又は S1106)、探索(選択)した経路に沿ってユーザを案内 する(ステップ S814)。このように、エリア方面への案内開始後に、 目的地を特定し、 特定した目的地への案内を行うことで、ナビゲーシヨン装置は、 目的地までの適切な 経路に従って、ユーザを案内することが可能となる。
[0147] 本発明を詳細に説明したが、上記説明はあらゆる意味において例示的なものであ り限定的なものではない。本発明の範囲から逸脱することなしに多くの他の改変例及 び変形例が可能であることが理解される。
産業上の利用可能性
[0148] 本発明に係るナビゲーシヨン装置は、ユーザが目的地に向けてすぐに出発でき、か つ目的地に至る適切な経路に従って、ユーザを案内可能という技術的効果が要求さ れる車載又はハンドへルド等の用途にも適用できる。

Claims

請求の範囲
[1] ナビゲーシヨン装置であって、
目的地周辺のエリアを、ユーザが入力可能なエリア入力部と、
前記エリア入力部に入力されたエリアに向力 経路を探索する経路探索部と、 前記経路探索部により探索された経路に従って、前記エリア入力部に入力された エリアに向けてユーザを案内する第 1の案内部と、
前記第 1の案内部による案内が開始された後に、ユーザとの対話形式により、ュ 一ザの目的地を特定する目的地特定部と、
前記目的地特定部により特定された目的地に向かう経路を選択する経路選択部 と、
前記経路選択部により選択された経路に従って、前記目的地特定部により特定さ れた目的地に向けてユーザを案内する第 2の案内部とを備える、ナビゲーシヨン装置
[2] 前記目的地特定部は、
ユーザが二者択一で回答可能な質問を作成し出力する質問出力部と、 前記質問出力部により出力された質問に対する回答が入力される回答入力部と を含み、
前記回答入力部に入力された回答に従って、ユーザの目的地を特定する、請求 項 1に記載のナビゲーシヨン装置。
[3] 前記質問出力部は、 自身が作成した質問を、ユーザの移動速度が所定の基準値 以下の場合に出力する、請求項 2に記載のナビゲーシヨン装置。
[4] 前記質問出力部により出力される質問、及び前記回答入力部に入力される回答は それぞれ、音声である、請求項 2に記載のナビゲーシヨン装置。
[5] 前記目的地特定部は、 目的地を特定できない場合、ユーザの現在位置を導出した 後、前記エリア入力部に入力されたエリアと、自身が導出した現在位置とに基づいて
、仮の目的地を設定し、
前記経路選択部は、前記目的地特定部により設定された仮の目的地までの経路を 選択する、請求項 1に記載のナビゲーシヨン装置。
[6] 前記エリア入力部に入力されたエリアに、複数の代表位置が予め設定されている 場合、前記目的地特定部は、 自身が導出した現在位置から最も近い代表位置を、仮 の目的地として選択する、請求項 5に記載のナビゲーシヨン装置。
[7] 前記経路選択部が経路探索を実行可能な場合、前記目的地特定部は、前記経路 選択部が経路探索可能になるまで、仮の目的地を更新する、請求項 5に記載のナビ ゲーシヨン装置。
[8] 前記エリア入力部に入力されたエリアに、複数の代表位置が予め設定されている 場合、前記経路探索部は、前記エリア入力部に入力されたエリアに設定される各代 表位置に向力 複数の経路を探索し、
前記第 1の案内部は、前記経路探索部により探索された各経路に従って、ユーザ を案内し、
前記目的地特定部は、前記エリア入力部に入力されたエリアに設定される複数の 代表位置のいずれかを、ユーザの目的地として特定し、
前記経路選択部は、前記経路探索部により探索された複数の経路のうち、前記目 的地特定部により特定された目的地に向力う経路を選択する、請求項 1に記載のナ ビゲーシヨン装置。
[9] 前記目的地特定部は、
前記経路探索部により探索された複数の経路において互いに重複する区間の終 点から所定距離だけユーザ側の方向に戻った地点を、質問出力地点として設定する 地点設定部と、
前記地点設定部で決定された質問出力地点に基づいて、ユーザに対する質問を 出力する質問出力部と、
前記質問出力部から出力された質問に対する回答が入力される回答入力部とを 含み、
前記回答入力部に入力された回答に従って、ユーザの目的地を特定する、請求 項 9に記載のナビゲーシヨン装置。
[10] ナビゲーシヨン方法であって、
ユーザの入力に従って、ユーザの目的地周辺のエリアを取得するエリア取得ステ ップと、
前記エリア取得ステップで取得されたエリアに向力う経路を探索する経路探索ス テツプと、
前記経路探索ステップで探索された経路に従って、前記エリア取得ステップで取 得されたエリアに向けてユーザを案内する第 1の案内ステップと、
前記第 1の案内ステップによる案内が開始された後に、ユーザとの対話形式により
、ユーザの目的地を特定する目的地特定ステップと、
前記目的地特定ステップにより特定された目的地に向かう経路を選択する経路選 択ステップと、
前記経路選択ステップにより選択された経路に従って、前記目的地特定ステップ により特定された目的地に向けてユーザを案内する第 2の案内ステップとを備える、 ナビゲーシヨン方法。
[11] ユーザを目的地へと案内するためのコンピュータプログラムであって、
ユーザの入力に従って、ユーザの目的地周辺のエリアを取得するエリア取得ステ ップと、
前記エリア取得ステップで取得されたエリアに向力う経路を探索する経路探索ス テツプと、
前記経路探索ステップで探索された経路に従って、前記エリア取得ステップで取 得されたエリアに向けてユーザを案内する第 1の案内ステップと、
前記第 1の案内ステップによる案内が開始された後に、ユーザとの対話形式により
、ユーザの目的地を特定する目的地特定ステップと、
前記目的地特定ステップにより特定された目的地に向かう経路を選択する経路選 択ステップと、
前記経路選択ステップにより選択された経路に従って、前記目的地特定ステップ により特定された目的地に向けてユーザを案内する第 2の案内ステップとを備える、 コンピュータプログラム。
[12] 記憶媒体に記録される、請求項 12に記載のコンピュータプログラム。
PCT/JP2004/018896 2003-12-26 2004-12-17 ナビゲーション装置 WO2005064275A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005516569A JPWO2005064275A1 (ja) 2003-12-26 2004-12-17 ナビゲーション装置
EP04807254A EP1698859A4 (en) 2003-12-26 2004-12-17 NAVIGATION DEVICE
US10/583,873 US20070156331A1 (en) 2003-12-26 2004-12-17 Navigation device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-433833 2003-12-26
JP2003433833 2003-12-26

Publications (1)

Publication Number Publication Date
WO2005064275A1 true WO2005064275A1 (ja) 2005-07-14

Family

ID=34736534

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/018896 WO2005064275A1 (ja) 2003-12-26 2004-12-17 ナビゲーション装置

Country Status (5)

Country Link
US (1) US20070156331A1 (ja)
EP (1) EP1698859A4 (ja)
JP (1) JPWO2005064275A1 (ja)
CN (1) CN1898529A (ja)
WO (1) WO2005064275A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011530135A (ja) * 2008-08-04 2011-12-15 マイクロソフト コーポレーション 表面コンピューティングのためのユーザ定義のジェスチャセット
JP2012098065A (ja) * 2010-10-29 2012-05-24 Alpine Electronics Inc ナビゲーション装置
US8847739B2 (en) 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US8952894B2 (en) 2008-05-12 2015-02-10 Microsoft Technology Licensing, Llc Computer vision-based multi-touch sensing using infrared lasers
US9171454B2 (en) 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
JP2017181908A (ja) * 2016-03-31 2017-10-05 株式会社ゼンリンデータコム 地図表示装置、地図表示方法およびコンピュータプログラム
WO2020021852A1 (ja) * 2018-07-24 2020-01-30 クラリオン株式会社 情報収集装置、及び制御方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008083862A1 (en) * 2007-01-10 2008-07-17 Tomtom International B.V. Method of indicating traffic delays, computer program and navigation system therefor
US8401780B2 (en) * 2008-01-17 2013-03-19 Navteq B.V. Method of prioritizing similar names of locations for use by a navigation system
TWI401417B (zh) * 2008-05-21 2013-07-11 Maction Technologies Inc Segmented voice recognition navigation system and its method
US20100070166A1 (en) * 2008-09-15 2010-03-18 Verizon Corporate Services Group Inc. Routing in mapping systems
US8787871B2 (en) * 2008-12-02 2014-07-22 International Business Machines Corporation System and method for calculating and disseminating intelligent evacuation routes based on location awareness and integrated analytics
CN101886929B (zh) * 2009-05-13 2014-05-07 阿尔派株式会社 导航装置及导航方法
CN101784005A (zh) * 2009-12-17 2010-07-21 华为终端有限公司 兴趣点的检索方法及终端
CN102426015A (zh) * 2011-09-06 2012-04-25 深圳市凯立德科技股份有限公司 一种导航系统兴趣点的搜索方法及位置服务终端
GB2494649A (en) * 2011-09-13 2013-03-20 Tomtom Int Bv Selecting a destination on a navigation apparatus
US9341492B2 (en) * 2011-11-10 2016-05-17 Mitsubishi Electric Corporation Navigation device, navigation method, and navigation program
CN103944647A (zh) * 2013-01-23 2014-07-23 昆达电脑科技(昆山)有限公司 以音讯传输方式进行数据链路的方法及导航装置
JP6702217B2 (ja) * 2017-02-06 2020-05-27 株式会社デンソー 自動運転装置
DE102019215660A1 (de) * 2019-10-11 2021-04-15 Audi Ag Verfahren und Prozessoreinrichtung zum Führen eines Kraftfahrzeugs und/oder mobilen Endgeräts an eine Zielposition
CN112860987A (zh) * 2020-12-31 2021-05-28 华为技术有限公司 导航方法、装置和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000205879A (ja) * 1999-01-14 2000-07-28 Equos Research Co Ltd 目的地設定装置
JP2001141497A (ja) * 1999-11-11 2001-05-25 Atr Media Integration & Communications Res Lab ナビゲーションシステム
JP2002122435A (ja) * 2000-10-17 2002-04-26 Alpine Electronics Inc 車載用ナビゲーション装置の経路案内方法
JP2003029778A (ja) * 2001-07-16 2003-01-31 Fujitsu Ten Ltd ナビゲーションシステムにおける音声対話インターフェース処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03230299A (ja) * 1990-02-05 1991-10-14 Sumitomo Electric Ind Ltd 車載ナビゲータ
JP3622213B2 (ja) * 1993-09-29 2005-02-23 マツダ株式会社 自動車の経路誘導装置
JP3743037B2 (ja) * 1995-11-01 2006-02-08 株式会社日立製作所 移動端末への情報提供方法、情報提供システム及び移動端末
JP3890774B2 (ja) * 1998-10-09 2007-03-07 株式会社デンソー ナビゲーションシステム
US6665610B1 (en) * 2001-11-09 2003-12-16 General Motors Corporation Method for providing vehicle navigation instructions
JP3955472B2 (ja) * 2002-01-10 2007-08-08 三菱電機株式会社 ナビゲーション装置および地図情報記憶媒体および交差点地先情報提供方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000205879A (ja) * 1999-01-14 2000-07-28 Equos Research Co Ltd 目的地設定装置
JP2001141497A (ja) * 1999-11-11 2001-05-25 Atr Media Integration & Communications Res Lab ナビゲーションシステム
JP2002122435A (ja) * 2000-10-17 2002-04-26 Alpine Electronics Inc 車載用ナビゲーション装置の経路案内方法
JP2003029778A (ja) * 2001-07-16 2003-01-31 Fujitsu Ten Ltd ナビゲーションシステムにおける音声対話インターフェース処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1698859A4 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9171454B2 (en) 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US8952894B2 (en) 2008-05-12 2015-02-10 Microsoft Technology Licensing, Llc Computer vision-based multi-touch sensing using infrared lasers
JP2011530135A (ja) * 2008-08-04 2011-12-15 マイクロソフト コーポレーション 表面コンピューティングのためのユーザ定義のジェスチャセット
US8847739B2 (en) 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
JP2012098065A (ja) * 2010-10-29 2012-05-24 Alpine Electronics Inc ナビゲーション装置
JP2017181908A (ja) * 2016-03-31 2017-10-05 株式会社ゼンリンデータコム 地図表示装置、地図表示方法およびコンピュータプログラム
WO2020021852A1 (ja) * 2018-07-24 2020-01-30 クラリオン株式会社 情報収集装置、及び制御方法
JPWO2020021852A1 (ja) * 2018-07-24 2021-08-12 フォルシアクラリオン・エレクトロニクス株式会社 情報収集装置、及び制御方法
JP7351836B2 (ja) 2018-07-24 2023-09-27 フォルシアクラリオン・エレクトロニクス株式会社 情報収集装置、及び制御方法
US11898866B2 (en) 2018-07-24 2024-02-13 Faurecia Clarion Electronics Co., Ltd. Information collection device, and control method

Also Published As

Publication number Publication date
CN1898529A (zh) 2007-01-17
EP1698859A4 (en) 2009-02-11
US20070156331A1 (en) 2007-07-05
JPWO2005064275A1 (ja) 2009-05-07
EP1698859A1 (en) 2006-09-06

Similar Documents

Publication Publication Date Title
WO2005064275A1 (ja) ナビゲーション装置
US7546202B2 (en) Navigation apparatus and method for searching for point of interest using the same
JP4270611B2 (ja) 入力システム
EP1519153A1 (en) Navigation apparatus
JP5240565B2 (ja) 検索装置、及び検索用プログラム
JPWO2005096183A1 (ja) データ選択装置、データ選択方法、データ選択プログラムおよびそれを記録した記録媒体、並びに、ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラムおよびそれを記録した記録媒体
US20060253251A1 (en) Method for street name destination address entry using voice
EP1197951B1 (en) Handling homophones in a spoken query system
JP5217969B2 (ja) ナビゲーション装置
JPH0997266A (ja) 車両用ナビゲーション装置
JP2007205894A (ja) 車載用ナビゲーション装置及び検索施設表示方法
JPWO2005017453A1 (ja) ナビゲーション装置
JP2005069733A (ja) ナビゲーション装置、再探索プログラム、及び記憶媒体
JP3932273B2 (ja) ナビゲーション装置
JP2010108297A (ja) 施設検索方法および施設検索装置
JP5004026B2 (ja) 文字選択装置、ナビゲーション装置、及び文字選択プログラム
JP2010133904A (ja) 目的地検索装置、プログラム、及び目的地検索方法
US20090063037A1 (en) Navigation system with web interface
WO2006028171A1 (ja) データ提示装置、データ提示方法、データ提示プログラムおよびそのプログラムを記録した記録媒体
JP6694781B2 (ja) 経路案内装置、経路案内方法、およびコンピュータプログラム
JP2006266965A (ja) ナビゲーション装置、ナビゲーション方法およびナビゲーション用プログラム
US8554479B2 (en) Navigation system and method for supporting destination input in a navigation system
JP2005316022A (ja) ナビゲーション装置及びプログラム
JP2002267475A (ja) ナビゲーション装置、ルート生成方法、記憶媒体
JP2000074685A (ja) 車載装置における検索方法と車載ナビゲーション装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480038949.5

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005516569

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2004807254

Country of ref document: EP

Ref document number: 10583873

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWP Wipo information: published in national office

Ref document number: 2004807254

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10583873

Country of ref document: US