WO2013054375A1 - ナビゲーション装置、方法およびプログラム - Google Patents

ナビゲーション装置、方法およびプログラム Download PDF

Info

Publication number
WO2013054375A1
WO2013054375A1 PCT/JP2011/005715 JP2011005715W WO2013054375A1 WO 2013054375 A1 WO2013054375 A1 WO 2013054375A1 JP 2011005715 W JP2011005715 W JP 2011005715W WO 2013054375 A1 WO2013054375 A1 WO 2013054375A1
Authority
WO
WIPO (PCT)
Prior art keywords
route guidance
unit
expression
presentation content
guidance expression
Prior art date
Application number
PCT/JP2011/005715
Other languages
English (en)
French (fr)
Inventor
渡邉 圭輔
友紀 古本
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112011105733.4T priority Critical patent/DE112011105733T5/de
Priority to US14/114,877 priority patent/US9476728B2/en
Priority to PCT/JP2011/005715 priority patent/WO2013054375A1/ja
Priority to JP2013538341A priority patent/JP5414951B2/ja
Priority to CN201180074099.4A priority patent/CN103857988B/zh
Publication of WO2013054375A1 publication Critical patent/WO2013054375A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3641Personalized guidance, e.g. limited guidance on previously travelled routes

Definitions

  • the present invention relates to a navigation apparatus, method, and program capable of recognizing a user's utterance content and performing navigation.
  • a navigation device for in-vehicle use, for example, when a predetermined point (for example, an intersection whose traveling direction is to be changed) is approaching while traveling on a set route, a voice output or a graphic display is provided to the driver.
  • a predetermined point for example, an intersection whose traveling direction is to be changed
  • a voice output or a graphic display is provided to the driver.
  • the navigation device can provide road guidance at a predetermined point set in advance, the content of the road guidance that the passenger is providing to the driver during driving is used as the guidance content of the navigation device. It was not possible to present it to the person.
  • Patent Document 1 describes a speech recognition apparatus that always recognizes speech and displays the recognition result as it is on the screen as it is.
  • the result of speech recognition is simply displayed on the screen as characters, and there is no function for extracting and displaying the route guidance expression from the recognition result.
  • unrelated content may be displayed, and the content of the spoken speech is simply displayed as it is, which makes it difficult for the driver to intuitively understand the content.
  • the present invention has been made to solve the above-mentioned problems, and extracts only the route guidance expression that the passenger has made to the driver and presents the contents so that it can be easily understood intuitively.
  • An object of the present invention is to provide a navigation device, method, and program that can be used.
  • the present invention provides a navigation device that includes a position acquisition unit that acquires the position of a moving body, and that provides route guidance based on the position of the moving body and map data acquired by the position acquisition unit.
  • a voice acquisition unit that acquires the input voice
  • a voice recognition unit that performs voice recognition processing from the voice data acquired by the voice acquisition unit
  • a road guide expression storage unit that stores a road guide expression
  • the route guidance expression extracting unit that extracts the route guidance expression from the recognition result by the voice recognition unit, and the presentation content corresponding to the route guidance expression are stored in association with the route guidance expression.
  • a road for obtaining corresponding presentation content based on the route guidance expression extracted by the route guidance expression extraction unit with reference to the route guidance expression presentation content storage unit and the route guidance expression presentation content storage unit An inner representation presenting content acquisition unit, and a presenting control output unit for outputting been presented content acquired by the guidance expression presentation content acquiring unit.
  • the navigation device of the present invention only the route guidance expression performed by the speaker such as a passenger to the driver is extracted, and the presentation content corresponding to the route guidance expression is output. Therefore, it is possible to prevent the driver from making mistakes and prevent the speaker from moving in an unintended direction.
  • FIG. 1 is a block diagram illustrating an example of a navigation device according to Embodiment 1.
  • FIG. 3 is a diagram illustrating an example of a route guidance expression storage unit 3.
  • FIG. It is a figure which shows an example of the way guidance expression presentation content storage part 5 in case a presentation content is visual presentation content.
  • 4 is a flowchart showing an operation of the navigation device according to the first embodiment.
  • Embodiment 1 it is a figure which shows the example of a screen of the route guidance information shown to the user when the presentation content is a visual presentation content.
  • FIG. 10 is a block diagram illustrating an example of a navigation device according to a second embodiment. 10 is a flowchart showing the operation of the navigation device according to the second embodiment.
  • FIG. 10 is a block diagram illustrating an example of a navigation device according to a third embodiment.
  • 3 is a diagram illustrating an example of a presentation timing storage unit 12.
  • FIG. 12 is a flowchart illustrating an operation of the navigation device according to the third embodiment.
  • FIG. 10 is a block diagram illustrating an example of a navigation device according to a fourth embodiment. 10 is a flowchart illustrating an operation of the navigation device according to the fourth embodiment.
  • FIG. 10 is a block diagram illustrating an example of a navigation device according to a fifth embodiment.
  • FIG. 10 is a flowchart illustrating an operation of the navigation device according to the fifth embodiment.
  • FIG. 20 is a block diagram illustrating an example of a navigation device according to a sixth embodiment. 18 is a flowchart showing the operation of the navigation device according to the sixth embodiment. 18 is a flowchart showing the operation of the navigation device according to the seventh embodiment.
  • FIG. 20 is a block diagram illustrating an example of a navigation device according to an eighth embodiment. 20 is a flowchart showing the operation of the navigation device according to the eighth embodiment.
  • FIG. 38 is a block diagram illustrating an example of a navigation device according to a ninth embodiment. 3 is a diagram illustrating an example of a cancellation / correction expression storage unit 16.
  • FIG. 20 is a block diagram illustrating an example of a navigation device according to a sixth embodiment. 18 is a flowchart showing the operation of the navigation device according to the sixth embodiment. 18 is a flowchart showing the operation of the navigation device according to the seventh embodiment.
  • FIG. 20 is a
  • FIG. 38 is a block diagram illustrating an example of a navigation device according to a tenth embodiment. 29 is a flowchart showing the operation of the navigation device according to the tenth embodiment.
  • FIG. 38 is a block diagram illustrating another example of the navigation device according to the tenth embodiment.
  • FIG. 1 is a block diagram showing an example of a navigation apparatus according to Embodiment 1 of the present invention.
  • This navigation device includes a voice acquisition unit 1, a voice recognition unit 2, a road guide expression storage unit 3, a road guide expression extraction unit 4, a road guide expression presentation content storage unit 5, and a road guide expression presentation content acquisition unit.
  • the navigation device also includes a key input unit that acquires an input signal using a key, a touch panel, or the like.
  • a map data storage unit 8 that stores map data such as road data, intersection data, and facility data may be provided, or a map data acquisition unit that can acquire these map data from the outside via a network is provided. You may do it.
  • the map data storage unit 8 (or map data acquisition unit) is also not shown here.
  • a vehicle position acquisition unit (position acquisition unit) 9 for acquiring the position of the vehicle (moving body) is also provided.
  • the own vehicle position acquisition unit (position acquisition unit) 9 acquires the current position (latitude and longitude) of the own vehicle (moving body) using information acquired from a GPS receiver, a gyroscope, or the like.
  • the voice acquisition unit 1 performs A / D conversion on a user utterance collected by a microphone or the like, that is, an input voice, and acquires the voice, for example, in a PCM (Pulse Code Modulation) format.
  • the voice recognition unit 2 has a recognition dictionary (not shown), detects a voice section corresponding to the content spoken by a speaker such as a passenger from the voice data acquired by the voice acquisition unit 1, and features And a speech recognition process is performed using a recognition dictionary based on the feature amount. Note that the voice recognition unit 2 may use a voice recognition server on the network.
  • the route guidance expression storage unit 3 normally stores expressions that are assumed to be used when a person provides route guidance.
  • FIG. 2 is a diagram illustrating an example of the route guidance expression storage unit 3.
  • the route guidance expression storage unit 3 includes, for example, “immediately” indicating “timing to perform route guidance”, “after a while”, “200 meters ahead”, “next intersection”, etc. , And stores expressions such as “right turn” and “west” representing the direction.
  • the route guidance expression extraction unit 4 performs morphological analysis with reference to the route guidance expression storage unit 3 and extracts a route guidance expression from the character string of the speech recognition result of the speech recognition unit 2.
  • the route guidance expression presentation content storage unit 5 stores the route guidance expression extracted by the route guidance expression extraction unit 4 in association with the presentation content (visual presentation content or audio presentation content) corresponding to the route guidance expression. is doing. If the presentation content corresponding to the route guidance expression is a visual presentation content, the presentation content is the content that is visually presented to the driver on the navigation display screen, dashboard, etc. For example, an arrow or other figure indicating the direction, a character indicating the direction, and a path to be followed on the map are presented with color change or thickness emphasized.
  • FIG. 3 is a diagram illustrating an example of the route guidance expression presentation content storage unit 5 when the presentation content is visual presentation content.
  • route guidance expression presentation content storage unit 5 when the presented content is an auditory presentation content is omitted, for example, an assumed route guidance expression as shown in FIG. Voice data (synthetic voice), "left turn”, “left”, “left” Voice data (synthetic voice) such as “turn left” is stored for the route guidance expression.
  • the route guidance expression presentation content acquisition unit 6 searches the route guidance expression content storage unit 5 using the route guidance expression extracted by the route guidance expression extraction unit 4 as a search key, and corresponds to the route guidance expression that matches the search key. To obtain the presentation contents (visual presentation contents or auditory presentation contents).
  • the presentation content is an auditory presentation content
  • synthesized speech is created in advance and stored in the route guidance expression presentation content storage unit 5, but the route guidance expression presentation content storage unit
  • the route guidance expression presentation content acquisition unit 6 may acquire the presentation content by creating a synthesized voice.
  • the presentation control unit 7 outputs the presentation content acquired by the route guidance presentation content acquisition unit 6 to the display unit 21 or the voice output unit 22 (or both). That is, when the presentation content is visual presentation content, it is output to the display unit 21 (for example, on a navigation display screen, on a dashboard, on a windshield, etc.), and the presentation content is an auditory presentation content. In some cases, the sound is output to the audio output unit 22 (speaker or the like).
  • FIG. 4 is a flowchart showing the operation of the navigation device according to the first embodiment.
  • the voice acquisition unit 1 acquires the input voice, performs A / D conversion, and acquires it as, for example, PCM format voice data (step ST01).
  • the voice recognition unit 2 recognizes the voice data acquired by the voice acquisition unit 1 (step ST02).
  • the route guidance expression extraction unit 4 extracts the route guidance expression from the recognition result of the voice recognition unit 2 while referring to the route guidance expression storage unit 3 (step ST03).
  • the route guide expression presentation content acquisition unit 6 searches the route guide expression presentation content storage unit 5 using the route guide expression extracted by the route guide expression extraction unit 4 as a search key, and the route guide expression that matches the search key. Is searched for the presentation content (visual presentation content or auditory presentation content) corresponding to the route guidance expression (step ST04).
  • step ST05 If a route guidance expression matching the search key is found (in the case of YES in step ST05), presentation contents (visual presentation content and / or auditory presentation content or both) corresponding to the route guidance expression are acquired. (Step ST06), the presentation control output unit 20 outputs the presentation content (by display or voice output or both) (step ST07). On the other hand, if no route guidance expression matching the search key is found (NO in step ST05), the process ends.
  • the voice acquisition unit 1 acquires the voice data (step ST01), and the voice recognition unit 2 As a result, a recognition result “turn 200 mail destination to the right” is obtained (step ST02).
  • the route guidance expression extraction unit 4 refers to the route guidance expression storage unit 3 as shown in FIG. 2 and extracts the character strings “200 meters ahead” and “to the right” as the route guidance expression (step ST03).
  • the route guidance expression presentation content acquisition unit 6 searches and searches the route guidance expression presentation content storage unit 5 as shown in FIG. 3 using the character string “200 meters ahead” and the character string “to the right” as search keys. A route guidance expression matching the key is searched (step ST04).
  • a route guidance expression matching the search key “200 meters ahead” was not found, but a route guidance expression matching the search key “to the right” was found (in the case of YES in step ST05).
  • "Right arrow graphic data” and “Right turn character string data” corresponding to the route guidance expression "right”, and / or auditory presentation content "voice” right turn " Data is acquired (step ST06). If the acquired presentation content is visual presentation content, it is output on a display screen or the like. If the presentation content is audio presentation content, It outputs from a speaker (step ST07) In addition, when both presentation content is acquired, both a display and audio
  • FIG. 5 is a diagram showing a screen example in which the presentation content is output on the display screen and presented to the user when the presentation content is visual presentation content.
  • FIG. 5A shows a display screen in which the vehicle 32 is displayed in a triangle on the navigation screen 31 and a state in which the passenger speaks “turn right 200 meters ahead”. The contents are indicated by a balloon 33.
  • FIG. 5B shows the result of the operation shown in the above-described flowchart by the navigation device at this time. As a result, “right arrow graphic data” is displayed as the visual presentation content on the same navigation screen 31 as FIG. "34" is displayed.
  • FIG. 5C shows a state in which “character data of“ right turn ”” 35 is displayed in addition to “graphic data of right arrow” 34.
  • the presentation content may be displayed only as graphic information as shown in FIG. 5B, or as character information as shown in FIG. 5C. Both graphic information may be displayed.
  • the display may be set by the user.
  • the display location may be any location on the screen, may be a fixed display location, or may be displayed at a location where the road is not hidden. Further, it may be on the windshield instead of on the display screen of the navigation device.
  • the display device specifying unit may be further provided to determine which output device to present.
  • the graphic or character to be displayed may be displayed in a manner that is easier for the user to recognize, such as blinking, moving from right to left, or displaying in a fade-in manner.
  • the user may be able to set which method is used for display.
  • the user may be able to set whether only the visual presentation contents are displayed, whether only the auditory presentation contents are output by voice, or both are output.
  • the auditory presentation contents are not voice data corresponding to the route guidance expression, for example, a non-language such as “Pawn” It is good also as what calls attention with a sound (sound effect for notifying).
  • the configuration may be such that the auditory presentation content of such non-language sounds is also output.
  • the passenger's utterance content is always recognized.
  • the button Voice recognition may be performed only while the button is pressed.
  • the user may be able to set whether to always recognize or recognize only for a predetermined period.
  • the route guidance expression is visually displayed as graphic data such as arrows or character data. Therefore, it becomes easy for the driver to understand intuitively, preventing the driver from hearing mistakes, and preventing the speaker from proceeding in an unintended direction.
  • the route guidance expression spoken by a fellow speaker or the like is output again by voice so that the driver's It is possible to prevent mistaken listening and prevent the speaker from moving in an unintended direction.
  • by outputting both visual presentation contents and auditory presentation contents it is possible to further prevent the speaker from proceeding in an unintended direction due to a driver's mistaken hearing.
  • FIG. 6 is a block diagram showing an example of a navigation apparatus according to Embodiment 2 of the present invention.
  • symbol is attached
  • the presentation position specifying unit 10 is further provided as compared with the first embodiment.
  • the presentation content is visual presentation content
  • a position for displaying the presentation content is specified and output.
  • FIG. 6 in the second embodiment also shows a map data storage unit 8 and a vehicle position acquisition unit (position acquisition unit) 9 which are not shown in FIG. 1 which is a block diagram of the first embodiment. Has been.
  • the map data storage unit 8 stores map data such as road data, intersection data, and facility data on a medium such as a DVD-ROM, hard disk, and SD card.
  • a map data acquisition unit that exists on a network and can acquire map data information such as road data via a communication network may be used.
  • the own vehicle position acquisition unit (position acquisition unit) 9 acquires the current position (latitude and longitude) of the own vehicle (moving body) using information acquired from a GPS receiver, a gyroscope, or the like.
  • the presentation position specifying unit 10 when the presentation content is visual presentation content, the position of the own vehicle (moving body) acquired by the own vehicle position acquisition unit (position acquisition unit) 9 and the route guidance expression extraction unit 4.
  • the position where the visual presentation content is displayed is specified using the route guidance expression extracted by the above and the map data stored in the map data storage unit 8.
  • FIG. 7 is a flowchart showing the operation of the navigation device according to the second embodiment.
  • the processing from steps ST11 to ST16 is the same as steps ST01 to ST06 in the flowchart of FIG.
  • the route guidance expression extracted by the route guidance expression extraction unit 4 further includes a route guidance expression representing the place. It is determined whether or not (step ST18).
  • the vehicle position acquired from the vehicle position acquisition unit (position acquisition unit) 9 Position of the moving body
  • the route guidance expression extracted by the route guidance expression extraction unit 4 and the map data stored in the map data storage unit 8 are used to specify the position where the visual presentation content is displayed.
  • the presentation control output unit 20 displays the visual presentation content at the specified position (step ST20).
  • step ST17 the presentation content is not visual presentation content but audio presentation content (in the case of NO in step ST17), or in step ST18, the route guidance expression representing the place is not included. If the presentation content is an auditory presentation content, an audio output is used, and if the presentation content is a visual presentation content and does not include a route guidance expression representing a place, a predetermined on-screen display is provided. The content of presentation is output to the position etc. (step ST21).
  • the voice acquisition unit 1 acquires the voice data (step ST11), and the voice recognition unit 2 As a result, a recognition result “turn 200 mail destination to the right” is obtained (step ST12).
  • the route guidance expression extraction unit 4 refers to the route guidance expression storage unit 3 as shown in FIG. 2 and extracts the character strings “200 meters ahead” and “to the right” as the route guidance expression (step ST13).
  • the route guidance expression presentation content acquisition unit 6 searches and searches the route guidance expression presentation content storage unit 5 as shown in FIG. 3 using the character string “200 meters ahead” and the character string “to the right” as search keys. A route guidance expression matching the key is searched (step ST14).
  • the presentation position specifying unit 10 is the vehicle position acquisition unit (position acquisition unit) 9
  • the position 200 meters ahead is calculated from the own vehicle position acquired from the map, the map data storage unit 8 is referenced, the intersection to be turned to the right is identified, and the road that passes after the intersection is turned to the right is identified (step ST19). .
  • step ST20 the visual presentation content acquired by the route guidance expression presentation content acquisition unit 6 is displayed and output at the position specified by the presentation position specifying unit 10 (step ST20).
  • the road (position) on which the presentation content is to be displayed is specified, so “right arrow graphic data” and “right turn character string data” are displayed on the specified road.
  • the color of the road identified by using information such as “turn the road color red” or “turn the road thickness to XX dots” acquired by the road guide expression presentation content acquisition unit 6 Can be displayed in red or the road can be thickened.
  • FIG. 8 when the presentation content is visual presentation content and the route guidance expression includes a route guidance expression representing a place, the presentation content is output on the display screen and presented to the user.
  • FIG. 8A is the same diagram as FIG. 5A, and a display screen in which the vehicle 32 is displayed in a triangle on the navigation screen 31 and a passenger turn “turn right 200 meters ahead”. An uttered state is shown, and the content of the utterance is indicated by a balloon 33.
  • FIG. 8B shows the result of the operation of the flowchart shown in FIG. 7 performed by the navigation device at this time. As a result, “right” is displayed on the same navigation screen 31 as FIG.
  • An arrow graphic data “34” is displayed on a road that passes after a right turn.
  • 8C shows a state in which the color of the road is red (red road 36)
  • FIG. 8D shows a state in which the thickness of the road is thick (road 37 having a wide road width). Is shown.
  • the character information “turn right” may also be displayed. Even when this character information is displayed, it may be displayed on the identified road or on the intersection that makes a right turn.
  • the user may be able to set whether to display character information or graphic information or both. Further, it may be on the windshield instead of on the display screen of the navigation device.
  • the display device specifying unit may be further provided to determine which output device to present.
  • the graphic or character to be displayed may be blinked, or the graphic or character may be moved to the right from the intersection, or displayed so as to fade in. .
  • the user may be able to set which method is used for display.
  • Step ST21 when the acquired presentation content is visual presentation content (in the case of YES in step ST17) and the route guidance expression indicating the place is not included in the route guidance expression (in the case of NO in step ST18).
  • the passenger's utterance content is always recognized.
  • the passenger starts the route guidance for example, when the passenger starts the route guidance, the user presses the button for voice recognition, Voice recognition may be performed only while the button is pressed.
  • the user may be able to set whether to always recognize or recognize only for a predetermined period.
  • the user may be able to set whether or not to use the function for specifying the presentation position in the second embodiment.
  • the second embodiment only a route guidance expression spoken by a speaker such as a passenger is extracted, and the speaker intends graphic data such as arrows or character data as the route guidance expression. Since the information is visually displayed at the guide point, in addition to the effect in the first embodiment, it is possible to prevent the driver from changing the course at an incorrect position.
  • FIG. 9 is a block diagram showing an example of a navigation apparatus according to Embodiment 3 of the present invention.
  • symbol is attached
  • the third embodiment described below further includes a presentation timing storage unit 11 and a presentation timing control unit 12 as compared with the first embodiment. And according to the utterance content of speakers, such as a passenger, the timing which shows presentation content to a driver is changed, and it outputs.
  • the presentation timing storage unit 11 stores the timing of presentation in association with the route guidance expression.
  • the presentation timing control unit 12 refers to the presentation timing storage unit 11 from the route guidance expression extracted by the route guidance expression extraction unit 4, and an expression representing the timing of presenting the presentation content to the extracted route guidance expression. If it is included, the presentation timing corresponding to the expression is determined.
  • FIG. 10 is a diagram illustrating an example of the presentation timing storage unit 11. As shown in this figure, for example, the presentation timing storage unit 11 responds to an expression “one second later” for an expression representing the timing of presenting a “soon” route guidance expression, The presentation timing “after 10 seconds” and the like are stored in association with each other.
  • FIG. 11 is a flowchart showing the operation of the navigation device according to the third embodiment.
  • the processing from steps ST31 to ST36 is the same as steps ST01 to ST06 in the flowchart of FIG.
  • it is determined whether or not an expression character string indicating the timing of presenting the expression is included in the road guide expression extracted by the road guide expression extracting unit 4 in step ST33. (Step ST37).
  • the presentation timing control unit 12 refers to the presentation timing storage unit 11 as shown in FIG.
  • the presentation timing corresponding to the expression to represent is determined (step ST38).
  • the presentation control output unit 20 outputs the presentation content at the presentation timing determined in step ST38 (step ST39).
  • step ST40 the presentation content is output immediately or at a predetermined timing (step ST40).
  • the voice acquisition unit 1 acquires the voice data (step ST31), and the voice recognition unit 2 reads “slightly more”. Then turn right and get the recognition result ”(step ST32). Then, the route guidance expression extraction unit 4 refers to the route guidance expression storage unit 3 as shown in FIG. 2 and extracts the character strings “after a little more” and “turn right” as the route guidance expression (step ST33). After that, the route guide expression presentation content acquisition unit 6 searches the route guide expression presentation content storage unit 5 as shown in FIG. 3 using the character string “when it is a little more” and the character string “turn right” as search keys, A matching route guidance expression is searched (step ST34).
  • the route guidance expression that matches the search key “slightly after” is not found, but the route guidance expression that matches the search key “right turn” is found (in the case of YES at step ST35), the “turn right” "Right arrow graphic data” or “Right turn character string data”, "Make road color red” or “Road thickness is XX dot” Information, or “sound data“ turn right ””, which is an auditory presentation content, is acquired (step ST36). All the presentation contents memorize
  • stored in the part 5 may be sufficient, and when a presentation content is preset, only the set presentation content may be sufficient.
  • step ST37 it is further determined whether or not the route guidance expressions extracted in step ST33 include a route guidance expression indicating the presentation timing in the “after a little more” and “right turn” (step ST37).
  • the presentation timing control unit 12 since the route guidance expression indicating the presentation timing “when it is a little more” is included (in the case of YES in step ST37), the presentation timing control unit 12 provides the presentation timing storage unit 11 as shown in FIG. The presentation timing corresponding to “after a little more” is determined as “10 seconds later” (step ST38).
  • the presentation content acquired by the route guidance presentation content acquisition unit 6 in step ST36 is visual presentation content, it is displayed and output on the display screen at the presentation timing determined in step ST38. If the presentation content is an auditory presentation content, audio is output from the speaker at the presentation timing determined in step ST38 (step ST39).
  • the presentation timing control unit 12 may have a function of learning the presentation timing corresponding to the route guidance expression representing the presentation timing. That is, when the presentation content is displayed on the display screen or output from the speaker at the presentation timing determined by the presentation timing control unit 12, the guidance point is presented. 10 is stored in the presentation timing storage unit 11 shown in FIG. 10 so that the time taken to pass through the guidance point after the presentation content is acquired by the content acquisition unit 6 is used as the next presentation timing for the same expression. Change the contents.
  • the presentation timing corresponding to the route guidance expression “after a little more” in the presentation timing storage unit 11 shown in FIG. 10 is changed to “after 5 seconds”. Note that the time actually taken may be accumulated, and the average time may be used as the next presentation timing.
  • the passenger's utterance content is always recognized.
  • the passenger starts the route guidance for example, when the passenger starts the route guidance, the user presses the button for voice recognition, Voice recognition may be performed only while the button is pressed.
  • the user may be able to set whether to always recognize or recognize only for a predetermined period.
  • the user may be able to set whether or not to use the function for determining the presentation timing in the third embodiment.
  • the presentation timing itself may be set by the user.
  • the route guidance expression spoken by a speaker such as a passenger is presented at an appropriate timing, in addition to the effects in the first embodiment, the luck presentation is presented. It is possible to prevent the driver from changing the course at a point where the content is presented too early and the speaker does not intend.
  • FIG. FIG. 12 is a block diagram showing an example of a navigation device according to Embodiment 4 of the present invention. Note that the same components as those described in the first to third embodiments are denoted by the same reference numerals, and redundant description is omitted.
  • Embodiment 4 shown below compared with Embodiment 3, the map data storage part 8 and the own vehicle position acquisition part (position acquisition part) 9 are shown, and the presentation timing control part in Embodiment 3 is shown. 12 determines the presentation timing based on the map data and the position of the own vehicle (moving body), not based on the presentation timing storage unit 11 as shown in FIG. 10 in the third embodiment.
  • FIG. 13 is a flowchart showing the operation of the navigation device according to the fourth embodiment.
  • the processing from steps ST41 to ST46 is the same as steps ST01 to ST06 in the flowchart of FIG.
  • the presentation timing control unit 12 detects the route guidance expression extracted by the route guidance expression extraction unit 4 in step ST43 and the vehicle position acquisition unit (position acquisition unit) 9 Based on the vehicle position (the position of the moving body) and the map data stored in the map data storage unit 8, the guide point where the road guidance is to be specified is specified (step ST47). Thereafter, a distance from the vehicle position (position of the moving body) to the guidance point specified in step ST47 is calculated (step ST48), and it is determined whether or not the distance is equal to or less than a predetermined value (step ST48).
  • Step ST49 Then, until the distance from the own vehicle position (the position of the moving body) to the guide point is equal to or less than a predetermined value (in the case of NO in step ST49), the own vehicle position (the position of the moving body) is acquired (step ST50), The process of calculating the distance (step ST48) is repeated. Then, when the distance from the vehicle position (position of the moving body) to the guide point becomes equal to or less than a predetermined value (in the case of YES in step ST49), it is determined that this is the presentation timing, and the output of the presentation contents is instructed Then, the presentation control output unit 20 outputs the presentation content (step ST52).
  • the voice acquisition unit 1 acquires the voice data (step ST41), and the voice recognition unit 2 A recognition result “turn right at 200 mail destination” is obtained (step ST42).
  • the route guidance expression extraction unit 4 refers to the route guidance expression storage unit 3 as shown in FIG. 2 and extracts the character strings “200 meters ahead” and “turn right” as the route guidance expression (step ST43).
  • the route guidance expression presentation content acquisition unit 6 searches the route guidance expression presentation content storage unit 5 as shown in FIG. 3 using the character string “200 meters ahead” and the character string “turn right” as search keys, and the search key. A route guidance expression that matches is retrieved (step ST44).
  • a route guidance expression matching the search key “200 meters ahead” was not found, but a route guidance expression matching the search key “right turn” was found (in the case of YES in step ST45), the “right turn” "Right arrow graphic data” and “Right turn character string data", "Red road color” and "Road thickness” Information such as “Dot” or “sound data“ turn right ”” which is an auditory presentation content is acquired (step ST46) .
  • the acquired presentation content corresponds to the route guidance expression. All the presentation contents stored in the storage unit 5 may be used, or when the presentation contents are set in advance, only the set presentation contents may be used.
  • step ST43 based on "200 meters ahead” in the road guidance expression extracted in step ST43, the own vehicle position acquired by the own vehicle position acquisition unit (position acquisition unit) 9, and the map data, the route guidance is performed.
  • the position (intersection, etc.) on the map where “200 meters ahead” to be “right turn”, which should be a guide point, is specified (step ST47).
  • step ST48 the process of acquiring the vehicle position and calculating the distance to the guidance point until the distance from the vehicle position to the guidance point becomes a predetermined value (for example, 20 meters) or less.
  • Step ST51) is repeated, and when the distance between the vehicle position and the guide point becomes a predetermined value (20 meters) or less, the output of the presentation content is instructed (step ST51).
  • “figure data 34 of right arrow” as shown in FIG. 5B is displayed on the display screen (step ST52).
  • the passenger's utterance content is always recognized.
  • the passenger starts the route guidance for example, when the passenger starts the route guidance, the user presses the button for voice recognition
  • Voice recognition may be performed only while the button is pressed.
  • the user may be able to set whether to always recognize or recognize only for a predetermined period.
  • a predetermined value for determining the distance from the vehicle position (position of the moving body) to the guide point
  • determining the presentation timing in the fourth embodiment may be registered in advance. However, it may be set by the user. Further, the user can set whether or not to use the function for determining the presentation timing (the function of presenting the presentation contents after determining the distance from the vehicle position (position of the moving body) to the guide point). You may do it.
  • the route guidance expression spoken by a speaker such as a passenger is presented at an appropriate timing. It is possible to prevent the driver from changing his / her course at a point where the speaker does not intend to present too early.
  • FIG. FIG. 14 is a block diagram showing an example of a navigation apparatus according to Embodiment 5 of the present invention. Note that the same components as those described in the first to fourth embodiments are denoted by the same reference numerals, and redundant description is omitted.
  • a vehicle speed acquisition unit (speed acquisition unit) 13 is further provided, and the presentation timing control unit 12 in the fourth embodiment includes the map data and the own vehicle (movement). In addition to the position of the body, the presentation timing is determined based on the vehicle speed (speed of the moving body).
  • FIG. 15 is a flowchart showing the operation of the navigation device according to the fifth embodiment.
  • the processing from steps ST61 to ST67 is the same as steps ST41 to ST47 in the flowchart of FIG.
  • the presentation timing control part 12 specifies the guidance point which should perform road guidance by step ST67, it is the same as step ST48 of Embodiment 4, and the own vehicle position (position of a moving body).
  • the vehicle speed acquisition unit (speed acquisition unit) 13 acquires the vehicle speed (speed of the moving body) of the host vehicle (step ST69). .
  • step ST70 based on the distance from the vehicle position (position of the moving body) to the guidance point calculated in step ST68 and the vehicle speed (speed of the moving body) acquired in step ST69, the vehicle (moving body) is The time required to reach the guidance point is calculated (step ST70), and it is determined whether or not the time required is equal to or less than a predetermined value set in advance (step ST71). Until this required time is less than or equal to a predetermined value (in the case of NO in step ST71), the host vehicle position (position of the moving body) is acquired (step ST72), the distance is calculated (step ST68), and the vehicle speed (of the moving body) Speed) (step ST69), and the process of calculating the required time (step ST70) is repeated.
  • step ST71 when the time required for the host vehicle (moving body) to reach the guidance point becomes equal to or less than the predetermined value (in the case of YES in step ST71), it is determined that this is the presentation timing, and the output of the presentation contents is performed. Instructing (step ST73), the presentation control output unit 20 outputs the presentation content (step ST74).
  • the voice acquisition unit 1 acquires the voice data (step ST61), and the voice recognition unit 2 A recognition result “turn right at 200 mail” is obtained (step ST62).
  • the route guidance expression extraction unit 4 refers to the route guidance expression storage unit 3 as shown in FIG. 2 and extracts the character strings “200 meters ahead” and “turn right” as the route guidance expression (step ST63).
  • the route guidance expression presentation content acquisition unit 6 searches the route guidance expression presentation content storage unit 5 as shown in FIG. 3 using the character string “200 meters ahead” and the character string “turn right” as search keys, and the search key. A route guidance expression that matches is searched (step ST64).
  • step ST65 a route guidance expression matching the search key “200 meters ahead” was not found, but a route guidance expression matching the search key “right turn” was found (in the case of YES in step ST65), the “right turn” "Right arrow graphic data” and “Right turn character string data", "Red road color” and "Road thickness” Information such as “Dot” or “voice data“ turn right ”” which is an auditory presentation content is acquired (step ST66) .
  • the acquired presentation content corresponds to the route guidance expression. All the presentation contents stored in the storage unit 5 may be used, or when the presentation contents are set in advance, only the set presentation contents may be used.
  • step ST63 based on "200 meters ahead” in the road guidance expression extracted in step ST63, the own vehicle position acquired by the own vehicle position acquisition unit (position acquisition unit) 9, and the map data, the route guidance is performed.
  • step ST68 the distance from the vehicle position to the guide point is calculated (step ST68), the vehicle speed acquisition unit (speed acquisition unit) 13 acquires the vehicle speed of the host vehicle (step ST69), and the required time to the guide point is calculated.
  • Step ST70 For example, when the distance from the vehicle position to the guide point is 200 meters and the vehicle speed is 60 km / h, the time required for the vehicle to reach the guide point is 12 seconds.
  • step ST68 to ST72 the output of the presentation content is instructed (step ST73).
  • a predetermined value for example, 10 seconds
  • the passenger's utterance content is always recognized.
  • the passenger starts the route guidance for example, when the passenger starts the route guidance, the user presses the button for voice recognition, Voice recognition may be performed only while the button is pressed.
  • the user may be able to set whether to always recognize or recognize only for a predetermined period.
  • a predetermined value for determining the presentation timing in the fifth embodiment for determining the time required for the host vehicle (moving body) to reach the guidance point
  • the user sets whether or not to use the function of determining the presentation timing (the function of determining the required time until the vehicle (moving body) reaches the guidance point and presenting the presentation content). You may be able to do it.
  • the route guidance expression spoken by a speaker such as a passenger is presented at an appropriate timing. It is possible to prevent the driver from changing the course at a point where the presenting content is presented too early and the speaker does not intend.
  • FIG. 16 is a block diagram showing an example of a navigation apparatus according to Embodiment 6 of the present invention. Note that the same components as those described in the first to fifth embodiments are denoted by the same reference numerals, and redundant description is omitted.
  • the map data storage unit 8, the vehicle position acquisition unit (position acquisition unit) 9, the vehicle speed acquisition unit (speed acquisition unit) 13, and the road guide expression qualification A sex determination unit 14 is further provided, and a route guidance expression is presented after determining whether or not the presented content is appropriate.
  • the route guidance expression eligibility determination unit 14 determines eligibility as to whether or not to present the presentation content.
  • the eligibility is, for example, whether or not the vehicle can pass in the direction designated by the speaker, and whether or not the route (route) set when traveling in the designated direction does not deviate. And so on.
  • FIG. 17 is a flowchart showing the operation of the navigation device according to the sixth embodiment.
  • the processing from steps ST81 to ST83 is the same as steps ST01 to ST03 in the flowchart of FIG.
  • the road guide expression eligibility determination unit 14 is acquired by the road guide expression extracted by the road guide expression extraction unit in step ST83 and the own vehicle position acquisition unit (position acquisition unit) 9. Based on the vehicle position (position of the moving body) and the map data stored in the map data storage unit 8, it is determined whether or not it is appropriate to present the route guidance expression (step ST84).
  • step ST84 the presentation content corresponding to the route guidance expression is retrieved in the same manner as in steps ST04 to ST06 in FIG. (Step ST85) If the corresponding presentation content is found, the presentation content is acquired and output (steps ST86 to ST88). On the other hand, if it is determined in step ST84 that there is no qualification (NO in step ST84), the process is terminated.
  • the voice acquisition unit 1 acquires the voice data (step ST81), and the voice recognition unit 2 A recognition result “turn right at the next intersection” is obtained (step ST82).
  • the route guidance expression extracting unit 4 refers to the route guidance expression storage unit 3 as shown in FIG. 2 and extracts the character strings “next intersection” and “right turn” as the route guidance expression (step ST83).
  • the “next intersection” is identified, and the road information when turning right at the intersection is checked using the map data. If it is, it is determined that the route guidance expression is not appropriate (NO in step ST84), and the process is terminated.
  • step ST84 when a right turn at the intersection deviates from a set route (route), it is similarly determined that the route guidance expression is not eligible. On the other hand, if it is determined that the route guidance expression is eligible (YES in step ST84), the same processing (steps ST85 to ST88) as the processing in steps ST04 to ST07 of the first embodiment is performed.
  • Information such as “Right arrow graphic data”, “Right turn character string data”, “Make road color red”, “Make road thickness XX dots”, or auditory presentation content. Outputs “voice data“ turn right ””.
  • the passenger's utterance content is always recognized.
  • the passenger starts the route guidance for example, when the passenger starts the route guidance, the user presses the button for voice recognition, Voice recognition may be performed only while the button is pressed.
  • the user may be able to set whether to always recognize or recognize only for a predetermined period.
  • the user may be able to set whether or not to use the function for determining route guide expression suitability in the sixth embodiment.
  • the presentation content is presented based on an ineligible utterance of the speaker, and it is possible to prevent the driver from following an incorrect route or causing a traffic violation.
  • Embodiment 7 FIG. The block diagram showing an example of the navigation device according to the seventh embodiment of the present invention is the same as the block diagram shown in FIG. In the seventh embodiment described below, when compared with the sixth embodiment, when the route guidance expression eligibility determination unit 14 determines that the route guidance expression is not eligible, the content of presentation that the route guidance expression is not eligible Is presented. Further, at that time, the road guide expression presentation content acquisition unit 6 acquires, from the road guide expression presentation content storage unit 5, presentation content indicating that the road guide expression is not eligible.
  • illustration is abbreviate
  • FIG. 18 is a flowchart showing the operation of the navigation device according to the seventh embodiment. Since the processes from step ST91 to ST98 are almost the same as steps ST81 to ST88 in the flowchart of FIG. 17 in the sixth embodiment, the description of the same processes is omitted. And in this Embodiment 7, when it determines with the route guidance expression eligibility determination part 14 having eligibility when it determines whether it is eligible to present a route guidance expression in step ST94 ( In the case of YES in step ST94), as in steps ST85 to ST88 of FIG. 17 in the sixth embodiment, the presentation content corresponding to the route guidance expression is searched (step ST95), and the corresponding presentation content is found. The contents of the presentation are acquired and output (steps ST96 to ST98).
  • step ST94 when it is determined in step ST94 that there is no qualification (NO in step ST94), the processing is ended only in the sixth embodiment.
  • the presentation content acquisition unit 6 acquires the presentation content indicating that the route guidance expression is not appropriate (step ST99), and outputs the presentation content (step ST98).
  • the voice acquisition unit 1 acquires the voice data (step ST91)
  • the speech recognition unit 2 obtains a recognition result “turn right at the next intersection” (step ST92).
  • the route guidance expression extracting unit 4 refers to the route guidance expression storage unit 3 as shown in FIG. 2 and extracts the character strings “next intersection” and “right turn” as the route guidance expression (step ST93).
  • the “next intersection” is identified, and the road information when turning right at the intersection is checked using the map data. If it is, it is determined that the route guidance expression is not appropriate (NO in step ST94).
  • the route guidance expression presentation content acquisition unit 6 obtains, for example, graphic data “ ⁇ ”, character string data “cannot pass”, or “departs from the route” from the route representation presentation content storage unit 5. Get character string data.
  • the passenger's utterance content is always recognized.
  • the passenger starts the route guidance for example, when the passenger starts the route guidance, the user presses the button for voice recognition, Voice recognition may be performed only while the button is pressed.
  • the user may be able to set whether to always recognize or recognize only for a predetermined period.
  • the user may be able to set whether or not to use the function for determining route guide expression eligibility in the seventh embodiment.
  • the seventh embodiment it is determined whether or not the route guidance expression spoken by a speaker such as a passenger is appropriate, and if it is not appropriate, that fact is presented. Therefore, in addition to the effects in the first embodiment, not only the presentation contents are not presented based on the ineligible utterances of the speaker, but the driver knows that the utterance contents recognized by the driver are ineligible, It is possible to prevent the route and traffic violation from occurring.
  • FIG. 19 is a block diagram showing an example of a navigation apparatus according to Embodiment 8 of the present invention. Note that the same components as those described in the first to seventh embodiments are denoted by the same reference numerals, and redundant description is omitted.
  • the route resetting unit 15 is further provided, and the route guidance expression eligibility determining unit 14 deviates from the set route (route). When it is determined that the presented content (way guidance expression) is not eligible, the route to the destination using the deviated route as a waypoint is reset. When the route guidance expression eligibility determination unit 14 determines that the route guidance expression is not eligible because it deviates from the set route, the route resetting unit 15 uses the deviated route as a waypoint. Reset the route to.
  • FIG. 20 is a flowchart showing the operation of the navigation device according to the eighth embodiment. Since the processes from step ST101 to ST108 are substantially the same as steps ST81 to ST88 in the flowchart of FIG. 17 in the sixth embodiment, the description of the same processes is omitted. And in this Embodiment 8, when it determines with the route guidance expression eligibility determination part 14 having eligibility, when it determines whether it is qualified to show a route guidance expression in step ST104 ( In the case of YES in step ST104), similar to steps ST85 to ST88 in FIG. 17 in the sixth embodiment, the presentation content corresponding to the route guidance expression is searched (step ST105), and the corresponding presentation content is found. The content of the presentation is acquired and output (steps ST106 to ST108).
  • step ST104 when it is determined in step ST104 that the route guidance expression is not appropriate (NO in step ST104), the processing is ended only in the sixth embodiment. Then, it is determined whether or not it is determined not to be eligible to deviate from the set route (step ST109), and when it is determined that it is not eligible in step ST104 to deviate from the set route (YES in step ST109) In this case, the route resetting unit 15 resets the route to the destination so as to pass through the deviated route (step ST110). On the other hand, if it is determined that there is no qualification for another reason (NO in step ST109), the process is terminated.
  • the voice acquisition unit 1 acquires the voice data (step ST101)
  • the speech recognition unit 2 obtains a recognition result “turn right at the next intersection” (step ST102).
  • the route guidance expression extraction unit 4 refers to the route guidance expression storage unit 3 as shown in FIG. 2 and extracts the character strings “next intersection” and “right turn” as the route guidance expression (step ST103).
  • the “next intersection” is identified, and the road information when turning right at the intersection is checked using the map data. If it is, it is determined that the route guidance expression is not appropriate (in the case of NO in step ST104).
  • step ST109 it is determined whether or not the reason why it is determined not to be qualified is to deviate from the set route.
  • the reason that it is determined that the route is not eligible is because the route deviates from the set route (in the case of YES in step ST109), the route resetting unit 15 goes to the destination so as to pass through the deviated route. Is reset (step ST110).
  • the passenger's utterance content is always recognized.
  • the passenger starts the route guidance for example, when the passenger starts the route guidance, the user presses the button for voice recognition, Voice recognition may be performed only while the button is pressed.
  • the user may be able to set whether to always recognize or recognize only for a predetermined period. Further, the user may be able to set whether or not to use the route resetting function in the eighth embodiment.
  • the speaker gives route guidance with the intention of changing the route. Therefore, it can be prevented that the intention is not reflected and the intention is not reflected.
  • FIG. FIG. 21 is a block diagram showing an example of a navigation apparatus according to Embodiment 9 of the present invention. Note that the same components as those described in the first to eighth embodiments are denoted by the same reference numerals, and redundant description is omitted.
  • a cancellation / correction expression storage unit 16 and a cancellation / correction expression extraction unit 17 are further provided, and an expression for canceling the presentation of the presentation content is extracted. In such a case, the presentation content is not output, and when an expression to correct the presentation content is extracted, the corrected presentation content is output.
  • the cancellation / correction expression storage unit 16 normally stores expressions that are assumed to be used when a person is making a route guidance and makes a mistake or makes a mistake.
  • FIG. 22 is a diagram illustrating an example of the cancellation / correction expression storage unit 16. As shown in this figure, the cancellation / correction expression storage unit 16 stores, for example, cancellation expressions such as “different”, “different”, and “wrong”, and correction expressions such as “not” and “stop”. is doing.
  • the cancellation / correction expression extraction unit 17 performs morphological analysis with reference to the cancellation / correction expression storage unit 15 and extracts the cancellation expression and the correction expression from the character string of the speech recognition result of the speech recognition unit 2. When the corrected expression is extracted, the route guidance expression storage unit 3 is referred to follow the expression, that is, the corrected route guidance expression is also extracted.
  • FIG. 23 is a flowchart showing the operation of the navigation device according to the ninth embodiment.
  • the processing in steps ST111 and ST112 is the same as steps ST01 and ST02 in the flowchart of FIG.
  • the route guidance expression extraction unit 4 extracts the route guidance expression while referring to the route guidance expression storage unit 3 from the recognition result of the speech recognition unit 2 in step ST112, and the cancellation / correction expression.
  • the extraction unit 17 extracts the cancellation / correction expression while referring to the cancellation / correction expression storage unit 16.
  • the route guidance expression extraction unit 4 performs a process of extracting and presenting the route guidance expression (here, illustration and description are omitted).
  • the cancel correction expression extracting unit 17 provides the presentation control unit 7 with the visually presented content. In some cases, a notice is given to cancel the display of the visual presentation content. That is, when the visual presentation content is already displayed (YES in step ST115), the presentation control unit 7 stops displaying the visual presentation content (step ST116).
  • step ST115 when the visual presentation content is not displayed yet (in the case of NO of step ST115), it complete
  • the expression extracted by the cancellation / correction expression extraction unit 17 is a correction expression instead of a cancellation expression such as “not”, for example (in the case of NO in step ST114), it has already been.
  • the presentation control unit 7 stops displaying the visual presentation content (step ST118). If the visual presentation content is not yet displayed (NO in step ST117), the process of step ST119 is performed as it is.
  • the cancellation / correction expression extraction unit 17 refers to the route guidance expression storage unit 3, and extracts the route guidance expression that follows the corrected expression (step ST119). Based on the route guidance expression, the route guidance expression presentation content acquisition unit 6 acquires the corresponding presentation content (step ST120), and the presentation control output unit 20 outputs the presentation content (step ST121).
  • the voice acquisition unit 1 acquires the voice data.
  • the speech recognition unit 2 obtains recognition results “turn right at the next intersection” and “Oh, wrong” (Step ST112).
  • the cancellation / correction expression extraction unit 17 refers to the cancellation / correction expression storage unit 16 and extracts the character string “different” as the cancellation expression. That is, from the speech recognition result, a cancellation / correction expression is extracted (in the case of YES in step ST113), and since the extracted expression is a cancellation expression (in the case of YES in step ST114), a visual indicating "turn right” is displayed. If the presentation content has already been displayed (YES in step ST115), the display of the visual presentation content is stopped (step ST116). If the visual presentation content is not yet displayed (NO in step ST115), the process ends without displaying anything.
  • FIG. 24 is a diagram showing an example of screen transition when a cancellation expression is extracted.
  • FIG. 24A shows a display screen in which the vehicle 32 is displayed in a triangle on the navigation screen 31 and a state in which the passenger speaks “turn right at the next intersection” and the content of the speech. Is indicated by a balloon 33.
  • FIG. 24B shows the visual presentation contents on the same navigation screen 31 as FIG. 24A as a result of the processing of outputting the presentation contents explained in the second embodiment by the navigation device at this time.
  • the “right arrow graphic data” 34 is displayed on the road that passes after the right turn, and the passenger has spoken “yes, wrong” here. This utterance content is also indicated by a balloon 33.
  • steps ST114 to ST116 of the processing of the flowchart shown in FIG. 23 is performed, and the display of the “right arrow graphic data” 34 is canceled (see FIG. 24C), and FIG. The state shown in d) is obtained.
  • the utterance contents by the passengers are a series such as “turn right at the next intersection. Oh, it was different” before visual presentation contents as shown in FIG. If a cancellation expression “different” is extracted, the process ends without displaying anything. That is, a transition is made directly from FIG. 24A to the state of FIG. 24D, and nothing changes on the display.
  • the cancellation / correction expression extraction unit 17 extracts the correction expression “not,”. That is, since it is the case of NO in step ST114, “left turn” is extracted by referring to the route guidance expression storage unit 3 as the route guidance expression following “not” (step ST119). Then, the presentation content corresponding to the “left turn” is acquired by referring to the route guidance expression presentation content storage unit 5 (step ST120), and is displayed or voiced (step ST121).
  • FIG. 25 is a diagram showing an example of screen transition when a corrected expression is extracted.
  • FIG. 25A shows a display screen in which the vehicle 32 is displayed in a triangle on the navigation screen 31 and a state in which the passenger speaks “turn left at the next intersection, not right ...”.
  • the speech content is indicated by a balloon 33.
  • FIG. 25 (b) shows the result of the process of outputting the presentation content described in the second embodiment by the navigation device at this time.
  • the visually presented content is displayed on the same navigation screen 31 as FIG. 25 (a).
  • “right arrow graphic data” 34 is displayed on a road that passes after a right turn.
  • the passenger's utterance content is always recognized.
  • the passenger starts the route guidance for example, when the passenger starts the route guidance, the user presses the button for voice recognition, Voice recognition may be performed only while the button is pressed. Further, the user may be able to set whether to always recognize or recognize only for a predetermined period.
  • the visual presentation content to be canceled has already been displayed, it has been described as canceling (deleting), but the displayed visual presentation content is canceled or The user may be allowed to set whether to display the presentation contents and the visual presentation contents to cancel. Further, the user may be allowed to set whether or not to use the cancel / correction expression extraction function in the ninth embodiment.
  • a route guidance expression spoken by a speaker such as a passenger includes a cancellation / correction expression
  • it is also extracted.
  • it is possible to prevent the driver from following the wrong route by taking into account that a speaker such as a passenger has mistakenly guided and canceling or correcting the visual presentation content to be canceled. Can do.
  • FIG. FIG. 26 is a block diagram showing an example of a navigation apparatus according to Embodiment 10 of the present invention. Note that the same components as those described in the first to ninth embodiments are denoted by the same reference numerals, and redundant description is omitted.
  • a voice recording unit 18 is provided instead of the route guidance presentation content storage unit 5.
  • the voice recording unit 18 stores the voice data acquired by the voice acquisition unit 1 in association with the route guidance expression extracted by the route guidance expression extraction unit 4.
  • the route guidance expression presentation content acquisition unit 6 refers to the voice recording unit 18 and acquires voice data corresponding to the route guidance expression extracted by the route guidance expression extraction unit 4 as the presentation content (auditory presentation content).
  • the presentation control output unit 20 outputs the presentation contents.
  • FIG. 27 is a flowchart showing the operation of the navigation device according to the tenth embodiment.
  • the processing from steps ST131 to ST133 is the same as steps ST01 to ST03 in the flowchart of FIG.
  • the voice recording unit 18 associates the voice data acquired by the voice acquisition unit 1 in step ST131 with the route guidance expression extracted by the route guidance expression extraction unit 4 in step ST133. Save (step ST134). For example, when the speaker utters “turn right at the next intersection”, the voice acquisition unit 1 acquires voice data “turn right at the next intersection” and the route guidance expression extraction unit 4 reads “ The route guidance expressions “next intersection” and “right turn” are extracted.
  • the voice recording unit 18 cuts out the voice data corresponding to the “next intersection” and the voice data corresponding to “right turn” from the acquired voice data, and each route guidance expression and the corresponding part of the voice data Are stored in association with each other.
  • the road guide expression presentation content acquisition unit 6 acquires voice data corresponding to the road guide expression extracted by the road guide expression extraction unit 4 from the voice recording unit 18 (step ST135).
  • voice data corresponding to “right turn” may be acquired, or audio data corresponding to “next intersection” and “right turn” may be acquired.
  • the acquired recording voice data is output by the presentation control unit 7, and is output from the voice output unit 22 such as a speaker (step ST136).
  • the passenger's utterance content is always recognized.
  • the passenger starts the route guidance for example, when the passenger starts the route guidance, the user presses the button for voice recognition
  • Voice recognition may be performed only while the button is pressed.
  • the user may be able to set whether to always recognize or recognize only for a predetermined period.
  • the user may be able to set whether or not to use the function of the voice recording unit 18 in the tenth embodiment.
  • the block diagram 1 in the first embodiment may be provided with the voice recording unit 18, and in this case, the function of the voice recording unit 18 is used. The user may be able to set whether or not to do so.
  • the navigation apparatus for a vehicle has been described.
  • the navigation apparatus of the present invention is not limited to a vehicle, but is a navigation apparatus for a moving body including a person, a vehicle, a railway, a ship, an airplane, or the like.
  • the present invention relates to a navigation device suitable for being brought into a vehicle or mounted on a vehicle, and any type of device can be used as long as the device can perform navigation by voice interaction between a user and the device, such as a portable navigation device. It can also be applied to things.
  • the navigation device of the present invention can be applied to an in-vehicle navigation device or a portable navigation device capable of performing navigation by voice dialogue between a user and the device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)

Abstract

 この発明のナビゲーション装置、方法またはプログラムによれば、同乗者などの発話者が運転者に行なった道案内表現のみを抽出し、その道案内表現に対応する提示内容を出力するようにしたので、運転者が直観的に内容を理解することができ、運転者の聞き間違いを防止し、発話者が意図しない方向に進むことを防止することができる。

Description

ナビゲーション装置、方法およびプログラム
 この発明は、ユーザの発話内容を認識してナビゲーションを行うことが可能なナビゲーション装置、方法およびプログラムに関するものである。
 一般に、車載用などのナビゲーション装置は、設定された経路を走行中に所定の地点(例えば、進行方向を変更すべき交差点など)が近くなると、音声出力や図形表示などで運転者に対して道案内を行う。
 しかし、ナビゲーション装置が予め設定した所定の地点での道案内を行うことはできても、走行中に同乗者が運転者に対して行なっている道案内の内容を、ナビゲーション装置の案内内容として運転者に提示することはできなかった。
 このため、運転者が同乗者の道案内を聞き間違えてしまったり、周囲の騒音で聞き逃してしまったりすると、同乗者の道案内どおりに走行できないという問題があった。
 このような問題に対し、例えば特許文献1には、音声を常時認識し、認識結果をそのまま文字で画面に表示する音声認識装置が記載されている。
特開2010-204637号公報
 しかしながら、上記のような従来のナビゲーション装置では、音声認識した結果を、単にそのまま文字で画面に表示するだけであり、認識結果から道案内表現を抽出して表示する機能がないため、道案内とは関係のない内容も表示されてしまうおそれがあり、また、発話した内容をそのまま文字で表示するだけであるため運転者が直観的に内容を理解しにくいという課題があった。
 この発明は、上記のような課題を解決するためになされたものであり、同乗者が運転者に対して行なった道案内表現のみを抽出し、その内容を直観的に理解しやすいように提示することができるナビゲーション装置、方法およびプログラムを提供することを目的とする。
 上記目的を達成するため、この発明は、移動体の位置を取得する位置取得部を備え、当該位置取得部により取得された移動体の位置と地図データとに基づいて道案内を行うナビゲーション装置において、入力された音声を取得する音声取得部と、前記音声取得部により取得された音声データから音声認識処理を行う音声認識部と、道案内表現を記憶する道案内表現記憶部と、前記道案内表現記憶部を参照して、前記音声認識部による認識結果から道案内表現を抽出する道案内表現抽出部と、前記道案内表現に対応する提示内容を、前記道案内表現と対応付けて記憶する道案内表現提示内容記憶部と、前記道案内表現提示内容記憶部を参照して、前記道案内表現抽出部により抽出された道案内表現に基づいて、対応する提示内容を取得する道案内表現提示内容取得部と、前記道案内表現提示内容取得部により取得された提示内容を出力する提示制御出力部とを備えることを特徴とする。
 この発明のナビゲーション装置によれば、同乗者などの発話者が運転者に行なった道案内表現のみを抽出し、その道案内表現に対応する提示内容を出力するようにしたので、運転者が直観的に内容を理解することができ、運転者の聞き間違いを防止し、発話者が意図しない方向に進むことを防止することができる。
実施の形態1によるナビゲーション装置の一例を示すブロック図である。 道案内表現記憶部3の一例を示す図である。 提示内容が視覚的提示内容である場合の道案内表現提示内容記憶部5の一例を示す図である。 実施の形態1によるナビゲーション装置の動作を示すフローチャートである。 実施の形態1において、提示内容が視覚的提示内容である場合にユーザに提示された道案内情報の画面例を示す図である。 実施の形態2によるナビゲーション装置の一例を示すブロック図である。 実施の形態2によるナビゲーション装置の動作を示すフローチャートである。 実施の形態2において、提示内容が視覚的提示内容である場合にユーザに提示された道案内情報の画面例を示す図である。 実施の形態3によるナビゲーション装置の一例を示すブロック図である。 提示タイミング記憶部12の一例を示す図である。 実施の形態3によるナビゲーション装置の動作を示すフローチャートである。 実施の形態4によるナビゲーション装置の一例を示すブロック図である。 実施の形態4によるナビゲーション装置の動作を示すフローチャートである。 実施の形態5によるナビゲーション装置の一例を示すブロック図である。 実施の形態5によるナビゲーション装置の動作を示すフローチャートである。 実施の形態6によるナビゲーション装置の一例を示すブロック図である。 実施の形態6によるナビゲーション装置の動作を示すフローチャートである。 実施の形態7によるナビゲーション装置の動作を示すフローチャートである。 実施の形態8によるナビゲーション装置の一例を示すブロック図である。 実施の形態8によるナビゲーション装置の動作を示すフローチャートである。 実施の形態9によるナビゲーション装置の一例を示すブロック図である。 取り消し/訂正表現記憶部16の一例を示す図である。 実施の形態9によるナビゲーション装置の動作を示すフローチャートである。 実施の形態9において、取り消し表現が抽出された場合の画面遷移例を示す図である。 実施の形態9において、訂正表現が抽出された場合の画面遷移例を示す図である。 実施の形態10によるナビゲーション装置の一例を示すブロック図である。 実施の形態10によるナビゲーション装置の動作を示すフローチャートである。 実施の形態10によるナビゲーション装置の他の例を示すブロック図である。
 以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
 この発明は、地図データと自車(移動体)の位置に基づいて道案内を行うナビゲーション装置において、同乗者が運転者に対して行なった道案内表現のみを抽出し、その内容を運転者が直観的に理解しやすいように提示するものである。
 図1は、この発明の実施の形態1によるナビゲーション装置の一例を示すブロック図である。このナビゲーション装置は、音声取得部1と、音声認識部2と、道案内表現記憶部3と、道案内表現抽出部4と、道案内表現提示内容記憶部5と、道案内表現提示内容取得部6と、提示制御部7と、表示部21、音声出力部22により構成されている。なお、この提示制御部7と、表示部21および音声出力部22が、提示制御出力部20を構成する。また、図示は省略したが、このナビゲーション装置は、キーやタッチパネル等による入力信号を取得するキー入力部も備えている。また、例えば道路データ、交差点データ、施設データ等の地図データを記憶する地図データ記憶部8を備えるようにしてもよいし、それらの地図データをネットワーク経由で外部から取得できる地図データ取得部を備えるようにしてもよい。この地図データ記憶部8(または地図データ取得部)についても、ここでは図示を省略した。また、同じく図示は省略したが、自車(移動体)の位置を取得する自車位置取得部(位置取得部)9も備えている。この自車位置取得部(位置取得部)9は、GPS受信機やジャイロスコープなどから取得した情報を用いて、現在の自車(移動体)の位置(経緯度)を取得するものである。
 音声取得部1は、マイク等により集音されたユーザ発話、すなわち、入力された音声をA/D変換して、例えばPCM(Pulse Code Modulation)形式で取得する。
 音声認識部2は、認識辞書(図示せず)を有し、音声取得部1により取得された音声データから、同乗者などの発話者が発話した内容に該当する音声区間を検出し、特徴量を抽出し、その特徴量に基づいて認識辞書を用いて音声認識処理を行う。なお、音声認識部2は、ネットワーク上の音声認識サーバを使用してもよい。
 道案内表現記憶部3は、通常、人が道案内をする際に使用すると想定される表現を記憶している。
 図2は、道案内表現記憶部3の一例を示す図である。この図に示すように、道案内表現記憶部3は、例えば、道案内をするタイミングを表す「すぐに」「もう少ししたら」など、場所を表す「200メートル先」「次の交差点」など、また、方向を表す「右折」「西」などの表現を記憶している。
 道案内表現抽出部4は、道案内表現記憶部3を参照しながら形態素解析を行い、音声認識部2の音声認識結果の文字列から道案内表現を抽出する。
 道案内表現提示内容記憶部5は、道案内表現抽出部4で抽出された道案内表現を、当該道案内表現に対応する提示内容(視覚的提示内容または聴覚的提示内容)と対応付けて記憶している。道案内表現に対応する提示内容が視覚的提示内容である場合には、その提示内容は、ナビの表示画面上やダッシュボード上などに、運転者に対して視覚的に提示する内容であり、例えば矢印やその他の方向を指し示す図形、方向を表す文字、地図上の進むべき道を色替えや太さにより強調して提示するものなどである。
 図3は、提示内容が視覚的提示内容である場合の道案内表現提示内容記憶部5の一例を示す図である。この図に示すように、例えば、「右折」「右へ」「右に」などの道案内表現に対して、右矢印の図形データ、「右折」「右」などの文字表現(文字列データ)、地図上の右折すべき道の色や道の太さの情報などが記憶されている。なお、この図3では、右折の場合も左折の場合も、道の色や道の太さは同じに設定されているが、道案内表現ごとに異なる色や太さとしてもよい。
 また、提示内容が聴覚的提示内容である場合の道案内表現提示内容記憶部5については図示は省略するが、例えば、図2に示すような想定される道案内表現を、それぞれ音声データ(合成音声)として記憶しておく他、「右折」「右へ」「右に」という道案内表現に対して「右折」という音声データ(合成音声)、「左折」「左へ」「左に」という道案内表現に対して「左折」という音声データ(合成音声)、などが記憶されている。
 道案内表現提示内容取得部6は、道案内表現抽出部4により抽出された道案内表現を検索キーとして、道案内表現提示内容記憶部5を検索し、検索キーと一致する道案内表現に対応する提示内容(視覚的提示内容または聴覚的提示内容)を取得する。
 なお、ここでは、提示内容が聴覚的提示内容である場合には、予め合成音声を作成して道案内表現提示内容記憶部5に記憶しておくものとしたが、道案内表現提示内容記憶部5に記憶されている音声データに基づいて、道案内表現提示内容取得部6が合成音声を作成することにより提示内容を取得するようにしてもよい。
 提示制御部7は、道案内表現提示内容取得部6により取得された提示内容を、表示部21または音声出力部22(またはその両方)に出力する。すなわち、その提示内容が視覚的提示内容である場合には、表示部21(例えば、ナビの表示画面上や、ダッシュボート上、フロントガラス上など)に出力し、提示内容が聴覚的提示内容である場合には、音声出力部22(スピーカなど)に出力する。
 次に、前述のように構成された実施の形態1によるナビゲーション装置の動作について説明する。図4は、実施の形態1によるナビゲーション装置の動作を示すフローチャートである。
 まず初めに、何等かの発話入力があると、音声取得部1が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST01)。次に、音声取得部1で取得された音声データを音声認識部2が認識する(ステップST02)。そして、道案内表現抽出部4が、音声認識部2の認識結果から、道案内表現記憶部3を参照しながら道案内表現を抽出する(ステップST03)。その後、道案内表現提示内容取得部6が、道案内表現抽出部4により抽出された道案内表現を検索キーとして、道案内表現提示内容記憶部5を検索し、検索キーと一致する道案内表現を検索することにより、その道案内表現に対応する提示内容(視覚的提示内容または聴覚的提示内容)を検索する(ステップST04)。
 そして、検索キーと一致する道案内表現が見つかった場合(ステップST05のYESの場合)には、その道案内表現に対応する提示内容(視覚的提示内容または聴覚的提示内容またはその両方)を取得し(ステップST06)、提示制御出力部20が、その提示内容を出力(表示または音声出力またはその両方により出力)する(ステップST07)。一方、検索キーと一致する道案内表現が見つからなかった場合(ステップST05のNOの場合)には、処理を終了する。
 具体的な例を挙げて説明すると、例えば、同乗者が「200メートル先を右に曲がって」と発話した場合、音声取得部1がその音声データを取得し(ステップST01)、音声認識部2により「200メール先を右に曲がって」という認識結果が得られる(ステップST02)。そして、道案内表現抽出部4が、図2に示すような道案内表現記憶部3を参照して、道案内表現として文字列「200メートル先」および「右に」を抽出する(ステップST03)。その後、道案内表現提示内容取得部6が、文字列「200メートル先」および文字列「右に」を検索キーとして、図3に示すような道案内表現提示内容記憶部5を検索し、検索キーと一致する道案内表現を検索する(ステップST04)。この例では「200メートル先」という検索キーと一致する道案内表現は見つからなかったが、「右に」という検索キーと一致する道案内表現が見つかるので(ステップST05のYESの場合)、その「右に」という道案内表現に対応する視覚的提示内容である“右矢印の図形データ”や“「右折」の文字列データ”、および/または、聴覚的提示内容である“「右折」という音声データ”を取得する(ステップST06)。そして、取得した提示内容が視覚的提示内容である場合には、表示画面上などに出力し、また、提示内容が聴覚的提示内容である場合には、スピーカから出力する(ステップST07)。なお、両方の提示内容が取得された場合には、表示および音声出力の両方を行う。
 図5は、提示内容が視覚的提示内容である場合に、その提示内容を表示画面上に出力してユーザに提示した画面例を示す図である。図5(a)は、ナビゲーション画面31に自車32が三角形で表示されている表示画面と、同乗者により「200メートル先を右に曲がって」と発話された状態を示しており、その発話内容が吹き出し33で示されている。そして、図5(b)は、この際にナビゲーション装置によって前述のフローチャートに示す動作が行われた結果、図5(a)と同じナビゲーション画面31上に視覚的提示内容として“右矢印の図形データ”34が表示された状態を示している。また、図5(c)は、“右矢印の図形データ”34に加えて、“「右折」の文字データ”35も表示された状態を示している。
 なお、提示内容が視覚的提示内容である場合、その提示内容については、図5(b)に示すように図形情報のみ表示してもよいし、図5(c)に示すように文字情報と図形情報の両方を表示するようにしてもよい。また、いずれの表示とするかをユーザが設定できるようにしてもよい。
 また、表示場所については、画面上のどの場所でもよく、固定の表示場所としてもよいし、道路が隠れないような場所に表示されるようにしてもよい。また、ナビゲーション装置の表示画面上ではなく、フロントガラス上であってもよい。さらに、表示画面とフロントガラスなど、出力デバイスが複数ある場合には、提示デバイス特定部をさらに備える構成とし、どの出力デバイスに提示させるかを決定するようにしてもよい。
 また、表示させる図形や文字を点滅させたり、右から左へ移動させたり、フェードインさせるように表示するなど、ユーザがより認識しやすい方法で表示させるようにしてもよい。また、いずれの方法で表示するかをユーザが設定できるようにしてもよい。
 また、出力する提示内容として、視覚的提示内容のみを表示するか、聴覚的提示内容のみを音声出力するか、両方とも出力するかを、ユーザが設定できるようにしてもよい。
 なお、提示内容として視覚的提示内容と聴覚的提示内容の両方が出力される場合には、聴覚的提示内容としては道案内表現に対応する音声データではなく、例えば「ポーン」というような非言語音により注意を促すもの(気づかせるための効果音)としてもよい。また、視覚的提示内容のみが出力される場合に、そのような非言語音の聴覚的提示内容を合わせて出力するような構成としてもよい。
 なお、この実施の形態では、同乗者の発話内容を常に認識するものとしているが、所定の期間(例えば、同乗者が道案内を開始すると、音声認識を行うためのボタンを押下し、そのボタンが押下されている間)のみ音声認識を行うようにしてもよい。また、常に認識するか、所定の期間のみ認識するかを、ユーザが設定できるようにしてもよい。
 以上のように、この実施の形態1によれば、同乗者などの発話者が発話した道案内表現のみを抽出し、その道案内表現を矢印などの図形データや文字データなどで視覚的に表示することができるので、運転者が直観的に理解しやすくなり、運転者の聞き間違いを防止し、発話者が意図しない方向に進むことを防止することができる。また、運転者への提示内容が視覚的提示内容ではなくて聴覚的提示内容である場合にも、同乗者などの発話者が発話した道案内表現を再度音声で出力することにより、運転者の聞き間違いを防止し、発話者が意図しない方向に進むことを防止することができる。さらに、視覚的提示内容と聴覚的提示内容の両方を出力することにより、運転者の聞き間違いによって発話者が意図しない方向に進むことを、より一層防止することができる。
実施の形態2.
 図6は、この発明の実施の形態2によるナビゲーション装置の一例を示すブロック図である。なお、実施の形態1で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態2では、実施の形態1と比べると、提示位置特定部10を更に備えている。そして、提示内容が視覚的提示内容である場合に、その提示内容を表示する位置を特定して出力するものである。
 また、この実施の形態2における図6には、実施の形態1のブロック図である図1には図示しなかった地図データ記憶部8と、自車位置取得部(位置取得部)9も示されている。
 地図データ記憶部8は、例えばDVD-ROMやハードディスク、SDカードなどの媒体に、例えば道路データ、交差点データ、施設データ等の地図データが記憶されている。なお、この地図データ記憶部8の代わりに、ネットワーク上に存在し、通信ネットワークを介して道路データなどの地図データ情報を取得できる地図データ取得部を用いるようにしてもよい。
 自車位置取得部(位置取得部)9は、GPS受信機やジャイロスコープなどから取得した情報を用いて、現在の自車(移動体)の位置(経緯度)を取得する。
 提示位置特定部10は、提示内容が視覚的提示内容である場合に、自車位置取得部(位置取得部)9により取得された自車(移動体)の位置と、道案内表現抽出部4により抽出された道案内表現と、地図データ記憶部8に記憶されている地図データを用いて、視覚的提示内容を表示する位置を特定する。
 次に、前述のように構成された実施の形態2によるナビゲーション装置の動作について説明する。図7は、実施の形態2によるナビゲーション装置の動作を示すフローチャートである。
 ステップST11~ST16までの処理については、実施の形態1における図4のフローチャートのステップST01~ST06と同じであるため、説明を省略する。そして、この実施の形態2では、ステップST16で取得した提示内容が、視覚的提示内容であるか否かを判定する(ステップST17)。この際、提示内容が視覚的提示内容である場合(ステップST17のYESの場合)には、さらに道案内表現抽出部4で抽出された道案内表現の中に、場所を表す道案内表現が含まれているか否かを判定する(ステップST18)。そして、例えば「200メートル先」など、場所を表す道案内表現が含まれていた場合(ステップST18のYESの場合)には、自車位置取得部(位置取得部)9から取得した自車位置(移動体の位置)と、道案内表現抽出部4により抽出された道案内表現と、地図データ記憶部8に記憶されている地図データを用いて、視覚的提示内容を表示する位置を特定し(ステップST19)、提示制御出力部20が、その特定された位置に視覚的提示内容を表示する(ステップST20)。
 一方、ステップST17において、提示内容が視覚的提示内容ではなく、聴覚的提示内容であった場合(ステップST17のNOの場合)、または、ステップST18において、場所を表す道案内表現が含まれていなかった場合には、提示内容が聴覚的提示内容の場合には音声出力により、提示内容が視覚的提示内容であって場所を表す道案内表現が含まれていなかった場合には画面上の予め定められた位置等に、提示内容を出力する(ステップST21)。
 具体的な例を挙げて説明すると、例えば、同乗者が「200メートル先を右に曲がって」と発話した場合、音声取得部1がその音声データを取得し(ステップST11)、音声認識部2により「200メール先を右に曲がって」という認識結果が得られる(ステップST12)。そして、道案内表現抽出部4が、図2に示すような道案内表現記憶部3を参照して、道案内表現として文字列「200メートル先」および「右に」を抽出する(ステップST13)。その後、道案内表現提示内容取得部6が、文字列「200メートル先」および文字列「右に」を検索キーとして、図3に示すような道案内表現提示内容記憶部5を検索し、検索キーと一致する道案内表現を検索する(ステップST14)。この際、「200メートル先」という検索キーと一致する道案内表現は見つからなかったが、「右に」という検索キーと一致する道案内表現が見つかるので(ステップST15のYESの場合)、その「右に」という道案内表現に対応する視覚的提示内容である“右矢印の図形データ”や“「右折」の文字列データ”、“道の色を赤にする”や“道の太さを○○ドットにする”といった情報、または、聴覚的提示内容である“「右折」という音声データ”を取得する(ステップST16)。これら取得する提示内容は、その道案内表現に対応して道案内表現提示内容記憶部5に記憶されている提示内容すべてであってもよいし、提示内容が予め設定されている場合には、その設定されている提示内容のみであってもよい。
 そして、取得した提示内容が視覚的提示内容である場合(ステップST17のYESの場合)には、道案内表現の中に場所を表す道案内表現が含まれているか否かを判定する(ステップST18)。この例の場合、「200メートル先」という場所を表す道案内表現が含まれているので(ステップST18のYESの場合)、提示位置特定部10が、自車位置取得部(位置取得部)9から取得した自車位置から200メートル先の位置を計算し、地図データ記憶部8を参照して、右折すべき交差点を特定し、当該交差点を右折した後に通過する道路を特定する(ステップST19)。そして最後に、道案内表現提示内容取得部6により取得された視覚的提示内容を、提示位置特定部10により特定された位置に表示出力する(ステップST20)。この場合には、ステップST19において、提示内容を表示する道路(位置)が特定されるので、当該特定された道路上に“右矢印の図形データ”や“「右折」の文字列データ”を表示できるだけでなく、道案内表現提示内容取得部6により取得された“道の色を赤にする”や“道の太さを○○ドットにする”といった情報を用いて、特定された道路の色を赤色にしたり、道の太さを太くしたりして表示することができる。
 図8は、提示内容が視覚的提示内容であって、道案内表現の中に場所を表す道案内表現が含まれている場合に、その提示内容を表示画面上に出力してユーザに提示した画面例を示す図である。図8(a)は、図5(a)と同じ図であり、ナビゲーション画面31に自車32が三角形で表示されている表示画面と、同乗者により「200メートル先を右に曲がって」と発話された状態を示しており、その発話内容が吹き出し33で示されている。そして、図8(b)は、この際にナビゲーション装置によって前述の図7に示すフローチャートの動作が行われた結果、図8(a)と同じナビゲーション画面31上に、視覚的提示内容として“右矢印の図形データ”34が右折した後に通過する道路上に表示された状態を示している。また、図8(c)は、その道路の色を赤色にした状態(赤色の道路36)、図8(d)は、その道路の道の太さを太くした状態(道幅の太い道路37)を示している。
 また、この際、図5(c)に示すように「右折」という文字情報も合わせて表示するようにしてもよい。なお、この文字情報が表示される場合にも、特定された道路上や右折する交差点上に表示すればよい。また、文字情報と図形情報のいずれの表示とするか、両方の表示とするかをユーザが設定できるようにしてもよい。
 また、ナビゲーション装置の表示画面上ではなく、フロントガラス上であってもよい。さらに、表示画面とフロントガラスなど、出力デバイスが複数ある場合には、提示デバイス特定部をさらに備える構成とし、どの出力デバイスに提示させるかを決定するようにしてもよい。
 さらに、表示させる図形や文字を点滅させたり、図形や文字を交差点の位置から右へ移動させたり、フェードインさせるように表示するなど、ユーザがより認識しやすい方法で表示させるようにしてもよい。また、いずれの方法で表示するかをユーザが設定できるようにしてもよい。
 一方、取得した提示内容が視覚的提示内容であって(ステップST17のYESの場合)、道案内表現の中に場所を表す道案内表現が含まれていない場合(ステップST18のNOの場合)には、実施の形態1と同様、表示画面上の予め定められた位置などに視覚的提示内容を表示(出力)し、また、提示内容が聴覚的提示内容である場合には、スピーカから出力する(ステップST21)。
 なお、この実施の形態においても、同乗者の発話内容を常に認識するものとしているが、所定の期間(例えば、同乗者が道案内を開始すると、音声認識を行うためのボタンを押下し、そのボタンが押下されている間)のみ音声認識を行うようにしてもよい。また、常に認識するか、所定の期間のみ認識するかを、ユーザが設定できるようにしてもよい。
 また、この実施の形態2における提示位置を特定する機能を使用するかしないかを、ユーザが設定できるようにしてもよい。
 以上のように、この実施の形態2によれば、同乗者などの発話者が発話した道案内表現のみを抽出し、その道案内表現を矢印などの図形データや文字データなどを発話者が意図した案内地点に視覚的に表示するようにしたので、実施の形態1における効果に加え、運転者が誤った位置で進路を変更することを防ぐことができる。
実施の形態3.
 図9は、この発明の実施の形態3によるナビゲーション装置の一例を示すブロック図である。なお、実施の形態1または2で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態3では、実施の形態1と比べると、提示タイミング記憶部11と提示タイミング制御部12を更に備えている。そして、同乗者などの発話者の発話内容に応じて、提示内容を運転者に提示するタイミングを変えて出力するものである。
 提示タイミング記憶部11は、道案内表現に対応付けて提示するタイミングを記憶している。
 提示タイミング制御部12は、道案内表現抽出部4により抽出された道案内表現から、提示タイミング記憶部11を参照して、その抽出された道案内表現に提示内容を提示するタイミングを表す表現が含まれている場合に、当該表現に対応する提示タイミングを決定する。
 図10は、提示タイミング記憶部11の一例を示す図である。この図に示すように、提示タイミング記憶部11は、例えば「すぐに」という道案内表現を提示するタイミングを表す表現に対して「1秒後」という提示タイミング、「もう少ししたら」という表現に対して「10秒後」という提示タイミング、などが対応付けて記憶されているものである。
 次に、前述のように構成された実施の形態3によるナビゲーション装置の動作について説明する。図11は、実施の形態3によるナビゲーション装置の動作を示すフローチャートである。
 ステップST31~ST36までの処理については、実施の形態1における図4のフローチャートのステップST01~ST06と同じであるため、説明を省略する。そして、この実施の形態3では、ステップST33で道案内表現抽出部4により抽出された道案内表現の中に、当該表現を提示するタイミングを表す表現文字列が含まれているか否かを判定する(ステップST37)。この際、提示タイミングを表す表現が含まれている場合(ステップST37のYESの場合)には、提示タイミング制御部12は図10に示すような提示タイミング記憶部11を参照して、提示タイミングを表す表現に対応する提示タイミングを決定する(ステップST38)。そして、提示制御出力部20が、ステップST38で決定された提示タイミングで提示内容を出力する(ステップST39)。
 一方、ステップST37において、提示タイミングを表す表現が含まれていなかった場合(ステップST37のNOの場合)には、即時に、または、予め決められたタイミングで提示内容を出力する(ステップST40)。
 具体的な例を挙げて説明すると、例えば、同乗者が「もう少ししたら右折して」と発話した場合、音声取得部1がその音声データを取得し(ステップST31)、音声認識部2により「もう少ししたら右折して」という認識結果が得られる(ステップST32)。そして、道案内表現抽出部4が、図2に示すような道案内表現記憶部3を参照して、道案内表現として文字列「もう少ししたら」および「右折」を抽出する(ステップST33)。その後、道案内表現提示内容取得部6が、文字列「もう少ししたら」および文字列「右折」を検索キーとして、図3に示すような道案内表現提示内容記憶部5を検索し、検索キーと一致する道案内表現を検索する(ステップST34)。この際、「もう少ししたら」という検索キーと一致する道案内表現は見つからなかったが、「右折」という検索キーと一致する道案内表現が見つかるので(ステップST35のYESの場合)、その「右折」という道案内表現に対応する視覚的提示内容である“右矢印の図形データ”や“「右折」の文字列データ”、“道の色を赤にする”や“道の太さを○○ドットにする”といった情報、または、聴覚的提示内容である“「右折」という音声データ”を取得する(ステップST36)。これら取得する提示内容は、その道案内表現に対応して道案内表現提示内容記憶部5に記憶されている提示内容すべてであってもよいし、提示内容が予め設定されている場合には、その設定されている提示内容のみであってもよい。
 その後さらに、ステップST33で抽出された道案内表現「もう少ししたら」および「右折」の中に、提示タイミングを表す道案内表現が含まれているか否かを判定する(ステップST37)。この例の場合、「もう少ししたら」という提示タイミングを表す道案内表現が含まれているので(ステップST37のYESの場合)、提示タイミング制御部12が、図10に示すような提示タイミング記憶部11を参照して、「もう少ししたら」に対応する提示タイミングを「10秒後」に決定する(ステップST38)。そして最後に、ステップST36で道案内表現提示内容取得部6により取得された提示内容が視覚的提示内容である場合には、ステップST38で決定された提示タイミングで表示画面上などに表示出力し、また、提示内容が聴覚的提示内容である場合には、ステップST38で決定された提示タイミングでスピーカから音声出力する(ステップST39)。
 ここで、提示タイミング制御部12は、提示タイミングを表す道案内表現に対応する提示タイミングを学習する機能を備えるものとしてもよい。すなわち、提示タイミング制御部12により決定された提示タイミングで提示内容が表示画面に表示されたりスピーカから出力されたりしたときに既に案内地点を通過していた、などという場合には、道案内表現提示内容取得部6により提示内容が取得されてから、実施に案内地点を通過するまでにかかった時間を、次回の同じ表現に対する提示タイミングとするように、図10に示す提示タイミング記憶部11に記憶されている内容を変更する。
 例えば、提示タイミングを表す道案内表現が「もう少ししたら」である場合、前述のとおり、「10秒後」に提示内容が提示されるが、実際に案内地点を通過するまでにかかった時間が5秒であった場合には、図10に示す提示タイミング記憶部11の道案内表現「もう少ししたら」に対応する提示タイミングを「5秒後」に変更する。なお、実際にかかった時間を蓄積しておき、それらの平均時間を次回の提示タイミングとするようにしてもよい。
 なお、この実施の形態においても、同乗者の発話内容を常に認識するものとしているが、所定の期間(例えば、同乗者が道案内を開始すると、音声認識を行うためのボタンを押下し、そのボタンが押下されている間)のみ音声認識を行うようにしてもよい。また、常に認識するか、所定の期間のみ認識するかを、ユーザが設定できるようにしてもよい。
 また、この実施の形態3における提示タイミングを決定する機能を使用するかしないかを、ユーザが設定できるようにしてもよい。さらに、提示タイミングそのものをユーザが設定できるようにしてもよい。
 以上のように、この実施の形態3によれば、同乗者などの発話者が発話した道案内表現を、適切なタイミングで提示するようにしたので、実施の形態1における効果に加え、運提示内容を提示するタイミングが早すぎて発話者が意図しない地点で運転者が進路を変更することを防ぐことができる。
実施の形態4.
 図12は、この発明の実施の形態4によるナビゲーション装置の一例を示すブロック図である。なお、実施の形態1~3で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態4では、実施の形態3と比べると、地図データ記憶部8と、自車位置取得部(位置取得部)9が示されており、実施の形態3における提示タイミング制御部12が、実施の形態3における図10に示すような提示タイミング記憶部11に基づいてではなく、地図データと自車(移動体)の位置とに基づいて提示タイミングを決定するものである。
 図13は、実施の形態4によるナビゲーション装置の動作を示すフローチャートである。
 ステップST41~ST46までの処理については、実施の形態1における図4のフローチャートのステップST01~ST06と同じであるため、説明を省略する。そして、この実施の形態4では、提示タイミング制御部12が、ステップST43で道案内表現抽出部4により抽出された道案内表現と、自車位置取得部(位置取得部)9により取得された自車位置(移動体の位置)と、地図データ記憶部8に記憶されている地図データとに基づいて、道案内を行うべき案内地点を特定する(ステップST47)。その後、自車位置(移動体の位置)からステップST47で特定された案内地点までの距離を算出し(ステップST48)、当該距離が予め設定された所定値以下であるか否かを判定する(ステップST49)。そして、自車位置(移動体の位置)から案内地点までの距離が所定値以下になるまで(ステップST49のNOの場合)、自車位置(移動体の位置)を取得し(ステップST50)、距離を算出する処理(ステップST48)を繰り返す。そして、自車位置(移動体の位置)から案内地点までの距離が所定値以下になったら(ステップST49のYESの場合)、そのときが提示タイミングであると決定し、提示内容の出力を指示し(ステップST51)、提示制御出力部20が、提示内容を出力する(ステップST52)。
 具体的な例を挙げて説明すると、例えば、同乗者が「200メートル先を右折して」と発話した場合、音声取得部1がその音声データを取得し(ステップST41)、音声認識部2により「200メール先を右折して」という認識結果が得られる(ステップST42)。そして、道案内表現抽出部4が、図2に示すような道案内表現記憶部3を参照して、道案内表現として文字列「200メートル先」および「右折」を抽出する(ステップST43)。その後、道案内表現提示内容取得部6が、文字列「200メートル先」および文字列「右折」を検索キーとして、図3に示すような道案内表現提示内容記憶部5を検索し、検索キーと一致する道案内表現を検索する(ステップST44)。この際、「200メートル先」という検索キーと一致する道案内表現は見つからなかったが、「右折」という検索キーと一致する道案内表現が見つかるので(ステップST45のYESの場合)、その「右折」という道案内表現に対応する視覚的提示内容である“右矢印の図形データ”や“「右折」の文字列データ”、“道の色を赤にする”や“道の太さを○○ドットにする”といった情報、または、聴覚的提示内容である“「右折」という音声データ”を取得する(ステップST46)。これら取得する提示内容は、その道案内表現に対応して道案内表現提示内容記憶部5に記憶されている提示内容すべてであってもよいし、提示内容が予め設定されている場合には、その設定されている提示内容のみであってもよい。
 そして、ステップST43で抽出された道案内表現における「200メートル先」と、自車位置取得部(位置取得部)9により取得された自車位置と、地図データとに基づいて、道案内を行うべき案内地点である「右折」すべき「200メートル先」が、地図上のどの位置であるか(交差点など)を特定する(ステップST47)。その後、自車位置からその案内地点までの距離が予め設定された所定値(例えば20メートル)以下になるまで、自車位置を取得して案内地点までの距離を算出する、という処理(ステップST48~ST50)を繰り返し、自車位置と案内地点との距離が所定値(20メートル)以下になると、提示内容の出力を指示する(ステップST51)。その結果、例えば図5(b)に示すような“右矢印の図形データ34”が表示画面に表示される(ステップST52)。
 なお、この実施の形態においても、同乗者の発話内容を常に認識するものとしているが、所定の期間(例えば、同乗者が道案内を開始すると、音声認識を行うためのボタンを押下し、そのボタンが押下されている間)のみ音声認識を行うようにしてもよい。また、常に認識するか、所定の期間のみ認識するかを、ユーザが設定できるようにしてもよい。
 また、この実施の形態4における提示タイミングを決定するための(自車位置(移動体の位置)から案内地点までの距離を判定するための)所定値については、予め登録しておいてもよいし、ユーザが設定できるものとしてもよい。また、この提示タイミングを決定する機能(自車位置(移動体の位置)から案内地点までの距離を判定してから提示内容を提示するという機能)を使用するかしないかを、ユーザが設定できるようにしてもよい。
 以上のように、この実施の形態4によれば、同乗者などの発話者が発話した道案内表現を、適切なタイミングで提示するようにしたので、実施の形態3と同様に、運提示内容を提示するタイミングが早すぎて発話者が意図しない地点で運転者が進路を変更することを防ぐことができる。
実施の形態5.
 図14は、この発明の実施の形態5によるナビゲーション装置の一例を示すブロック図である。なお、実施の形態1~4で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に説明する実施の形態5では、実施の形態4と比べると、車速取得部(速度取得部)13を更に備え、実施の形態4における提示タイミング制御部12が、地図データと自車(移動体)の位置に加え、車速(移動体の速度)とに基づいて提示タイミングを決定するものである。
 図15は、実施の形態5によるナビゲーション装置の動作を示すフローチャートである。
 ステップST61~ST67までの処理については、実施の形態4における図13のフローチャートのステップST41~ST47と同じであるため、説明を省略する。そして、この実施の形態5では、提示タイミング制御部12が、ステップST67で道案内を行うべき案内地点を特定した後、実施の形態4のステップST48と同様に、自車位置(移動体の位置)からステップST67で特定された案内地点までの距離を算出し(ステップST68)、さらに、車速取得部(速度取得部)13により自車の車速(移動体の速度)を取得する(ステップST69)。その後、自車位置(移動体の位置)からステップST68で算出された案内地点までの距離と、ステップST69により取得された車速(移動体の速度)とに基づいて、自車(移動体)が案内地点に到達するまでの所要時間を算出し(ステップST70)、当該所要時間が予め設定された所定値以下であるか否かを判定する(ステップST71)。この所要時間が所定値以下になるまで(ステップST71のNOの場合)、自車位置(移動体の位置)を取得し(ステップST72)、距離を算出し(ステップST68)、車速(移動体の速度)を求め(ステップST69)、所要時間を算出する処理(ステップST70)を繰り返す。そして、自車(移動体)が案内地点に到達するまでの所要時間が所定値以下になったら(ステップST71のYESの場合)、そのときが提示タイミングであると決定し、提示内容の出力を指示し(ステップST73)、提示制御出力部20が、提示内容を出力する(ステップST74)。
 具体的な例を挙げて説明すると、例えば、同乗者が「200メートル先を右折して」と発話した場合、音声取得部1がその音声データを取得し(ステップST61)、音声認識部2により「200メール先を右折して」という認識結果が得られる(ステップST62)。そして、道案内表現抽出部4が、図2に示すような道案内表現記憶部3を参照して、道案内表現として文字列「200メートル先」および「右折」を抽出する(ステップST63)。その後、道案内表現提示内容取得部6が、文字列「200メートル先」および文字列「右折」を検索キーとして、図3に示すような道案内表現提示内容記憶部5を検索し、検索キーと一致する道案内表現を検索する(ステップST64)。この際、「200メートル先」という検索キーと一致する道案内表現は見つからなかったが、「右折」という検索キーと一致する道案内表現が見つかるので(ステップST65のYESの場合)、その「右折」という道案内表現に対応する視覚的提示内容である“右矢印の図形データ”や“「右折」の文字列データ”、“道の色を赤にする”や“道の太さを○○ドットにする”といった情報、または、聴覚的提示内容である“「右折」という音声データ”を取得する(ステップST66)。これら取得する提示内容は、その道案内表現に対応して道案内表現提示内容記憶部5に記憶されている提示内容すべてであってもよいし、提示内容が予め設定されている場合には、その設定されている提示内容のみであってもよい。
 そして、ステップST63で抽出された道案内表現における「200メートル先」と、自車位置取得部(位置取得部)9により取得された自車位置と、地図データとに基づいて、道案内を行うべき案内地点である「右折」すべき「200メートル先」が、地図上のどの位置であるか(交差点など)を特定する(ステップST67)。その後、自車位置から案内地点までの距離を算出し(ステップST68)、車速取得部(速度取得部)13により自車の車速を取得し(ステップST69)、案内地点までの所要時間を算出する(ステップST70)。例えば、自車位置から案内地点までの距離が200メートルで、車速が60km/hである場合には、自車が案内地点に到達するまでにかかる所要時間は、12秒である。一方、同じ位置を走行する自車の車速が20km/hであった場合には、自車が案内地点に到達するまでにかかる所要時間は、36秒である。そして、この所要時間が予め設定された所定値(例えば10秒)以下になるまで、自車位置を取得して案内地点までの距離を算出し、車速を取得して案内地点までの所要時間を算出する、という処理(ステップST68~ST72)を繰り返し、自車が案内地点に到達するまでにかかる所要時間が所定値(10秒)以下になると、提示内容の出力を指示する(ステップST73)。その結果、例えば図5(b)に示すような“右矢印の図形データ34”が表示画面に表示される(ステップST74)。
 なお、この実施の形態においても、同乗者の発話内容を常に認識するものとしているが、所定の期間(例えば、同乗者が道案内を開始すると、音声認識を行うためのボタンを押下し、そのボタンが押下されている間)のみ音声認識を行うようにしてもよい。また、常に認識するか、所定の期間のみ認識するかを、ユーザが設定できるようにしてもよい。
 また、この実施の形態5における提示タイミングを決定するための(自車(移動体)が案内地点に到達するまでの所要時間を判定するための)所定値については、予め登録しておいてもよいし、ユーザが設定できるものとしてもよい。また、この提示タイミングを決定する機能(自車(移動体)が案内地点に到達するまでの所要時間を判定してから提示内容を提示するという機能)を使用するかしないかを、ユーザが設定できるようにしてもよい。
 以上のように、この実施の形態5によれば、同乗者などの発話者が発話した道案内表現を、適切なタイミングで提示するようにしたので、実施の形態3,4と同様に、運提示内容を提示するタイミングが早すぎて発話者が意図しない地点で運転者が進路を変更することを防ぐことができる。
実施の形態6.
 図16は、この発明の実施の形態6によるナビゲーション装置の一例を示すブロック図である。なお、実施の形態1~5で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に説明する実施の形態6では、実施の形態1と比べると、地図データ記憶部8、自車位置取得部(位置取得部)9、車速取得部(速度取得部)13および道案内表現適格性判定部14を更に備え、提示内容が適格であるか否かを判定してから道案内表現を提示するものである。
 道案内表現適格性判定部14は、提示内容を提示してよいかどうかの適格性を判定する。ここで、適格性とは、例えば、発話者により指示された方向へ車両が通行できるか否かや、当該指示された方向へ進行した場合に設定された経路(ルート)を逸脱しないか否かなどをいう。
 図17は、実施の形態6によるナビゲーション装置の動作を示すフローチャートである。
 ステップST81~ST83までの処理については、実施の形態1における図4のフローチャートのステップST01~ST03と同じであるため、説明を省略する。そして、この実施の形態6では、道案内表現適格性判定部14が、ステップST83で道案内表現抽出部により抽出された道案内表現と、自車位置取得部(位置取得部)9により取得された自車位置(移動体の位置)と、地図データ記憶部8に記憶されている地図データとに基づいて、道案内表現を提示することが適格か否かを判定する(ステップST84)。この際、適格性があると判定された場合(ステップST84のYESの場合)には、実施の形態1における図4のステップST04~ST06と同様に、道案内表現に対応する提示内容を検索し(ステップST85)、対応する提示内容が見つかった場合には、その提示内容を取得して出力する(ステップST86~ST88)。
 一方、ステップST84において適格性がないと判定された場合(ステップST84のNOの場合)には、処理を終了する。
 具体的な例を挙げて説明すると、例えば、同乗者が「次の交差点を右折して」と発話した場合、音声取得部1がその音声データを取得し(ステップST81)、音声認識部2により「次の交差点を右折して」という認識結果が得られる(ステップST82)。そして、道案内表現抽出部4が、図2に示すような道案内表現記憶部3を参照して、道案内表現として文字列「次の交差点」および「右折」を抽出する(ステップST83)。この際、自車位置と、地図データとに基づいて、「次の交差点」を特定し、当該交差点で右折したときの道路情報を地図データを用いて調べた結果が、例えば一方通行で進入禁止である場合には、道案内表現が適格でないと判定され(ステップST84のNOの場合)、処理を終了する。また、例えばその交差点を右折すると設定されている経路(ルート)から逸脱する場合にも同様に、道案内表現が適格でないと判定される。
 一方、道案内表現が適格であると判定された場合(ステップST84のYESの場合)には、実施の形態1のステップST04~ST07の処理と同様の処理(ステップST85~ST88)を行い、 “右矢印の図形データ”や“「右折」の文字列データ”、“道の色を赤にする”や“道の太さを○○ドットにする”といった情報、または、聴覚的提示内容である“「右折」という音声データ”を出力する。
 なお、この実施の形態においても、同乗者の発話内容を常に認識するものとしているが、所定の期間(例えば、同乗者が道案内を開始すると、音声認識を行うためのボタンを押下し、そのボタンが押下されている間)のみ音声認識を行うようにしてもよい。また、常に認識するか、所定の期間のみ認識するかを、ユーザが設定できるようにしてもよい。
 また、この実施の形態6における道案内表現適格性判定の機能を使用するかしないかを、ユーザが設定できるようにしてもよい。
 以上のように、この実施の形態6によれば、同乗者などの発話者が発話した道案内表現が適格であるか否かを判定するようにしたので、実施の形態1における効果に加え、発話者の不適格な発話に基づいて提示内容が提示され、運転者が誤った経路を進むことや、交通違反を起こすことを防止することができる。
実施の形態7.
 この発明の実施の形態7によるナビゲーション装置の一例を示すブロック図は、実施の形態6における図16に示すブロック図と構成としては同じであるので、図示および説明を省略する。以下に説明する実施の形態7では、実施の形態6と比べると、道案内表現適格性判定部14により道案内表現が適格でないと判定された場合に、道案内表現が適格でない旨の提示内容を提示するものである。
 また、その際、道案内表現提示内容取得部6は、道案内表現提示内容記憶部5から、道案内表現が適格でない旨を表す提示内容を取得する。なお、道案内表現提示内容記憶部5に記憶されている、道案内表現が適格でない旨を表す提示内容については、図示を省略するが、道案内表現適格性判定部14により道案内表現が適格でないと判定された場合に対応する提示内容として、例えば、「×」という図形データや、「通行できません」という文字列、「経路を逸脱します」という文字列などを記憶している。
 図18は、実施の形態7によるナビゲーション装置の動作を示すフローチャートである。
 ステップST91~ST98までの処理については、実施の形態6における図17のフローチャートのステップST81~ST88とほぼ同じであるため、同一の処理については説明を省略する。そして、この実施の形態7では、道案内表現適格性判定部14が、ステップST94において道案内表現を提示することが適格か否かを判定した際に、適格性があると判定された場合(ステップST94のYESの場合)には、実施の形態6における図17のステップST85~ST88と同様に、道案内表現に対応する提示内容を検索し(ステップST95)、対応する提示内容が見つかった場合には、その提示内容を取得して出力する(ステップST96~ST98)。
 一方、ステップST94において適格性がないと判定された場合(ステップST94のNOの場合)には、実施の形態6では処理を終了するのみであったが、この実施の形態7では、道案内表現提示内容取得部6が、道案内表現が適格でない旨の提示内容を取得し(ステップST99)、その提示内容を出力する(ステップST98)。
 具体的な例を挙げて説明すると、実施の形態6と同様に、例えば、同乗者が「次の交差点を右折して」と発話した場合、音声取得部1がその音声データを取得し(ステップST91)、音声認識部2により「次の交差点を右折して」という認識結果が得られる(ステップST92)。そして、道案内表現抽出部4が、図2に示すような道案内表現記憶部3を参照して、道案内表現として文字列「次の交差点」および「右折」を抽出する(ステップST93)。この際、自車位置と、地図データとに基づいて、「次の交差点」を特定し、当該交差点で右折したときの道路情報を地図データを用いて調べた結果が、例えば一方通行で進入禁止である場合には、道案内表現が適格でないと判定される(ステップST94のNOの場合)。また、例えばその交差点を右折すると設定されている経路(ルート)から逸脱する場合にも同様に、道案内表現が適格でないと判定される。この際、道案内表現提示内容取得部6が、道案内表現提示内容記憶部5から、例えば「×」という図形データや、「通行できません」という文字列データや、「経路を逸脱します」という文字列データなどを取得する。
 なお、この実施の形態においても、同乗者の発話内容を常に認識するものとしているが、所定の期間(例えば、同乗者が道案内を開始すると、音声認識を行うためのボタンを押下し、そのボタンが押下されている間)のみ音声認識を行うようにしてもよい。また、常に認識するか、所定の期間のみ認識するかを、ユーザが設定できるようにしてもよい。
 また、この実施の形態7における道案内表現適格性判定の機能を使用するかしないかを、ユーザが設定できるようにしてもよい。
 以上のように、この実施の形態7によれば、同乗者などの発話者が発話した道案内表現が適格であるか否かを判定し、適格でない場合にはその旨を提示するようにしたので、実施の形態1における効果に加え、発話者の不適格な発話に基づいて提示内容が提示されないだけでなく、運転者は自身が認識した発話内容が不適格であることがわかり、誤った経路を進むことや、交通違反を起こすことを防止することができる。
実施の形態8.
 図19は、この発明の実施の形態8によるナビゲーション装置の一例を示すブロック図である。なお、実施の形態1~7で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に説明する実施の形態8では、実施の形態6と比べると、経路再設定部15を更に備え、道案内表現適格性判定部14により、設定された経路(ルート)を逸脱するために、提示内容(道案内表現)が適格でないと判定された場合に、当該逸脱した経路を経由地とした目的地への経路を再設定するものである。
 経路再設定部15は、道案内表現適格性判定部14により、設定された経路から逸脱するために道案内表現が適格でないと判定された場合に、当該逸脱した経路を経由地とする目的地への経路を再設定する。
 図20は、実施の形態8によるナビゲーション装置の動作を示すフローチャートである。
 ステップST101~ST108までの処理については、実施の形態6における図17のフローチャートのステップST81~ST88とほぼ同じであるため、同一の処理については説明を省略する。そして、この実施の形態8では、道案内表現適格性判定部14が、ステップST104において道案内表現を提示することが適格か否かを判定した際に、適格性があると判定された場合(ステップST104のYESの場合)には、実施の形態6における図17のステップST85~ST88と同様に、道案内表現に対応する提示内容を検索し(ステップST105)、対応する提示内容が見つかった場合には、その提示内容を取得して出力する(ステップST106~ST108)。
 一方、ステップST104において道案内表現が適格でないと判定された場合(ステップST104のNOの場合)には、実施の形態6では処理を終了するのみであったが、この実施の形態8では、さらに、設定された経路から逸脱するために適格性がないと判定されたのかどうかを判断し(ステップST109)、設定経路から逸脱するためにステップST104において適格でないと判定された場合(ステップST109のYESの場合)には、経路再設定部15が、その逸脱した経路を経由するように目的地への経路を再設定する(ステップST110)。一方、別の理由で適格性がないと判定された場合(ステップST109のNOの場合)には、処理を終了する。
 具体的な例を挙げて説明すると、実施の形態6と同様に、例えば、同乗者が「次の交差点を右折して」と発話した場合、音声取得部1がその音声データを取得し(ステップST101)、音声認識部2により「次の交差点を右折して」という認識結果が得られる(ステップST102)。そして、道案内表現抽出部4が、図2に示すような道案内表現記憶部3を参照して、道案内表現として文字列「次の交差点」および「右折」を抽出する(ステップST103)。この際、自車位置と、地図データとに基づいて、「次の交差点」を特定し、当該交差点で右折したときの道路情報を地図データを用いて調べた結果が、例えば一方通行で進入禁止である場合には、道案内表現が適格でないと判定される(ステップST104のNOの場合)。そしてさらに、適格でないと判定された理由が、設定経路から逸脱するためであったかどうかが判断され(ステップST109)、NOであるため処理を終了する。一方、ステップST104の判定の際に、例えばその交差点を右折すると設定されている経路(ルート)から逸脱する場合には、ステップST104では同様に道案内表現が適格でないと判定され(ステップST104のNOの場合)、適格でないと判定された理由が、設定経路から逸脱するためであるので(ステップST109のYESの場合)、経路再設定部15が、その逸脱した経路を経由するように目的地への経路を再設定する(ステップST110)。
 なお、この実施の形態においても、同乗者の発話内容を常に認識するものとしているが、所定の期間(例えば、同乗者が道案内を開始すると、音声認識を行うためのボタンを押下し、そのボタンが押下されている間)のみ音声認識を行うようにしてもよい。また、常に認識するか、所定の期間のみ認識するかを、ユーザが設定できるようにしてもよい。
 また、この実施の形態8における経路再設定の機能を使用するかしないかを、ユーザが設定できるようにしてもよい。
 以上のように、この実施の形態8によれば、同乗者などの発話者が発話した道案内表現が適格であるか否かを判定し、経路を逸脱するために適格でないと判定された場合には、その逸脱した経路を経由するように目的地への経路を再設定するようにしたので、実施の形態1における効果に加え、発話者が経路の変更を意図して道案内をした場合に、不適格と判定されてその意図が反映されないということを防止することができる。
実施の形態9.
 図21は、この発明の実施の形態9によるナビゲーション装置の一例を示すブロック図である。なお、実施の形態1~8で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に説明する実施の形態9では、実施の形態1と比べると、取り消し/訂正表現記憶部16および取り消し/訂正表現抽出部17を更に備え、提示内容の提示を取り消す旨の表現が抽出された場合は、当該提示内容を出力しないようにし、また、提示内容の提示を訂正する旨の表現が抽出された場合には、訂正後の提示内容を出力するようにしたものである。
 取り消し/訂正表現記憶部16は、通常、人が道案内をしていて言い間違えたり、案内を間違えたりした場合に使用すると想定される表現を記憶している。
 図22は、取り消し/訂正表現記憶部16の一例を示す図である。この図に示すように、取り消し/訂正表現記憶部16は、例えば、「違う」「違った」「間違えた」などの取り消し表現や、「~ではなくて」「やめて」などの訂正表現を記憶している。
 取り消し/訂正表現抽出部17は、取り消し/訂正表現記憶部15を参照しながら形態素解析を行い、音声認識部2の音声認識結果の文字列から取り消し表現および訂正表現を抽出する。また、訂正表現を抽出した場合には、道案内表現記憶部3を参照して当該表現に続く、すなわち、訂正後の道案内表現も抽出する。
 図23は、実施の形態9によるナビゲーション装置の動作を示すフローチャートである。
 ステップST111,ST112の処理については、実施の形態1における図4のフローチャートのステップST01,ST02と同じであるため、説明を省略する。そして、この実施の形態9では、ステップST112による音声認識部2の認識結果から、道案内表現抽出部4が道案内表現記憶部3を参照しながら道案内表現を抽出するとともに、取り消し/訂正表現抽出部17が、取り消し/訂正表現記憶部16を参照しながら取り消し/訂正表現を抽出する。この際、取り消し/訂正表現抽出部17により取り消し/訂正表現が抽出されなかった場合(ステップST113のNOの場合)には、このフローチャートとしては処理を終了し、実施の形態1と同じように、道案内表現抽出部4が道案内表現を抽出して提示する処理(ここでは、図示および説明を省略する)を行う。
 そして、取り消し/訂正表現抽出部17により、取り消し/訂正表現記憶部16に記憶されている取り消し/訂正表現が抽出された場合(ステップST113のYESの場合)であって、その抽出された取り消し/訂正表現が、例えば「間違えた」などの取り消し表現であった場合(ステップST114のYESの場合)、取り消し訂正表現抽出部17は、提示制御部7に対して、提示内容が視覚的提示内容である場合にはその視覚的提示内容の表示を取り消す旨の通知を行う。すなわち、既に視覚的提示内容が表示されている場合(ステップST115のYESの場合)には、提示制御部7が当該視覚的提示内容の表示をやめる(ステップST116)。また、まだ視覚的提示内容が表示されていない場合(ステップST115のNOの場合)には、何も表示せずに終了する。
 一方、取り消し/訂正表現抽出部17により抽出された表現が、例えば「~ではなくて」のような、取り消し表現ではなくて訂正表現であった場合(ステップST114のNOの場合)には、既に視覚的提示内容が表示されている場合(ステップST117のYESの場合)には、提示制御部7が当該視覚的提示内容の表示をやめる(ステップST118)。また、まだ視覚的提示内容が表示されていない場合(ステップST117のNOの場合)には、そのままステップST119の処理を行う。ステップST119では、取り消し/訂正表現抽出部17が道案内表現記憶部3を参照して、その訂正表現の後に続く道案内表現を抽出する(ステップST119)。そして、当該道案内表現に基づいて道案内表現提示内容取得部6が対応する提示内容を取得し(ステップST120)、提示制御出力部20が、その提示内容を出力する(ステップST121)。
 具体的な例を挙げて説明すると、例えば、同乗者が「次の交差点を右折して」と発話した後に「あっ、違った」と発話をした場合、音声取得部1がその音声データを取得し(ステップST111)、音声認識部2により「次の交差点を右折して」および「あっ、違った」という認識結果が得られる(ステップST112)。この際、取り消し/訂正表現抽出部17が、取り消し/訂正表現記憶部16を参照して、取り消し表現として文字列「違った」が抽出される。すなわち、音声認識結果から、取り消し/訂正表現が抽出され(ステップST113のYESの場合)、その抽出された表現が取り消し表現であるので(ステップST114のYESの場合)、「右折」を表す視覚的提示内容が既に表示されている場合(ステップST115のYESの場合)には、その視覚的提示内容の表示をやめる(ステップST116)。また、まだ視覚的提示内容が表示されていなければ(ステップST115のNOの場合)、何も表示せずに処理を終了する。
 図24は、取り消し表現が抽出された場合の画面遷移例を示す図である。図24(a)は、ナビゲーション画面31に自車32が三角形で表示されている表示画面と、同乗者により「次の交差点を右折して」と発話された状態を示しており、その発話内容が吹き出し33で示されている。そして、図24(b)は、この際にナビゲーション装置によって実施の形態2で説明した提示内容を出力する処理が行われた結果、図24(a)と同じナビゲーション画面31上に視覚的提示内容として“右矢印の図形データ”34が、右折した後に通過する道路上に表示された状態と、ここで同乗者により「あっ、違った」と発話された状態を示している。なお、この発話内容についても、吹き出し33で示されている。これにより、前述の図23に示すフローチャートの処理のうち、ステップST114~ST116の処理が行われ、“右矢印の図形データ”34の表示が取り消され(図24(c)参照)、図24(d)に示す状態となる。なお、同乗者による発話内容が「次の交差点を右折して。あっ、違った。」のように一連のものであり、図24(b)に示すような視覚的提示内容が表示される前に、「違った」という取り消し表現が抽出された場合には、何も表示せずに終了する。すなわち、図24(a)から直接、図24(d)の状態に遷移することになり、表示上は何も変化しない。
 また、例えば同乗者が「次の交差点を右折・・・ではなくて左折」と発話した場合、取り消し/訂正表現抽出部17により「ではなくて」という訂正表現が抽出される。すなわち、ステップST114のNOの場合であるので、さらに、その「ではなくて」に続く道案内表現として、道案内表現記憶部3を参照することにより「左折」を抽出する(ステップST119)。そして、その「左折」に対応する提示内容を道案内表現提示内容記憶部5を参照することにより取得し(ステップST120)、表示または音声出力する(ステップST121)。
 図25は、訂正表現が抽出された場合の画面遷移例を示す図である。図25(a)は、ナビゲーション画面31に自車32が三角形で表示されている表示画面と、同乗者により「次の交差点を右折・・・ではなくて左折」と発話された状態を示しており、その発話内容が吹き出し33で示されている。そして、図25(b)は、この際にナビゲーション装置によって実施の形態2で説明した提示内容を出力する処理が行われた結果、図25(a)と同じナビゲーション画面31上に視覚的提示内容として“右矢印の図形データ”34が、右折した後に通過する道路上に表示された状態を示している。しかしながら、発話内容の中に「ではなくて」という訂正表現が含まれているので、この訂正表現が抽出されることにより、前述の図23に示すフローチャートの処理のうち、ステップST114,ST117~ST118の処理が行われ、“右矢印の図形データ”34の表示が削除される(図25(c)参照)。さらに、その「ではなくて」に続く道案内表現として「左折」が抽出されることにより、図23に示すフローチャートのステップST119~ST121の処理が行われ、図25(d)に示すように、「左折」に対応する“左矢印の図形データ”34が表示される。なお、図25(b)に示すような視覚的提示内容が表示される前に、「ではなくて」という訂正表現が抽出された場合には、図25(a)から直接、図25(d)の状態に遷移する。
 なお、この実施の形態においても、同乗者の発話内容を常に認識するものとしているが、所定の期間(例えば、同乗者が道案内を開始すると、音声認識を行うためのボタンを押下し、そのボタンが押下されている間)のみ音声認識を行うようにしてもよい。また、常に認識するか、所定の期間のみ認識するかを、ユーザが設定できるようにしてもよい。
 また、この実施の形態9においては、取り消すべき視覚的提示内容が既に表示されていた場合には、取り消す(削除する)ものとして説明したが、表示されている視覚的提示内容を取り消すか、当該提示内容と取り消す旨の視覚的提示内容を表示するかを、ユーザが設定できるようにしてもよい。また、この実施の形態9における取り消し/訂正表現抽出の機能を使用するかしないかを、ユーザが設定できるようにしてもよい。
 以上のように、この実施の形態9によれば、同乗者などの発話者が発話した道案内表現に取り消し/訂正表現が含まれている場合にはそれも抽出するようにしたので、実施の形態1における効果に加え、同乗者などの発話者が誤って案内したことを汲み取り、取り消すべき視覚的提示内容の取り消しや訂正をすることで、運転者が誤った経路を進むことを防止することができる。
実施の形態10.
 図26は、この発明の実施の形態10によるナビゲーション装置の一例を示すブロック図である。なお、実施の形態1~9で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に説明する実施の形態10では、実施の形態1と比べると、道案内表現提示内容記憶部5の代わりに、音声録音部18を備えている。
 音声録音部18は、音声取得部1により取得された音声データを、道案内表現抽出部4により抽出された道案内表現と対応付けて記憶する。そして、道案内表現提示内容取得部6が、音声録音部18を参照して、道案内表現抽出部4により抽出された道案内表現に対応する音声データを提示内容(聴覚的提示内容)として取得し、提示制御出力部20がその提示内容を出力するものである。
 図27は、実施の形態10によるナビゲーション装置の動作を示すフローチャートである。
 ステップST131~ST133までの処理については、実施の形態1における図4のフローチャートのステップST01~ST03と同じであるため、説明を省略する。そして、この実施の形態10では、音声録音部18が、ステップST131で音声取得部1により取得された音声データを、ステップST133で道案内表現抽出部4により抽出された道案内表現に対応付けて保存する(ステップST134)。例えば、発話者が「次の交差点を右折して」と発話した場合、音声取得部1により「次の交差点を右折して」という音声データが取得されるとともに、道案内表現抽出部4により「次の交差点」および「右折」という道案内表現が抽出される。この場合、音声録音部18は、取得された音声データから「次の交差点」に対応する音声データと、「右折」に対応する音声データを切り出し、各道案内表現と該当する部分の音声データとを対応付けて保存する。
 そして、道案内表現提示内容取得部6は、音声録音部18から、道案内表現抽出部4により抽出された道案内表現に対応する音声データを取得する(ステップST135)。例えば、「右折」に対応する音声データを取得してもよいし、「次の交差点」と「右折」に対応する音声データを取得してもよい。その後、提示制御部7により、取得した録音音声データが出力され、スピーカなどの音声出力部22から音声出力される(ステップST136)。
 なお、この実施の形態においても、同乗者の発話内容を常に認識するものとしているが、所定の期間(例えば、同乗者が道案内を開始すると、音声認識を行うためのボタンを押下し、そのボタンが押下されている間)のみ音声認識を行うようにしてもよい。また、常に認識するか、所定の期間のみ認識するかを、ユーザが設定できるようにしてもよい。
 また、この実施の形態10における音声録音部18の機能を使用するかしないかを、ユーザが設定できるようにしてもよい。
 また、図28に示すブロック図のように、実施の形態1におけるブロック図1等が、音声録音部18を備えるようにしてもよく、その場合にも、この音声録音部18の機能を使用するかしないかを、ユーザが設定できるようにしてもよい。
 以上のように、この実施の形態10によれば、同乗者などの発話者が発話した道案内表現を再度音声で出力することにより、運転者の聞き間違いを防止し、発話者が意図しない方向に進むことを防止することができる。
 なお、この実施の形態では、車両用のナビゲーション装置として説明したが、この発明のナビゲーション装置は車両用に限らず、人、車両、鉄道、船舶または航空機等を含む移動体用のナビゲーション装置であって、特に車両への持ち込みあるいは車載に適したナビゲーション装置に関するものであり、携帯型ナビゲーション装置等、ユーザと装置との音声対話によりナビゲーションを行うことが可能な装置であれば、どのような形態のものにも適用することができる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明のナビゲーション装置は、ユーザと装置との音声対話によりナビゲーションを行うことが可能な車載用ナビゲーション装置や携帯型ナビゲーション装置に適用することができる。
 1 音声取得部、2 音声認識部、3 道案内表現記憶部、4 道案内表現抽出部、5道案内表現提示内容記憶部、6 道案内表現提示内容取得部、7 提示制御部、8 地図データ記憶部、9 自車位置取得部(位置取得部)、10 提示位置特定部、11 提示タイミング記憶部、12 提示タイミング制御部、13 車速取得部(速度取得部)、14 道案内表現適格性判定部、15 経路再設定部、16 取り消し/訂正表現記憶部、17 取り消し/訂正表現抽出部、18 音声録音部、20 提示制御出力部、21 表示部、22 音声出力部、31 ナビゲーション画面、32 自車マーク、33 吹き出し、34 図形データ、35 文字データ、36 赤色の道路、37 道幅の太い道路。

Claims (17)

  1.  移動体の位置を取得する位置取得部を備え、当該位置取得部により取得された移動体の位置と地図データとに基づいて道案内を行うナビゲーション装置において、
     入力された音声を取得する音声取得部と、
     前記音声取得部により取得された音声データから音声認識処理を行う音声認識部と、
     道案内表現を記憶する道案内表現記憶部と、
     前記道案内表現記憶部を参照して、前記音声認識部による認識結果から道案内表現を抽出する道案内表現抽出部と、
     前記道案内表現に対応する提示内容を、前記道案内表現と対応付けて記憶する道案内表現提示内容記憶部と、
     前記道案内表現提示内容記憶部を参照して、前記道案内表現抽出部により抽出された道案内表現に基づいて、対応する提示内容を取得する道案内表現提示内容取得部と、
     前記道案内表現提示内容取得部により取得された提示内容を出力する提示制御出力部とを備える
     ことを特徴とするナビゲーション装置。
  2.  前記提示制御出力部により前記提示内容が出力されるタイミングを制御する提示タイミング制御部をさらに備える
     ことを特徴とする請求項1記載のナビゲーション装置。
  3.  前記提示タイミング制御部は、前記道案内表現抽出部により抽出された道案内表現と、前記位置取得部により取得された移動体の位置と、前記地図データを用いて、道案内を行うべき道案内地点を決定するとともに、前記移動体の位置から前記道案内地点までの距離を算出し、当該距離が所定値以下になったときに、前記提示内容が出力されるように前記タイミングを制御する
     ことを特徴とする請求項2記載のナビゲーション装置。
  4.  前記移動体の速度を取得する速度取得部をさらに備え、
     前記提示タイミング制御部は、前記道案内表現抽出部により抽出された道案内表現と、前記位置取得部により取得された移動体の位置と、前記地図データを用いて、道案内を行うべき道案内地点を決定し、前記移動体の位置から前記道案内地点までの距離を算出するとともに、前記速度取得部により取得された速度を用いて、前記道案内地点までの所要時間を算出し、当該所要時間が所定値以下になったときに、前記提示内容が出力されるように前記タイミングを制御する
     ことを特徴とする請求項2記載のナビゲーション装置。
  5.  前記道案内表現抽出部により抽出された道案内表現が適格であるか否かを判定する道案内表現適格性判定部をさらに備え、
     前記提示制御出力部は、前記道案内表現適格性判定部により前記道案内表現が適格でないと判定された場合は、前記提示内容を出力しない
     ことを特徴とする請求項1から請求項4のうちのいずれか1項記載のナビゲーション装置。
  6.  前記道案内表現抽出部により抽出された道案内表現が適格であるか否かを判定する道案内表現適格性判定部をさらに備え、
     前記提示制御出力部は、前記道案内表現適格性判定部により前記道案内表現が適格でないと判定された場合は、前記道案内表現が適格でない旨の提示内容を出力する
     ことを特徴とする請求項1から請求項4のうちのいずれか1項記載のナビゲーション装置。
  7.  前記道案内表現適格性判定部により前記道案内表現が適格でないと判定された場合に、経路を再設定する経路再設定部をさらに備える
     ことを特徴とする請求項5または請求項6記載のナビゲーション装置。
  8.  取り消しまたは訂正する際に使用される表現を記憶する取り消し/訂正表現記憶部と、
     前記取り消し/訂正表現記憶部を参照して、前記音声認識部による認識結果から取り消し/訂正に使用される表現を抽出する取り消し/訂正表現抽出部とをさらに備え、
     前記提示制御出力部は、前記取り消し/訂正表現が抽出された場合には、前記提示内容を出力しない
     ことを特徴とする請求項1から請求項7のうちのいずれか1項記載のナビゲーション装置。
  9.  取り消しまたは訂正する際に使用される表現を記憶する取り消し/訂正表現記憶部と、
     前記取り消し/訂正表現記憶部を参照して、前記音声認識部による認識結果から取り消し/訂正に使用される表現を抽出する取り消し/訂正表現抽出部とをさらに備え、
     前記提示制御出力部は、前記提示内容として視覚的提示内容が出力されている状態で、前記取り消し/訂正表現が抽出された場合には、前記視覚的提示内容の出力を取り消す
     ことを特徴とする請求項1から請求項7のうちのいずれか1項記載のナビゲーション装置。
  10.  取り消しまたは訂正する際に使用される表現を記憶する取り消し/訂正表現記憶部と、
     前記取り消し/訂正表現記憶部を参照して、前記音声認識部による認識結果から取り消し/訂正に使用される表現を抽出する取り消し/訂正表現抽出部とをさらに備え、
     前記提示制御出力部は、前記取り消し/訂正表現が抽出された場合には、前記取り消し/訂正表現の後に続いて抽出された道案内表現に対応する提示内容を出力する
     ことを特徴とする請求項1から請求項9のうちのいずれか1項記載のナビゲーション装置。
  11.  前記提示内容が、視覚的提示内容である場合には、
     前記道案内表現抽出部により抽出された道案内表現と、前記位置取得部により取得された移動体の位置と、前記地図データを用いて、前記視覚的提示内容を提示する位置を決定する提示位置特定部をさらに備える
     ことを特徴とする請求項1から請求項10のうちのいずれか1項記載のナビゲーション装置。
  12.  前記提示内容が、視覚的提示内容である場合には、
     前記提示制御出力部は、前記視覚的提示内容を点滅、移動、または、フェードインのいずれかで表示することにより出力することを特徴とする請求項1から請求項11のうちのいずれか1項記載のナビゲーション装置。
  13.  前記提示内容が、視覚的提示内容である場合には、
     前記視覚的提示内容は、図形の表示、文字の表示、色の変更、大きさの変更、または、これらの組合せによるものであることを特徴とする請求項1から請求項12のうちのいずれか1項記載のナビゲーション装置。
  14.  前記音声取得部により取得された音声データを、前記道案内表現抽出部により抽出された道案内表現と対応付けて録音する音声録音部をさらに備え、
     前記道案内表現提示内容取得部が、前記音声録音部に記憶されている音声データを、前記対応する提示内容として取得する
     ことを特徴とする請求項1から請求項13のうちのいずれか1項記載のナビゲーション装置。
  15.  移動体の位置を取得する位置取得部を備え、当該位置取得部により取得された移動体の位置と地図データとに基づいて道案内を行うナビゲーション装置において、
     入力された音声を取得する音声取得部と、
     前記音声取得部により取得された音声データから音声認識処理を行う音声認識部と、
     道案内表現を記憶する道案内表現記憶部と、
     前記道案内表現記憶部を参照して、前記音声認識部による認識結果から道案内表現を抽出する道案内表現抽出部と、
     前記音声取得部により取得された音声データを、前記道案内表現抽出部により抽出された道案内表現と対応付けて記憶する音声録音部と、
     前記音声録音部を参照して、前記道案内表現抽出部により抽出された道案内表現に基づいて、対応する音声データを提示内容として取得する道案内表現提示内容取得部と、
     前記道案内表現提示内容取得部により取得された提示内容を出力する提示制御出力部とを備える
     ことを特徴とするナビゲーション装置。
  16.  位置取得部が、移動体の位置を取得するステップと、前記位置取得部により取得された移動体の位置と地図データとに基づいて道案内を行うステップを有するナビゲーション方法において、
     音声取得部が、入力された音声を取得するステップと、
     音声認識部が、前記音声取得部により取得された音声データから音声認識処理を行うステップと、
     道案内表現記憶部が、道案内表現を記憶するステップと、
     道案内表現抽出部が、前記道案内表現記憶部を参照して、前記音声認識部による認識結果から道案内表現を抽出するステップと、
     道案内表現提示内容記憶部が、前記道案内表現に対応する提示内容を、前記道案内表現と対応付けて記憶するステップと、
     道案内表現提示内容取得部が、前記道案内表現提示内容記憶部を参照して、前記道案内表現抽出部により抽出された道案内表現に基づいて、対応する提示内容を取得するステップと、
     提示制御出力部が、前記道案内表現提示内容取得部により取得された提示内容を出力するステップとを備える
     ことを特徴とするナビゲーション方法。
  17.  コンピュータを、
     移動体の位置を取得する位置取得部と、
     入力された音声を取得する音声取得部と、
     前記音声取得部により取得された音声データから音声認識処理を行う音声認識部と、
     道案内表現を記憶する道案内表現記憶部と、
     前記道案内表現記憶部を参照して、前記音声認識部による認識結果から道案内表現を抽出する道案内表現抽出部と、
     前記道案内表現に対応する提示内容を、前記道案内表現と対応付けて記憶する道案内表現提示内容記憶部と、
     前記道案内表現提示内容記憶部を参照して、前記道案内表現抽出部により抽出された道案内表現に基づいて、対応する提示内容を取得する道案内表現提示内容取得部と、
     前記道案内表現提示内容取得部により取得された提示内容を出力する提示制御出力部
     として機能させることにより、
     前記位置取得部により取得された移動体の位置と地図データとに基づいて道案内を行うナビゲーション用プログラム。
PCT/JP2011/005715 2011-10-12 2011-10-12 ナビゲーション装置、方法およびプログラム WO2013054375A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112011105733.4T DE112011105733T5 (de) 2011-10-12 2011-10-12 Navigationsvorrichtung, Verfahren und Programm
US14/114,877 US9476728B2 (en) 2011-10-12 2011-10-12 Navigation apparatus, method and program
PCT/JP2011/005715 WO2013054375A1 (ja) 2011-10-12 2011-10-12 ナビゲーション装置、方法およびプログラム
JP2013538341A JP5414951B2 (ja) 2011-10-12 2011-10-12 ナビゲーション装置、方法およびプログラム
CN201180074099.4A CN103857988B (zh) 2011-10-12 2011-10-12 导航装置、方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/005715 WO2013054375A1 (ja) 2011-10-12 2011-10-12 ナビゲーション装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2013054375A1 true WO2013054375A1 (ja) 2013-04-18

Family

ID=48081459

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/005715 WO2013054375A1 (ja) 2011-10-12 2011-10-12 ナビゲーション装置、方法およびプログラム

Country Status (5)

Country Link
US (1) US9476728B2 (ja)
JP (1) JP5414951B2 (ja)
CN (1) CN103857988B (ja)
DE (1) DE112011105733T5 (ja)
WO (1) WO2013054375A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015049897A (ja) * 2013-09-03 2015-03-16 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 機器制御方法、音声機器制御システム、および供給装置
JP2016090515A (ja) * 2014-11-10 2016-05-23 パイオニア株式会社 情報表示装置、制御方法、プログラム、及び記憶媒体
JP2019182244A (ja) * 2018-04-11 2019-10-24 株式会社Subaru 音声認識装置及び音声認識方法
WO2022153823A1 (ja) * 2021-01-14 2022-07-21 パイオニア株式会社 案内装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069060A1 (ja) 2011-11-10 2013-05-16 三菱電機株式会社 ナビゲーション装置および方法
CN109186626A (zh) * 2018-08-13 2019-01-11 上海擎感智能科技有限公司 语音文字显示方法、系统、存储介质及车机

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001324345A (ja) * 2000-05-15 2001-11-22 Alpine Electronics Inc ナビゲーション装置及びナビゲーション装置の経路案内方法
JP2003329463A (ja) * 2002-05-10 2003-11-19 Matsushita Electric Ind Co Ltd 対象物案内装置およびその方法
JP2006284677A (ja) * 2005-03-31 2006-10-19 Clarion Co Ltd 音声案内装置、音声案内装置の制御方法及び制御プログラム
JP2008157885A (ja) * 2006-12-26 2008-07-10 Pioneer Electronic Corp 情報案内装置、ナビゲーション装置、情報案内方法、ナビゲーション方法、情報案内プログラム、ナビゲーションプログラム、および記録媒体
JP2009192489A (ja) * 2008-02-18 2009-08-27 Toyota Motor Corp 情報提供装置、情報表示方法、ナビゲーション装置
JP2010211536A (ja) * 2009-03-10 2010-09-24 Hitachi Ltd 空港向け航空管制システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09206329A (ja) 1996-01-31 1997-08-12 Sony Corp 聴力補助装置
JP3233017B2 (ja) * 1996-05-14 2001-11-26 トヨタ自動車株式会社 車両用経路案内装置
JPH1151674A (ja) * 1997-08-08 1999-02-26 Aisin Aw Co Ltd 車両用ナビゲーション装置及び記憶媒体
EP1408303B1 (en) * 2002-03-15 2011-12-21 Mitsubishi Denki Kabushiki Kaisha Vehicular navigation device
JP2003329476A (ja) 2002-05-13 2003-11-19 Denso Corp 車両用案内装置
JP2007132870A (ja) * 2005-11-11 2007-05-31 Pioneer Electronic Corp ナビゲーション装置、コンピュータプログラム、画面制御方法及び測定間隔制御方法
JP4225356B2 (ja) 2007-04-09 2009-02-18 トヨタ自動車株式会社 車両用ナビゲーション装置
JP4973722B2 (ja) 2009-02-03 2012-07-11 株式会社デンソー 音声認識装置、音声認識方法、及びナビゲーション装置
JP2010190773A (ja) 2009-02-19 2010-09-02 Mitsubishi Electric Corp ナビゲーション装置およびナビゲーション方法
CN103842773B (zh) 2011-09-13 2017-05-17 三菱电机株式会社 导航装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001324345A (ja) * 2000-05-15 2001-11-22 Alpine Electronics Inc ナビゲーション装置及びナビゲーション装置の経路案内方法
JP2003329463A (ja) * 2002-05-10 2003-11-19 Matsushita Electric Ind Co Ltd 対象物案内装置およびその方法
JP2006284677A (ja) * 2005-03-31 2006-10-19 Clarion Co Ltd 音声案内装置、音声案内装置の制御方法及び制御プログラム
JP2008157885A (ja) * 2006-12-26 2008-07-10 Pioneer Electronic Corp 情報案内装置、ナビゲーション装置、情報案内方法、ナビゲーション方法、情報案内プログラム、ナビゲーションプログラム、および記録媒体
JP2009192489A (ja) * 2008-02-18 2009-08-27 Toyota Motor Corp 情報提供装置、情報表示方法、ナビゲーション装置
JP2010211536A (ja) * 2009-03-10 2010-09-24 Hitachi Ltd 空港向け航空管制システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015049897A (ja) * 2013-09-03 2015-03-16 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 機器制御方法、音声機器制御システム、および供給装置
JP2016090515A (ja) * 2014-11-10 2016-05-23 パイオニア株式会社 情報表示装置、制御方法、プログラム、及び記憶媒体
JP2019182244A (ja) * 2018-04-11 2019-10-24 株式会社Subaru 音声認識装置及び音声認識方法
JP7235441B2 (ja) 2018-04-11 2023-03-08 株式会社Subaru 音声認識装置及び音声認識方法
WO2022153823A1 (ja) * 2021-01-14 2022-07-21 パイオニア株式会社 案内装置

Also Published As

Publication number Publication date
JPWO2013054375A1 (ja) 2015-03-30
CN103857988A (zh) 2014-06-11
CN103857988B (zh) 2016-08-17
DE112011105733T5 (de) 2014-07-31
US9476728B2 (en) 2016-10-25
JP5414951B2 (ja) 2014-02-12
US20140067258A1 (en) 2014-03-06

Similar Documents

Publication Publication Date Title
WO2013069172A1 (ja) ナビゲーション装置および方法
JP5414951B2 (ja) ナビゲーション装置、方法およびプログラム
JP5972372B2 (ja) 車載情報装置
JP6173477B2 (ja) ナビゲーション用サーバ、ナビゲーションシステムおよびナビゲーション方法
JP4292646B2 (ja) ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体
WO2013069060A1 (ja) ナビゲーション装置および方法
US9378737B2 (en) Voice recognition device
JP2006195637A (ja) 車両用音声対話システム
JP5181533B2 (ja) 音声対話装置
JP4914632B2 (ja) ナビゲーション装置
JP2947143B2 (ja) 音声認識装置及びナビゲーション装置
JP2007263651A (ja) 車載用ナビゲーション装置及び車両信号検知方法
JP4520555B2 (ja) 音声認識装置および音声認識ナビゲーション装置
JP5762554B2 (ja) ナビゲーション装置および方法
US20150192425A1 (en) Facility search apparatus and facility search method
WO2013051072A1 (ja) ナビゲーション装置、方法およびプログラム
JPWO2013069060A1 (ja) ナビゲーション装置、方法およびプログラム
WO2019124142A1 (ja) ナビゲーション装置およびナビゲーション方法、ならびにコンピュータプログラム
WO2006028171A1 (ja) データ提示装置、データ提示方法、データ提示プログラムおよびそのプログラムを記録した記録媒体
JP2007025076A (ja) 車載用音声認識装置
JPH09114491A (ja) 音声認識装置,音声認識方法,ナビゲーション装置,ナビゲート方法及び自動車
JP4652504B2 (ja) 音声認識装置および音声認識ナビゲーション装置
JP4760200B2 (ja) 走行支援装置
JP2005053331A (ja) 車載機器用情報提示装置
JPH1194581A (ja) ナビゲーション装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11873965

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013538341

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14114877

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112011105733

Country of ref document: DE

Ref document number: 1120111057334

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11873965

Country of ref document: EP

Kind code of ref document: A1