WO2015125212A1 - 音声認識装置および表示方法 - Google Patents

音声認識装置および表示方法 Download PDF

Info

Publication number
WO2015125212A1
WO2015125212A1 PCT/JP2014/053768 JP2014053768W WO2015125212A1 WO 2015125212 A1 WO2015125212 A1 WO 2015125212A1 JP 2014053768 W JP2014053768 W JP 2014053768W WO 2015125212 A1 WO2015125212 A1 WO 2015125212A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
importance
display area
unit
display object
Prior art date
Application number
PCT/JP2014/053768
Other languages
English (en)
French (fr)
Inventor
友紀 古本
博紀 坂下
政信 大沢
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN201480004432.8A priority Critical patent/CN105008859B/zh
Priority to US14/648,971 priority patent/US9864577B2/en
Priority to JP2015515745A priority patent/JP5893217B2/ja
Priority to PCT/JP2014/053768 priority patent/WO2015125212A1/ja
Priority to DE112014000297.6T priority patent/DE112014000297T5/de
Publication of WO2015125212A1 publication Critical patent/WO2015125212A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the present invention relates to a voice recognition device for recognizing voice spoken by a user and displaying a display object corresponding to a recognition result, and a display method for displaying the display object on a display device.
  • Patent Document 1 is a voice recognition device that recognizes voice spoken by a user and displays the recognition result.
  • a shortcut button that is the voice recognition result is displayed on the display screen. It is described that the shortcut function is executed when the user presses the shortcut button.
  • a conventional speech recognition apparatus such as Patent Document 1 does not consider the display position of a display object created based on the recognition result, and thus information on a map that is important for the user is displayed. The display thing was displayed from the top, and there existed a subject that a user obstructed acquiring important information.
  • the present invention has been made to solve the above-described problems, and changes the display position and display form of the display object according to the importance of the area for displaying the display object corresponding to the voice recognition result. It is an object of the present invention to provide a voice recognition device for display and a display method for displaying the display object on a display device.
  • the present invention provides a voice recognition device for recognizing a voice uttered by a user and displaying a display corresponding to a recognition result, and detecting and acquiring a voice uttered by the user.
  • a display section having a plurality of display areas, a display area importance calculation section for calculating the importance for each of the plurality of display areas in the display section, and the importance calculated by the display area importance calculation section
  • a display object display mode determining unit that determines at least one of a display area for displaying the display object generated by the display object generating unit or a display form of the display object, and the display object Based on the determined display area or the display form by ⁇ like determination unit, characterized by comprising a display object rendering unit for instructing output to the display unit to display the display object.
  • the position or display form for displaying the display object can be changed according to the importance of the display area for displaying the display object corresponding to the speech recognition result.
  • the display does not hinder the acquisition of other information important to the user, and the convenience for the user can be improved.
  • 3 is a flowchart illustrating processing for determining a display area in which a display object is to be displayed in the first embodiment.
  • 3 is a flowchart illustrating display object generation and display processing in the first embodiment.
  • 4 is a flowchart illustrating processing for changing a display area of a display object already displayed on a display unit in the first embodiment.
  • It is a figure (1) which shows the example of a screen transition by the relation between a facility icon and the display thing displayed on a display field in the state where a map screen is displayed on a display part.
  • It is a figure (2) which shows the example of a screen transition by the relation between a facility icon and the display thing displayed on a display field in the state where a map screen is displayed on a display part.
  • FIG. 5 is a flowchart illustrating a process for determining a display area where a display object is to be displayed when a display area is not designated in advance in the first embodiment. It is a figure which shows another example of the screen transition by the relationship between a facility icon and the display thing displayed on a display area in the state in which the map screen is displayed on the display part. It is a figure which shows an example of the relationship between the importance of a display area, and the transparency of a display thing. It is a figure which shows an example of the relationship between the importance of a display area, and the display time of a display thing. It is a figure which shows an example of the change of the information content of a display thing.
  • FIG. 10 is a flowchart illustrating processing for determining a display area to be displayed on a display object and determining the transparency of the display object in the second embodiment.
  • 10 is a flowchart illustrating display object generation and display processing in the second embodiment.
  • 10 is a flowchart illustrating processing for changing a display area of a display object already displayed on the display unit and changing the transparency of the display object in the second embodiment.
  • FIG. 10 is a diagram showing an outline of a navigation system in a third embodiment.
  • the present invention is a speech recognition device that recognizes speech uttered by a user and displays a display object corresponding to a recognition result.
  • the voice recognition process may be performed by an instruction to start the voice recognition process by the user, or the voice may be recognized at all times without the instruction.
  • a case where the speech recognition apparatus of the present invention is applied to a navigation device mounted on a moving body such as a vehicle will be described as an example. Navigation for a moving body other than a vehicle will be described. It may be a device or may be applied to a server of a navigation system. Moreover, you may apply to the application etc. of the navigation system installed in portable information terminals, such as a smart phone, a tablet PC, and a mobile telephone.
  • FIG. 1 is a block diagram showing an example of a navigation apparatus to which a speech recognition apparatus according to Embodiment 1 of the present invention is applied.
  • the navigation device includes a control unit 1, a current position detection unit 2, a traffic information transmission / reception unit 3, a map information storage unit 4, a map information acquisition unit 5, a route calculation unit 6, a guidance guide unit 7, a microphone 8, and a voice acquisition unit 9.
  • a voice recognition unit 10 an instruction input unit 11, a display control unit 12, a display unit 13, a voice control unit 14, a speaker 15, a driving situation acquisition unit 16, and a surrounding environment situation acquisition unit 17. Is displayed to provide guidance for a moving body such as a vehicle.
  • the control unit 1 controls the operation of the entire navigation device.
  • the current position detection unit 2 detects the current position and the traveling direction of the host vehicle using, for example, a GPS receiver.
  • the traffic information transmission / reception unit 3 is provided by traffic information (represented by VICS (Vehicle Information & Communication System / registered trademark)) and DSRC (Dedicated Short Range Communication) provided by FM multiplex broadcasting, radio wave beacons, and optical beacons. Receive traffic information. Also, information about the host vehicle, for example, probe information such as the current position is transmitted.
  • VICS Vehicle Information & Communication System / registered trademark
  • DSRC Dedicated Short Range Communication
  • the map information storage unit 4 includes, for example, “road information” relating to roads, “facility information” relating to facilities (type, name, position, etc.), “various character information” (place names, facility names, intersection names, road names, etc.), And “various icon information” representing facilities and road numbers, and guidance information for use in the guidance and guidance section (position information of predetermined key points, drawing information at the key points, and voice guidance information, etc.) Stores data.
  • the map information storage unit may be, for example, a memory such as an HDD (Hard Disk Drive), an SD card using a semiconductor element, or the like, which exists on the network and can acquire information such as road data via the communication network ( Map data acquisition unit).
  • the map information acquisition unit 5 Upon receiving a map information acquisition instruction, a facility information acquisition instruction, or the like, the map information acquisition unit 5 searches the map information storage unit 4 and acquires necessary information.
  • the route calculation unit 6 includes a point set by the user through an instruction input unit 11 and a voice operation, which will be described later, position information detected by the current position detection unit 2, and map information acquired by the map information acquisition unit 5. Based on this, an optimum route (hereinafter referred to as “recommended route”) from the current position to the set point is calculated.
  • the guidance guide unit 7 is based on the map information acquired by the map information acquisition unit 5, and a guidance guide diagram and guidance message for performing guidance when the vehicle moves along the route calculated by the route calculation unit 6. Is generated.
  • the microphone 8 acquires (sound collection) the voice uttered by the user.
  • the microphone 8 includes, for example, an omnidirectional (or omnidirectional) microphone, an array microphone in which a plurality of omnidirectional (or omnidirectional) microphones are arranged in an array, and the directional characteristics can be adjusted.
  • the voice acquisition unit 9 takes in a user utterance acquired by the microphone 8, that is, an input voice, and performs A / D (Analog / Digital) conversion by, for example, PCM (Pulse Code Modulation).
  • a / D Analog / Digital
  • PCM Pulse Code Modulation
  • the voice recognition unit 10 detects a voice section corresponding to the content uttered by the user from the voice signal digitized by the voice acquisition unit 9, extracts a feature quantity of voice data in the voice section, and uses the feature quantity as a feature quantity. Based on this, a recognition process is performed using a speech recognition dictionary, and a recognition result is output.
  • the recognition process may be performed using a general method such as an HMM (Hidden Markov Model) method.
  • the speech recognition unit 10 may include a well-known intention understanding process, and may output a result obtained by estimating or searching for a user's intention from a recognition result by large vocabulary continuous speech recognition as a recognition result.
  • a button for instructing the start of voice recognition (hereinafter referred to as a “voice recognition start instruction unit”) is displayed on the touch panel or installed on the handle. Then, the voice uttered after the user presses the voice recognition start instruction unit is recognized. That is, the voice recognition start instruction unit outputs a voice recognition start signal, and when the voice recognition unit receives the signal, it corresponds to the content uttered by the user from the voice data acquired by the voice acquisition unit after receiving the signal.
  • the speech section to be detected is detected, and the above-described recognition process is performed.
  • the voice recognition unit 10 may perform voice recognition based on the voice recognition start instruction by the user as described above, or the user always speaks even if there is no such instruction. Although the contents may be recognized, here, the description will be made assuming that voice recognition is always performed. That is, the voice recognition unit 10 always detects the voice section corresponding to the content spoken by the user from the voice data acquired by the voice acquisition unit 9 without receiving the voice recognition start signal, and the voice section A feature amount of speech data is extracted, a recognition process is performed using a speech recognition dictionary based on the feature amount, and a process of outputting a speech recognition result is repeatedly performed. The same applies to the following embodiments.
  • the instruction input unit 11 is for inputting a user's manual instruction.
  • the instruction recognizes an instruction by a hardware switch provided in the navigation device, a touch sensor set and displayed on the display unit 13 (to be described later), a remote controller installed on a handle or the like, or a separate remote controller, or a gesture operation. Recognition device or the like.
  • the display control unit 12 includes a map drawing unit 21, a display object generation unit 22, a display area importance calculation unit 23, a display object display mode determination unit 24, and a display object drawing unit 25.
  • the current position detection unit 2 Necessary information is acquired from the traffic information transmission / reception unit 3, the map information acquisition unit 5, the route calculation unit 6, the guidance guide unit 7, and the voice recognition unit 10, and should be depicted on the display unit 13 described later using the acquired information.
  • Drawing information (a display object corresponding to a map and a voice recognition result) is generated, and an instruction is output to display the drawing information (a map and a display object) on the display unit 13.
  • the map drawing unit 21 uses the current position information detected by the current position detection unit 2, the traffic information received by the traffic information transmission / reception unit 3, the route information calculated by the route calculation unit 6, and the guidance guide unit 7.
  • a map screen such as a normal navigation screen is displayed on the display unit 13 using the output guidance information, the information acquired by the map information acquisition unit 5, and the like.
  • the display object generation unit 22, the display area importance calculation unit 23, the display object display mode determination unit 24, and the display object drawing unit 25 will be described later.
  • the display unit 13 is a display-integrated touch panel, and includes, for example, an LCD (Liquid Crystal Display) and a touch sensor. Note that any of a pressure-sensitive method, an electromagnetic induction method, a capacitance method, or a combination of these may be used for the touch panel. An organic EL display may be used instead of the LCD.
  • the display unit 13 has a plurality of display areas. Based on an instruction from the display object drawing unit 25 described later, a display object generated by the display object generation unit 22 described later is included in the plurality of display areas. It is displayed in one of the areas.
  • the voice control unit 14 instructs the speaker 15 to output voice information for guidance from the guidance guide unit 7.
  • the speaker 15 outputs sound based on an instruction from the sound control unit 14.
  • the traveling state acquisition unit 16 acquires the traveling state of the vehicle such as the traveling speed of the host vehicle, whether or not the vehicle is being accelerated, whether or not a right turn or left turn blinker is being issued, using various sensors or the like.
  • the surrounding environment status acquisition unit 17 acquires the surrounding environment status of the vehicle such as the current time, the brightness around the host vehicle, the weather, and the traffic jam situation around the host vehicle, using various sensors.
  • the recognition result output by the speech recognition unit 10 used in the following description the display object corresponding to the recognition result (hereinafter referred to as “display object”), and the display area (hereinafter referred to as “display object”).
  • the importance of the display area (hereinafter referred to as “importance”) will be described.
  • the voice recognition unit 10 recognizes a user utterance and outputs, as a recognition result, a genre name (hereinafter referred to as “facility genre name”) to which a facility belongs, such as “restaurant”, “convenience store”, and “gas station”.
  • a genre name hereinafter referred to as “facility genre name”
  • the facility genre name is output as the recognition result.
  • the present invention is not limited to this.
  • an artist name, an album name, a song title name, a command for operating the car navigation system, a word representing an emotion such as “cold”, or the like may be output as a recognition result.
  • the display object is represented by, for example, a combination of a character string of a recognition result output by the speech recognition unit 10 and a graphic corresponding to the recognition result, and a function to which the recognition result is assigned is assigned. That is, for example, an operation button. The user can execute the function assigned to the operation button by pressing the operation button.
  • the recognition result output by the voice recognition unit 10 is a facility genre name such as “restaurant”, “convenience store”, or “gas station”
  • the display object is “restaurant” or “convenience store” that is the facility genre name.
  • This is an operation button that is represented by a combination of a character string “gas station” and a graphic such as an icon corresponding thereto and assigned a function for searching for the facility.
  • the display object is described as being described above, but the present invention is not limited to this.
  • the display object may be represented by only one of a figure and a character string, or may be content or a character such as a moving image or a still image corresponding to the recognition result.
  • the function may not be assigned.
  • the recognition result is a word representing an emotion such as “cold”
  • the character string “cold” is not displayed as a display as it is, but the intention of the emotion “cold” is interpreted.
  • a graphic indicating a control button of an air conditioner and an operation button to which the function is assigned may be displayed.
  • the display area is an area on the display unit 13 where a display object is displayed.
  • a plurality of display areas 41, 42, 43, and 44 are predetermined.
  • the number and positions of the display areas displayed on the display screen of the display unit 13 are described as four as shown in FIG. 2, but the present invention is not limited to this. .
  • the importance is calculated for each display area by the display area importance calculation unit 23.
  • the importance is information other than display items such as traffic jam information and guidance information in the display area, and is necessary information for the user. Is displayed, the importance of the display area increases. A display area with a higher importance level is less likely to be displayed.
  • the display object generation unit 22 generates a display object corresponding to the recognition result output by the voice recognition unit 10.
  • the display area importance calculation unit 23 is configured to display the current position information detected by the current position detection unit 2, the traffic information received by the traffic information transmission / reception unit 3, the route information calculated by the route calculation unit 6, and the guidance guide unit 7. The importance for each display area is calculated using the output guidance information, the information acquired by the map information acquisition unit 5, and the like.
  • the display area importance calculation unit 23 is described as always calculating the importance. However, the display area importance calculation unit 23 may calculate the importance at a predetermined interval or when a predetermined instruction is given. It may be calculated.
  • the display object display mode determination unit 24 determines one or a plurality of display areas in which the display object is to be displayed based on the importance of each display area calculated by the display area importance calculation unit 23, and the display object drawing unit 25 is instructed to display a display object in the determined display area.
  • the importance is assumed to take a value from 0 to 100, but is not limited to this. Further, in the first embodiment, when the importance calculation result exceeds the upper limit, the importance is set to 100.
  • the display object drawing unit 25 instructs the display unit 13 to display the display object generated by the display object generation unit 22 in the display area determined by the display object display mode determination unit 24.
  • the display object drawing unit 25 manages the display time of the display object in the display area and the maximum display number, and erases the display object after the display time has passed, or the number of display objects in the display area. When the number exceeds the maximum display number, the display unit 13 is instructed to display a newly generated display object, for example, by deleting the display object that has been displayed for the longest time.
  • the display area importance calculator 23 examines at least one item (1) to (12) described later, and calculates the total importance determined for each item as the importance of the display area. This is performed in each display area. Note that items to be examined by the display area importance calculation unit 23 may be determined in advance, or may be arbitrarily selected by the user.
  • FIG. 3 is a diagram showing the positional relationship between the map screen, the traveling direction or planned traveling direction of the host vehicle 31, and a plurality of display areas 41, 42, 43, and 44.
  • the traveling direction means “the direction in which the vehicle is actually traveling”.
  • the display region on the traveling direction of the vehicle is a “display region 41”.
  • the traveling direction means “above the display screen”.
  • the display area in the traveling direction of the host vehicle 31 is the “display area 42”.
  • the vehicle 31 If the vehicle 31 is instructed to make a right turn (or left turn), select “actual direction after right turn (or left turn)” or “direction on display screen after right turn (or left turn)”.
  • the direction in which the vehicle will proceed from now on that is, the “scheduled travel direction”.
  • the display area on the traveling direction of the host vehicle 31 is the “display area 41”.
  • the planned traveling direction of the vehicle can be grasped by the route, and the distance to the right turn (or left turn) point is determined based on the predetermined direction. If the distance is within a distance (for example, 100 meters), “the direction on the display screen after the right turn (or left turn)” may be set as the planned traveling direction.
  • the display area importance calculation unit 23 acquires the current traveling direction or planned traveling direction of the host vehicle from the current position detecting unit 2, and specifies a display region on the traveling direction or the planned traveling direction.
  • the display area importance calculation unit 23 may store information on the position and range of each display area in the display unit 13 in advance, or may be stored in other components, and from there It may be acquired.
  • the table of FIG. 4A shows an example of the importance of the display area on the traveling direction of the host vehicle or on the planned traveling direction.
  • the display area importance calculation unit 23 determines the importance of the display area identified as being in the traveling direction or the planned traveling direction of the host vehicle. For example, as shown in FIG. 3A, when the map is displayed on the north reference and the traveling direction of the own vehicle 31 is west, the important area of the display area 41 is referred to with reference to the table of FIG. The degree is determined as “20”.
  • the display area importance calculation unit 23 acquires the traffic information from the traffic information transmission / reception unit 3 and displays it when it is determined that the traffic information is displayed on the road in the traveling direction or the planned traveling direction of the own vehicle.
  • the importance may be determined in consideration of existing traffic information.
  • the traffic information represents, for example, traffic information such as traffic congestion, construction work, an accident, and other traffic information.
  • FIG. 4B is a table showing an example of the correspondence between the information on the road in the traveling direction of the host vehicle or the planned traveling direction and the importance of the display area.
  • the display area importance calculation unit 23 displays the table of FIG. 4 (b). Referring to, the importance of the display area 41 is determined as “25”.
  • FIG. 5 is a diagram showing a screen example in which a facility icon 33 such as a parking lot is displayed in the display areas 41 to 44 in a state where a map screen is displayed on the display unit 13.
  • the display area importance calculation unit 23 acquires, for example, the map information generated by the map drawing unit 21 and determines the presence / absence of the information regarding the facility icon 33 and the number thereof for the range corresponding to each display area. Then, when the facility icon 33 exists in the display area, the display area importance calculation unit 23 determines the importance of the display area to be “10”, for example.
  • FIG. 6 is a table showing the correspondence between the number of facility icons 33 in the display area and the importance of the display area. As shown in FIG. 6, the importance may be changed as the number of facility icons 33 increases.
  • the importance of the display area is determined according to the number of facility icons, since there is one facility icon 33 in the area for the display area 44, the importance is set to “10” with reference to FIG. Is determined. Similarly, since there are two facility icons 33 for the display area 42, the importance is determined as “20”, and for the display area 41, there are three facility icons 33, so the importance is determined as “30”.
  • the display area importance calculation unit 23 calculates importance based on the presence / absence and the number of spots set by the user displayed in the display area.
  • the display area importance calculation unit 23 acquires, for example, map information generated by the map drawing unit 21, and a destination, a transit point, a registered place, and the like set by the user (hereinafter, referred to as a range corresponding to the display area)
  • the presence / absence and the number of “set point icons” are determined.
  • the display area importance calculation unit 23 determines the importance as “10”, for example.
  • the importance may be increased as the number of setting point icons increases.
  • the display area importance calculation unit 23 calculates importance based on the type of road on which the vehicle 31 is traveling.
  • examples of the road type include “highway”, “general road”, and “tunnel”.
  • the display area importance calculation unit 23 acquires the vehicle position information detected by the current position detection unit 2, and the map information acquisition unit 5 acquires the vehicle information from the map information storage unit 4 using the vehicle position information.
  • the road type of the road on which the vehicle is traveling is acquired.
  • FIG. 7 is a table showing an example of the importance of the display area for each road type.
  • the display area importance calculation unit 23 refers to the table of FIG. 7 and determines the importance corresponding to the acquired road type as the importance of each display area.
  • the importance of the display area is set larger for the user, assuming that the importance of the displayed map information is higher when traveling on a general road than when traveling on another road. However, it is not limited to this.
  • the display area importance calculation unit 23 calculates importance based on the type of region in which the host vehicle 31 is traveling.
  • the area type for example, there are “urban area”, “outside the city”, “Yamanaka”, “maritime”, and the like.
  • the display area importance calculation unit 23 acquires the vehicle position information detected by the current position detection unit 2, and the map information acquisition unit 5 acquires from the map information storage unit 4 using the vehicle position information. Acquire the region type of the region where the vehicle is traveling.
  • FIG. 8 is a table showing an example of importance for each region type.
  • the display area importance calculator 23 refers to the table of FIG. 8 and determines the importance corresponding to the acquired area type as the importance of each display area.
  • mapping display scale In this item, a case where the display area importance calculation unit 23 calculates the importance based on the display scale of the map displayed on the display unit 13 will be described.
  • the display scale for example, “25 m” “50 m” “100 m”... “500 m” “1 km” “3 km” “5 km” and the like are set as the distance corresponding to the reference scale.
  • the display area importance calculation unit 23 acquires the display scale of the current map from, for example, a setting storage unit (not shown) that stores various settings by the user.
  • FIG. 9 is a table showing an example of importance for each display scale.
  • the display area importance calculation unit 23 refers to the table of FIG. 9 and determines the importance corresponding to the acquired display scale as the importance of each display area.
  • the importance of the displayed map information is increased as the display scale is smaller, and the importance of the displayed map information is increased as the display scale is reduced.
  • it is not limited to this.
  • FIG. 10 is a diagram illustrating a screen example in which guidance information 34 and warning information 35 are displayed in the display area in a state where a map screen is displayed on the display unit 13.
  • the display area importance calculation unit 23 acquires, for example, map information generated by the map drawing unit 21, information received by the traffic information transmission / reception unit 3, and information generated by the guidance guide unit 7, and corresponds to the display area. It is determined whether guidance information 34 or warning information 35 such as an intersection guidance display as shown in FIG. 10A or a warning display as shown in FIG.
  • FIG. 11 is a table showing an example of correspondence between guidance information / warning information and importance.
  • the display area importance calculation unit 23 refers to the table of FIG. 11 and determines the importance corresponding to the guidance information 34 or the warning information 35.
  • the importance of the guidance information / warning information and the display area is not limited to the content shown in FIG. 11, and the number of items may be increased, or the importance of each item may be different.
  • FIG. 12 is a table showing an example of the correspondence between the traveling state of the vehicle and the importance of the display area.
  • the traveling speed of the vehicle is higher than a predetermined speed set in advance, the vehicle is accelerating, or the vehicle is making a right turn or left turn blinker, etc., the traveling situation in which the user must concentrate on driving the vehicle.
  • the importance is determined based on the traveling state of the vehicle so that the importance of the display area is increased and the importance is decreased in other cases.
  • the importance level is 20 when the traveling speed of the host vehicle is equal to or higher than a predetermined speed (for example, 60 km / h), and the importance level is 25 when the host vehicle is accelerating. When the vehicle is turning right or left, the importance is set to 25. For example, when the traveling speed of the vehicle is 60 km / h or more and less than 80 km / h, the importance is 20 When the speed is 80 km / h or more, the importance may be changed stepwise according to the traveling state of the vehicle, such as setting the importance to 30.
  • a predetermined speed for example, 60 km / h
  • the importance level is 25 when the host vehicle is accelerating.
  • the importance is set to 25.
  • the traveling speed of the vehicle is 60 km / h or more and less than 80 km / h
  • the importance is 20
  • the speed is 80 km / h or more
  • the importance may be changed stepwise according to the traveling state of the vehicle, such as setting the importance to 30.
  • FIG. 13 is a table showing an example of the correspondence between the surrounding environment situation of the vehicle and the importance of the display area.
  • the current time during which the vehicle is traveling is nighttime (between 19:00 and 6:00), the surrounding illuminance (brightness) is below a predetermined threshold value, and the weather is rain or snow If the surrounding area of the vehicle is congested, etc., it is judged that the surrounding environment is difficult for the user to see or the driver must concentrate on driving, and the importance of the display area is increased. In other cases, the importance is determined based on the surrounding environment of the vehicle so as to reduce the importance.
  • the importance is set to 10 when it is below a predetermined threshold value, the importance level is 20 when the weather around the vehicle is rain or snow, and the importance level when the surroundings of the vehicle is congested.
  • the importance is set to 20 when the weather around the vehicle is rain or snow, and the importance is set to 10 when the weather is cloudy.
  • the importance may be changed step by step.
  • the display area importance calculation unit 23 calculates the importance based on the relationship between the content of the display object displayed in the display area and the display screen displayed on the display unit 13 will be described.
  • the target of speech recognition is a vocabulary related to a song, such as an artist name, an album name, and a song title name.
  • the contents of the display object corresponding to the recognition result are also vocabulary related to the song, such as an artist name display object, an album name display object, and a song name display object. Etc. are displayed.
  • the display screen displayed on the display unit 13 is an AV screen (song playback screen)
  • the user is listening to music, and a display object related to the playback of the song is displayed.
  • the importance of the display area may be small because it is considered that it does not get in the way.
  • the display screen displayed on the display unit 13 is a normal map screen
  • the user wants to see the map information regarding the route guidance, and plays the song as a display object corresponding to the voice recognition result. If an operation button related to is displayed, it may be an obstacle to driving, so the importance of the display area needs to be increased.
  • FIG. 14 is a table showing an example of the importance of the display area with respect to the combination of the contents of the display object and the displayed display screen.
  • the display area importance calculation unit 23 calculates importance based on the presence / absence and the number of other display objects displayed in the display area.
  • the other display object is, for example, a button 36 for transitioning to another screen such as an audio operation screen or a telephone screen as shown in FIG. 15, and is a button unique to the apparatus in which the present invention is mounted. It is.
  • the display area importance calculation unit 23 obtains information related to a display object other than the display object corresponding to the recognition result (hereinafter referred to as “other display object”), and other display objects for the range corresponding to the display area. The presence or absence and the number of them are determined.
  • the display area importance calculation unit 23 is included in the display area. If it is determined that there is another display object, the importance is determined to be “30”, for example. Similarly to the above (2), the degree of importance may increase as the number of other display objects increases.
  • Display screen display mode In this item, a case where the display area importance calculation unit 23 calculates the importance based on the display mode of the display screen displayed on the display unit 13 will be described.
  • the screen display mode includes “single screen display”, “double screen display”, “3D display”, “daytime display”, “nighttime display”, and the like.
  • the display area importance calculation unit 23 acquires the current screen display mode from, for example, a setting storage unit (not shown) that stores various settings by the user.
  • FIG. 16 is a table showing an example of the correspondence between the display mode and the importance of the display area.
  • the display area importance calculation unit 23 refers to the table of FIG. 16 and determines the importance corresponding to the acquired display screen mode as the importance of each display area.
  • the map is displayed on the basis of the own vehicle, the area where the own vehicle is traveling is “urban area”, and the examination item in the display area importance calculation unit 23 is (1).
  • the case where there are three (5) will be specifically described.
  • the display area 44 is not a display area in the traveling direction of the host vehicle 31, the importance of the examination result of (1) by the display area importance calculation unit 23 is “0”, and one icon is displayed. Therefore, the importance of the examination result of (2) is “10”. Since the traveling area is “urban area”, the importance of the examination result of (5) is “15”.
  • the display area on which the display object display mode determination unit 24 should display the display object generated by the display object generation unit 22 based on the importance of each display area calculated by the display area importance calculation unit 23 A method of determining the will be described.
  • one display area is designated in advance by the system or the user.
  • it is referred to as a “display area designated in advance by the system or the like”.
  • a predetermined threshold (display area determination threshold; hereinafter referred to as “first threshold”) is set in the display object display mode determination unit 24 in advance, and the importance of the display area designated in advance by the system or the like. Is less than or equal to the first threshold value (or a value smaller than the first threshold value), the display area designated in advance is determined as the display area where the display object is to be displayed.
  • the importance of the display area designated in advance by the system or the like is a value greater than a predetermined first threshold (or greater than or equal to the first threshold), it is less than or equal to the first threshold (or the first threshold).
  • Another display area having an importance level (less than a threshold value of 1) and having the smallest importance level is determined as a display area in which a display object is to be displayed.
  • a display area randomly determined from the display areas may be determined as a display area where the display object is to be displayed.
  • the priority order may be determined, and the display area having the highest priority order may be determined as the display area where the display object is to be displayed according to the priority order.
  • priorities corresponding to the types of display objects may be determined.
  • the predetermined threshold value determined in advance in each display area may be the same or different.
  • FIG. 17 is a flowchart showing processing for determining a display area in which a display object is to be displayed in the first embodiment.
  • the display area importance calculation unit 23 calculates the display area importance for a large item (one or more of the items (1) to (10) described above) that is determined in advance or selected by the user. Information necessary to do this is acquired (step ST01), and the importance of each display area is calculated based on the acquired information (step ST02).
  • the display object display mode determination unit 24 determines whether the importance of the display area designated in advance by the system or the like is equal to or less than a first threshold value determined in advance (step ST03). If it is equal to or less than the first threshold value (in the case of “YES” in step ST03), the designated display area is determined as the display area where the display object is to be displayed (step ST04), and the determined display is determined. The area is instructed and output to the display object drawing unit 25 (step ST06).
  • step ST03 if it is larger than the first threshold value (in the case of “NO” in step ST03), it is another display area having an importance level equal to or lower than the first threshold value and the display area having the smallest display area importance level. Is determined as a display area in which the display object is to be displayed (step ST05), and the determined display area is output to the display object drawing unit 25 (step ST06).
  • FIG. 18 is a flowchart showing display object generation and display processing in the first embodiment.
  • the voice acquisition unit 9 takes in a user utterance collected by the microphone 8, that is, an input voice, and performs A / D conversion by, for example, PCM (step ST11).
  • the voice recognition unit 10 detects a voice section corresponding to the content uttered by the user from the voice signal captured by the voice acquisition unit 9 and digitized, and determines the feature amount of the voice data in the voice section. Extraction is performed, and recognition processing is performed with reference to the speech recognition dictionary based on the feature amount (step ST12).
  • generation part 22 produces
  • the display object drawing unit 25 outputs an instruction to the display unit 13 to display the display object generated by the display object generation unit 22 in the display area determined and instructed by the display object display mode determination unit 24. (Step ST14).
  • FIG. 19 is a flowchart showing processing for changing the display area of the display object already displayed on the display unit 13 in the first embodiment.
  • the display object drawing unit 25 confirms the display area determined and instructed by the display object display mode determination unit 24 (step ST21), and displays the display object in the instructed display area with respect to the display unit 13.
  • An instruction is output (step ST22).
  • FIGS. FIG. 20 and FIG. 21 are diagrams illustrating screen transition examples based on the relationship between the facility icon 33 and the display object displayed in the display area in a state where the map screen is displayed on the display unit 13.
  • the relationship between the number of facility icons 33 and the importance level is shown in FIG.
  • a display area designated in advance by the system or the like is set as a display area 41.
  • the first threshold set in the display object display mode determination unit 24 is “25”.
  • the information necessary for calculating the importance in step ST01 of FIG. 17 includes the range information of each display area 41 to 44, map information (facility icon information).
  • the display area importance calculation unit 23 acquires the information (step ST01 in FIG. 17).
  • the display area importance calculation unit 23 calculates the importance of all the display areas as “0” (FIG. 20). 17 step ST02).
  • the display object display mode determination unit 24 should display the display object in the display area 41.
  • the display area is determined and an instruction is output to the display object drawing unit 25 (in the case of “YES” in step ST03 in FIG. 17, step ST04 and step ST06).
  • the voice acquisition unit 9 takes in the voice “I wonder if there is a restaurant nearby” and performs A / D conversion using, for example, PCM. (Step ST11 in FIG. 18).
  • the speech recognition unit 10 performs recognition processing of the captured speech and outputs “restaurant” as a recognition result (step ST12).
  • the display object generation unit 22 generates a restaurant operation button as a display object corresponding to the recognition result “restaurant” (step ST13), and the display object drawing unit 25 is determined and indicated by the display object display mode determination unit 24.
  • the display unit 13 is instructed to display the generated operation button in the displayed area 41 (step ST14).
  • the operation button 45 is displayed in the display area 41 as shown in FIG.
  • the display area importance calculation unit 23 calculates the importance of the display area 41 as “10” (step ST01 and step ST02 in FIG. 17).
  • the display object display mode determination unit 24 determines the display area 41 as a display area in which the display object is to be displayed. Then, an instruction is output to the display object drawing unit 25 (in the case of “YES” in step ST03 in FIG. 17, step ST04, step ST06).
  • the display object drawing unit 25 confirms that the display area instructed by the display object display mode determination unit 24 is the display area 41, and displays the display object in the display area 41 with respect to the display unit 13.
  • An instruction is output (step ST21 and step ST22 in FIG. 19).
  • the host vehicle 31 moves forward, and as shown in FIG. 20 (d), three facility icons 33 exist in the display area 41, two facility icons 33 exist in the display area 42, and facilities in the display area 43.
  • the display area importance calculation unit 23 sets the importance of the display areas 41, 42, 43, 44 to “ It is calculated as “30” “20” “0” “10” (step ST01, step ST02 in FIG. 17).
  • the display object display mode determination unit 24 since the importance of the display area 41 is greater than the predetermined first threshold (25), the display object display mode determination unit 24 has the importance that is equal to or less than the first threshold and is most important.
  • the display area 43 with a small degree is determined as a display area where the display object is to be displayed, and an instruction is output to the display object drawing unit 25 (in the case of “NO” in step ST03 in FIG. 17, step ST05 and step ST06). .
  • the display object drawing unit 25 displays the operation button 45 in the display area 43. Is output (step ST21, step ST22 in FIG. 19). As a result, the operation button 45 is displayed in the display area 43 as shown in FIG.
  • FIG. 21A is the same display screen as FIG. In this situation, if the user utters “I wonder if I should make a convenience store”, the processing in steps ST11 and ST12 in FIG. 18 is performed, and the speech recognition unit 10 outputs “convenience store” as the recognition result.
  • the display object generation unit 22 generates an operation button corresponding to the recognition result “convenience store” (step ST13), and the display object drawing unit 25 displays the display area 43 instructed by the display object display mode determination unit 24. Then, an instruction is output to the display unit 13 so as to display the generated operation button (step ST14). As a result, the operation button 46 is displayed in addition to the operation button 45 displayed in the display area 43 as shown in FIG.
  • the display area importance calculation unit 23 displays The importance levels of the areas 41, 42, 43, and 44 are calculated as “0”, “0”, “0”, and “0”, and the display area 41 designated in advance is determined as the display area where the display object is to be displayed.
  • An instruction is output to the display object drawing unit 25.
  • the instruction output output from the display object display mode determination unit 24 changes from the display area 43 to the display area 41, so the display object drawing unit 25 displays the operation buttons 45 and the operation buttons 46 in the display area 41.
  • An instruction is output to the display unit 13 (step ST21 and step ST22 in FIG. 19).
  • the operation button 45 and the operation button 46 are displayed in the display area 41 as shown in FIG.
  • the display area of the display object is changed according to the importance of the display area, the display of the display object does not hinder the acquisition of other information important to the user, which is convenient. improves.
  • FIG. 22 is a flowchart showing the process of determining the display area where the display object is to be displayed.
  • FIG. 22 is a flowchart showing a process for determining a display area in which a display object is to be displayed when a display area is not designated in advance in the first embodiment.
  • the processing in step ST31 and step ST32 is the same as step ST01 and step ST02 in FIG.
  • the display object display mode determination unit 24 Based on the importance of each display area calculated by the display area importance calculation unit 23, the display object display mode determination unit 24 has a display area importance that is equal to or less than a first threshold value and has the highest display area importance.
  • the display area having a small size is determined as the display area in which the display object is to be displayed (step ST33). Then, the determined display area is instructed and output to the display object drawing unit 25 (step ST34).
  • FIG. 23 shows a screen transition example based on the relationship between the facility icon 33 and the display object displayed in the display area when the map screen is displayed on the display unit 13 when processed according to the flowchart of FIG. FIG.
  • the items for determining the importance, the information necessary for determining the importance, and the predetermined first threshold value in each display area are the same as those used in the description of FIGS. 20 and 21. To do. That is, it is assumed that the large item (2) described above is selected as an item for calculating the importance of the display area, and the relationship between the number of facility icons 33 and the importance is shown in FIG. In addition, the first threshold value regarding the importance of each display area set in the display object display mode determination unit 24 is “25”.
  • the display area importance calculation unit 23 acquires information necessary for determining the importance (step ST31 in FIG. 22).
  • the display area importance calculation unit 23 calculates the importance of each display area in FIG. 23A (step ST32).
  • one facility icon 33 exists in the display area 41
  • one facility icon 33 exists in the display area 42
  • no facility icon 33 exists in the display area 43.
  • the display object display mode determination unit 24 determines the display area 43 having the smallest importance as a display area in which the display object is to be displayed (step ST33), and outputs an instruction to the display object drawing unit 25 (step ST33).
  • the host vehicle 31 moves forward, and as shown in FIG. 23C, two facility icons 33 exist in the display area 41, and one facility icon 33 exists in the display area 42.
  • the importance of each of the display areas 41, 42, 43, 44 is “20”, “10”, “20”. "00" is calculated.
  • the operation buttons 45 that have already been displayed in the display area 43 are displayed in the display area 44.
  • the operation button 45 When the display area of the operation button 45 that has already been displayed is changed, the operation button 45 is immediately changed from the display area 43 to the display area 44 as shown in FIG. 23C to FIG. 23D.
  • the operation button 45 already displayed may be left as it is, and when another operation button is displayed next, it is displayed in the display area 44 after the change. May be.
  • the display object display mode determination unit 24 determines that there is no display area in which the display object is to be displayed, and outputs an instruction to that effect to the display object drawing unit 25. If there is such an instruction, an instruction may be output to the display unit 13 so as not to display the display object.
  • the display of the display object does not hinder the acquisition of other information important to the user, and the convenience is improved.
  • the display object display mode determination unit 24 determines to delete the displayed display object or until the importance of the display area in which the display object is displayed becomes smaller than the first threshold value.
  • the display object drawing unit 25 outputs an instruction to delete the display object in the display area, and the display object drawing unit 25 deletes the display object from the display unit 13 when there is the instruction. It is only necessary to output an instruction to do so.
  • the erased display object is redisplayed in the display area.
  • the “erase” here refers to display, for example, when the display area where the display object is displayed is erased until the importance of the display area is equal to or lower than the first threshold (or smaller than the first threshold). If it is present on the screen, it does not completely erase the displayed object, but appears to have been temporarily erased due to other important information being displayed (overwritten). Shall also be included.
  • the display of the display object does not hinder the acquisition of other information important to the user, and the convenience is improved.
  • the display area is not changed (no instruction is output to the display unit 13) until a predetermined time elapses. Also good. In this case, if the display area designated by the display object display mode determination unit 24 is different from the previous confirmation in the flowchart of FIG. If the predetermined time has not elapsed, nothing is output to the display unit 13, and if the predetermined time has elapsed, the display area after the change is displayed on the display unit 13. The instruction output for displaying the display object may be performed.
  • the position for displaying the display object can be changed according to the importance of the display area for displaying the display object corresponding to the voice recognition result.
  • the acquisition of other information important to the user is not hindered, and the convenience for the user can be improved.
  • a voice recognition device is applied to the control unit 1, the traffic information transmission / reception unit 3, the route calculation unit 6, the guidance guide unit 7, the voice acquisition unit 9, the voice recognition unit 10, the display control unit 12, and the voice control unit 14.
  • the microcomputer of the navigation apparatus executes a program relating to processing unique to the present invention, and is realized as a specific means in which hardware and software cooperate. The same applies to the following embodiments.
  • FIG. A block diagram showing an example of a navigation apparatus to which a speech recognition apparatus according to Embodiment 2 of the present invention is applied is the same as FIG. 1 shown in Embodiment 1, and therefore illustration and description thereof are omitted.
  • the display object display mode determination unit 24 determines the display form of the display object according to the importance of the display area, and the display object drawing unit 25 Is different in that instructions are output.
  • the display object display mode determination unit 24 in the second embodiment determines not only the display area in which the display object is to be displayed, but also the display form of the display object.
  • the display object display mode determination unit 24 is described as determining the display area and determining the display form of the display object as in the first embodiment, but the display area is fixed.
  • the display object display mode determination unit 24 may determine only the display mode.
  • the display form of the display object is a display such as the transparency of the display object, the size of the display object, the display time in the display area of the display object, the maximum number of display items in the display area of the display object, and the information amount of the display object. This represents a difference in appearance by the user when an object is displayed in the display area.
  • FIG. 24 is a diagram illustrating an example of the relationship between the importance of the display area and the transparency of the display object.
  • the greater the importance of the display area the greater the transparency of the display object displayed in the display area. That is, importance and transparency have a positive correlation.
  • the transparency of the display object may be increased stepwise according to the importance of the display area.
  • a predetermined threshold display mode determination threshold; hereinafter referred to as “second threshold” (for example, 40) or less (for example)
  • second threshold display mode determination threshold
  • the transparency of the display object is made constant, and in the case of a value larger than the second threshold value (or more than the second threshold value), depending on the importance level.
  • the transmittance of the display object may be increased.
  • FIG. 25 is a diagram illustrating an example of the relationship between the importance of the display area and the display time of the display object.
  • the display time of the display object displayed in the display area is shorter as the importance of the display area is larger. That is, importance and display time have a negative correlation.
  • the size of the display object and the maximum display number of display objects have a negative correlation with the importance level as well as the display time of the display object.
  • the greater the importance of the display area the smaller the size of the display object displayed in the display area, or the smaller the display area, the higher the importance of the display area.
  • the maximum number of displayed objects to be displayed may be reduced or may be decreased step by step.
  • FIG. 26 is a diagram illustrating an example of a change in the information amount of the display object.
  • the display object display mode determination unit 24 for example, as shown in FIG.
  • an instruction is output to change the display object composed of the icon and the character string to the display object composed only of the icon as shown in FIG.
  • the display object drawing unit 25 changes the display form of the display object to a display form (transparency, size, display time, maximum display number, information amount, etc.) determined and instructed by the display object display mode determination unit 24.
  • the display unit 13 outputs the instruction to the display unit 13 to display in the display area specified by the display object display mode determination unit 24.
  • the display object display mode determination unit 24 indicates the time during which the display object is displayed on the display unit 13.
  • the display object drawing unit 25 outputs an instruction to the display unit 13 so as to erase the display object.
  • the maximum display number for example, 4
  • the number of display objects displayed on the display unit 13 is instructed by the display object display mode determination unit 24.
  • the display object drawing unit 25 deletes the display object with the longest display time and newly generates it.
  • An instruction is output to the display unit 13 so as to display the displayed object.
  • FIG. 27 is a flowchart showing processing for determining a display area on which a display object is to be displayed and determining transparency in the second embodiment. Since the processing of step ST41 to step ST45 is the same as that of step ST01 to step ST05 in FIG.
  • the display object display mode determination unit 24 calculates the transparency corresponding to the determined importance of the display area, for example, according to the relationship between the importance and the transparency shown in FIG. 24A (step ST46). Then, the determined display area and the transparency in the display area are instructed and output to the display object drawing unit 25 (step ST47). For example, when the degree of importance of the determined display area is “40”, the transparency is determined as “40” according to the relationship shown in FIG.
  • FIG. 28 is a flowchart showing display object generation and display processing in the second embodiment. Since the processing from step ST51 to step ST53 is the same as that from step ST11 to step ST13 in FIG. 18, the description thereof is omitted.
  • the display object drawing unit 25 changes the transparency of the display object generated by the display object generation unit 22 to the transparency determined and output by the display object display mode determination unit 24 (step ST54). Then, an instruction is output to the display unit 13 so that the display object having the changed transparency is displayed in the display area instructed and output by the display object display mode determination unit 24 (step ST55).
  • FIG. 29 is a flowchart showing processing for changing the display area of the display object already displayed on the display unit 13 and changing the transparency in the second embodiment.
  • the display object drawing unit 25 checks the display area and the transparency determined and instructed by the display object display mode determination unit 24 (step ST61).
  • the display object drawing unit 25 changes the transparency of the display object already displayed to the indicated transparency (step ST62), and then changes the transparency to the indicated display area. Is output to the display unit 13 so as to display (step ST63). Note that the display form may not be changed (no instruction is output to the display unit 13) until a predetermined time elapses after the display form is changed.
  • the display area for displaying the display object is displayed. Since the display form of the display object can be changed according to the degree of importance, the display of the display object is less likely to obstruct the acquisition of other information important to the user, and the convenience of the user is improved. Can do.
  • Embodiment 3 In the first and second embodiments, the case where the voice recognition device according to the present invention is applied to a navigation device mounted on a moving body such as a vehicle has been described as an example.
  • the present invention is applied to a navigation device for a vehicle.
  • the navigation device for a mobile object including, but not limited to, a person, a vehicle, a railroad, a ship, an airplane, or the like may be used.
  • the present invention can be applied to any form such as a voice recognition system application or a navigation system application installed in a portable information terminal such as a smartphone, a tablet PC, or a mobile phone.
  • FIG. 30 is a diagram showing an outline of the navigation system according to the third embodiment of the present invention.
  • the in-vehicle device 100 performs voice recognition processing and navigation processing in cooperation with at least one of the portable information terminal 101 and the server 102 such as a smartphone, or at least one of the portable information terminal 101 and the server 102 such as a smartphone.
  • the voice recognition process and the navigation process are performed, and the recognition result and the map information are displayed on the in-vehicle device 100.
  • a configuration aspect of the navigation system will be described.
  • the functions of the voice recognition device of the present invention have been described as all provided in the in-vehicle device 100 shown in FIG. 30, but in the navigation system in the third embodiment, the server 102 performs voice recognition processing.
  • the portable information terminal 101 performs voice recognition processing in cooperation with the server 102 and corresponds to the recognition result.
  • the display object to be displayed is provided to the user by being displayed on the in-vehicle device 100 will be described.
  • the server 102 performs voice recognition processing and displays a display object corresponding to the recognition result on the in-vehicle device 100, that is, the in-vehicle device 100 functions as a display device in cooperation with the server 102 having a voice recognition function. The case where it does is demonstrated.
  • the in-vehicle device 100 communicates directly with the server 102 or the in-vehicle device 100 communicates with the server 102 via the portable information terminal 101.
  • the server 102 functions as a voice recognition device including the voice recognition unit and the display control unit described in the first and second embodiments.
  • the in-vehicle device 100 functions as a display device including at least the display unit 13 for providing a display object corresponding to the recognition result by the server 102 to the user.
  • the in-vehicle device 100 basically has only a communication function and a display function, and receives a display object (including information on a display area and a display form) corresponding to a voice recognition result by the server 102 and provides it to the user.
  • the server 102 is a voice recognition device that includes devices other than the microphone 8, the voice acquisition unit 9, the instruction input unit 11, the display unit 13, and the speaker 15, and the server 102, which is the voice recognition device,
  • the display object corresponding to the recognition result is displayed on the in-vehicle device 100 which is a display device. Even if comprised in this way, the effect similar to Embodiment 1, 2 can be acquired.
  • the portable information terminal 101 performs voice recognition processing in cooperation with the server 102
  • the in-vehicle device 100 provides a display object corresponding to the recognition result to the user.
  • the case where the in-vehicle device 100 communicates with the server 102 via the portable information terminal 101 can be considered, and the application of the portable information terminal 101 performs voice recognition processing in cooperation with the server 102.
  • the in-vehicle device 100 functions as a display device including at least the display unit 13 for providing a user with a display object corresponding to the recognition result by the portable information terminal 101 and the server 102.
  • the in-vehicle device 100 basically has only a communication function and a display function, and a display object (display area and display form information corresponding to a voice recognition result by cooperation between the portable information terminal 101 and the server 102 is displayed. Received) and provided to the user. That is, a display object corresponding to the recognition result obtained by recognizing the voice uttered by the user is displayed on the in-vehicle device 100 as a display device by the application of the portable information terminal 101. Even if comprised in this way, the effect similar to Embodiment 1, 2 can be acquired.
  • the voice recognition device of the present invention is an application of a navigation system installed in a navigation device mounted on a moving body such as a vehicle, a server of an in-vehicle information providing system, a mobile information terminal such as a smartphone, a tablet PC, or a mobile phone. Etc. can be applied.

Abstract

 この発明の音声認識装置によれば、ユーザにより発話された音声を認識している場合において、音声認識結果に対応する表示物を表示する表示領域の重要度に応じて、表示物を表示する位置または表示形態を変更することができるため、表示物の表示により、ユーザにとって重要な他の情報の取得を阻害することがなくなり、ユーザの利便性を向上させることができる。

Description

音声認識装置および表示方法
 この発明は、ユーザにより発話された音声を認識して認識結果に対応する表示物を表示する音声認識装置およびその表示物を表示装置に表示させる表示方法に関するものである。
 従来より、音声認識の方法として、ユーザにより発話された音声を認識してその認識結果を表示する方法が知られている。
 例えば特許文献1には、ユーザが発話した音声を認識し、その認識結果を表示する音声認識装置であって、ユーザが発話するとその音声の認識結果であるショートカットボタンが表示画面に表示され、当該ショートカットボタンをユーザが押下することで、ショートカット機能が実行されることが記載されている。
特開2008-14818号公報
 しかしながら、例えば特許文献1のような従来の音声認識装置では、認識結果に基づいて作成される表示物の表示位置を考慮していないため、利用者にとって重要な地図上の情報が表示されている上からその表示物が表示され、利用者が重要な情報を取得することを阻害してしまう、という課題があった。
 この発明は、上記のような課題を解決するためになされたものであり、音声認識結果に対応する表示物を表示する領域の重要度に応じて、当該表示物の表示位置や表示形態を変更して表示する音声認識装置およびその表示物を表示装置に表示させる表示方法を提供することを目的とする。
 上記目的を達成するため、この発明は、ユーザにより発話された音声を認識して認識結果に対応する表示物を表示する音声認識装置において、前記ユーザにより発話された音声を検知して取得する音声取得部と、前記音声取得部により取得された音声データを認識し、認識結果を出力する音声認識部と、前記音声認識部により出力された認識結果に対応する表示物を生成する表示物生成部と、複数の表示領域を有する表示部と、前記表示部における複数の表示領域ごとの重要度を計算する表示領域重要度計算部と、前記表示領域重要度計算部により計算された重要度に基づいて、前記表示物生成部により生成された表示物を表示すべき表示領域または前記表示物の表示形態の少なくとも一方を決定する表示物表示態様決定部と、前記表示物表示態様決定部により決定された表示領域または表示形態に基づいて、前記表示物を表示するよう前記表示部に対して指示出力する表示物描画部とを備えることを特徴とする。
 この発明の音声認識装置によれば、音声認識結果に対応する表示物を表示する表示領域の重要度に応じて、表示物を表示する位置または表示形態を変更することができるため、表示物の表示により、ユーザにとって重要な他の情報の取得を阻害することがなくなり、ユーザの利便性を向上させることができる。
実施の形態1による音声認識装置を適用したナビゲーション装置の一例を示すブロック図である。 表示部に地図画面が表示されている状態において、表示部上の複数の表示領域を示す図である。 地図画面、自車の進行方向、および、複数の表示領域の位置関係を示す図である。 自車の進行方向上または進行予定方向上の情報と表示領域の重要度との対応の一例を示す表である。 表示部に地図画面が表示されている状態において、駐車場などの施設アイコンが表示領域に表示されている画面例を示す図である。 施設アイコンの個数と表示領域の重要度との対応を示す表である。 道路種別ごとの表示領域の重要度の一例を示す表である。 地域種別ごとの表示領域の重要度の一例を示す表である。 地図の表示スケールごとの表示領域の重要度の一例を示す表である。 表示部に地図画面が表示されている状態において、案内情報または警告情報が表示領域に表示されている画面例を示す図である。 案内情報/警告情報と表示領域の重要度との対応の一例を示す表である。 自車の走行状況と表示領域の重要度との対応の一例を示す表である。 自車の周辺環境状況と表示領域の重要度との対応の一例を示す表である。 表示物の内容と表示されている表示画面との組合せに対する、表示領域の重要度の一例を示す表である。 表示部に地図画面が表示されている状態において、他の表示物が表示領域に表示されている画面例を示す図である。 表示モードと表示領域の重要度との対応の一例を示す表である。 実施の形態1における、表示物を表示すべき表示領域の決定の処理を示すフローチャートである。 実施の形態1における、表示物の生成と表示の処理を示すフローチャートである。 実施の形態1における、表示部に既に表示されている表示物の表示領域の変更の処理を示すフローチャートである。 表示部に地図画面が表示されている状態において、施設アイコンと表示領域に表示される表示物との関係による画面遷移例を示す図(1)である。 表示部に地図画面が表示されている状態において、施設アイコンと表示領域に表示される表示物との関係による画面遷移例を示す図(2)である。 実施の形態1において、あらかじめ表示領域が指定されていない場合に表示物を表示すべき表示領域の決定の処理を示すフローチャートである。 表示部に地図画面が表示されている状態において、施設アイコンと表示領域に表示される表示物との関係による画面遷移の別の例を示す図である。 表示領域の重要度と表示物の透過度との関係の一例を示す図である。 表示領域の重要度と表示物の表示時間との関係の一例を示す図である。 表示物の情報量の変化の一例を示す図である。 実施の形態2における、表示物の表示すべき表示領域の決定と表示物の透過度の決定の処理を示すフローチャートである。 実施の形態2における、表示物の生成と表示の処理を示すフローチャートである。 実施の形態2における、表示部に既に表示されている表示物の表示領域の変更と表示物の透過度の変更の処理を示すフローチャートである。 実施の形態3におけるナビゲーションシステムの概要を示す図である。
 以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
 この発明は、ユーザにより発話された音声を認識して認識結果に対応する表示物を表示する音声認識装置である。なお、音声認識処理については、ユーザによる音声認識処理開始の指示により行うものであってもよいし、その指示がなくても、常時、音声を認識するものであってもよい。なお、以下の実施の形態では、この発明の音声認識装置を車両等の移動体に搭載されるナビゲーション装置に適用した場合を例に挙げて説明するが、車両以外の他の移動体用のナビゲーション装置であってもよいし、ナビゲーションシステムのサーバに適用してもよい。また、スマートフォン、タブレットPC、携帯電話等の携帯情報端末等にインストールされるナビゲーションシステムのアプリケーション等に適用してもよい。
実施の形態1.
 図1は、この発明の実施の形態1による音声認識装置を適用したナビゲーション装置の一例を示すブロック図である。このナビゲーション装置は、制御部1、現在位置検出部2、交通情報送受信部3、地図情報格納部4、地図情報取得部5、経路計算部6、誘導案内部7、マイク8、音声取得部9、音声認識部10、指示入力部11、表示制御部12、表示部13、音声制御部14、スピーカ15、走行状況取得部16、周辺環境状況取得部17を備えており、表示部13に地図を表示して車両等の移動体の道案内を行う。
 制御部1は、ナビゲーション装置全体の動作を制御する。
 現在位置検出部2は、例えばGPS受信機等により、自車両の現在位置と進行方向を検出する。
 交通情報送受信部3は、FM多重放送、電波ビーコン、光ビーコンにより提供される交通情報(VICS(Vehicle Information & Communication System/登録商標)に代表される)やDSRC(Dedicate Short Range Communication)により提供される渋滞情報などを受信する。また、自車両に関する情報、例えば現在位置などのプローブ情報を送信する。
 地図情報格納部4は、例えば、道路に関する「道路情報」、施設に関する「施設情報」(種別、名称、位置等)、「各種文字情報」(地名、施設名、交差点名、道路名など)、および施設・道路番号などを表す「各種アイコン情報」、誘導案内部で用いるための誘導用情報(所定の要所の位置情報、当該要所での描画情報、更には音声案内情報など)などのデータを格納している。地図情報格納部は、例えば、HDD(Hard Disk Drive)、半導体素子を用いたSDカードなどのメモリでもよいし、ネットワーク上に存在し、通信ネットワークを介して道路データなどの情報を取得できる構成(地図データ取得部)であってもよい。
 地図情報取得部5は、地図情報取得指示や施設情報取得指示などを受けると、地図情報格納部4を検索して必要な情報を取得する。
 経路計算部6は、後述する指示入力部11や音声操作によりユーザにより設定された地点と、現在位置検出部2により検出された位置情報と、地図情報取得部5により取得された地図情報とに基づいて、現在位置から当該設定された地点までの最適な経路(以下、「推奨経路」と呼ぶ)を計算する。
 誘導案内部7は、地図情報取得部5により取得された地図情報に基づき、経路計算部6により計算された経路に沿って車両が移動する際に案内を行うための誘導案内図及び誘導案内メッセージを生成する。
 マイク8は、ユーザが発話した音声を取得(集音)する。マイク8には、例えば、全指向性(または無指向性)のマイクや、複数の全指向性(または無指向性)のマイクをアレイ状に配列して指向特性を調整可能としたアレイマイクや、一方向のみに指向性を有しており、指向特性を調整できない単一指向性マイクなどがある。
 音声取得部9は、マイク8により取得されたユーザ発話、すなわち、入力された音声を取り込み、例えばPCM(Pulse Code Modulation)によりA/D(Analog/Digital)変換する。
 なお、以下の説明においては、上述のとおりマイク8と音声取得部9が別個のものであるとするが、マイク8に音声取得部9が内蔵されているものであってもよい。
 音声認識部10は、音声取得部9によりデジタル化された音声信号から、ユーザが発話した内容に該当する音声区間を検出し、該音声区間の音声データの特徴量を抽出し、その特徴量に基づいて音声認識辞書を用いて認識処理を行い、認識結果を出力する。なお、認識処理としては、例えばHMM(Hidden Markov Model)法のような一般的な方法を用いて行えばよい。
 ここで、音声認識の手法としては、文法に基づく単語認識、キーワードスポッティング、大語彙連続音声認識やその他の周知の手法のいずれを用いるとしてもよい。
 また、音声認識部10は、周知の意図理解処理を含むものとし大語彙連続音声認識による認識結果からユーザの意図を推定したり検索したりした結果を、認識結果として出力するとしてもよい。
 ところで、カーナビゲーションシステム等に搭載されている音声認識機能においては、ユーザが発話の開始をシステムに対して明示(指示)するのが一般的である。そのために、音声認識開始を指示するボタン(以下、「音声認識開始指示部」と呼ぶ)が、タッチパネルに表示されたりハンドルに設置されたりしている。そして、ユーザにより音声認識開始指示部が押下された後に発話された音声を認識する。すなわち、音声認識開始指示部は音声認識開始信号を出力し、音声認識部は当該信号を受けると、当該信号を受けた後に音声取得部により取得された音声データから、ユーザが発話した内容に該当する音声区間を検出し、上述した認識処理を行う。
 この実施の形態1における音声認識部10は、上述したようなユーザによる音声認識開始指示により音声認識を行うものであってもよいし、そのような指示がなくても、常に、ユーザが発話した内容を認識するものであってもよいが、ここでは常時音声認識を行うものとして説明する。すなわち、音声認識部10は、音声認識開始信号を受けなくても、常時、音声取得部9により取得された音声データから、ユーザが発話した内容に該当する音声区間を検出し、該音声区間の音声データの特徴量を抽出し、その特徴量に基づいて音声認識辞書を用いて認識処理を行い、音声認識結果を出力する処理を繰り返し行う。以下の実施の形態においても同様である。
 指示入力部11は、ユーザの手動による指示を入力するものである。当該指示は、例えばナビゲーション装置に設けられたハードウェアのスイッチ、後述する表示部13に設定され表示されるタッチセンサ、あるいはハンドル等に設置されたリモコンもしくは別体のリモコン、ジェスチャ操作による指示を認識する認識装置等が挙げられる。
 表示制御部12は、地図描画部21、表示物生成部22、表示領域重要度計算部23、表示物表示態様決定部24、表示物描画部25により構成されており、現在位置検出部2、交通情報送受信部3、地図情報取得部5、経路計算部6、誘導案内部7、音声認識部10から必要な情報を取得し、取得した情報を用いて、後述する表示部13に描写すべき描画情報(地図および音声認識結果に対応する表示物)を生成し、表示部13に対して当該描画情報(地図および表示物)を表示するよう指示出力する。
 ここで、地図描画部21は、現在位置検出部2により検出された現在位置情報、交通情報送受信部3により受信された交通情報、経路計算部6により計算された経路情報、誘導案内部7により出力された案内情報、地図情報取得部5により取得された情報などを用いて、表示部13に通常のナビゲーション画面などの地図画面を表示させる。
 なお、表示物生成部22、表示領域重要度計算部23、表示物表示態様決定部24、表示物描画部25については、後述する。
 表示部13は、表示一体型のタッチパネルであり、例えばLCD(Liquid Crystal Display)とタッチセンサから構成されている。なお、タッチパネルには、感圧方式、電磁誘導方式、静電容量方式、あるいはこれらを組み合わせた方式などのうち、いずれを用いてもよい。また、LCDの代わりに有機ELディスプレイを用いてもよい。
 また、表示部13は、複数の表示領域を有し、後述する表示物描画部25からの指示に基づいて、後述する表示物生成部22により生成された表示物が、複数の表示領域のうちのいずれかの領域に表示される。
 音声制御部14は、誘導案内部7からの誘導用の音声情報を出力するようスピーカ15に出力指示する。
 スピーカ15は、音声制御部14の指示に基づき音声を出力する。
 走行状況取得部16は、各種センサ等により、自車両の走行速度、加速中か否か、右折または左折のウィンカーを出しているか否か等の車両の走行状況を取得する。
 周辺環境状況取得部17は、各種センサ等により、現在時間、自車両の周囲の明るさ、天候、自車両の周囲の渋滞状況など、車両の周辺環境状況を取得する。
 ここで、以降の説明で用いる、音声認識部10により出力される認識結果、認識結果に対応する表示物(以下、「表示物」と呼ぶ)、表示物が表示される表示領域(以下、「表示領域」と呼ぶ)、表示領域の重要度(以下、「重要度」と呼ぶ)について説明する。
 まず、音声認識部10により出力される認識結果について説明する。
 音声認識部10は、ユーザ発話を認識し、例えば「レストラン」「コンビニ」「ガソリンスタンド」のような、施設が属するジャンル名(以下、「施設ジャンル名」と呼ぶ)を認識結果として出力する。
 なお、この実施の形態1では、認識結果として施設ジャンル名が出力されるものとして説明するが、それに限定するものではない。例えば、アーティスト名、アルバム名、曲タイトル名、カーナビゲーションシステムを操作するためのコマンドや、「寒い」などの感情を表す単語などを認識結果として出力するとしてもよい。
 次に、表示物について説明する。表示物とは、例えば、音声認識部10により出力された認識結果の文字列と認識結果に対応する図形との組み合わせで表されるものであり、認識結果に対応する機能が割り当てられているもの、すなわち、例えば操作ボタンである。ユーザは当該操作ボタンを押下することで、その操作ボタンに割り当てられた機能を実行することができる。
 例えば、音声認識部10により出力された認識結果が「レストラン」「コンビニ」「ガソリンスタンド」のような施設ジャンル名である場合、表示物は、その施設ジャンル名である「レストラン」や「コンビニ」や「ガソリンスタンド」という文字列と、それに対応するアイコン等の図形との組み合わせで表され、その施設を検索する機能が割り当てられた操作ボタンである。
 なお、この実施の形態1では、表示物は上述したものであるものとして説明するが、これに限定するものではない。例えば、表示物は、図形か文字列のいずれか一方のみで表されてもよいし、認識結果に対応する動画や静止画などのコンテンツやキャラクタであってもよい。また、機能が割り当てられていないものであってもよい。
 また、認識結果が例えば「寒い」などの感情を表す単語である場合には、その「寒い」という文字列などをそのまま表示物として表示するのではなく、「寒い」という感情の意図を解釈して、例えばエアコンのコントロールボタンなどを示す図形とその機能を割り当てた操作ボタンを表示物としてもよい。
 次に、表示領域について説明する。表示領域は、表示物が表示される表示部13上の領域であり、例えば、図2に示すように複数の表示領域41,42,43,44があらかじめ定められている。なお、この実施の形態1では、表示部13の表示画面に表示される表示領域の数や位置は、図2に示すような4つであるものとして説明するが、これに限定するものではない。
 次に重要度について説明する。重要度は、表示領域重要度計算部23により各表示領域ごとに計算されるものであり、例えば、表示領域に渋滞情報や案内情報等の表示物以外の情報であって、ユーザにとって必要な情報が表示されるほど、その表示領域の重要度は大きくなる。そして、重要度が大きい表示領域ほど、表示物が表示されにくくなる。
 表示物生成部22は、音声認識部10により出力された認識結果に対応する表示物を生成する。
 表示領域重要度計算部23は、現在位置検出部2により検出された現在位置情報、交通情報送受信部3により受信された交通情報、経路計算部6により計算された経路情報、誘導案内部7により出力された案内情報、地図情報取得部5により取得された情報などを用いて、表示領域ごとの重要度を計算する。
 なお、この実施の形態1では、表示領域重要度計算部23は、常時、重要度を計算するものとして説明するが、所定の間隔で計算するとしてもよいし、所定の指示があった場合に計算するとしてもよい。
 表示物表示態様決定部24は、表示領域重要度計算部23により計算された各表示領域の重要度に基づいて、表示物を表示すべき一または複数の表示領域を決定し、表示物描画部25に対して、決定した表示領域に表示物を表示するよう指示出力する。
 なお、この実施の形態1では、重要度は0から100の値をとるものとするが、これに限られるものではない。
 さらに、この実施の形態1においては、重要度の計算結果が上限を越える場合、重要度は100とする。
 表示物描画部25は、表示物表示態様決定部24により決定された表示領域に、表示物生成部22により生成された表示物を表示するよう、表示部13に対して指示出力する。また、表示物描画部25は、当該表示領域への表示物の表示時間や、最大表示個数を管理しており、表示時間を経過した表示物を消去したり、当該表示領域における表示物の個数が最大表示個数を超える場合は、例えば、表示されている時間が最も長い表示物を削除する等、新たに生成された表示物を表示したりするよう表示部13に対して指示出力する。
 次に、表示領域重要度計算部23による各表示領域の重要度の計算について説明する。
 表示領域重要度計算部23は、後述する(1)から(12)の少なくとも1つ以上の項目を検討し、各項目において決定した重要度の合計を表示領域の重要度として算出する。これを、各表示領域において行う。なお、表示領域重要度計算部23により検討される項目はあらかじめ決められていてもよいし、ユーザが任意に選択できるようにしてもよい。
(1)「自車の進行方向上または進行予定方向上にある表示領域であるか否か」
 まず初めに、表示領域重要度計算部23が、表示部13に表示された「自車31の進行方向または進行予定方向」と表示領域との位置関係に基づいて、重要度を計算する場合について説明する。
 図3は、地図画面、自車31の進行方向または進行予定方向、および、複数の表示領域41,42,43,44の位置関係を示す図である。
 表示部13に地図が北基準で表示されている場合、進行方向は「実際に進行している方角」を意味する。ここで、図3(a)に示すように、地図が北基準で自車31が西方向に進行している場合、自車の進行方向上にある表示領域は「表示領域41」となる。
 また、表示部13に地図が自車基準で表示されている場合、進行方向は「表示画面の上方」を意味する。ここで、図3(b)に示すような場合、自車31の進行方向上にある表示領域は「表示領域42」となる。
 また、自車31に対して右折(または左折)の指示がなされている場合は、「右折(または左折)後の実際の方角」または「右折(または左折)後の表示画面上の向き」をこれから進行していく方向、すなわち、「進行予定方向」とする。
 ここで、図3(c)に示すような場合、自車31の進行予定方向上にある表示領域は「表示領域41」となる。
 なお、ナビゲーション機能による経路案内を行っている最中であれば、その経路により車両の進行予定方向を把握することができるので、それに基づいて右折(または左折)地点までの距離があらかじめ定めた所定の距離(例えば、100メートルなど)以内になったら「右折(または左折)後の表示画面上の向き」を進行予定方向としてもよい。
 表示領域重要度計算部23は、現在位置検出部2から自車の現在の進行方向または進行予定方向を取得し、当該進行方向上または進行予定方向上にある表示領域を特定する。
 なお、表示領域重要度計算部23には、あらかじめ、各表示領域の表示部13における位置および範囲に関する情報が記憶されているものとしてもよいし、他の構成要素に記憶されており、そこから取得するとしてもよい。
 ここで、図4(a)の表に、自車の進行方向上または進行予定方向上の表示領域の重要度の一例を示す。この図4(a)を参照して、表示領域重要度計算部23は、自車の進行方向上または進行予定方向上にあると特定した表示領域の重要度を決定する。
 例えば図3(a)に示すように、地図が北基準で表示されており、自車31の進行方向が西向きである場合、図4(a)の表を参照して、表示領域41の重要度を「20」と決定する。
 次に、表示領域重要度計算部23が、表示領域における地図上の交通情報の表示状況に基づいて、重要度を計算する場合について説明する。
 表示領域重要度計算部23は、当該交通情報を交通情報送受信部3から取得し、自車の進行方向または進行予定方向の道路上に交通情報が表示されていると判断した場合、表示されている交通情報を考慮して重要度を決定してもよい。交通情報は、例えば、渋滞していること、工事中であること、事故が起きていることなどの交通情報や、その他の交通情報を表すものである。
 図4(b)は、自車の進行方向または進行予定方向の道路上の情報と表示領域の重要度との対応の一例を示す表である。
 例えば、図3(d)に示すように、自車31の進行方向の道路上に渋滞情報の表示32がなされている場合、表示領域重要度計算部23は、図4(b)の表を参照して、表示領域41の重要度を「25」と決定する。
 なお、図4(b)の表では、渋滞情報、工事情報、事故情報の3項目の重要度を同じにしているが、これに限られるものではない。また、この3項目以外の項目を有していてもよい。
(2)「表示領域に表示されている施設アイコンの有無とその個数」
 この項目では、表示領域重要度計算部23が、表示領域における地図上のアイコンの表示状況に基づいて、重要度を計算する場合について説明する。
 図5は、表示部13に地図画面が表示されている状態において、駐車場などの施設アイコン33が表示領域41~44に表示されている画面例を示す図である。
 表示領域重要度計算部23は、例えば、地図描画部21により生成される地図情報を取得し、それぞれの表示領域に対応する範囲について、施設アイコン33に関する情報の有無やその個数を判定する。
 そして、表示領域重要度計算部23は、表示領域に施設アイコン33が存在する場合、その表示領域の重要度を、例えば「10」と決定する。
 また、図6は、表示領域における施設アイコン33の個数と表示領域の重要度との対応を示す表である。
 この図6に示すように、施設アイコン33の個数の増加に伴って重要度を変化させるようにしてもよい。
 例えば、施設アイコン数に応じて表示領域の重要度を決定する場合は、表示領域44については、その領域内に施設アイコン33が1つあるので、図6を参照して、重要度を「10」と決定する。同様にして、表示領域42については施設アイコン33が2つあるので重要度を「20」、表示領域41については施設アイコン33が3つあるので重要度を「30」と決定する。
(3)「表示領域に表示されているユーザにより設定された地点の有無とその個数」
 この項目では、表示領域重要度計算部23が、表示領域に表示されているユーザにより設定された地点の有無やその個数に基づいて、重要度を計算する場合について説明する。
 表示領域重要度計算部23は、例えば、地図描画部21により生成される地図情報を取得し、表示領域に対応する範囲について、ユーザにより設定された目的地、経由地、登録地など(以下、「設定地点アイコン」と呼ぶ)の有無やその個数を判定する。
 例えば、表示領域に設定地点アイコンが存在する場合、表示領域重要度計算部23は、重要度を例えば「10」と決定する。また、前述の(2)と同様に、設定地点アイコンの個数の増加に伴って、重要度を増加させるようにしてもよい。
(4)「走行中の道路種別」
 この項目では、表示領域重要度計算部23が、自車31が走行中の道路種別に基づいて、重要度を計算する場合について説明する。ここで、道路種別としては、例えば「高速道路」「一般道」「トンネル」などがある。
 表示領域重要度計算部23は、例えば、現在位置検出部2により検出された自車位置情報を取得し、当該自車位置情報を用いて、地図情報格納部4から地図情報取得部5が取得した、自車が走行中の道路の道路種別を取得する。
 図7は、道路種別ごとの表示領域の重要度の一例を示す表である。
 表示領域重要度計算部23は、図7の表を参照して、取得した道路種別に対応する重要度を各表示領域の重要度として決定する。
 なお、図7においては、ユーザにとって一般道を走行中の方が他の道路走行中よりも、表示されている地図情報の重要度は高いとして、表示領域の重要度を大きく設定しているが、これに限られるものではない。
(5)「走行中の地域」
 この項目では、表示領域重要度計算部23が、自車31が走行中の地域種別に基づいて、重要度を計算する場合について説明する。ここで、地域種別としては、例えば「市街地」「市外」「山中」「海上」などがある。
 表示領域重要度計算部23は、現在位置検出部2により検出された自車位置情報を取得し、当該自車位置情報を用いて、地図情報格納部4から地図情報取得部5が取得した、自車が走行中の地域の地域種別を取得する。
 図8は、各地域種別に対する重要度の一例を示す表である。
 表示領域重要度計算部23は、図8の表を参照して、取得した地域種別に対応する重要度を各表示領域の重要度として決定する。
 なお、図8においては、市街地走行中は、地図上に表示される情報が多いため、「市街地」に対応する重要度を大きくし、市街地より地図上に表示される情報が少ない「市外」では、対応する重要度を市街地より小さくし、さらに地図上に表示される情報が少ない山中や海上(例えば、橋上を走行中や、海岸線を走行中で表示領域が海上)では、最も重要度を小さくしているが、これに限られるものではない。
(6)「地図の表示スケール」
 この項目では、表示領域重要度計算部23が、表示部13に表示されている地図の表示スケールに基づいて、重要度を計算する場合について説明する。ここで、表示スケールとしては、基準となる縮尺が相当する距離として、例えば、「25m」「50m」「100m」・・・「500m」「1km」「3km」「5km」などが設定されている。
 表示領域重要度計算部23は、例えば、ユーザによる各種設定を記憶した設定記憶部(図示しない)などから現在の地図の表示スケールを取得する。
 図9は、各表示スケールに対する重要度の一例を示す表である。
 表示領域重要度計算部23は、図9の表を参照して、取得した表示スケールに対応する重要度を各表示領域の重要度として決定する。
 なお、図9においては、表示スケールが小さい(地図が拡大されている)程、表示されている地図情報の重要度が高くなるとして、表示スケールの減少に伴って重要度を大きくしているが、これに限られるものではない。
(7)「表示領域における案内情報/警告情報表示の有無」
 この項目では、表示領域重要度計算部23が、表示領域における案内情報/警告情報の表示状況に基づいて、重要度を計算する場合について説明する。
 図10は、表示部13に地図画面が表示されている状態において、案内情報34や警告情報35が表示領域に表示されている画面例を示す図である。
 表示領域重要度計算部23は、例えば、地図描画部21により生成される地図情報、交通情報送受信部3により受信された情報、誘導案内部7により生成される情報を取得し、表示領域に対応する範囲について、図10(a)に示すような交差点案内表示や図10(b)に示すような警告表示などの案内情報34または警告情報35が出力されているか判定する。
 図11は、案内情報/警告情報と重要度との対応の一例を示す表である。
 表示領域重要度計算部23は、表示領域に案内情報34または警告情報35が出力されている場合、図11の表を参照して、案内情報34または警告情報35に対応する重要度を決定する。
 案内情報/警告情報と表示領域の重要度は図11の内容に限られるものではなく、項目数が増えたものでもよいし、項目ごとの重要度が異なるものであってもよい。
(8)「自車の走行状況」
 この項目では、表示領域重要度計算部23が、自車31の走行状況に基づいて、重要度を計算する場合について説明する。
 図12は、車両の走行状況と表示領域の重要度との対応の一例を示す表である。
 例えば、自車の走行速度があらかじめ定めた所定速度以上である、加速中である、右折または左折のウィンカーを出している等の場合には、ユーザが車両の運転に集中しなければいけない走行状況であると判断し、表示領域の重要度を大きくし、その他の場合には重要度を小さくするように、車両の走行状況に基づいて重要度を決定する。
 図12に示す例では、自車の走行速度があらかじめ定めた所定速度(例えば、60km/h)以上である場合には重要度を20、自車が加速中である場合には重要度を25、自車が右折または左折のウィンカーを出している場合には重要度を25としているが、例えば自車の走行速度が60km/h以上80km/h未満である場合には重要度を20、走行速度が80km/h以上である場合には重要度を30とする等、車両の走行状況に応じて重要度を段階的に変更してもよい。
(9)「自車の周辺環境状況」
 この項目では、表示領域重要度計算部23が、自車31の周辺環境状況に基づいて、重要度を計算する場合について説明する。
 図13は、車両の周辺環境状況と表示領域の重要度との対応の一例を示す表である。
 例えば、自車が走行中の現在時間が夜間(19:00~6:00の間)である、周辺の照度(明るさ)があらかじめ定めた所定の閾値以下である、天候が雨または雪である、自車の周辺が渋滞している等の場合には、ユーザにとって周囲が見にくいとか車両の運転に集中しなければいけない周辺環境状況であると判断し、表示領域の重要度を大きくし、その他の場合には重要度を小さくするように、車両の周辺環境状況に基づいて重要度を決定する。
 図13に示す例では、自車が走行中の現在時間が19:00~6:00の夜間の時間帯である場合には重要度を10、自車の周辺の照度(明るさ)があらかじめ定めた所定の閾値以下である場合には重要度を10、自車の周辺の天候が雨または雪である場合には重要度を20、自車の周辺が渋滞中である場合には重要度を25としているが、例えば自車の周辺の天候が雨または雪である場合には重要度を20、天候が曇りである場合には重要度を10とする等、車両の周辺環境状況に応じて重要度を段階的に変更してもよい。
(10)「表示物の内容と表示画面の関連性」
 この項目では、表示領域重要度計算部23が、表示領域に表示される表示物の内容と表示部13に表示されている表示画面との関連性に基づいて、重要度を計算する場合について説明する。
 ここでは、例えば、アーティスト名、アルバム名、曲タイトル名など、音声認識の対象が曲に関連した語彙であるものとして説明する。この場合、それらの語彙が音声認識されると、その認識結果に対応する表示物の内容もまた、曲に関連した語彙であり、アーティスト名の表示物、アルバム名の表示物、曲名の表示物などが表示される。
 この時、表示部13に表示されている表示画面が、AV画面(曲の再生画面)である場合には、ユーザは音楽を聴いている状態であり、曲の再生に関連する表示物が表示されても、邪魔になることはないと考えられるため、表示領域の重要度は小さくてもよい。
 一方、表示部13に表示されている表示画面が、通常の地図画面である場合には、ユーザは道案内に関する地図情報を見たい状態であり、音声認識結果に対応する表示物として曲の再生に関連する操作ボタンが表示されると、運転の邪魔になると考えられるため、表示領域の重要度を大きくする必要がある。
 図14は、表示物の内容と表示されている表示画面との組合せに対する、表示領域の重要度の一例を示す表である。
 このように、表示物の内容と、表示部13に実際に表示されている表示画面との関連性に応じて、表示物がその時のユーザにとって重要な情報であれば、表示物が表示されやすくするために重要度を小さくしており、表示物がその時のユーザにとって重要でない状態であると考えられる場合には、表示物が表示されにくくするために重要度を大きくしている。
(11)「表示領域に表示されている他の表示物の有無とその個数」
 この項目では、表示領域重要度計算部23が、表示領域に表示されている他の表示物の有無やその個数に基づいて、重要度を計算する場合について説明する。ここで、他の表示物とは、例えば、図15に示すようなオーディオ操作画面や電話画面など他の画面に遷移するためのボタン36であって、この発明が搭載される装置に固有のボタンである。
 表示領域重要度計算部23は、認識結果に対応する表示物以外の表示物(以下、「他の表示物」と呼ぶ)に関する情報を取得し、表示領域に対応する範囲について、他の表示物の有無やその個数を判定する。
 この場合、他の表示物は、ユーザがナビゲーション装置(この発明における音声認識装置が搭載される装置)を操作する上で必要なものであるため、表示領域重要度計算部23は、表示領域に他の表示物が有ると判定した場合には、重要度を例えば「30」と決定する。また、前述の(2)と同様に、他の表示物の個数の増加に伴って、重要度が増加するようにしてもよい。
(12)「表示画面の表示モード」
 この項目では、表示領域重要度計算部23が、表示部13に表示されている表示画面の表示モードに基づいて、重要度を計算する場合について説明する。 ここで、画面表示モードとしては、「1画面表示」「2画面表示」「3D表示」「昼間時表示」「夜間時表示」などがある。
 表示領域重要度計算部23は、例えば、ユーザによる各種設定を記憶した設定記憶部(図示しない)などから現在の画面表示モードを取得する。
 図16は、表示モードと表示領域の重要度との対応の一例を示す表である。
 表示領域重要度計算部23は、図16の表を参照して、取得した表示画面モードに対応する重要度を、各表示領域の重要度として決定する。
 ここで、図5のような状況において、地図が自車基準で表示されており、自車が走行中の地域は「市街地」であり、表示領域重要度計算部23における検討項目が(1)(2)(5)の3つである場合を例に、具体的に説明する。
 まず、表示領域44ついては、自車31の進行方向上の表示領域でないため、表示領域重要度計算部23による(1)の検討結果の重要度は「0」となり、アイコンが1つ表示されているため、(2)の検討結果の重要度は「10」となる。そして、走行中の地域が「市街地」であるため、(5)の検討結果の重要度は「15」となる。
 その結果、表示領域44の重要度=0+10+15=25と計算される。同様にして、表示領域43における重要度=0+0+15=15、表示領域42における重要度=20+20+15=55、表示領域41における重要度=0+30+15=45と計算される。
 次に、表示物表示態様決定部24が、表示領域重要度計算部23により算出された各表示領域の重要度に基づいて、表示物生成部22により生成された表示物を表示すべき表示領域を決定する方法について説明する。
 ここで、この実施の形態1においては、システムまたはユーザによって、あらかじめ一の表示領域が指定されているものとする。以下、「システム等によってあらかじめ指定された表示領域」と呼ぶ。
 表示物表示態様決定部24には、あらかじめ所定の閾値(表示領域決定用閾値。以下、「第1の閾値」と呼ぶ)が設定されており、システム等によってあらかじめ指定された表示領域の重要度が当該第1の閾値以下(または、第1の閾値より小さい値)である場合、あらかじめ指定された表示領域を、表示物を表示すべき表示領域に決定する。
 一方、システム等によってあらかじめ指定された表示領域の重要度があらかじめ定められた第1の閾値より大きい値(または、第1の閾値以上)である場合、当該第1の閾値以下の(または、第1の閾値より小さい)重要度である他の表示領域であって、かつ、最も重要度が小さい表示領域を、表示物を表示すべき表示領域に決定する。
 なお、他の複数の表示領域の重要度が同値である場合は、その中からランダムに決定した表示領域を表示物を表示すべき表示領域に決定してもよいし、あらかじめ、同値となった場合の優先順位を定めておき、当該優先順位に従って優先順位の一番高い表示領域を表示物を表示すべき表示領域に決定するとしてもよい。また、表示物の種類に対応した優先順位を定めておいてもよい。
 なお、各表示領域におけるあらかじめ定められた所定の閾値は同一であってもよいし、異なっていてもよい。
 次に図17~図19に示すフローチャートを用いて、実施の形態1によるナビゲーション装置の処理を説明する。
 図17は、この実施の形態1における、表示物を表示すべき表示領域の決定の処理を示すフローチャートである。
 まず、表示領域重要度計算部23は、あらかじめ決定されている、または、ユーザにより選択された大項目(前述の項目(1)~(10)の1つ以上)について、表示領域重要度を計算するために必要な情報を取得し(ステップST01)、取得した情報に基づいて、各表示領域の重要度を計算する(ステップST02)。
 次に、表示物表示態様決定部24は、システム等によってあらかじめ指定されている表示領域の重要度があらかじめ定められた第1の閾値以下か否か判定する(ステップST03)。
 そして、第1の閾値以下である場合(ステップST03の「YES」の場合)は、当該指定されている表示領域を、表示物を表示すべき表示領域に決定し(ステップST04)、決定した表示領域を表示物描画部25に対して指示出力する(ステップST06)。
 一方、第1の閾値より大きい場合(ステップST03の「NO」の場合)は、第1の閾値以下の重要度である他の表示領域であって、かつ、最も表示領域重要度が小さい表示領域を、表示物を表示すべき表示領域に決定し(ステップST05)、決定した表示領域を表示物描画部25に対して指示出力する(ステップST06)。
 図18は、この実施の形態1における、表示物の生成と表示の処理を示すフローチャートである。
 まず、音声取得部9は、マイク8により集音されたユーザ発話、すなわち、入力された音声を取込み、例えばPCMによりA/D変換する(ステップST11)。
 次に、音声認識部10は、音声取得部9により取込まれてデジタル化された音声信号から、ユーザが発話した内容に該当する音声区間を検出し、該音声区間の音声データの特徴量を抽出し、その特徴量に基づいて音声認識辞書を参照して認識処理を行う(ステップST12)。
 そして、表示物生成部22は、音声認識部10によって出力された認識結果に対応する表示物を生成する(ステップST13)。
 その後、表示物描画部25は、表示物生成部22により生成された表示物を、表示物表示態様決定部24によって決定され指示されている表示領域に表示するよう表示部13に対して指示出力する(ステップST14)。
 図19は、この実施の形態1における、表示部13に既に表示されている表示物の表示領域の変更の処理を示すフローチャートである。
 表示物描画部25は、表示物表示態様決定部24によって決定され指示されている表示領域を確認し(ステップST21)、指示されている表示領域へ表示物を表示するよう表示部13に対して指示出力する(ステップST22)。
 ここで、図20および図21を参照しながら、具体的な例を挙げて説明する。
 図20および図21は、表示部13に地図画面が表示されている状態において、施設アイコン33と表示領域に表示される表示物との関係による画面遷移例を示す図である。
 なお、表示領域の重要度を算出するための項目として、前述した大項目(2)が選択されているものとする。そして、施設アイコン33の個数と重要度との関係は図6に示すものとする。また、システム等によってあらかじめ指定されている表示領域を表示領域41とする。さらに、表示物表示態様決定部24に設定されている第1の閾値は「25」とする。
 まず、大項目(2)が判定項目であるため、図17のステップST01において重要度を計算するために必要な情報とは、各表示領域41~44の範囲情報、地図情報(施設アイコン情報を含む)であり、表示領域重要度計算部23は、それらの情報を取得する(図17のステップST01)。
 図20(a)の場合、表示領域41~44のいずれにも施設アイコン33が存在しないため、表示領域重要度計算部23は、すべての表示領域の重要度を「0」と計算する(図17のステップST02)。
 次に、あらかじめ指定されている表示領域41の重要度があらかじめ定められた第1の閾値(25)以下であるため、表示物表示態様決定部24は、表示領域41を表示物を表示すべき表示領域に決定し、表示物描画部25に対して指示出力する(図17のステップST03の「YES」の場合、ステップST04、ステップST06)。
 この状況において、ユーザが「近くにレストランないかな」と発話したとすると、まず初めに、音声取得部9が、この「近くにレストランないかな」という音声を取込み、例えばPCMによりA/D変換する(図18のステップST11)。次に、音声認識部10が、取込まれた音声の認識処理を行い、認識結果として「レストラン」を出力する(ステップST12)。
 そして、表示物生成部22が、認識結果「レストラン」に対応する表示物としてレストランの操作ボタンを生成し(ステップST13)、表示物描画部25が、表示物表示態様決定部24により決定され指示されている表示領域41に、その生成された操作ボタンを表示するよう、表示部13に対して指示出力する(ステップST14)。
 その結果、図20(b)に示すように、表示領域41に操作ボタン45が表示される。
 続いて、自車31が前進し、図20(c)に示すように、表示領域41に施設アイコン33が1つ存在する状況となった場合、表示物の表示領域である表示領域41に施設アイコン33が1つ存在するため、表示領域重要度計算部23は、表示領域41の重要度を「10」と計算する(図17のステップST01、ステップST02)。
 この場合、表示領域41の重要度があらかじめ定められた第1の閾値(25)以下であるため、表示物表示態様決定部24は、表示領域41を、表示物を表示すべき表示領域に決定し、表示物描画部25に対して指示出力する(図17のステップST03の「YES」の場合、ステップST04、ステップST06)。
 そして、表示物描画部25は、表示物表示態様決定部24により指示されている表示領域が表示領域41であることを確認し、表示部13に対して表示領域41に表示物を表示するよう指示出力する(図19のステップST21、ステップST22)。
 さらに、自車31が前進し、図20(d)に示すように、表示領域41に施設アイコン33が3つ存在し、表示領域42に施設アイコン33が2つ存在し、表示領域43に施設アイコン33が存在せず、表示領域44に施設アイコン33が1つ存在する状況となった場合、表示領域重要度計算部23は、表示領域41,42,43,44の各重要度を、「30」「20」「0」「10」と計算する(図17のステップST01、ステップST02)。
 この場合、表示物表示態様決定部24は、表示領域41の重要度があらかじめ定められた第1の閾値(25)より大きいため、重要度が第1の閾値以下であって、かつ、最も重要度が小さい表示領域43を、表示物を表示すべき表示領域に決定し、表示物描画部25に対して指示出力する(図17のステップST03の「NO」の場合、ステップST05、ステップST06)。
 このとき、表示物表示態様決定部24から出力される指示出力が、表示領域41から表示領域43に変わるので、表示物描画部25は、操作ボタン45を表示領域43に表示するよう表示部13に対して指示出力する(図19のステップST21、ステップST22)。
 その結果、図20(d)に示すように、表示領域43に操作ボタン45が表示される。
 図21(a)は、図20(d)と同じ表示画面である。
 この状況において、ユーザが「やっぱりコンビニにしようかな」と発話したとすると、図18のステップST11とステップST12の処理が行われ、音声認識部10が、認識結果として「コンビニ」を出力する。
 次に、表示物生成部22が、認識結果「コンビニ」に対応する操作ボタンを生成し(ステップST13)、表示物描画部25が、表示物表示態様決定部24により指示されている表示領域43に、その生成された操作ボタンを表示するよう、表示部13に対して指示出力する(ステップST14)。
 その結果、図21(b)に示すように、表示領域43に表示されている操作ボタン45に加えて操作ボタン46が表示される。
 その後、自車31が前進し、図21(c)に示すように、いずれの表示領域41~44にも施設アイコン33が存在しない状況となった場合、表示領域重要度計算部23は、表示領域41,42,43,44の各重要度を「0」「0」「0」「0」と計算し、あらかじめ指定されていた表示領域41を、表示物を表示すべき表示領域に決定し、表示物描画部25に対して指示出力する。
 このとき、表示物表示態様決定部24から出力される指示出力が、表示領域43から表示領域41に変わるので、表示物描画部25は、操作ボタン45と操作ボタン46を表示領域41に表示するよう表示部13に対して指示出力する(図19のステップST21、ステップST22)。
 その結果、図21(d)に示すように、表示領域41に操作ボタン45と操作ボタン46が表示される。
 このようにして、表示領域の重要度に応じて表示物の表示領域を変更するようにしたため、表示物の表示により、ユーザにとって重要な他の情報の取得を阻害することがなくなり、利便性が向上する。
 なお、システム等によってあらかじめ表示領域が指定されていない場合には、重要度が第1の閾値以下の表示領域であって、かつ、重要度が最も小さい表示領域に表示物を表示するとしてもよい。
 この場合、表示物を表示すべき表示領域の決定の処理を示すフローチャートは図22のようになる。
 図22は、この実施の形態1において、あらかじめ表示領域が指定されていない場合に表示物を表示すべき表示領域の決定の処理を示すフローチャートである。
 ステップST31とステップST32の処理については、図17のステップST01とステップST02と同一であるので説明を省略する。
 表示物表示態様決定部24は、表示領域重要度計算部23により算出された各表示領域の重要度に基づいて、表示領域重要度が第1の閾値以下であり、かつ、最も表示領域重要度が小さい表示領域を、表示物を表示すべき表示領域に決定する(ステップST33)。そして、表示物描画部25に対して、決定した表示領域を指示出力する(ステップST34)。
 ここで、図23を参照しながら、具体的な例を挙げて説明する。図23は、図22のフローチャートにより処理された場合に、表示部13に地図画面が表示されている状態において、施設アイコン33と表示領域に表示される表示物との関係による画面遷移例を示す図である。
 なお、重要度を決定するための項目、重要度の決定のために必要な情報、各表示領域におけるあらかじめ定められた第1の閾値は、図20および図21の説明において使用したものと同様とする。すなわち、表示領域の重要度を算出するための項目として、前述した大項目(2)が選択されているものとし、施設アイコン33の個数と重要度との関係は図6に示すものとする。また、表示物表示態様決定部24に設定されている各表示領域の重要度に関する第1の閾値は「25」とする。
 まず、表示領域重要度計算部23は、重要度の決定のために必要な情報を取得する(図22のステップST31)。
 次に、表示領域重要度計算部23は、図23(a)における各表示領域の重要度を計算する(ステップST32)。図23(a)においては、表示領域41に施設アイコン33が1つ存在し、表示領域42にも施設アイコン33が1つ存在し、表示領域43には施設アイコン33が存在せず、表示領域44には施設アイコン33が2つ存在している。
 その結果、表示領域41,42,43,44の各重要度は「10」「10」「0」「20」と計算される。そして、表示物表示態様決定部24は、重要度が最も小さい表示領域43を、表示物を表示すべき表示領域に決定し(ステップST33)、表示物描画部25に対して指示出力する(ステップST34)。
 そして、この状況において、ユーザが「近くにレストランないかな」と発話したとすると、図23(b)に示すように「レストラン」に対応する操作ボタン45が表示領域43に表示される。
 続いて、自車31が前進し、図23(c)に示すように、表示領域41には施設アイコン33が2つ存在し、表示領域42には施設アイコン33が1つ存在し、表示領域43には施設アイコンが2つ存在し、表示領域44には施設アイコン33が存在しない状況となった場合、表示領域41,42,43,44の各重要度は「20」「10」「20」「00」と計算される。
 その結果、図23(d)に示すように、表示領域43に既に表示されていた操作ボタン45は表示領域44に表示される。
 なお、既に表示されている操作ボタン45の表示領域を変更する場合に、図23(c)から図23(d)に遷移したように、操作ボタン45を表示領域43から表示領域44にすぐに移動させて表示するようにしてもよいし、既に表示されている操作ボタン45はそのままとし、次にまた別の操作ボタンが表示される場合に、変更後の表示領域44に表示されるようにしてもよい。
 また、すべての表示領域の重要度があらかじめ定められた第1の閾値より大きい(または、第1の閾値以上である)場合は、生成された表示物を表示しないとしてもよい。この場合、表示物表示態様決定部24は、表示物を表示すべき表示領域がないことを決定して、表示物描画部25に対してその旨を指示出力し、表示物描画部25は、当該指示がある場合は、表示部13に対して、表示物を表示しないよう指示出力すればよい。
 このようにすることで、表示物の表示により、ユーザにとって重要な他の情報の取得を阻害することがなくなり、利便性が向上する。
 また、すべての表示領域の重要度があらかじめ定められた第1の閾値より大きい(または、第1の閾値以上となった)場合は、既に表示されている表示物を消去する、または、表示物が表示されている表示領域の重要度が第1の閾値より小さくなるまで消去するようしてもよい。この場合、表示物表示態様決定部24は、表示されている表示物を消去する、または、表示物が表示されている表示領域の重要度が第1の閾値より小さくなるまで消去することを決定して、表示物描画部25に対して表示領域の表示物を消去すべき指示出力をし、表示物描画部25は、当該指示がある場合は、表示部13に対して、表示物を消去するよう指示出力をするようにすればよい。
 さらに、少なくとも1つの表示領域の重要度があらかじめ定められた第1の閾値以下に(または、第1の閾値より小さく)なった場合は、消去された表示物を当該表示領域に再表示するとしてもよい。
 なお、表示物が表示されている表示領域の重要度が第1の閾値以下に(または、第1の閾値より小さく)なるまで消去しておく場合など、ここで言う「消去」には、表示されている表示物を完全に消去するのではなく、他の重要な情報が表示(上書き表示)されたことにより一時的に消去されたように見えるだけで、画面上には存在している場合も含むものとする。
 このようにすることで、表示物の表示により、ユーザにとって重要な他の情報の取得を阻害することがなくなり、利便性が向上する。
 また、表示物を表示すべき表示領域の決定または変更後、あらかじめ定められた所定時間が経過するまでは、当該表示領域の変更を行わない(表示部13に対して指示出力しない)ようにしてもよい。この場合、表示物描画部25は、図19のフローチャートにおいて、表示物表示態様決定部24により指示されている表示領域が前回確認時と異なっている場合は、前回確認時から所定時間が経過しているか否かを判定し、所定時間が経過していなければ、表示部13に対して何も指示出力せず、所定時間が経過していれば、表示部13に対して変更後の表示領域に表示物を表示する指示出力をするとすればよい。
 このようにすることで、表示物の表示位置が頻繁に変わることによる、ユーザの混乱を軽減することができる。
 以上のように、この実施の形態1によれば、音声認識結果に対応する表示物を表示する表示領域の重要度に応じて、表示物を表示する位置を変更することができるため、表示物の表示により、ユーザにとって重要な他の情報の取得を阻害することがなくなり、ユーザの利便性を向上させることができる。
 なお、制御部1、交通情報送受信部3、経路計算部6、誘導案内部7、音声取得部9、音声認識部10、表示制御部12および音声制御部14は、音声認識装置が適用されるナビゲーション装置のマイクロコンピュータが、この発明に特有な処理に関するプログラムを実行することにより、ハードウェアとソフトウェアとが協働した具体的な手段として実現される。以下の実施の形態においても、同様である。
実施の形態2.
 この発明の実施の形態2による音声認識装置を適用したナビゲーション装置の一例を示すブロック図は、実施の形態1において示した図1と同じであるため、図示および説明を省略する。以下に示す実施の形態2では、実施の形態1と比べると、表示物表示態様決定部24が、表示領域の重要度に応じて表示物の表示形態を決定し、表示物描画部25に対して指示出力する点が異なる。
 すなわち、この実施の形態2における表示物表示態様決定部24は、表示物を表示すべき表示領域だけではなく、表示物の表示形態を決定する。なお、この実施の形態2では、表示物表示態様決定部24が、実施の形態1と同様に表示領域を決定するとともに、表示物の表示形態を決定するものとして説明するが、表示領域は固定とし、表示物表示態様決定部24は表示形態のみを決定するものとしてもよい。
 ここで、表示物の表示形態とは、表示物の透過度、表示物の大きさ、表示物の表示領域における表示時間、表示物の表示領域における最大表示個数、表示物の情報量など、表示物を表示領域に表示させた際のユーザによる見た目の違いを表すものである。
 図24は、表示領域の重要度と表示物の透過度との関係の一例を示す図である。
 図24(a)では、表示領域の重要度が大きいほど、その表示領域に表示される表示物の透過度が大きくなっている。すなわち、重要度と透過度は正の相関を有している。
 なお、図24(b)に示すように、表示物の透過度が表示領域の重要度に応じて段階的に増加するようにしてもよい。
 また、図24(c)に示すように、表示領域の重要度があらかじめ定められた所定の閾値(表示形態決定用閾値。以下、「第2の閾値」と呼ぶ)(例えば、40)以下(または、第2の閾値より小さい値)の場合には、表示物の透過度を一定にし、第2の閾値より大きい値(または、第2の閾値以上)の場合には、重要度に応じて表示物の透過度を増加させるようにしてもよい。
 図25は、表示領域の重要度と表示物の表示時間との関係の一例を示す図である。
 図25(a)では、表示領域の重要度が大きいほど、その表示領域に表示される表示物の表示時間が短くなっている。すなわち、重要度と表示時間は負の相関を有している。
 なお、図25(b)に示すように、表示物の表示時間が表示領域の重要度に応じて段階的に減少するようにしてもよい。
 表示物の大きさ、表示物の最大表示個数についても、表示物の表示時間と同様に、重要度と負の相関を有するものとする。すなわち、表示領域の重要度が大きいほど、その表示領域に表示される表示物の大きさを小さく、または、段階的に減少するようにしたり、表示領域の重要度が大きいほど、その表示領域に表示される表示物の最大表示個数を少なく、または、段階的に減少するようにすればよい。
 図26は、表示物の情報量の変化の一例を示す図である。表示物表示態様決定部24は、表示領域の重要度があらかじめ定められた第2の閾値より大きい値(または、第2の閾値以上)となった場合に、例えば、図26(a)のようにアイコンと文字列とから成る表示物を、図26(b)のようにアイコンのみから成る表示物に変更するよう指示出力する。
 そして、表示物描画部25は、表示物の表示形態を表示物表示態様決定部24により決定され指示されている表示形態(透過度、大きさ、表示時間、最大表示個数、情報量など)に変更し、表示部13に対して表示物表示態様決定部24により指示されている表示領域に表示するよう指示出力する。
 また、表示物の表示形態として表示時間(例えば、2秒など)が指示されているときに、表示部13に表示物が表示されている時間が、表示物表示態様決定部24により指示されている表示時間より大きく(または、指示されている表示時間以上に)なった場合は、表示物描画部25は、当該表示物を消去するよう表示部13に対して指示出力をする。
 また、表示物の表示形態として最大表示個数(例えば、4個など)が指示されているときに、表示部13に表示されている表示物の個数が、表示物表示態様決定部24により指示されている最大表示個数より大きく(または、指示されている最大表示個数以上に)なった場合は、表示物描画部25は、表示されている時間が最も長い表示物を削除して、新たに生成された表示物を表示するよう表示部13に対して指示出力をする。
 次に図27~図29に示すフローチャートを用いて、実施の形態2によるナビゲーション装置の処理を説明する。なお、ここでは、表示領域の重要度に応じて表示物の透過度を変化させる場合を例に説明する。
 図27は、この実施の形態2における、表示物を表示すべき表示領域の決定と透過度の決定の処理を示すフローチャートである。
 ステップST41~ステップST45の処理については、図17のステップST01~ステップST05と同様であるので、説明を省略する。
 表示物表示態様決定部24は、例えば図24(a)に示す重要度と透過度との関係に従って、決定した表示領域の重要度に対応する透過度を計算する(ステップST46)。そして、決定した表示領域と当該表示領域における透過度を、表示物描画部25に対して指示出力する(ステップST47)。
 例えば、決定した表示領域の重要度が「40」である場合は、図24(a)に示す関係にしたがって、透過度を「40」と決定する。
 図28は、この実施の形態2における、表示物の生成と表示の処理を示すフローチャートである。
 ステップST51~ステップST53の処理については、図18のステップST11~ステップST13と同様であるので、説明を省略する。
 表示物描画部25は、表示物生成部22により生成された表示物の透過度を、表示物表示態様決定部24により決定され指示出力されている透過度に変更する(ステップST54)。そして、当該変更した透過度の表示物を、表示物表示態様決定部24により指示出力されている表示領域に表示するよう、表示部13に対して指示出力する(ステップST55)。
 図29は、この実施の形態2における、表示部13に既に表示されている表示物の表示領域の変更と透過度の変更の処理を示すフローチャートである。
 表示物描画部25は、表示物表示態様決定部24によって決定され指示されている表示領域と透過度を確認する(ステップST61)。
 そして、表示物描画部25は、既に表示されている表示物の透過度を、指示されている透過度に変更(ステップST62)した後、指示されている表示領域へ変更した透過度の表示物を表示するよう表示部13に対して指示出力する(ステップST63)。
 なお、表示物の表示形態の変更後、あらかじめ定められた所定時間が経過するまでは、当該表示形態の変更を行わない(表示部13に対して指示出力しない)ようにしてもよい。
 このようにすることで、表示物の表示形態が頻繁に変わることによる、ユーザの混乱を軽減することができる。
 以上のように、この実施の形態2によれば、ユーザにとって重要である情報が音声認識結果に対応する表示物によって隠されることになる場合であっても、その表示物を表示する表示領域の重要度に応じて、表示物の表示形態を変更することができるため、表示物の表示により、ユーザにとって重要な他の情報の取得を阻害することが少なくなり、ユーザの利便性を向上させることができる。
実施の形態3.
 以上の実施の形態1,2では、この発明における音声認識装置を、車両等の移動体に搭載されるナビゲーション装置に適用した場合を例に説明したが、適用するのは車両用のナビゲーション装置に限らず、人、車両、鉄道、船舶または航空機等を含む移動体用のナビゲーション装置であってもよいし、音声認識システムのサーバやナビゲーションシステムのサーバに適用してもよい。また、スマートフォン、タブレットPC、携帯電話等の携帯情報端末等にインストールされる音声認識システムのアプリケーションやナビゲーションシステムのアプリケーション等、どのような形態のものにも適用することができる。
 図30は、この発明の実施の形態3におけるナビゲーションシステムの概要を示す図である。このナビゲーションシステムは、車載装置100が、スマートフォンなどの携帯情報端末101およびサーバ102の少なくとも一方と連携して音声認識処理およびナビゲーション処理を行ったり、スマートフォンなどの携帯情報端末101およびサーバ102の少なくとも一方が音声認識処理およびナビゲーション処理を行い、車載装置100に認識結果や地図情報を表示させる等、様々な形態をとることができる。以下、当該ナビゲーションシステムの構成態様について説明する。
 実施の形態1,2では、この発明の音声認識装置の機能を、図30に示す車載装置100がすべて備えるものとして説明したが、この実施の形態3におけるナビゲーションシステムでは、サーバ102が音声認識処理を行い、その認識結果に対応する表示物を車載装置100に表示させることによりユーザに提供する場合、および、携帯情報端末101がサーバ102と連携して音声認識処理を行い、その認識結果に対応する表示物を車載装置100に表示させることによりユーザに提供する場合について説明する。
 まず、サーバ102が音声認識処理を行い、その認識結果に対応する表示物を車載装置100に表示させる場合、すなわち、音声認識機能を有するサーバ102と連携して、車載装置100が表示装置として機能する場合について説明する。
 この構成においては、車載装置100がサーバ102と直接通信するか、または、車載装置100が携帯情報端末101を経由してサーバ102と通信する場合が考えられる。サーバ102は、上記実施の形態1,2で説明した音声認識部や表示制御部を備えた音声認識装置として機能する。また、車載装置100は、サーバ102による認識結果に対応する表示物をユーザに提供するための表示部13を少なくとも備える表示装置として機能する。
 この場合、車載装置100は基本的に通信機能および表示機能のみを有し、サーバ102による音声認識結果に対応する表示物(表示領域や表示形態の情報を含む)を受信してユーザに提供する。
 すなわち、サーバ102が、マイク8や音声取得部9、指示入力部11、表示部13、スピーカ15以外を備える音声認識装置であり、この音声認識装置であるサーバ102が、ユーザにより発話された音声を認識して認識結果に対応する表示物を表示装置である車載装置100に表示させる。
 このように構成しても、実施の形態1,2と同様の効果を得ることができる。
 また、携帯情報端末101がサーバ102と連携して音声認識処理を行い、その認識結果に対応する表示物を車載装置100がユーザに提供する場合について説明する。
 この構成においては、車載装置100が携帯情報端末101を経由してサーバ102と通信する場合が考えられ、携帯情報端末101のアプリケーションが、サーバ102と連携して音声認識処理を行う。また、車載装置100は、携帯情報端末101とサーバ102による認識結果に対応する表示物をユーザに提供するための表示部13を少なくとも備える表示装置として機能する。
 この場合にも、車載装置100は基本的に通信機能および表示機能のみを有し、携帯情報端末101とサーバ102との連携による音声認識結果に対応する表示物(表示領域や表示形態の情報を含む)を受信してユーザに提供する。
 すなわち、携帯情報端末101のアプリケーションにより、ユーザにより発話された音声を認識した認識結果に対応する表示物を表示装置である車載装置100に表示させる。
 このように構成しても、実施の形態1,2と同様の効果を得ることができる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明の音声認識装置は、車両等の移動体に搭載されるナビゲーション装置や、車載情報提供システムのサーバや、スマートフォン、タブレットPC、携帯電話等の携帯情報端末等にインストールされるナビゲーションシステムのアプリケーション等に適用することができる。
 1 制御部、2 現在位置検出部、3 交通情報送受信部、4 地図情報格納部、5 地図情報取得部、6 経路計算部、7 誘導案内部、8 マイク、9 音声取得部、10 音声認識部、11 指示入力部、12 表示制御部、13 表示部(ディスプレイ)、14 音声制御部、15 スピーカ、16 走行状況取得部、17 周辺環境状況取得部、21 地図描画部、22 表示物生成部、23 表示領域重要度計算部、24 表示物表示態様決定部、25 表示物描画部、31 自車、32 渋滞情報の表示、33 施設アイコン、34 案内情報、35 警告情報、36 他の表示物(他の画面に遷移するためのボタン)、40 41,42,43,44 表示物40の表示領域、45,46 認識結果の表示物(操作ボタン)、100 車載装置、101 携帯情報端末、102 サーバ。

Claims (27)

  1.  ユーザにより発話された音声を認識して認識結果に対応する表示物を表示する音声認識装置において、
     前記ユーザにより発話された音声を検知して取得する音声取得部と、
     前記音声取得部により取得された音声データを認識し、認識結果を出力する音声認識部と、
     前記音声認識部により出力された認識結果に対応する表示物を生成する表示物生成部と、
     複数の表示領域を有する表示部と、
     前記表示部における複数の表示領域ごとの重要度を計算する表示領域重要度計算部と、
     前記表示領域重要度計算部により計算された重要度に基づいて、前記表示物生成部により生成された表示物を表示すべき表示領域または前記表示物の表示形態の少なくとも一方を決定する表示物表示態様決定部と、
     前記表示物表示態様決定部により決定された表示領域または表示形態に基づいて、前記表示物を表示するよう前記表示部に対して指示出力する表示物描画部と
     を備えることを特徴とする音声認識装置。
  2.  前記表示物表示態様決定部は、前記表示領域重要度計算部により計算された重要度が最も小さい表示領域を、前記表示物を表示すべき表示領域に決定する
     ことを特徴とする請求項1記載の音声認識装置。
  3.  前記表示物表示態様決定部は、前記複数の表示領域の中からあらかじめ指定された表示領域の重要度があらかじめ定められた表示領域決定用閾値以下である場合は、前記あらかじめ指定された表示領域を前記表示物を表示すべき表示領域に決定し、前記あらかじめ指定された表示領域の重要度が前記あらかじめ定められた表示領域決定用閾値より大きい場合は、他の表示領域を前記表示物を表示すべき表示領域に決定する
     ことを特徴とする請求項1記載の音声認識装置。
  4.  前記表示物表示態様決定部は、前記他の表示領域が複数ある場合は、重要度があらかじめ定められた表示領域決定用閾値以下であり、かつ、最も重要度が小さい表示領域を、前記表示物を表示すべき表示領域に決定する
     ことを特徴とする請求項3記載の音声認識装置。
  5.  前記表示物表示態様決定部は、前記他の表示領域が複数ある場合であって、当該他の表示領域の重要度が同値である場合は、ランダムに決定した表示領域、または、あらかじめ定められた優先順位に従って当該優先順位の一番高い表示領域を、前記表示物を表示すべき表示領域に決定する
     ことを特徴とする請求項3記載の音声認識装置。
  6.  前記表示物表示態様決定部は、前記複数の表示領域のうちのすべての表示領域の重要度があらかじめ定められた表示領域決定用閾値より大きい場合は、前記表示物を表示すべき表示領域がないことを決定し、
     前記表示物描画部は、前記表示物表示態様決定部による決定に基づいて、前記表示物を表示しないよう前記表示部に対して指示出力する
     ことを特徴とする請求項1記載の音声認識装置。
  7.  前記表示物表示態様決定部は、前記複数の表示領域のうちのすべての表示領域の重要度があらかじめ定められた表示領域決定用閾値より大きい場合は、前記表示領域に表示されている表示物を消去する、または、前記表示領域に表示されている表示物をその表示領域の重要度が前記あらかじめ定められた表示領域決定用閾値以下になるまで消去することを決定し、
     前記表示物描画部は、前記表示物表示態様決定部による決定に基づいて、前記表示物を消去するよう前記表示部に対して指示出力する
     ことを特徴とする請求項1記載の音声認識装置。
  8.  前記表示物描画部は、前記表示物表示態様決定部により決定された表示領域または表示形態の少なくとも一方に基づいて、前記表示物を表示するよう前記表示部に指示出力した後、あらかじめ定められた時間が経過するまでは、前記表示部に対して指示出力しない
     ことを特徴とする請求項1記載の音声認識装置。
  9.  前記表示物表示態様決定部は、前記表示物が表示される表示領域の重要度に応じて前記表示物の大きさを決定する
     ことを特徴とする請求項1記載の音声認識装置。
  10.  前記表示物表示態様決定部は、前記表示物が表示される表示領域の重要度に応じて当該表示領域における前記表示物の最大表示個数を決定する
     ことを特徴とする請求項1記載の音声認識装置。
  11.  前記表示物表示態様決定部は、前記表示物が表示される表示領域の重要度に応じて前記表示物の透過度を決定する
     ことを特徴とする請求項1記載の音声認識装置。
  12.  前記表示物表示態様決定部は、前記表示物が表示される表示領域の重要度に応じて前記表示物の情報量を決定する
     ことを特徴とする請求項1記載の音声認識装置。
  13.  前記表示物表示態様決定部は、前記表示物が表示される表示領域の重要度に応じて前記表示物の前記表示領域における表示時間を決定する
     ことを特徴とする請求項1記載の音声認識装置。
  14.  前記表示物表示態様決定部は、前記表示物が表示される表示領域の重要度があらかじめ定められた表示形態決定用閾値より大きい場合は、当該重要度に応じて前記表示物の表示形態を決定する
     ことを特徴とする請求項1記載の音声認識装置。
  15.  前記音声認識装置は、前記表示部に地図を表示して移動体の道案内を行うナビゲーション装置に適用されるものであり、
     前記表示領域重要度計算部は、前記表示部に表示された前記移動体の進行方向または進行予定方向と前記表示領域との位置関係に基づいて、前記重要度を計算する
     ことを特徴とする請求項1記載の音声認識装置。
  16.  前記音声認識装置は、前記表示部に地図を表示して移動体の道案内を行うナビゲーション装置に適用されるものであり、
     前記表示領域重要度計算部は、前記表示領域における前記地図上の交通情報の表示状況に基づいて、前記重要度を計算する
     ことを特徴とする請求項1記載の音声認識装置。
  17.  前記音声認識装置は、前記表示部に地図を表示して移動体の道案内を行うナビゲーション装置に適用されるものであり、
     前記表示領域重要度計算部は、前記表示領域における前記地図上のアイコンの表示状況に基づいて、前記重要度を計算する
     ことを特徴とする請求項1記載の音声認識装置。
  18.  前記音声認識装置は、前記表示部に地図を表示して移動体の道案内を行うナビゲーション装置に適用されるものであり、
     前記表示領域重要度計算部は、前記移動体が走行中の道路種別に基づいて、前記重要度を計算する
     ことを特徴とする請求項1記載の音声認識装置。
  19.  前記音声認識装置は、前記表示部に地図を表示して移動体の道案内を行うナビゲーション装置に適用されるものであり、
     前記表示領域重要度計算部は、前記移動体が走行中の地域種別に基づいて、前記重要度を計算する
     ことを特徴とする請求項1記載の音声認識装置。
  20.  前記音声認識装置は、前記表示部に地図を表示して移動体の道案内を行うナビゲーション装置に適用されるものであり、
     前記表示領域重要度計算部は、前記表示部に表示されている地図の表示スケールに基づいて、前記重要度を計算する
     ことを特徴とする請求項1記載の音声認識装置。
  21.  前記音声認識装置は、前記表示部に地図を表示して移動体の道案内を行うナビゲーション装置に適用されるものであり、
     前記表示領域重要度計算部は、前記表示領域における案内情報/警告情報の表示状況に基づいて、前記重要度を計算する
     ことを特徴とする請求項1記載の音声認識装置。
  22.  前記音声認識装置は、前記表示部に地図を表示して移動体の道案内を行うナビゲーション装置に適用されるものであり、
     前記表示領域重要度計算部は、前記移動体の走行状況または前記移動体の周辺環境状況に基づいて、前記重要度を計算する
     ことを特徴とする請求項1記載の音声認識装置。
  23.  前記表示領域重要度計算部は、前記表示領域に表示される表示物の内容と前記表示部に表示されている表示画面との関連性に基づいて、前記重要度を計算する
     ことを特徴とする請求項1記載の音声認識装置。
  24.  前記表示領域重要度計算部は、前記表示領域に表示されている他の表示物に基づいて、前記重要度を計算する
     ことを特徴とする請求項1記載の音声認識装置。
  25.  前記表示領域重要度計算部は、前記表示部に表示されている表示画面の表示モードに基づいて、前記重要度を計算する
     ことを特徴とする請求項1記載の音声認識装置。
  26.  ユーザにより発話された音声を認識して認識結果に対応する表示物を複数の表示領域を有する表示装置に表示させる音声認識装置であって、
     前記ユーザにより発話された音声を検知して取得する音声取得部と、
     前記音声取得部により取得された音声データを認識し、認識結果を出力する音声認識部と、
     前記音声認識部により出力された認識結果に対応する表示物を生成する表示物生成部と、
     前記表示装置における複数の表示領域ごとの重要度を計算する表示領域重要度計算部と、
     前記表示領域重要度計算部により計算された重要度に基づいて、前記表示物生成部により生成された表示物を表示すべき表示領域または前記表示物の表示形態の少なくとも一方を決定する表示物表示態様決定部と、
     前記表示物表示態様決定部により決定された表示領域または表示形態に基づいて、前記表示物を表示するよう前記表示装置に対して指示出力する表示物描画部と
     を備えることを特徴とする音声認識装置。
  27.  音声認識装置が、ユーザにより発話された音声を認識して認識結果に対応する表示物を複数の表示領域を有する表示装置に表示させる表示方法であって、
     音声取得部が、前記ユーザにより発話された音声を検知して取得するステップと、
     音声認識部が、前記音声取得部により取得された音声データを認識し、認識結果を出力するステップと、
     表示物生成部が、前記音声認識部により出力された認識結果に対応する表示物を生成するステップと、
     表示領域重要度計算部が、前記表示装置における複数の表示領域ごとの重要度を計算するステップと、
     表示物表示態様決定部が、前記表示領域重要度計算部により計算された重要度に基づいて、前記表示物生成部により生成された表示物を表示すべき表示領域または前記表示物の表示形態の少なくとも一方を決定するステップと、
     表示物描画部が、前記表示物表示態様決定部により決定された表示領域または表示形態に基づいて、前記表示物を表示するよう前記表示装置に対して指示出力するステップと
     を備えたことを特徴とする表示方法。
PCT/JP2014/053768 2014-02-18 2014-02-18 音声認識装置および表示方法 WO2015125212A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201480004432.8A CN105008859B (zh) 2014-02-18 2014-02-18 语音识别装置及显示方法
US14/648,971 US9864577B2 (en) 2014-02-18 2014-02-18 Voice recognition device and display method
JP2015515745A JP5893217B2 (ja) 2014-02-18 2014-02-18 音声認識装置および表示方法
PCT/JP2014/053768 WO2015125212A1 (ja) 2014-02-18 2014-02-18 音声認識装置および表示方法
DE112014000297.6T DE112014000297T5 (de) 2014-02-18 2014-02-18 Spracherkennungsvorrichtung und Anzeigeverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/053768 WO2015125212A1 (ja) 2014-02-18 2014-02-18 音声認識装置および表示方法

Publications (1)

Publication Number Publication Date
WO2015125212A1 true WO2015125212A1 (ja) 2015-08-27

Family

ID=53877753

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/053768 WO2015125212A1 (ja) 2014-02-18 2014-02-18 音声認識装置および表示方法

Country Status (5)

Country Link
US (1) US9864577B2 (ja)
JP (1) JP5893217B2 (ja)
CN (1) CN105008859B (ja)
DE (1) DE112014000297T5 (ja)
WO (1) WO2015125212A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017067528A (ja) * 2015-09-29 2017-04-06 アイシン・エィ・ダブリュ株式会社 情報提供システム、情報提供方法及びコンピュータプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5762656B2 (ja) * 2013-03-01 2015-08-12 三菱電機株式会社 車両位置表示制御装置および車両位置特定プログラム
KR101770187B1 (ko) * 2014-03-27 2017-09-06 한국전자통신연구원 음성 대화를 통한 네비게이션 제어 장치 및 방법
CN105912187A (zh) * 2015-12-30 2016-08-31 乐视致新电子科技(天津)有限公司 语音控制方法及其设备
US11176930B1 (en) * 2016-03-28 2021-11-16 Amazon Technologies, Inc. Storing audio commands for time-delayed execution
KR102480728B1 (ko) * 2017-11-10 2022-12-23 삼성전자주식회사 전자장치 및 그 제어방법
KR102446637B1 (ko) * 2017-12-28 2022-09-23 삼성전자주식회사 음향 출력 시스템 및 음성 처리 방법
US11120593B2 (en) 2019-05-24 2021-09-14 Rovi Guides, Inc. Systems and methods for dynamic visual adjustments for a map overlay
US11674818B2 (en) * 2019-06-20 2023-06-13 Rovi Guides, Inc. Systems and methods for dynamic transparency adjustments for a map overlay
CN110509931B (zh) * 2019-08-28 2021-02-19 广州小鹏汽车科技有限公司 语音问答的信息展示方法、装置和系统
US20230153060A1 (en) * 2021-11-18 2023-05-18 International Business Machines Corporation Dynamic display accommodations for multiple voice commands

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09243381A (ja) * 1996-03-12 1997-09-19 Fujitsu Ten Ltd ナビゲーションシステムの表示装置
JPH113032A (ja) * 1997-06-11 1999-01-06 Toyota Motor Corp 地図上の情報表示方法
JP2006178898A (ja) * 2004-12-24 2006-07-06 Mitsubishi Electric Corp 地点検索装置
JP2013231660A (ja) * 2012-04-27 2013-11-14 Toyota Motor Corp 情報提示装置及び情報配信システム、並びに情報提示方法及び情報配信方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006145494A (ja) * 2004-11-24 2006-06-08 Matsushita Electric Ind Co Ltd 目的地設定支援装置
DE102005020151A1 (de) 2005-04-29 2006-11-02 Volkswagen Ag Verfahren zum Steuern einer Anzeigevorrichtung in einem Kraftfahrzeug und Anzeigevorrichtung
KR100819234B1 (ko) * 2006-05-25 2008-04-02 삼성전자주식회사 네비게이션 단말의 목적지 설정 방법 및 장치
JP2008004818A (ja) 2006-06-23 2008-01-10 Fujifilm Corp 固体撮像素子及びこれを備えたデジタルカメラ
JP4736982B2 (ja) 2006-07-06 2011-07-27 株式会社デンソー 作動制御装置、プログラム
US20090182562A1 (en) * 2008-01-14 2009-07-16 Garmin Ltd. Dynamic user interface for automated speech recognition
JP4670937B2 (ja) * 2008-11-04 2011-04-13 トヨタ自動車株式会社 ナビゲーション装置
JP4973722B2 (ja) * 2009-02-03 2012-07-11 株式会社デンソー 音声認識装置、音声認識方法、及びナビゲーション装置
US20110283226A1 (en) 2010-05-15 2011-11-17 International Business Machines Corporation Window display management in a graphical user interface
EP2761419A1 (en) * 2011-09-30 2014-08-06 Van Der Westhuizen, Willem Morkel Method for human-computer interaction on a graphical user interface (gui)

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09243381A (ja) * 1996-03-12 1997-09-19 Fujitsu Ten Ltd ナビゲーションシステムの表示装置
JPH113032A (ja) * 1997-06-11 1999-01-06 Toyota Motor Corp 地図上の情報表示方法
JP2006178898A (ja) * 2004-12-24 2006-07-06 Mitsubishi Electric Corp 地点検索装置
JP2013231660A (ja) * 2012-04-27 2013-11-14 Toyota Motor Corp 情報提示装置及び情報配信システム、並びに情報提示方法及び情報配信方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017067528A (ja) * 2015-09-29 2017-04-06 アイシン・エィ・ダブリュ株式会社 情報提供システム、情報提供方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JP5893217B2 (ja) 2016-03-23
CN105008859A (zh) 2015-10-28
DE112014000297T5 (de) 2015-11-12
JPWO2015125212A1 (ja) 2017-03-30
CN105008859B (zh) 2017-12-05
US20160011854A1 (en) 2016-01-14
US9864577B2 (en) 2018-01-09

Similar Documents

Publication Publication Date Title
JP5893217B2 (ja) 音声認識装置および表示方法
JP5921722B2 (ja) 音声認識装置および表示方法
JP5762660B2 (ja) 音声認識装置、認識結果表示装置および表示方法
US20210166275A1 (en) System and method for providing content to a user based on a predicted route identified from audio or images
WO1999060338A1 (fr) Dispositif de traitement de donnees et systeme de navigation pour pietons utilisant ce dispositif
JPWO2014006690A1 (ja) 音声認識装置
JP6214297B2 (ja) ナビゲーション装置および方法
JP2001027536A (ja) ナビゲーション装置
CN102405395A (zh) 导航装置
JP2007241122A (ja) 音声認識装置、音声認識方法、音声認識プログラム、および記録媒体
JP2007003602A (ja) 音声認識装置及びこれを備えた車両用走行誘導装置
JP2011220861A (ja) ナビゲーションシステム、車載ナビゲーション装置、及び携帯端末
JPH08328584A (ja) 音声認識装置、音声認識方法及びナビゲーション装置
JP4985505B2 (ja) 音出力装置及びプログラム
KR100759835B1 (ko) 네비게이션 시스템에서 터치스크린을 이용한 우회영역설정방법
JP2020106997A (ja) 車載装置、通信システム
JP4641851B2 (ja) 走行地点案内装置および走行地点案内方法
JP2011227002A (ja) 車載用ナビゲーション装置
JP2001215994A (ja) 音声認識住所検索装置と車載ナビゲーション装置
JP2008224444A (ja) ナビゲーション装置
JP2009210529A (ja) 地図表示装置
JP2007278721A (ja) 情報処理装置、情報処理方法、情報処理プログラムおよびコンピュータに読み取り可能な記録媒体
WO2007123104A1 (ja) 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体
JP2006195909A (ja) 施設検索装置
WO2007116712A1 (ja) 音声認識装置、音声認識方法、音声認識プログラム、および記録媒体

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015515745

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14648971

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1120140002976

Country of ref document: DE

Ref document number: 112014000297

Country of ref document: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14883225

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 14883225

Country of ref document: EP

Kind code of ref document: A1