WO2015128960A1 - 車載制御装置および車載制御方法 - Google Patents

車載制御装置および車載制御方法 Download PDF

Info

Publication number
WO2015128960A1
WO2015128960A1 PCT/JP2014/054669 JP2014054669W WO2015128960A1 WO 2015128960 A1 WO2015128960 A1 WO 2015128960A1 JP 2014054669 W JP2014054669 W JP 2014054669W WO 2015128960 A1 WO2015128960 A1 WO 2015128960A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
operation key
vehicle
information
voice recognition
Prior art date
Application number
PCT/JP2014/054669
Other languages
English (en)
French (fr)
Inventor
匠 武井
太郎 熊谷
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US15/111,236 priority Critical patent/US9881605B2/en
Priority to DE112014006409.2T priority patent/DE112014006409T5/de
Priority to CN201480076456.4A priority patent/CN106030697B/zh
Priority to JP2016504908A priority patent/JPWO2015128960A1/ja
Priority to PCT/JP2014/054669 priority patent/WO2015128960A1/ja
Publication of WO2015128960A1 publication Critical patent/WO2015128960A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the present invention relates to an in-vehicle control device and an in-vehicle control method for instructing execution of a function assigned to an operation key displayed on a display device connected to an in-vehicle device.
  • an in-vehicle information device such as a general car navigation device
  • a physical function corresponding to the touch panel and each operation key is used.
  • An operation key displayed on the display screen is specified and operated by a key or an operation device such as a rotary switch or a cross key.
  • Patent Document 1 discloses an in-vehicle control system in which a driver does not release his / her hand from a steering wheel when operating a shift control device of an automatic transmission or vehicle equipment.
  • a technique for providing a vehicle control device capable of controlling the vehicle is disclosed.
  • the present invention has been made to solve the above-described problems, and facilitates operation during driving when operating a plurality of operation keys displayed on a display connected to an in-vehicle device. It is an object of the present invention to provide an in-vehicle control device and an in-vehicle control method that do not hinder driving and can provide a user with control instructions corresponding to operations that can be accepted according to display contents in an easy-to-understand manner. To do.
  • the present invention provides an in-vehicle control device that controls an in-vehicle device mounted on a vehicle, and displays information on a plurality of operation keys displayed on a display connected to the in-vehicle device.
  • the key information receiving unit Received by the key information receiving unit, the key information receiving unit that dynamically receives the voice uttered by the user using the voice recognition dictionary, and the key information receiving unit.
  • An operation key specifying unit that specifies an operation key corresponding to the voice uttered by the user based on the operation key information that has been performed and a voice recognition result by the voice recognition unit, and an operation key that is specified by the operation key specifying unit
  • a control unit that receives an output from a determination key for selecting the vehicle and instructs the in-vehicle device to execute a function assigned to the specified operation key.
  • the operation can be performed without directly touching the plurality of operation keys displayed on the display unit and without requiring complicated key operations.
  • only one determination key is installed on the steering wheel, and the operation key displayed on the display can be safely operated without the user releasing his / her hand from the steering wheel during driving.
  • FIG. 1 is a block diagram illustrating an example of an in-vehicle control device according to Embodiment 1.
  • FIG. 3 is a flowchart showing the operation of the in-vehicle control device in the first embodiment.
  • Embodiment 1 it is a figure which shows an example of the menu screen in which the some operation key is displayed on the display screen of a display. It is a table
  • FIG. 10 is a block diagram illustrating an example of an in-vehicle control device according to a third embodiment.
  • FIG. 12 is a flowchart showing the operation of the in-vehicle control device in the third embodiment.
  • 10 is another example of a flowchart showing the operation of the in-vehicle control device in the third embodiment.
  • FIG. 10 is a block diagram illustrating another example of the in-vehicle control device according to Embodiment 3. It is a block diagram which shows an example of the vehicle-mounted control apparatus by Embodiment 4.
  • 14 is a flowchart showing the operation of the in-vehicle control device in the fourth embodiment.
  • FIG. 10 is a block diagram illustrating an example of an in-vehicle control device according to a fifth embodiment. 14 is a flowchart showing the operation of the in-vehicle control device in the fifth embodiment.
  • 14 is a flowchart showing the operation of the in-vehicle control device in the sixth embodiment.
  • 20 is a table showing an example of operation key information (recognized keywords, execution commands and coordinate information corresponding to each operation key) in the sixth embodiment.
  • an in-vehicle control device that controls various in-vehicle devices mounted on a vehicle by a user operation
  • the operation of a plurality of operation keys displayed on a display connected to the in-vehicle device is determined as voice recognition and one determination. This is done by key.
  • FIG. 1 is a block diagram showing an example of an in-vehicle control device according to Embodiment 1 of the present invention.
  • the in-vehicle control device 10 is connected to an in-vehicle device 1 to be controlled, and includes a key information receiving unit 11, a voice recognition unit 12, a voice recognition dictionary 13, an operation key specifying unit 14, and a control unit 15.
  • the in-vehicle device 1 and the in-vehicle control device 10 cooperate to control the operation of the in-vehicle device 1.
  • the in-vehicle control device 10 is connected to a microphone 3 and one determination key 4, and the in-vehicle device 1 is connected to a display 2.
  • the in-vehicle device 1 connected to the in-vehicle control device 10 includes, for example, a display device having an operation control function, such as a car navigation device, a HUD (Head-Up Display), an instrument panel, a device having a display device, or the like. Any device that is accompanied by display and operation, such as a device connected to a display device, may be used, and the vehicle-mounted control device 10 itself may be incorporated in these devices.
  • the form of connection may be wired or wireless such as Bluetooth (registered trademark) or Wi-Fi (registered trademark), or may be configured as a server on the network.
  • the determination key 4 is described here as an H / W switch installed on the steering wheel (handle) of the vehicle, but does not limit the installation location or the form of the switch, and performs a determination operation. Any switch may be used.
  • the operation control of the in-vehicle device 1 may be performed by using a conventional operation device such as a touch panel, an H / W switch, a rotary switch, a cross key, and a remote controller in combination.
  • the in-vehicle device 1 transmits information on the operation keys displayed on the display device 2 to the in-vehicle control device 10, receives an execution command corresponding to each operation key from the in-vehicle control device 10, and corresponds to the operation key (assigned). Execute the function.
  • the function corresponding to (assigned to) the operation key refers to a function executed when the operation key is selected, for example, transition to a predetermined screen or music playback.
  • the operation keys displayed on the display device 2 are not limited to the operation keys displayed on the display device 2 strictly.
  • the operation keys do not fit in the display area of the display device 2.
  • the key information receiving unit 11 receives information on a plurality of operation keys displayed on the display 2 connected to the in-vehicle device 1 from the connected in-vehicle device 1.
  • the operation key information is dynamically received in accordance with a change in the display content displayed on the display device 2. That is, as the display content displayed on the display 2 changes dynamically, the received operation key information also changes dynamically.
  • the voice recognition unit 12 has a voice recognition dictionary 13 and performs A / D conversion on sounds collected by the microphone 3 or the like (voices spoken by the user) and obtains them in, for example, a PCM (Pulse Code Modulation) format.
  • the voice recognition processing is performed by collating the voice feature quantity with the voice recognition dictionary 13.
  • the speech recognition process may be performed by using a general method such as Hidden Markov Model.
  • the voice recognition unit 12 may use a voice recognition server on the network.
  • the voice recognition dictionary 13 is configured to be able to recognize a keyword or the like used for a key specifying process in an operation key specifying unit 14 to be described later, and the voice recognition unit 12 selects a keyword included in the utterance. Output as a sound recognition result (hereinafter referred to as “recognition keyword”).
  • voice recognition start instruction unit a button or the like for instructing the start of voice recognition (hereinafter referred to as “voice recognition start instruction unit”) is displayed on the touch panel or installed on the steering wheel. Then, after the user presses the voice recognition start instruction unit, the spoken voice is recognized. That is, when the voice recognition start instruction unit outputs a voice recognition start signal and the voice recognition unit receives the signal, it waits for the user's utterance and performs the above-described recognition processing.
  • the voice recognition unit 12 always recognizes the content of the user's utterance even if the voice recognition start instruction is not given by the user as described above. That is, the voice recognition unit 12 performs the recognition process using the recognition dictionary without receiving the voice recognition start signal, and repeatedly performs the process of outputting the keyword included in the voice recognition result.
  • the above description always recognizes the content of the user's utterance, but for the purpose of reducing the usage of the CPU, memory, etc., the sound input from the microphone based on the characteristics of the input sound (for example, input volume etc.) is sounded.
  • the recognition process may be performed only when it can be determined. The same applies to the following embodiments.
  • the operation key specifying unit 14 specifies an operation key corresponding to the voice uttered by the user based on the operation key information received by the key information receiving unit 11 and the voice recognition result by the voice recognition unit 12. Specifically, the operation key information acquired by the key information receiving unit 11 is referred to, and an operation key execution command corresponding to the recognition keyword acquired from the voice recognition unit 12 is specified.
  • the control unit 15 receives an output from the determination key 4 for selecting each operation key specified by the operation key specifying unit 14 and transmits an execution command corresponding to the specified operation key to the in-vehicle device 1, thereby The in-vehicle device 1 is instructed to execute the function assigned to the operation key.
  • the execution command may be in any form as long as it can uniquely identify the operation key in accordance with a predetermined rule such as a numeric string or character string ID, an electric signal pattern, or an operation key name. Good. The same applies to the following embodiments.
  • the in-vehicle control device 10 is an audio integrated car navigation device.
  • the key information receiving unit 11 receives the operation key information displayed on the display 2 from the connected car navigation device (on-vehicle device 1) (step ST1). For example, as shown in FIG. 3, if four operation keys of [Play], [Stop], [Next Song], and [Previous Song] are displayed on the display screen of the display device 2, FIG. As shown, the operation key information includes at least one recognition keyword corresponding to each operation key and execution command information.
  • FIG. 3 is a diagram showing an example of a menu screen in which a plurality of operation keys are displayed on the display screen of the display device 2 in the first embodiment.
  • FIG. 4 is a table showing an example of operation key information (recognized keywords and execution commands corresponding to the operation keys) in the case of FIG.
  • the recognition keyword of the operation key [play] is “play”
  • the execution command code is “0001”
  • the recognition keyword of the operation key [stop] is “stop”
  • the execution command code is “0010”
  • the operation The recognition keyword for the key [next song] is “next song”
  • the execution command code is “0011”
  • the recognition keyword for the operation key [previous song] is “previous song”
  • the execution command code is “ 0100 ".
  • the voice recognition unit 12 performs voice recognition using the voice recognition dictionary 13 from the voice signal input from the microphone 3, and outputs a recognition keyword included in the utterance (step ST2).
  • the operation key specifying unit 14 refers to the operation key information acquired from the key information receiving unit 11 using the recognition keyword acquired from the voice recognition unit 12, and whether there is an operation key corresponding to the voice recognition result. Is determined (step ST3). Specifically, it is determined whether or not there is an operation key that matches a recognition keyword that is a voice recognition result.
  • step ST3 If there is no operation key corresponding to the voice recognition result (recognition keyword) in the operation key information (NO in step ST3), the process returns to step ST2 and the voice recognition unit 12 performs the voice recognition process again. Do.
  • the key information receiving unit 11 dynamically receives operation key information in accordance with a change in the display content of the display 2. This will be specifically described with reference to FIG. FIG. 5 is an explanatory diagram showing a specific example of the operation of the car navigation device (on-vehicle device 1), the display content of the display 2, the operation key information, and the user operation.
  • FIG. 5A it is assumed that a main menu having five operation keys [Destination setting] [Audio] [Route editing] [Help] and [Back] is displayed on the display 2. .
  • the operation key information received by the key information receiving unit 11 is as shown in FIG.
  • the operation key information received by the key information receiving unit 11 is as shown in FIG. In this state, for example, as shown in FIG. 5 (f), when the user speaks ““ all songs ”” and presses the enter key 4, all song list screens are displayed on the display 2 (all To the song list screen.)
  • the operation can be performed without touching a plurality of operation keys displayed on the display unit and without requiring complicated key operations.
  • only one determination key is installed on the steering wheel, and the operation key displayed on the display can be safely operated without the user releasing his / her hand from the steering wheel during driving.
  • the operation key can be operated, that is, the operation key information is dynamically received according to the change in the display content of the display, so that even if the displayed operation key is changed, it can be dynamically followed, or Operation is possible in response to pop-up notifications.
  • UI User Interface
  • the in-vehicle control device 10 creates a dictionary from words (recognition keywords) corresponding to at least the operation keys displayed on the display device 2 based on the displayed operation key information.
  • the speech recognition unit 12 may further include a creation unit 16 that recognizes speech uttered by the user using the speech recognition dictionary 17 created by the dictionary creation unit 16.
  • reading information such as phonemes is required for recognizing speech.
  • This information may be embedded in the operation key information so as to correspond to the recognition keyword, and the operation of the operation key information. Reading information may be given or estimated from text information such as key name and recognition keyword information by morphological analysis processing or the like.
  • the morphological analysis processing may be performed using a general method such as HiddendMarkov Model as used in the above-described speech recognition processing.
  • the speech recognition dictionary 17 is created according to the dynamic change of the display content, so that the number of words that are subject to speech recognition can be kept to the minimum necessary. For this reason, it is possible to prevent erroneous recognition of words not related to operations, or to reduce the time required for voice recognition and improve voice recognition performance (accuracy, response speed, etc.). Can perform comfortable operation.
  • the in-vehicle control device 10 further includes a motion recognition unit 18 that recognizes the user's body motion instead of the determination key 4, and the control unit 15 intends to execute by the motion recognition unit 18.
  • a motion recognition unit 18 that recognizes the user's body motion instead of the determination key 4, and the control unit 15 intends to execute by the motion recognition unit 18.
  • an instruction may be given to execute the function assigned to the specified operation key.
  • the body motion recognition process by the motion recognition unit 18 may be performed by using general pattern recognition using the camera 5.
  • an acceleration sensor is attached to the head and a predetermined direction is set in a predetermined direction. If the strength is detected, it may be determined that the user nodded.
  • the in-vehicle control device 10 is realized as a specific means in which hardware and software cooperate by the microcomputer of the in-vehicle device 1 to which the in-vehicle control device 10 is applied executing a program related to processing unique to the present invention. The same applies to the following embodiments.
  • FIG. FIG. 8 is a block diagram showing an example of an in-vehicle control device according to Embodiment 2 of the present invention.
  • symbol is attached
  • the in-vehicle control device 10 further includes a reception information notifying unit 19 as compared with the first embodiment, and the identified operation based on the result of the operation key specifying by the operation key specifying unit 14. Display of reception of execution instruction of key, continued reception of execution instruction, or at least one of specified operation key information is displayed by connected speaker 6 or through in-vehicle device 1 The device 2 is informed. Although illustration is omitted, a speaker connected to the in-vehicle device 1 may be used.
  • FIG. 9 is a flowchart showing the operation of the in-vehicle control device 10 according to the second embodiment.
  • the in-vehicle device 1 to be connected is an audio-integrated car navigation device.
  • step ST11 to ST14 The processing until the operation key is specified by the operation key specifying unit (steps ST11 to ST14) is the same as steps ST1 to ST4 in the flowchart shown in FIG.
  • the reception information notifying unit 19 specifies the operation key by the operation key specifying unit 14, and instructs the execution of the operation key. It is specified that the reception is possible, that the operation key is identified and information about the specified operation key is specified and that the execution instruction reception of the operation key is started, and that the execution instruction reception is being continued. At least one of the information on the operation keys is notified (step ST15).
  • a sound effect or music is played from the connected speaker 6, or the brightness and color of the display screen of the display unit 2 are changed. For example, it is notified that the operation key is specified and the execution instruction for the operation key can be received.
  • the operation key name (for example, “playback”) etc. is used for each operation key using recorded voice or TTS (Text to Speech) technology by voice synthesis. You may make it read out.
  • a visual effect on the operation key displayed on the display device 2 for example, as shown in FIG. 10B, a figure indicating the specification near the selected operation key is lit around the specified operation key. It may be displayed, an icon is displayed, or the brightness, color, shape, size, etc. of the operation key part may be changed.
  • FIG. 10 is a diagram illustrating an example of transition from the menu screen in which a plurality of operation keys are displayed on the display screen of the display device 2 in the second embodiment.
  • a main menu having five operation keys [Destination setting] [Audio] [Route editing] [Help] and [Back] is displayed on the display 2. .
  • a highlight display 40 is displayed, such as only the operation key “audio” is surrounded by a frame. By being added, it is notified so that the user can visually recognize that the execution instruction of the operation key can be received.
  • the display unit 2 displays [artist] [album] [all songs] [search] and [return] 5.
  • One operation key is displayed. Subsequent operations and screen transitions are omitted.
  • the operation key is specified because the timing at which the execution instruction can be accepted or at least one of the specified operation keys can be confirmed before the execution instruction. It is possible to suppress inconvenience that an execution instruction is not accepted even if the enter key is pressed before, and an erroneous operation (an operation different from the user's intention) caused by specifying an operation key different from the intention.
  • the in-vehicle control device 10 further includes a vehicle information acquisition unit 20 that acquires vehicle information, and the reception information notification unit 19 is acquired from the various sensors 7 by the vehicle information acquisition unit 20.
  • the method for notifying the specified operation key may be changed according to vehicle information such as the vehicle speed or the steering angle of the steering wheel.
  • the traveling speed of the vehicle is less than a predetermined value, it is determined that there is room for viewing the screen.
  • the display unit 2 is instructed to perform notification by screen display that does not require time for transmission of notification information.
  • the speaker 6 it is conceivable to instruct the speaker 6 to perform notification (sound guidance or the like) using sound that does not require viewing the screen.
  • step ST16 the execution command sent from the operation key specific
  • 10 is transmitted to the in-vehicle device 1 connected to 10 (step ST17), and the in-vehicle device 1 executes a corresponding function.
  • the vehicle when the vehicle is stopped, it can be operated lightly by notifying on the screen display, and when driving, it can be operated safely by notifying by voice output.
  • the user's driving load is high, safety can be emphasized and the user can be notified of the specified operation keys, so that the user can operate safely and comfortably according to the driving situation. It becomes possible, and the inconvenience of operation can be improved.
  • the vehicle information here includes road information such as the road width and curve (straightness) of the road on which the vehicle travels, time information during travel, and the like.
  • road information such as the road width and curve (straightness) of the road on which the vehicle travels, time information during travel, and the like.
  • the predetermined value of the traveling speed is determined according to the ease of traveling so that information on the position of the host vehicle and the width of the traveling vehicle can be acquired from information such as the connected navigation device (on-vehicle device 1). You may make it change (threshold).
  • FIG. FIG. 12 is a block diagram showing an example of an in-vehicle control device according to Embodiment 3 of the present invention.
  • symbol is attached
  • the in-vehicle control device 10 further includes a reception period setting unit 21 as compared with the first embodiment, and executes the function assigned to the operation key specified by the operation key specifying unit 14.
  • the control unit 15 is configured to receive an execution instruction only within the reception period set by the reception period setting unit 21.
  • FIG. 13 is a flowchart illustrating the operation of the in-vehicle control device 10 according to the third embodiment.
  • the on-vehicle device 1 to be connected is an audio-integrated car navigation device.
  • step ST21 to ST24 The processing until the operation key is specified by the operation key specifying unit 14 (steps ST21 to ST24) is the same as steps ST1 to ST4 in the flowchart shown in FIG.
  • the reception period setting part 21 received the result of the operation key specification by the operation key specific
  • a predetermined reception period for example, 10 seconds is set (step ST25).
  • control unit 15 waits for the user to press the enter key as in the first embodiment. .
  • the determination key press from the user is not detected even after a predetermined reception period (10 seconds) has elapsed since the operation key was specified (when step ST27 is NO and step ST26 is YES).
  • the speech recognition unit 12 performs speech recognition processing again.
  • control part 15 will detect the execution command sent from the operation key specific
  • the acceptance period elapses until the determination key is pressed
  • the recognized word is canceled.
  • you can start over from voice recognition by re-speaking after the acceptance period User operation comfort can be improved.
  • the voice recognition unit 12 operates during the reception period after the predetermined reception period is set in step ST ⁇ b> 25, and the voice recognition result by the voice recognition unit 12 is changed.
  • the operation key specifying unit 14 may specify the operation key again based on the voice recognition result after the change.
  • step ST26 and ST27 are NO and step ST29 is YES
  • the process returns to step ST22 and the speech recognition unit 12 performs speech recognition processing again.
  • the utterance can be repeated even if the predetermined period has not elapsed. It is possible to easily correct misrecognition and improve user operation comfort.
  • the in-vehicle control device 10 further includes a vehicle information acquisition unit 20 that acquires vehicle information, and the reception period setting unit 21 uses the vehicle information acquisition unit 20 to perform various sensors (such as a vehicle speed sensor).
  • the reception period may be changed (variable) according to vehicle information such as the vehicle speed acquired from 7 or the steering angle of the steering wheel.
  • the vehicle information includes road information such as a road width and a curve (straight line) of a road on which the vehicle travels.
  • the reception period is set longer, and the steering wheel is operated less frequently. If the straight line continues for a while, it is determined that the operation load is low and the user can easily press the enter key, and the reception period is set short.
  • an appropriate reception period is set according to the user's margin due to driving load, so if there is no margin, an execution instruction cannot be given within the reception period, and for operation It is possible to reduce troublesome operations such as having to make voice recognition once again, or in the case of erroneous recognition, there is a possibility that an operation unintended by the user may occur.
  • the reception period is changed according to the ease of travel so that the information on the position of the vehicle and the width of the vehicle being traveled can be acquired from information such as the connected navigation device (vehicle-mounted device 1). You may do it.
  • FIG. FIG. 16 is a block diagram showing an example of an in-vehicle control device according to Embodiment 4 of the present invention. Note that the same components as those described in the first to third embodiments are denoted by the same reference numerals, and redundant description is omitted.
  • the in-vehicle control device 10 determines whether or not the input voice (voice spoken by the user) from the microphone 3 is an utterance intended for operation, as compared with the first embodiment.
  • the speech recognition unit 12 is further provided, and the speech recognition unit 12 performs speech recognition only for the speech for which the speech determination unit 22 determines that the input speech (speech speech) is the speech intended for the operation.
  • the aforementioned HiddenkMarkov ⁇ ⁇ ⁇ Model as used in speech recognition may be used. If you learn at least one voice feature of laughter, coughing, sneezing, or conversation between multiple people as unintentional utterances, you can identify utterances that are not intended to be operated by the input voice. It can be determined whether or not there is.
  • the position of the user who is on board does not change frequently, so by arranging a plurality of microphones, the power ratio and phase difference of the input signals of each microphone can be reduced. Since it is possible to determine whether or not a conversation is made by a plurality of persons based on the fluctuation, it is possible to determine that the conversation is an utterance not intended for an operation in the case of such a conversation by a plurality of persons. Further, when only the driver is the operation subject, it is possible to determine that the voice coming from other than the driver seat position direction is an utterance not intended for the operation.
  • FIG. 17 is a flowchart showing the operation of the in-vehicle control device 10 according to the fourth embodiment.
  • the in-vehicle device 1 to be connected is an audio-integrated car navigation device.
  • the key information receiving part 11 receives the operation key information displayed on the display 2 from the connected car navigation apparatus (vehicle equipment 1) (step ST31).
  • the utterance determination unit 22 determines whether or not the utterance is intended for an operation from the input voice from the microphone 3 by, for example, the method described above (step ST32).
  • the process waits until the voice determined to be the utterance intended for the operation is input. to continue. That is, when it is determined that the utterance is not intended for the operation, the input voice is rejected before the voice recognition process is performed.
  • the speech recognition unit 12 receives the utterance state determination result by the utterance determination unit 22 and performs speech recognition processing (step ST33). That is, the speech recognition process is performed only when it is determined in step ST32 that the speech is intended for the operation.
  • the operation key specifying unit 14 refers to the operation key information acquired from the key information receiving unit 11 using the recognition keyword acquired from the voice recognition unit 12, and whether there is an operation key corresponding to the voice recognition result. Is determined (step ST34).
  • step ST34 If there is no operation key corresponding to the voice recognition result (recognition keyword) in the operation key information and the operation key is not specified (NO in step ST34), the process returns to step ST32, and again, A speech mode determination process is performed by the speech determination unit 22.
  • step ST34 if there is an operation key corresponding to the voice recognition result and the operation key is specified, that is, if there is an operation key that matches the recognition keyword (YES in step ST34), the subsequent processing (steps ST35 to ST37) Since this is the same as steps ST4 to ST6 in the flowchart shown in FIG. 2 in the first embodiment, a description thereof will be omitted.
  • the frequency of erroneous recognition in the voice recognition process is suppressed, or an unintended operation key is executed. This can be suppressed and user comfort in operation can be improved.
  • FIG. FIG. 18 is a block diagram showing an example of an in-vehicle control device according to Embodiment 5 of the present invention. Note that the same components as those described in the first to fourth embodiments are denoted by the same reference numerals, and redundant description is omitted.
  • the vehicle-mounted control apparatus 10 of Embodiment 5 shown below acquires the speaker output sound signal output from the vehicle-mounted device 1 with respect to the speaker 8 connected to the vehicle-mounted device 1 as compared with the first embodiment.
  • An output sound removing unit 23 that removes a component of the speaker output sound from the input sound is further provided, and the speech recognition unit 12 performs speech recognition on the sound from which the component of the speaker output sound has been removed by the output sound removing unit 23. I made it.
  • an output sound removal method in the output sound removal unit 23 for example, a general speaker output sound signal and a microphone input sound signal may be used, and an adaptive filter that obtains a filter coefficient by a learning identification method may be used.
  • the speaker output sound signal can be obtained by subtracting the acoustic echo component from the audio signal input to the microphone. The influence on voice recognition accuracy can be suppressed.
  • FIG. 19 is a flowchart showing the operation of the in-vehicle control device 10 according to the fifth embodiment.
  • the on-vehicle device 1 to be connected is an audio-integrated car navigation device.
  • the key information receiving part 11 receives the operation key information displayed on the display 2 from the connected car navigation apparatus (vehicle equipment 1) (step ST41).
  • the output sound removal unit 23 receives the speaker output sound signal transmitted from the in-vehicle device 1 to the speaker 8 (step ST42), and uses the speaker output sound signal and the sound signal input from the microphone.
  • the acoustic echo component (output sound component) of the sound output from the speaker is removed from the sound input to the microphone by the method described above (step ST43).
  • the speech recognition unit 12 performs speech recognition processing on the input speech from which the speaker output sound has been removed by the output sound removal unit 23 (step ST44). Since the processes after the voice recognition process (steps ST45 to ST48) are the same as steps ST3 to ST6 in the flowchart shown in FIG.
  • the speaker output sound signal of the connected in-vehicle device 1 is removed.
  • the in-vehicle control device 10 itself, other devices, a vehicle equipped with the in-vehicle control device 10 or the like It is also possible to receive and remove the sound signal output from.
  • the acoustic echo component of the speaker output sound can be removed from the sound input to the microphone even when the car voice guidance / sound effect is being played or the music is being played back.
  • FIG. FIG. 20 is a block diagram showing an example of an in-vehicle control device according to Embodiment 6 of the present invention. Note that the same components as those described in the first to fifth embodiments are denoted by the same reference numerals, and redundant description is omitted.
  • the in-vehicle control device 10 further includes a line-of-sight detection unit 24 that detects the user's line of sight compared to the first embodiment, and the operation key specifying unit 14 is detected by the line-of-sight detection unit 24.
  • the operation key is specified using the line-of-sight information and the recognition result by the voice recognition unit 12.
  • the line-of-sight detection unit 24 detects the user's line of sight and transmits coordinate information of the line of sight to the operation key specifying unit 14.
  • the line-of-sight detection process by the line-of-sight detection unit 24 may be roughly estimated from the face direction by general pattern recognition based on an image obtained by photographing the user's face by the camera 5, for example.
  • a corneal reflection method using light source irradiation may be used. If information on the relative positional relationship between the display 2 and the user's eyes is acquired in advance, it is possible to acquire as a coordinate value which part of the display 2 the user is viewing.
  • FIG. 21 is a flowchart showing the operation of the in-vehicle control device 10 according to the sixth embodiment.
  • the in-vehicle device 1 to be connected is an audio-integrated car navigation device, as in the first to fifth embodiments.
  • the key information receiving part 11 receives the operation key information displayed on the display 2 from the connected car navigation apparatus (vehicle equipment 1) (step ST51).
  • the coordinate information may be anything that can uniquely determine the display position, such as the upper left coordinates of the operation keys or the center coordinates, and information that can be used for identifying the size may be given.
  • the line-of-sight detection unit 24 detects the user's line-of-sight direction from the camera image photographed by the camera 5 by, for example, the method described above, and the corresponding coordinates on the display screen of the display 2 where the user is pointing the line of sight.
  • the voice recognition unit 12 performs voice recognition using the voice recognition dictionary 13 from the voice signal input from the microphone 3, and outputs a recognition keyword included in the utterance (step ST53).
  • the operation key specifying unit 14 determines the line-of-sight direction based on the line-of-sight coordinates received from the line-of-sight detection unit 24 in step ST52, the speech recognition result recognized in step ST53, and the operation key information received in step ST51. It is determined whether or not there is an operation key corresponding to the recognition result (step ST54). If there is an operation key corresponding to the viewing direction and the recognition result (YES in step ST54), the operation key corresponding to the voice recognition result. Is identified (step ST55).
  • step ST54 when there is no operation key corresponding to the voice recognition result (recognition keyword) in the operation key information within the viewable range (in the case of NO in step ST54), the process returns to step ST52 and again the line-of-sight detection unit The line of sight detection by 24 and the voice recognition processing by the voice recognition unit 12 are performed.
  • step ST55 steps ST56 to ST57
  • steps ST5 to ST6 steps ST5 to ST6 of the flowchart shown in FIG.
  • the line-of-sight direction by the line-of-sight detection unit 24 may be used so as to limit the operation target devices.
  • a dictionary creation unit 16 (see FIG. 6), and uses the coordinate position given to the operation key information and the gaze coordinates acquired by the gaze detection unit 24.
  • a voice recognition dictionary may be created so that voice recognition is limited to only operation keys included in a predetermined visible range.
  • the target of speech recognition can be limited to the recognition keyword, the accuracy of speech recognition or the response speed can be increased. This is particularly effective when, for example, the display screen of the display device 2 is large or when there are a plurality of screens (a plurality of display devices).
  • the sixth embodiment it is possible to estimate a key that the user is likely to operate by detecting the line of sight, and it is possible to suppress identification of an operation key that is different from an utterance. Execution can be suppressed and user comfort in operation can be improved.
  • the in-vehicle control device of the present invention includes, for example, a display device having an operation control function, a device having an operation control function, such as a car navigation device, a HUD (Head-Up Display), an instrument panel, or a device connected to the display device.
  • a display device having an operation control function such as a car navigation device, a HUD (Head-Up Display), an instrument panel, or a device connected to the display device.
  • a device having an operation control function such as a car navigation device, a HUD (Head-Up Display), an instrument panel, or a device connected to the display device.
  • HUD Head-Up Display
  • the present invention can be applied to any in-vehicle device as long as it is accompanied by display and operation.
  • this vehicle-mounted control apparatus itself may be incorporated in those devices.
  • 1 in-vehicle device 2 display, 3 microphone, 4 decision key, 5 camera, 6, 8 speaker, 7 various sensors, 10 in-vehicle control device, 11 key information receiving unit, 12 speech recognition unit, 13, 17 speech recognition dictionary, 14 operation key specification unit, 15 control unit, 16 dictionary creation unit, 18 motion recognition unit, 19 reception information notification unit, 20 vehicle information acquisition unit, 21 reception period setting unit, 22 utterance determination unit, 23 output sound removal unit, 24 Gaze detection unit, 30 utterances (utterance content), 40 highlighted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 この発明の車載制御装置によれば、表示器に表示された複数の操作キーの情報を受信し、当該操作キー情報に基づいてユーザ発話を音声認識した結果から対応する操作キーを特定し、ユーザの決定キーによる実行指示を受けて操作キーに割り付けられた機能を実行するようにしたので、表示器に表示された複数の操作キーに直接触れることがなく、かつ、複雑なキー操作を要することなく操作が可能となる。また、たった1つの決定キーをステアリングホイールに設置するのみで、ユーザが運転中にステアリングホイールから手を離すことなく表示器に表示された操作キーの安全な操作が可能となる。

Description

車載制御装置および車載制御方法
 この発明は、車載機器に接続された表示器に表示された操作キーに割り付けられた機能の実行を指示する車載制御装置および車載制御方法に関するものである。
 従来より、一般的なカーナビゲーション装置等の車載情報機器では、その機器に接続された表示器に表示された操作キーに割り付けられた機能を実行させるのに、タッチパネル、各操作キーに対応する物理キー、あるいは、ロータリースイッチや十字キー等の操作デバイスなどにより、表示器の画面に表示された操作キーを特定し、操作するようになっている。
 そのため、例えばタッチパネルで操作する場合は、ユーザがステアリングホイールから手を離すこととなり、運転中の操作を困難にすると共に運転に支障をきたすという問題があった。
 また、物理キーの場合は、操作キーの数に比例して物理キーの数が増大するため、操作キーの数が多い場合にはステアリングホイール上にすべての操作キーに対応する物理キーを配置することは困難であるという問題があった。
 また、ロータリースイッチや十字キーをステアリングホイール上に配置することは不可能ではないが、限られた配置スペースにこれらの比較的大きいデバイスを配置することは望ましくなく、表示器に表示された操作キーの数が増大するに従い各操作キーを特定するために複雑な操作を要することとなり、運転中の操作を困難にすると共に運転に支障をきたすという問題があった。
 このような問題を解決するものとして、例えば、特許文献1には、自動変速機の変速制御装置や車両装備機器類を操作する場合において、運転者がステアリングホイールから手を離すことなく車載制御システムを制御することができる車両制御装置を提供する技術が開示されている。
特開平8-83093号公報
 しかしながら、例えば特許文献1のような従来の技術では、表示器に表示された複数の操作キーにおいて、その操作キーの数が膨大となる場合や、その時々の状況や表示内容に応じて実行可能な操作キーが異なる場合も多く、特許文献1の発明をそのまま適用するのみではユーザにとって十分な操作性を提供することが困難な場合がある。
 具体的には、操作キーの数が膨大である場合に、そのすべての操作キーに対応する制御指令をユーザが覚えておくのは困難であると同時に、音声認識技術の問題として、ユーザの発話様態や周囲の環境などにも依存して、待ち受ける制御指令の数が増えれば増えるほど音声認識精度が低下するという課題がある。また、制御対象が増えることにより、同時に受付可能な制御指令の音声入力内容についての曖昧性が許容されなくなり、一般的にユーザは、より長い言葉を制御指令として覚える必要が生じてくるという課題もある。
 例えば、オーディオ一体型のカーナビゲーション装置において、単に「大きく」という制御指令では、[地図画面の拡大]と[オーディオの音量アップ]のいずれを意図しているかが曖昧であるため、「地図を大きく」や「音量を大きく」などと発話する必要がある。また、特定の条件下のみでしか受け付けない操作においては、たとえ、ユーザが制御指令を覚えていたとしても、どの場面で発話すべきか分からずユーザを困惑させるおそれがある。
 この発明は、上記のような課題を解決するためになされたものであり、車載機器に接続された表示器に表示された複数の操作キーを操作する場合に、運転中の操作を容易にすると共に運転に支障をきたさないようにし、かつ、表示内容に応じて受付可能な操作と対応する制御指令をユーザに分かりやすく提供することができる車載制御装置および車載制御方法を提供することを目的とする。
 上記目的を達成するため、この発明は、車両に搭載された車載機器の制御を行う車載制御装置において、前記車載機器に接続された表示器に表示された複数の操作キーの情報を、前記表示器に表示された表示内容の変化に応じて動的に受信するキー情報受信部と、音声認識辞書を用いてユーザにより発話された音声を認識する音声認識部と、前記キー情報受信部により受信された操作キー情報と前記音声認識部による音声認識結果に基づいて、前記ユーザにより発話された音声に対応する操作キーを特定する操作キー特定部と、前記操作キー特定部により特定された操作キーを選択する決定キーからの出力を受け、前記特定された操作キーに割り付けられた機能を実行するよう前記車載機器に対して指示を行う制御部とを備えることを特徴とする。
 この発明の車載制御装置によれば、表示器に表示された複数の操作キーに直接触れることがなく、かつ、複雑なキー操作を要することなく操作が可能となる。また、たった1つの決定キーをステアリングホイールに設置するのみで、ユーザが運転中にステアリングホイールから手を離すことなく表示器に表示された操作キーの安全な操作が可能となる。
実施の形態1による車載制御装置の一例を示すブロック図である。 実施の形態1における車載制御装置の動作を示すフローチャートである。 実施の形態1において、表示器の表示画面に複数の操作キーが表示されているメニュー画面の一例を示す図である。 図3の場合における操作キー情報(各操作キーに対応する認識キーワードと実行指令)の一例を示す表である。 カーナビゲーション装置(車載機器)の動作および表示器の表示内容と操作キー情報とユーザ操作の具体例を示す説明図である。 実施の形態1による車載制御装置の別の例を示すブロック図である。 実施の形態1による車載制御装置のさらに別の例を示すブロック図である。 実施の形態2による車載制御装置の一例を示すブロック図である。 実施の形態2における車載制御装置の動作を示すフローチャートである。 実施の形態2において、表示器の表示画面に複数の操作キーが表示されているメニュー画面からの遷移の一例を示す図である。 実施の形態2による車載制御装置の別の例を示すブロック図である。 実施の形態3による車載制御装置の一例を示すブロック図である。 実施の形態3における車載制御装置の動作を示すフローチャートである。 実施の形態3における車載制御装置の動作を示すフローチャートの別の例である。 実施の形態3による車載制御装置の別の例を示すブロック図である。 実施の形態4による車載制御装置の一例を示すブロック図である。 実施の形態4における車載制御装置の動作を示すフローチャートである。 実施の形態5による車載制御装置の一例を示すブロック図である。 実施の形態5における車載制御装置の動作を示すフローチャートである。 実施の形態6による車載制御装置の一例を示すブロック図である。 実施の形態6における車載制御装置の動作を示すフローチャートである。 実施の形態6における操作キー情報(各操作キーに対応する認識キーワード、実行指令および座標情報)の一例を示す表である。
 以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
 この発明は、ユーザ操作により車両に搭載された各種車載機器の制御を行う車載制御装置において、車載機器に接続された表示器に表示された複数の操作キーの操作を、音声認識と1つの決定キーにより行うものである。
実施の形態1.
 図1は、この発明の実施の形態1による車載制御装置の一例を示すブロック図である。この車載制御装置10は、制御対象となる車載機器1に接続されており、キー情報受信部11と、音声認識部12と、音声認識辞書13と、操作キー特定部14と、制御部15を備え、車載機器1と車載制御装置10とが連携して、車載機器1の操作制御を行う。また、この車載制御装置10には、マイク3と、1つの決定キー4が接続されており、車載機器1には、表示器2が接続されている。
 なお、車載制御装置10に接続される車載機器1としては、例えば、カーナビゲーション装置やHUD(Head-Up Display)、インストルメントパネルなど、操作制御機能を有する表示器、表示器を有する機器、または表示器と接続される機器など表示と操作を伴うものであれば何でもよく、この車載制御装置10自体がそれら機器に組み込まれていてもよい。接続される形態としては、有線でもよいし、Bluetooth(登録商標)やWi-Fi(登録商標)など無線でもよく、ネットワーク上のサーバとして構成してもよい。
 また、決定キー4は、ここでは車両のステアリングホイール(ハンドル)に設置されたH/Wスイッチとして説明するが、設置される場所やスイッチの形態を限定するものではなく、決定操作を実行するためのスイッチであればどのようなものであってもよい。また、図示は省略したが、車載機器1の操作制御として、タッチパネル、H/Wスイッチ、ロータリースイッチ、十字キー、リモコン等、従来の操作デバイスを併用して操作できるようにしてもよく、車載制御装置10に接続される車載機器が複数であってもよく、マイク3、および、1つの決定キー4は、車載機器1側に接続されてもよい。以下の実施の形態においても同様である。
 車載機器1は、表示器2に表示された操作キーの情報を車載制御装置10に送信し、車載制御装置10から各操作キーに対応する実行指令を受け、当該操作キーに対応する(割り付けられた)機能を実行する。この操作キーに対応する(割り付けられた)機能とは、例えば、予め規定された画面への遷移、または、音楽再生など、その操作キーを選択した場合に実行される機能をいう。
 また、表示器2に表示された操作キーとは、厳密に表示器2に表示された操作キーのみに限定するものではなく、表示器2の表示領域に収まらないなどの理由により所定の操作、例えば、画面スクロールや画面縮小または拡大や表示・非表示の切り替えにより表示されるものを含めるようにしてもよい。なお、以下の実施の形態においても同様である。
 キー情報受信部11は、接続された車載機器1から車載機器1と接続する表示器2に表示された複数の操作キーの情報を受信する。操作キー情報の具体例については後述するが、表示器2に表示された表示内容の変化に応じて動的に受信する。すなわち、表示器2に画面表示された表示内容が動的に変化するのに応じて、受信する操作キー情報も動的に変化する。
 音声認識部12は、音声認識辞書13を有し、マイク3等により集音された音(ユーザにより発話された音声)をA/D変換して、例えばPCM(Pulse Code Modulation)形式で取得し、音声の特徴量と音声認識辞書13とを照合することによって音声認識処理を行う。ここで、音声認識処理としては、例えばHidden Markov Modelのような一般的な方法を用いて行えばよい。また、音声認識部12は、ネットワーク上の音声認識サーバを使用してもよい。
 ここで、音声認識辞書13は、後述する操作キー特定部14でのキー特定処理に使用するキーワード等を認識可能なように構成されており、音声認識部12は、発話中に含まれるキーワードを音認識結果(以下、「認識キーワード」と呼ぶ)として出力する。
 ところで、カーナビゲーションシステム等に搭載されている音声認識機能においては、ユーザが発話等の開始をシステムに対して明示(指示)するのが一般的である。そのために、音声認識開始を指示するボタン等(以下、「音声認識開始指示部」と呼ぶ)が、タッチパネルに表示されたりステアリングホイールに設置されたりしている。そして、ユーザにより音声認識開始指示部が押下された後に、発話された音声を認識する。すなわち、音声認識開始指示部が音声認識開始信号を出力し、音声認識部が当該信号を受けると、ユーザの発話を待ち受け、上述した認識処理を行う。
 しかし、この実施の形態1における音声認識部12は、上述したようなユーザによる音声認識開始指示がなくても、常に、ユーザの発話内容を認識する。すなわち、音声認識部12は、音声認識開始信号を受けなくても、認識辞書を用いて認識処理を行い、音声認識結果に含まれるキーワードを出力する処理を繰り返し行う。また、前記は、常に、ユーザの発話内容を認識するとしたが、CPUやメモリ等の使用量を抑える目的で、入力音声の特徴(例えば、入力音量など)を元にマイク入力された音が音声であると判断できる場合のみ認識処理を行うようにしてもよい。以下の実施の形態においても同様である。
 操作キー特定部14は、キー情報受信部11により受信された操作キー情報と音声認識部12による音声認識結果に基づいて、ユーザにより発話された音声に対応する操作キーを特定する。具体的には、キー情報受信部11で取得した操作キー情報を参照して、音声認識部12から取得した認識キーワードに対応する操作キーの実行指令を特定する。
 制御部15は、操作キー特定部14により特定された各操作キーを選択する決定キー4からの出力を受け、特定された操作キーに対応する実行指令を車載機器1に送信することにより、当該操作キーに割り付けられた機能を実行するよう車載機器1に対して指示を行う。実行指令は、例えば、数字列や文字列によるID、あるいは電気信号のパターン、あるいは操作キーの名称など予め規定されたルールに沿って操作キーを一意に特定できるものであればどのような形態でもよい。以下の実施の形態においても同様である。
 次に、このように構成された実施の形態1における車載制御装置10の動作について、図2を参照しながら具体的に説明する。ここでは、接続される車載機器1がオーディオ一体型のカーナビゲーション装置であると仮定する。
 まず、キー情報受信部11は、接続されたカーナビゲーション装置(車載機器1)から表示器2に表示された操作キー情報を受信する(ステップST1)。例えば、図3に示すように、表示器2の表示画面に[再生]、[停止]、[次の曲]、[前の曲]の4つの操作キーが表示されているとすると、図4に示すように、操作キー情報としては、各操作キーに対応する少なくとも1つの認識キーワードと実行指令の情報となる。
 ここで、図3は、実施の形態1において、表示器2の表示画面に複数の操作キーが表示されているメニュー画面の一例を示す図である。また、図4は、図3の場合における操作キー情報(各操作キーに対応する認識キーワードと実行指令)の一例を示す表である。この場合、操作キー[再生]の認識キーワードは「再生」であり、実行指令コードが「0001」、操作キー[停止]の認識キーワードは「停止」であり、実行指令コードが「0010」、操作キー[次の曲]の認識キーワードは「次の曲」であり、実行指令コードが「0011」、操作キー[前の曲]の認識キーワードは「前の曲」であり、実行指令コードが「0100」である。
 その後、音声認識部12は、マイク3から入力された音声信号から音声認識辞書13を使用して音声認識を行い、発話中に含まれる認識キーワードを出力する(ステップST2)。例えば、音声認識辞書13内に認識キーワードとして“再生”が定義されており、「えーと、“再生”」などとユーザが発話した場合、「認識キーワード=“再生”」が出力される。
 次に、操作キー特定部14は、音声認識部12から取得した認識キーワードを使用してキー情報受信部11から取得した操作キー情報を参照し、音声認識結果に対応する操作キーがあるか否かを判定する(ステップST3)。具体的には、音声認識結果である認識キーワードと一致する操作キーがあるか否かを判断する。
 そして、操作キー情報の中に音声認識結果(認識キーワード)に対応する操作キーがない場合(ステップST3のNOの場合)は、ステップST2に戻って、再度、音声認識部12で音声認識処理を行う。
 一方、音声認識結果に対応する操作キーがある場合、すなわち、認識キーワードが一致する操作キーがある場合(ステップST3のYESの場合)には、その認識キーワードが一致する操作キーを特定し(ステップST4)、その操作キーに対応する実行指令を制御部15に送る。例えば、「認識キーワード=“再生”」の場合は「操作キー=“再生”」が特定され、対応する「実行指令=“0001”」を制御部15に送る。
 制御部15は、車載制御装置10に接続された1つの決定キー4の押下を検知すると(ステップST5のYESの場合)、操作キー特定部14から送られた実行指令を、車載制御装置10に接続された車載機器1に送信し(ステップST6)、車載機器1は対応する機能を実行する。例えば、「操作キー=再生」に対応する「実行指令=“0001”」が車載制御装置10から車載機器1に送信され、車載機器1は「実行指令=“0001”」に対応する機能として、例えば音楽再生を実行する。
 ここで、キー情報受信部11は表示器2の表示内容の変化に応じて動的に操作キーの情報を受信するものである。これについて、図5を参照しながら具体的に説明する。
 図5は、カーナビゲーション装置(車載機器1)の動作および表示器2の表示内容と操作キー情報とユーザ操作の具体例を示す説明図である。
 図5(a)に示すように、表示器2に[目的地設定][オーディオ][ルート編集][ヘルプ]および[戻る]という5つの操作キーを有するメインメニューが表示されているものとする。この場合、キー情報受信部11が受信する操作キー情報は、図5(b)に示すとおりである。
 この状態で、例えばユーザが音楽を再生したい場合、図5(c)に示すように、ユーザが「えーと、“オーディオ”」と発話して決定キー4を押下すると、図5(d)に示すように、表示器2にはオーディオメニュー画面が表示される(オーディオメニュー画面に遷移する)。
 図5(d)に示すオーディオメニュー画面には、[アーティスト][アルバム][すべての曲][検索]および[戻る]という5つの操作キーが表示されている。この場合に、キー情報受信部11が受信する操作キー情報は、図5(e)に示すとおりである。
 この状態で、例えば図5(f)に示すように、ユーザが「“すべての曲”」と発話して決定キー4を押下すると、表示器2にすべての曲リスト画面が表示される(すべての曲リスト画面に遷移する)。
 以降、図示は省略するが、そこでさらに、ユーザが「“XXXX”(リスト中の楽曲名)」と発話して、決定キー4を押下すると、XXXXの曲が再生され、上述したようなオーディオ操作画面が表示される、という流れで操作をすればよい。
 なお、図5(c)および(f)に示す符号30は、ユーザの発話(発話内容)を示している。
 以上のように、この実施の形態1によれば、表示器に表示された複数の操作キーに直接触れることがなく、かつ、複雑なキー操作を要することなく操作が可能となる。また、たった1つの決定キーをステアリングホイールに設置するのみで、ユーザが運転中にステアリングホイールから手を離すことなく表示器に表示された操作キーの安全な操作が可能となる。
 また、階層化された画面間を遷移するようなUI(User Interface)を有する車載機器、あるいは、表示領域内に操作キーが部分的に重畳、あるいは、追加されるといった表示にも動的に対応した操作が可能、すなわち、表示器の表示内容の変化に応じて動的に操作キーの情報を受信するため、表示された操作キーが変更されても動的に追従することができ、あるいは、ポップアップ的な通知にも対応して操作可能となる。
 また、図6に示すように、車載制御装置10が、表示されている操作キーの情報に基づいて少なくとも表示器2に表示された操作キーに対応する言葉(認識キーワード)から辞書を作成する辞書作成部16をさらに備え、音声認識部12は辞書作成部16によって作成された音声認識辞書17を用いてユーザが発話した音声を認識するようにしてもよい。
 音声認識辞書17を作成する際、音声を認識するために音素等の読み情報が必要となるが、この情報は操作キー情報中に認識キーワードに対応するように埋め込んでもよく、操作キー情報の操作キー名称や認識キーワードの情報などのテキスト情報から形態素解析処理などにより読み情報を付与、あるいは、推定するようにしてもよい。ここで形態素解析処理には、前述の音声認識処理でも用いられるようなHidden Markov Modelのような一般的な方法を用いて行えばよい。
 このようにすることにより、表示内容が動的に変化したときにそれに応じて音声認識辞書17を作成するため、音声認識対象となる語数を必要最小限にとどめることができるようになる。このため、操作に関係ない言葉を誤認識するのを防ぐこと、あるいは、音声認識に要する時間を抑制することができ、音声認識性能(精度、応答速度など)を向上させることができるので、ユーザが快適な操作を行うことができる。
 また、図7に示すように、車載制御装置10が、決定キー4に代えて、ユーザの身体動作を認識する動作認識部18をさらに備え、制御部15は、動作認識部18により実行を意図するユーザの身体動作、例えば、うなずき、あるいは、ウインクなどが認識された場合に、特定された操作キーに割り付けられた機能を実行するよう指示を行うようにしてもよい。
 動作認識部18による身体動作認識処理としては、カメラ5を用いた一般的なパターン認識を用いて行えばよく、うなずきの検知においては、頭部に加速度センサを装着し、所定の方向に所定の強さを検知した場合にうなずいたと判断するようにしてもよい。
 このようにすることにより、決定キーだけでなく決定キーの押下という動作(操作)も不要となるため、一切のボタン操作が不要となり、完全にステアリングホイールから手や指を離す必要がなくなるので、走行中でも安全に操作することができる。
 なお、車載制御装置10は、これが適用される車載機器1のマイクロコンピュータが、この発明に特有な処理に関するプログラムを実行することにより、ハードウェアとソフトウェアとが協働した具体的な手段として実現される。以下の実施の形態においても、同様である。
実施の形態2.
 図8は、この発明の実施の形態2による車載制御装置の一例を示すブロック図である。なお、実施の形態1で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。
 以下に示す実施の形態2の車載制御装置10は、実施の形態1と比べると、受付情報報知部19をさらに備え、操作キー特定部14による操作キー特定の結果に基づき、その特定された操作キーの実行指示受付を開始したこと、実行指示受付を継続中であること、または、特定された操作キー情報の少なくともいずれか1つを、接続されたスピーカ6により、あるいは、車載機器1を通じて表示器2により、報知するようにした。なお、図示は省略したが、スピーカは車載機器1に接続されたものを使用するようにしてもよい。
 次に、このように構成された実施の形態2による車載制御装置10の動作について説明する。
 図9は、実施の形態2における車載制御装置10の動作を示すフローチャートである。ここでも、実施の形態1と同様、接続される車載機器1がオーディオ一体型のカーナビゲーション装置であると仮定する。
 操作キー特定部により操作キーを特定するまでの処理(ステップST11~ST14)については、実施の形態1における図2に示すフローチャートのステップST1~ST4と同じであるため、説明を省略する。
 そして、この実施の形態2では、ステップST14において操作キー特定部14が操作キーを特定した後、受付情報報知部19が、操作キー特定部14により操作キーが特定されて当該操作キーの実行指示受付が可能となったこと、あるいは、特定された操作キーの情報など、操作キーが特定されて当該操作キーの実行指示受付が開始されたこと、実行指示受付を継続中であること、特定された操作キーの情報のうちの少なくとも1つを報知する(ステップST15)。
 具体的には、例えば「操作キー=“再生”」と特定された結果を受け、接続されたスピーカ6から効果音や音楽を鳴らす、あるいは、表示器2の表示画面の明るさ、色などを変更し、操作キーが特定されて当該操作キーの実行指示受付が可能となったことを報知するなどである。
 さらに、特定された操作キーを明確にユーザに伝えるよう、操作キー名称(例えば、「再生」など)等を操作キー毎に用意された録音音声や音声合成によるTTS(Text to Speech)技術を利用して読み上げるようにしてもよい。また、表示器2に表示された操作キーに視覚効果、例えば、図10(b)に示すように、特定された操作キーの周りを点灯させる、選択された操作キー付近に特定を示す図形を表示する、あるいは、アイコンを表示する、あるいは、操作キー部分の明度、色、形、大きさなどを変更するようにしてもよい。
 図10は、実施の形態2において、表示器2の表示画面に複数の操作キーが表示されているメニュー画面からの遷移の一例を示す図である。
 図10(a)に示すように、表示器2に[目的地設定][オーディオ][ルート編集][ヘルプ]および[戻る]という5つの操作キーを有するメインメニューが表示されているものとする。
 この状態で、例えばユーザが音楽を再生したい場合、ユーザが「オーディオ」と発話すると、図10(b)に示すように、[オーディオ]という操作キーのみが枠で囲まれる等の強調表示40が付加されることにより、その操作キーの実行指示受付が可能となったことをユーザが視覚的に認識できるように報知される。
 そして、この状態で、ユーザが決定キー4を押下すると、図10(c)に示すように、表示器2には[アーティスト][アルバム][すべての曲][検索]および[戻る]という5つの操作キーが表示される。以降の操作および画面遷移については省略する。
 以上のように、この実施の形態2によれば、実行指示を受付可能なタイミング、あるいは、特定された操作キーの少なくともいずれか1つを実行指示前に確認できるため、操作キーが特定される前に決定キーを押下しても実行指示が受け付けられないという不具合や、意図と異なる操作キーが特定されたことによる誤操作(ユーザの意図と異なる操作)を抑制することができる。
 また、図11に示すように、車載制御装置10が、車両の情報を取得する車両情報取得部20をさらに備え、受付情報報知部19が、車両情報取得部20により各種センサ7から取得された車速、あるいは、ステアリングホイールの操舵角などの車両情報に応じて、特定された操作キーについて報知する方法を変更するようにしてもよい。
 例えば、上述したように特に特定された操作キーを明確にユーザに伝えるような場合、車両の走行速度が予め定められた所定値未満であれば、画面を見る余裕があると判断し、快適性を重視して、例えば図10(b)に示すように、表示器2に対して報知情報の伝達に時間を要さない画面表示による報知を行うよう指示を行い、所定値以上であれば、安全性を重視して、スピーカ6に対して画面を見る必要がない音による報知(音声ガイダンスなど)を行うよう指示することなどが考えられる。
 そして、制御部15は、車載制御装置10に接続された1つの決定キー4の押下を検知すると(ステップST16のYESの場合)、操作キー特定部14から送られた実行指令を、車載制御装置10に接続された車載機器1に送信し(ステップST17)、車載機器1は対応する機能を実行する。
 このようにすることにより、例えば、停車時は画面表示により報知することで軽快に操作でき、走行時は音声出力により報知することで安全な操作ができるなど、ユーザの運転負荷が低い時は快適性を重視し、ユーザの運転負荷が高い時は安全性を重視して、特定された操作キーについてユーザに報知することができるので、運転状況に合わせてユーザが安全かつ快適に操作することが可能となり、操作の不便さを改善することができる。
 なお、ここでの車両情報には、車両が走行する道路の道幅や曲がり具合(直線具合)などの道路情報や、走行中の時刻情報なども含むものとし、停車時や走行時といった違いだけではなく、車速に応じて報知の方法を変化させるようにしたり、走行場所、道路情報、時刻等によって、その車速の閾値を変更して報知の方法を変化させるようにすることにより、ユーザにとってより安全かつ快適に操作することができる。
 また、図示は省略したが、接続されたナビゲーション装置(車載機器1)などの情報から走行中の自車位置や道幅の情報を取得できるようにして走行しやすさに応じて走行速度の所定値(閾値)を変更するようにしてもよい。
実施の形態3.
 図12は、この発明の実施の形態3による車載制御装置の一例を示すブロック図である。なお、実施の形態1,2で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。
 以下に示す実施の形態3の車載制御装置10は、実施の形態1と比べると、受付期間設定部21をさらに備え、操作キー特定部14により特定された操作キーに割り付けられた機能の実行指示を受付可能な期間(受付期間)を設定するようにし、制御部15は受付期間設定部21により設定された受付期間内のみ実行指示を受け付けるようにした。
 次に、このように構成された実施の形態3による車載制御装置10の動作について説明する。
 図13は、実施の形態3における車載制御装置10の動作を示すフローチャートである。ここでも、実施の形態1,2と同様、接続される車載機器1がオーディオ一体型のカーナビゲーション装置であると仮定する。
 操作キー特定部14により操作キーを特定するまでの処理(ステップST21~ST24)については、実施の形態1における図2に示すフローチャートのステップST1~ST4と同じであるため、説明を省略する。
 そして、この実施の形態3では、ステップST24において操作キー特定部14が操作キーを特定した後、受付期間設定部21が、操作キー特定部14による操作キー特定の結果を受け、予め定められた所定の受付期間、例えば、10秒間を設定する(ステップST25)。
 制御部15は、操作キーが特定されてから所定の受付期間(ここでは10秒)以内であれば(ステップST26のNOの場合)、ユーザからの決定キー押下を実施の形態1と同様に待ち受ける。一方、操作キーが特定されてから所定の受付期間(10秒)を経過してもユーザからの決定キー押下が検知されなければ(ステップST27がNOで、ステップST26がYESになった場合)は、ステップST22に戻って、再度、音声認識部12で音声認識処理を行う。
 そして、制御部15は、車載制御装置10に接続された1つの決定キー4の押下を検知すると(ステップST27のYESの場合)、操作キー特定部14から送られた実行指令を、車載制御装置10に接続された車載機器1に送信し(ステップST28)、車載機器1は対応する機能を実行する。
 以上のように、この実施の形態3によれば、操作キーが特定された後、決定キーが押下されるまでに受付期間が経過した場合には、認識した言葉がキャンセルされるので、誤認識した場合にユーザが意図しない動作が生じる可能性を低減することができる。また、ユーザが運転に集中していたことにより、特定された操作キーが何だったかを忘れてしまった場合などにも、受付期間経過後に発話し直すことで音声認識からやり直すことができるので、ユーザ操作の快適性を向上することができる。
 また、図14に示すように、音声認識部12が、ステップST25において所定の受付期間が設定された後の当該受付期間内にも動作して、音声認識部12による音声認識結果に変更が生じる度に、操作キー特定部14がその変更後の音声認識結果に基づいて操作キーを特定し直すようにしてもよい。
 すなわち、操作キーが特定されてから所定の受付期間(例えば10秒)以内であって、ユーザから決定キーが押下されないうちに、ユーザからの発話があった(ユーザが発話し直した)場合(ステップST26,ST27がいずれもNOで、ステップST29がYESの場合)、ステップST22に戻って、再度、音声認識部12で音声認識処理を行う。
 このようにすれば、操作キーが特定されてしまったが別の操作キーを選択し直したい場合や、操作キーが正しく特定されなかった場合など、所定期間が経過しなくとも発話し直すことで簡便に誤認識を訂正することができ、ユーザ操作の快適性を向上することができる。
 また、図15に示すように、車載制御装置10が、車両の情報を取得する車両情報取得部20をさらに備え、受付期間設定部21が、車両情報取得部20により各種センサ(車速センサ等)7から取得された車速、あるいは、ステアリングホイールの操舵角などの車両情報に応じて、受付期間を変更する(可変にする)ようにしてもよい。なお、ここでの車両情報には、車両が走行する道路の道幅や曲がり具合(直線具合)などの道路情報なども含むものとする。
 例えば、高速走行時や交差点での右左折中の場合は、運転負荷が高くユーザによる決定キー押下が困難であると判断して、受付期間を長く設定し、逆にステアリングホイール操作の頻度が少なく直線がしばらく続いていれば、運転負荷が低くユーザによる決定キー押下が容易であると判断して、受付期間を短く設定する。
 このようにすることにより、運転負荷によるユーザの余裕度に応じて、適切な受付期間が設定されるため、余裕がない場合に受付期間内に実行指示を行うことができず、操作のためにもう一度音声認識させなければならないとか、誤認識した場合にユーザが意図しない動作が生じる可能性があるといった、操作における煩わしさを軽減することができる。
 また、図示は省略したが、接続されたナビゲーション装置(車載機器1)などの情報から走行中の自車位置や道幅の情報を取得できるようにして走行しやすさに応じて受付期間を変更するようにしてもよい。
実施の形態4.
 図16は、この発明の実施の形態4による車載制御装置の一例を示すブロック図である。なお、実施の形態1~3で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。
 以下に示す実施の形態4の車載制御装置10は、実施の形態1と比べると、マイク3からの入力音声(ユーザにより発話された音声)が操作を意図する発話であるか否かを判定する発話判定部22をさらに備え、発話判定部22により入力音声(発話された音声)が操作を意図する発話であると判定された発話についてのみ音声認識部12が音声認識を行うようにした。
 発話判定部22における発話態様判定処理(操作を意図する発話であるか否かを判定する処理)には、音声認識で使用するような前述のHidden Markov Modelを使用すればよく、例えば、操作を意図しない発話として、笑い声や咳払いやくしゃみ、複数人の会話の少なくとも1つの音声特徴を予め学習しておけば、入力音声が操作を意図しない発話を識別することができ、操作を意図する発話であるか否かを判定できる。
 あるいは、図示は省略したが、車内で利用する場合は、乗車しているユーザの位置が頻繁に変わることがないので、複数マイクを配置することにより各マイクの入力信号のパワー比や位相差の変動により複数人による会話か否かを判断できるので、そのような複数人による会話の場合には操作を意図しない発話であると判定することができる。また、運転者のみを操作対象者とする場合は、運転座席位置方向以外から到来する音声は操作を意図しない発話であると判定することができる。
 次に、このように構成された実施の形態4による車載制御装置10の動作について説明する。
 図17は、実施の形態4における車載制御装置10の動作を示すフローチャートである。ここでも、実施の形態1~3と同様、接続される車載機器1がオーディオ一体型のカーナビゲーション装置であると仮定する。
 まず、キー情報受信部11が、接続されたカーナビゲーション装置(車載機器1)から表示器2に表示された操作キー情報を受信する(ステップST31)。
 次に、発話判定部22が、マイク3からの入力音声から操作を意図した発話であるか否かを、例えば前述の方法により判定する(ステップST32)。
 そして、マイク3からの入力音声が操作を意図した発話ではないと判定された場合(ステップST32のNOの場合)には、操作を意図した発話であると判定される音声が入力されるまで待ち続ける。すなわち、操作を意図した発話ではないと判定された場合には、その入力音声は音声認識処理が行われる前に棄却される。
 一方、操作を意図した発話であると判定された場合(ステップST32のYESの場合)、音声認識部12は、発話判定部22による発話様態の判定結果を受け、音声認識処理を行う(ステップST33)。すなわち、ステップST32において操作を意図した発話であると判定された場合のみ、音声認識処理が行われる。
 次に、操作キー特定部14は、音声認識部12から取得した認識キーワードを使用してキー情報受信部11から取得した操作キー情報を参照し、音声認識結果に対応する操作キーがあるか否かを判定する(ステップST34)。
 そして、操作キー情報の中に音声認識結果(認識キーワード)に対応する操作キーがなく、操作キーが特定されなかった場合(ステップST34のNOの場合)には、ステップST32に戻って、再度、発話判定部22による発話態様判定処理を行う。
 一方、音声認識結果に対応する操作キーがあり、操作キーが特定された場合、すなわち、認識キーワードが一致する操作キーがある場合(ステップST34のYESの場合)以降の処理(ステップST35~ST37)については、実施の形態1における図2に示すフローチャートのステップST4~ST6と同じであるため、説明を省略する。
 以上のように、この実施の形態4によれば、操作と無関係な発話を音声認識前に除去できるため、音声認識処理において誤認識する頻度を抑制したり、意図しない操作キーを実行してしまうことを抑制し、操作におけるユーザの快適性を向上することができる。
実施の形態5.
 図18は、この発明の実施の形態5による車載制御装置の一例を示すブロック図である。なお、実施の形態1~4で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。
 以下に示す実施の形態5の車載制御装置10は、実施の形態1と比べると、車載機器1に接続されたスピーカ8に対して車載機器1から出力されるスピーカ出力音信号を取得して当該スピーカ出力音の成分を入力音から除去する出力音除去部23をさらに備え、この出力音除去部23によりスピーカ出力音の成分が除去された音声に対して音声認識部12が音声認識を行うようにした。
 出力音除去部23における出力音除去方法としては、例えば、一般的なスピーカ出力音信号とマイク入力音信号を使用し、フィルタ係数を学習同定法により求める適応フィルタなど用いて行えばよい。このようにすることで、使用する音響環境でマイクに入力されるスピーカ出力音の音響エコー成分を推定できるため、マイクに入力される音声信号から当該音響エコー成分を差し引くことでスピーカ出力音信号が音声認識精度に与える影響を抑制することができる。
 次に、このように構成された実施の形態5による車載制御装置10の動作について説明する。
 図19は、実施の形態5における車載制御装置10の動作を示すフローチャートである。ここでも、実施の形態1~4と同様、接続される車載機器1がオーディオ一体型のカーナビゲーション装置であると仮定する。
 まず、キー情報受信部11が、接続されたカーナビゲーション装置(車載機器1)から表示器2に表示された操作キー情報を受信する(ステップST41)。
 次に、出力音除去部23が、車載機器1からスピーカ8に対して送信されるスピーカ出力音信号を受信し(ステップST42)、そのスピーカ出力音信号とマイクから入力される音声信号を使用して、例えば、前述の方法によって、マイク入力される音声の中からスピーカ出力される音声の音響エコー成分(出力音成分)を除去する(ステップST43)。
 そして、音声認識部12は、出力音除去部23によりスピーカ出力音を除去された入力音声について、音声認識処理を行う(ステップST44)。
 この音声認識処理以降の処理(ステップST45~ST48)については、実施の形態1における図2に示すフローチャートのステップST3~ST6と同じであるため、説明を省略する。
 なお、上述した実施の形態5では、接続された車載機器1のスピーカ出力音信号を除去するようにしたが、車載制御装置10そのものや他の機器、または、車載制御装置10を搭載した車両等から出力される音の信号もあわせて受信し、除去するようにしてもよい。
 以上のように、この実施の形態5によれば、車音声ガイダンス・効果音の吹鳴中や音楽再生中であってもマイク入力される音声からスピーカ出力音の音響エコー成分を除去できるようにしたため、誤認識を抑制してより精度の高い音声認識を行うことができ、操作におけるユーザの快適性を向上することができる。
実施の形態6.
 図20は、この発明の実施の形態6による車載制御装置の一例を示すブロック図である。なお、実施の形態1~5で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。
 以下に示す実施の形態6の車載制御装置10は、実施の形態1と比べると、ユーザの視線を検知する視線検出部24をさらに備え、操作キー特定部14は、視線検出部24により検知された視線情報と音声認識部12による認識結果とを用いて操作キーを特定するようにした。
 視線検出部24は、ユーザの視線を検知して当該視線の座標情報を操作キー特定部14に送信する
 視線検出部24による視線検出処理は、例えば、カメラ5によりユーザの顔を撮影した画像に基づいて一般的なパターン認識による顔方向から大まかに推定するようにすればよく、あるいは、図示は省略したが光源照射による角膜反射法などを用いればよい。また、事前に表示器2とユーザの目の相対位置関係の情報を取得しておくようにすれば、ユーザが表示器2のどの部分を見ているかを座標値として取得することができる。
 次に、このように構成された実施の形態6による車載制御装置10の動作について説明する。
 図21は、実施の形態6における車載制御装置10の動作を示すフローチャートである。ここでも、実施の形態1~5と同様、接続される車載機器1がオーディオ一体型のカーナビゲーション装置であると仮定する。
 まず、キー情報受信部11が、接続されたカーナビゲーション装置(車載機器1)から表示器2に表示された操作キー情報を受信する(ステップST51)。
 ここで受信する操作キー情報は、図22に示すように、各操作キーに対応する認識キーワードと実行指令に加え、各操作キーが表示された表示器2上の座標情報、例えば(x,y)=(100,100)などを含んでいる。この座標情報には、例えば、操作キーの左上座標、あるいは、中心座標など表示位置を一意に判別できるものであれば何でもよく、あわせてサイズがわかる情報を付与してもよい。
 次に、視線検出部24が、例えば前述の方法により、カメラ5で撮影されたカメラ画像からユーザの視線方向を検出し、ユーザが視線を向けている表示器2の表示画面上の対応する座標情報(以下、「視線座標」と呼ぶ)、例えば(x,y)=(200,200)を取得して、操作キー特定部14に送る(ステップST52)。
 また、音声認識部12は、マイク3から入力された音声信号から音声認識辞書13を使用して音声認識を行い、発話中に含まれる認識キーワードを出力する(ステップST53)。
 そして、操作キー特定部14は、ステップST52において視線検出部24から受信した視線座標と、ステップST53において認識された音声認識結果と、ステップST51において受信した操作キー情報とに基づいて、視線方向と認識結果に対応する操作キーがあるか否かを判定し(ステップST54)、視線方向と認識結果に対応する操作キーがある場合(ステップST54のYESの場合)、音声認識結果に対応する操作キーを特定する(ステップST55)。
 具体的には、視線検出部24から受信した視線座標(x,y)=(200,200)から予め定められた所定の範囲、例えば±100、すなわち、座標(x,y)=(100,100)から(x,y)=(300,300)までの範囲を視認可能範囲と仮定する。
 そして、キー情報受信部11が受信した操作キー情報に付与された操作キーの座標情報から、その視認可能範囲内にある操作キー、すなわち、操作キー情報が図22に示すものである場合には、座標(x,y)=(100,100)である[再生]および座標(x,y)=(100,300)である[次の曲]のみが視認可能範囲内にある操作キーであるので、[再生]および[次の曲]という操作キーのみの操作キー情報を参照して、音声認識結果に対応する操作キーを特定する。
 一方、視認可能範囲内にある操作キー情報の中に音声認識結果(認識キーワード)に対応する操作キーがない場合(ステップST54のNOの場合)は、ステップST52に戻って、再度、視線検出部24による視線検出、および、音声認識部12による音声認識処理を行う。
 そして、ステップST55における操作キー特定以降の処理(ステップST56~ST57)については、実施の形態1における図2に示すフローチャートのステップST5~ST6と同じであるため、説明を省略する。
 なお、複数の車載機器を接続するようにした場合は、操作対象の機器を限定するよう、視線検出部24による視線方向を利用するようにしてもよい。
 また、図示は省略したが、実施の形態1と同様、辞書作成部16(図6参照)をさらに備え、操作キー情報に付与された座標位置と視線検出部24により取得された視線座標を使用し、所定の視認可能範囲に含まれる操作キーのみに限定して音声認識するように音声認識辞書を作成してもよい。
 このようにすることにより、表示されているものの中からユーザが見ている付近に絞り込んで、その絞り込まれた付近に限定して操作キーを特定することにより、ユーザが操作しそうなキーに対応する認識キーワードに音声認識の対象を限定できるため、音声認識の精度、あるいは、応答速度を高めることができる。これは、例えば表示器2の表示画面が大きい場合や、複数の画面(複数の表示器)がある場合などに特に効果を奏する。
 以上のように、この実施の形態6によれば、視線検知により、ユーザが操作しそうなキーを推定可能になり、発話と異なる操作キーの特定を抑制することができるため、意図しない操作キーを実行してしまうことを抑制し、操作におけるユーザの快適性を向上することができる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明の車載制御装置は、例えば、カーナビゲーション装置やHUD(Head-Up Display)、インストルメントパネルなど、操作制御機能を有する表示器、表示器を有する機器、または表示器と接続される機器など表示と操作を伴うものであればどのような車載機器にでも適用することができる。また、この車載制御装置自体がそれらの機器に組み込まれていてもよい。
 1 車載機器、2 表示器、3 マイク、4 決定キー、5 カメラ、6,8 スピーカ、7 各種センサ、10 車載制御装置、11 キー情報受信部、12 音声認識部、13,17 音声認識辞書、14 操作キー特定部、15 制御部、16 辞書作成部、18 動作認識部、19 受付情報報知部、20 車両情報取得部、21 受付期間設定部、22 発話判定部、23 出力音除去部、24 視線検出部、30 発話(発話内容)、40 強調表示。

Claims (12)

  1.  車両に搭載された車載機器の制御を行う車載制御装置において、
     前記車載機器に接続された表示器に表示された複数の操作キーの情報を、前記表示器に表示された表示内容の変化に応じて動的に受信するキー情報受信部と、
     音声認識辞書を用いてユーザにより発話された音声を認識する音声認識部と、
     前記キー情報受信部により受信された操作キー情報と前記音声認識部による音声認識結果に基づいて、前記ユーザにより発話された音声に対応する操作キーを特定する操作キー特定部と、
     前記操作キー特定部により特定された操作キーを選択する決定キーからの出力を受け、前記特定された操作キーに割り付けられた機能を実行するよう前記車載機器に対して指示を行う制御部と
     を備えることを特徴とする車載制御装置。
  2.  前記操作キーの情報に基づいて少なくとも前記表示器に表示された操作キーに対応する言葉から前記音声認識辞書を作成する辞書作成部をさらに備え、
     前記音声認識部は、前記辞書作成部によって作成された音声認識辞書を用いて前記ユーザにより発話された音声を認識する
     ことを特徴とする請求項1記載の車載制御装置。
  3.  前記操作キー特定部による操作キー特定の結果に基づき、前記特定された操作キーの実行指示受付を開始したこと、前記特定された操作キーの実行指示受付を継続中であること、または、前記特定された操作キー情報のうちの少なくとも1つを報知する受付情報報知部をさらに備えた
     ことを特徴とする請求項1記載の車載制御装置。
  4.  前記車両の情報を取得する車両情報取得部をさらに備え、
     前記受付情報報知部は、前記車両情報取得部により取得された車両情報に応じて、前記報知する方法を変更する
     ことを特徴とする請求項3記載の車載制御装置。
  5.  前記操作キー特定部により特定された操作キーに割り付けられた機能の実行指示を受付可能な受付期間を設定する受付期間設定部をさらに備え、
     前記制御部は、前記受付期間設定部により設定された前記受付期間内のみ実行指示を受け付ける
     ことを特徴とする請求項1記載の車載制御装置。
  6.  前記音声認識部は、前記受付期間内も動作して、
     前記操作キー特定部は、前記音声認識部による音声認識結果に変更が生じる度にその変更後の音声認識結果に基づいて操作キーを特定し直す
     ことを特徴とする請求項5記載の車載制御装置。
  7.  前記車両の情報を取得する車両情報取得部をさらに備え、
     前記受付期間設定部は、前記車両情報取得部により取得された車両情報に応じて、前記受付期間を変更する
     ことを特徴とする請求項5記載の車載制御装置。
  8.  前記ユーザにより発話された音声が操作を意図する発話であるか否かを判定する発話判定部をさらに備え、
     前記音声認識部は、前記発話判定部により前記発話された音声が操作を意図する発話であると判定された場合にのみ音声認識を行う
     ことを特徴とする請求項1記載の車載制御装置。
  9.  前記ユーザの身体動作を認識する動作認識部をさらに備え、
     前記制御部は、前記動作認識部により実行を意図する前記ユーザの身体動作が認識された場合に前記特定された操作キーに割り付けられた機能を実行するよう指示を行う
     ことを特徴とする請求項1記載の車載制御装置。
  10.  前記車載機器から出力される出力音信号を取得して当該出力音の成分を入力音から除去する出力音除去部をさらに備え、
     前記音声認識部は、前記出力音除去部により前記出力音の成分が除去された音声に対して前記音声認識を行う
     ことを特徴とする請求項1記載の車載制御装置。
  11.  前記ユーザの視線を検知して当該視線の座標情報を前記操作キー特定部に送信する視線検出部をさらに備え、
     前記キー情報受信部は、前記操作キー情報として各操作キーが表示された表示器上の座標情報をあわせて受信し、
     前記操作キー特定部は、前記視線検出部から受信した前記視線の座標情報と前記音声認識部による認識結果と前記キー情報受信部により受信された操作キー情報とに基づいて、前記操作キーを特定する
     ことを特徴とする請求項1記載の車載制御装置。
  12.  車両に搭載された車載機器の制御を行う車載制御方法であって、
     キー情報受信部が、前記車載機器に接続された表示器に表示された複数の操作キーの情報を、前記表示器に表示された表示内容の変化に応じて動的に受信するステップと、
     音声認識部が、音声認識辞書を用いてユーザにより発話された音声を認識するステップと、
     操作キー特定部が、前記キー情報受信部により受信された操作キー情報と前記音声認識部による音声認識結果に基づいて、前記ユーザにより発話された音声に対応する操作キーを特定するステップと、
     制御部が、前記操作キー特定部により特定された操作キーを選択する決定キーからの出力を受け、前記特定された操作キーに割り付けられた機能を実行するよう前記車載機器に対して指示を行うステップと
     を備えることを特徴とする車載制御方法。
PCT/JP2014/054669 2014-02-26 2014-02-26 車載制御装置および車載制御方法 WO2015128960A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US15/111,236 US9881605B2 (en) 2014-02-26 2014-02-26 In-vehicle control apparatus and in-vehicle control method
DE112014006409.2T DE112014006409T5 (de) 2014-02-26 2014-02-26 Fahrzeugsteuervorrichtung und Fahrzeugsteuerverfahren
CN201480076456.4A CN106030697B (zh) 2014-02-26 2014-02-26 车载控制装置及车载控制方法
JP2016504908A JPWO2015128960A1 (ja) 2014-02-26 2014-02-26 車載制御装置および車載制御方法
PCT/JP2014/054669 WO2015128960A1 (ja) 2014-02-26 2014-02-26 車載制御装置および車載制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/054669 WO2015128960A1 (ja) 2014-02-26 2014-02-26 車載制御装置および車載制御方法

Publications (1)

Publication Number Publication Date
WO2015128960A1 true WO2015128960A1 (ja) 2015-09-03

Family

ID=54008332

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/054669 WO2015128960A1 (ja) 2014-02-26 2014-02-26 車載制御装置および車載制御方法

Country Status (5)

Country Link
US (1) US9881605B2 (ja)
JP (1) JPWO2015128960A1 (ja)
CN (1) CN106030697B (ja)
DE (1) DE112014006409T5 (ja)
WO (1) WO2015128960A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105501225A (zh) * 2015-12-21 2016-04-20 东莞酷派软件技术有限公司 智能驾驶控制方法、智能驾驶控制装置和车载系统
KR20200007011A (ko) * 2017-09-12 2020-01-21 구글 엘엘씨 다수의 컴퓨팅 장치를 이용한 인터콤 스타일 통신
WO2020031241A1 (ja) * 2018-08-06 2020-02-13 日産自動車株式会社 音声対話装置、音声対話システム、及び音声対話装置の制御方法
CN113223521A (zh) * 2021-04-26 2021-08-06 上海电机学院 一种车载屏幕显示语音控制系统
WO2021166504A1 (ja) * 2020-02-20 2021-08-26 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
CN115440212A (zh) * 2022-06-30 2022-12-06 北京罗克维尔斯科技有限公司 语音控制方法、装置、电子设备、车辆和存储介质
WO2023042277A1 (ja) * 2021-09-14 2023-03-23 ファナック株式会社 操作訓練装置、操作訓練方法、およびコンピュータ読み取り可能な記憶媒体

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6621613B2 (ja) * 2015-08-10 2019-12-18 クラリオン株式会社 音声操作システム、サーバー装置、車載機器および音声操作方法
CN106828372A (zh) * 2017-01-22 2017-06-13 斑马信息科技有限公司 车载声音控制系统及方法
CN107517310B (zh) * 2017-08-09 2020-01-10 重庆长安汽车股份有限公司 语音交互引导系统及方法
US10399489B2 (en) * 2017-08-11 2019-09-03 Otnid Bellot Thompson Steering wheel horn assembly
US10562448B2 (en) 2017-08-11 2020-02-18 Otnid Bellot Thompson Steering wheel horn assembly
KR102348124B1 (ko) * 2017-11-07 2022-01-07 현대자동차주식회사 차량의 기능 추천 장치 및 방법
CN110857067B (zh) * 2018-08-24 2023-04-07 上海汽车集团股份有限公司 一种人车交互装置和人车交互方法
CN111199734B (zh) * 2018-11-20 2024-03-12 奥迪股份公司 移动终端的控制方法及装置、计算机设备和可读存储介质
US10997971B2 (en) * 2019-02-11 2021-05-04 Amazon Technologies, Inc. Wakeword detection using a secondary microphone
EP3774453B1 (en) * 2019-02-28 2023-09-20 Google LLC Modalities for authorizing access when operating an automated assistant enabled vehicle
JP2020144209A (ja) * 2019-03-06 2020-09-10 シャープ株式会社 音声処理装置、会議システム、及び音声処理方法
CN111752169A (zh) * 2019-03-27 2020-10-09 广州汽车集团股份有限公司 一种车载终端控制方法、装置及系统
CN110045830A (zh) * 2019-04-17 2019-07-23 努比亚技术有限公司 应用操作方法、装置及计算机可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04372012A (ja) * 1991-06-20 1992-12-25 Fuji Xerox Co Ltd 入力装置
JPH1165592A (ja) * 1997-08-12 1999-03-09 Fujitsu Ten Ltd 音声入力システム
JPH11282491A (ja) * 1998-03-30 1999-10-15 Denso Corp 音声認識装置及びナビゲーションシステム
JP2002116791A (ja) * 2000-10-11 2002-04-19 Nissan Motor Co Ltd 音声入力装置
JP2003291750A (ja) * 2002-04-01 2003-10-15 Nissan Motor Co Ltd 車載機器制御装置
JP2008145989A (ja) * 2006-12-13 2008-06-26 Fujitsu Ten Ltd 音声識別装置および音声識別方法
JP2011002535A (ja) * 2009-06-17 2011-01-06 Toyota Motor Corp 音声対話システム、音声対話方法、及びプログラム
JP2013088535A (ja) * 2011-10-14 2013-05-13 Vri Inc 音声制御システム及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3689285B2 (ja) * 1991-06-20 2005-08-31 富士ゼロックス株式会社 入力装置および入力装置用ヘッドマウントディスプレイ
JP3530591B2 (ja) 1994-09-14 2004-05-24 キヤノン株式会社 音声認識装置及びこれを用いた情報処理装置とそれらの方法
US6728546B1 (en) * 1999-03-23 2004-04-27 Legerity, Inc. Computer peripheral base station for a cordless telephone
US6219645B1 (en) * 1999-12-02 2001-04-17 Lucent Technologies, Inc. Enhanced automatic speech recognition using multiple directional microphones
JP2002012100A (ja) 2000-06-29 2002-01-15 Jatco Transtechnology Ltd 車両制御装置
US6868158B2 (en) * 2001-05-22 2005-03-15 Mitsubishi Denki Kabushiki Kaisha Echo processing apparatus
JP2007535718A (ja) * 2003-07-07 2007-12-06 クリプターグラフィー リサーチ インコーポレイテッド 海賊行為を規制し、インタラクティブコンテンツを使用可能にするための再プログラマブルなセキュリティ
JP2005202014A (ja) * 2004-01-14 2005-07-28 Sony Corp 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
US7496545B2 (en) * 2004-05-17 2009-02-24 Intexact Technologies Limited Method of adaptive learning through pattern matching
JP5259050B2 (ja) * 2005-03-30 2013-08-07 京セラ株式会社 音声合成機能付き文字情報表示装置、およびその音声合成方法、並びに音声合成プログラム
JP5119587B2 (ja) * 2005-10-31 2013-01-16 株式会社デンソー 車両用表示装置
JP4973722B2 (ja) * 2009-02-03 2012-07-11 株式会社デンソー 音声認識装置、音声認識方法、及びナビゲーション装置
KR102022318B1 (ko) * 2012-01-11 2019-09-18 삼성전자 주식회사 음성 인식을 사용하여 사용자 기능을 수행하는 방법 및 장치
US9053348B2 (en) * 2012-03-26 2015-06-09 Microsoft Technology Licensing, Llc Secure cloud computing platform
US9092394B2 (en) * 2012-06-15 2015-07-28 Honda Motor Co., Ltd. Depth based context identification
US9093072B2 (en) * 2012-07-20 2015-07-28 Microsoft Technology Licensing, Llc Speech and gesture recognition enhancement
US9230560B2 (en) * 2012-10-08 2016-01-05 Nant Holdings Ip, Llc Smart home automation systems and methods
WO2014063104A2 (en) * 2012-10-19 2014-04-24 Audience, Inc. Keyword voice activation in vehicles

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04372012A (ja) * 1991-06-20 1992-12-25 Fuji Xerox Co Ltd 入力装置
JPH1165592A (ja) * 1997-08-12 1999-03-09 Fujitsu Ten Ltd 音声入力システム
JPH11282491A (ja) * 1998-03-30 1999-10-15 Denso Corp 音声認識装置及びナビゲーションシステム
JP2002116791A (ja) * 2000-10-11 2002-04-19 Nissan Motor Co Ltd 音声入力装置
JP2003291750A (ja) * 2002-04-01 2003-10-15 Nissan Motor Co Ltd 車載機器制御装置
JP2008145989A (ja) * 2006-12-13 2008-06-26 Fujitsu Ten Ltd 音声識別装置および音声識別方法
JP2011002535A (ja) * 2009-06-17 2011-01-06 Toyota Motor Corp 音声対話システム、音声対話方法、及びプログラム
JP2013088535A (ja) * 2011-10-14 2013-05-13 Vri Inc 音声制御システム及びプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105501225A (zh) * 2015-12-21 2016-04-20 东莞酷派软件技术有限公司 智能驾驶控制方法、智能驾驶控制装置和车载系统
KR20200007011A (ko) * 2017-09-12 2020-01-21 구글 엘엘씨 다수의 컴퓨팅 장치를 이용한 인터콤 스타일 통신
KR102314096B1 (ko) * 2017-09-12 2021-10-19 구글 엘엘씨 다수의 컴퓨팅 장치를 이용한 인터콤 스타일 통신
WO2020031241A1 (ja) * 2018-08-06 2020-02-13 日産自動車株式会社 音声対話装置、音声対話システム、及び音声対話装置の制御方法
JPWO2020031241A1 (ja) * 2018-08-06 2021-08-02 日産自動車株式会社 音声対話装置、音声対話システム、及び音声対話装置の制御方法
JP6996632B2 (ja) 2018-08-06 2022-01-18 日産自動車株式会社 音声対話装置、音声対話システム、及び音声対話装置の制御方法
US11938958B2 (en) 2018-08-06 2024-03-26 Nissan Motor Co., Ltd. Voice dialogue device, voice dialogue system, and control method for voice dialogue system
WO2021166504A1 (ja) * 2020-02-20 2021-08-26 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
CN113223521A (zh) * 2021-04-26 2021-08-06 上海电机学院 一种车载屏幕显示语音控制系统
WO2023042277A1 (ja) * 2021-09-14 2023-03-23 ファナック株式会社 操作訓練装置、操作訓練方法、およびコンピュータ読み取り可能な記憶媒体
CN115440212A (zh) * 2022-06-30 2022-12-06 北京罗克维尔斯科技有限公司 语音控制方法、装置、电子设备、车辆和存储介质

Also Published As

Publication number Publication date
CN106030697B (zh) 2019-10-25
CN106030697A (zh) 2016-10-12
US9881605B2 (en) 2018-01-30
US20160336009A1 (en) 2016-11-17
JPWO2015128960A1 (ja) 2017-03-30
DE112014006409T5 (de) 2016-12-08

Similar Documents

Publication Publication Date Title
WO2015128960A1 (ja) 車載制御装置および車載制御方法
KR101613407B1 (ko) 지원 기능을 갖춘 차량 시스템 및 차량 시스템 작동 방법
JP6400109B2 (ja) 音声認識システム
US7765045B2 (en) Manual operation system
JP4131978B2 (ja) 音声認識機器制御装置
EP3260331A1 (en) Information processing device
US20140058584A1 (en) System And Method For Multimodal Interaction With Reduced Distraction In Operating Vehicles
JP2008058409A (ja) 音声認識方法及び音声認識装置
WO2014070872A2 (en) System and method for multimodal interaction with reduced distraction in operating vehicles
JP2009139544A (ja) 入力装置
WO2007145003A1 (ja) 車載情報装置
JP2017090613A (ja) 音声認識制御システム
US11740864B2 (en) Method and systems for providing contextual visual and aural feedback and awareness to flight crews using a voice activated flight deck
WO2014068788A1 (ja) 音声認識装置
JP2010204637A (ja) 音声認識装置、音声認識方法、及びナビゲーション装置
JP6214297B2 (ja) ナビゲーション装置および方法
JP3842497B2 (ja) 音声処理装置
JP6522009B2 (ja) 音声認識システム
JP7323050B2 (ja) 表示制御装置及び表示制御方法
WO2022254669A1 (ja) 対話サービス装置及び対話システム制御方法
WO2022254670A1 (ja) 表示制御装置及び表示制御方法
EP3979066B1 (en) Methods and systems for using voice commands and a smart scratch pad to tune a radio in a voice activated flight deck
JP2008233009A (ja) カーナビゲーション装置及びカーナビゲーション装置用プログラム
JP2011028460A (ja) 情報検索装置、制御方法及びプログラム
JP2007286198A (ja) 音声合成出力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14883929

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016504908

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15111236

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112014006409

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14883929

Country of ref document: EP

Kind code of ref document: A1