WO2016157782A1 - 音声認識システム、音声認識装置、音声認識方法、および制御プログラム - Google Patents

音声認識システム、音声認識装置、音声認識方法、および制御プログラム Download PDF

Info

Publication number
WO2016157782A1
WO2016157782A1 PCT/JP2016/001496 JP2016001496W WO2016157782A1 WO 2016157782 A1 WO2016157782 A1 WO 2016157782A1 JP 2016001496 W JP2016001496 W JP 2016001496W WO 2016157782 A1 WO2016157782 A1 WO 2016157782A1
Authority
WO
WIPO (PCT)
Prior art keywords
speech
speech recognition
input
voice
rejection information
Prior art date
Application number
PCT/JP2016/001496
Other languages
English (en)
French (fr)
Inventor
小沼 知浩
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to US15/557,862 priority Critical patent/US10304449B2/en
Priority to EP16771676.0A priority patent/EP3276616A4/en
Priority to JP2017509245A priority patent/JP6731581B2/ja
Publication of WO2016157782A1 publication Critical patent/WO2016157782A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Definitions

  • the present disclosure relates to a voice recognition system, a voice recognition device, a voice recognition method, and a control program for recognizing voice uttered by a user.
  • a technology for performing speech recognition using a dictionary in which acoustic features of words for matching with input speech are registered is disclosed.
  • Patent Document 1 discloses a technique related to speech recognition.
  • an acoustic feature amount of a word to be recognized and an acoustic feature amount of a word other than the word to be recognized are registered in the dictionary. Then, unnecessary words are removed from a plurality of words (words) recognized by voice recognition.
  • the present disclosure defines rejection information for specifying speech that is misrecognized as a word that is subject to speech recognition (hereinafter referred to as “target word”), and a speech recognition apparatus and speech recognition system that uses the rejection information for speech recognition.
  • target word a word that is subject to speech recognition
  • a speech recognition method and a control program are provided.
  • the speech recognition device is a speech recognition device that recognizes input speech as a target word.
  • the speech recognition apparatus includes a storage unit, a speech recognition unit, and a rejection information generation unit.
  • storage part memorize
  • the speech recognition unit recognizes the input speech as a target word on the condition that the similarity between the speech specified by the rejection information and the input speech is lower than a predetermined threshold.
  • the rejection information generation unit determines the rejection information based on the input speech, and stores the rejection information in the storage unit.
  • the speech recognition system includes a first speech recognition device that recognizes an input speech as a target word, and a second speech recognition device that recognizes a word corresponding to the input speech.
  • the first speech recognition apparatus includes a storage unit, a first speech recognition unit, and a rejection information generation unit.
  • storage part memorize
  • the first speech recognition unit recognizes the input speech as a target word on the condition that the similarity between the speech specified by the rejection information and the input speech is lower than a predetermined threshold.
  • the rejection information generation unit transmits the input speech to the second speech recognition device when the first speech recognition unit recognizes the input speech as the target word in a predetermined state, and the second speech recognition device based on the input speech Is received from the second speech recognition apparatus, the received information is determined as rejection information, and the rejection information is stored in the storage unit.
  • the second voice recognition device has a second voice recognition unit. The second speech recognition unit recognizes a word corresponding to the input speech based on the input speech received from the first speech recognition device, and transmits the word to the first speech recognition device.
  • the speech recognition method in the present disclosure is a speech recognition method used in a speech recognition apparatus.
  • the voice recognition device includes a storage unit and a voice recognition unit.
  • storage part memorize
  • the speech recognition unit recognizes the input speech as a target word on the condition that the similarity between the speech specified by the rejection information and the input speech is lower than a predetermined threshold.
  • the speech recognition method includes a step of determining whether or not the speech recognition unit recognizes an input speech as a target word in a predetermined state where the target word should not be recognized; And determining the rejection information based on the input voice and storing the rejection information in the storage unit.
  • the control program in the present disclosure is a control program for causing the processor of the speech recognition apparatus to execute speech recognition processing.
  • the voice recognition device includes a storage unit and a voice recognition unit.
  • storage part memorize
  • the speech recognition unit recognizes the input speech as a target word on the condition that the similarity between the speech specified by the rejection information and the input speech is lower than a predetermined threshold.
  • the speech recognition processing includes a step of determining whether or not the speech recognition unit recognizes the input speech as the target word in a predetermined state where the target word should not be recognized, and the speech recognition unit converts the input speech to the target word in the predetermined state. And determining the rejection information based on the input voice and storing the rejection information in the storage unit.
  • the speech recognition apparatus, speech recognition system, speech recognition method, and control program in the present disclosure can determine rejection information used for speech recognition.
  • FIG. 1 is a schematic diagram of a speech recognition system according to the first embodiment.
  • FIG. 2 is a block diagram schematically showing a configuration example of the speech recognition system in the first embodiment.
  • FIG. 3 is a diagram schematically illustrating a configuration example and a content example of the recognition information in the first embodiment.
  • FIG. 4 is a diagram schematically showing a configuration example of the rejection information list in the first embodiment.
  • FIG. 5 is a flowchart illustrating an example of a voice input handling process executed by the voice recognition apparatus according to the first embodiment.
  • FIG. 6 is a flowchart illustrating an example of speech recognition processing executed by the speech recognition apparatus according to the first embodiment.
  • FIG. 7 is a flowchart illustrating an example of server speech recognition processing executed by the speech recognition system according to the first exemplary embodiment.
  • FIG. 8 is a flowchart illustrating an example of rejection information transmission processing executed by the speech recognition apparatus according to the first embodiment.
  • FIG. 9 is a diagram schematically illustrating an example of the display screen
  • a speech recognition system 1 including a speech recognition device will be mainly described.
  • the voice recognition device can determine the rejection information based on the voice uttered by the user 90 (hereinafter referred to as “input voice”).
  • the rejection information is information for preventing one or more recognition target words defined in the speech recognition dictionary from being erroneously recognized.
  • the television receiver 10 described in Embodiment 1 has a voice recognition function, and the user 90 can operate the television receiver 10 by voice (hereinafter referred to as “voice operation”).
  • FIG. 1 is a schematic diagram of a speech recognition system 1 according to the first embodiment.
  • FIG. 1 shows a user 90 of the television receiver 10 in addition to the voice recognition system 1 including the television receiver 10.
  • the voice recognition system 1 includes a television receiver 10, a voice recognition server 50, and a network 40 that connects these devices so that they can communicate with each other.
  • the network 40 includes, for example, a wide area communication network such as the Internet.
  • the television receiver 10 includes a processor, a memory, a storage medium such as a hard disk device, a broadcast receiving circuit, a communication interface, and the like.
  • the television receiver 10 includes a microphone (hereinafter referred to as “microphone”) 130 and a display 140 as user interfaces.
  • the television receiver 10 receives a television broadcast through a communication path such as a broadcast wave or a communication cable in accordance with a user operation, and displays the received broadcast program video or the like on the display 140.
  • a communication path such as a broadcast wave or a communication cable in accordance with a user operation
  • the microphone 130 can collect the voice uttered by the user 90 facing the display 140.
  • the television receiver 10 acquires the voice (input voice) uttered by the user 90 through the microphone 130.
  • the television receiver 10 has a voice recognition function that can recognize words based on the input voice.
  • the input sound is processed as a signal or data representing sound in the television receiver 10.
  • the user 90 can operate the television receiver 10 with a remote controller (not shown) or the like.
  • the user can input voice to the television receiver 10 by uttering a word toward the display 140.
  • the operation of the television receiver 10 when a user inputs audio to the television receiver 10 will be described.
  • a word is a phrase composed of one or more words in various languages such as Japanese and English.
  • the voice recognition server 50 is a computer that includes a processor, a memory, a storage medium such as a hard disk device, a communication interface, and the like and has a voice recognition function.
  • the voice recognition server 50 provides a voice recognition service or the like in the voice recognition system 1.
  • the speech recognition service receives, for example, input speech transmitted through a network, performs speech recognition based on the received input speech, and information related to speech (for example, the word and the word) This is a service for returning the acoustic features, etc.) to the transmission source of the input voice.
  • the television receiver 10 transmits input voice to the voice recognition server 50 through the network 40. Therefore, the transmission source of the above-mentioned input sound is the television receiver 10 in the example shown in FIG.
  • the voice recognition system 1 can be configured such that a plurality of television receivers 10 installed in a plurality of houses communicate with one voice recognition server 50. Further, for example, the number of target words by the voice recognition function of the voice recognition server 50 is made larger than the number of words to be recognized by the voice recognition function of the television receiver 10 (hereinafter referred to as “target words”). Is also possible. The number of target words is related to the data amount of the dictionary for speech recognition.
  • the speech recognition server 50 has a dictionary including a plurality of (for example, 100,000 or more) words corresponding to a plurality of types (for example, more than twenty types) of languages, and recognizes some word with respect to the input speech.
  • the voice recognition server 50 has a function of receiving rejection information from the television receiver 10. The rejection information is information determined based on the input voice in the television receiver 10 by the voice recognition function of the television receiver 10.
  • Each of the communication interface provided in the television receiver 10 and the communication interface provided in the voice recognition server 50 is a communication circuit or the like for transmitting / receiving information to / from other devices via the network 40.
  • each memory mentioned above is ROM (Read Only Memory), RAM (Random Access Memory), etc., and may contain the non-volatile memory.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • a control program for realizing processing of each functional component described later, a setting value for use in the control program, and the like may be stored in advance.
  • the memory may be used for temporarily storing values (parameters, etc.) used when the processor executes the control program.
  • FIG. 2 is a block diagram schematically showing a configuration example of the speech recognition system 1 according to the first embodiment.
  • FIG. 2 mainly shows the functional configurations of the speech recognition apparatus 100 and the speech recognition server 50 of the television receiver 10 that constitute the speech recognition system 1.
  • the television receiver 10 includes a voice recognition device 100, a microphone 130, a display 140, a communication unit 150, a tuner 160, and a storage unit 170, as shown in FIG. Note that the television receiver 10 has a function of entering a standby state (standby state) in which the power consumption is reduced and the power supply to the display 140 is stopped when the user 90 does not use the television receiver 10.
  • a standby state standby state
  • FIG. 2 shows only the components related to the present embodiment among the plurality of components included in the television receiver 10, and omits other components (for example, a power supply unit, etc.). Yes.
  • the communication unit 150 is an example of a communication interface.
  • the communication unit 150 communicates with the voice recognition server 50 via the network 40.
  • the tuner 160 is a broadcast signal receiving circuit.
  • the tuner 160 receives a broadcast signal of a television broadcast transmitted via a broadcast wave or a communication cable.
  • the storage unit 170 is an area of a storage medium such as a memory or a hard disk device.
  • the storage unit 170 stores information used for controlling each unit of the television receiver 10, a control program, and the like.
  • the voice recognition device 100 has a voice recognition function.
  • the speech recognition apparatus 100 is realized by a processor that executes a control program stored in a memory, a memory, and the like. As shown in FIG. 2, the speech recognition apparatus 100 includes a speech recognition unit 101, a storage unit 102, a rejection information generation unit 103, a control unit 104, and an output unit 105 as functional components.
  • the storage unit 102 is realized by an area of a storage medium such as a memory or a hard disk device.
  • the storage unit 102 stores recognition information that determines a target word as a speech recognition dictionary.
  • the storage unit 102 has an area for storing rejection information used to prevent erroneous recognition of the target word. Note that the storage unit 102 and the storage unit 170 may be realized by different storage media, or may be realized as different areas of the same storage medium.
  • FIG. 3 is a diagram schematically illustrating a configuration example and a content example of the recognition information in the first embodiment.
  • the recognition information is information in which, for each target word to be recognized, the target word and acoustic feature information indicating the acoustic feature of the sound representing the target word are associated with each other.
  • the acoustic feature information is, for example, a symbol string composed of phoneme labels expressed by a statistical model (HMM: Hidden Markov Model) or the like.
  • the target word in the recognition information stored in the storage unit 102 includes, for example, a word representing a command for controlling the television receiver 10 or the like.
  • FIG. 3 illustrates the word “power on”. “Power on” represents a command for starting the power on function of the television receiver 10.
  • the power-on function is a function for starting power supply to the display 140 or the like in the television receiver 10, for example.
  • FIG. 3 illustrates the word “Mic-on”. “Mic-on” is a word serving as a trigger when starting the reception of voice input (voice reception), and is a command for starting the voice reception function in the voice recognition apparatus 100.
  • FIG. 4 is a diagram schematically showing a configuration example of the rejection information list in the first embodiment.
  • the rejection information list is a set of one or more rejection information stored in the storage unit 102.
  • the rejection information is information in which the target word, the rejection word, and the acoustic feature information of the rejection word are associated with each other.
  • the rejection word is similar to the target word corresponding to the rejection word when it is uttered (pronounced), and when speech recognition is performed using only the recognition information, It is a word that can be misrecognized.
  • the voice recognition unit 101 is realized by a processor or the like that executes a control program.
  • the speech recognition unit 101 has a function of recognizing input speech collected through the microphone 130.
  • the speech recognition unit 101 recognizes speech by specifying a target word corresponding to the input speech collected through the microphone 130 based on the speech recognition dictionary stored in the storage unit 102.
  • the speech recognition unit 101 compares the acoustic feature for specifying the speech of the target word with the acoustic feature of the input speech based on the recognition information stored in the storage unit 102. Speech recognition is performed by determining the similarity. As described above, the speech recognition unit 101 performs speech recognition based on the similarity between the speech of the target word and the input speech.
  • each acoustic feature of the target word speech and the input speech is represented by a plurality of numerical parameters, the numerical values of the parameters are compared with each other, and the closer the compared numerical values are, the higher the similarity is
  • An example of such a method is as follows.
  • the present disclosure does not limit how to determine the similarity.
  • An existing method other than this method may be applied to determine the similarity.
  • the speech recognition unit 101 may identify the target word as a result of speech recognition for the input speech when a certain target word and the input speech are similar and exceed a predetermined threshold for similarity determination. Good.
  • the speech recognition unit 101 calculates the similarity between the speech specified by the acoustic feature of the rejection word corresponding to the target word and the input speech. When the similarity is lower than a predetermined threshold, the speech recognition unit 101 specifies the target word as a result of speech recognition of the input speech.
  • the voice recognition unit 101 specifies the likelihood when specifying one target word as a result of the voice recognition.
  • Likelihood is an index representing the likelihood of the result of speech recognition.
  • the likelihood is determined based on the result of comparison and determination performed by the speech recognition unit 101 such as similarity. For example, as an example, the similarity between the voice represented by the target word and the input voice may be used as the likelihood.
  • the rejection information generation unit 103 is realized by a processor or the like that executes a control program.
  • Rejection information generation unit 103 has a function of generating rejection information based on the input voice from microphone 130 in a predetermined state and storing the generated rejection information in storage unit 102.
  • Rejection information constitutes a rejection information list.
  • this predetermined state is a state in which the speech recognition apparatus 100 is not waiting for input of the target word, for example. In the speech recognition apparatus 100, normally, the target word should not be recognized from the input speech when not waiting for input of the target word.
  • Voice input is performed in a state where the input of a certain target word is not awaited (that is, a predetermined state), the voice recognition unit 101 recognizes that the input voice is the target word, and the likelihood of the result of voice recognition is described later.
  • the rejection information generation unit 103 transmits the input voice to the voice recognition server 50 via the communication unit 150 and the network 40. Then, rejection information generation unit 103 receives from speech recognition server 50 a word that is a result of speech recognition in speech recognition server 50 for the input speech. Then, rejection information generation unit 103 generates rejection information using the word as a rejection word, and stores the generated rejection information in storage unit 102.
  • the state of not waiting for input of the target word may be different for each target word.
  • the speech recognition apparatus 100 is “power-on”. It is not waiting for input of the target word. Therefore, for the target word “power on”, the state in which the television receiver 10 is turned on may be set as a predetermined state.
  • the rejection information generation unit 103 transmits the input voice to the voice recognition server 50. Then, the rejection information generation unit 103 receives a word that is a result of speech recognition for the input speech from the speech recognition server 50. Then, the rejection information generation unit 103 stores, in the storage unit 102, rejection information that uses the received word as a rejection word. In the above-described operation example, this rejection word is estimated not to be “power on” but to a phrase other than “power on” whose sound resembles “power on”.
  • the television receiver 10 is already in a state in which the power-on function is executed (for example, a state in which power is supplied to the display 140 and a broadcast program or the like is displayed on the display 140), the user 90 This is because it can be estimated that there is a high possibility that the voice input of the command “power on” is not performed.
  • the control unit 104 is realized by a processor or the like that executes a control program.
  • the control unit 104 has a function of performing control according to the command represented by the target word recognized by the voice recognition unit 101 (that is, control processing predetermined as an action corresponding to the input voice that has been voice-recognized).
  • the command represented by the target word is a command for controlling each part of the television receiver 10 (for example, the display 140, the tuner 160, etc.)
  • the control unit 104 sends the command to each part.
  • a corresponding control signal is transmitted.
  • the control unit 104 performs control according to the command represented by the target word. If the likelihood of the result of speech recognition exceeds the threshold value S1, the control is performed when the condition is satisfied.
  • the output unit 105 is realized by a processor or the like that executes a control program.
  • the output unit 105 transmits the rejection information list to an external server (for example, a voice recognition server) via the communication unit 150 and the network 40. 50).
  • an external server for example, a voice recognition server
  • the voice recognition server 50 includes a voice recognition unit 51 and a storage unit 52 as functional components as shown in FIG.
  • FIG. 2 shows only the components related to the present embodiment among the plurality of components included in the speech recognition server 50, and the components generally included in the server computer (for example, a processor, a communication interface, The power supply unit and the like are omitted.
  • the storage unit 52 has a function of storing a dictionary for speech recognition.
  • the storage unit 52 may be configured by a storage medium such as a relatively large capacity hard disk device, for example.
  • the storage unit 52 may store a dictionary having a larger amount of data than the speech recognition dictionary that the speech recognition apparatus 100 has.
  • the voice recognition unit 51 performs voice recognition based on the input voice received from the television receiver 10 using the dictionary stored in the storage unit 52, specifies a word corresponding to the input voice, and sets the word to the television. It has a function of returning to the receiver 10.
  • FIG. 5 is a flowchart illustrating an example of a voice input handling process executed by the voice recognition device 100 according to the first embodiment.
  • FIG. 5 an operation related to the voice input handling process of the voice recognition apparatus 100 will be described.
  • the voice recognition device 100 acquires the voice (input voice) uttered by the user 90 through the microphone 130 of the television receiver 10 (step S11).
  • the voice recognition device 100 stands by until voice (input voice) uttered by the user 90 is acquired (No in step S11). This state is a state of “waiting for input”.
  • step S11 When the voice (input voice) uttered by the user 90 is acquired in step S11 (Yes in step S11), the voice recognition device 100 performs voice recognition processing by the voice recognition unit 101 (step S12).
  • step S12 the details of the speech recognition process in step S12 will be described with reference to FIG.
  • FIG. 6 is a flowchart showing an example of the speech recognition process executed by the speech recognition apparatus 100 according to the first embodiment.
  • the speech recognition unit 101 refers to the recognition information stored in the storage unit 102 and compares the acoustic features of the input speech with the acoustic features of one or more target words.
  • the rejection information list is stored in the storage unit 102, the rejection information list is also referred to, and the acoustic feature of the input speech and the acoustic feature of the rejection word are compared with each other (step S31).
  • the speech recognition unit 101 selects a rejection word whose similarity to the input speech regarding the acoustic feature is lower than a predetermined threshold. Then, the speech recognition unit 101 selects a target word having the highest similarity to the input speech related to the acoustic feature among the target words corresponding to the rejection words (step S32).
  • the rejection word is used in the voice recognition unit 101 to prevent occurrence of erroneous recognition.
  • the target word selection process in step S32 the target word having the highest similarity to the input speech related to the acoustic features is selected from the target words of the recognition information.
  • this selection conditions are set so that the target word corresponding to the rejection word having a high similarity to the input speech is not selected from the rejection words determined for preventing misrecognition corresponding to the target word. ing.
  • the speech recognition unit 101 specifies the likelihood based on the similarity regarding the acoustic feature between the target word selected in step S32 and the input speech (step S33).
  • the voice recognition unit 101 identifies the target word selected in step S32 as a result of voice recognition (step S34), and ends the voice recognition process.
  • step S12 the description of the voice input handling process after step S12 is continued.
  • the control unit 104 of the speech recognition apparatus 100 determines whether or not the result of speech recognition by the speech recognition unit 101 in step S12 is “power on” and the likelihood specified in step S33 in step S12 exceeds the threshold value S0. Is determined (step S13).
  • Threshold value S0 is a predetermined numerical value based on experiments or the like.
  • the threshold value S0 clearly indicates a target word (eg, “power on”, “microphone on”, etc.) corresponding to the command when the user who faces the display 140 of the television receiver 10 tries to input the command by voice. When speaking, it is determined that the likelihood at that time exceeds the threshold value S0.
  • step S13 determines No in step S13 (that is, when the result of speech recognition in step S12 is not “power on”, or the likelihood specified in step S33 in step S12 is equal to or less than the threshold value S0).
  • the voice recognition apparatus 100 returns the process to step S11 and waits until the voice (input voice) uttered by the user 90 is acquired. Therefore, the processing of step S11 to step S13 here is processing for waiting for the voice input of the “power-on” command in the voice recognition apparatus 100.
  • control unit 104 determines Yes in step S13 (that is, when the result of speech recognition in step S12 is “power on” and the likelihood specified in step S33 in step S12 exceeds the threshold value S0 ).
  • the control unit 104 activates a power-on function as an action corresponding to the input voice, and starts supplying power to, for example, the display 140 (step S14).
  • the voice recognition device 100 acquires the voice (input voice) uttered by the user 90 through the microphone 130 of the television receiver 10 (step S15).
  • the voice recognition device 100 stands by until voice (input voice) uttered by the user 90 is acquired (No in step S15). That is, the speech recognition apparatus 100 is in the “waiting for input” state.
  • step S14 the speech recognition apparatus 100 is not waiting for input for the speech of the target word representing the “power-on” command in step S15.
  • step S15 When the voice (input voice) uttered by the user 90 is acquired in step S15 (Yes in step S15), the voice recognition device 100 performs voice recognition processing by the voice recognition unit 101 (step S16).
  • the voice recognition process in step S16 is substantially the same as the voice recognition process in step S12 described with reference to FIG.
  • the control unit 104 of the speech recognition apparatus 100 determines whether or not the result of speech recognition by the speech recognition unit 101 in step S16 is “microphone on” and the likelihood specified in step S33 in step S16 exceeds the threshold value S0. Are determined (step S17).
  • control unit 104 determines No in step S17 (that is, when the result of speech recognition in step S16 is not “microphone on”, or when the likelihood specified in step S33 in step S16 is equal to or less than the threshold value S0).
  • the control unit 104 determines whether or not the voice recognition result of the voice recognition unit 101 in step S16 is “power on” and the likelihood specified in step S33 in step S16 exceeds the threshold value S1. Judgment is made (step S18).
  • Threshold value S1 is a value set below threshold value S0.
  • the threshold value S1 may be the same value as the threshold value S0. However, setting the threshold value S1 to a value slightly lower than the threshold value S0 means that the rejection information generation unit 103 determines rejection information for preventing erroneous recognition at the time of speech recognition in the subsequent step (procedure). ,It is valid.
  • step S18 determines No in step S18 (that is, when the result of speech recognition in step S16 is not “power on”, or the likelihood specified in step S33 in step S16 is equal to or less than the threshold value S1).
  • the voice recognition apparatus 100 returns the process to step S15 and waits until voice (input voice) uttered by the user 90 is acquired.
  • the rejection information generation unit 103 starts a server speech recognition process (step S19).
  • the server speech recognition process is started when the input speech used for speech recognition of the speech recognition unit 101 is transmitted to the speech recognition server 50.
  • the control unit 104 determines Yes in step S18, the control unit 104 has already executed the power-on function, and does not execute the power-on function. That is, when the speech recognition unit 101 recognizes the input speech as the target word in a state that is not in a predetermined state, the control unit 104 executes a predetermined control process, and in the predetermined state, the speech recognition unit 101 receives the input speech. If it is recognized as the target word, the control process is not executed.
  • the predetermined state in this case is a state where power is supplied to the display 140, for example.
  • the state which is not a predetermined state in this case is a state where the television receiver 10 is in a standby state, for example.
  • the target word in this case is, for example, power-on.
  • the predetermined control process in this case is a process of supplying power to the display 140 or the like, for example.
  • FIG. 7 is a flowchart illustrating an example of server speech recognition processing executed by the speech recognition system 1 according to the first embodiment.
  • FIG. 7 shows an example of server speech recognition processing executed by the rejection information generation unit 103 of the television receiver 10 in cooperation with the speech recognition server 50.
  • the rejection information generation unit 103 of the television receiver 10 transmits the input voice to the voice recognition server 50 via the communication unit 150 and the network 40 (step S41).
  • the voice recognition server 50 receives the input voice transmitted from the television receiver 10 via the network 40.
  • the speech recognition unit 51 recognizes the input speech based on the speech recognition dictionary stored in the storage unit 52, and specifies a word represented by the input speech as a result of the speech recognition. Then, the voice recognition server 50 transmits the word identified as a result of the voice recognition and the acoustic feature of the voice representing the word to the communication unit 150 of the television receiver 10 via the network 40 (step S42).
  • the rejection information generation unit 103 of the television receiver 10 receives information related to the word and the acoustic feature as a result of the speech recognition via the network 40 and the communication unit 150 (step S43).
  • the server voice recognition process shown in FIG. Therefore, a word other than “power on” that may be erroneously recognized as “power on” and information indicating the acoustic characteristics of the word are generated as rejection information as a result of speech recognition from the speech recognition server 50. Received by the unit 103.
  • step S19 the description of the voice input handling process after step S19 is continued.
  • the rejection information generation unit 103 generates rejection information based on the result of speech recognition received from the speech recognition server 50, and adds the generated rejection information to the rejection information list in the storage unit 102 (step S20).
  • the rejection information generation unit 103 sets the word received from the speech recognition server 50 and the acoustic characteristics of the word as the acoustic characteristics of the rejection word and the rejection word, and sets these as the target word “power-on”. Is stored in the storage unit 102 as the rejection information (see FIG. 4) associated with.
  • the speech recognition unit 101 performs speech recognition of the input speech, the similarity regarding the acoustic feature with the rejection word indicated by the rejection information is equal to or greater than a predetermined threshold.
  • Words for example, words other than “power on” that are similar to “power on”
  • the target word for example, “power on”
  • the input speech is prevented from being erroneously recognized as the target word.
  • step S20 the speech recognition apparatus 100 returns the process to step S15 and waits until the speech (input speech) uttered by the user 90 is acquired.
  • control unit 104 determines Yes in step S17 (that is, when the speech recognition result in step S16 is “microphone on” and the likelihood specified in step S33 in step S16 exceeds the threshold value S0).
  • the control unit 104 executes a voice reception function as an action corresponding to the input voice, and starts receiving voice (step S21).
  • the voice reception function is a function that gives the user 90 timing to receive a command or the like after the power-on function is executed by the television receiver 10.
  • the word “microphone on” is a word that triggers when the speech recognition apparatus 100 starts accepting speech.
  • the voice recognition apparatus 100 that has started accepting voice acquires voice (input voice) uttered by the user 90 through the microphone 130 of the television receiver 10 (step S22).
  • the voice recognition device 100 stands by until voice (input voice) uttered by the user 90 is acquired (No in step S22). That is, the speech recognition apparatus 100 is in the “waiting for input” state.
  • step S22 When the voice (input voice) uttered by the user 90 is acquired in step S22 (Yes in step S22), the voice recognition device 100 performs voice recognition processing by the voice recognition unit 101 (step S23).
  • the voice recognition process in step S23 is substantially the same as the voice recognition process in step S12 described with reference to FIG.
  • the control unit 104 of the speech recognition apparatus 100 performs control according to the target word recognized from the input speech as a result of the speech recognition process in Step S23 (Step S24).
  • step S24 the control unit 104 performs predetermined control as an action corresponding to the input voice. That is, in step S24, the control unit 104 transmits a control signal for controlling each unit of the television receiver 10 to each unit in accordance with the command represented by the target word. For example, when the target word “power off” is recognized by the voice recognition unit 101 in the voice recognition process in step S23, the control unit 104 stops the power supply to the display 140 in step S24. The control signal for transmitting to each part. As a result, the television receiver 10 enters a standby state.
  • step S24 the speech recognition apparatus 100 returns the process to step S15 and waits until the speech (input speech) uttered by the user 90 is acquired.
  • FIG. 8 is a flowchart showing an example of rejection information transmission processing executed by the speech recognition apparatus 100 according to the first embodiment.
  • movement which concerns on the rejection information transmission process of the speech recognition apparatus 100 is demonstrated.
  • the output unit 105 of the speech recognition apparatus 100 transmits the rejection information to the external server (for example, the speech recognition server 50) via the communication unit 150 and the network 40. (Step S51).
  • the output unit 105 determines whether or not a certain time (for example, one month) has elapsed since the execution of the process of step S51 (step S52).
  • the output unit 105 waits until a predetermined time (for example, one month, etc.) elapses after the process of step S51 is executed (No in step S52).
  • a predetermined time for example, one month, etc.
  • step S51 If the output unit 105 determines that a certain time (for example, one month) has elapsed after executing the process of step S51 (Yes in step S52), the output unit 105 returns the process to step S51 and performs the process of step S51. Execute.
  • a certain time for example, one month
  • rejection information from the plurality of television receivers 10 is transferred to one external server (for example, a speech recognition server). 50).
  • rejection information that is information of a word that is easily misrecognized as a certain target word (for example, “power on”) can be collected from the television receivers 10 installed in each of a plurality of homes.
  • the rejection information collected in this way can be used to improve the accuracy of speech recognition in the speech recognition apparatus 100.
  • a rejection information list based on the rejection information collected in this manner may be stored in advance in the storage unit 102 of the television receiver 10 when the television receiver 10 is manufactured.
  • a rejection information list based on the rejection information collected in this way may be distributed to the television receiver 10 through the network 40.
  • the speech recognition device is a speech recognition device that recognizes input speech as a target word.
  • the speech recognition apparatus includes a storage unit, a speech recognition unit, and a rejection information generation unit.
  • the storage unit stores rejection information that is used to specify the voice.
  • the speech recognition unit recognizes the input speech as a target word on the condition that the similarity between the speech specified by the rejection information and the input speech is lower than a predetermined threshold.
  • the rejection information generation unit determines the rejection information based on the input speech, and stores the rejection information in the storage unit.
  • the target word is a word that is a target of speech recognition.
  • the voice recognition device 100 is an example of a voice recognition device.
  • the storage unit 102 is an example of a storage unit.
  • the voice recognition unit 101 is an example of a voice recognition unit.
  • Rejection information generation unit 103 is an example of a rejection information generation unit.
  • the rejection information shown in FIG. 4 is an example of the rejection information.
  • the speech recognition system 1 recognizes an input speech as a target word (for example, “power on”) under a certain condition, and a word corresponding to the input speech.
  • the speech recognition apparatus 100 includes a storage unit 102, a speech recognition unit 101, and a rejection information generation unit 103.
  • the storage unit 102 stores rejection information used for voice identification.
  • the speech recognition unit 101 recognizes the input speech as a target word on the condition that the similarity between the speech specified by the rejection information and the input speech is lower than a predetermined threshold.
  • the rejection information generation unit 103 transmits the input speech to the speech recognition server 50 when the speech recognition unit 101 recognizes the input speech as a target word in a predetermined state (for example, a state in which the input is not “power on”). Then, information related to the speech representing the word recognized by the speech recognition server 50 based on the input speech is received from the speech recognition server 50, and the received information is determined as rejection information and stored in the storage unit 102.
  • the voice recognition server 50 includes a voice recognition unit 51.
  • the speech recognition unit 51 recognizes a word corresponding to the input speech based on the input speech received from the speech recognition device 100 and transmits the word to the speech recognition device 100.
  • the speech recognition apparatus 100 can determine rejection information such as a rejection word based on the voice uttered by the user 90 using the speech recognition apparatus 100. Therefore, the speech recognition apparatus 100 can reduce erroneous recognition of the target word and realize highly accurate speech recognition. In addition, the work required to determine the rejection information can be reduced.
  • the speech recognition apparatus 100 can appropriately determine rejection information for identifying speech that is erroneously recognized as a speech recognition target word, and can use it for speech recognition. It is possible to improve the convenience of the user who performs input.
  • the voice recognition device may further include a control unit.
  • the control unit may execute a predetermined control process when the speech recognition unit recognizes the input speech as the target word in a state that is not in the predetermined state, and the speech recognition unit targets the input speech in the predetermined state. If it is recognized as a word, the control process need not be executed.
  • control unit 104 is an example of a control unit.
  • the user is not controlled (for example, the voice input is unnecessary or the voice input is invalid). Based on the voice uttered by 90, it is possible to appropriately determine rejection information for preventing erroneous recognition as a target word.
  • the rejection information generation unit may determine, as rejection information, information related to a voice representing a word that is recognized without depending on the voice recognition unit based on the input voice.
  • a component having another voice recognition function or an acoustic feature representing a word recognized on the basis of an input voice by an external device can be defined as rejection information.
  • rejection information for example, a word that is not intentionally uttered as the target word, for example, a word uttered by conversation, monologue, or the like, Therefore, it is possible to prevent erroneous recognition as a target word.
  • the rejection information generation unit obtains information related to the speech representing the word as a result of causing the external device to perform speech recognition based on the input speech from the external device, and uses the information related to the speech representing the word as the rejection information. It may be determined.
  • the voice recognition server 50 is an example of an external device.
  • the speech recognition apparatus 100 can determine, as the rejection information, an acoustic feature representing a word recognized by the speech recognition server 50 based on the input speech. This is useful when, for example, a speech recognition mechanism having features such as multi-language support or high recognition accuracy cannot be configured in the speech recognition apparatus 100 due to a capacity limitation of a storage medium for storing a dictionary for speech recognition. Become.
  • the speech recognition apparatus 100 can generate rejection information in cooperation with the speech recognition server 50 including such a speech recognition mechanism.
  • the rejection information generation unit may store the rejection information in the storage unit when receiving a predetermined input when the speech recognition unit recognizes the input speech as a target word in a predetermined state.
  • the display screen shown in FIG. 9 is an example of a predetermined input receiving screen.
  • the rejection information generation unit 103 can appropriately determine the rejection information by obtaining confirmation from the user 90 by a predetermined input.
  • the voice recognition device may be provided in a television receiver having a microphone and a display.
  • the control process may be a process for supplying power to the display.
  • the predetermined state may be a state where power is supplied to the display.
  • the television receiver 10 is an example of a television receiver.
  • the microphone 130 is an example of a microphone.
  • the display 140 is an example of a display.
  • the user 90 when the television receiver 10 is in a standby state (standby state), the user 90 inputs a voice to the television receiver 10 with a command for executing the power-on function.
  • the rejection information prevents an input voice that is not a command for executing the power-on function from being erroneously recognized as a command for executing the power-on function. Therefore, the television receiver 10 can perform voice recognition with high accuracy. For this reason, the television receiver 10 does not require the user 90 to utter the voice that triggers the start of voice recognition prior to the command related to the power-on function, thereby preventing erroneous recognition. Accordingly, the user 90 can quickly make the television receiver 10 viewable.
  • the voice recognition device may further include an output unit.
  • the output unit may output the rejection information stored in the storage unit to the outside.
  • the output unit 105 is an example of an output unit.
  • the external speech recognition server 50 acquires the rejection information generated based on the speech (input speech) uttered by the user 90 using the speech recognition apparatus 100. it can.
  • the rejection information acquired in the voice recognition server 50 can be used for further accuracy improvement of the voice recognition device, manufacture of the voice recognition mechanism, and the like.
  • a state in which the target word is not waiting for input or a state in which the target word should not be recognized may be set as the predetermined state.
  • the speech recognition apparatus When the speech recognition apparatus is provided in a television receiver having a microphone and a display, and the target word is a word representing an instruction to supply power to the display, the state in which power is supplied to the display may be set as a predetermined state. .
  • target word “power on” is an example of a word representing an instruction to supply power to the display.
  • the television receiver 10 has already performed the power-on function (a state where power is supplied to the display 140 and a broadcast program or the like is displayed on the display 140). If this is the case, it is highly likely that the user 90 does not perform voice input of the command “power on”. Therefore, if there is an input voice recognized as “power on” by the voice recognition device 100 in this state, the word based on the input voice is not “power on” but “power on” whose sound is similar to “power on”. It is highly possible that the word is other than “”. Therefore, the speech recognition apparatus 100 is configured such that the predetermined state related to the target word “power on” is not waiting for input of the target word “power on”, that is, the power is supplied to the display 140.
  • the speech recognition system includes a first speech recognition device that recognizes an input speech as a target word, and a second speech recognition device that recognizes a word corresponding to the input speech.
  • the first speech recognition apparatus includes a storage unit, a first speech recognition unit, and a rejection information generation unit.
  • storage part memorize
  • the first speech recognition unit recognizes the input speech as a target word on the condition that the similarity between the speech specified by the rejection information and the input speech is lower than a predetermined threshold.
  • the rejection information generation unit transmits the input speech to the second speech recognition device when the first speech recognition unit recognizes the input speech as the target word in a predetermined state, and the second speech recognition device based on the input speech Is received from the second speech recognition apparatus, the received information is determined as rejection information, and the rejection information is stored in the storage unit.
  • the second voice recognition device has a second voice recognition unit. The second speech recognition unit recognizes a word corresponding to the input speech based on the input speech received from the first speech recognition device, and transmits the word to the first speech recognition device.
  • the voice recognition system 1 is an example of a voice recognition system.
  • the voice recognition device 100 is an example of a first voice recognition device.
  • the voice recognition server 50 is an example of a second voice recognition device.
  • the voice recognition unit 101 is an example of a first voice recognition unit.
  • the voice recognition unit 51 is an example of a second voice recognition unit.
  • This voice recognition system has two voice recognition mechanisms.
  • the second speech recognition device may be configured without being restricted by restrictions (for example, it is difficult to provide a large-capacity storage medium) that the first speech recognition device has.
  • the speech recognition dictionary may be configured with a storage medium having a larger capacity than the first speech recognition apparatus.
  • the first speech recognition device uses the second speech recognition device and causes the second speech recognition device to perform speech recognition based on the input speech input to the first speech recognition device. May be.
  • the 1st speech recognition apparatus can determine rejection information, such as a rejection word, using the result of higher accuracy speech recognition in the 2nd speech recognition device, it can perform speech recognition with higher accuracy. become.
  • the speech recognition server 50 can have a speech recognition dictionary having a larger capacity than the speech recognition dictionary that the speech recognition apparatus 100 has.
  • the voice recognition device 100 can use the voice recognition server 50 to cause the voice recognition server 50 to perform voice recognition based on the input voice input to the voice recognition device 100. is there. Therefore, since the speech recognition apparatus 100 can determine rejection information such as a rejection word using the result of speech recognition with higher accuracy in the speech recognition server 50, speech recognition with higher accuracy can be performed.
  • the speech recognition system 1 can appropriately determine rejection information that identifies speech that is erroneously recognized as a speech recognition target word and can be used for speech recognition. The convenience of the user who performs can be improved.
  • the voice recognition method is a voice recognition method used in a voice recognition device.
  • the voice recognition device includes a storage unit and a voice recognition unit.
  • storage part memorize
  • the speech recognition unit recognizes the input speech as a target word on the condition that the similarity between the speech specified by the rejection information and the input speech is lower than a predetermined threshold.
  • the speech recognition method includes a step of determining whether or not the speech recognition unit recognizes an input speech as a target word in a predetermined state where the target word should not be recognized; And determining the rejection information based on the input voice and storing the rejection information in the storage unit.
  • the speech recognition apparatus 100 can appropriately determine the rejection information based on the speech uttered by the user 90 using the speech recognition apparatus 100. Therefore, the speech recognition apparatus 100 can perform speech recognition with higher accuracy.
  • the control program is a control program for causing the processor of the speech recognition apparatus to execute speech recognition processing.
  • the voice recognition device includes a storage unit and a voice recognition unit.
  • storage part memorize
  • the speech recognition unit recognizes the input speech as a target word on the condition that the similarity between the speech specified by the rejection information and the input speech is lower than a predetermined threshold.
  • the speech recognition processing includes a step of determining whether or not the speech recognition unit recognizes the input speech as the target word in a predetermined state where the target word should not be recognized, and the speech recognition unit converts the input speech to the target word in the predetermined state. And determining the rejection information based on the input voice and storing the rejection information in the storage unit.
  • the speech recognition apparatus in which this control program is executed can appropriately determine the rejection information based on the speech uttered by the user who uses the speech recognition apparatus.
  • the speech recognition apparatus 100 in which this control program is executed can appropriately determine the rejection information based on the speech uttered by the user 90 using the speech recognition apparatus 100. it can. Therefore, the speech recognition apparatus 100 can perform speech recognition with higher accuracy.
  • the first embodiment has been described as an example of the technique disclosed in the present application.
  • the technology in the present disclosure is not limited to this, and can also be applied to embodiments in which changes, replacements, additions, omissions, and the like are performed.
  • the speech recognition apparatus 100 has a function of controlling each unit of the television receiver 10 has been described.
  • the speech recognition apparatus 100 may not have a function of controlling each unit of the television receiver 10.
  • the speech recognition device 100 may be a component that outputs a result of speech recognition when input speech is given to the television receiver 10 or other devices.
  • the voice recognition device 100 may be provided in various devices (for example, various input devices, home appliances, information terminals, robots, in-vehicle devices, vehicles, etc.) to which a voice input interface can be applied.
  • the speech recognition apparatus 100 may include a television broadcast reception function, a video display function, a voice synthesis function, a movement function, and other various functional units.
  • the voice recognition server 50 shown in the first embodiment may not be installed at a location away from the voice recognition device 100.
  • the voice recognition server 50 may be installed in a facility where the voice recognition apparatus 100 is installed, and connected to the voice recognition apparatus 100 via a LAN (Local Area Network).
  • the voice recognition server 50 may be provided in a device (for example, a television receiver) including the voice recognition device 100.
  • the number of words that can be recognized by the speech recognition server 50 may not be larger than the number of words that the speech recognition unit 101 can recognize.
  • the speech recognition apparatus 100 may transmit the input speech to the speech recognition server 50 each time the input speech is acquired, receive the speech recognition result from the speech recognition server 50, and use the received speech recognition result. .
  • the speech recognition apparatus 100 uses a command that is a speech recognition result from the speech recognition server 50 as a command. It may be determined whether or not this is true.
  • a search function for searching for a word that is the result of speech recognition from the speech recognition server 50 May be activated.
  • This search function is a function of acquiring information related to a search target word and displaying it on the display 140 by accessing an external server (for example, a so-called search engine) on the Internet, for example.
  • the target word “power on” is taken as an example, and the operation example in which the state in which the power on function has already been executed is set to a predetermined state in which rejection information may be generated has been described.
  • the speech recognition unit 101 does not have to generate the rejection information based on the input speech immediately after a word serving as a speech acceptance trigger is uttered by the user 90, for example.
  • the speech recognition apparatus 100 may determine the rejection information under a predetermined condition. For example, the speech recognition apparatus 100 may confirm with the user 90 whether or not the word acquired from the speech recognition server 50 may be determined as a rejection word. For example, the voice recognition device 100 displays a word acquired from the voice recognition server 50 on the display 140, and inputs the user 90 to the displayed word (for example, input by operating a remote controller or voice input). Based on this, the word may be determined as a rejection word. That is, the speech recognition apparatus 100 may determine the rejection information when receiving a predetermined input from the user 90. An example of a display screen when the voice recognition apparatus 100 performs such an operation is shown in FIG.
  • FIG. 9 is a diagram schematically showing an example of the display screen in the first embodiment.
  • a message 141 is displayed on the screen of the display 140 to confirm to the user whether or not to register the word “xxxx” acquired from the speech recognition server 50 as a rejection word.
  • the speech recognition apparatus 100 registers the word “xxxx” as a rejection word when “Yes” is input from the user 90, and rejects the word “xxxx” when “No” is input from the user 90. Do not register as.
  • the speech recognition apparatus 100 may perform such an operation.
  • the control unit 104 of the speech recognition apparatus 100 compares the likelihood of the result of speech recognition in the speech recognition unit 101 with threshold values (threshold values S0 and S1), and the likelihood exceeds the threshold value.
  • threshold values threshold values S0 and S1
  • the speech recognition apparatus 100 may not use the likelihood. In that case, the speech recognition unit 101 may not specify the likelihood.
  • the speech recognition unit 101 may perform speech recognition, assuming that the likelihood exceeds the threshold as one of the conditions in the recognition of the target word.
  • the speech recognition unit 101 uses a condition related to likelihood in addition to a condition related to rejection information. Therefore, for example, in such a case, when the likelihood does not exceed the threshold, the speech recognition apparatus 100 may have no speech recognition result.
  • the voice recognition unit 101 has a voice whose input voice is smaller than a certain level or a voice other than a frequency band that can be uttered by a person, in which a voice representing a word is not input (that is, a corresponding target word Voice recognition processing such as specifying the
  • an example for example, “power on”, “microphone on”, etc. having a plurality of target words of recognition information (see FIG. 3) is shown. However, there may be one target word.
  • Embodiment 1 the example in which the rejection information (see FIG. 4) includes the item of the target word is shown.
  • the item of “target word” may not be included in the rejection information.
  • the rejection information includes the rejection word and the acoustic feature information of the rejection word.
  • the rejection information may be information that is used to identify a voice that may be erroneously recognized as a target word that should be prevented from being erroneously recognized.
  • the speech recognition unit 101 erroneously recognizes the input speech as “power on” for the target word “power on” without waiting for the input of “power on”
  • the speech waveform of the input speech Rejection waveform data which is data for specifying the number, may be included in the rejection information instead of the rejection word.
  • step S32 of the speech recognition process (FIG.
  • the speech recognition apparatus 100 uses the acoustic word among the target words for the reject waveform data whose similarity to the input speech related to the speech waveform is lower than a predetermined threshold. You may select the object word with the highest similarity with the input audio
  • the rejection information generation unit 103 has described an operation example in which the speech recognition server 50 acquires a word recognized by the speech recognition server 50 and its acoustic features from the speech recognition server 50.
  • the rejection information generation unit 103 may acquire only a word from the speech recognition server 50 and acquire an acoustic feature based on the word from a device other than the speech recognition server 50.
  • the execution order of various processes in the speech recognition system 1 shown in the first embodiment is not limited to the order shown in the first embodiment.
  • the order of each process may be changed within a range in which the gist of the present disclosure is satisfied.
  • a speech recognition method including at least the step of determining rejection information based on the input speech and storing it in the storage unit 102 may be executed.
  • the functional components of the voice recognition device 100 or the voice recognition server 50 shown in the first embodiment may be installed in separate devices that are separated from each other. Each functional component in each separated device operates in cooperation with each other by wired or wireless communication, and is substantially the same as the processing performed by the voice recognition device 100 or the voice recognition server 50 described in the first embodiment. The same processing may be realized.
  • each device in the speech recognition system 1 may be individually made into one chip by a semiconductor device such as IC (Integrated Circuit) or LSI (Large Scale Integrated Circuit), or they It may be integrated into one chip so as to include a part or all of it. Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and settings of the circuit cells inside the LSI may be used.
  • functional blocks may be integrated using this technology. Biotechnology may be applied.
  • all or part of the various processes described above may be realized by hardware of each device or may be realized by using software.
  • the processing by software is realized by a processor included in each device executing a control program stored in a memory.
  • the control program may be recorded on a recording medium and distributed or distributed.
  • the distributed control program is installed in the apparatus and executed by the processor of the apparatus, so that various processes (for example, the processes shown in FIGS. 5 to 8 and the like) are performed in the apparatus. Good.
  • the present disclosure is applicable to a voice recognition system, a voice recognition device, a voice recognition method, and a control program that recognize voice uttered by a user.
  • the present disclosure is applicable to a television receiver, a recording / playback device, a computer, a smartphone, a mobile terminal, a tablet computer, a game machine, a server device, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

精度の高い音声認識が可能な音声認識装置を提供する。音声認識装置は、記憶部と、音声認識部と、棄却情報生成部と、を備える。記憶部は、音声の特定に用いられる棄却情報を記憶する。音声認識部は、当該棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、当該入力音声を対象ワードと認識する。棄却情報生成部は、所定状態において音声認識部が入力音声を対象ワードと認識した場合に、当該入力音声に基づいて棄却情報を定め、その棄却情報を記憶部に記憶する。

Description

音声認識システム、音声認識装置、音声認識方法、および制御プログラム
 本開示は、ユーザが発声した音声を認識する音声認識システム、音声認識装置、音声認識方法、および制御プログラムに関する。
 入力音声とマッチングするためのワードの音響特徴量を登録した辞書を用いて、音声認識を行う技術が開示されている。
 特許文献1は、音声認識に関する技術を開示する。特許文献1に開示された技術では、辞書内に、認識すべきワードの音響特徴量と、認識すべきワード以外のワード(不要なワード)の音響特徴量と、が登録される。そして、音声認識により認識された複数のワード(単語)から不要なワードが除去される。
特開平7-77998号公報
 本開示は、音声認識の対象となるワード(以下、「対象ワード」という)と誤認識される音声を特定するための棄却情報を定め、棄却情報を音声認識に用いる音声認識装置、音声認識システム、音声認識方法、および制御プログラムを提供する。
 本開示における音声認識装置は、入力音声を対象ワードと認識する音声認識装置である。音声認識装置は、記憶部と、音声認識部と、棄却情報生成部と、を備える。記憶部は、音声の特定に用いられる棄却情報を記憶する。音声認識部は、当該棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、当該入力音声を対象ワードと認識する。棄却情報生成部は、所定状態において音声認識部が入力音声を対象ワードと認識した場合に、当該入力音声に基づいて棄却情報を定め、その棄却情報を記憶部に記憶する。
 本開示における音声認識システムは、入力音声を対象ワードと認識する第1音声認識装置と、入力音声に対応するワードを認識する第2音声認識装置と、を備える。第1音声認識装置は、記憶部と、第1音声認識部と、棄却情報生成部と、を備える。記憶部は、音声の特定に用いられる棄却情報を記憶する。第1音声認識部は、当該棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、当該入力音声を対象ワードと認識する。棄却情報生成部は、所定状態において第1音声認識部が入力音声を対象ワードと認識した場合に、当該入力音声を第2音声認識装置に送信し、当該入力音声に基づいて第2音声認識装置により認識されたワードを表す音声に係る情報を第2音声認識装置から受信し、受信した当該情報を棄却情報として定め、当該棄却情報を記憶部に記憶する。第2音声認識装置は、第2音声認識部を有する。第2音声認識部は、第1音声認識装置から受信した入力音声に基づいて当該入力音声に対応するワードを認識し、当該ワードを第1音声認識装置に送信する。
 本開示における音声認識方法は、音声認識装置で用いられる音声認識方法である。音声認識装置は、記憶部と、音声認識部と、を備える。記憶部は、音声の特定に用いられる棄却情報を記憶する。音声認識部は、当該棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、当該入力音声を対象ワードと認識する。音声認識方法は、対象ワードが認識されるべきでない所定状態において音声認識部が入力音声を対象ワードと認識したか否かを判定するステップと、当該所定状態において音声認識部が入力音声を対象ワードと認識したと判定された場合に、入力音声に基づいて棄却情報を定め、その棄却情報を記憶部に記憶するステップと、を含む。
 本開示における制御プログラムは、音声認識装置のプロセッサに音声認識処理を実行させるための制御プログラムである。音声認識装置は、記憶部と、音声認識部と、を備える。記憶部は、音声の特定に用いられる棄却情報を記憶する。音声認識部は、当該棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、当該入力音声を対象ワードと認識する。音声認識処理は、対象ワードが認識されるべきでない所定状態において音声認識部が入力音声を対象ワードと認識したか否かを判定するステップと、当該所定状態において音声認識部が入力音声を対象ワードと認識したと判定された場合に、入力音声に基づいて棄却情報を定め、その棄却情報を記憶部に記憶するステップと、を含む。
 本開示における音声認識装置、音声認識システム、音声認識方法、および制御プログラムは、音声認識に用いる棄却情報を自ら定めることができる。
図1は、実施の形態1における音声認識システムの概略図である。 図2は、実施の形態1における音声認識システムの一構成例を模式的に示すブロック図である。 図3は、実施の形態1における認識用情報の構成例および内容例を模式的に示す図である。 図4は、実施の形態1における棄却情報リストの構成例を模式的に示す図である。 図5は、実施の形態1における音声認識装置で実行される音声入力対応処理の一例を示すフローチャートである。 図6は、実施の形態1における音声認識装置で実行される音声認識処理の一例を示すフローチャートである。 図7は、実施の形態1における音声認識システムで実行されるサーバ音声認識処理の一例を示すフローチャートである。 図8は、実施の形態1における音声認識装置で実行される棄却情報送信処理の一例を示すフローチャートである。 図9は、実施の形態1における表示画面の一例を模式的に示す図である。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明、および実質的に同一の構成に対する重複説明等を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
 すなわち、以下の具体例を用いた説明で示される数値、形状、構成要素、構成要素の配置および接続形態、並びに、ステップ(工程)およびステップの順序等は、一例であって、特許請求の範囲に記載の主題を限定するものではない。以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。
 また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同じ構成要素については同じ符号を付し、説明を省略または簡略化する場合がある。
 (実施の形態1)
 実施の形態1では、主に、音声認識装置を含む音声認識システム1について説明する。音声認識装置は、ユーザ90が発声した音声(以下、「入力音声」という)に基づいて、棄却情報を定めることができる。棄却情報は、音声認識用の辞書で定められた1以上の認識対象のワードが誤認識されることを防止するための情報である。
 以下、図1~図9を用いて、実施の形態1を説明する。実施の形態1に示すテレビジョン受信機10は音声認識機能を有し、ユーザ90は、音声によりテレビジョン受信機10を操作(以下、「音声操作」という)することができる。
 [1-1.構成]
 図1は、実施の形態1における音声認識システム1の概略図である。
 図1には、テレビジョン受信機10を含む音声認識システム1に加え、テレビジョン受信機10のユーザ90を示している。
 音声認識システム1は、図1に示すように、テレビジョン受信機10と、音声認識サーバ50と、これらを相互に通信可能に接続するネットワーク40と、を備える。ネットワーク40は、例えば、インターネット等の広域通信網を含む。
 テレビジョン受信機10は、プロセッサ、メモリ、ハードディスク装置等の記憶媒体、放送受信回路、通信インタフェース、等を有する。また、テレビジョン受信機10は、ユーザインタフェースとして、マイクロホン(以下、「マイク」という)130およびディスプレイ140、を備える。
 ディスプレイ140には、例えば液晶ディスプレイ、プラズマディスプレイ、または有機EL(Electro Luminescence)ディスプレイ、等を用いることができる。テレビジョン受信機10は、ユーザ操作に応じて、テレビジョン放送を、放送波または通信ケーブル等の通信路を通して受信し、受信した放送番組の映像等をディスプレイ140に表示する。
 マイク130は、ディスプレイ140に対面するユーザ90が発声した音声を集音することができる。テレビジョン受信機10は、ユーザ90が発声した音声(入力音声)をマイク130を通して取得する。そして、テレビジョン受信機10は、入力音声に基づいてワードを認識することができる音声認識機能を有する。
 入力音声は、テレビジョン受信機10においては、音声を表す信号またはデータとして処理される。
 ユーザ90は、リモートコントローラ(図示せず)等により、テレビジョン受信機10を操作することができる。また、ユーザは、ディスプレイ140に向かってワードを発声することで、テレビジョン受信機10に音声入力を行うことができる。本実施の形態では、ユーザがテレビジョン受信機10に音声入力を行うときの、テレビジョン受信機10の動作を説明する。
 ワードは、例えば、日本語、英語等の各種言語における1または複数の語からなる語句である。
 音声認識サーバ50は、プロセッサ、メモリ、ハードディスク装置等の記憶媒体、通信インタフェース、等を備え、音声認識機能を有するコンピュータである。音声認識サーバ50は、音声認識システム1において、音声認識サービス等を提供する。
 音声認識サービスは、例えば、ネットワークを通して送信されてくる入力音声を受信し、受信した入力音声に基づいて音声認識を行い、音声認識されたワードを表す音声に係る情報(例えば、ワードおよびそのワードの音響特徴、等)を、入力音声の送信元に返信するサービスである。
 図1に示す例では、テレビジョン受信機10が、ネットワーク40を通して、音声認識サーバ50に入力音声を送信する。したがって、上述の入力音声の送信元は、図1に示す例では、テレビジョン受信機10である。
 図1では、テレビジョン受信機10を1台しか示していない。しかし、例えば複数の住宅に設置された複数台のテレビジョン受信機10が1台の音声認識サーバ50と通信するように音声認識システム1を構成することも可能である。また、例えば、テレビジョン受信機10が有する音声認識機能による認識対象のワード(以下、「対象ワード」という)の数よりも、音声認識サーバ50の音声認識機能による対象ワードの数を多くすることも可能である。なお、対象ワードの数は、音声認識用の辞書のデータ量と関連する。
 音声認識サーバ50は、複数種類(例えば、二十数種類)の言語に対応した複数(例えば、10万以上)のワードを含む辞書を有し、入力音声に対して何らかのワードを認識する。また、音声認識サーバ50は、棄却情報をテレビジョン受信機10から受信する機能を有する。その棄却情報は、テレビジョン受信機10が有する音声認識機能により、テレビジョン受信機10において入力音声に基づいて定められた情報である。
 テレビジョン受信機10が備える通信インタフェースおよび音声認識サーバ50が備える通信インタフェースのそれぞれは、ネットワーク40を介して他の装置との間で情報の送受信を行うための通信回路等である。また、上述した各メモリはROM(Read Only Memory)、RAM(Random Access Memory)等であり、不揮発性メモリを含んでいてもよい。これらのメモリには後述する各機能構成要素の処理を実現するための制御プログラムやその制御プログラムで利用するための設定値等があらかじめ記憶されていてもよい。また、メモリは、制御プログラムをプロセッサが実行する際に用いられる各値(パラメータ、等)を一時的に記憶するため用いられてもよい。
 以下、上述した音声認識システム1を構成する各装置について説明する。
 図2は、実施の形態1における音声認識システム1の一構成例を模式的に示すブロック図である。図2には、音声認識システム1を構成するテレビジョン受信機10の音声認識装置100、および音声認識サーバ50、の機能構成を主に示す。
 テレビジョン受信機10は、図2に示すように、音声認識装置100、マイク130、ディスプレイ140、通信部150、チューナ160、および記憶部170、を備える。なお、テレビジョン受信機10は、ユーザ90がテレビジョン受信機10を利用しないときに、使用電力を低減してディスプレイ140への電力供給を停止する待機状態(スタンバイ状態)になる機能を有する。
 なお、図2には、テレビジョン受信機10が備える複数の構成要素のうち、本実施の形態に関係する構成要素のみを示し、他の構成要素(例えば、電源部、等)は省略している。
 通信部150は、通信インタフェースの一例である。通信部150は、ネットワーク40を介して、音声認識サーバ50との間で通信を行う。
 チューナ160は、放送信号受信回路である。チューナ160は、放送波または通信ケーブル等を介して送信されるテレビジョン放送の放送信号を受信する。
 記憶部170は、メモリまたはハードディスク装置等の記憶媒体の一領域である。記憶部170は、テレビジョン受信機10の各部の制御に用いる情報や制御用プログラム等を記憶している。
 音声認識装置100は、音声認識機能を担う。音声認識装置100は、メモリに記憶された制御プログラムを実行するプロセッサ、およびメモリ、等で実現される。音声認識装置100は、図2に示すように、機能構成要素として、音声認識部101、記憶部102、棄却情報生成部103、制御部104、および出力部105、を有する。
 記憶部102は、メモリまたはハードディスク装置等の記憶媒体の一領域で実現される。記憶部102は、音声認識用の辞書として対象ワードを定める認識用情報を記憶する。記憶部102は、対象ワードの誤認識を防止するために用いられる棄却情報を記憶するための領域を有する。なお、記憶部102および記憶部170は、それぞれが互いに異なる記憶媒体で実現されてもよいし、同一の記憶媒体の互いに異なる領域として実現されてもよい。
 次に、図3を用いて認識用情報を説明し、図4を用いて棄却情報リストを説明する。
 図3は、実施の形態1における認識用情報の構成例および内容例を模式的に示す図である。
 認識用情報は、図3に示すように、認識対象となる対象ワード毎に、対象ワードと、その対象ワードを表す音声の音響特徴を示す音響特徴情報と、を互いに対応付けた情報である。音響特徴情報は、例えば、統計モデル(HMM:Hidden Markov Model)等で表現された音素ラベルで構成される記号列、等である。
 記憶部102が記憶する認識用情報における対象ワードは、例えば、テレビジョン受信機10の制御用のコマンド等を表すワードを含む。図3には、「電源オン」というワードを例示している。「電源オン」は、テレビジョン受信機10の電源オン機能を起動するためのコマンドを表す。電源オン機能は、例えば、テレビジョン受信機10においてディスプレイ140等への電力供給を開始する機能である。また、図3には、「マイクオン」というワードを例示している。「マイクオン」は、音声入力の受け付け(音声受け付け)を開始するときのトリガーとなるワードであり、音声認識装置100における音声受付機能を起動するためのコマンドである。
 図4は、実施の形態1における棄却情報リストの構成例を模式的示す図である。
 棄却情報リストは、記憶部102に記憶された1以上の棄却情報の集合である。棄却情報は、図4に示すように、対象ワードと、棄却ワードと、棄却ワードの音響特徴情報と、を互いに対応付けた情報である。棄却ワードとは、発声(発音)された場合の音響特徴が、その棄却ワードに対応する対象ワードと類似しており、認識用情報のみを用いて音声認識が行われる場合に、その対象ワードと誤認識される可能性のあるワードである。
 音声認識部101は、制御プログラムを実行するプロセッサ等で実現される。音声認識部101は、マイク130を通して集音される入力音声を音声認識する機能を有する。音声認識部101は、記憶部102に記憶された音声認識用の辞書に基づき、マイク130を通して集音される入力音声に該当する対象ワードを特定することで音声認識する。
 具体的には、音声認識部101は、記憶部102に記憶された認識用情報に基づいて、対象ワードの音声を特定するための音響特徴と、入力音声の音響特徴と、を互いに比較して類似度を判定することにより、音声認識を行う。このように、音声認識部101は、対象ワードの音声と入力音声との類似度から音声認識を行う。
 類似度の定め方としては、例えば、対象ワードの音声と入力音声の各音響特徴を複数の数値パラメータで表し、各パラメータの数値を互いに比較し、比較した数値が互いに近い程、類似度が高いように定める方法を一例として挙げることができる。しかし、本開示は、類似度の定め方を限定しない。類似度の定め方には、この方法以外の既存の方法が適用されてもよい。
 音声認識部101は、ある対象ワードと入力音声とが、あらかじめ定められた類似度判定用の閾値を超えて類似する場合に、その対象ワードを、入力音声に対する音声認識の結果として特定してもよい。
 ただし、音声認識部101は、記憶部102に棄却情報が記憶されている場合には、対象ワードに対応する棄却ワードの音響特徴により特定される音声と、入力音声との類似度を算出する。そして、その類似度が、あらかじめ定められた閾値より低い場合に、音声認識部101は、その対象ワードを入力音声の音声認識の結果として特定する。
 音声認識部101は、音声認識の結果として1つの対象ワードを特定する際に、尤度を特定する。尤度とは、その音声認識の結果のもっともらしさを表す指標である。尤度は、類似度等の、音声認識部101で行った比較および判断の結果に基づいて定められる。例えば、一例として、対象ワードで表される音声と入力音声との類似度が尤度として用いられてもよい。
 棄却情報生成部103は、制御プログラムを実行するプロセッサ等で実現される。棄却情報生成部103は、所定状態におけるマイク130からの入力音声に基づき棄却情報を生成し、生成した棄却情報を記憶部102に記憶する機能を有する。棄却情報は、棄却情報リストを構成する。また、この所定状態とは、例えば、音声認識装置100が対象ワードの入力待ちでない状態、のことである。音声認識装置100では、対象ワードの入力待ちでない状態においては、通常、入力音声からその対象ワードが認識されるべきではない。
 ある対象ワードの入力待ちでない状態(すなわち、所定状態)において音声入力がなされ、音声認識部101により入力音声がその対象ワードであると音声認識され、かつ、音声認識の結果の尤度が後述の閾値S1を超えていた場合、棄却情報生成部103は、通信部150およびネットワーク40を介して、その入力音声を音声認識サーバ50に送信する。そして、棄却情報生成部103は、その入力音声に対する音声認識サーバ50における音声認識の結果であるワードを音声認識サーバ50から受信する。そして、棄却情報生成部103は、そのワードを棄却ワードとした棄却情報を生成し、生成した棄却情報を記憶部102に記憶する。
 なお、対象ワードの入力待ちでない状態(すなわち、所定状態)は、対象ワード毎に異なっていてもよい。具体的な一例を挙げると、例えば、テレビジョン受信機10において、電源オン機能が実行され、テレビジョン受信機10の電源がすでにオンした状態であれば、音声認識装置100は、「電源オン」という対象ワードの入力待ちではない。したがって、「電源オン」という対象ワードに関しては、テレビジョン受信機10の電源がオンした状態を、所定状態としてもよい。
 この「電源オン」という対象ワードの入力待ちではない状態(すなわち、「電源オン」という対象ワードに関する所定状態)において、音声認識装置100により「電源オン」と認識された入力音声があれば、その入力音声を、棄却情報生成部103は、音声認識サーバ50に送信する。そして、棄却情報生成部103は、音声認識サーバ50から、その入力音声についての音声認識の結果であるワードを受信する。そして、棄却情報生成部103は、受信したワードを棄却ワードとする棄却情報を記憶部102に記憶する。上述の動作例では、この棄却ワードは、「電源オン」ではなく、「電源オン」に音響が似た「電源オン」以外の語句であると推定される。その理由は、テレビジョン受信機10がすでに電源オン機能が実行された状態(例えば、ディスプレイ140に電力が供給されて放送番組等がディスプレイ140に表示されている状態)であれば、ユーザ90は「電源オン」というコマンドの音声入力を行わない可能性が高いと推定できるからである。
 制御部104は、制御プログラムを実行するプロセッサ等で実現される。制御部104は、音声認識部101が認識した対象ワードで表されるコマンドに応じた制御(すなわち、音声認識された入力音声に対応するアクションとしてあらかじめ定められた制御処理)を行う機能を有する。制御部104は、対象ワードで表されるコマンドが、テレビジョン受信機10の各部(例えば、ディスプレイ140、チューナ160、等)を制御するコマンドの場合には、その各部に対して、そのコマンドに応じた制御信号を送信する。なお、制御部104は、対象ワードで表されるコマンドに応じた制御を行うために、特定の対象ワード(例えば、「電源オン」、「マイクオン」、等)が認識された場合には、その音声認識の結果の尤度が閾値S1を超えていることを条件とし、その条件が満たされた場合にその制御を行う。
 出力部105は、制御プログラムを実行するプロセッサ等で実現される。出力部105は、記憶部102に棄却情報リスト(すなわち、1以上の棄却情報)が記憶されている場合に、棄却情報リストを通信部150およびネットワーク40を介して外部サーバ(例えば、音声認識サーバ50)に送信する機能を有する。
 音声認識サーバ50は、図2に示すように、機能構成要素として音声認識部51および記憶部52を備える。
 なお、図2には、音声認識サーバ50が備える複数の構成要素のうち、本実施の形態に関係する構成要素のみを示し、サーバコンピュータが一般的に備える構成要素(例えば、プロセッサ、通信インタフェース、電源部、等)は省略している。
 記憶部52は、音声認識用の辞書を記憶する機能を有する。記憶部52は、例えば、比較的大容量のハードディスク装置等の記憶媒体で構成されてもよい。記憶部52は、音声認識装置100が有する音声認識用の辞書よりもデータ量の多い辞書を記憶してもよい。
 音声認識部51は、記憶部52に記憶された辞書を用い、テレビジョン受信機10から受信した入力音声に基づく音声認識を行い、その入力音声に該当するワードを特定してそのワードをテレビジョン受信機10に返信する機能を有する。
 [1-2.動作]
 以下、上述の構成を備える音声認識システム1における音声認識機能に関する動作について説明する。
 [1-2-1.テレビジョン受信機10の音声認識装置100における音声入力対応処理]
 テレビジョン受信機10は、電力の供給を受けると、まず待機状態(スタンバイ状態)になり、音声入力対応処理を開始する。ユーザ90は、テレビジョン受信機10を、リモートコントローラ等で操作することも可能である。しかし、ここでは、ユーザ90が、音声入力によってテレビジョン受信機10を操作(音声操作)する動作例を説明する。
 図5は、実施の形態1における音声認識装置100で実行される音声入力対応処理の一例を示すフローチャートである。以下、図5のフローチャートを参照して、音声認識装置100の音声入力対応処理に係る動作を説明する。
 音声認識装置100は、テレビジョン受信機10のマイク130を通して、ユーザ90が発した音声(入力音声)を取得する(ステップS11)。
 音声認識装置100は、ユーザ90が発した音声(入力音声)が取得されるまで待機する(ステップS11でNo)。この状態が、「入力待ち」の状態である。
 音声認識装置100は、ステップS11において、ユーザ90が発した音声(入力音声)が取得されると(ステップS11でYes)、音声認識部101により音声認識処理を行う(ステップS12)。
 ここで、図6を用いてステップS12の音声認識処理の詳細を説明する。
 図6は、実施の形態1における音声認識装置100で実行される音声認識処理の一例を示すフローチャートである。
 音声認識部101は、記憶部102に記憶されている認識用情報を参照し、入力音声の音響特徴と、1以上の対象ワードの各音響特徴とを互いに比較する。また、記憶部102に棄却情報リストが記憶されている場合には棄却情報リストも参照し、入力音声の音響特徴と、棄却ワードの音響特徴とを互いに比較する(ステップS31)。
 音声認識部101は、音響特徴に関する入力音声との類似度があらかじめ定められた閾値より低い棄却ワードを選出する。そして、音声認識部101は、それらの棄却ワードに対する対象ワードのうち、音響特徴に関する入力音声との類似度が最も高い対象ワード、を選出する(ステップS32)。
 棄却ワードは、音声認識部101において誤認識の発生を防止するために用いられる。ステップS32での対象ワードの選出処理においては、認識用情報の各対象ワードのうち音響特徴に関する入力音声との類似度が最も高い対象ワードが選出される。ただし、この選出には、対象ワードに対応して誤認識防止用に定められた棄却ワードのうち、入力音声との類似度が高い棄却ワードに対応した対象ワードが選出されないための条件が設定されている。
 音声認識部101は、ステップS32で選出された対象ワードと入力音声との音響特徴に関する類似度に基づいて、尤度を特定する(ステップS33)。
 音声認識部101は、ステップS32で選出された対象ワードを音声認識の結果として特定し(ステップS34)、音声認識処理を終える。
 図5に戻り、ステップS12以降の音声入力対応処理の説明を続ける。
 音声認識装置100の制御部104は、ステップS12における音声認識部101の音声認識の結果が「電源オン」であり、かつステップS12におけるステップS33で特定された尤度が閾値S0を超えているか否か、を判断する(ステップS13)。
 閾値S0は、実験等に基づいて、あらかじめ定められた数値である。閾値S0は、例えば、テレビジョン受信機10のディスプレイ140に対面したユーザが、コマンドを音声で入力しようとしてコマンドに該当する対象ワード(例えば、「電源オン」、「マイクオン」、等)を明瞭に発声した場合に、そのときの尤度が閾値S0を超えるように定められている。
 ステップS13において制御部104がNoと判断した場合(すなわち、ステップS12における音声認識の結果が「電源オン」でない場合、またはステップS12におけるステップS33で特定された尤度が閾値S0以下である場合)には、音声認識装置100は、処理をステップS11に戻し、ユーザ90が発した音声(入力音声)が取得されるまで待機する。したがって、ここでのステップS11~ステップS13の処理は、音声認識装置100において「電源オン」のコマンドの音声入力を待機する処理になる。
 ステップS13において制御部104がYesと判断した場合(すなわち、ステップS12における音声認識の結果が「電源オン」であり、かつステップS12におけるステップS33で特定された尤度が閾値S0を超えている場合)には、制御部104は、入力音声に対応するアクションとして電源オン機能を起動し、例えばディスプレイ140等への電力供給を開始する(ステップS14)。
 音声認識装置100は、テレビジョン受信機10のマイク130を通して、ユーザ90が発した音声(入力音声)を取得する(ステップS15)。
 音声認識装置100は、ユーザ90が発した音声(入力音声)が取得されるまで待機する(ステップS15でNo)。すなわち、音声認識装置100は、「入力待ち」の状態である。
 ただし、ステップS14で電源オン機能は起動済みであるため、音声認識装置100は、ステップS15では、「電源オン」のコマンドを表す対象ワードの音声については入力待ちではない状態である。
 音声認識装置100は、ステップS15において、ユーザ90が発した音声(入力音声)が取得されると(ステップS15でYes)、音声認識部101により音声認識処理を行う(ステップS16)。ステップS16の音声認識処理は、図6を用いて説明したステップS12の音声認識処理と実質的に同じであるので、詳細な説明は省略する。
 音声認識装置100の制御部104は、ステップS16における音声認識部101の音声認識の結果が「マイクオン」であり、かつステップS16におけるステップS33で特定された尤度が閾値S0を超えているか否か、を判断する(ステップS17)。
 ステップS17において制御部104がNoと判断した場合(すなわち、ステップS16における音声認識の結果が「マイクオン」でない場合、またはステップS16におけるステップS33で特定された尤度が閾値S0以下である場合)には、制御部104は、ステップS16における音声認識部101の音声認識の結果が「電源オン」であり、かつステップS16におけるステップS33で特定された尤度が閾値S1を超えているか否か、を判断する(ステップS18)。
 閾値S1は、閾値S0以下に設定された値である。閾値S1は、閾値S0と同値でもよい。しかし、閾値S1を閾値S0より若干低い値に設定することは、後段のステップ(手順)において、棄却情報生成部103が、音声認識の際の誤認識を防止するための棄却情報を定める上で、有効である。
 ステップS18において制御部104がNoと判断した場合(すなわち、ステップS16における音声認識の結果が「電源オン」でない場合、またはステップS16におけるステップS33で特定された尤度が閾値S1以下である場合)には、音声認識装置100は、処理をステップS15に戻し、ユーザ90が発した音声(入力音声)が取得されるまで待機する。
 ステップS18において制御部104がYesと判断した場合(すなわち、ステップS16における音声認識の結果が「電源オン」であり、かつステップS16におけるステップS33で特定された尤度が閾値S1を超えている場合)には、棄却情報生成部103は、サーバ音声認識処理を開始する(ステップS19)。サーバ音声認識処理は、音声認識部101の音声認識に用いられた入力音声が音声認識サーバ50に送信されることで開始される。
 なお、ステップS18で制御部104がYesと判断した場合、制御部104は、すでに電源オン機能を実行済みであるため、電源オン機能を実行しない。つまり、制御部104は、所定状態でない状態において音声認識部101が入力音声を対象ワードと認識した場合には、あらかじめ定められた制御処理を実行し、所定状態において音声認識部101が入力音声を対象ワードと認識した場合には、その制御処理を実行しない。なお、この場合の所定状態は、例えば、ディスプレイ140に電力が供給されている状態である。また、この場合の所定状態でない状態は、例えば、テレビジョン受信機10がスタンバイの状態である。また、この場合の対象ワードは、例えば、電源オンである。また、この場合のあらかじめ定められた制御処理は、例えば、ディスプレイ140等への電力を供給する処理である。
 ここで、図7を用いてステップS19のサーバ音声認識処理の詳細を説明する。
 図7は、実施の形態1における音声認識システム1で実行されるサーバ音声認識処理の一例を示すフローチャートである。図7には、テレビジョン受信機10の棄却情報生成部103が音声認識サーバ50と連携して実行するサーバ音声認識処理の一例を示す。
 テレビジョン受信機10の棄却情報生成部103は、入力音声を、通信部150およびネットワーク40を介して、音声認識サーバ50に送信する(ステップS41)。
 音声認識サーバ50は、テレビジョン受信機10から送信されてくる入力音声を、ネットワーク40を介して受信する。
 音声認識サーバ50では、音声認識部51が、記憶部52に記憶されている音声認識用の辞書に基づいて入力音声を音声認識し、その音声認識の結果として入力音声が表すワードを特定する。そして、音声認識サーバ50は、音声認識の結果として特定したワードと、そのワードを表す音声の音響特徴を、ネットワーク40を介してテレビジョン受信機10の通信部150に送信する(ステップS42)。
 テレビジョン受信機10の棄却情報生成部103は、音声認識の結果としてのワードおよび音響特徴に係る情報を、ネットワーク40および通信部150を介して受信する(ステップS43)。
 テレビジョン受信機10の音声認識装置100では、「電源オン」のコマンドの入力待ちではない状態において、図7に示すサーバ音声認識処理が実行される。そのため、「電源オン」と誤認識される可能性のある「電源オン」以外のワードと、そのワードの音響特徴を示す情報とが、音声認識サーバ50からの音声認識の結果として、棄却情報生成部103で受信される。
 図5に戻り、ステップS19以降の音声入力対応処理の説明を続ける。
 棄却情報生成部103は、音声認識サーバ50から受信した音声認識の結果に基づいて棄却情報を生成し、生成した棄却情報を記憶部102の棄却情報リストに追加する(ステップS20)。
 具体的には、棄却情報生成部103は、音声認識サーバ50から受信したワードおよびそのワードの音響特徴を、棄却ワードおよびその棄却ワードの音響特徴とし、それらを、対象ワードである「電源オン」と対応付けた棄却情報(図4参照)として記憶部102に記憶する。
 棄却情報が記憶部102に記憶された後は、音声認識部101は、入力音声の音声認識を行う際に、棄却情報で示される棄却ワードとの音響特徴に関する類似度があらかじめ定められた閾値以上のワード(例えば、「電源オン」とよく似た「電源オン」以外のワード)は、そのワード(棄却ワード)に対応する対象ワード(例えば、「電源オン」)を、音声認識の結果として採用しない。したがって、音声認識システム1では、ユーザ90が棄却ワードを発声した場合、その入力音声が対象ワードと誤認識されることが防止される。
 ステップS20の後は、音声認識装置100は、処理をステップS15に戻し、ユーザ90が発した音声(入力音声)が取得されるまで待機する。
 ステップS17において制御部104がYesと判断した場合(すなわち、ステップS16における音声認識の結果が「マイクオン」であり、かつステップS16におけるステップS33で特定された尤度が閾値S0を超えている場合)には、制御部104は、入力音声に対応するアクションとして音声受付機能を実行し、音声の受け付けを開始する(ステップS21)。
 音声受付機能は、テレビジョン受信機10で電源オン機能が実行された後に、ユーザ90に、音声認識装置100がコマンド等を受け付けるタイミングを与える機能である。例えば、「マイクオン」のワードは、音声認識装置100が音声受け付けを開始するときのトリガーとなるワードである。
 音声の受け付けを開始した音声認識装置100は、テレビジョン受信機10のマイク130を通して、ユーザ90が発した音声(入力音声)を取得する(ステップS22)。
 音声認識装置100は、ユーザ90が発した音声(入力音声)が取得されるまで待機する(ステップS22でNo)。すなわち、音声認識装置100は、「入力待ち」の状態である。
 音声認識装置100は、ステップS22において、ユーザ90が発した音声(入力音声)が取得されると(ステップS22でYes)、音声認識部101により音声認識処理を行う(ステップS23)。ステップS23の音声認識処理は、図6を用いて説明したステップS12の音声認識処理と実質的に同じであるので、詳細な説明は省略する。
 音声認識装置100の制御部104は、ステップS23における音声認識処理の結果として入力音声から認識された対象ワードに応じた制御を行う(ステップS24)。
 ステップS24では、制御部104は、入力音声に対応するアクションとして、あらかじめ定められた制御を行う。すなわち、ステップS24では、制御部104は、対象ワードで表されるコマンドに応じて、テレビジョン受信機10の各部を制御するための制御信号を各部に送信する。一例を挙げると、ステップS23の音声認識処理で「電源オフ」という対象ワードが音声認識部101により認識された場合には、制御部104は、ステップS24において、ディスプレイ140への電力供給を停止するための制御信号を各部に送信する。この結果、テレビジョン受信機10はスタンバイ状態になる。
 ステップS24の後は、音声認識装置100は、処理をステップS15に戻し、ユーザ90が発した音声(入力音声)が取得されるまで待機する。
 [1-2-2.テレビジョン受信機10の音声認識装置100における棄却情報送信処理]
 音声認識装置100は、上述した音声入力対応処理とは別に、棄却情報送信処理を実行する。
 図8は、実施の形態1における音声認識装置100で実行される棄却情報送信処理の一例を示すフローチャートである。以下、図8のフローチャートを参照して、音声認識装置100の棄却情報送信処理に係る動作を説明する。
 音声認識装置100の出力部105は、記憶部102に棄却情報が記憶されている場合に、棄却情報を、通信部150およびネットワーク40を介して外部サーバ(例えば、音声認識サーバ50)に送信する(ステップS51)。
 出力部105は、ステップS51の処理を実行してから一定時間(例えば、1ヶ月、等)が経過したか否かを判断する(ステップS52)。
 出力部105は、ステップS51の処理を実行してから一定時間(例えば、1ヶ月、等)が経つまで待機する(ステップS52でNo)。
 出力部105は、ステップS51の処理を実行してから一定時間(例えば、1ヶ月、等)が経ったと判断した場合は(ステップS52でYes)、処理をステップS51に戻し、ステップS51の処理を実行する。
 これにより、音声認識システム1では、音声認識システム1が複数のテレビジョン受信機10を有する場合に、それら複数のテレビジョン受信機10からの棄却情報を1台の外部サーバ(例えば、音声認識サーバ50)で収集することが可能となる。これにより、例えば複数の家庭のそれぞれに設置されたテレビジョン受信機10から、ある対象ワード(例えば、「電源オン」)と誤認識され易いワードの情報である棄却情報を収集することができる。このようにして収集された棄却情報は、音声認識装置100における音声認識の精度向上に活用することができる。例えば、このようにして収集された棄却情報に基づく棄却情報リストを、テレビジョン受信機10を製造するときに、テレビジョン受信機10の記憶部102にあらかじめ記憶させてもよい。あるいは、このようにして収集された棄却情報に基づく棄却情報リストを、ネットワーク40を通してテレビジョン受信機10に配信してもよい。棄却情報の量が増えることで、音声認識装置100における音声認識の精度をより向上することが可能となる。
 [1-3.効果等]
 以上のように、本実施の形態において、音声認識装置は、入力音声を対象ワードと認識する音声認識装置である。音声認識装置は、記憶部と、音声認識部と、棄却情報生成部と、を備える。記憶部は、音声の特定に用いられる棄却情報を記憶する。音声認識部は、当該棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、当該入力音声を対象ワードと認識する。棄却情報生成部は、所定状態において音声認識部が入力音声を対象ワードと認識した場合に、当該入力音声に基づいて棄却情報を定め、その棄却情報を記憶部に記憶する。
 なお、対象ワードは、音声認識の対象となるワードである。音声認識装置100は音声認識装置の一例である。記憶部102は記憶部の一例である。音声認識部101は音声認識部の一例である。棄却情報生成部103は棄却情報生成部の一例である。図4に示した棄却情報は、棄却情報の一例である。
 例えば、実施の形態1に示した例では、音声認識システム1は、一定条件下で入力音声を対象ワード(例えば、「電源オン」)と認識する音声認識装置100と、入力音声に対応するワードを認識する音声認識サーバ50と、を備える。音声認識装置100は、記憶部102と、音声認識部101と、棄却情報生成部103と、を備える。記憶部102は、音声の特定に用いられる棄却情報を記憶する。音声認識部101は、当該棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、当該入力音声を対象ワードと認識する。棄却情報生成部103は、所定状態(例えば「電源オン」の入力待ちではない状態)において音声認識部101が入力音声を対象ワードと認識した場合に、当該入力音声を音声認識サーバ50に送信し、当該入力音声に基づいて音声認識サーバ50により認識されたワードを表す音声に係る情報を音声認識サーバ50から受信し、受信した当該情報を棄却情報として定めて記憶部102に記憶する。音声認識サーバ50は、音声認識部51を有する。音声認識部51は、音声認識装置100から受信した入力音声に基づいて当該入力音声に対応するワードを認識し、当該ワードを音声認識装置100に送信する。
 これにより、例えば実施の形態1に示した例では、音声認識装置100は、音声認識装置100を利用するユーザ90により発声された音声に基づいて、棄却ワード等の棄却情報を定めることができる。そのため、音声認識装置100は、対象ワードの誤認識を低減し、精度の高い音声認識を実現することが可能となる。また、棄却情報を定めるために要する作業を軽減することができる。
 このように、音声認識装置100では、音声認識の対象ワードと誤認識される音声を特定する棄却情報を適切に定めて、音声認識に活用することができるので、音声認識の精度が高まり、音声入力を行うユーザの利便性を向上することができる。
 音声認識装置は、さらに制御部を備えてもよい。制御部は、所定状態ではない状態において音声認識部が入力音声を対象ワードと認識した場合には、あらかじめ定められた制御処理を実行してもよく、所定状態において音声認識部が入力音声を対象ワードと認識した場合には、制御処理を実行しなくてもよい。
 なお、制御部104は制御部の一例である。
 これにより、例えば実施の形態1に示した例では、対象ワードが音声で入力されても制御処理が実行されない状態(例えば、音声入力が不要な状態、あるいは、音声入力が無効な状態)においてユーザ90により発声された音声に基づいて、適切に、対象ワードと誤認識されることを防止するための棄却情報を定めることができる。
 棄却情報生成部は、入力音声に基づいて、音声認識部に依らずに認識されるワードを表す音声に係る情報を、棄却情報として定めてもよい。
 これにより、例えば、他の音声認識機能を有する構成要素あるいは外部装置により入力音声に基づいて認識されるワードを表す音響特徴等を、棄却情報として定めることができる。このため、例えば実施の形態1に示した例では、対象ワードとして意図的に発声されたものではないワード、例えば会話や独り言等により発せられたワード、が、音声認識装置100の音声認識部101により対象ワードと誤認識されることを防止することができる。
 棄却情報生成部は、入力音声に基づく音声認識を外部装置に行わせた結果としてのワードを表す音声に係る情報を、当該外部装置から取得し、当該ワードを表す音声に係る情報を棄却情報として定めてもよい。
 なお、音声認識サーバ50は外部装置の一例である。
 これにより、例えば実施の形態1に示した例では、音声認識装置100は、入力音声に基づいて音声認識サーバ50により認識されるワードを表す音響特徴等を棄却情報として定めることができる。これは、音声認識用の辞書を記憶する記憶媒体の容量の制約等により、例えば多種言語対応あるいは高い認識精度等の特徴を有する音声認識機構を音声認識装置100内に構成できない場合に、有用となる。音声認識装置100は、そのような音声認識機構を含む音声認識サーバ50と連携して、棄却情報の生成を行うことができる。
 棄却情報生成部は、所定状態において音声認識部が入力音声を対象ワードと認識した場合、所定入力を受けたときに棄却情報を記憶部に記憶してもよい。
 なお、図9に示す表示画面は、所定入力の受け付け画面の一例である。
 これにより、例えば実施の形態1に示した例では、棄却情報生成部103は、所定入力によるユーザ90の確認を得ることで、適切に棄却情報を定めることができる。
 音声認識装置は、マイクロホンおよびディスプレイを有するテレビジョン受信機に備えられてもよい。制御処理は、ディスプレイへ電力を供給する処理であってもよい。所定状態は、ディスプレイへ電力を供給している状態であることとしてもよい。
 なお、テレビジョン受信機10はテレビジョン受信機の一例である。マイク130はマイクロホンの一例である。ディスプレイ140はディスプレイの一例である。
 これにより、例えば実施の形態1に示した例では、テレビジョン受信機10が待機状態(スタンバイ状態)のときに、電源オン機能を実行するコマンドをユーザ90がテレビジョン受信機10に音声入力する際に、棄却情報により、電源オン機能を実行するコマンドでない入力音声が電源オン機能を実行するコマンドと誤認識されることが防止される。したがって、テレビジョン受信機10において精度の高い音声認識が可能となる。このため、テレビジョン受信機10では、音声認識開始のトリガーとなる音声を、電源オン機能に係るコマンドに先行してユーザ90が発声することを必要とせず、これにより誤認識の防止が図れる。したがって、ユーザ90は、迅速に、テレビジョン受信機10を視聴可能な状態にすることができる。
 音声認識装置は、さらに出力部を備えてもよい。出力部は、記憶部に記憶された棄却情報を外部に出力してもよい。
 なお、出力部105は出力部の一例である。
 これにより、例えば実施の形態1に示した例では、音声認識装置100を利用するユーザ90により発声された音声(入力音声)に基づいて生成された棄却情報を、外部の音声認識サーバ50において取得できる。これにより、例えば、音声認識サーバ50において取得された棄却情報を、音声認識装置の更なる精度向上や、音声認識機構の製造等、に活用することができる。
 音声認識装置においては、対象ワードの入力待ちでない状態または対象ワードが認識されるべきでない状態を、所定状態としてもよい。
 音声認識装置が、マイクロホンおよびディスプレイを有するテレビジョン受信機に備えられ、対象ワードがディスプレイへ電力を供給する指示を表すワードである場合、ディスプレイへ電力が供給されている状態を所定状態としてもよい。
 なお、「電源オン」という対象ワードは、ディスプレイへ電力を供給する指示を表すワードの一例である。
 例えば、実施の形態1に示した動作例では、テレビジョン受信機10がすでに電源オン機能が実行された状態(ディスプレイ140に電力が供給されて放送番組等がディスプレイ140に表示されている状態)であれば、ユーザ90は「電源オン」というコマンドの音声入力を行わない可能性が高い。したがって、この状態で音声認識装置100により「電源オン」と認識された入力音声があれば、その入力音声によるワードは、「電源オン」ではなく、「電源オン」に音響が似た「電源オン」以外のワードである可能性が高い。したがって、「電源オン」という対象ワードに関する所定状態を、「電源オン」という対象ワードの入力待ちではない状態、すなわち、ディスプレイ140に電力が供給されている状態、とすることで、音声認識装置100は、音声認識サーバ50を利用して、「電源オン」に音響が似た「電源オン」以外のワードを棄却ワードと定めることができる。そして、音声認識装置100は、そのワードを棄却ワードとする棄却情報を記憶部102に記憶することで、音声認識の精度をさらに高めることができる。
 本実施の形態において、音声認識システムは、入力音声を対象ワードと認識する第1音声認識装置と、入力音声に対応するワードを認識する第2音声認識装置と、を備える。第1音声認識装置は、記憶部と、第1音声認識部と、棄却情報生成部と、を備える。記憶部は、音声の特定に用いられる棄却情報を記憶する。第1音声認識部は、当該棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、当該入力音声を対象ワードと認識する。棄却情報生成部は、所定状態において第1音声認識部が入力音声を対象ワードと認識した場合に、当該入力音声を第2音声認識装置に送信し、当該入力音声に基づいて第2音声認識装置により認識されたワードを表す音声に係る情報を第2音声認識装置から受信し、受信した当該情報を棄却情報として定め、当該棄却情報を記憶部に記憶する。第2音声認識装置は、第2音声認識部を有する。第2音声認識部は、第1音声認識装置から受信した入力音声に基づいて当該入力音声に対応するワードを認識し、当該ワードを第1音声認識装置に送信する。
 なお、音声認識システム1は音声認識システムの一例である。音声認識装置100は第1音声認識装置の一例である。音声認識サーバ50は第2音声認識装置の一例である。音声認識部101は第1音声認識部の一例である。音声認識部51は第2音声認識部の一例である。
 この音声認識システムは、音声認識機構を2系統有する。第2音声認識装置は、第1音声認識装置が有する制約(例えば、大容量の記憶媒体を備えることが困難である、等)に縛られずに構成されてもよい。例えば、第2音声認識装置は、音声認識用の辞書を、第1音声認識装置よりも大容量の記憶媒体で構成されてもよい。
 そして、この音声認識システムでは、第1音声認識装置は、第2音声認識装置を利用し、第1音声認識装置へ入力される入力音声に基づいて、第2音声認識装置に音声認識を実行させてもよい。これにより、第1音声認識装置は、第2音声認識装置におけるより高精度な音声認識の結果を活用して棄却ワード等の棄却情報を定めることができるので、より精度の高い音声認識を行えるようになる。
 例えば実施の形態1に示した例では、音声認識サーバ50は、音声認識装置100が有する音声認識用の辞書よりも大容量の音声認識用の辞書を有することができる。そして、音声認識システム1では、音声認識装置100は、音声認識サーバ50を利用し、音声認識装置100へ入力される入力音声に基づいて、音声認識サーバ50に音声認識を実行させることが可能である。したがって、音声認識装置100は、音声認識サーバ50におけるより高精度な音声認識の結果を利用して棄却ワード等の棄却情報を定めることができるので、より精度の高い音声認識を行えるようになる。
 このように音声認識システム1では、音声認識の対象ワードと誤認識される音声を特定する棄却情報を適切に定めて、音声認識に活用することができるので、音声認識の精度を高め、音声入力を行うユーザの利便性を向上することができる。
 本実施の形態において、音声認識方法は、音声認識装置で用いられる音声認識方法である。音声認識装置は、記憶部と、音声認識部と、を備える。記憶部は、音声の特定に用いられる棄却情報を記憶する。音声認識部は、当該棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、当該入力音声を対象ワードと認識する。音声認識方法は、対象ワードが認識されるべきでない所定状態において音声認識部が入力音声を対象ワードと認識したか否かを判定するステップと、当該所定状態において音声認識部が入力音声を対象ワードと認識したと判定された場合に、入力音声に基づいて棄却情報を定め、その棄却情報を記憶部に記憶するステップと、を含む。
 これにより、例えば実施の形態1に示した例では、音声認識装置100は、音声認識装置100を利用するユーザ90により発声された音声に基づいて、棄却情報を適切に定めることができる。したがって、音声認識装置100は、より精度の高い音声認識を行うことが可能となる。
 また、本実施の形態において、制御プログラムは、音声認識装置のプロセッサに音声認識処理を実行させるための制御プログラムである。音声認識装置は、記憶部と、音声認識部と、を備える。記憶部は、音声の特定に用いられる棄却情報を記憶する。音声認識部は、当該棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、当該入力音声を対象ワードと認識する。音声認識処理は、対象ワードが認識されるべきでない所定状態において音声認識部が入力音声を対象ワードと認識したか否かを判定するステップと、当該所定状態において音声認識部が入力音声を対象ワードと認識したと判定された場合に、入力音声に基づいて棄却情報を定め、その棄却情報を記憶部に記憶するステップと、を含む。
 これにより、この制御プログラムが実行される音声認識装置は、音声認識装置を利用するユーザにより発声された音声に基づいて、棄却情報を適切に定めることができる。
 例えば実施の形態1に示した例では、この制御プログラムが実行される音声認識装置100は、音声認識装置100を利用するユーザ90により発声された音声に基づいて、棄却情報を適切に定めることができる。したがって、音声認識装置100は、より精度の高い音声認識を行うことが可能となる。
 なお、これらの包括的または具体的な各種態様には、装置、システム、方法、集積回路、コンピュータプログラム、コンピュータで読み取り可能な記録媒体、等の1つまたは複数の組合せが含まれる。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略等を行った実施の形態にも適用できる。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
 そこで、以下、他の実施の形態を例示する。
 実施の形態1では、音声認識装置100が、テレビジョン受信機10の各部を制御する機能を備える構成例を説明した。しかし、音声認識装置100は、テレビジョン受信機10の各部を制御する機能を備えていなくてもよい。音声認識装置100は、テレビジョン受信機10あるいは他の装置類において、入力音声を与えられたときに音声認識の結果を出力する部品であってもよい。
 実施の形態1では、音声認識装置100が、テレビジョン受信機10に備えられた構成例を示した。しかし、本開示はこの構成例に限定されない。音声認識装置100は、例えば、音声入力インタフェースを適用可能な様々な装置類(例えば、各種入力装置、家電機器、情報端末、ロボット、車載装置、車両、等)に、備えられてもよい。あるいは、音声認識装置100が、テレビジョン放送の受信機能、映像の表示機能、音声合成機能、移動機能、その他の各種機能部、を備えてもよい。
 実施の形態1で示した音声認識サーバ50は、音声認識装置100から離れた場所に設置されなくてもよい。音声認識サーバ50は、例えば、音声認識装置100が設置された施設内に設置され、音声認識装置100とLAN(Local Area Network)で接続されてもよい。あるいは、音声認識サーバ50は、音声認識装置100を備える装置(例えば、テレビジョン受信機)内に設けられてもよい。また、音声認識サーバ50が音声認識できるワードの数は、音声認識部101が音声認識できるワードの数より多くなくてもよい。
 音声認識装置100は、入力音声を取得する毎に、音声認識サーバ50に入力音声を送信し、音声認識サーバ50から音声認識の結果を受信し、受信した音声認識の結果を利用してもよい。例えば、音声認識装置100は、音声認識部101での音声認識の結果として入力音声が対象ワードのいずれにも該当しなかった場合に、音声認識サーバ50からの音声認識の結果であるワードがコマンドに該当するか否かを判断してもよい。また、音声認識部101での入力音声の音声認識の結果が、対象ワードのいずれにも該当しなかった場合に、音声認識サーバ50からの音声認識の結果であるワードを検索対象とした検索機能を起動してもよい。この検索機能は、例えば、インターネット上の外部サーバ(例えば、いわゆる検索エンジン)にアクセスすることで、検索対象のワードに関連する情報を取得してディスプレイ140に表示する機能である。
 実施の形態1では、「電源オン」という対象ワードを例に挙げ、すでに電源オン機能が実行された状態を、棄却情報が生成されてもよい所定状態とする動作例を説明した。しかし、音声認識部101は、例えば、音声受け付け用のトリガーとなるワードがユーザ90に発声された直後は、入力音声に基づく棄却情報の生成を行わなくてもよい。
 実施の形態1では、音声認識装置100の棄却情報生成部103が、音声認識サーバ50から取得したワードを棄却ワードとして棄却情報を定める動作例を説明した。しかし、音声認識装置100は、所定の条件下で棄却情報を定めてもよい。例えば、音声認識装置100は、音声認識サーバ50から取得したワードを、棄却ワードとして定めてよいか否かをユーザ90に確認してもよい。例えば、音声認識装置100は、音声認識サーバ50から取得したワードをディスプレイ140に表示し、その表示されたワードに対するユーザ90の入力(例えば、リモートコントローラの操作による入力、または音声入力、等)に基づき、そのワードを棄却ワードとして定めてもよい。すなわち、音声認識装置100は、ユーザ90から所定の入力を受けたときに棄却情報を定めてもよい。このような動作を音声認識装置100が行う場合の表示画面の例を図9に示す。
 図9は、実施の形態1における表示画面の一例を模式的に示す図である。図9に示す例では、ディスプレイ140の画面に、音声認識サーバ50から取得したワード「xxxx」を棄却ワードとして登録するか否かをユーザに確認するメッセージ141が表示されている。そして、音声認識装置100は、ユーザ90から「はい」が入力された場合はワード「xxxx」を棄却ワードとして登録し、ユーザ90から「いいえ」が入力された場合はワード「xxxx」を棄却ワードとして登録しない。音声認識装置100は、このような動作を行ってもよい。
 実施の形態1では、音声認識装置100の制御部104が、音声認識部101における音声認識の結果の尤度を閾値(閾値S0、S1)と比較し、尤度がその閾値を超える場合と尤度がその閾値以下の場合とで互いに異なる処理手順を行う動作例を説明した。しかし、音声認識装置100は、尤度を用いなくてもよい。その場合、音声認識部101は、尤度を特定しなくてもよい。あるいは、音声認識部101は、尤度がその閾値を超えることを対象ワードの認識における条件の一つとして、音声認識を行ってもよい。尤度がその閾値を超えることを条件として音声認識が行われる場合には、音声認識部101は、棄却情報に係る条件に加えて尤度に係る条件を用いることになる。したがって、例えば、このような場合に、尤度がその閾値を超えないときには、音声認識装置100は、音声認識の結果が無いものとしてもよい。
 また、音声認識部101は、入力音声の音量が一定レベルより小さいもの、あるいは、人が発声可能な周波数帯域以外の音は、ワードを表す音声が入力されなかったもの(すなわち、該当する対象ワードを特定する等の音声認識処理を行わない)としてもよい。
 実施の形態1では、認識用情報(図3参照)の対象ワードが複数ある例(例えば、「電源オン」、「マイクオン」、等)を示した。しかし、対象ワードは1つであってもよい。
 実施の形態1では、棄却情報(図4参照)が対象ワードの項目を含む例を示した。しかし、例えば、音声認識の誤認識を防止すべき対象ワードが「電源オン」だけであるような場合、棄却情報に「対象ワード」の項目はなくてもよい。
 実施の形態1では、棄却情報は、棄却ワードと、その棄却ワードの音響特徴情報と、を含む例を示した。しかし、棄却情報は、誤認識を防止すべき対象ワードと誤認識されてしまう可能性のある音声の特定に用いられる情報であればよい。例えば、「電源オン」という対象ワードに対して、その「電源オン」の入力待ちでない状態において、入力音声を音声認識部101が「電源オン」と誤認識した場合に、その入力音声の音声波形を特定するデータである棄却波形データを、棄却ワードの代わりに棄却情報に含ませてもよい。この場合には、音声認識装置100は、音声認識処理(図6)のステップS32において、音声波形に関する入力音声との類似度があらかじめ定められた閾値より低い棄却波形データに対する対象ワードのうち、音響特徴に関する入力音声との類似度が最も高い対象ワードを選出してもよい。また、この場合には、音声認識装置100は、棄却情報の生成のために音声認識サーバ50を用いなくてもよい。ただし、音声認識装置100が、音声認識サーバ50の音声認識の結果であるワードおよびその音響特徴に基づいて棄却情報を生成することは、対象ワードと誤認識されやすいワードが、声質、声の高さ、等を変化させてユーザ90に発声された場合に、誤認識を防止できる可能性を高めることができる。また、このため、音声認識サーバ50では、複数の人における声質、声の高さ、等に基づき、複数の人に共通する音響特徴をワード毎に定めた辞書を用いてもよい。
 実施の形態1では、棄却情報生成部103は、音声認識サーバ50から、入力音声に基づいて音声認識サーバ50で認識されたワードとその音響特徴とを取得する動作例を説明した。しかし、棄却情報生成部103は、音声認識サーバ50からワードのみを取得し、そのワードに基づく音響特徴を音声認識サーバ50以外の装置から取得してもよい。
 実施の形態1で示した音声認識システム1における各種処理の実行順序(例えば、図5~図8に示した手順、等)は、実施の形態1に示した順序に限定されない。各処理の順序は、本開示の要旨が満たされる範囲で入れ替えられてもよい。なお、音声認識システム1においては、音声認識部101が入力音声を対象ワードと認識した場合に、当該対象ワードが認識されるべきでない所定状態であるか否かを判定するステップと、そのステップにおいて所定状態であると判定された場合に、入力音声に基づいて棄却情報を定めて記憶部102に記憶するステップと、を少なくとも含む音声認識方法が実行されればよい。
 実施の形態1で示した音声認識装置100、あるいは音声認識サーバ50の各機能構成要素は、それぞれが互いに分離した別個の装置内に設置されてもよい。分離した各装置内の各機能構成要素は、有線または無線で通信することにより互いに連携して動作し、実施の形態1で示した音声認識装置100あるいは音声認識サーバ50により行われる処理と実質的に同じ処理が実現されてもよい。
 音声認識システム1における各装置類の機能構成要素(機能ブロック)は、IC(Integrated Circuit)またはLSI(Large Scale Integrated Circuit)等の半導体装置により個別に1チップ化されてもよく、あるいは、それらの一部または全部を含むように1チップ化されてもよい。また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現されてもよい。LSI製造後に、回路の構成を任意にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサが利用されてもよい。さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、その技術を用いて機能ブロックの集積化が行われてもよい。バイオ技術が適用されてもよい。
 また、上述した各種処理(例えば、図5~図8に示した手順、等)の全部または一部は、各装置類のハードウェアにより実現されてもよく、ソフトウェアを用いて実現されてもよい。なお、ソフトウェアによる処理は、各装置類に含まれるプロセッサがメモリに記憶された制御プログラムを実行することにより実現されるものである。また、その制御プログラムが記録媒体に記録されて、頒布や流通がなされてもよい。例えば、頒布された制御プログラムが装置類にインストールされて、装置類のプロセッサに実行されることで、装置類で各種処理(例えば、図5~図8に示す処理、等)が行われてもよい。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
 したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示は、ユーザが発声した音声を音声認識する音声認識システム、音声認識装置、音声認識方法、および制御プログラムに適用可能である。具体的には、テレビジョン受信機、録画再生装置、コンピュータ、スマートフォン、携帯端末、タブレットコンピュータ、ゲーム機、サーバ装置、等に、本開示は適用可能である。
1  音声認識システム
10  テレビジョン受信機
40  ネットワーク
50  音声認識サーバ
51  音声認識部
52  記憶部
90  ユーザ
100  音声認識装置
101  音声認識部
102  記憶部
103  棄却情報生成部
104  制御部
105  出力部
130  マイク
140  ディスプレイ
141  メッセージ
150  通信部
160  チューナ
170  記憶部

Claims (12)

  1. 入力音声を対象ワードと認識する音声認識装置であって、
    音声の特定に用いられる棄却情報を記憶する記憶部と、
    前記棄却情報により特定される音声と前記入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、前記入力音声を前記対象ワードと認識する音声認識部と、
    所定状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合に、前記入力音声に基づいて前記棄却情報を定め、前記棄却情報を前記記憶部に記憶する棄却情報生成部と、を備える
    音声認識装置。
  2. 前記音声認識装置は、
    前記所定状態ではない状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合には、あらかじめ定められた制御処理を実行し、前記所定状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合には、前記制御処理を実行しない制御部、をさらに備える、
    請求項1記載の音声認識装置。
  3. 前記音声認識装置は、
    前記所定状態ではない状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合には、あらかじめ定められた制御処理を実行し、前記所定状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合には、前記制御処理を実行しない制御部、をさらに備え、
    前記棄却情報生成部は、前記入力音声に基づいて、前記音声認識部に依らずに認識されるワードを表す音声に係る情報を、前記棄却情報として定める、
    請求項1に記載の音声認識装置。
  4. 前記音声認識装置は、
    前記所定状態ではない状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合には、あらかじめ定められた制御処理を実行し、前記所定状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合には、前記制御処理を実行しない制御部、をさらに備え、
    前記棄却情報生成部は、前記入力音声に基づいて、前記音声認識部に依らずに認識されるワードを表す音声に係る情報を、前記棄却情報として定め、
    前記棄却情報生成部は、前記入力音声に基づく音声認識を外部装置に行わせた結果としてのワードを表す音声に係る情報を、前記外部装置から取得し、当該ワードを表す音声に係る情報を前記棄却情報として定める、
    請求項1に記載の音声認識装置。
  5. 前記音声認識装置は、
    前記所定状態ではない状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合には、あらかじめ定められた制御処理を実行し、前記所定状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合には、前記制御処理を実行しない制御部、をさらに備え、
    前記棄却情報生成部は、前記所定状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合、所定入力を受けたときに前記棄却情報を前記記憶部に記憶する、
    請求項1に記載の音声認識装置。
  6. 前記音声認識装置は、
    前記所定状態ではない状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合には、あらかじめ定められた制御処理を実行し、前記所定状態において前記音声認識部が前記入力音声を前記対象ワードと認識した場合には、前記制御処理を実行しない制御部、をさらに備え、
    前記音声認識装置は、マイクロホンおよびディスプレイを有するテレビジョン受信機に備えられ、
    前記制御処理は、前記ディスプレイへ電力を供給する処理であり、
    前記所定状態は、前記ディスプレイへ電力を供給している状態である、
    請求項1に記載の音声認識装置。
  7. 前記音声認識装置は、前記記憶部に記憶された前記棄却情報を外部に出力する出力部、をさらに備える、
    請求項1に記載の音声認識装置。
  8. 前記音声認識装置において、前記対象ワードの入力待ちでない状態または前記対象ワードが認識されるべきでない状態を、前記所定状態とする、
    請求項1に記載の音声認識装置。
  9. 前記音声認識装置は、マイクロホンおよびディスプレイを有するテレビジョン受信機に備えられ、
    前記対象ワードが前記ディスプレイへ電力を供給する指示を表すワードである場合、前記ディスプレイへ電力が供給されている状態を前記所定状態とする、
    請求項1に記載の音声認識装置。
  10. 入力音声を対象ワードと認識する第1音声認識装置と、入力音声に対応するワードを認識する第2音声認識装置と、を備え、
    前記第1音声認識装置は、
    音声の特定に用いられる棄却情報を記憶する記憶部と、
    前記棄却情報により特定される音声と前記入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、前記入力音声を前記対象ワードと認識する第1音声認識部と、
    所定状態において前記第1音声認識部が前記入力音声を前記対象ワードと認識した場合に、前記入力音声を前記第2音声認識装置に送信し、前記入力音声に基づいて前記第2音声認識装置により認識されたワードを表す音声に係る情報を前記第2音声認識装置から受信し、受信した前記情報を前記棄却情報として定め、前記棄却情報を前記記憶部に記憶する棄却情報生成部と、を有し、
    前記第2音声認識装置は、前記第1音声認識装置から受信した前記入力音声に基づいて前記入力音声に対応するワードを認識し、当該ワードを前記第1音声認識装置に送信する第2音声認識部、を有する
    音声認識システム。
  11. 音声の特定に用いられる棄却情報を記憶する記憶部と、前記棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、前記入力音声を対象ワードと認識する音声認識部と、を備える音声認識装置で用いられる音声認識方法であって、
    前記対象ワードが認識されるべきでない所定状態において前記音声認識部が前記入力音声を前記対象ワードと認識したか否かを判定するステップと、
    前記所定状態において前記音声認識部が前記入力音声を前記対象ワードと認識したと判定された場合に、前記入力音声に基づいて前記棄却情報を定め、前記棄却情報を前記記憶部に記憶するステップと、を含む、
    音声認識方法。
  12. 音声の特定に用いられる棄却情報を記憶する記憶部と、前記棄却情報により特定される音声と入力音声との類似度があらかじめ定められた閾値より低いことを条件の1つとして、前記入力音声を対象ワードと認識する音声認識部と、を備える音声認識装置のプロセッサに音声認識処理を実行させるための制御プログラムであって、
    前記音声認識処理は、
    前記対象ワードが認識されるべきでない所定状態において前記音声認識部が前記入力音声を前記対象ワードと認識したか否かを判定するステップと、
    前記所定状態において前記音声認識部が前記入力音声を前記対象ワードと認識したと判定された場合に、前記入力音声に基づいて前記棄却情報を定め、前記棄却情報を前記記憶部に記憶するステップと、を含む
    制御プログラム。
PCT/JP2016/001496 2015-03-27 2016-03-16 音声認識システム、音声認識装置、音声認識方法、および制御プログラム WO2016157782A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/557,862 US10304449B2 (en) 2015-03-27 2016-03-16 Speech recognition using reject information
EP16771676.0A EP3276616A4 (en) 2015-03-27 2016-03-16 Speech recognition system, speech recognition device, speech recognition method, and control program
JP2017509245A JP6731581B2 (ja) 2015-03-27 2016-03-16 音声認識システム、音声認識装置、音声認識方法、および制御プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015067513 2015-03-27
JP2015-067513 2015-03-27

Publications (1)

Publication Number Publication Date
WO2016157782A1 true WO2016157782A1 (ja) 2016-10-06

Family

ID=57004418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/001496 WO2016157782A1 (ja) 2015-03-27 2016-03-16 音声認識システム、音声認識装置、音声認識方法、および制御プログラム

Country Status (4)

Country Link
US (1) US10304449B2 (ja)
EP (1) EP3276616A4 (ja)
JP (1) JP6731581B2 (ja)
WO (1) WO2016157782A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665892A (zh) * 2018-03-21 2018-10-16 肇庆益晟商贸有限公司 一种新能源汽车的语音控制装置
WO2019176252A1 (ja) * 2018-03-13 2019-09-19 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
WO2021177049A1 (ja) * 2020-03-02 2021-09-10 菱洋エレクトロ株式会社 音声認識システム、及び音声認識装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10271093B1 (en) * 2016-06-27 2019-04-23 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
US10832678B2 (en) * 2018-06-08 2020-11-10 International Business Machines Corporation Filtering audio-based interference from voice commands using interference information
US10811007B2 (en) * 2018-06-08 2020-10-20 International Business Machines Corporation Filtering audio-based interference from voice commands using natural language processing
KR20200063521A (ko) * 2018-11-28 2020-06-05 삼성전자주식회사 전자 장치 및 이의 제어 방법
US10972802B1 (en) * 2019-09-26 2021-04-06 Dish Network L.L.C. Methods and systems for implementing an elastic cloud based voice search using a third-party search provider

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01158498A (ja) * 1987-12-16 1989-06-21 Hitachi Ltd 音声認識方式
JPH07219588A (ja) * 1994-01-28 1995-08-18 Canon Inc 音声処理装置及び方法
JP2008033198A (ja) * 2006-08-01 2008-02-14 Nec System Technologies Ltd 音声対話システム、音声対話方法、音声入力装置、プログラム
WO2015098109A1 (ja) * 2013-12-26 2015-07-02 パナソニックIpマネジメント株式会社 音声認識処理装置、音声認識処理方法、および表示装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3477751B2 (ja) 1993-09-07 2003-12-10 株式会社デンソー 連続単語音声認識装置
US5577164A (en) 1994-01-28 1996-11-19 Canon Kabushiki Kaisha Incorrect voice command recognition prevention and recovery processing method and apparatus
US5930751A (en) * 1997-05-30 1999-07-27 Lucent Technologies Inc. Method of implicit confirmation for automatic speech recognition
US20020128847A1 (en) * 2001-03-12 2002-09-12 Anthony Ancona Voice activated visual representation display system
US7102485B2 (en) * 2001-05-08 2006-09-05 Gene Williams Motion activated communication device
US6985865B1 (en) * 2001-09-26 2006-01-10 Sprint Spectrum L.P. Method and system for enhanced response to voice commands in a voice command platform
JP4236597B2 (ja) * 2004-02-16 2009-03-11 シャープ株式会社 音声認識装置、音声認識プログラムおよび記録媒体。
US7865364B2 (en) * 2005-05-05 2011-01-04 Nuance Communications, Inc. Avoiding repeated misunderstandings in spoken dialog system
TWI270850B (en) * 2005-06-14 2007-01-11 Universal Scient Ind Co Ltd Voice-controlled vehicle control method and system with restricted condition for assisting recognition
JP5824829B2 (ja) * 2011-03-15 2015-12-02 富士通株式会社 音声認識装置、音声認識方法及び音声認識プログラム
US8340975B1 (en) * 2011-10-04 2012-12-25 Theodore Alfred Rosenberger Interactive speech recognition device and system for hands-free building control
NZ700273A (en) * 2012-04-27 2016-10-28 Interactive Intelligence Inc Negative example (anti-word) based performance improvement for speech recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01158498A (ja) * 1987-12-16 1989-06-21 Hitachi Ltd 音声認識方式
JPH07219588A (ja) * 1994-01-28 1995-08-18 Canon Inc 音声処理装置及び方法
JP2008033198A (ja) * 2006-08-01 2008-02-14 Nec System Technologies Ltd 音声対話システム、音声対話方法、音声入力装置、プログラム
WO2015098109A1 (ja) * 2013-12-26 2015-07-02 パナソニックIpマネジメント株式会社 音声認識処理装置、音声認識処理方法、および表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3276616A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176252A1 (ja) * 2018-03-13 2019-09-19 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN108665892A (zh) * 2018-03-21 2018-10-16 肇庆益晟商贸有限公司 一种新能源汽车的语音控制装置
WO2021177049A1 (ja) * 2020-03-02 2021-09-10 菱洋エレクトロ株式会社 音声認識システム、及び音声認識装置
JP2021139935A (ja) * 2020-03-02 2021-09-16 菱洋エレクトロ株式会社 音声認識システム、及び音声認識装置

Also Published As

Publication number Publication date
US20180053506A1 (en) 2018-02-22
EP3276616A4 (en) 2018-03-21
US10304449B2 (en) 2019-05-28
EP3276616A1 (en) 2018-01-31
JP6731581B2 (ja) 2020-07-29
JPWO2016157782A1 (ja) 2018-01-25

Similar Documents

Publication Publication Date Title
WO2016157782A1 (ja) 音声認識システム、音声認識装置、音声認識方法、および制御プログラム
US10818296B2 (en) Method and system of robust speaker recognition activation
US9880808B2 (en) Display apparatus and method of controlling a display apparatus in a voice recognition system
EP3062309B1 (en) Low power detection of an activation phrase
EP3195310B1 (en) Keyword detection using speaker-independent keyword models for user-designated keywords
US9548053B1 (en) Audible command filtering
CN111670471B (zh) 基于对在线语音命令的使用来学习离线语音命令
US11004453B2 (en) Avoiding wake word self-triggering
CN110494841B (zh) 语境语言翻译
US20170243581A1 (en) Using combined audio and vision-based cues for voice command-and-control
US11076219B2 (en) Automated control of noise reduction or noise masking
US9818404B2 (en) Environmental noise detection for dialog systems
WO2018013343A1 (en) Audio slicer
US11437046B2 (en) Electronic apparatus, controlling method of electronic apparatus and computer readable medium
US20210134302A1 (en) Electronic apparatus and method thereof
KR102662571B1 (ko) 전자 장치, 제어 방법 및 컴퓨터 판독 가능 매체
KR102449181B1 (ko) 전자장치 및 그 제어방법
KR20210054246A (ko) 전자장치 및 그 제어방법
KR102089593B1 (ko) 디스플레이 장치, 및 이의 제어 방법, 그리고 음성 인식 시스템의 디스플레이 장치 제어 방법
KR102124396B1 (ko) 디스플레이 장치, 및 이의 제어 방법, 그리고 음성 인식 시스템의 디스플레이 장치 제어 방법
KR102051480B1 (ko) 디스플레이 장치, 및 이의 제어 방법, 그리고 음성 인식 시스템의 디스플레이 장치 제어 방법
JP2020091435A (ja) 音声認識システム、音声認識システムの通知方法、プログラム、及び移動体搭載機器
KR102045539B1 (ko) 디스플레이 장치, 및 이의 제어 방법, 그리고 음성 인식 시스템의 디스플레이 장치 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16771676

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2016771676

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15557862

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2017509245

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE