WO2006068123A1 - 音声による選択装置、及び選択方法 - Google Patents

音声による選択装置、及び選択方法 Download PDF

Info

Publication number
WO2006068123A1
WO2006068123A1 PCT/JP2005/023336 JP2005023336W WO2006068123A1 WO 2006068123 A1 WO2006068123 A1 WO 2006068123A1 JP 2005023336 W JP2005023336 W JP 2005023336W WO 2006068123 A1 WO2006068123 A1 WO 2006068123A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
selection
output
unit
item
Prior art date
Application number
PCT/JP2005/023336
Other languages
English (en)
French (fr)
Inventor
Kazuya Nomura
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/570,470 priority Critical patent/US7698134B2/en
Priority to CN2005800194453A priority patent/CN1969315B/zh
Priority to EP05820332.4A priority patent/EP1768103B1/en
Publication of WO2006068123A1 publication Critical patent/WO2006068123A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Definitions

  • the present invention relates to an audio selection device and a selection method for selecting an item presented by a system by audio.
  • a selection device by voice there is known a device for sequentially selecting a control content selection item by voice after specifying a control target by voice (for example, Japanese Patent Laid-Open No. 3-293400). ).
  • the present invention has been made in response to such a conventional problem, and is capable of voice recognition even when a selected item is output as synthesized speech, or when music, an image, or the like is selected as a selected item. It is possible to provide an audio selection device and a selection method.
  • the voice selection device of the present invention outputs an output unit that outputs a guide voice for guiding a selection item, and is output during a predetermined time during or after the output of the guide voice output by the output unit.
  • a speech recognition unit for recognizing a selection instruction for selecting a selection item, and a dialogue control / result selection unit for selecting the selection item instructed to be selected when the selection instruction is recognized by the voice recognition unit. Have a configuration.
  • the voice recognition unit While the guide voice is output by the output unit, the voice recognition unit generates a voice for selecting the selection item until the output is finished and a predetermined time elapses. Can be selected, and the selection item can be selected even during the output of the guide voice.
  • the voice selection device of the present invention provides a dialogue control result if the selection instruction is not issued during a predetermined time during or after the output of the guide voice output by the output unit.
  • the selection unit is configured to control the output unit to output a guide voice that guides a selection item next to the selection item.
  • the voice selection device of the present invention has a configuration in which the voice recognition unit includes a voice removal unit that subtracts the guide voice output from the voice column output unit input to the voice recognition unit. To do.
  • the guide voice output from the output unit is input to the voice recognition unit, and it is possible to eliminate as much as possible the obstacle to the voice recognition of the selection instruction by the voice recognition unit.
  • the selection instruction can be accurately recognized.
  • the voice selection device of the present invention further includes a music playback unit that plays back part or all of the music corresponding to the guide voice, and the voice recognition unit plays back music using the music playback unit. It has a configuration that recognizes a selection instruction input during or after a certain period of time.
  • the voice selection device of the present invention further includes an image generation unit that generates an image corresponding to the guide voice, and the voice recognition unit is constant during or after the image generation unit generates the image. It has a configuration that recognizes a selection instruction input in time.
  • an image corresponding to a guide voice is generated and displayed, or after that a voice that instructs to select a selection item is generated within a certain time, and the image is selected. If it is a still image, you can continue to view the still image, and if it is a movie, you can continue to watch the movie.
  • the voice selection device of the present invention further includes an input waiting time setting unit that sets a fixed time during or after the output of the guide voice output by the output unit, and the voice recognition unit includes: It has a configuration for recognizing a selection instruction for selecting a selection item uttered within a predetermined time set by the input waiting time setting unit.
  • the voice selection method of the present invention includes an output procedure for outputting a guide voice for guiding a selection item, and a voice during the output of the guide voice output in the output procedure or within a predetermined time after the output ends.
  • the selection item is selected by the voice recognition procedure by generating a sound for selecting the selection item until the output ends and a certain time elapses.
  • the selection item can be selected even during the output of the guide voice.
  • the voice selection device of the present invention includes an output unit that outputs a guide voice that guides a selection item, and the output of the guide voice that is output by the output unit.
  • a voice recognition unit that recognizes a selection instruction for selecting a selection item that is uttered within a certain period of time after completion, and a dialog for selecting the selection item that is instructed to be selected when the selection instruction is recognized by the voice recognition unit Control and result selection unit. While the guide voice is output by the output unit, the selection is made by emitting a voice to select the selection item until the output ends and a certain time elapses. The item can be selected, and the selected item can be selected even when the guide voice is being output.
  • the selection method using voice includes an output procedure for outputting a guide voice for guiding a selection item, and during the output of the guide voice output in the output procedure or within a certain time after the output ends.
  • a voice recognition procedure for recognizing a selection instruction for selecting the selected item, and a dialog control and result selection procedure for selecting the selected selection item when the selection instruction is recognized by the voice recognition procedure.
  • the selection item can be selected by emitting a sound to select the selection item until the output ends and a certain time elapses. You can select a selection item even while outputting the guide voice.
  • the voice selection device of the present invention includes an output unit that outputs a guide voice for guiding a selection item, and a fixed time during or after the output of the guide voice output by the output unit.
  • the selection item can be selected by the voice recognition unit, and the selection item can be selected more reliably even during the output of the guide voice. It can be selected.
  • FIG. 1 is a block diagram showing a schematic configuration of an audio selection device according to Embodiment 1 of the present invention.
  • Fig. 2 is a flowchart showing the operation of the selection device by voice in the first embodiment of the present invention. It is a chart.
  • FIG. 3 is a time chart showing the operation of the voice selection device in the first embodiment of the present invention.
  • FIG. 4 is a block diagram showing a schematic configuration of a voice selection device according to Embodiment 2 of the present invention.
  • Fig. 5 is a flowchart showing the operation of the selection device by voice in the second embodiment of the present invention.
  • Fig. 6 is a time chart showing the operation of the selection device by voice in the second embodiment of the present invention.
  • FIG. 7 is a block diagram showing a schematic configuration of a voice selection device according to Embodiment 3 of the present invention.
  • FIG. 8 is a flowchart showing an operation of the selection device by voice in the third embodiment of the present invention.
  • Fig. 9 is a time chart showing the operation of the selection device by voice in the third embodiment of the present invention.
  • FIG. 10 is a block diagram showing a schematic configuration of a voice selection device in the fourth embodiment of the present invention.
  • FIG. 11 is a flowchart showing an operation of the selection device by voice in the fourth embodiment of the present invention.
  • FIG. 12 is a time chart showing the operation of the voice selection device in the fourth embodiment of the present invention.
  • FIG. 1 is a block diagram showing a schematic configuration of a voice selection device according to Embodiment 1 of the present invention.
  • the voice selection device is a speaker as an output unit that outputs a voice on the system side such as a voice or a voice response as a guide for a user ( (Sound output unit) 101, microphone 102 for converting user-generated sound into sound signals, and output equivalent signals corresponding to the guide sound output from speaker 101 are removed from the sound signals output from microphone 102.
  • a voice on the system side such as a voice or a voice response as a guide for a user ( (Sound output unit) 101
  • microphone 102 for converting user-generated sound into sound signals
  • output equivalent signals corresponding to the guide sound output from speaker 101 are removed from the sound signals output from microphone 102.
  • Speech recognition that recognizes the utterance content of the user's speech based on the speech signal output from the microphone 102 and the system speech removal unit 103 as the speech removal unit and obtained by removing the superimposed signal component by the system speech removal unit 103 Based on the content of the user voice obtained by the unit 106 and the voice recognition unit 106, the corresponding response voice is selected to control the user interaction and the result is selected at the same time.
  • Voice response for output to removal unit 103 A response generation unit 108 for generating a signal.
  • the system sound removal unit 103 uses, for example, an LMS (Least Mean Square) Z Newton algorithm based on the sound signal output from the microphone 102 and the response sound signal output from the response generation unit 108.
  • a filter coefficient learning unit 104 that optimally adjusts the obtained filter coefficient (impulse response) while learning, an adaptive filter 105 that corrects and outputs the response speech signal using the impulse response output from the filter coefficient learning unit 104,
  • the audio signal power output from the microphone 102 also includes a subtractor 110 that subtracts the output signal output from the adaptive filter 105.
  • the speech recognition unit 106 acoustically processes an audio signal output from the microphone 102 and subtracts the equivalent superimposition of the audio response by the system audio removal unit 103, and an audio processing unit obtained by the audio processing unit
  • a phoneme identifier that selects and identifies the most likely phoneme candidate based on the smallest unit
  • a dictionary database that stores words related to the purpose of use of the spoken dialogue system
  • the phonemes obtained by the phoneme recognizer A language processing unit that selects word candidates based on the voice data of the dictionary database and executes language processing to obtain correct sentences using language information such as syntax, meaning, and context. Yes.
  • the acoustic processing unit uses, for example, an LPC cepstrum (Linear Predictor Coefficien t Cepstrum) or the like to convert the audio signal output from the microphone 102 into a time series called a feature vector. It is configured to estimate the outline (spectrum envelope) of the speech spectrum.
  • LPC cepstrum Linear Predictor Coefficien t Cepstrum
  • the phoneme identifying unit uses, for example, an acoustic parameter extracted by the acoustic processing unit based on the input speech using an HMM (Hidden Markov Model) method or the like.
  • HMM Hidden Markov Model
  • the phoneme symbolization of the signal is performed, compared with a standard phoneme model prepared in advance, and the most likely phoneme candidate is selected.
  • the dialogue control / result selection unit 107 selects and outputs the response content to the response generation unit 108 by selecting and controlling the response content based on the content of the speech signal recognized by the speech recognition unit 106. It is.
  • the response generation unit 108 generates a response audio signal using data from the response audio database 109 based on the content determined by the dialog control / result selection unit 107, and the speaker 101 Output to.
  • FIG. 2 is a flowchart for explaining the operation of the voice selection device according to Embodiment 1 of the present invention
  • FIG. 3 is a time chart.
  • the selection item counter N is set to 1 under the control of the dialog control and result selection unit 107 (step 201).
  • the response generation unit 108 outputs the guide voice from the response voice database 109 to the speaker 101 based on the command from the dialogue control / result selection unit 107 (step 202).
  • a guide voice (301) such as “Please select the desired song title from the following” is output to the speaker 101.
  • voice recognition is activated so that the selection instruction from the user can be recognized (step 203).
  • the voice recognition unit 106 is activated as shown in FIG. 3 (302).
  • the response generation unit 108 accesses the response voice database 109 under the control of the dialog control and result selection unit 107, and the voice corresponding to the first selection item. Output the data (step 204).
  • the dialog control / result selection unit 107 determines whether or not the user has spoken a word instructing the selection during the presentation or within a certain time after the presentation is completed (step 205).
  • Step 204 For example, if “Medaka School” is selected but the selection instruction is not given (in the case of “Yes” in Step 205), 1 is added to the counter N of the selected item (Step 206). ), The voice corresponding to the next selection item, that is, the guide voice corresponding to the second selection item is output (step 204).
  • the response generation unit 108 accesses the response voice database 109, and outputs a second guide voice, for example, a guide voice (304) “Teruterubo” to the speaker 101.
  • a guide voice for example, a guide voice (304) “Teruterubo”
  • the second selection is 309A while outputting the guide voice (304) "Teruterubo" and the fixed time (input waiting time) 309B after the output ends.
  • the time for selecting the item “Teruteru Shabu” is 309, and if the user selects a word for this period 309, for example, “This is it!”, The second selection item “ You will be able to select “Teruteru”.
  • Step 205 determines (Step 205), and after that determination, branches to a “No” path, and, similarly to the above, caches the selection item counter N by 1 (Step 206), and then proceeds to the third step.
  • the guide voice corresponding to the second selection item is output (step 204).
  • the response generation unit 108 accesses the response sound database 109 and outputs, for example, a guide sound (305) “Sparkling star” to the speaker 101 as the third guide sound.
  • the period 310A during which the third guide voice “Glitter star.” (305) is output and the fixed time (input waiting time) 310B after the output ends are the third selection items. It is time 310 when “Kira Kira star” can be selected, and if a word that the user selects and instructs in this period 310, for example, “This is it!”, The third selection item “Kira Kira star” is selected. You will be able to choose. [0050] In FIG. 3, while the third guide voice “Glitter star” (305) is being output in order for the user to select and instruct the third selection item “Glitter star”, or Then, for a certain period of time, a voice for selecting it, for example, “This is!”
  • the guide voice "Glitter star.” (305) and “This is!” (306) is the force that is input to the microphone 102 by overlapping the instruction voices.
  • the voice response removal unit 103 outputs a signal equivalent to the guide voice, that is, “Glitter Star.”
  • the signal corresponding to the voice is removed from the signal input to the microphone 102, and the voice recognition unit 106 can correctly recognize the instruction voice “This is!” (306) uttered by the user.
  • step 208 the selection item at that time is selected (step 208), and thereafter, the dialogue control / result selection unit 107 performs dialogue control based on the selected result, for example, “glitter star”.
  • Embodiment 1 of the present invention during the period in which the system presents the selection item by voice, or within the input waiting time provided for a certain period of time after the presentation is completed, When Zaichi utters a word that instructs the selection, the selection item at the stage where the word indicating the selection is issued can be selected.
  • FIG. 4 is a block diagram showing a schematic configuration of the voice selection device according to the second embodiment of the present invention
  • FIG. 5 is a flowchart for explaining the operation of the device
  • FIG. 6 is a time for explaining the operation of the device. It is a chart.
  • FIGS. 4 to 6 the same reference numerals and numbers as those in the first embodiment shown in FIGS. 1 to 3 are assigned to the first embodiment shown in FIGS. The same configuration and the same content are shown, and detailed description thereof is omitted here.
  • the dialog control result selection unit 10 is further added.
  • the music playback unit 411 is configured to access the music data base 412 according to an instruction from the dialog control / result selection unit 107 and to play the music specified by the dialog control / result selection unit 107. Has been.
  • the music reproduced by the music reproduction unit 411 is configured to be output to the speaker 101 together with the output from the response generation unit 108 via the mixer 413.
  • guide music 603 to 605 based on music output correspond to the guide voices 303 to 300 in FIG.
  • step 204 of outputting the guide voice corresponding to the Nth selection item corresponds to the Nth selection item in Embodiment 1.
  • Step 504 is to output music, and in this step 504, if both the guide voice corresponding to the Nth selection item and the music corresponding to the Nth selection item are output in order, Since the song title is output and then the music is output, it is more convenient when selecting music.
  • the music output for selection does not have to be the entire music (a whole piece of music). For example, only the intro or the chorus part is sufficient.
  • the music generator 411 continues the music as it is It is possible to output the sound, or to return to the beginning of the music and output the power.
  • music is presented as a selection item,
  • FIG. 7 is a block diagram showing a schematic configuration of a voice selection device according to Embodiment 2 of the present invention
  • FIG. 8 is a flowchart for explaining the operation of the device
  • FIG. 9 is a time for explaining the operation of the device. It is a chart.
  • FIG. 7 to FIG. 9 the same reference numerals and numbers as those in the first embodiment shown in FIG. 1 to FIG. 3 are assigned to the first embodiment shown in FIG. 1 to FIG. The same configuration and the same content are shown! /, So detailed description thereof is omitted here.
  • the dialogue control'result selection unit 10 is further added.
  • image generation unit 7 includes an image generation unit 711 controlled by an instruction 7, an image database 712 that stores a plurality of images such as still images and moving images, and a display 700 that displays images generated by the image generation unit 711. .
  • the image generation unit 711 accesses the image data base 712 according to an instruction from the dialogue control / result selection unit 107, and outputs image data such as a still image or a moving image instructed by the dialogue control'result selection unit 107. And is configured to generate an image.
  • the image generated at 711 is displayed on the display 700.
  • guide voice 901 by voice output, guide images 903 to 905 ⁇ by display on the display, guide voices 301 and 303 to 305 in FIG.
  • an image corresponding to the selected item is displayed on display 700 as well as outputting the guide voice as the selected item. This is more convenient when selecting a selection item.
  • the step 204 for outputting the guide sound corresponding to the first selection item outputs the image corresponding to the first selection item.
  • step 804 both the guide voice corresponding to the first selection item and the image corresponding to the first selection item are output.
  • the former is displayed as sound from the speaker 101, and the latter is displayed on the display 700 as an image or a moving image. Therefore, the selection items can be selected more easily based on these.
  • the image to be output for selection is a moving image
  • the first or rusting time is sufficient. Even if all the images to be output for selection or only for a certain period of time are selected, when the image output for selection is selected, the image generation unit 711 continues the image as it is. You can also display it, and you can go back to the beginning of the video and display the force.
  • the corresponding image is also presented as the selection item, and the presentation time or within a certain time after the presentation is completed If the user utters a selection instruction, the user can select the desired selection item. For example, an image such as a picture or a movie can be used, but in the case of music, a jacket image is presented. This has the effect of making it easier to select music.
  • the configuration shown in FIG. 3 does not have a configuration in which time 308B, 309B, etc. for selection is actively provided, but waiting for input to provide time 308B, 309B, etc. for this selection.
  • a voice selection device having a time setting unit will be described with reference to FIGS.
  • FIG. 10 is a block diagram showing a schematic configuration of a voice selection device according to Embodiment 4 of the present invention
  • FIG. 11 is a flowchart for explaining the operation of the device
  • FIG. 12 shows the operation of the device. It is a time chart to explain.
  • the basic configuration of the present embodiment is the same as the configuration diagram of the voice selection device described in the first embodiment, so only the differences between them will be described here.
  • the other basic configurations and operations are omitted.
  • the dialog control / result selection unit 1007 and the response generation unit 1008 of the present embodiment have functions different from those of the first embodiment. Furthermore, in the present embodiment, the dialog control / result selection unit An input waiting time setting unit 1011 connected to the selection unit 1007 and the response generation unit 1008 is provided.
  • the response generation unit 1008 accesses the response speech database 109 and corresponds to the selected item. Output audio data.
  • dialog control / result selection unit 1007 determines whether or not the voice data corresponding to the selected item has been output.
  • Dialog control ⁇ Result selection unit When the result of the determination by 1007 confirms that voice data has been output, the input waiting time setting unit 1011 sets a period for the user to respond, and waits for input. Time is set.
  • the operation is prohibited by the dialog control result selection unit 1007 during this input waiting time.
  • step 201 to step 203 are the same as those in the first embodiment. Since the operation is the same as that in FIG.
  • the response generation unit 1008 accesses the response speech database 109 under the control of the dialog control result selection unit 1007, and the first selection item is selected. Audio data corresponding to is output (step 204).
  • the dialogue control / result selection unit 1007 determines whether or not the output of the guide voice (303) “Medaka no School.” Has ended.
  • the input waiting time setting unit 1011 sets the input waiting time 1208B under the control of the dialog control / result selection unit 1007 ( Step 1109).
  • the response generating unit 1008 does not generate the next guide voice or the guide voice due to malfunction. Thus, the operation of the response generation unit 1008 is prohibited.
  • Whether or not the response generating unit 1008 is prohibited from operating is determined by determining whether or not the time set by the input waiting time setting unit 1011 has elapsed.
  • the user instructs selection within the fixed time of the input waiting time set in step S1109 while presenting the selected item or after the presentation is completed.
  • the dialogue control / result selection unit 1007 determines whether or not it is the power that uttered the word to be played (step 1105).
  • Step 1105 when the user utters a word instructing selection during the input waiting time (in the case of “Yes” in Step 1105), for example, the power to select “Medaka School” is selected there. If you did not utter a word indicating the selection (in step 1105, select “,, e”), set the selection item counter N to 1 (step 1106) and move to the next selection item.
  • the corresponding voice that is, the guide voice corresponding to the second selection item is output (step 204).
  • the provision of the input waiting time setting unit 1011 makes it possible to set a positive waiting time for waiting for a user's response.
  • the configuration including the input waiting time setting unit 1011 of the present embodiment is also applied to the configurations of the second embodiment and the third embodiment, and the same operation and effect as the present embodiment can be obtained. It goes without saying that being done is a matter of course.
  • the above embodiments are appropriately combined, for example, in addition to the guide voice of the selection item, the corresponding image and music are also presented as the selection item, and the presentation time or Alternatively, the user may select a desired selection item by uttering a word that the user instructs to select within an input waiting time provided for a certain period of time after the presentation is completed.
  • the voice selection device includes an output unit that outputs a guide voice that guides a selection item, and an input waiting unit that is provided during or after the output of the guide voice output by the output unit.
  • a voice recognition unit that recognizes a selection instruction for selecting a selection item that is uttered within a certain period of time, and a dialogue control that selects a selection item that is instructed to be selected when the selection instruction is recognized by the voice recognition unit ⁇ It has a configuration with a result selection unit, and it is used as in-vehicle electronic devices such as car audio and car air conditioners, electronic office equipment such as electronic blackboards and projectors, and home electronic devices for people with reduced mobility. Widely useful.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

 選択項目をガイドするガイド音声を出力する出力部(101)と、出力部(101)よって出力されたガイド音声の出力中又はその出力終了後に一定時間内に発声された、選択項目を選択するための選択指示を認識する音声認識部(106)と、音声認識部(106)によって選択指示が認識された場合、選択指示された選択項目を選択する対話制御・結果選択部(107)とを備えることにより、出力部(101)によってガイド音声が出力されている間、その出力が終了し一定時間が経過するまでに選択項目を選択する音声を発することで、音声認識部(106)によってその選択項目を選択することができ、ガイド音声の出力中でも選択項目を選択することができる。

Description

明 細 書
音声による選択装置、及び選択方法
技術分野
[0001] 本発明は、システムによって提示された項目を音声により選択するための音声によ る選択装置、及び選択方法に関するものである。
背景技術
[0002] 従来、音声による選択装置として、制御対象を音声により特定した後に制御内容の 選択項目を順次音声で出力し、選択するものが知られている(例えば、特開平 3— 2 93400号公報)。
[0003] 特開平 3— 293400号公報に記載のものによれば、スィッチを制御して音声制御シ ステムを動作可能な状態にし、この状態で制御対象となる機器の名称を発声すること により、その名称が認識され、その名称の機器の制御項目が順次音声合成によって 発せられ、適当な制御項目が発せられた段階で「YES」と発することにより、その項目 に合った制御を実行することができる。
[0004] また、パソコンの画面をプロジェクタを用いて大画面にして表示し、その画面を基に 、その画面に表示された項目を発することによりその項目が強調表示され、実行ボタ ンを操作すると、その項目の詳細が表示され、その項目の詳細の監視、制御が可能 になると 、うものも知られて 、る(例えば、特開平 6 - 149534号公報)。
[0005] しかしながら、特開平 3— 293400号公報及び特開平 6— 149534号公報に記載さ れたものでは、具体的にシステムが提示する選択項目と重なったユーザーの声を受 理する方法を与えておらず、従って、通常の音声認識方法では選択項目を合成音 声により出力中は音声認識させることが困難であると同時に、システム力も提示される 選択項目の出力方法も音声に限定され、例えば、音楽や画像などの選択を音声によ り直接行うことはできな 、と 、う問題を有して 、た。
発明の開示
[0006] 本発明は、このような従来の問題に対処してなされたものであり、選択項目を合成 音声により出力中でも、音楽や画像、その他を選択項目とした場合でも音声認識さ せることができる音声による選択装置、および選択方法を提供するものである。
[0007] 本発明の音声による選択装置は、選択項目をガイドするガイド音声を出力する出力 部と、出力部よつて出力されたガイド音声の出力中又はその出力終了後に一定時間 内に発声された、選択項目を選択するための選択指示を認識する音声認識部と、音 声認識部によって選択指示が認識された場合、選択指示された選択項目を選択す る対話制御 ·結果選択部とを備えた構成を有する。
[0008] この構成により、出力部によってガイド音声が出力されている間、その出力が終了し 一定時間が経過するまでに選択項目を選択する音声を発することで、音声認識部に よってその選択項目を選択することができ、ガイド音声の出力中でも選択項目を選択 することができる。
[0009] また、本発明の音声による選択装置は、出力部よつて出力されたガイド音声の出力 中又はその出力終了後に一定時間内に選択指示が発声されな力つた場合、対話制 御'結果選択部が出力部に選択項目の次の選択項目をガイドするガイド音声を出力 するよう制御する構成を有する。
[0010] この構成により、選択項目を選択する音声を発しない場合には、次々と一定時間後 に次の選択項目をガイドするガイド音声が出力されることになり、好きな選択項目で 任意に選択指示を発し、該当の選択項目を選択することができる。
[0011] また、本発明の音声による選択装置は、音声認識部が、音声認識部に入力される 音声カゝら出力部よつて出力されたガイド音声を減じる音声除去部を備えた構成を有 する。
[0012] この構成により、出力部よつて出力されたガイド音声が音声認識部に入力され、音 声認識部による選択指示の音声認識に支障を与えるのを極力排除することができ、 ガイド音声出力中でも正確に選択指示を認識することができる。
[0013] また、本発明の音声による選択装置は、ガイド音声に対応する楽曲の一部または 全部を再生する楽曲再生部をさらに備え、音声認識部が、楽曲再生部によって音楽 を再生している間又はその後一定時間内に入力された選択指示を音声認識する構 成を有する。
[0014] この構成により、ガイド音声に対応する楽曲の再生中、又は、その後一定時間内に 選択項目を選択指示する音声を発するだけで、その楽曲を選択し、聴取することが できる。
[0015] また、本発明の音声による選択装置は、ガイド音声に対応する画像を生成する画 像生成部をさらに備え、音声認識部が、画像生成部によって画像を生成している間 又はその後一定時間内に入力された選択指示を音声認識する構成を有する。
[0016] この構成により、ガイド音声に対応する画像を生成し表示している間、又は、その後 一定時間内に選択項目を選択指示する音声を発するだけで、その画像を選択し、例 えば、静止画であれば、静止画をそのまま継続してみることができ、動画であれば、 その動画を引続いて見ることができることになる。
[0017] また、本発明の音声による選択装置は、出力部よつて出力されたガイド音声の出力 中又はその出力終了後に一定時間を設定する入力待ち時間設定部をさらに備え、 音声認識部は、入力待ち時間設定部によって設定された一定時間内に発声された、 選択項目を選択するための選択指示を認識する構成を有する。
[0018] この構成により、出力部によってガイド音声が出力されている間、その出力が終了し 一定時間設けられた入力待ち時間が経過するまでに選択項目を選択する音声を発 することで、音声認識部によってその選択項目を選択することができ、ガイド音声の 出力中でも選択項目をより確実に選択することができる。
[0019] さらに、本発明の音声による選択方法は、選択項目をガイドするガイド音声を出力 する出力手順と、出力手順において出力されたガイド音声の出力中又はその出力終 了後一定時間内に発声された、選択項目を選択するための選択指示を認識する音 声認識手順と、音声認識手順によって選択指示が認識された場合、選択指示された 選択項目を選択する対話制御 ·結果選択手順とを備えた構成を有する。
[0020] この構成により、出力手順においてガイド音声が出力されている間、その出力が終 了し一定時間が経過するまでに選択項目を選択する音声を発することで、音声認識 手順によってその選択項目を選択することができ、ガイド音声の出力中でも選択項目 を選択することができる。
[0021] 以上のように、本発明の音声による選択装置は、選択項目をガイドするガイド音声 を出力する出力部と、出力部よつて出力されたガイド音声の出力中又はその出力終 了後一定時間内に発声された、選択項目を選択するための選択指示を認識する音 声認識部と、音声認識部によって選択指示が認識された場合、選択指示された選択 項目を選択する対話制御 ·結果選択部とを備えたものであり、出力部によってガイド 音声が出力されている間、その出力が終了し一定時間が経過するまでに選択項目を 選択する音声を発することで、その選択項目を選択することができ、ガイド音声の出 力中でも選択項目を選択することができる。
[0022] また、本発明の音声による選択方法は、選択項目をガイドするガイド音声を出力す る出力手順と、出力手順において出力されたガイド音声の出力中又はその出力終了 後一定時間内に発声された、選択項目を選択するための選択指示を認識する音声 認識手順と、音声認識手順によって選択指示が認識された場合、選択指示された選 択項目を選択する対話制御 ·結果選択手順とを備えたものであり、出力手順におい てガイド音声が出力されている間、その出力が終了し一定時間が経過するまでに選 択項目を選択する音声を発することで、その選択項目を選択することができ、ガイド 音声の出力中でも選択項目を選択することができる。
[0023] また、本発明の音声による選択装置は、選択項目をガイドするガイド音声を出力す る出力部と、出力部よつて出力されたガイド音声の出力中又はその出力終了後に一 定時間を設定する入力待ち時間設定部と、入力待ち時間設定部によって設定された 一定時間内に発声された、選択項目を選択するための選択指示を認識する音声認 識部と、音声認識部によって選択指示が認識された場合、選択指示された選択項目 を選択する対話制御 ·結果選択部とを備えたものであり、出力部によってガイド音声 が出力されている間、その出力が終了し一定時間設けられた入力待ち時間が経過 するまでに選択項目を選択する音声を発することで、音声認識部によってその選択 項目を選択することができ、ガイド音声の出力中でも選択項目をより確実に選択する ことができる。
図面の簡単な説明
[0024] [図 1]図 1は、本発明の実施の形態 1における音声による選択装置の概略構成を示す ブロック図である。
[図 2]図 2は、本発明の実施の形態 1における音声による選択装置の動作を示すフロ 一チャートである。
[図 3]図 3は、本発明の実施の形態 1における音声による選択装置の動作を示すタイ ムチャートである。
[図 4]図 4は、本発明の実施の形態 2における音声による選択装置の概略構成を示す ブロック図である。
[図 5]図 5は、本発明の実施の形態 2における音声による選択装置の動作を示すフロ 一チャートである。
[図 6]図 6は、本発明の実施の形態 2における音声による選択装置の動作を示すタイ ムチャートである。
[図 7]図 7は、本発明の実施の形態 3における音声による選択装置の概略構成を示す ブロック図である。
[図 8]図 8は、本発明の実施の形態 3における音声による選択装置の動作を示すフロ 一チャートである。
[図 9]図 9は、本発明の実施の形態 3における音声による選択装置の動作を示すタイ ムチャートである。
[図 10]図 10は、本発明の実施の形態 4における音声による選択装置の概略構成を 示すブロック図である。
[図 11]図 11は、本発明の実施の形態 4における音声による選択装置の動作を示すフ ローチャートである。
[図 12]図 12は、本発明の実施の形態 4における音声による選択装置の動作を示すタ ィムチャートである。
符号の説明
101 スピーカ
102 マイクロホン
103 システム音声除去部
104 フィルタ係数学習部
105 適応フィルタ部
106 音声認識部 107, 1007 対話制御 ·結果選択部
108, 1008 応答生成部
109 応答音声データベース
110 減算器
411 音楽再生部
412 音楽データベース
413 ミキサー部
700 ディスプレイ
711 画像生成部
712 画像'動画データベース
1011 入力待ち時間設定部
発明を実施するための最良の形態
[0026] 以下、本発明の実施の形態について、図面を参照しながら説明する。
[0027] (実施の形態 1)
図 1は、本発明の実施の形態 1における音声による選択装置の概略構成を示すブ ロック図である。
[0028] 本発明の実施の形態 1における音声による選択装置は、図 1に示すように、ユーザ 一に対してガイドとなる音声や音声応答といったシステム側の音声を出力する出力部 としてのスピーカ(音声出力部) 101と、ユーザーが発した音声を音声信号に変換す るマイクロホン 102と、スピーカ 101で出力されたガイド音に相当する出力相当信号 を、マイクロホン 102から出力された音声信号から除去する音声除去部としてのシス テム音声除去部 103と、マイクロホン 102から出力され、システム音声除去部 103に よって重畳信号分を除去して得た音声信号に基づき、ユーザー音声の発話内容を 認識する音声認識部 106と、音声認識部 106で得たユーザー音声の内容に基づき 、対応する応答音声を選択してユーザーとの対話を制御すると同時に結果を選択す る対話制御'結果選択部 107と、応答音声データを記憶した応答音声データベース 109と、対話制御 ·結果選択部 107の出力に基づき、応答音声データベース 109の データを利用してスピーカ 101や音声応答除去部 103に出力するための音声応答 信号を生成する応答生成部 108とを備えている。
[0029] システム音声除去部 103は、マイクロホン 102から出力された音声信号と応答生成 部 108から出力された応答音声信号とに基づき、例えば、 LMS (Least Mean Sq uare) Zニュートンアルゴリズムを利用して得たフィルタ係数 (インパルス応答)を学習 しながら最適に調整するフィルタ係数学習部 104と、フィルタ係数学習部 104からの 出力であるインパルス応答により応答音声信号を補正して出力する適応フィルタ 105 と、マイクロホン 102より出力された音声信号力も適応フィルタ 105より出力された出 力信号を減算する減算器 110とを有して 、る。
[0030] 音声認識部 106は、マイクロホン 102から出力され、システム音声除去部 103で音 声応答の相当重畳分を減算した音声信号を音響処理する音響処理部と、音響処理 部で得た音声の最小単位を基に最もそれらしい音素候補を選びだし識別する音素 識別部と、音声対話システムの利用目的に関連する単語等を記憶した辞書データべ ースと、音素認識部で得られた音素と辞書データベース力 の音声データとを基にし て単語の候補を選定し、構文、意味、文脈等の言語情報を利用しながら正しい文章 を得るための言語処理を実行する言語処理部とを有している。
[0031] なお、音響処理部は、例えば、 LPCケプストラム(Linear Predictor Coefficien t Cepstrum:線形予測係数ィ匕ケプストラム)等を利用して、マイクロホン 102から出 力された音声信号を特徴量ベクトルという時系列のベクトルに変換し、音声スペクトル の概形 (スペクトル包絡)を推定するように構成して 、る。
[0032] また、音素識別部は、例えば、 HMM (Hidden Markov Model:隠れマルコフ モデル)法等を利用して、入力された音声を基に音響処理部で抽出した音響パラメ ータを用い、音声信号の音素記号化を行い、予め用意してある標準音素モデルと比 較し、最もそれらし 、音素の候補を選び出すように構成して 、る。
[0033] 一方、対話制御 ·結果選択部 107は、音声認識部 106で認識した音声信号の内容 に基づき、応答内容を選択制御して応答生成部 108へ出力すると同時に結果を選 択出力するようにしてある。
[0034] 応答生成部 108は、対話制御 ·結果選択部 107で決定した内容に基づき、応答音 声データベース 109からのデータを利用して応答音声信号を生成し、スピーカ 101 に出力する。
[0035] 次に、本発明の実施の形態 1における音声による選択装置の動作を図 2、図 3を用 いて詳細に説明する。
[0036] なお、図 2は、本発明の実施の形態 1における音声による選択装置の動作を説明 するフローチャート、図 3は、タイムチャートである。
[0037] まず、選択開始動作に入ると、対話制御,結果選択部 107の制御の基で、選択項 目のカウンタ Nが 1にセットされる(ステップ 201)。選択項目のカウンタ Nが 1にセット されると、次に、応答生成部 108が対話制御 ·結果選択部 107からの指令に基づき 応答音声データベース 109からガイド音声をスピーカ 101へ出力する(ステップ 202)
[0038] 例えば、図 3のシステムのタイムチャートに示すように、「次の中からご希望の曲名を 選んでください。」というようなガイド音声(301)をスピーカ 101へ出力する。
[0039] ガイド音声がスピーカ 101から出力されると、次に、ユーザーからの選択指示を音 声認識できるように音声認識の起動を行う (ステップ 203)。これにより、音声認識部 1 06力 図 3に示すように、起動する(302)。
[0040] 音声認識部 106が起動すると、次に、対話制御,結果選択部 107の制御の基で、 応答生成部 108が応答音声データベース 109をアクセスし、第 1番目の選択項目に 対応する音声データを出力する (ステップ 204)。
[0041] すなわち、これにより、例えば、図 3に示すように、「めだかの学校。」というガイド音 声 (303)をスピーカ 101へ出力する。そして、「めだかの学校。」というガイド音声 (303 )が出力されている間 308Aと、その出力が終了した後の一定時間(入力待ち時間) 3 08Bは、第 1番目の選択項目である「めだかの学校」を選択できる時間 308となる。し たがって、この間 308にユーザーが選択を指示する言葉、例えば、「これだ!」という 言葉を発声すれば、「めだかの学校」を選択することができる。
[0042] 「めだかの学校」を選択することができる期間 308に、ユーザーが選択指示する言 葉、例えば「これだ!」という言葉を発声しな力つた場合には、選択項目のカウンタ N に 1を加え、次の選択項目に対応するガイド音声を出力する状態になる。
[0043] すなわち、選択項目に対応する音声を出力すると (ステップ 204)、その選択項目の 提示中、または提示終了後一定時間内にユーザーが選択を指示する言葉を発声し た力どうかの判定を対話制御 ·結果選択部 107が実施する (ステップ 205)。
[0044] ユーザーが選択指示した場合 (ステップ 205にお 、て「は 、」の場合)には、そこで
、例えば、「めだかの学校」が選択されるが、選択指示しな力つた場合 (ステップ 205 にお 、て「 、え」の場合)には、選択項目のカウンタ Nに 1を加え (ステップ 206)、 次の選択項目に対応する音声、すなわち、第 2番目の選択項目に対応するガイド音 声を出力する状態になる (ステップ 204)。
[0045] これにより応答生成部 108が、応答音声データベース 109をアクセスし、 2番目のガ イド音声である、例えば「てるてる坊主。」というガイド音声(304)をスピーカ 101に出 力する。
[0046] この場合も、「てるてる坊主。」というガイド音声 (304)を出力している間 309Aと、そ の出力が終了した後の一定時間 (入力待ち時間) 309Bは、第 2番目の選択項目で ある「てるてる坊主」を選択できる時間 309となり、この期間 309にユーザーが選択指 示する言葉、例えば、「これだ!」という言葉を発声すれば、第 2番目の選択項目であ る「てるてる坊主」を選択することができるようになる。
[0047] 選択項目提示中、または、提示終了後一定時間内に、ユーザーが選択を指示する 言葉、例えば「これだ!」という言葉を発声しな力つた場合には、それが対話制御'結 果選択部 107で判定され (ステップ 205)、その判定後、「いいえ」のパスに分岐し、先 と同様に、選択項目のカウンタ Nに 1をカ卩ぇ (ステップ 206)、次の第 3番目の選択項 目に対応するガイド音声を出力するようになる (ステップ 204)。
[0048] そして、これにより応答生成部 108が、応答音声データベース 109をアクセスし、第 3番目のガイド音声として、例えば「キラキラ星。」というガイド音声 (305)をスピーカ 10 1へ出力する。
[0049] 第 3番目のガイド音声「キラキラ星。」(305)が出力されている期間 310Aと、出力が 終了した後の一定時間 (入力待ち時間) 310Bは、第 3番目の選択項目である「キラ キラ星」を選択できる時間 310であり、この期間 310にユーザーが選択指示する言葉 、例えば「これだ!」という言葉を発声すれば、第 3番目の選択項目である「キラキラ 星」を選択できるようになる。 [0050] 図 3では、ユーザーが第 3番目の選択項目である「キラキラ星」を選択指示するため に、第 3番目のガイド音声「キラキラ星。」(305)が出力されている間、または、その後 一定期間の間に、それを選択するための音声、例えば「これだ!」という指示音声 (3
06)を発声したものとして!/、る。
[0051] ここで、ガイド音声「キラキラ星。」(305)を出力している間に、ユーザーが「これだ! 」という指示音声(306)と発声すれば、ガイド音声「キラキラ星。」(305)と、「これだ! 」(306)という指示音声が重なってマイクロホン 102に入力される力 音声応答除去 部 103にてガイド音声相当分の信号、すなわち、「キラキラ星。」(305)の音声相当分 の信号がマイクロホン 102に入力された信号から除去され、音声認識部 106ではュ 一ザ一が発声した指示音声「これだ!」(306)を正しく認識することができる。
[0052] 図 2において、選択項目提示中、または提示終了後一定時間内に、ユーザーが選 択指示する言葉、例えば「これだ!」と言う言葉を発声した場合には、それが音声認 識部 106で認識され、対話制御 ·結果選択部 107で判定され (ステップ 205)、「はい 」のパスに分岐する。
[0053] 「はい」のパスに分岐すると、音声認識を行ってその音声認識を終了し (ステップ 20
7)、そのときの選択項目を選択し (ステップ 208)、以降、選択された結果、例えば「キ ラキラ星」に基づいて、対話制御 ·結果選択部 107が対話制御を行う。
[0054] なお、図示していないが、最後の選択項目が提示された段階で、一定時間経過し ても選択指示する言葉がユーザー力 発声せられない場合、スピーカ 101からタイム アウトと 、う警告を行、、音声認識を終了して選択を中止するように構成して 、る。
[0055] 以上のように、本発明の実施の形態 1によれば、システムが音声による選択項目を 提示している期間、または、提示終了後一定時間設けられた入力待ち時間内に、ュ 一ザ一が選択指示を行う言葉を発声した場合には、その選択指示する言葉を発した 段階の選択項目を選択することができる。
[0056] (実施の形態 2)
図 4は、本発明の実施の形態 2における音声による選択装置の概略構成を示すブ ロック図、図 5は、同装置の動作を説明するフローチャート、図 6は、同装置の動作を 説明するタイムチャートである。 [0057] なお、図 4〜図 6において、図 1〜図 3に示した実施の形態 1と同一の符号、番号な どを付したものは、図 1〜図 3に示した実施の形態 1と同一の構成、同一の内容のも のを示しており、ここではその詳細な説明は省略する。
[0058] 本実施の形態では、実施の形態 1の構成に加え、更に、対話制御'結果選択部 10
7の指令により制御される音楽再生部 411と、音楽を複数蓄積した音楽データベース
412とを備えている。
[0059] 音楽再生部 411は、対話制御 ·結果選択部 107からの指示により音楽データべ一 ス 412をアクセスし、対話制御 ·結果選択部 107にお 、て指示した音楽を再生するよ うに構成されている。そして、音楽再生部 411で再生された音楽は、ミキサー 413を 介して応答生成部 108からの出力と共にスピーカ 101に出力するように構成されてい る。
[0060] 図 6において、音楽出力によるガイド音楽 603〜605は、図 3のガイド音声 303〜3 05にそれぞれ対応して!/、る。
[0061] したがって、本実施の形態によれば、図 5、図 6に示すように、選択項目となるガイド 音声を出力するだけでなぐその選択項目に対応する音楽、そのものを同時に出力 することになり、音楽を選択する場合により便利である。
[0062] すなわち、本実施の形態によれば、実施の形態 1にお!、て、第 N番目の選択項目 に対応するガイド音声を出力するステップ 204が、第 N番目の選択項目に対応する 音楽を出力するステップ 504になっており、このステップ 504において、第 N番目の 選択項目に対応するガイド音声と、第 N番目の選択項目に対応する音楽の両方を順 に出力すれば、先ず、曲名が出力され、続いて音楽が出力されるため、音楽を選択 する場合に、より便利〖こなる。
[0063] なお、ここで、選択のために出力する音楽は、音楽全部(ひとつの楽曲全体)でなく てもよく、例えば、イントロだけ、或いは、サビ部分だけで充分である。そして、選択の ために出力する音楽が全部であってもイントロやサビの部分だけであっても、選択の ために出力した音楽が選択された場合、音楽生成部 411により、その音楽をそのまま 継続して出力することもできるし、一旦音楽の最初に戻って力 出力することも可能 である。 [0064] このように、本実施の形態によれば、音楽を選択項目として提示し、その間、または
、提示終了後一定時間内にユーザーが選択指示する言葉を発声すれば、そのユー ザ一が希望した音楽を容易に選択することができる。
[0065] (実施の形態 3)
図 7は、本発明の実施の形態 2における音声による選択装置の概略構成を示すブ ロック図、図 8は、同装置の動作を説明するフローチャート、図 9は、同装置の動作を 説明するタイムチャートである。
[0066] なお、図 7〜図 9において、図 1〜図 3に示した実施の形態 1と同一の符号、番号な どを付したものは、図 1〜図 3に示した実施の形態 1と同一の構成、同一の内容のも のを示して!/、るので、ここではその詳細な説明は省略する。
[0067] 本実施の形態では、実施の形態 1の構成に加え、更に、対話制御'結果選択部 10
7の指令により制御される画像生成部 711と、静止画、動画などの画像を複数蓄積し た画像データベース 712と、画像生成部 711で生成された画像を表示するディスプ レイ 700とを備えている。
[0068] 画像生成部 711は、対話制御 ·結果選択部 107からの指示により画像データべ一 ス 712をアクセスし、対話制御'結果選択部 107において指示した静止画、動画など の画像データを出力し、画像を生成するように構成されている。そして、画像生成部
711で生成された画像は、ディスプレイ 700で表示される。
[0069] 図 9において、音声出力によるガイド音声 901、ディスプレイへの表示によるによる ガイド画像 903〜905ίま、図 3のガイド音声 301、 303〜305【こそれぞれ対応して!/ヽ る。
[0070] したがって、本実施の形態によれば、図 8、図 9に示すように、選択項目となるガイド 音声を出力するだけでなぐその選択項目に対応する画像をも同時にディスプレイ 7 00で表示することになり、選択項目を選択する場合により便利である。
[0071] すなわち、本実施の形態によれば、実施の形態 1において、第 Ν番目の選択項目 に対応するガイド音声を出力するステップ 204が、第 Ν番目の選択項目に対応する 画像を出力するステップ 804になり、このステップ 804において、第 Ν番目の選択項 目に対応するガイド音声と、第 Ν番目の選択項目に対応する画像の両方を出力し、 前者はスピーカ 101から音声として、後者はディスプレイ 700で画像、又は、動画とし て表示される。そのため、これらを基に、選択項目をより容易に選択することができる ようになる。
[0072] なお、選択のために出力する画像が動画である場合、その動画の全部でなくてもよ ぐ例えば、最初の、あるいはサビの一定時間だけで充分である。そして、選択のた めに出力する画像が全部であっても一定時間だけであっても、選択のために出力し た画像が選択された場合、画像生成部 711により、その画像をそのまま継続して表 示することもできるし、ー且動画の最初に戻って力も表示することも可能である。
[0073] このように、本実施の形態によれば、選択項目のガイド音声に加え、それに対応す る画像をも選択項目として提示し、その提示の時間、または、提示終了後一定時間 内にユーザーが選択指示する言葉を発声すれば、そのユーザーが希望した選択項 目を選択できるようにしているため、例えば、絵画や映画といった画像そのものでも良 いが、音楽の場合、ジャケットの画像を提示することによって、音楽をより選択しやす くすることができるという効果を有する。
[0074] (実施の形態 4)
上記各実施の形態では、例えば図 3に示す、選択のための時間 308B、 309B等を 積極的に設ける構成は有していないが、この選択のための時間 308B、 309B等を設 ける入力待ち時間設定部を有する音声による選択装置について図 10から図 12を用 いて説明する。
[0075] この入力待ち時間設定部を備えることで、より確実に音声認識を行うことが出来る。
[0076] 図 10は、本発明の実施の形態 4における音声による選択装置の概略構成を示す ブロック図、図 11は、同装置の動作を説明するフローチャート、図 12は、同装置の動 作を説明するタイムチャートである。
[0077] 図 10において、本実施の形態の基本的な構成は、上記実施の形態 1記載の音声 による選択装置の構成図と同様であるため、両者の相違点につ 、てのみここでは説 明し、その他の基本的な構成、動作については省略する。
[0078] 本実施の形態の対話制御 ·結果選択部 1007と応答生成部 1008は、実施の形態 1 のそれらとは異なる機能を有しており、さらに本実施の形態では、対話制御'結果選 択部 1007と応答生成部 1008とに接続される入力待ち時間設定部 1011を有してい る。
[0079] 実施の形態 1と同様に、対話制御,結果選択部 1007の制御の下、音声認識部 106 が起動すると、応答生成部 1008が応答音声データベース 109をアクセスし、選択項 目に対応する音声データを出力する。
[0080] さらに、対話制御,結果選択部 1007では、選択項目に対応する音声データが出力 され終わった力否かを判定する。
[0081] 対話制御 ·結果選択部 1007の判定の結果、音声データが出力されたことが確認さ れたとき、ユーザーが応答するための期間を設定する入力待ち時間設定部 1011に より、入力待ち時間が設定される。
[0082] 応答生成部 1008では、この入力待ち時間の間、対話制御'結果選択部 1007によ り、その動作が禁止される。
[0083] 次に、本実施の形態の音声による選択装置による動作について、図 11と図 12とを 用いて説明するが、音声認識の起動まで (ステップ 201〜ステップ 203)は、実施の 形態 1の動作と同様であるので、ここでは省略する。
[0084] ステップ 203で音声認識部 106が起動すると、次に、対話制御'結果選択部 1007 の制御の基で、応答生成部 1008が応答音声データベース 109をアクセスし、第 1番 目の選択項目に対応する音声データを出力する (ステップ 204)。
[0085] すなわち、これにより、例えば、図 12に示すように、「めだかの学校。」というガイド音 声 (303)をスピーカ 101へ出力する。
[0086] 次に、対話制御 ·結果選択部 1007は、「めだかの学校。」というガイド音声 (303)の 出力が終了した力否かの判定を行う。
[0087] 判定の結果、ガイド音声 (303)の出力が終了している場合は、入力待ち時間設定 部 1011は、対話制御 ·結果選択部 1007の制御の下、入力待ち時間 1208Bを設定 する(ステップ 1109)。
[0088] そして、「めだかの学校。」というガイド音声 (303)が出力されている間 308Aと、その 出力が終了した後の一定時間 1208Bは、第 1番目の選択項目である「めだかの学校 」を選択できる時間 1208となる。したがって、この間 1208にユーザーが選択を指示 する言葉、例えば、「これだ!」という言葉を発声すれば、「めだかの学校」を選択する ことができる。
[0089] 対話制御,結果選択部 1007は、入力待ち時間設定部 1011で設定された入力時 間の間、応答生成部 1008により、次のガイド音声、または、誤作動によるガイド音声 等が起きないように応答生成部 1008の動作を禁止する。
[0090] 応答生成部 1008の動作を禁止する力否かは、入力待ち時間設定部 1011で設定 された時間が経過したか否かの判定により行う。
[0091] 次に、「めだかの学校」を選択することができる期間 1208に、ユーザーが選択指示 する言葉、例えば「これだ!」という言葉を発声しな力つた場合には、選択項目のカウ ンタ Nに 1を加え、次の選択項目に対応するガイド音声を出力する状態になる。
[0092] すなわち、ステップ 204で選択項目に対応する音声を出力すると、その選択項目の 提示中、または提示終了後、ステップ S1109で設定された入力待ち時間の一定時 間内にユーザーが選択を指示する言葉を発声した力どうかの判定を、対話制御 ·結 果選択部 1007が行う(ステップ 1105)。
[0093] 次に、入力待ち時間中にユーザーが選択を指示する言葉を発声した場合 (ステツ プ 1105において「はい」の場合)には、そこで、例えば、「めだかの学校」が選択され る力 選択を指示する言葉を発声しなかった場合 (ステップ 1105にお 、て「 、 、え」 の場合)には、選択項目のカウンタ Nに 1をカ卩ぇ (ステップ 1106)、次の選択項目に対 応する音声、すなわち、第 2番目の選択項目に対応するガイド音声を出力する状態 になる(ステップ 204)。
[0094] このとき、図 12において、第 2番目または第 3番目の選択項目に対しては、ガイド音 声(304または 305)が出力している間 309Aまたは 310Aと、それぞれの出力が終了 した後のそれぞれの一定時間 1209Bまたは 1210B力 第 2番目または第 3番目の 選択項目を選択できる時間 1209または 1210となる。
[0095] その後の処理は、実施の形態 1の図 2に示す動作と同様である。
[0096] 以上より、本実施の形態では、入力待ち時間設定部 1011を備えることで、ユーザ 一の応答を待つ、積極的な待ち時間を設定することができる。
[0097] このように積極的に待ち時間を設定することで、次のガイド音声等が誤って入力待 ち時間中に出力されて、入力待ち時間を侵食するということなぐ確実にユーザーの 応答できる期間を必ず設けることができる。
[0098] 本実施の形態の入力待ち時間設定部 1011を備えた構成は、上記実施の形態 2や 実施の形態 3の構成にも適用して、本実施の形態と同様の動作および効果が得られ ることは、言うまでもな ヽことである。
[0099] なお、本発明は、上記各実施の形態を適宜組み合わせて、例えば、選択項目のガ イド音声に加え、それに対応する画像及び楽曲をも選択項目として提示し、その提示 の時間、または、提示終了後一定時間設けられた入力待ち時間内にユーザーが選 択指示する言葉を発声することにより、そのユーザーが希望した選択項目を選択でき るようにしても良い。
産業上の利用可能性
[0100] 本発明にかかる音声による選択装置は,選択項目をガイドするガイド音声を出力す る出力部と、出力部よつて出力されたガイド音声の出力中又はその出力終了後設け られた入力待ち時間一定時間内に発声された、選択項目を選択するための選択指 示を認識する音声認識部と、音声認識部によって選択指示が認識された場合、選択 指示された選択項目を選択する対話制御 ·結果選択部とを備えた構成を有し、カー オーディオ、カーエアコンなどの車載用電子機器や、電子黒板、プロジェクタなどの 電子事務機器、体の不自由な方用の家庭用電子機器などとして幅広く有用である。

Claims

請求の範囲
[1] 選択項目をガイドするガイド音声を出力する出力部と、前記出力部よつて出力された 前記ガイド音声の出力中又はその出力終了後に一定時間内に発声された、前記選 択項目を選択するための選択指示を認識する音声認識部と、前記音声認識部によ つて前記選択指示が認識された場合、前記選択指示された選択項目を選択する対 話制御,結果選択部とを備えた音声による選択装置。
[2] 前記出力部よつて出力された前記ガイド音声の出力中又はその出力終了後に一定 時間内に選択指示が発声されなかった場合、前記対話制御 ·結果選択部が前記出 力部に前記選択項目の次の選択項目をガイドするガイド音声を出力するよう制御す ることを特徴とする請求項 1記載の音声による選択装置。
[3] 前記音声認識部が、前記音声認識部に入力される音声力 前記出力部よつて出力 された前記ガイド音声を減じる音声除去部を備えた請求項 1に記載の音声による選 択装置。
[4] 前記ガイド音声に対応する楽曲の一部または全部を再生する楽曲再生部をさらに備 え、前記音声認識部が、前記楽曲再生部によって前記楽曲を再生している間又は再 生終了後に一定時間内に入力された選択指示を音声認識することを特徴とする請 求項 1に記載の音声による選択装置。
[5] 前記ガイド音声に対応する画像を生成する画像生成部をさらに備え、前記音声認識 部力 前記画像生成部によって前記画像を生成している間又は生成後に一定時間 内に入力された選択指示を音声認識することを特徴とする請求項 1に記載の音声に よる選択装置。
[6] 前記出力部よつて出力された前記ガイド音声の出力中又はその出力終了後に一定 時間を設定する入力待ち時間設定部をさらに備え、前記音声認識部は、前記入力 待ち時間設定部によって設定された前記一定時間内に発声された、前記選択項目 を選択するための選択指示を認識することを特徴とする請求項 1に記載の音声による 選択装置。
[7] 選択項目をガイドするガイド音声を出力する出力手順と、前記出力手順において出 力された前記ガイド音声の出力中又はその出力終了後に一定時間内に発声された 、前記選択項目を選択するための選択指示を認識する音声認識手順と、前記音声 認識手順によって前記選択指示が認識された場合、前記選択指示された選択項目 を選択する対話制御 ·結果選択手順とを備えた音声による選択方法。
PCT/JP2005/023336 2004-12-21 2005-12-20 音声による選択装置、及び選択方法 WO2006068123A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US11/570,470 US7698134B2 (en) 2004-12-21 2005-12-20 Device in which selection is activated by voice and method in which selection is activated by voice
CN2005800194453A CN1969315B (zh) 2004-12-21 2005-12-20 基于声音的选择装置以及选择方法
EP05820332.4A EP1768103B1 (en) 2004-12-21 2005-12-20 Device in which selection is activated by voice and method in which selection is activated by voice

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004368807 2004-12-21
JP2004-368807 2004-12-21
JP2005-347641 2005-12-01
JP2005347641A JP2006201749A (ja) 2004-12-21 2005-12-01 音声による選択装置、及び選択方法

Publications (1)

Publication Number Publication Date
WO2006068123A1 true WO2006068123A1 (ja) 2006-06-29

Family

ID=36601723

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/023336 WO2006068123A1 (ja) 2004-12-21 2005-12-20 音声による選択装置、及び選択方法

Country Status (5)

Country Link
US (1) US7698134B2 (ja)
EP (1) EP1768103B1 (ja)
JP (1) JP2006201749A (ja)
CN (1) CN1969315B (ja)
WO (1) WO2006068123A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016501391A (ja) * 2012-12-20 2016-01-18 アマゾン テクノロジーズ インコーポレーテッド 発話対象の識別
US10448762B2 (en) 2017-09-15 2019-10-22 Kohler Co. Mirror
US10663938B2 (en) 2017-09-15 2020-05-26 Kohler Co. Power operation of intelligent devices
US10887125B2 (en) 2017-09-15 2021-01-05 Kohler Co. Bathroom speaker
US11093554B2 (en) 2017-09-15 2021-08-17 Kohler Co. Feedback for water consuming appliance
US11099540B2 (en) 2017-09-15 2021-08-24 Kohler Co. User identity in household appliances
US11153472B2 (en) 2005-10-17 2021-10-19 Cutting Edge Vision, LLC Automatic upload of pictures from a camera

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4131978B2 (ja) * 2006-02-24 2008-08-13 本田技研工業株式会社 音声認識機器制御装置
JP2008065789A (ja) * 2006-09-11 2008-03-21 Canon Inc 入力操作支援装置およびその制御方法
US20100250253A1 (en) * 2009-03-27 2010-09-30 Yangmin Shen Context aware, speech-controlled interface and system
US8700405B2 (en) * 2010-02-16 2014-04-15 Honeywell International Inc Audio system and method for coordinating tasks
JP5431282B2 (ja) * 2010-09-28 2014-03-05 株式会社東芝 音声対話装置、方法、プログラム
US9922651B1 (en) * 2014-08-13 2018-03-20 Rockwell Collins, Inc. Avionics text entry, cursor control, and display format selection via voice recognition
US9432611B1 (en) 2011-09-29 2016-08-30 Rockwell Collins, Inc. Voice radio tuning
KR102081925B1 (ko) * 2012-08-29 2020-02-26 엘지전자 주식회사 디스플레이 디바이스 및 스피치 검색 방법
EP2908281A4 (en) * 2012-10-12 2016-04-06 Kazuo Kaneko PRODUCT INFORMATION PROCESSING SYSTEM, PRODUCT INFORMATION PROCESSING DEVICE AND PRODUCT INFORMATION EDITOR
US10255038B2 (en) * 2013-04-26 2019-04-09 Microsoft Technology Licensing, Llc Techniques to present a user interface for the visually impaired
JP6411017B2 (ja) * 2013-09-27 2018-10-24 クラリオン株式会社 サーバ、及び、情報処理方法
KR102158315B1 (ko) * 2013-10-14 2020-09-21 삼성전자주식회사 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법
JP2016061970A (ja) * 2014-09-18 2016-04-25 株式会社東芝 音声対話装置、方法およびプログラム
CN108156497B (zh) * 2018-01-02 2020-12-18 联想(北京)有限公司 一种控制方法、控制设备及控制系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63240598A (ja) * 1987-03-27 1988-10-06 日本電気株式会社 音声応答認識装置
JPH04301697A (ja) * 1991-03-29 1992-10-26 Nippon Telegr & Teleph Corp <Ntt> 音声認識装置
JP2000338992A (ja) * 1999-05-26 2000-12-08 Fujitsu Ten Ltd 音声認識装置
JP2001013978A (ja) * 1999-06-29 2001-01-19 Sharp Corp 情報選択装置、情報選択方法及び記録媒体
JP2003177788A (ja) * 2001-12-12 2003-06-27 Fujitsu Ltd 音声対話システムおよびその方法
JP2003208196A (ja) * 2002-01-11 2003-07-25 Matsushita Electric Ind Co Ltd 音声対話方法および装置
JP2004213016A (ja) * 2002-12-31 2004-07-29 Samsung Electronics Co Ltd 音声認識方法及び装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03293400A (ja) 1990-04-10 1991-12-25 Oki Electric Ind Co Ltd 音声制御方法
JPH06149534A (ja) 1992-11-13 1994-05-27 Toshiba Corp 音声画面操作装置
US7509270B1 (en) * 1992-12-09 2009-03-24 Discovery Communications, Inc. Electronic Book having electronic commerce features
US5918213A (en) * 1995-12-22 1999-06-29 Mci Communications Corporation System and method for automated remote previewing and purchasing of music, video, software, and other multimedia products
JPH11224265A (ja) * 1998-02-06 1999-08-17 Pioneer Electron Corp 情報検索装置及び情報検索方法並びに情報検索プログラムを記録した記録媒体
JP3178426B2 (ja) * 1998-07-29 2001-06-18 日本電気株式会社 自然言語対話システム及び自然言語対話プログラム記録媒体
US7209892B1 (en) * 1998-12-24 2007-04-24 Universal Music Group, Inc. Electronic music/media distribution system
US6693236B1 (en) * 1999-12-28 2004-02-17 Monkeymedia, Inc. User interface for simultaneous management of owned and unowned inventory
US7173177B1 (en) * 1999-12-28 2007-02-06 Blue Dolphin Solutions Llc User interface for simultaneous management of owned and unowned inventory
GB2360106B (en) * 2000-02-21 2004-09-22 Ac Properties Bv Ordering playable works
JP4543294B2 (ja) * 2000-03-14 2010-09-15 ソニー株式会社 音声認識装置および音声認識方法、並びに記録媒体
WO2001071608A2 (en) * 2000-03-17 2001-09-27 Mark Nair System, method and apparatus for controlling the dissemination of digital works
US6510417B1 (en) * 2000-03-21 2003-01-21 America Online, Inc. System and method for voice access to internet-based information
US7043447B2 (en) * 2000-04-19 2006-05-09 Sony Corporation Method for facilitating a transaction for purchasable content over an electronic network
US7526450B2 (en) * 2000-04-19 2009-04-28 Sony Corporation Interface for presenting downloadable digital data content format options
US7437286B2 (en) * 2000-12-27 2008-10-14 Intel Corporation Voice barge-in in telephony speech recognition
US6885735B2 (en) * 2001-03-29 2005-04-26 Intellisist, Llc System and method for transmitting voice input from a remote location over a wireless data channel
US6555738B2 (en) * 2001-04-20 2003-04-29 Sony Corporation Automatic music clipping for super distribution
JP2002366187A (ja) * 2001-06-08 2002-12-20 Sony Corp 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
US6941268B2 (en) * 2001-06-21 2005-09-06 Tellme Networks, Inc. Handling of speech recognition in a declarative markup language
CA2457198A1 (en) * 2001-08-16 2003-02-27 Trans World New York Llc User-personalized media sampling, recommendation and purchasing system using real-time inventory database
US7103542B2 (en) * 2001-12-14 2006-09-05 Ben Franklin Patent Holding Llc Automatically improving a voice recognition system
JP2004191705A (ja) * 2002-12-12 2004-07-08 Renesas Technology Corp 音声認識装置
JP2005071522A (ja) * 2003-08-27 2005-03-17 Sony Corp コンテンツ再生方法、コンテンツ再生装置およびコンテンツ配信方法
US7624016B2 (en) * 2004-07-23 2009-11-24 Microsoft Corporation Method and apparatus for robustly locating user barge-ins in voice-activated command systems

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63240598A (ja) * 1987-03-27 1988-10-06 日本電気株式会社 音声応答認識装置
JPH04301697A (ja) * 1991-03-29 1992-10-26 Nippon Telegr & Teleph Corp <Ntt> 音声認識装置
JP2000338992A (ja) * 1999-05-26 2000-12-08 Fujitsu Ten Ltd 音声認識装置
JP2001013978A (ja) * 1999-06-29 2001-01-19 Sharp Corp 情報選択装置、情報選択方法及び記録媒体
JP2003177788A (ja) * 2001-12-12 2003-06-27 Fujitsu Ltd 音声対話システムおよびその方法
JP2003208196A (ja) * 2002-01-11 2003-07-25 Matsushita Electric Ind Co Ltd 音声対話方法および装置
JP2004213016A (ja) * 2002-12-31 2004-07-29 Samsung Electronics Co Ltd 音声認識方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1768103A4 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11818458B2 (en) 2005-10-17 2023-11-14 Cutting Edge Vision, LLC Camera touchpad
US11153472B2 (en) 2005-10-17 2021-10-19 Cutting Edge Vision, LLC Automatic upload of pictures from a camera
JP2016501391A (ja) * 2012-12-20 2016-01-18 アマゾン テクノロジーズ インコーポレーテッド 発話対象の識別
US10448762B2 (en) 2017-09-15 2019-10-22 Kohler Co. Mirror
US10663938B2 (en) 2017-09-15 2020-05-26 Kohler Co. Power operation of intelligent devices
US10887125B2 (en) 2017-09-15 2021-01-05 Kohler Co. Bathroom speaker
US11093554B2 (en) 2017-09-15 2021-08-17 Kohler Co. Feedback for water consuming appliance
US11099540B2 (en) 2017-09-15 2021-08-24 Kohler Co. User identity in household appliances
US11314215B2 (en) 2017-09-15 2022-04-26 Kohler Co. Apparatus controlling bathroom appliance lighting based on user identity
US11314214B2 (en) 2017-09-15 2022-04-26 Kohler Co. Geographic analysis of water conditions
US11892811B2 (en) 2017-09-15 2024-02-06 Kohler Co. Geographic analysis of water conditions
US11921794B2 (en) 2017-09-15 2024-03-05 Kohler Co. Feedback for water consuming appliance
US11949533B2 (en) 2017-09-15 2024-04-02 Kohler Co. Sink device

Also Published As

Publication number Publication date
US7698134B2 (en) 2010-04-13
EP1768103B1 (en) 2014-06-11
EP1768103A4 (en) 2008-02-27
US20070219805A1 (en) 2007-09-20
JP2006201749A (ja) 2006-08-03
CN1969315B (zh) 2012-06-20
EP1768103A1 (en) 2007-03-28
CN1969315A (zh) 2007-05-23

Similar Documents

Publication Publication Date Title
WO2006068123A1 (ja) 音声による選択装置、及び選択方法
US8332212B2 (en) Method and system for efficient pacing of speech for transcription
JP5118280B2 (ja) 自然言語インターフェースコントロールシステム
US20070239455A1 (en) Method and system for managing pronunciation dictionaries in a speech application
EP1936606B1 (en) Multi-stage speech recognition
JP2002304190A (ja) 発音変化形生成方法及び音声認識方法
JP2003022087A (ja) 音声認識方法
JP2006201749A5 (ja)
JP2005084102A (ja) 音声認識評価装置、音声認識評価方法、及び音声認識評価プログラム
WO2006083020A1 (ja) 抽出された音声データを用いて応答音声を生成する音声認識システム
JP2006517037A (ja) 韻律的模擬語合成方法および装置
WO2018078885A1 (ja) 対話装置、対話方法及び対話用コンピュータプログラム
JP2004333543A (ja) 音声対話システム及び音声対話方法
JP2003150194A (ja) 音声対話装置および音声対話装置における入力音声最適化方法ならびに音声対話装置における入力音声最適化処理プログラム
Batlouni et al. Mathifier—Speech recognition of math equations
WO2018173295A1 (ja) ユーザインタフェース装置及び方法、並びに音操作システム
JP2004029354A (ja) 音声認識装置、音声認識方法及び音声認識プログラム
JP2009116075A (ja) 音声認識装置
JP2005031150A (ja) 音声処理装置および方法
JP2009116107A (ja) 情報処理装置及び方法
JP3277579B2 (ja) 音声認識方法および装置
US10854196B1 (en) Functional prerequisites and acknowledgments
JP2005157166A (ja) 音声認識装置、音声認識方法及びプログラム
JP2019020475A (ja) 音声認識装置、音声認識方法
JP2005241767A (ja) 音声認識装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11570470

Country of ref document: US

Ref document number: 2007219805

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580019445.3

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2005820332

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2005820332

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 11570470

Country of ref document: US