JP2001142484A - Method for voice conversation and system therefor - Google Patents

Method for voice conversation and system therefor

Info

Publication number
JP2001142484A
JP2001142484A JP2000272353A JP2000272353A JP2001142484A JP 2001142484 A JP2001142484 A JP 2001142484A JP 2000272353 A JP2000272353 A JP 2000272353A JP 2000272353 A JP2000272353 A JP 2000272353A JP 2001142484 A JP2001142484 A JP 2001142484A
Authority
JP
Japan
Prior art keywords
response
output
voice
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000272353A
Other languages
Japanese (ja)
Other versions
JP3667615B2 (en
Inventor
Yoichi Takebayashi
洋一 竹林
Hiroyuki Tsuboi
宏之 坪井
Yoichi Sadamoto
洋一 貞本
Yasuki Yamashita
泰樹 山下
Hitoshi Nagata
仁史 永田
Shigenobu Seto
重宣 瀬戸
Hideaki Shinchi
秀昭 新地
Hideki Hashimoto
秀樹 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Software Engineering Corp
Original Assignee
Toshiba Corp
Toshiba Software Engineering Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Software Engineering Corp filed Critical Toshiba Corp
Priority to JP2000272353A priority Critical patent/JP3667615B2/en
Publication of JP2001142484A publication Critical patent/JP2001142484A/en
Application granted granted Critical
Publication of JP3667615B2 publication Critical patent/JP3667615B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To jointly use a screen display for voice response as response output from the system side to a user in the case of a voice conversation between the user and the system. SOLUTION: The system is provided with an understanding means 11 which is given an input and understands semantic contents of the input, a conversation management means 12 which makes semantic decision of response contents on the basis of the understood result of the understanding means, a response generation means 13 which generates a voice response output and a picture display output on the basis of response contents decided by the conversation management means, and output means 14 and 15 which output the voice response output and the picture display output generated by the response generation means.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、音声認識や音声合成を
含む各種の入出力手段を利用する音声対話システムに関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech dialogue system using various input / output means including speech recognition and speech synthesis.

【0002】[0002]

【従来の技術】近年、文字、音声、図形、映像などのマ
ルチメディアを入力、出力および加工処理することで、
人間とコンピュータとの対話(Human-Computer Interac
tion)を様々な形態で行うことが可能になっている。
2. Description of the Related Art In recent years, by inputting, outputting, and processing multimedia such as characters, sounds, figures, and images,
Human-Computer Interac
) can be performed in various forms.

【0003】特に、最近になってメモリ容量や計算機の
パワーが飛躍的に向上したことでマルチメディアを扱え
るワークステーションやパーソナルコンピュータが開発
され、種々のアプリケーションが開発されてきている
が、これらはいずれも単に種々のメディアを出し入れす
るだけのもので各種メディアを有機的に融合するまでに
至っていない。
In particular, workstations and personal computers capable of handling multimedia have recently been developed due to the dramatic improvements in memory capacity and computer power, and various applications have been developed. However, it is merely a matter of taking various media in and out, and has not yet reached the point where organically fuses various media.

【0004】一方、従来からの数値データに代わって文
字を含む言語データが一般的になり、白黒のイメージデ
ータはカラー化や図形、アニメーション、三次元グラフ
ィックス、さらには動画が扱えるように拡張されてきて
いる。また、音声やオーディオ信号についても、単なる
音声の信号レベルの入出力の他に音声認識や音声合成の
機能が研究開発されつつあるが、ヒューマンインターフ
ェースとして使用するには性能が不安定で実用化は限定
された分野に限られているのが現状である。
On the other hand, linguistic data including characters has become commonplace in place of conventional numerical data, and black-and-white image data has been expanded to handle colorization, graphics, animation, three-dimensional graphics, and even moving images. Is coming. As for voices and audio signals, voice recognition and voice synthesis functions are being researched and developed in addition to mere input / output of voice signal levels. At present, it is limited to limited fields.

【0005】すなわち、上述したように文字、テキス
ト、音声、グラフィックデータなどについては、従来の
入出力処理(記録−再生)から各種メディアの理解や生
成機能へと発展が続いている。換言すると、各メディア
の表層的処理からメディアの内容や構造、意味的内容を
扱い、人間と計算機の対話をより自然に快適に行うこと
を目的とした音声やグラフィックスなどのメディアの理
解や生成を利用する対話システムの構築が検討されつつ
ある。
That is, as described above, with respect to characters, texts, voices, graphic data, and the like, the conventional input / output processing (recording / reproducing) has been developed to understand and generate various media. In other words, from the surface processing of each media, it handles the contents, structure, and semantic contents of the media, and understands and generates media such as voice and graphics for the purpose of making human-computer conversations more natural and comfortable. The construction of a dialogue system that uses is being studied.

【0006】しかして、音声認識については、孤立単語
認識から連続単語認識、連続音声認識へと発展してお
り、実用化のために応用を限定した方向(task-oriente
d )でも開発が進められている。このような応用場面で
は、音声対話システムとしては、音声の文字面の認識よ
りも音声の発話内容の理解が重要であり、例えば、キー
ワードスポッティングをベースに応用分野の知識を利用
した音声理解システムも研究されてきている。一方、音
声合成についても従来の文−音声変換(text-to-speec
h)システムからイントネーションを重視した対話用の
音声合成システムの研究が例えば本発明者等によって行
われてきており、音声対話への応用が期待されている。
[0006] However, speech recognition has evolved from isolated word recognition to continuous word recognition and continuous speech recognition.
d) Development is underway. In such application scenes, it is more important for speech dialogue systems to understand the utterance content of speech than to recognize the character surface of speech.For example, a speech understanding system that uses knowledge of the application field based on keyword spotting is also used. Has been studied. On the other hand, conventional speech-to-speech conversion (text-to-speec
h) Research on a speech synthesis system for dialogues that emphasizes intonation from the system has been conducted by, for example, the present inventors, and applications to speech dialogues are expected.

【0007】しかし、音声などのメディアの理解と生成
は単なるデータの入出力と異なり、メディアの変換の際
には情報の欠落やエラーが不可避である。すなわち、音
声理解は情報量の多い音声パターンデータから音声の発
話の内容や発話者の意図を抽出する処理であり、情報の
圧縮を行う過程で音声認識エラーや曖昧性が生じる。従
って、音声対話システムとしては上述した認識エラーや
曖昧性などの音声認識の不完全さに対処するためシステ
ム側からユーザに適切な質問や確認を行い対話制御によ
りスムーズに対話を進行する必要がある。
[0007] However, understanding and generating media such as audio are different from mere data input / output, and in the case of media conversion, information loss and errors are inevitable. That is, speech understanding is a process of extracting the content of speech utterance and the intention of the speaker from speech pattern data having a large amount of information, and speech recognition errors and ambiguity occur in the process of compressing information. Therefore, in order to cope with incomplete speech recognition such as the recognition error and ambiguity described above, it is necessary for the spoken dialogue system to appropriately ask and confirm the user from the system side and smoothly proceed the dialogue by the dialogue control. .

【0008】ところで、対話システム側からユーザに何
等かの対話をする場合、音声認識の不完全さをカバー
し、計算機の状況を適確に伝えることが、使い勝手のよ
いヒューマンインターフェースとして重要である。とこ
ろが、従来の音声対話システムでは、音声応答として単
に文を棒読みするテキスト合成が行われることが多かっ
たためメリハリがなく聞ずらかったり、冗長であること
があった。あるいは、音声応答がなく、計算機からの応
答はすべてテキストとして画面上に応答文を表示した
り、あるいは図形データや映像、アイコンや数値を表示
するシステムが一般的であり、視覚への負担が重くなっ
ていた。
[0008] In the case where the dialogue system performs some type of dialogue with the user, it is important to cover imperfect speech recognition and to accurately convey the status of the computer as an easy-to-use human interface. However, in a conventional voice interaction system, text synthesis for simply reading a sentence as a voice response is often performed as a voice response. Or, there is no voice response, and all responses from the computer display a response sentence on the screen as text, or a system that displays graphic data, video, icons and numerical values, which is a heavy burden on vision. Had become.

【0009】このように最近では、上述したいろいろな
対話システムが開発されてきているが、音声認識の不完
全さに対処するためのシステム側からの応答における種
々のメディアの利用に関する検討は、これまで十分にな
されておらず、音声認識技術の大きな問題となってい
た。言い換えると、音声認識は、不安定であり、雑音や
不要語に対して弱く、ユーザの意図が音声で効率よく伝
えることが困難であるため、電話などの音声メディアだ
けにしか使えないような制約の強い場面に応用が限られ
ていた。
As described above, in recent years, various interactive systems described above have been developed. However, studies on the use of various media in responses from the system side in order to deal with incomplete speech recognition have been conducted. This has not been done enough, and has become a major problem in speech recognition technology. In other words, speech recognition is unstable, weak against noise and unnecessary words, and it is difficult to convey the user's intention efficiently by voice. Application was limited to strong scenes.

【0010】[0010]

【発明が解決しようとする課題】このように従来の音声
認識、合成技術を利用した音声対話システムでは、それ
ぞれ別個に開発された音声認識、音声合成、画面表示の
各技術を単に組み合わせただけのものであり、音声の対
話という観点からの十分な考慮がなされていない。すな
わち、音声認識機能には、認識誤りや曖昧性があり、音
声合成機能は人間の発声よりも明瞭度が悪く、イントネ
ーションの制御も不十分のため意図や感情の伝達能力が
不足しており、自然性に欠けるという根本的な問題があ
る。また、システム側での音声認識結果を用いて妥当な
応答を生成するのも、現状の技術では不十分である。一
方、応答を音声と組み合わせて画像表示することにより
伝達能力が向上することが期待できるが、瞬間的に連続
で時系列的な音声応答に対して二次元平面的、三次元空
間的な画面表示をどのように活用し、両者のタイミング
を制御するかは未解決の問題である。また、他のメディ
アを利用する音声対話システムとして何を表示すべきか
大切な課題である。
As described above, in the conventional speech dialogue system utilizing the speech recognition and synthesis techniques, the speech recognition, speech synthesis and screen display techniques developed separately are simply combined. And it has not been fully considered from the perspective of speech dialogue. In other words, the speech recognition function has recognition errors and ambiguity, the speech synthesis function is less intelligible than human utterance, and the ability to convey intentions and emotions is insufficient due to insufficient control of intonation, There is a fundamental problem of lack of naturalness. In addition, it is not enough with the current technology to generate an appropriate response using the speech recognition result on the system side. On the other hand, the transmission ability can be expected to be improved by displaying the image in combination with the voice, but the two-dimensional and three-dimensional spatial screen display can be used for the instantaneous continuous and time-series voice response. It is an unsolved problem how to utilize the two and control the timing of both. Another important issue is what to display as a spoken dialogue system using other media.

【0011】本発明は、上記事情に鑑みてなされたもの
で、システムとユーザの音声対話を効率よく、しかも正
確に行うことができ、使い勝手の著しい改善を可能にし
た音声対話システムを提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and provides a voice dialogue system capable of efficiently and accurately performing voice dialogue between a system and a user, and enabling a remarkable improvement in usability. With the goal.

【0012】[0012]

【課題を解決するための手段】本発明は、音声入力が与
えられ該入力される音声の意味内容を理解する音声理解
手段、音声理解手段での理解結果に基づいて応答内容の
意味的な決定を行う対話管理手段、対話管理手段で決定
された応答内容に基づいて音声応答出力および画面表示
出力を生成する応答生成手段、応答生成手段で生成され
た音声応答出力および画面表示出力を出力する出力手段
により構成されている。
SUMMARY OF THE INVENTION According to the present invention, there is provided a voice comprehension means for receiving a voice input and comprehending the meaning content of the inputted voice, and a semantic determination of a response content based on an understanding result of the voice comprehension means. Generating means for generating a voice response output and a screen display output based on the response content determined by the dialog management means, and outputting a voice response output and a screen display output generated by the response generating means Means.

【0013】対話管理手段は音声理解手段の理解結果に
基づいて音声応答を行う発話者の人物像に関する人物像
情報、音声応答に対応する発声文の応答内容テキスト情
報および音声応答の内容に関連した理解内容を可視化す
る可視化情報をそれぞれ応答内容として出力するように
している。
The dialogue management means is associated with person image information relating to a person image of a speaker who makes a voice response based on the understanding result of the voice understanding means, response content text information of a voice sentence corresponding to the voice response, and content of the voice response. Visualization information for visualizing the understanding content is output as response content.

【0014】応答生成手段は対話管理手段より出力され
る音声応答を行う発話者の人物像情報に基づいて人物像
の動作および表情の少なくとも一方の画面表示出力を生
成するようにしている。
The response generating means generates at least one of a motion and a facial expression of a human image on the screen based on the human image information of the speaker making the voice response output from the dialog managing means.

【0015】また、応答生成手段は対話管理手段より出
力される音声応答を行う発話者の人物像情報に基づいて
人物像の動作および表情の少なくとも一方の画面表示出
力を生成するとともに各画面表示に対応する音声の感情
または強弱を有する音声応答出力を生成するようにして
いる。
The response generating means generates at least one screen display output of the motion and expression of the person image based on the person image information of the speaker performing the voice response output from the dialog management means, and outputs the image to each screen display. A voice response output having a corresponding voice emotion or strength is generated.

【0016】さらに、人の動きに関する人状態を検出す
る人状態検出手段を有し、該人状態検出手段の検出結果
に基づいて対話管理手段にて応答内容の意味的な決定を
行うようにしている。
Further, there is provided a human state detecting means for detecting a human state relating to the movement of the person, and the dialog management means makes a semantic determination of the response content based on the detection result of the human state detecting means. I have.

【0017】そして、音声入力が可能か否かのアイコン
を表示可能にしている。
An icon indicating whether or not voice input is possible can be displayed.

【0018】また、本発明は、音声入力が与えられ該入
力される音声の意味内容を理解する音声理解手段と、こ
の音声理解手段での理解結果に基づいてシステム応答出
力を出力する応答出力手段と、システムとユーザとの対
話を、前記音声理解手段に音声入力が与えられるユーザ
状態と前記応答出力手段からシステム応答出力が出力さ
れるシステム状態との間の状態遷移を制御することによ
り、管理する対話管理手段とを具備することを特徴とす
る。
Further, the present invention provides a voice comprehension means for receiving a voice input and understanding the meaning of the input voice, and a response output means for outputting a system response output based on the result of the understanding by the voice comprehension means. And managing the interaction between the system and the user by controlling a state transition between a user state in which a voice input is given to the voice understanding means and a system state in which a system response output is output from the response output means. And a dialogue management means.

【0019】さらに本発明は、音声入力が与えられ該入
力される音声の意味内容を該音声入力中のキーワードを
検出することにより理解する音声理解手段と、システム
とユーザとの対話の状態に応じて、前記音声理解手段に
より検出する音声入力中のキーワードを予め制限してお
く対話管理手段と、前記音声理解手段での理解結果に基
づいてシステム応答出力を出力する応答出力手段とを具
備することを特徴とする。
Further, the present invention provides a speech understanding means which is provided with a speech input and understands the meaning of the inputted speech by detecting a keyword in the speech input, according to a state of a dialog between the system and the user. A dialogue management means for preliminarily restricting a keyword in a voice input detected by the voice understanding means, and a response output means for outputting a system response output based on a result of the understanding by the voice understanding means. It is characterized by.

【0020】[0020]

【作用】この結果、本発明は、ユーザとシステムとの間
の対話を行う際に、音声認識、音声応答に加えて、シス
テム側からユーザへの応答出力として応答の画面表示を
併用するようになる。この時、システム側からの音声の
発話者に対応する人物像の表示を行うことにより、発話
者のイメージがシステムの機能を代表するようになり、
ユーザは画面上の人物に向かって発声することを自然に
行うことができ、また、画面上の人物の口の動きや表情
で対話の進行状況や音声認識の信頼性を把握できる。
As a result, according to the present invention, when a dialogue between the user and the system is performed, in addition to the voice recognition and the voice response, the screen display of the response is used as the response output from the system to the user. Become. At this time, by displaying a person image corresponding to the speaker of the voice from the system side, the image of the speaker becomes representative of the function of the system,
The user can naturally speak toward the person on the screen, and can grasp the progress of the dialogue and the reliability of speech recognition based on the movement and expression of the mouth of the person on the screen.

【0021】一方、システムからの応答内容に関して
は、応答文を表す文字列を表示するほか、対象物(例え
ば商品、概念などの物や事)や数などについては図形な
どで表示することから、応答内容をユーザに素早く伝え
ることもできる。さらに、音声認識は、誤認識や曖昧性
が多発する不完全なものであり、音声の内容を理解する
際に、ユーザの意図しない誤った情報が計算機側に伝え
られることがあるが、音声応答の他に、視覚による各応
答表示を並行して用いることで、音声対話の効率を大幅
に向上させ、自然性や使い勝っての改善を可能にでき
る。また、音声合成音は、自然音声に比べて低いので、
発話者の表情、応答文、応答内容の視覚化を併用するこ
とは対話の改善に極めて有用である。
On the other hand, regarding the contents of the response from the system, a character string representing the response sentence is displayed, and the object (for example, a product or a concept such as a product or a concept) or the number is displayed by a graphic or the like. The response content can be quickly transmitted to the user. Furthermore, speech recognition is an incomplete one in which erroneous recognition and ambiguity frequently occur. When understanding the contents of speech, erroneous information not intended by the user may be transmitted to the computer side. In addition, by using visual response displays in parallel, it is possible to greatly improve the efficiency of voice dialogue, and to improve naturalness and usability. Also, since the synthesized speech is lower than natural speech,
Use of the visualization of the speaker's expression, response sentence, and response content is extremely useful for improving dialogue.

【0022】[0022]

【実施例】以下、本発明の一実施例を図面に従い説明す
る。
An embodiment of the present invention will be described below with reference to the drawings.

【0023】図1は音声対話システムとしての画面表示
を加えたシステムの概略構成を示している。
FIG. 1 shows a schematic configuration of a system including a screen display as a voice interactive system.

【0024】音声対話システムは、入力される音声の意
味内容を理解する音声理解部11、音声理解部11での
理解結果に基づいて応答内容の意味的な決定を行う対話
管理部12、対話管理部12で決定された応答内容に基
づいて音声応答出力および画面表示出力を生成する応答
生成出力部13、応答生成出力部13で生成された画面
表示を出力する画面表示出力部14および音声応答を出
力する音声出力部15により構成されている。
The speech dialogue system includes a speech understanding unit 11 for understanding the meaning of the input speech, a dialogue management unit 12 for making a semantic determination of the response content based on the result of the understanding by the speech understanding unit 11, and a dialogue management. A response generation output unit 13 that generates a voice response output and a screen display output based on the response content determined by the unit 12, a screen display output unit 14 that outputs the screen display generated by the response generation output unit 13, and a voice response. It comprises an audio output unit 15 for outputting.

【0025】音声理解部11は、音声の文字面の認識、
すなわち単語や文の認識でなく、ユーザの発話した入力
音声の理解を行い意味内容を抽出する。そして、理解し
た意味内容を表す入力意味表現を生成し対話管理部12
に送る。
The voice comprehension section 11 recognizes the character surface of the voice,
That is, instead of recognizing a word or a sentence, the input voice spoken by the user is understood and the meaning is extracted. Then, an input semantic expression representing the understood semantic content is generated, and the dialog managing unit 12
Send to

【0026】対話管理部12では入力音声の入力意味表
現に対して、対話の履歴や現在の対話の状態に関する情
報と対話の進行方法や応用分野の知識を用いて応答内容
の意味的な決定を行ない、音声応答に対応する発声文の
応答内容情報を応答生成出力部13に出力する。
The dialog management unit 12 determines the meaning of the response to the input semantic expression of the input voice by using the information on the history of the dialog and the current state of the dialog, the method of proceeding the dialog, and the knowledge of the application field. Then, the response content information of the utterance corresponding to the voice response is output to the response generation output unit 13.

【0027】さらに、対話管理部12では、省略や指示
代名詞を含む話し言葉を処理し、音声理解の性能向上や
処理量の削減とともに自然な対話を可能にしている。ま
た、対話管理部12は、ディスプレイ14に表示出力さ
れて音声応答を行う発話者の人物像情報、および音声応
答の内容に関連した理解内容の可視化する情報である可
視化情報を応答生成出力部13に出力する。
Further, the dialogue management unit 12 processes spoken words including omissions and demonstrative pronouns, thereby improving speech comprehension performance and reducing the amount of processing, as well as enabling a natural dialogue. Further, the dialogue management unit 12 outputs, to the response generation output unit 13, person image information of a speaker which is displayed and output on the display 14 and makes a voice response, and visualization information which is information for visualizing understanding contents related to the content of the voice response. Output to

【0028】また、対話管理部12で生成された出力意
味表現を音声理解部11へ送り、出力意味表現から次の
発話のキーワードや構文的意味的規則を絞り、次の発話
の音声理解性能の向上をはかることが可能となる。
The output semantic expression generated by the dialog managing unit 12 is sent to the speech comprehension unit 11 to narrow down keywords and syntactic semantic rules of the next utterance from the output semantic expression, and to evaluate the speech understanding performance of the next utterance. It is possible to improve.

【0029】応答生成出力部13は対話管理部12から
入力された応答内容情報に基づいて生成された応答文を
合成音声でスピーカー15より出力するとともに、人物
像情報および応答文に基づいて動作や表情が決定された
音声応答を行う人物像をディスプレイ14に視覚的に表
示し、また、それまでの対話によりシステムが理解した
内容を分かりやすく可視化するための情報である可視化
情報に基づき生成された内容可視化情報をディスプレイ
14に視覚的に表示して、複数のメディアを利用してマ
ルチモーダル的に応答をユーザに提示する。つまり、オ
ーディオ情報と視覚情報を併用してユーザに提示するこ
とにより音声対話システムのヒューマンインターフェー
スが改善され、自然な対話が可能となる。
The response generation and output unit 13 outputs a response sentence generated based on the response content information input from the dialog management unit 12 from the speaker 15 as a synthesized voice, and performs an operation and a response based on the human image information and the response sentence. The image of the person making the voice response with the determined facial expression is visually displayed on the display 14, and is generated based on the visualization information, which is information for visualizing the contents understood by the system through the previous conversation in an easy-to-understand manner. The content visualization information is visually displayed on the display 14, and a response is presented to the user in a multimodal manner using a plurality of media. That is, by presenting the audio information and the visual information to the user in combination, the human interface of the voice interaction system is improved, and a natural interaction becomes possible.

【0030】また、応答生成部13から現在応答を出力
中である旨の情報を対話管理部12に送る。対話管理部
12では、上記情報を音声理解部11へ送り、例えば入
力音声の終始端検出処理や、キーワード検出処理のタイ
ミングを制御することにより音声理解性能の向上をはか
ることが可能となる。
Further, information indicating that a response is currently being output from the response generation unit 13 is sent to the dialog management unit 12. The dialogue management unit 12 sends the above information to the speech understanding unit 11 and can improve the speech understanding performance by controlling, for example, the timing of the input / output end detection process and the keyword detection process.

【0031】次に、上述した音声対話システムの各部に
ついて、ここでは応用としてファースト・フードでの注
文タスクを想定してさらに詳しく説明する。
Next, each part of the above-described voice dialogue system will be described in more detail, assuming an order task in fast food as an application.

【0032】まず音声理解部11について説明する。音
声理解部11については、先に述べたようにここでの役
割は、テキスト入力や音声ワードプロセッサのように文
字面を認識するのではなく音声の意味内容や発話者の意
図や状況を理解することを目的としている。
First, the speech understanding unit 11 will be described. As described above, the role of the voice comprehension unit 11 is to understand the semantic content of the voice and the intention and situation of the speaker, instead of recognizing the character surface as in text input or a voice word processor. It is an object.

【0033】この場合、不特定ユーザを対象とする券売
機、航空機や列車の座席予約システム、銀行の現金自動
引出機などでは、話者間の音声の違い、不要語、口語の
話し方の違い、雑音の影響などにより実際に音声認識技
術を応用しても十分な認識性能が期待できないことがあ
り、とくに発話された文の高精度認識に困難を極めてい
る。これについて、連続発声された音声から、まずキー
ワードの候補列を解析して発話内容を理解する方法が例
えば文献(坪井宏之、橋本秀樹、竹林洋一:“連続音声
理解のためのキーワードラティスの解析”日本音響学会
講演論文集、1−5−11、pp.21−22、199
1−10)に提案されており、この方法を用いれば、限
定した応用では、利用者の発話に極力制限を設けずに、
自由な発声を高速に理解できるようになる。
In this case, a ticket vending machine for an unspecified user, a seat reservation system for an airplane or a train, an automatic cash dispenser at a bank, and the like may have different voices among speakers, differences in unnecessary words and spoken language, Due to the influence of noise and the like, sufficient recognition performance may not be expected even when speech recognition technology is actually applied, and it is extremely difficult to perform highly accurate recognition of a sentence in particular. In this regard, a method of first analyzing candidate strings of keywords from continuously uttered speech to understand the utterance content is described in, for example, the literature (Hiroyuki Tsuboi, Hideki Hashimoto, Yoichi Takebayashi: "Analysis of keyword lattice for understanding continuous speech") Proceedings of the Acoustical Society of Japan, 1-5-11, pp. 21-22, 199
1-10), and using this method, in a limited application, there is no limit on the user's utterance as much as possible.
You will be able to understand free utterances at high speed.

【0034】図2は、上述したキーワードを利用した音
声理解部11の概略構成を示している。
FIG. 2 shows a schematic configuration of the speech understanding unit 11 using the above-described keyword.

【0035】この場合、音声理解部11は、キーワード
検出部21と構文意味解析部22から構成している。そ
して、キーワード検出部21は、音声分析部21aとキ
ーワードスポッティング処理部21bにより構成し、構
文意味解析部22は文始端判定部22a、文候補解析部
22b、文終端判定部22c、文候補テーブル22dに
より構成している。
In this case, the voice comprehension unit 11 comprises a keyword detection unit 21 and a syntactic and semantic analysis unit 22. The keyword detecting unit 21 includes a voice analyzing unit 21a and a keyword spotting processing unit 21b, and the syntactic and semantic analyzing unit 22 includes a sentence start end determining unit 22a, a sentence candidate analyzing unit 22b, a sentence end determining unit 22c, and a sentence candidate table 22d. It consists of.

【0036】キーワード検出部21では、音声分析部2
1aにより入力音声をローパスフィルタ(LPF)を通
し標本化周波数12kHz 、量子化ビット12bitsでA
/D変換してディジタル信号に変換し、次いで、スペク
トル分析、さらにはFFTを用いたのちに周波数領域で
の平滑化をそれぞれ行い、さらに対数変換を行って16
チャンネルのバンドパスフィルタ(BPF)より8msご
とに音声分析結果を出力し、この出力に対してキーワー
ドスポッティング処理が実行される。この場合のキーワ
ードスポッティング処理は、例えば文献(金沢、坪井、
竹林:”不要語を含む連続音声中からの単語検出”電子
情報通信学会音声研究会資料、sp91−22、pp.
33−39、1991−6)に開示された方式により行
うことができる。
In the keyword detecting section 21, the voice analyzing section 2
1a, the input voice is passed through a low-pass filter (LPF), and is sampled at a sampling frequency of 12 kHz and a quantization bit of 12 bits.
The digital signal is converted to a digital signal by D / D conversion, and then the spectrum is analyzed, and further, the smoothing in the frequency domain is performed after using the FFT, and the logarithmic conversion is further performed to obtain 16
A voice analysis result is output from the channel band pass filter (BPF) every 8 ms, and the keyword spotting process is performed on the output. In this case, the keyword spotting process is performed, for example, according to the literature (Kanazawa, Tsuboi,
Takebayashi: "Detection of words from continuous speech including unnecessary words", IEICE Spoken Language Study Group, sp.
33-39, 1991-6).

【0037】これによりキーワード検出部21では、連
続した入力音声よりキーワードの候補系列(ラティス)
を抽出するようになる。図3は、ファースト・フード店
での店頭での注文のやりとりを音声対話で行うのに適用
した場合の連続入力音声「ハンバーガとポテトとコーヒ
ー3つ下さい」より抽出されたキーワードの候補系列の
例を示している。
In this way, the keyword detecting section 21 determines a keyword candidate sequence (lattice) from continuous input speech.
Will be extracted. Fig. 3 shows an example of keyword candidate sequences extracted from continuous input speech "Please have three hamburgers, potatoes and coffee" when applying the exchange of orders at a fast food restaurant at the store by voice dialogue. Is shown.

【0038】なお、上述の音声分析やキーワード検出処
理は、他の文献(“高速DSPボードを用いた音声認識
システムの開発“日本音響学会講演論文集、3−5−1
2、1991−3)にあるようなDSPボードを用いる
ことでリアルタイム処理も可能である。
The above-described speech analysis and keyword detection processing are described in other documents (“Development of a speech recognition system using a high-speed DSP board”, Proceedings of the Acoustical Society of Japan, 3-5-1.
Real-time processing is also possible by using a DSP board as described in 2, 1991-3).

【0039】次に、このようにして検出されたキーワー
ド候補系列が構文意味解析部22により構文意味解析さ
れ、図4に示すような音声入力に対する入力意味表現が
求められる。
Next, the keyword candidate sequence detected in this manner is subjected to syntactic and semantic analysis by the syntactic and semantic analysis unit 22 to obtain an input semantic expression for a voice input as shown in FIG.

【0040】ここでは応用をファースト・フードのタス
クに限定しており、フレーム形式の入力意味表現は、入
力発話が注文処理の種類を表すACTフレームと注文内
容を表す注文品フレームから構成される。そして、AC
Tフレームには“注文”、“追加”、“削除”、“置
換”など、注文に関する処理についての意味情報が表現
され、一方、注文品フレームには、品名、サイズ、個数
のスロットからなる、注文品の内容を表現できるように
している。
Here, the application is limited to the fast food task, and the input semantic expression in the frame format is composed of an ACT frame indicating the type of order processing of the input utterance and an order item frame indicating the contents of the order. And AC
In the T frame, semantic information about the processing related to the order such as “order”, “add”, “delete”, and “replace” is expressed. On the other hand, the order frame includes the slot of the product name, size, and number. The contents of the order can be expressed.

【0041】即ち、キーワード検出部21で得られキー
ワードラティスは構文意味解析部22に送られる。構文
意味解析部22は、文始端判定部22a、文候補処理部
22b、文終端判定部22cから成り、文候補テーブル
22dを持つ。構文意味解析部22は、キーワードラテ
ィス中の個々の単語を左から右に向かって処理してい
く。
That is, the keyword lattice obtained by the keyword detecting section 21 is sent to the syntactic and semantic analyzing section 22. The syntactic and semantic analysis unit 22 includes a sentence end determination unit 22a, a sentence candidate processing unit 22b, and a sentence end determination unit 22c, and has a sentence candidate table 22d. The syntactic and semantic analysis unit 22 processes each word in the keyword lattice from left to right.

【0042】文始端判定部22aは、現在処理している
単語が文の始端となりうるか否かを構文的意味的制約に
より判定する。もしそれが文の始端となりうるならば、
その単語を新しい部分文候補として、文候補テーブル2
2dに登録する。
The sentence start determination unit 22a determines whether or not the currently processed word can be the start of a sentence based on syntactic and semantic constraints. If it can be the beginning of a sentence,
The word is set as a new sub-sentence candidate and sentence candidate table 2
Register in 2d.

【0043】文候補解析部22bは、当該単語および文
候補テーブル22d中の各部分文候補に関して、構文的
意味的時間的制約から、それらが接続しうるか否かを判
定する。もし接続しうるならば、部分文候補をコピー
し、それに入力単語を接続し、それを文候補テーブル2
2dに登録する。
The sentence candidate analyzing unit 22b determines whether or not the word and each partial sentence candidate in the sentence candidate table 22d can be connected from the syntactic, semantic, and temporal constraints. If it can be connected, copy the partial sentence candidate, connect the input word to it, and connect it to the sentence candidate table 2
Register in 2d.

【0044】文終端判定部22cは、直前に文候補解析
部22bで処理された部分文候補が、構文的意味的に文
として成立しうるか否かを判定し、成立するならばその
部分文候補のコピーを構文意味解析部22の出力として
出力する。
The sentence end determining unit 22c determines whether or not the partial sentence candidate processed immediately before by the sentence candidate analyzing unit 22b can be syntactically formed as a sentence. Is output as an output of the syntactic and semantic analysis unit 22.

【0045】出力された文候補は、構文解析と同時に意
味解析が行われており、従ってこれがそのまま入力意味
表現を意味する。以上の処理は入力に対してパイプライ
ン的に行われる。かくして、入力音声に対する複数の入
力意味表現を得ることができる。
The output sentence candidate is subjected to semantic analysis at the same time as syntactic analysis, and therefore, this directly means the input semantic expression. The above processing is performed on the input in a pipeline manner. Thus, a plurality of input meaning expressions for the input voice can be obtained.

【0046】この場合のファーストフード・タスクで
は、キーワードとして図5に示すようなものを用いてい
るが、対話の状況によっては、別の発話が同じ意味とな
ることもある。すなわち、キーワードに基づく音声理解
では、“1つ”と“1個”は同じ意味表現であり、また
“下さい”を“お願いします”も同じ意味表現になるこ
とがあり、表層的な文字面の入力音声の表現とは異なっ
てくる。ここが音声認識と音声理解の相違点であり、本
発明で扱う音声対話システムにおいては、応用分野の知
識を用いたタスク依存の音声理解処理が必要となってい
る。
In the fast food task in this case, keywords shown in FIG. 5 are used. However, depending on the situation of the dialog, another utterance may have the same meaning. That is, in speech understanding based on keywords, "one" and "one" have the same semantic expression, and "please" and "please" may have the same semantic expression. Is different from the expression of the input voice. This is the difference between speech recognition and speech understanding. In the speech dialogue system handled by the present invention, task-dependent speech understanding processing using knowledge of the application field is required.

【0047】次に対話管理部12について説明する。本
発明による音声対話システムでは、図1に示すように音
声理解部11から出力される入力意味表現は対話管理部
12に送られ、対話の知識や応用分野の知識さらに対話
の履歴や状態の情報を用いて応答内容の意味的な決定を
行ない、確認応答のための応答内容情報てある出力意味
表現を生成し応答生成出力部13に出力する。なお、出
力意味表現は図6に示すように、入力意味表現と同様に
フレーム形式の表現を用いている。
Next, the dialog managing unit 12 will be described. In the speech dialogue system according to the present invention, as shown in FIG. 1, the input semantic expression output from the speech understanding unit 11 is sent to the dialogue management unit 12, and the knowledge of the dialogue, the knowledge of the application field, the information of the history of the dialogue and the state of the dialogue are displayed. Is used to make a semantic determination of the response content, to generate an output semantic expression as response content information for an acknowledgment, and to output it to the response generation output unit 13. Note that, as shown in FIG. 6, the output semantic expression uses a frame format expression like the input semantic expression.

【0048】本実施例では、入力音声の一つの発話の内
容表現として図4に示す入力意味表現を用いているが、
さらに、対話開始からのシステムが理解した内容とし
て、それまでの注文の内容を記憶する注文テーブルを図
7に示すように別途用意している。また、対話の履情と
して対話進行にともなう注文テーブルの変化を図8の例
に示すような一つ前の質問応答時点の注文テーブル(旧
注文テーブル)の形で用意している。さらに、対話の状
況を表す対話状況情報を対話管理部12に保持してい
る。こ対話状況情報は、現在の対話の状態、次に遷移す
る状態、対話の繰返し回数、確信度、強調項目、対話の
履歴等の情報を含むもので、後述する応答生成出力部1
3において人物像情報として利用されるものである。
In this embodiment, the input meaning expression shown in FIG. 4 is used as the content expression of one utterance of the input voice.
In addition, as shown in FIG. 7, an order table for storing the contents of the order up to that point is separately prepared as the contents understood by the system from the start of the dialogue. Further, a change in the order table accompanying the progress of the dialog is prepared in the form of an order table (old order table) at the time of answering the previous question as shown in the example of FIG. Further, the dialog management unit 12 holds dialog status information indicating the status of the dialog. This dialog status information includes information such as the current state of the dialog, the next transition state, the number of times the dialog is repeated, the degree of certainty, the emphasis items, the history of the dialog, and the like.
3 is used as person image information.

【0049】注文テーブルは、入力意味表現のACT情
報と注文内容に基づき書き替えられたもので、形式は入
力意味表現からACT情報を取り去った注文内容のみの
テーブルである。つまり、この注文テーブルは、対話を
開始してからそれまでの対話で理解した内容を反映した
ものである。また、旧注文テーブルは注文テーブルと同
一の構成であり、一つ前の対話時点での質問応答での注
文テーブルを保持し、対話の履歴情報として注文テーブ
ルの状態を記録するものである。
The order table is rewritten based on the ACT information of the input semantic expression and the order contents, and has a format of only the order contents obtained by removing the ACT information from the input semantic expression. In other words, this order table reflects the contents understood in the dialogue from the start of the dialogue. The old order table has the same configuration as the order table, holds the order table in response to the question at the time of the immediately preceding conversation, and records the state of the order table as history information of the conversation.

【0050】このように対話管理部12では、入力音声
の意味表現(入力意味表現)および対話の履歴情報(旧
注文テーブル)、対話システムの状態に基づき、対話の
進行方法や応用分野の知識を用いて応答出力の内容を表
す応答内容情報(出力意味表現)を生成する。つまり、
入力意味表現と注文テーブルを参照し、その時点のシス
テムの状態(ステート番号)に依存した処理を行い、応
答生成の内容と応答ACTからなる応答生成の内容を表
現した出力意味表現を生成するようにしている。上述し
たようにこの場合の出力意味表現は、入力意味表現と同
様にフレーム形式の表現を用いている。さらに、対話の
履歴情報(旧注文テーブル)と対話システムの状態に基
づき、対話状況情報を生成し、応答生成出力部13が応
答画面表示の人物像情報として参照できるようにしてい
る。
As described above, the dialogue management unit 12 obtains knowledge of the dialogue progress method and application fields based on the meaning expression of the input voice (input meaning expression), the history information of the dialogue (old order table), and the state of the dialogue system. To generate response content information (output meaning expression) representing the content of the response output. That is,
Referring to the input semantic expression and the order table, a process depending on the state (state number) of the system at that time is performed, and an output semantic expression expressing the contents of the response generation and the contents of the response generation including the response ACT is generated. I have to. As described above, the output semantic expression in this case uses a frame format expression, like the input semantic expression. Further, based on the history information of the dialogue (old order table) and the state of the dialogue system, dialogue status information is generated so that the response generation / output unit 13 can refer to the person image information on the response screen display.

【0051】図9は、対話管理部の内部における状態遷
移の一例を示している。
FIG. 9 shows an example of a state transition inside the dialog management unit.

【0052】この例では対話の進行方法や応用分野の知
識に基づいた状態遷移の表現により対話を管理進行する
ようにしている。対話管理部12は、大きくユーザ72
とシステム71のそれぞれの状態に二分される。
In this example, the dialogue is managed and progressed by expressing the state transition based on the method of proceeding the dialogue and the knowledge of the application field. The dialogue management unit 12 largely stores the user 72
And system 71 respectively.

【0053】ここで、ユーザ72の状態の役割は、ユー
ザの発話の入力意味表現に応じてシステム71の状態に
遷移することであり、一方、システム71の状態の役割
は、理解した発話内容に応じて、注文テーブルの内容を
変更し、応答の出力意味表現を出力して、対話の流れを
進行し、ユーザ72の状態に遷移することである。この
ように、システムの内部状態を二分して持つことによ
り、ユーザとシステムとの多様なやり取りが表現でき、
柔軟な対話の進行が可能となる。
Here, the role of the state of the user 72 is to make a transition to the state of the system 71 in accordance with the input meaning expression of the utterance of the user, while the role of the state of the system 71 is to Accordingly, the contents of the order table are changed, the output meaning expression of the response is output, the flow of the dialogue is advanced, and the state of the user 72 is changed. In this way, by having the internal state of the system in two parts, various exchanges between the user and the system can be expressed,
Flexible dialogue can be performed.

【0054】又、この時用いられる対話状況情報は、処
理中の対話管理の状態名と部分的な対話の繰り返し回数
を表し、進行中の対話の状態名、次に遷移する状態名、
同一の話題について同じ質問を繰り返すなどの部分的な
対話が繰り返される回数が逐次記録され容易に参照でき
るようになっており、システムの状態を自然に分かりや
すく伝えるために、応答生成出力部13の人物像の表
情、動き、および音声応答の感情、強調などの人物像情
報として利用し応答生成出力に利用される。
The dialog status information used at this time indicates the name of the status of the dialog management being processed and the number of times the partial dialog is repeated. The status name of the ongoing dialog, the name of the next transition state,
The number of times a partial dialogue such as repeating the same question on the same topic is repeated is recorded sequentially and can be easily referred to. It is used as personal image information such as the expression, movement, and emotion and emphasis of voice response of the human image, and is used for response generation output.

【0055】さて、図9では、対話管理部12におい
て、ユーザ(客)の存在が検知されると、システム71
の初期状態S0から対話がスタートして、挨拶、注文要
求に関する出力意味表現を生成し、応答生成出力部13
に送られユーザ72の初期状態U0に遷移する。さら
に、対話の履歴情報(旧注文テーブル)は初期化され、
システムの状態の状態S0から状態U0への遷移に基づ
き、対話状況情報が生成される。この対話情況情報は、
応答生成出力部13が応答画面表示の人物像情報として
参照できるようにしている。
In FIG. 9, when the presence of a user (customer) is detected by the dialogue management unit 12, the system 71
The dialogue starts from the initial state S0, and generates an output semantic expression related to a greeting and an order request.
To the initial state U0 of the user 72. In addition, the conversation history information (old order table) is initialized,
Dialog status information is generated based on the transition of the system state from the state S0 to the state U0. This conversation situation information,
The response generation output unit 13 can refer to the image information of the person on the response screen display.

【0056】すると、応答生成部13では、この出力意
味表現に基づいて、システム状態、対話の履歴情報、注
文テーブルを参照しながら音声応答、人物像、テキス
ト、内容可視化情報を生成する。
Then, the response generation unit 13 generates a voice response, a human image, a text, and content visualization information while referring to the system state, the history information of the conversation, and the order table based on the output semantic expression.

【0057】この時、ユーザ72の初期状態U0では、
次の発話の入力意味表現ACT情報が“注文”であると
きには、一般的な注文の流れでシステム71の対話進行
状態SPとユーザの対話進行状態UPの間の遷移へと移
行する。
At this time, in the initial state U0 of the user 72,
When the input semantic expression ACT information of the next utterance is “order”, a transition is made between the dialog progress state SP of the system 71 and the user dialog progress state UP in a general order flow.

【0058】一方、入力意味表現のACT情報が、注文
以外の場合には、そのユーザの発話は予期していないユ
ーザの発話と見なされ、システム71の対話修正状態S
10に遷移する。
On the other hand, if the ACT information of the input semantic expression is other than an order, the utterance of the user is regarded as an unexpected user's utterance, and the dialog correction state S
Transition is made to 10.

【0059】もし、システム71の対話修正状態S10
に遷移した場合には、システム71は入力意味表現、注
文テーブルやその履歴情報を用いて、ユーザ72から受
け取った音声入力が予期せぬ内容であったり、良く聞こ
えなかった旨を状況に応じて適当な応答でユーザ72に
伝えたり、注文の内容を一品目づつ詳細に確認するため
の出力意味表現を出力し、ユーザ72の対話進行状態U
Pに遷移するようになる。すると、応答生成部13で
は、この出力意味表現に基づいてシステム状態、対話の
履歴情報、注文テーブルを参照しながら音声応答、人物
像、テキスト、内容可視化情報を生成する。
If the dialogue modification state S10 of the system 71
In the case of the transition to, the system 71 uses the input semantic expression, the order table and its history information to determine whether the voice input received from the user 72 has unexpected content or did not hear well according to the situation. An appropriate response is sent to the user 72 or an output semantic expression for confirming the details of the order one item at a time is output.
The state transitions to P. Then, the response generation unit 13 generates a voice response, a person image, a text, and content visualization information while referring to the system state, the conversation history information, and the order table based on the output semantic expression.

【0060】このようにしてシステム71とユーザ72
の間でやり取りが続き、ユーザ72での発話とシステム
71での応答が行われ状態が遷移して行くが、ユーザ7
2が目的とする注文を終えた場合、すなわちシステム7
1の全注文の確認応答に対して、ユーザ72が肯定を意
味する発話をした場合、システム71の終了状態S9に
移り、対話を終了する。
Thus, the system 71 and the user 72
And the state of the user 72 is changed and the utterance of the user 72 and the response of the system 71 are performed.
2 completes the desired order, ie system 7
When the user 72 utters an affirmative response to the acknowledgment of all the orders, the process shifts to the end state S9 of the system 71 and ends the dialog.

【0061】図10はユーザの状態の処理のフローチャ
ートを示している。
FIG. 10 shows a flowchart of the processing in the state of the user.

【0062】この場合、最初に複数の入力意味表現を読
み込み(ステップS81)、省略表現の推論を行い(ス
テップS82)、各入力意味表現の確からしさに関する
得点付け(スコアリング)を行う(ステップS83)。
次いで、上記入力意味表現候補の中から最もスコアの高
い入力意味表現を選択し(ステップS84)、発話アク
トを決定し(ステップS85)、発話アクトに基づきシ
ステムの状態に遷移するようになる(ステップS8
6)。
In this case, a plurality of input semantic expressions are first read (step S81), abbreviations are inferred (step S82), and a score (scoring) relating to the certainty of each input semantic expression is performed (step S83). ).
Next, an input semantic expression having the highest score is selected from the input semantic expression candidates (step S84), an utterance act is determined (step S85), and a transition is made to a system state based on the utterance act (step S85). S8
6).

【0063】一方、図11はシステムの状態の処理のフ
ローチャートを示している。
On the other hand, FIG. 11 shows a flowchart of the processing of the state of the system.

【0064】この場合、最初に入力意味表現に基づき注
文テーブルの内容を変更し(ステップS91)、その時
点におけるシステムの状態を考慮して出力意味表現を生
成し(ステップS92)、応答内容を出力し(ステップ
S93)、ユーザの状態へ遷移するようになる(ステッ
プS94)。応答生成部13では、生成された出力意味
表現に基づいて、音声応答、人物像、テキスト、内容可
視化情報を生成する。
In this case, first, the contents of the order table are changed based on the input semantic expression (step S91), an output semantic expression is generated in consideration of the state of the system at that time (step S92), and the response content is output. (Step S93), and the state is changed to the user state (step S94). The response generator 13 generates a voice response, a human image, a text, and content visualization information based on the generated output semantic expression.

【0065】以上のように、本実施例システムにおいて
は、ユーザとシステムとに分けて、相手側からメッセー
ジを受け取った場合に、種々の知識、状況、メッセージ
内容を考慮した処理が可能であり、柔軟で尤もらしい処
理が可能なる。
As described above, in the system according to the present embodiment, when a message is received from the other party separately for the user and the system, it is possible to perform processing in consideration of various knowledges, situations, and message contents. Flexible and likely processing is possible.

【0066】次に、図12は、本実施例システムにおけ
る対話処理の具体例を示すものである。
FIG. 12 shows a specific example of the interactive processing in the system of this embodiment.

【0067】この場合、システムでは、ユーザの発話に
対し前回の状態の図12(b)に示す注文テーブルと図
12(a)に示す出力意味表現が提示されているとする
と、これらに基づいて、図12(c)に示すように「御
注文はハンバーガ1つ、コーヒーを2つ、コーラの大を
4つですね」の確認メッセージを生成し、これに基づく
音声応答、確認のテキスト、注文テーブルの品物の絵と
個数を、音声メディアと視覚メディアを用いてマルチモ
ーダル的にユーザに提示するようになる。
In this case, if it is assumed that the order table shown in FIG. 12B and the output meaning expression shown in FIG. , As shown in FIG. 12 (c), a confirmation message "Order is one hamburger, two coffees, and four colas" is generated, and a voice response, a confirmation text, and an order based on the message are generated. The picture and the number of items on the table are presented to the user in a multimodal manner using audio media and visual media.

【0068】これに対して、ユーザが図12(c)に示
すように「コーラを1つ追加して下さい。」と音声入力
したとすると、図1に示す音声理解部11では、上述し
たようにキーワード候補の検出を行った後に、キーワー
ド候補系列(キーワードラティス)の解析(パージン
グ)を行い、ユーザの発話に対する図12(d)と図1
2(e)に示す入力意味表現候補1と入力意味表現候補
2を得る。
On the other hand, assuming that the user voice-inputs "Please add one cola." As shown in FIG. 12C, the voice understanding unit 11 shown in FIG. After the keyword candidates have been detected, the analysis (parsing) of the keyword candidate series (keyword lattice) is performed, and FIG. 12D and FIG.
An input meaning expression candidate 1 and an input meaning expression candidate 2 shown in FIG.

【0069】ここでの各候補は、確からしさについての
スコア(得点)Dを持っており、入力意味表現候補1は
D1、入力意味表現候補2はD2のスコアを有し、それ
ぞれスコア順に並べられる。
Each candidate here has a score (score) D regarding the likelihood, the input semantic expression candidate 1 has a score of D1, and the input semantic expression candidate 2 has a score of D2. .

【0070】この場合は、スコアD1の入力意味表現候
補1では、ACT情報は追加、品名はコーラ、サイズは
不定、個数は1となっており、スコアD2の入力意味表
現候補2では、ACT情報は削除、品名はポテト、サイ
ズは大、個数は2となっている。
In this case, in the input meaning expression candidate 1 of the score D1, the ACT information is added, the product name is Cola, the size is indefinite, and the number is 1. In the input meaning expression candidate 2 of the score D2, the ACT information is added. Is deleted, the product name is potato, the size is large, and the number is 2.

【0071】そして、ユーザの状態での処理は図13に
示すように実行される。
The processing in the state of the user is executed as shown in FIG.

【0072】まず、入力意味表現候補1については、前
回の出力意味表現のコーラのサイズが大であったことを
参照し、コーラの今回の追加注文もサイズが大であると
推論することで省略表現を補う(ステップS111)。
入力意味表現候補2については、とくに省略はないので
この推論は行われない(ステップS113)。
First, the input meaning expression candidate 1 is omitted by referring to the fact that the size of the cola in the previous output semantic expression was large, and inferring that the size of the additional order of the cola this time is also large. The expression is supplemented (step S111).
This inference is not performed for the input semantic expression candidate 2 because there is no particular omission (step S113).

【0073】次に、妥当性のチェックを行う。すなわ
ち、注文テーブルの内容と入力意味表現候補を照らし合
わせ矛盾の有無を調べる(ステップS112、ステップ
114)。
Next, the validity is checked. That is, the contents of the order table are compared with the input meaning expression candidates to check for inconsistency (step S112, step 114).

【0074】この例では、入力意味表現候補2について
は、入力意味表現の発話ACTが“削除”で品名がポテ
トの大にもかかわらず、注文テーブルにポテトはないの
でスコアD2がD2′=D2×α(α<1.0)の処理
により、小さくされる処理を行う。
In this example, as for the input semantic expression candidate 2, although the utterance ACT of the input semantic expression is "delete" and the product name is large, there is no potato in the order table, so the score D2 is D2 '= D2. A process for reducing the size is performed by the process of × α (α <1.0).

【0075】次に、入力意味表現候補のスコアを比較す
る(ステップS115)。この場合、D2′<D1′な
ので候補1を選択する。一方、ユーザからの入力の発話
ACTは“追加”であると決定し(ステップS11
6)、追加確認を行うシステムの状態SAに遷移するよ
うになる(ステップS117)。ここで、追加確認を行
うシステムの状態SAは、注文テーブルを入力意味表現
に基づいてコーラの大を1つ追加するように書き換え
る。
Next, the scores of the input meaning expression candidates are compared (step S115). In this case, since D2 '<D1', candidate 1 is selected. On the other hand, the utterance ACT of the input from the user is determined to be “added” (step S11).
6), the state transits to the state SA of the system for performing the addition confirmation (step S117). Here, the state SA of the system that performs the addition confirmation rewrites the order table so as to add one large cola based on the input semantic expression.

【0076】この場合、システムでの状態の処理は図1
4に示すように実行される。
In this case, the processing of the state in the system is as shown in FIG.
This is performed as shown in FIG.

【0077】即ち、この状態でシステム側では、ユーザ
への確認応答を図15(b)に示す応答ACTリストか
ら選択し出力意味表現を決定する。この例では、入力意
味表現のACTが追加であるので応答ACTは第4番目
の追加確認が選択され、これらの情報を用いて応答出力
(応答文)が決定され出力が行われる。
That is, in this state, the system selects an acknowledgment to the user from the response ACT list shown in FIG. 15B and determines an output meaning expression. In this example, since the ACT of the input semantic expression is additional, the fourth additional confirmation is selected as the response ACT, and a response output (response sentence) is determined and output using these information.

【0078】まず、注文テーブルにコーラの大を1つ追
加する(ステップS121)。そして、ここでの図15
(a)に示す入力意味表現の発話ACTは追加なので、
応答ACTを追加確認として選択し、これら情報から図
15(c)に示す出力意味表現が求められる(ステップ
S122)。次いで、応答出力(応答文)を決定して出
力する(ステップS123)。この場合の応答文は、図
16に示すシステムの応答の表現例に基づいて決定さ
れ、例えば「確認します。コーラの大を1つ追加です
ね。」のように出力される。そして、ステップS124
に進み、追加確認の応答ACTを受けたユーザの状態U
Aに遷移し、ユーザの状態での処理が行われるようにな
る。
First, one cola size is added to the order table (step S121). And here, FIG.
Since the utterance ACT of the input meaning expression shown in (a) is added,
The response ACT is selected as an additional confirmation, and the output semantic expression shown in FIG. 15C is obtained from the information (step S122). Next, a response output (response sentence) is determined and output (step S123). The response sentence in this case is determined based on an example of the response expression of the system shown in FIG. 16, and is output as, for example, "I confirm. One large cola is added." Then, step S124
To the state U of the user who has received the response ACT of the additional confirmation.
The state transits to A, and processing in the state of the user is performed.

【0079】尚、対話管理部12は、上述のように求め
た出力意味表現と共に、音声理解部11から受け取った
ユーザの発声速度と各キーワードの尤度を応答生成出力
部13に送る。
The dialog management unit 12 sends the user's utterance speed and the likelihood of each keyword received from the speech understanding unit 11 to the response generation output unit 13 together with the output semantic expression obtained as described above.

【0080】ここで、ユーザの発声速度は次のように求
められる。即ち、図2における音声理解部11のキーワ
ードスポッティング処理部21bで、得られたキーワー
ドとその始終端、およびそれらを基に得られるユーザの
発声速度を検出する。また、音声理解結果の各キーワー
ドの尤度を入力意味表現とともに対話管理部12に出力
する。ユーザの発声速度は、キーワードスポッティング
処理部21bから得られる単語の始終端とその単語が分
かれば、例えば図17のように求めることができる。即
ち、ユーザの発声から3つのキーワード“ハンバー
ガ”、“ポテト”、“ください”がそれぞれ始端t1か
つ終端t2、始端t3かつ終端t4、始端t5かつ終端
t6と検出されたとき、これらキーワードのモーラ数は
6,3,4であることから、ユーザの平均発声速度は
Here, the utterance speed of the user is obtained as follows. That is, the keyword spotting processing unit 21b of the speech understanding unit 11 in FIG. 2 detects the obtained keyword, its start and end, and the user's utterance speed obtained based on the keyword. Also, the likelihood of each keyword of the speech understanding result is output to the dialog management unit 12 together with the input meaning expression. The utterance speed of the user can be obtained, for example, as shown in FIG. 17 if the start and end of the word obtained from the keyword spotting processing unit 21b and the word are known. That is, when three keywords “hamburger”, “potato”, and “please” are detected from the user's utterance as the start end t1 and end t2, the start end t3 and end t4, the start end t5 and end t6, respectively, the mora number of these keywords Is 6,3,4, so the average utterance speed of the user is

【数1】{6/(t2−t1)+3/(t4−t3)+
4/(t6−t5)}/3 のように算出できる。
16 / (t2-t1) + 3 / (t4-t3) +
4 / (t6−t5)} / 3.

【0081】このようにして得られたユーザの発声速度
と尤度は、入力意味表現と共に対話管理部12へ入力さ
れる。
The utterance speed and likelihood of the user obtained in this way are input to the dialog management unit 12 together with the input meaning expression.

【0082】対話管理部12は図9から図16で説明さ
れた処理に基づき生成された出力意味表現に、音声理解
部11から入力されたユーザの発声速度と、キーワード
の尤度を応答生成出力部13に入力する。このときの出
力意味表現の例を図18に示す。
The dialog management unit 12 responds to the output semantic expression generated based on the processing described with reference to FIGS. 9 to 16 by outputting the utterance speed of the user input from the speech understanding unit 11 and the likelihood of the keyword. Input to the unit 13. FIG. 18 shows an example of the output meaning expression at this time.

【0083】次に応答生成出力部13について説明す
る。本発明による応答生成出力部13では応答内容情報
である出力意味表現、対話情況情報と対話履歴情報から
なる人物像情報、およびそれまでの対話によりシステム
が理解した内容を分かりやすく可視化するための可視化
情報に基づいて、音声応答、人物像、テキスト、内容可
視化情報を生成出力する。ここで、音声応答、人物像、
テキストは出力意味表現と人物像情報に基づいて、その
対話状況を考慮して伝える内容をわかり易く呈示できる
ように表情や感情・強調を持って生成される。また、内
容可視化情報はシステムの理解している対話の内容を表
示して、対話の進行状況をわかり易くするためのもので
あり、対話管理部12から出力される可視化情報に基づ
いて生成出力されるものである。
Next, the response generation / output unit 13 will be described. In the response generation / output unit 13 according to the present invention, the output semantic expression as response content information, the human image information including the dialog situation information and the dialog history information, and the visualization for easily visualizing the contents understood by the system through the previous dialog. Based on the information, a voice response, a person image, a text, and content visualization information are generated and output. Where voice response, person image,
The text is generated based on the output semantic expression and the human image information, with expressions, feelings, and emphasis so that the contents to be conveyed in consideration of the dialogue state can be presented in an easily understandable manner. Further, the content visualization information is for displaying the content of the dialogue understood by the system to make it easy to understand the progress of the dialogue, and is generated and output based on the visualization information output from the dialogue management unit 12. Things.

【0084】図19は応答生成出力部13の構成の一例
を示している。応答生成部13は応答文生成部131、
人物像表情決定部132、人物像生成部133、感情・
強調決定部134、音声応答生成部135、内容可視化
情報生成部136、出力統合制御部137から構成され
る。
FIG. 19 shows an example of the configuration of the response generation / output unit 13. The response generation unit 13 includes a response sentence generation unit 131,
Person image expression determination unit 132, person image generation unit 133, emotion /
It comprises an emphasis determination unit 134, a voice response generation unit 135, a content visualization information generation unit 136, and an output integration control unit 137.

【0085】応答生成出力部13は対話管理部12から
出力意味表現と人物像情報を受けとり、応答文生成部1
31で応答する文とその構造情報を生成する。生成され
た応答文と対話管理部12からの人物像情報に基づき、
人物像表情決定部132では画面表示で音声応答する人
物像の表情を決定し、決定された表情の人物像を人物像
生成部133で生成し出力統合制御部137に出力す
る。また、生成された応答文と文構造情報および対話管
理部12からの人物像情報に基づき、音声応答の感情表
現や強調する部分を感情・強調決定部134で決定し、
感情や強調を持つ音声応答を音声応答生成部135で生
成し出力統合制御部137に出力する。さらに、生成さ
れた応答文はテキスト情報として出力統合制御部137
に出力する。また、応答内容に関連した理解内容を可視
化して表示するために、応答生成出力部13は対話管理
部12から出力される可視化情報を受けとり、内容可視
化情報生成部136で内容可視化情報を生成し出力統合
制御部137に出力する。
The response generation and output unit 13 receives the output semantic expression and the person image information from the dialog management unit 12 and
At step 31, a sentence responding and its structural information are generated. Based on the generated response sentence and the human image information from the dialog management unit 12,
The person image expression determination unit 132 determines the expression of the person image responding by voice on the screen display, generates the person image of the determined expression by the person image generation unit 133, and outputs the generated image to the output integration control unit 137. Further, based on the generated response sentence, sentence structure information, and human image information from the dialogue management unit 12, the emotional expression and the part to be emphasized of the voice response are determined by the emotion / emphasis determination unit 134,
A voice response having emotion and emphasis is generated by the voice response generation unit 135 and output to the output integrated control unit 137. Further, the generated response sentence is output as text information by the output integration control unit 137.
Output to In addition, in order to visualize and display the understanding content related to the response content, the response generation output unit 13 receives the visualization information output from the dialog management unit 12, and generates the content visualization information in the content visualization information generation unit 136. Output to the output integration control unit 137.

【0086】出力統合制御部137は表情を持つ人物
像、感情や強調を持つ音声応答、テキスト情報、内容可
視化情報を各部から受けとり、時間的な呈示順序を制御
しながら、画面表示出力部14と音声出力部15に出力
して利用者に応答内容を統合して表示する。
The output integrated control unit 137 receives a human image having an expression, a voice response having emotions and emphasis, text information, and content visualization information from each unit, and controls the temporal presentation order while controlling the screen display output unit 14. The response is output to the audio output unit 15 and the contents of the response are integrated and displayed to the user.

【0087】次に、応答生成出力部13の各部の動作を
図19に基づき説明する。
Next, the operation of each unit of the response generation / output unit 13 will be described with reference to FIG.

【0088】まず、応答生成出力部13の各部で処理さ
れる情報について説明する。
First, information processed by each unit of the response generation / output unit 13 will be described.

【0089】出力意味表現は図6に示したような入力意
味表現と同様なフレーム形式であり、ACT情報は応答
におけるアクションを示している。
The output semantic expression has the same frame format as the input semantic expression as shown in FIG. 6, and the ACT information indicates an action in the response.

【0090】人物像情報は画面表示出力部14に表示さ
れる音声応答する人物像の表情や音声応答の感情・強調
の情報であり、図20に示すような構造である。システ
ム状態番号、ユーザ状態番号は対話管理部12の対話処
理においてシステム状態からユーザ状態へ遷移して出力
意味表現を生成する際のそれぞれの状態の番号を示して
いる。図20に示すSP1、UP3はそれぞれ図19の
対話状態遷移のシステム側の状態集合SPの1つ状態
を、ユーザ側の状態集合SUの1つの状態を示してい
る。繰り返し回数は対話の中で部分的に同じ質問を繰り
返して行なったり、同じ内容について繰り返して確認を
行なうような場合の回数である。強調項目は出力意味表
現の中で特に確認する必要がある場合の項目を示す。確
信度は出力意味表現に基づいて対応する内容の確信度を
示し、対話管理部12で入力意味表現の尤度に基づてい
入力意味表現の解釈を行なった際に得られるスコアDで
ある。応答文生成部131は、対話管理部12で生成さ
れた出力意味表現から応答文とその文構造を生成する。
文生成には、一般に書き換え規則を使うもの、穴埋めに
よるもの、木構造から合成する方法、意味構造から合成
する方法が知られているが、ここでは穴埋めによる方法
で説明する。
The person image information is information on the expression of the person image responding by voice displayed on the screen display output unit 14 and the emotion / emphasis of the voice response, and has a structure as shown in FIG. The system state number and the user state number indicate the numbers of the respective states when transitioning from the system state to the user state in the dialog processing of the dialog management unit 12 to generate the output semantic expression. SP1 and UP3 shown in FIG. 20 respectively indicate one state of the state set SP on the system side and one state of the state set SU on the user side in the dialog state transition of FIG. The number of repetitions is the number of times when the same question is partially repeated in a dialog or the same content is repeatedly confirmed. Emphasis items indicate items that need to be particularly confirmed in the output semantic expression. The certainty indicates the certainty of the corresponding content based on the output semantic expression, and is a score D obtained when the dialog management unit 12 interprets the input semantic expression based on the likelihood of the input semantic expression. The response sentence generation unit 131 generates a response sentence and its sentence structure from the output semantic expression generated by the dialog management unit 12.
There are generally known sentence generation methods using rewriting rules, filling with holes, methods for combining from tree structures, and methods for combining from semantic structures. Here, the method of filling with holes will be described.

【0091】出力応答文の生成は、例えば図21のよう
にACT情報ごとに品目、サイズ、個数を埋め込む穴の
空いた応答文型とその文構造を用意しておき、図22
(a)に示すフローチャートにしたがって出力意味表現
をもとに空きを埋める方法で実現できる。すなわち、ま
ずステップS141で繰り返しの回数を示す変数nを0
に設定し、次にステップS142で出力意味表現の品目
数を変数Mにセットする。図22(b)の出力意味表現
の場合には、Mは2である。次に、ステップ143で注
文一品目分の品名、サイズ、個数を応答文に埋め込む。
次にステップS144で繰り返し変数nを加算しなが
ら、ステップS145により埋め込みが完了するまで繰
り返す。図22(b)の出力意味表現を図22(c)の
応答文型に埋め込むと、図22(d)のように「確認し
ます。コーラの大は1つ、ポテトの小は3つですね。」
と応答文が得られる。
For generating an output response sentence, for example, as shown in FIG. 21, a response sentence type with a hole for embedding an item, a size, and the number for each ACT information and its sentence structure are prepared, and FIG.
This can be realized by a method of filling a space based on the output semantic expression according to the flowchart shown in FIG. That is, first, in step S141, a variable n indicating the number of repetitions is set to 0.
The number of items of the output semantic expression is set in a variable M in step S142. In the case of the output meaning expression of FIG. 22B, M is 2. Next, in step 143, the name, size, and quantity of one item of the order are embedded in the response sentence.
Next, while adding the variable n repeatedly in step S144, the process is repeated until the embedding is completed in step S145. When the output semantic expression of FIG. 22 (b) is embedded in the response sentence pattern of FIG. 22 (c), as shown in FIG. 22 (d), "confirmation. One large cola and three small potatoes. . "
And the response sentence is obtained.

【0092】人物像表情決定部132は、応答文生成部
131で生成された文と対話管理部12から入力される
人物像情報から人物像の表情を決定する。人物像表情決
定部132の一例を図23に示す。システム状態番号、
ユーザ状態番号、繰り返し回数、確信度は人物像情報か
ら得られるものであり、あらかじめそれぞれの値に対し
ての人物像とその表情をテーブルの形式で表現したもの
である。例えば、繰り返し回数が一回までの場合の確認
で確信度が高い場合には普通の表情で確認を行い、確信
度が低い場合には戸惑ったような表情で確認を行なうよ
うになっている。
[0092] The person image expression determining unit 132 determines the expression of the person image from the sentence generated by the response sentence generating unit 131 and the person image information input from the dialog management unit 12. FIG. 23 shows an example of the person image expression determining unit 132. System state number,
The user state number, the number of repetitions, and the degree of certainty are obtained from the human image information, and express the human image and its expression for each value in the form of a table in advance. For example, if the degree of certainty is high when the number of repetitions is up to one, the confirmation is performed with a normal expression, and if the degree of certainty is low, the confirmation is performed with a confused expression.

【0093】人物像生成部133は、人物像表情決定部
132から出力された人物像と表情の情報から画面に表
示する画像を生成する。この時、表示時間や人物像を変
化させるための制御が行なわれる。例えば、人物像が音
声応答する際の口の動作や挨拶する時のおじぎの動作が
生成できるように、静止画を用いる場合には複数の画像
が用意され、動画を用いる場合には連続した動作の人物
像と表情の動画が指定される。また、コンピュータグラ
フィックスを利用する際には指定された動作の画像が生
成される。
The person image generation unit 133 generates an image to be displayed on the screen from the information on the person image and the expression output from the person image expression determination unit 132. At this time, control for changing the display time and the human image is performed. For example, when using a still image, a plurality of images are prepared, and when using a moving image, a continuous operation is performed so that a mouth operation when a human image responds by voice or a bowing operation when greeting is generated. Is specified. When using computer graphics, an image of a specified operation is generated.

【0094】感情・強調決定部134は、人物像情報か
ら応答する音声の強調や感情を決定する。感情・強調決
定部134の一例を図24に示す。人物像表情決定部1
32と同様の表現形式であり、システム状態番号、ユー
ザ状態番号、繰り返し回数、確信度から、あらかじめそ
れぞれの値に対しての人物像と音声応答の感情をテーブ
ルの形式で表現したものである。例えば、繰り返し回数
が一回までの場合の確認で確信度が高い場合には普通の
音声で確認を行ない、確信度が低い場合には戸惑ったよ
うな音声で確認を行なうようになっている。また、確認
する場合に強調して利用者に確認内容をわかり易く伝え
るために人物像情報には強調項目がある。これは対話管
理部12で応答内容を出力意味表現として生成する際に
確認すべき項目を決定したものである。感情・強調決定
部134では応答文中の強調すべき項目を出力意味表現
からとりだして次の音声応答生成部135に伝える。
The emotion / emphasis determination section 134 determines the emphasis or emotion of the voice to be responded from the person image information. FIG. 24 shows an example of the emotion / emphasis determination unit 134. Human image expression determination unit 1
32, in which the emotions of the human image and the voice response for each value are expressed in advance in the form of a table from the system state number, the user state number, the number of repetitions, and the certainty factor. For example, if the degree of certainty is high when the number of repetitions is up to one, the confirmation is made with a normal voice, and if the certainty is low, the confirmation is made with a confused voice. In addition, in order to emphasize the confirmation when the confirmation is made and to convey the confirmation contents to the user in an easy-to-understand manner, the person image information includes an emphasis item. This is the item that should be confirmed when the dialog management unit 12 generates the response content as the output semantic expression. The emotion / emphasis determination unit 134 extracts the item to be emphasized in the response sentence from the output semantic expression and transmits it to the next voice response generation unit 135.

【0095】音声応答生成部135は、応答文生成部1
31と感情・強調決定部134からの出力に基づき音声
合成を行なう。音声の生成方式としては従来からある録
音編集型なども利用可能であるが、本実施例では強調や
感情を持つ応答に特徴があり、音声生成部の制御により
実現するためには音声規則合成が望ましい。
The voice response generation unit 135 includes the response sentence generation unit 1
Speech synthesis is performed based on the output from the emotion / emphasis determination unit 134 and the emotion / emphasis determination unit 134. As a voice generation method, a conventional recording / editing type or the like can be used. However, in the present embodiment, a response having emphasis and emotion is characterized. desirable.

【0096】音声応答生成部135の構成の一例を図2
5に示す。音声応答生成部135は、音韻処理部15
1、韻律処理部152、制御パラメータ生成部153、
音声波形生成部154からなる。
FIG. 2 shows an example of the configuration of the voice response generator 135.
It is shown in FIG. The voice response generation unit 135 includes the phoneme processing unit 15
1, prosody processing unit 152, control parameter generation unit 153,
It is composed of an audio waveform generator 154.

【0097】ここでは、感情・強調決定部134から入
力される強調する語句(句)と感情の種類、および生成
された応答文とその構造を基に音韻処理部151と韻律
処理部152において各々音韻処理、韻律処理を行なっ
て、音声波形生成部154で使用される制御パラメータ
の時系列を制御パラメータ生成部153から音声波形生
成部154に出力する。
Here, based on the words (phrases) to be emphasized and the types of emotions input from the emotion / emphasis determining unit 134, and the generated response sentence and its structure, the phonological processing unit 151 and the prosody processing unit 152 respectively. The phoneme processing and the prosody processing are performed, and the time series of the control parameters used in the voice waveform generation section 154 are output from the control parameter generation section 153 to the voice waveform generation section 154.

【0098】音韻処理部151は、応答文生成部131
で生成された応答文とその文構造を基に、鼻音化や無声
化、連濁といった一般に良く知られた音韻規則に従い出
力応答文の読みを決定、単音記号列を出力する。
The phoneme processing unit 151 includes a response sentence generation unit 131
Based on the response sentence and the sentence structure generated in step (1), the output response sentence is determined according to generally well-known phonological rules such as nasalization, voicelessness, and rendaku, and a phonetic symbol sequence is output.

【0099】韻律処理部152では応答文とその構造、
強調する語の情報および感情の種類を基に、基本周波数
パターンやパワー、継続時間、ポーズの位置などの韻律
成分を決定する。
In the prosody processing unit 152, the response sentence and its structure,
Based on the word information to be emphasized and the type of emotion, prosody components such as a fundamental frequency pattern, power, duration, and a pause position are determined.

【0100】特に基本周波数パターン生成は、図26の
モデルに示すように、点線で示したあらかじめ強調しな
い場合と実線で示した強調した場合の各応答文のアクセ
ント成分やフレーズ成分の多きさを分析して記憶してお
き、合成時に語句、句にその成分を使うことで実現でき
る。また、平叙文と疑問文と命令文というように文の種
類を分類し、文の種類毎にアクセントやフレーズの規則
を作成してもよい。例えば文献(広瀬、藤崎、河井“連
続音声合成システム−特に韻律的特徴の合成−”、日本
音響学会音声研究会資料S85−43(1985))の
ように、単語のアクセント型、文の切れ目からの語の位
置、修飾関係から平叙文の規則を決めることができる。
Particularly, as shown in the model of FIG. 26, the fundamental frequency pattern generation analyzes the degree of accent components and phrase components of each response sentence in the case of not emphasizing in advance indicated by a dotted line and in the case of emphasizing it indicated by a solid line. It can be realized by using the components for words and phrases at the time of synthesis. Alternatively, sentence types such as declarative sentences, question sentences, and command sentences may be classified, and rules for accents and phrases may be created for each sentence type. For example, as described in a document (Hirose, Fujisaki, Kawai, “Continuous Speech Synthesis System-Especially Synthesis of Prosodic Features-”, Japanese Society of Acoustical Society Speech Research Society S85-43 (1985)) The rules of declarative sentences can be determined from the word position and the modification relation.

【0101】感情を伴った韻律は、文献(K.Sheahan,Y.
Yamashita,Y.Takebayashi,“Synthsis of Nonverbal Ex
pressions for Human-Computer Interaction”日本音響
学会講演論文集2−4−6(1990.3))に述べら
れているように、おもに基本周波数の変化の割合とダイ
ナミックレンジ、発声時間長、エネルギーによって制御
される。従って、図27に示すように喜びの場合には感
情を伴わない場合に対してアクセントを1.2倍、発声
時間を0.9倍、エネルギーを2dB大きくし、図28に
示す悲しみの場合にはアクセントを0.9倍、発声時間
を1.1倍、エネルギーを2dB小さくする。これにより
喜びを伴ったときは、一語一語はっきりと、やや早口に
なった音声が合成でき、悲しみを伴ったときは抑揚が少
なく、やや遅い合成音を生成することが可能である。
The prosody with emotion is described in the literature (K. Sheahan, Y.
Yamashita, Y. Takebayashi, “Synthsis of Nonverbal Ex
As described in “Compressions for Human-Computer Interaction”, Proceedings of the Acoustical Society of Japan, 2-4-6 (1990.3)), it is mainly controlled by the rate of change of the fundamental frequency, dynamic range, utterance time, and energy. Therefore, as shown in Fig. 27, in the case of joy, the accent is increased 1.2 times, the utterance time is increased 0.9 times, the energy is increased by 2dB, and the sadness shown in Fig. 28 is increased. In the case of, the accent is 0.9 times, the vocalization time is 1.1 times, and the energy is reduced by 2 dB. However, when sadness is involved, it is possible to generate a slightly slower synthetic sound with less intonation.

【0102】基本周波数の制御は図41で用いたものに
限らず、直線近似を用いた方法や音の高低のレベルで基
本周波数パターンを表現する方法があり、ここに述べた
ものに限らず、発明の主旨を逸脱しないならば種々の方
法を利用してもよい。
The control of the fundamental frequency is not limited to the one used in FIG. 41, but may be a method using linear approximation or a method of expressing the fundamental frequency pattern at the level of the sound level. Various methods may be used without departing from the spirit of the invention.

【0103】制御パラメータ生成部153では、音韻処
理部151と韻律処理部152からの音韻シンボルと韻
律シンボルを基に、音声波形生成部154で使う制御パ
ラメータを決定する。この制御パラメータ生成部153
では発声速度の制御も行なうため、ユーザの発声速度に
合わせて音声を合成することが可能となり、ユーザの発
声のペースで対話を進行することも可能である。
The control parameter generation section 153 determines the control parameters used in the speech waveform generation section 154 based on the phoneme symbols and the prosody symbols from the phoneme processing section 151 and the prosody processing section 152. This control parameter generator 153
Since the utterance speed is also controlled, it is possible to synthesize speech in accordance with the utterance speed of the user, and it is also possible to proceed with the conversation at the utterance speed of the user.

【0104】このため制御パラメータ生成部で得られた
発話時間長は人物像の口動作と音声応答の同期をとるた
めに出力統合制御部137に出力される。
For this reason, the utterance time length obtained by the control parameter generation unit is output to the output integration control unit 137 in order to synchronize the mouth operation of the human image with the voice response.

【0105】尚、この応答生成出力部13では、応答文
の生成はすでに述べたような応答文生成部131、感情
・強調決定部134、音声応答生成部135により行わ
れるが、ここで、発声速度は応答文の長さに反映するた
めに参照する。テンポの良い対話がなされている時に
は、応答は短い方が良く、ユーザが戸惑うなどの理由で
ゆっくり発声する時には、丁寧に省略などせずに応答す
るのが良いからである。例えば発声速度が9モーラ毎秒
より速ければ、短い応答文型を選ぶようにすることで、
これは実現される。
In the response generation and output unit 13, the generation of the response sentence is performed by the response sentence generation unit 131, the emotion / emphasis determination unit 134, and the voice response generation unit 135 as described above. The speed is referred to reflect the length of the response sentence. This is because when a conversation with a good tempo is being made, it is better that the response is short, and when the user utters slowly for reasons such as being confused, it is better to respond carefully without omission. For example, if the utterance speed is faster than 9 mora per second, try to choose a short response sentence pattern,
This is achieved.

【0106】また、対話管理部12から与えられる各キ
ーワードの尤度は、例えば確認の場面で文末の「ですね
/ですか」を使い分けるのに利用される。すなわち、キ
ーワードの平均尤度が例えば設定域値0.5より低い、
もしくはどれかのキーワードの尤度が非常に低い時には
「ですか」を使い、尤度が高い時には「ですね」を使
う。これにより、他の応答出力に加え、応答文からも計
算機の理解の程度が分かるようになり、ユーザが対話を
行ないやすくなる。
The likelihood of each keyword given from the dialogue management unit 12 is used, for example, to properly use “is / is?” At the end of a sentence in a confirmation scene. That is, the average likelihood of the keyword is lower than the set threshold value 0.5, for example.
Or, if one of the keywords has a very low likelihood, use "is", and if the likelihood is high, use "is". As a result, in addition to other response outputs, the degree of understanding of the computer can be understood from the response sentence, and the user can easily interact.

【0107】なお、「ですね/ですか」は文型のテーブ
ルとして持たずに、文型を決定してから変更できるよう
にしてもよい。また、「でございます/でございます
か」のように、丁寧な応答か否かの情報を使うなどして
別の言葉を使用しても良い。
[0107] It should be noted that it is also possible to make it possible to change the sentence pattern after determining the sentence pattern without having "is / was" as a sentence pattern table. Alternatively, another word may be used, such as using information on whether or not the response is polite, such as “I am / Is it?”.

【0108】音声波形生成部154は、例えば図29に
示すようなホルマント型合成器による規則合成を利用す
る。これれは例えば、標本化周波数を12kHz 、8ms
ecごとに合成パラメータを更新し、音源にはインパルス
にローパスフィルターをかけたものを利用することで音
声合成ができる。しかし、合成器の構成、音源の種類、
標本化周波数等も一般的に知られものを利用することが
可能である。
The speech waveform generator 154 uses rule synthesis by a formant type synthesizer as shown in FIG. 29, for example. This means, for example, that the sampling frequency is 12 kHz, 8 ms
Speech synthesis can be performed by updating the synthesis parameters for each ec and using a sound source that has been subjected to a low-pass filter for the impulse. However, the composition of the synthesizer, the type of sound source,
A generally known sampling frequency can be used.

【0109】尚、この図29に示すホルマント型合成器
から成る音声波形生成部154においては、制御パラメ
ータ合成器169から入力された制御パラメータがイン
パルス発生器161、雑音発生器162、ローパスフィ
ルタ163A,163B、振幅制御器167、ハイパス
フィルタ168、共振器166A,166Bにそれぞれ
分配される。
In the speech waveform generator 154 composed of a formant type synthesizer shown in FIG. 29, the control parameters input from the control parameter synthesizer 169 include an impulse generator 161, a noise generator 162, a low-pass filter 163A, 163B, an amplitude controller 167, a high-pass filter 168, and resonators 166A and 166B.

【0110】可視化情報は、対話中にシステムに伝えた
内容、システムが理解している内容、システムの状態な
どの情報であり、この可視化情報を基に内容可視化情報
生成部136が内容可視化情報を生成しユーザに視覚的
に呈示することにより、システムの状態や理解内容をシ
ステムと利用者が共有することが可能となり、対話を自
然にわかり易く進めることができる。
The visualization information is information such as the content transmitted to the system during the dialogue, the content understood by the system, the state of the system, and the like. Based on the visualization information, the content visualization information generation unit 136 generates the content visualization information. By generating and visually presenting it to the user, the state of the system and the contents of the understanding can be shared by the system and the user, and the dialogue can proceed naturally and easily.

【0111】本実施例では注文テーブルを可視化情報と
して用いている。注文テーブルには既に利用者が注文し
たすべての品目、サイズ、個数が記録されており、対話
の各時点での注文内容を確認することができる。これに
より、例えば品目が多い注文を行なった時に、それぞれ
の品目とサイズ、個数を音声応答だけで時間的に連続し
て聞く場合よりも視覚的に表示して並列的に注文の内容
を伝えることが可能となる。内容可視化情報生成部13
6はこの可視化内容情報に基づき画像の生成を行なう。
ここでの画像生成方式としては人物像生成部133で述
べたような方式が利用できる。すなわち表示時間や表示
像を変化させるための制御が行なわれ、静止画を用いる
場合には複数の画像が用意され、動画を用いる場合には
連続した動作の表示像の画像が指定される。また、コン
ピュータグラフィックスを利用する際には指定された動
作の画像が生成される。
In this embodiment, the order table is used as visualization information. The order table has already recorded all the items, sizes, and the number of items ordered by the user, and the order contents at each point of the dialog can be confirmed. Thus, for example, when an order with a large number of items is placed, the order, the size, and the number of each item are visually displayed and the contents of the order are conveyed in parallel, rather than being heard in a timely manner only by voice response. Becomes possible. Content visualization information generation unit 13
6 generates an image based on the visualized content information.
As the image generation method here, the method described in the person image generation unit 133 can be used. That is, control for changing the display time and the display image is performed. When a still image is used, a plurality of images are prepared, and when a moving image is used, a display image of a continuous operation is designated. When using computer graphics, an image of a specified operation is generated.

【0112】出力統合制御部137は、人物像生成部1
33の出力である表情を持つ人物像の画像情報、音声応
答生成部135の出力である感情や強調を持つ音声応答
の信号情報、応答文の文字列であるテキスト情報、内容
可視化情報生成部136の出力である内容可視化情報を
各部から受けとり、時間的な呈示順序を制御しながら、
画面表示出力部14と音声出力部15に出力して利用者
に応答内容を統合して呈示する。
The output integration control unit 137 is provided with the person image generation unit 1
33, image information of a person image having a facial expression which is an output, signal information of a voice response having an emotion or emphasis which is an output of a voice response generation unit 135, text information which is a character string of a response sentence, and a content visualization information generation unit 136 While receiving the content visualization information output from each unit and controlling the temporal presentation order,
The contents are output to the screen display output unit 14 and the audio output unit 15, and the response contents are integrated and presented to the user.

【0113】ここで重要なことはそれぞれの出力を個別
に呈示すれば良いのではなく、個々出力情報の時間的な
関係を考慮しながら呈示する必要があることである。例
えば、人物像が音声応答に合わせながら口を動作させる
場合に音声応答出力と口動作の制御の同期やおじぎをし
ながら挨拶する場合の画像出力と音声出力の同期をとる
必要がある。また、それぞれの出力の呈示順序を制御す
ることが重要である。
What is important here is that it is not necessary to present each output individually, but it is necessary to present each output information in consideration of the temporal relationship. For example, it is necessary to synchronize the voice response output with the control of the mouth operation when the person image moves the mouth while following the voice response, or to synchronize the image output and the voice output when greeting while greeting the bow. It is also important to control the order in which the outputs are presented.

【0114】図30、31、32、33に出力の呈示順
序の時間制御の例を示す。図30は最初の挨拶の場面の
制御であり、まだ注文はないので、内容可視化情報は表
示されないが、挨拶のテキスト情報をt0の時点で表示
し、同時に人物像は「いらっしゃいませ」、続けて「ご
注文をどうぞ」という音声応答に合わせて口を動作させ
ながら、注文をうながす。このように発声している内容
と人物像画面の同期をとり、あらかじめ分かり易いよう
にt0の時点でテキスト情報をすべて表示する。
FIGS. 30, 31, 32 and 33 show examples of time control of the output presentation order. FIG. 30 is a control of the first greeting scene, and since there is no order yet, the content visualization information is not displayed, but the text information of the greeting is displayed at time t0, and at the same time, the person image is “Welcome”, and Prompt the order while operating the mouth in response to the voice response "Please place an order." In this way, the uttered content is synchronized with the person image screen, and all the text information is displayed at t0 for easy understanding in advance.

【0115】図31では既にハンバーガ1つとコーラ1
つを注文済みの場面であり、応答確認内容の「ご注文は
ハンバーガを1つ、コーヒーを1つですね」のテキスト
情報をt0の時点まで表示する。次いで人物像と音声応
答を開始する時点のt0に内容可視化情報を新しく更新
しハンバーガ3つ、コーヒー2つ、コーラ1つを表示す
るようにする。また、人物像は音声の発声に合わせてt
0からt3まで口を動かすように制御する。
In FIG. 31, one hamburger and one cola have already been prepared.
In this case, the text information of "the order is one hamburger and one coffee" is displayed until the time t0. Next, the content visualization information is updated anew at t0 when the human image and voice response are started, and three hamburgers, two coffees, and one cola are displayed. Also, the person image is t
The mouth is controlled to move from 0 to t3.

【0116】この例で示した時間制御は音声応答の長さ
を基準に決められている。すなわち、図30では「いら
っしゃいませ」によりt0からt1まで、「ご注文をど
うぞ」によりt1からt2までの継続時間が決まる。こ
のそれぞれの継続時間は音声応答生成部135で決まる
ものであり、音声応答信号とその継続時間が出力統合制
御部137に送られ時間制御に利用される。ここで述べ
た他にも呈示する内容可視化情報や人物像の画像の表示
時間を基準に時間制御を行なうことも可能である。
The time control shown in this example is determined based on the length of the voice response. That is, in FIG. 30, the duration from t0 to t1 is determined by "Welcome," and the duration from t1 to t2 is determined by "Please place an order." The respective durations are determined by the voice response generation unit 135, and the voice response signal and the duration are sent to the output integrated control unit 137 and used for time control. In addition to the above, it is also possible to perform time control based on the content visualization information to be presented or the display time of a human image.

【0117】図32は、最初の注文を受けた後の全注文
の確認の場面の制御であり、確認する品目はハンバーガ
2つ、チーズバーガー1つ、コーヒー3つの3品目であ
る。図32では、応答内容の「ご注文はハンバーガが2
つ、チーズバーガーが1つ、コーヒーが3つですね」の
テキスト情報をt0の時刻で表示するとともに音声応答
と、それに合わせた人物像の口の動作を開始する。音声
の「ご注文は」までは、内容可視化情報の表示は行わな
いが、注文内容を発声し始めるt1の時点で内容可視化
情報として、ハンバーガ2つ、チーズバーガー1つ、コ
ーヒー3つを表示するようにする。また人物像は音声の
発声に合わせてt0からt4まで口を動かすように制御
する。
FIG. 32 shows the control of the scene of confirming all orders after receiving the first order. The items to be confirmed are three items: two hamburgers, one cheeseburger, and three coffees. In FIG. 32, the response content "Order is hamburger 2
, One cheeseburger and three coffees "at the time t0, and start the voice response and the movement of the mouth of the person image in accordance with the voice response. Until the voice "Order", the content visualization information is not displayed, but two hamburgers, one cheeseburger, and three coffees are displayed as the content visualization information at the time t1 when the order is started to be uttered. To do. The human image is controlled so that the mouth is moved from t0 to t4 in accordance with the utterance of the voice.

【0118】ここで、全注文の確認の応答文は応答文生
成部131で生成されるが、確認する品目の数が多くな
ると生成される応答文は長くなり、音声応答の長さも長
くなる。しかし、図32の例において、利用者はt1の
時点で表示される内容可視化情報により、音声応答を最
後まで聞かずとも、システムの応答内容もしくはシステ
ムの状態や理解内容を理解することができるため、内容
可視化情報を表示した後のt1から音声応答が終わるt
4までに出力される情報は利用者にとって冗長な応答で
ある。
Here, the response sentence for confirmation of all orders is generated by the response sentence generation unit 131. However, as the number of items to be confirmed increases, the generated response sentence becomes longer and the length of the voice response becomes longer. However, in the example of FIG. 32, the user can understand the response content of the system or the state or understanding of the system without listening to the voice response to the end by the content visualization information displayed at time t1. The voice response ends from t1 after displaying the content visualization information.
The information output up to 4 is a redundant response for the user.

【0119】このため、本実施例では図33に示すよう
に、全注文の確認で、確認する品目が3つ以上ある場合
は、出力の呈示順序を変え、最初のt0の時点で直前の
応答文テキストを一端消去し、内容可視化情報として、
注文内容であるハンバーガ2つ、チーズバーガー1つ、
コーヒー3つを表示する。次に、この内容可視化情報の
表示の処理が終ったt1の時点で「これでよろしいです
か」という応答文テキストを表示するとともに、人物像
と音声応答を開始する。この例で示した時間制御は、対
話管理部12で生成された出力意味表現のACT情報と
品目数をもとに出力統合制御137で行われ、応答文
は、応答文生成部131で生成される。
For this reason, in this embodiment, as shown in FIG. 33, when all the orders are confirmed and there are three or more items to be confirmed, the output presentation order is changed, and the immediately preceding response is returned at the time t0. The sentence text is deleted once, and as the content visualization information,
2 hamburgers, 1 cheeseburger,
Display three coffees. Next, at time t1 when the display processing of the content visualization information is completed, a response sentence text “Is this OK?” Is displayed, and a human image and voice response are started. The time control shown in this example is performed by the output integrated control 137 based on the ACT information of the output semantic expression generated by the dialog management unit 12 and the number of items, and the response sentence is generated by the response sentence generation unit 131. You.

【0120】またこれは、全注文の確認に限定されるも
のではなく、その他の確認の際に、応答確認内容の品目
が多い場合や複雑でわかりづらい場合にも、最初に視覚
的応答出力を行った後、指示代名詞等を用いて短縮表現
にした音声応答を行うことにより、対話を短時間に効率
的に行うことも可能である。
Further, this is not limited to the confirmation of all orders. In the case of other confirmations, when there are many items of the response confirmation contents or when it is complicated and difficult to understand, the visual response output is first given. After performing the dialogue, the dialogue can be efficiently performed in a short time by giving a short-form voice response using a demonstrative pronoun or the like.

【0121】尚、確認する品目数に代えて、他の音声応
答の長さを示す指標、例えば音声応答中のワード数やモ
ーラ数等、を用いて上述のような応答出力の変更を制御
しても良い。
Note that, instead of the number of items to be confirmed, an index indicating the length of another voice response, for example, the number of words or moras in the voice response, is used to control the change in response output as described above. May be.

【0122】さらに、出力統合制御部137はそれぞれ
の画像表示情報の表示場所を制御している。例えば、画
像出力装置14の画面上で人物像を左上に、内容可視化
情報を右に、テキスト情報を左下に制御し表示すること
が出来る。この表示位置は出力統合制御部137の制御
の基に変更可能である。
Further, the output integration control section 137 controls the display location of each image display information. For example, on the screen of the image output device 14, a person image can be controlled and displayed on the upper left, the content visualization information on the right, and the text information on the lower left. This display position can be changed under the control of the output integrated control unit 137.

【0123】以上のように本発明は、音声の入出力と画
面表示の併用して対話を進めることを特徴としている
が、ここで本発明における画面表示について実際の例を
具体的に説明する。
As described above, the present invention is characterized in that the dialogue is advanced by using both the input and output of voice and the screen display. Here, an actual example of the screen display in the present invention will be specifically described.

【0124】まず、図34は初期画面を示すもので、客
が店頭にいない場合や近くに来ない場合には、「〜へよ
うこそ」など画面に文を表示するのみで、音声応答は出
力しない。
First, FIG. 34 shows the initial screen. When the customer is not at the store or does not come near, only a sentence is displayed on the screen such as "Welcome to" and no voice response is output. .

【0125】ここで、ユーザ(客)がシステム(カウン
ターやドライブスルーの窓口等)に接近したような場
合、例えば、圧力センサー付きのフロアーマットや監視
カメラの画像等のセンサー情報によりユーザを検知する
と、図35に示すようにシステムは「いらっしゃいま
せ、御注文をどうぞ。」と漢字かな混り文で表示すると
ともに、ほほえみの表情の店員を画面上に表示して音声
応答を出力する(図9の状態S0)。
Here, when the user (customer) approaches the system (counter, drive-through window, etc.), for example, if the user is detected by sensor information such as a floor mat with a pressure sensor or an image of a monitoring camera, etc. As shown in FIG. 35, the system displays "Please come and order now." In kanji or kana mixed sentences, and displays a smiley clerk on the screen to output a voice response (FIG. 9). State S0).

【0126】この時、ユーザの検知は、人の動きや位置
を考慮し、特に、立ち止まりを検出した時点で上記の処
理を実行し安心してユーザとの音声対話をスタートさせ
ることが重要である。特に、店員の笑顔は、客をリラッ
クスさせる効果があり、明るい声を合成することも望ま
しい。これらの技術はすでに開発されており、また、録
音された合成音や自然音声を用いることも可能である。
At this time, it is important for the detection of the user to take into account the movement and position of the person, and in particular, to execute the above-described processing when the stop is detected, and to start the voice dialogue with the user with peace of mind. In particular, the smile of the clerk has the effect of relaxing the customer, and it is also desirable to synthesize a bright voice. These techniques have already been developed, and it is also possible to use recorded synthetic sounds and natural sounds.

【0127】この状態から、ユーザが画面を見ながら、
仮に早口で注文を「え〜、ハンバーガを2つとあの〜コ
ーヒーを2つお願いします。あ〜」と行なったとする。
すると、システムでは、図9の状態U0のユーザの発音
を処理するが、いま聞きとれない部分があり、図1に示
す音声理解部11から何の結果も得られないとすると、
対話管理部12ではリジェクトに対応する。
In this state, the user looks at the screen,
Suppose you make a quick order and say, "Eh, please give me two hamburgers and two coffees.
Then, the system processes the pronunciation of the user in the state U0 of FIG. 9, but there is a part that cannot be heard right now, and no result is obtained from the voice understanding unit 11 shown in FIG. 1.
The dialog manager 12 responds to the reject.

【0128】この場合、図36に示すようにシステムは
「はっきり聞きとれませんでした。もう一度お願いしま
す。」と漢字かな混じり文を表示するとともに、申し訳
なさそうな表情の店員を画面上に表示して音声応答す
る。この状態では、システム側は、ユーザの注文を全く
聞きとれず、その時点の注文テーブルは何もない(空)
状態なので、注文に関する画面表示は何もなされない。
また、店員の表情生成は、応答文の関与として出力され
る。この場合、図9のユーザの状態U0から、リジェク
ト対話修正状態S10に移し、ここで応答と表情が決定
されることになる。
In this case, as shown in FIG. 36, the system displays a kanji / kana mixed sentence saying "I couldn't hear clearly. Please try again." And a clerk with an expression that seems to be apologetic is displayed on the screen. And answer voice. In this state, the system cannot hear the user's order at all, and there is no order table at that time (empty).
Since it is in the state, nothing is displayed on the screen regarding the order.
In addition, the generation of the expression of the clerk is output as the involvement of the response sentence. In this case, the process moves from the user state U0 in FIG. 9 to the reject dialogue correction state S10, where the response and the expression are determined.

【0129】次に、このシステムからの応答を受けとっ
たユーザが、前回よりもはっきりとした話し方で「ハン
バーガ2つとコーヒー2つ下さい。」と注文を行なった
とすると、前述した音声理解処理、対話処理が実行さ
れ、入力意味表現と注文テーブルを生成した後、出力意
味表現が決定される。そして、出力意味の応答ACTが
“全確認”となると、次の応答として図37に示す画面
表示と音声応答が併用して行なわれる。
Next, assuming that the user who has received the response from this system places an order of "two hamburgers and two coffees" in a manner clearer than the previous time, the above-described speech understanding processing and interactive processing are performed. Is executed to generate the input semantic expression and the order table, and then the output semantic expression is determined. Then, when the response ACT of the output meaning becomes “all confirmation”, the screen display shown in FIG. 37 and the voice response are performed together as the next response.

【0130】この場合、システムは「御注文は、ハンバ
ーガ2つ、コーヒーを2つですね。」と漢字かな混り文
で表示するとともに、店員の顔を画面上に表示して音声
応答を出力するようになる。この時の店員の表情と音声
応答の感情については、前述したように文と状態を考慮
して決定され、ここでは普通の表情と音声応答が出力さ
れる。また、応答文とともに、注文テーブルの内容が画
面表示され、ユーザは自分の要求した品物かどうか、個
数かを短時間で確認するようになる。
[0130] In this case, the system displays "Your order is two hamburgers and two coffees" in kanji or kana mixed sentences, and displays the clerk's face on the screen and outputs a voice response. I will be. At this time, the expression of the clerk and the emotion of the voice response are determined in consideration of the sentence and the state as described above, and a normal expression and a voice response are output here. In addition, the contents of the order table are displayed on the screen together with the response sentence, and the user can quickly confirm whether or not the item is the item requested by the user and the number of items.

【0131】この場合、品物の表示は、個数を数字で現
さず品物を注文個数だけ並べた状態を画面表示してもか
まわない。ここでは数字の情報が重要なのでハンバーガ
等の品物と同じ高さの領域を設けて数字を表示してい
る。すなわち、個数(数字)についての情報は重要であ
り、ユーザにそのことを自然に伝えられるようにしてい
る。また、数字の表示サイズについても、大きさで大体
の情報が伝えられるので、大きさを変えて表示すること
も有効であり、また、文字情報を併用したり、カラー情
報などを併用して出力することにより、音声応答やテキ
スト応答よりもリアルなイメージを自然に素早くユーザ
に伝えることが可能となり、より高速な確認対話を実現
している。一方、店員に関する人物像については、リア
ルな表情よりも、伝えたいポイントが伝わる情報量のす
くない絵が有効である。また、上記の画像表示は、三次
元グラフィックスを用いても当然に行なうことができ
る。
In this case, the display of the articles may be displayed on the screen in a state in which the articles are arranged by the order quantity without the numbers being represented by numerals. Here, since the numerical information is important, an area having the same height as an article such as a hamburger is provided to display the numerical value. That is, the information on the number (number) is important, and the user can be naturally informed of the information. In addition, as for the display size of numbers, since approximate information is transmitted by size, it is effective to change the size and display it.In addition, it is also possible to use character information or color information together and output By doing so, it is possible to naturally convey a more realistic image to the user more quickly than a voice response or a text response, and a higher-speed confirmation dialog is realized. On the other hand, as for a person image relating to a clerk, a picture with a small amount of information that conveys a point to be conveyed is more effective than a realistic expression. In addition, the above-described image display can be naturally performed using three-dimensional graphics.

【0132】さて、システム側からの注文品を確認され
てユーザが「え〜と、まあ、それでいいや」と少し迷い
ながら発音したとする。すると、システムでは、音声理
解部11からの何の結果も得られないことで、対話管理
部12がリジェクトに対応する。この場合、図38に示
すようにシステムは「すみません。もう一度入力して下
さい。」と漢字かな混り文を表示するとともに、店員を
画面上に表示して音声応答する。この場合のメッセージ
は、上述した図36の場合よりも手短なものであり、音
声対話を手短に伝えるように状態と対話の履歴情報を用
いて応答文が決定される。また、店員の顔の表情につい
ても応答文に対応して、申し訳なさそうなものが出力さ
れる。
Now, it is assumed that the user confirms the order from the system side and sounds a little hesitantly saying "Oh, well, that's okay". Then, in the system, since no result is obtained from the speech understanding unit 11, the dialog management unit 12 responds to the rejection. In this case, as shown in FIG. 38, the system displays a kanji / kana mixed sentence saying "Sorry, please enter again.", And displays a clerk on the screen for voice response. The message in this case is shorter than that in the case of FIG. 36 described above, and the response sentence is determined using the state and the history information of the dialog so as to convey the voice dialog briefly. As for the expression of the clerk's face, an excuse is output corresponding to the response sentence.

【0133】この画面表示のポイントは、現状でシステ
ム側が理解している注文の内容を右側の領域に表示して
いる点である。この注文品の表示は、注文テーブルをそ
のまま表示するので、音声が持つ一過性の欠点を補うこ
とができる。すなわち、追加や置換や削除についての確
認は音声応答、応答文で一部分の局所的な注文について
行なうが、対話の進行に伴う蓄積された注文、確認の結
果である注文品の表示による効果は大きい。
The point of this screen display is that the contents of the order currently understood by the system are displayed in the right area. Since the display of the order product displays the order table as it is, it is possible to make up for the temporary defect of the voice. That is, confirmation of addition, replacement, and deletion is performed for a partial order in the voice response and response sentence, but the effect of displaying the accumulated order and the result of the confirmation as the result of the confirmation is large. .

【0134】そして、このような表示は、前述した対話
管理部12での処理で容易に実現できる。また、部分確
認に視覚表示を用いることも可能であり、注文品の全表
示を続けて別の表示領域で行なうこともできる。さら
に、全注文品の表示を一時的に隠し、部分確認にユーザ
の意識を集中させるために、部分確認の画面表示を行な
うこともできる。すなわち、両者の長所を組み合わせた
表示方法の併用を状況により使い分けて行なうことが効
果的である。
[0134] Such display can be easily realized by the processing in the dialog management section 12 described above. It is also possible to use a visual display for the partial confirmation, and it is also possible to continuously display all the ordered items in another display area. Furthermore, a partial confirmation screen can be displayed to temporarily hide the display of all the ordered items and concentrate the user's consciousness on the partial confirmation. That is, it is effective to use the display method combining the advantages of the two in accordance with the situation.

【0135】この後、ユーザがはっきりした声で「それ
で、いいです。」と発声すると、システムはこれを肯定
と理解して図9のS9に遷移し、図39に示すようにシ
ステムは「ありがとうございました」と漢字かな混り文
を表示するとともに、頭を下げた店員を画面上に表示し
て音声応答し、対話を終了する。
Thereafter, when the user utters "Okay, so" with a clear voice, the system recognizes this as affirmative and shifts to S9 in FIG. 9, and as shown in FIG. Thank you. "And a kanji kana mixed sentence is displayed, and the clerk whose head is bowed down is displayed on the screen to give a voice response and end the dialogue.

【0136】この時の応答文生成、笑顔の生成、おじぎ
をするジェスチャーの生成も、上述したのと同様の処理
により行なう。また、合計金額の表示なども、種々の応
答(音声、画面表示)で行なえる。
At this time, the generation of the response sentence, the generation of the smile, and the generation of the bowing gesture are also performed by the same processing as described above. Also, the display of the total amount and the like can be performed by various responses (voice, screen display).

【0137】なお、上述した図38の確認の場合、図4
0に示すように「はい」、「いいえ」と答を誘導するよ
うに画面表示を行なうのも効果的である。この場合、聞
き返しや訂正の回数の情報が使え、システムは「すみま
せん。御注文はハンバーガを2つ、コーヒーを2つです
か。はいか、いいえでお答え下さい。」のような状況に
応じた対話が行える利点がある。
In the case of the above-described confirmation of FIG. 38, FIG.
It is also effective to display the screen so as to guide the answer “yes” or “no” as shown in FIG. In this case, information on the number of times of reflection and correction can be used, and the system uses a dialogue such as "I'm sorry. Is your order two hamburgers and two coffees? There is an advantage that can be performed.

【0138】図41は、このような実施例での処理手順
を簡単にまとめたものである。
FIG. 41 briefly summarizes the processing procedure in such an embodiment.

【0139】この場合、フロアマット220がユーザを
検知すると、ユーザからの音声入力についてキーワード
検出部21によりキーワードを検出し、単語候補系列2
22を求め、次いで、構文意味解析部22でキーワード
に基づく音声理解を行ない、入力意味表現224を求め
る。そして、さらに対話制御部12で対話と応用分野の
知識による対話処理が行なわれ、出力意味表現226を
求め、これを応答生成部13に与えて、ここでの規則合
成による音声応答出力と画面表示出力とから成るマルチ
モーダルは応答を行う。
In this case, when the floor mat 220 detects a user, a keyword is detected by the keyword detection section 21 with respect to a voice input from the user, and the word candidate sequence 2 is detected.
Then, the syntactic and semantic analysis unit 22 performs speech understanding based on the keyword, and obtains an input semantic expression 224. Further, the dialogue control unit 12 performs a dialogue and a dialogue process based on the knowledge of the application field, obtains an output semantic expression 226, and supplies the output semantic expression 226 to the response generating unit 13, and outputs a voice response by rule synthesis and screen display here. A multimodal consisting of an output and a response.

【0140】以上の説明は、ファースト・フードの注文
の例で行なったが、情報サービスやマルチメディア、ワ
ークステーションおよび通信ネットワークを用いた座席
予約システムなどへの運用も可能である。
Although the above description has been made with reference to the example of ordering fast food, the present invention can be applied to an information service, a multimedia, a workstation, and a seat reservation system using a communication network.

【0141】次に、本発明の他の実施例を図42により
説明する。
Next, another embodiment of the present invention will be described with reference to FIG.

【0142】図42は、本発明の音声対話システムに人
の動き状態を検出する機能を組み込んだものを示してい
る。この場合、人状態検出は、システムが対話を自動的
に始め、そして終了させるのに必要な機能で、対話の開
始、終了におけるユーザの状態や反応を理解すること
で、対話を自然に進めることを可能とするものである。
人状態検出の方法としては、光、超音波、赤外線圧力な
どを処理して行うことが考えられるが、ここでは、大人
一人を検出できるフロアマットを利用した例について述
べる。
FIG. 42 shows a voice dialogue system according to the present invention in which a function of detecting a motion state of a person is incorporated. In this case, human state detection is a function that is necessary for the system to automatically start and end the dialogue, and to understand the user's state and reaction at the start and end of the dialogue so that the dialogue can proceed naturally. Is made possible.
As a method for detecting a human state, it is conceivable to perform processing by processing light, ultrasonic waves, infrared pressure, and the like. Here, an example using a floor mat that can detect one adult will be described.

【0143】図42では、図1で述べたと同様な音声入
力部231、音声理解部232、対話管理部234、応
答生成部235、ディスプレイ236、スピーカ237
の他に人状態検出部233を設ける構成になっている。
In FIG. 42, a speech input unit 231, a speech understanding unit 232, a dialogue management unit 234, a response generation unit 235, a display 236, and a speaker 237 similar to those described in FIG.
In addition, a configuration is provided in which a human state detection unit 233 is provided.

【0144】この場合、人状態検出部233は、図43
に示すようにマットに人が乗っている場合には人状態検
出意味表現1を、マット上から人が降りた状態には人状
態検出意味表現2を出力するようになっていて、これら
の出力を対話管理部234に通知するようにしている。
In this case, the human state detection section 233
As shown in the figure, when a person is on the mat, a human state detection meaning expression 1 is output, and when a person gets off the mat, a human state detection meaning expression 2 is output. Is notified to the dialogue management unit 234.

【0145】対話管理部234は、人状態検出部233
からの人状態検出意味表現の他に、上述した実施例と同
様に音声理解部232からも入力意味表現を取り込み、
対話の知識や対話の履歴情報を用いて確認応答のための
出力意味表現を生成する。
[0145] The dialogue management section 234 includes a human state detection section 233.
In addition to the human state detection meaning expression from, the input meaning expression is also fetched from the speech understanding unit 232 as in the above-described embodiment,
An output semantic expression for acknowledgment is generated using the dialog knowledge and the dialog history information.

【0146】この場合、対話管理部234では音声理解
部232からの入力意味表現と人状態検出部233から
の人状態検出意味表現を受け取る際に、対話の状態によ
りそれぞれの意味表現を順に処理したり、優先的に処理
することができ、ユーザの状態や各種の反応を理解し対
話を進めることができるようになっている。
In this case, when receiving the input meaning expression from the speech understanding unit 232 and the human state detection meaning expression from the human state detection unit 233, the dialog management unit 234 sequentially processes each meaning expression according to the state of the dialog. And can be processed preferentially, so that the user's state and various reactions can be understood and the dialogue can be advanced.

【0147】しかして、ユーザがマットに乗ると人状態
検出部233より人状態検出意味表現1が出力され対話
管理部234に送られる。すると、対話管理部234よ
り挨拶の出力意味表現1が応答生成出力部235に送ら
れ、応答出力として「いらっしゃいませ、ご注文をどう
ぞ」がディスプレイ236およびスピーカ237より出
力される。
Thus, when the user gets on the mat, the human state detection meaning expression 1 is output from the human state detection unit 233 and sent to the dialog management unit 234. Then, the output meaning expression 1 of the greeting is sent from the dialog management unit 234 to the response generation output unit 235, and “Please come and place an order” is output from the display 236 and the speaker 237 as a response output.

【0148】次に、ユーザが「ハンバーガとコーヒー2
つづつ」と入力すると、音声理解部232より入力意味
表現1が出力され対話管理部234に送られる。これに
より対話管理部234では、入力意味表現と注文テーブ
ルの内容を参照し、出力意味表現2を出力し、応答生成
出力部235を通して「ハンバーガ2こにコーヒー2こ
ですね」の応答が出力されるようになる。
Next, the user selects “Hamburger and coffee 2”.
When the user inputs "continuously", the input meaning expression 1 is output from the speech understanding unit 232 and sent to the dialog management unit 234. Thus, the dialogue management unit 234 refers to the input semantic expression and the contents of the order table, outputs the output semantic expression 2, and outputs a response of “hamburger 2 to coffee 2” through the response generation output unit 235. Become so.

【0149】この場合、通常は、図44に示すように
「ハンバーガ2こコーヒー2こですね」「はい」「あり
がとうございました。」というように対話が進んでいく
が、ユーザが途中でマット上から離れてしまったような
場合は図45のようになる。
In this case, normally, the dialogue proceeds as shown in FIG. 44, such as "2 hamburgers and 2 coffees", "Yes" and "Thank you." FIG. 45 shows a case where the user has left the camera.

【0150】すなわち、出力意味表現2の「ハンバーガ
2こにコーヒー2こですね」の応答が出力された後で、
人状態検出部233より人状態検出意味表現2が出力さ
れ、対話管理部234に入力されるようになる。この場
合は、対話管理部234は発話内容の確認を行なわれず
にユーザが立ち去ったことから、注文内容の登録は行な
わずに、出力意味表現4の「ご利用ありがとうございま
した」という自然な応答を出力するようになる。
That is, after the response of the output semantic expression 2 “2 hamburgers and 2 coffees” is output,
The human state detection meaning expression 2 is output from the human state detection unit 233 and input to the dialog management unit 234. In this case, since the user left without confirming the utterance content, the dialog management unit 234 does not register the order content, and outputs a natural response of “Thank you for using” in the output semantic expression 4. Output.

【0151】このようにして、人状態検出部233を対
話管理部234と組み合わせることにより、ユーザの状
態や反応を理解することが可能となり、自然に対話を進
めることができる。
In this way, by combining the human state detection section 233 with the dialog management section 234, it is possible to understand the state and reaction of the user, and the dialog can proceed naturally.

【0152】なお、本実施例では人の状態検出にマット
を用いたが、これに限られるものではなく、監視カメラ
などの他の方法を用いてもよい。
In this embodiment, the mat is used for detecting the state of a person. However, the present invention is not limited to this, and another method such as a surveillance camera may be used.

【0153】次に、このような処理を図46のフローチ
ャートにより説明する。
Next, such processing will be described with reference to the flowchart of FIG.

【0154】この場合、システムは対話管理234にお
いて状態(state)#0,#1,#2,#3を持
ち、初期状態は状態#0である(ステップS281)。
状態#0においては人状態検出意味表現の人状態ACT
が「人存在」であるかを確認し(ステップS282)、
人がいる場合には状態を#1にし、挨拶の出力意味表現
により応答を生成し出力するようになる(ステップS2
83)。
In this case, the system has states # 0, # 1, # 2, and # 3 in the dialogue management 234, and the initial state is state # 0 (step S281).
In state # 0, the human state ACT of the human state detection meaning expression
Is "human presence" (step S282),
If there is a person, the state is set to # 1, and a response is generated and output based on the output meaning expression of the greeting (step S2).
83).

【0155】次に、状態#1において、音声理解部23
2から入力意味表現の発話ACTが注文の場合は(ステ
ップS284,S285)、対話知識に基づいて注文内
容の確認の出力意味表現を送出し応答を出力するように
なる。また、発話ACTがはいの場合は(ステップS2
87)、状態を#2にするとともに、発話アクトはいに
対応する出力意味表現により応答を出力するようになる
(ステップS288)。また、発話ACTがいいえの場
合は(ステップS289)、注文内容の再確認の出力意
味表現を送出し応答を出力するようになる。さらに、人
状態検出意味表現の人状態ACTが「人不在」であるこ
とを確認した場合は(ステップS291)、状態を#3
にする。
Next, in the state # 1, the speech understanding unit 23
If the utterance ACT of the input semantic expression is an order from Step 2 (steps S284 and S285), an output semantic expression for confirming the contents of the order is transmitted based on the conversation knowledge, and a response is output. If the utterance ACT is yes (step S2
87) The state is set to # 2, and a response is output in the output semantic expression corresponding to the utterance act yes (step S288). If the utterance ACT is no (step S289), an output meaning expression for reconfirming the order details is transmitted and a response is output. Furthermore, when it is confirmed that the human state ACT of the human state detection meaning expression is “absent” (step S291), the state is changed to # 3.
To

【0156】そして、状態#2においては、お礼1とし
て「ありがとうございました」を出力し(ステップS2
93,S294)、状態#3においては、お礼2として
「ご利用ありがとうございました」を出力するようにな
る(ステップS295,S296)。
Then, in state # 2, "Thank you" is output as thanks 1 (step S2).
93, S294), in state # 3, "Thank you for using" is output as thanks 2 (steps S295, S296).

【0157】次に、本発明の他の実施例を図47により
説明する。
Next, another embodiment of the present invention will be described with reference to FIG.

【0158】この実施例は、図1で述べた音声理解部1
1、応答生成出力部13での音声入出力、人状態検出を
行う部分について詳述するものである。
In this embodiment, the speech comprehension unit 1 described with reference to FIG.
1. A part for performing voice input / output and human state detection in the response generation / output unit 13 will be described in detail.

【0159】この場合、音声対話システム全体は図47
に示すように演算部291、メモリ部292、保存部2
93、保存部インターフェース2931、通信部29
4、通信部インターフェース2941、A/D部29
5、マット部296、演算処理部297、D/A部29
8、表示部299から構成されている。
In this case, the entire speech dialogue system is shown in FIG.
As shown in the figure, the operation unit 291, the memory unit 292, the storage unit 2
93, storage unit interface 2931, communication unit 29
4. Communication unit interface 2941, A / D unit 29
5, mat part 296, arithmetic processing part 297, D / A part 29
8, a display unit 299.

【0160】ここで、A/D部295は、マイク295
1、フィルタ増幅部2952、A/D変換部2953、
A/D変換部インターフェース2954からなってい
る。フィルタ増幅部2952は、マイク2951からの
入力の増幅およびA/D変換のための高域遮断フィルタ
機能を有している。ここでのフィルタの遮断周波数は、
A/D変換のサンプリング周波数で決まるが、例えば1
2kHz でサンプリングする場合には、5.4kHz で
高域周波数成分を遮断するようになる。また、A/D変
換部2953は増幅された入力音声を、例えば16kH
z 又は12kHzでデジタル化し、A/D変換部インタ
ーフェース2954内に一時保存するとともに、演算部
291の制御によりメモリ部292に転送するようにし
ている。
Here, the A / D unit 295 is connected to the microphone 295
1, filter amplifying section 2952, A / D converting section 2953,
An A / D converter interface 2954 is provided. The filter amplifying section 2952 has a high-frequency cutoff filter function for amplifying an input from the microphone 2951 and performing A / D conversion. The cutoff frequency of the filter here is
It is determined by the sampling frequency of A / D conversion.
When sampling at 2 kHz, high frequency components are cut off at 5.4 kHz. The A / D converter 2953 converts the amplified input sound to, for example, 16 kHz.
The data is digitized at z or 12 kHz, temporarily stored in the A / D converter interface 2954, and transferred to the memory 292 under the control of the arithmetic unit 291.

【0161】マット部296はマット2961、マット
制御部2962、マット制御部インターフェース296
3からなっていて、マット2961上での人の存在/不
在をマット制御部2962で検出し、この結果をマット
制御部インターフェース2963を通じて転送するよう
にしている。
The mat section 296 includes a mat 2961, a mat control section 2962, and a mat control section interface 296.
The presence / absence of a person on the mat 2961 is detected by the mat control unit 2962, and the result is transferred through the mat control unit interface 2963.

【0162】演算処理部297は、高速演算処理部29
71、高速演算処理部インターフェース2972からな
っている。高速演算処理部2971は音声理解処理、応
答生成処理さらには画像処理による人状態検出処理など
の大量な演算に必要な処理に使用する。この場合、この
ような処理は、同時に処理する必要があり、複数の高速
演算処理部2971を同時に使用できるようにしてい
る。また、それぞれの演算処理は、演算部291の制御
の下に入力データをメモリ部292から高速演算処理部
2971に転送し、処理終了後に結果をメモリ部292
に転送するようにしている。
The arithmetic processing section 297 is provided with a high-speed arithmetic processing section 29.
71, a high-speed processing unit interface 2972. The high-speed arithmetic processing unit 2971 is used for processing necessary for a large amount of arithmetic such as voice understanding processing, response generation processing, and human state detection processing by image processing. In this case, such processing needs to be performed simultaneously, so that a plurality of high-speed operation processing units 2971 can be used simultaneously. In each arithmetic processing, the input data is transferred from the memory unit 292 to the high-speed arithmetic processing unit 2971 under the control of the arithmetic unit 291, and the result is stored in the memory unit 292 after the processing is completed.
To be forwarded to.

【0163】D/A部298はD/A変換部インターフ
ェース2981、D/A変換部2982、フィルタ増幅
部2983、スピーカ2984からなり、演算部291
の制御の下でメモリ部292に記憶されたデジタルデー
タをD/A変換部インターフェース2981を通じてD
/A変換部2982に転送し、ここで一定周期、例えば
12kHz でアナログデータに変換し、フィルタ増幅部
2983を通してスピーカ2984に出力するようにし
ている。この場合、D/A変換部2982はデータの一
時保存部を有し、メモリ部292からのデータ転送を高
速に行うことで、演算部291が他の処理も行うことが
できるようにしている。
The D / A section 298 comprises a D / A conversion section interface 2981, a D / A conversion section 2982, a filter amplification section 2983, and a speaker 2984.
The digital data stored in the memory unit 292 is controlled by the D / A conversion unit interface 2981 under the control of
/ A conversion unit 2982, where the data is converted into analog data at a constant period, for example, 12 kHz, and output to the speaker 2984 through the filter amplification unit 2983. In this case, the D / A conversion unit 2982 has a data temporary storage unit, and performs high-speed data transfer from the memory unit 292 so that the arithmetic unit 291 can perform other processing.

【0164】表示部299は表示制御部インターフェー
ス2991、表示制御部2992、ディスプレイ299
3からなり、演算部291の制御の下で画像、文字、図
形、動画情報、色や輝度、濃度情報の変化などの情報を
表示制御部2992よりディスプレイ2993に表示す
るようにしている。
The display unit 299 includes a display control unit interface 2991, a display control unit 2992, and a display 299.
Under the control of the arithmetic unit 291, information such as images, characters, graphics, moving image information, changes in color, brightness, and density information is displayed on the display 2993 by the display control unit 2992.

【0165】通信部294は、外部の計算機、情報処理
器、サービス処理機器などと制御情報データの通信を行
うもので、各データは演算部291の制御により通信部
インターフェース2941を通じてやり取りされる。
The communication unit 294 communicates control information data with an external computer, information processing device, service processing device, and the like. Each data is exchanged through the communication unit interface 2941 under the control of the arithmetic unit 291.

【0166】保存部293は、演算部291の制御の下
に音声理解、対話管理、応答生成に必要なデータ、制御
情報、プログラム、中間情報などを保存している。
The storage unit 293 stores data, control information, programs, intermediate information, and the like necessary for speech understanding, dialog management, and response generation under the control of the arithmetic unit 291.

【0167】演算部291はメモリ部292に記憶され
た各部の情報、実行プログラム、そのためのプログラム
を使用してA/D部295、マット部296、演算処理
部297、D/A部298、通信部294、保存部29
3の制御を行うようにしている。
The arithmetic section 291 uses the information of each section, the execution program, and the program for the information stored in the memory section 292 to execute the A / D section 295, the mat section 296, the arithmetic processing section 297, the D / A section 298, and the communication section. Unit 294, storage unit 29
3 is performed.

【0168】ここで、演算部291が実行するプログラ
ムは、図1で述べた音声理解部11、対話管理部12、
応答生成出力部13での処理を行い、マルチタスクの形
式で実行される。そのためのタスクの切り替えは、一定
時間ごとに順次行われるが、各部の処理や入出力が完了
した場合など、処理を優先させる必要がある場合には、
割り込みにより、その処理を優先させる。
Here, the program executed by the operation unit 291 includes the speech understanding unit 11, the dialog management unit 12,
The processing in the response generation / output unit 13 is performed, and the processing is executed in a multitask format. The task switching for that is performed sequentially at regular intervals, but when it is necessary to give priority to the processing, such as when the processing of each unit or input / output is completed,
Priority is given to that processing by interruption.

【0169】上述ではA/D部295、D/A部298
については、それぞれ個別に動作できるようにしてい
る。これにより、音声入力、合成音出力を同時に、しか
も別々に取り扱うことができるので、合成音出力中でも
音声入力が可能となり、合成音キャンセルにより入力音
声の検出および認識が可能になる。
In the above description, the A / D section 295 and the D / A section 298
Can be operated individually. As a result, the voice input and the synthesized voice output can be handled simultaneously and separately, so that the voice input can be performed even during the synthesized voice output, and the input voice can be detected and recognized by canceling the synthesized voice.

【0170】しかし、これらA/D部295、D/A部
298の構成として、図48(a)に示すように共通の
A/D、D/A変換部インターフェース301を用いる
ようにしたり、図48(b)に示すように共通のA/
D、D/A変換部インターフェース302、A/D、D
/A変換フィルタ部303および増幅部304を用いる
ようにしてもよい。
However, as a configuration of the A / D section 295 and the D / A section 298, a common A / D and D / A conversion section interface 301 may be used as shown in FIG. 48 (b), the common A /
D, D / A converter interface 302, A / D, D
The / A conversion filter section 303 and the amplification section 304 may be used.

【0171】ところが、このような構成では、データの
やり取りを同時に双方向でできず、入力か出力のどちら
かに限られてしまうため、合成音出力中の音声入力の受
付けと同時に合成音を出力することができない。
However, in such a configuration, data cannot be exchanged in both directions at the same time and is limited to either input or output. Therefore, the synthesized sound is output simultaneously with the reception of the voice input during the output of the synthesized sound. Can not do it.

【0172】この場合、ユーザは音声入力の受付け状態
を知る手段がないときに、受付けられていない発話につ
いての応答を待ったり、発話の前半が入力されなかった
りする不都合が生じる。そこで、音声の入出力許可状態
を画像表示することによりユーザに対して計算機側が音
声の入出力許可状況を伝えることができる。特に、画像
表示と文字表示を組み合わせることで、例えば、図49
に示すように「くちびる」と「SPEAK」により発声
できる状態、図50に示すように封止された「くちび
る」と「LISTEN」により発声できない状態をそれ
ぞれ表示することができる。
In this case, when the user has no means of knowing the state of accepting the voice input, inconveniences such as waiting for a response to an unaccepted utterance or not inputting the first half of the utterance occur. Therefore, by displaying the audio input / output permission state as an image, the computer side can inform the user of the audio input / output permission state. In particular, by combining image display and character display, for example, FIG.
As shown in FIG. 50, it is possible to display a state in which utterance can be performed by "lips" and "SPEAK", and a state in which lips cannot be produced by "lips" and "LISTEN" as shown in FIG.

【0173】このように各入出力機器の状態、状況を別
の出力機器により伝えることができ、より自然で分かり
やすい対話が可能になる。さらに、各入出力機器の状況
だけでなく、ユーザに対し重要なことで注意して聞いて
もらう必要がある場合や対話管理において音声入力を行
ってほしくない場合などにも画像表示と文字表示の組み
合わせや、さらに色や輝度、濃度の変化などにより注意
を促すことができる。
As described above, the status and status of each input / output device can be transmitted by another output device, and a more natural and easy-to-understand conversation can be performed. Furthermore, not only the status of each input / output device, but also when the user needs to listen carefully for important matters or when he / she does not want to use voice input in dialogue management, etc. Attention can be drawn by a combination or a change in color, luminance, or density.

【0174】本発明は、上記実施例にのみ限定されず、
要旨を変更しない範囲で、適宜変形して実施できる。
The present invention is not limited only to the above embodiments,
The present invention can be appropriately modified and implemented without changing the gist.

【0175】[0175]

【発明の効果】以上説明したように、本発明では、シス
テム側からユーザへ応答を出力する際に、音声応答の他
に、人物(の顔)を表示システムに対する親近感を持た
せると同時に音声応答と同期して口を動かし、ユーザの
注目点を定め、使い勝手を向上させている。また、同一
画面上に、音声応答の品質の低さをカバーするため音声
応答文もテキスト・データの形で表示し、音声の発話速
度よりも速くユーザは応答文を受けとることを可能とす
る。さらに、同一画面上に応答内容を視覚化(Visu
alization)したものを表示し、種々の応用に
適した形態で伝達すべき重要なメッセージの意味や内容
を、人物表示音声応答や音声応答文と同期させて出力す
ることにより、ユーザが一見してわかるようなシステム
側からユーザへの高速なメッセージの伝達が実現でき
る。
As described above, according to the present invention, when a response is output from the system side to the user, in addition to the voice response, the person (face) is given a sense of closeness to the display system, and at the same time, the voice is output. The mouth is moved in synchronization with the response to determine the user's attention and improve the usability. Also, on the same screen, a voice response sentence is displayed in the form of text data in order to cover the low quality of the voice response, so that the user can receive the response text faster than the voice utterance speed. Furthermore, the response content is visualized on the same screen (Visu
display of the important message to be transmitted in a form suitable for various applications in synchronism with the voice response and voice response of the person display, so that the user can see at a glance High-speed transmission of messages from the system side to the user can be realized.

【0176】以上のように種々の形態の応答をシステム
側から同一画面上に並行にユーザに出力するため、ユー
ザは状況に応じて適当な個々の応答を選択したり、2種
類、あるいは、3種類の形態の応答データを同時に受け
とることが可能となり各メディアの有する特徴を活かす
という効果が得られ、ユーザにとっての自由度が増し、
使い勝手のよいマルチモーダルなヒューマンインターフ
ェースが実現できる。
As described above, since various types of responses are output from the system side to the user in parallel on the same screen, the user selects appropriate individual responses according to the situation, or selects two or three types of responses. It is possible to receive response data of various types at the same time, and it is possible to obtain the effect of utilizing the characteristics of each media, increasing the degree of freedom for the user,
An easy-to-use multi-modal human interface can be realized.

【0177】この結果、従来問題であった音声対話シス
テムの音声確認部の誤確認や曖昧性に基づく不完全さ
を、対話によりスピーディに効率的にカバーし、対話の
進行により、ユーザの意図していることの理解が容易に
なる。
As a result, imperfections based on erroneous confirmation and ambiguity of the speech confirmation unit of the speech dialogue system, which were problems in the past, can be quickly and efficiently covered by the dialogue, and the user's intention can be determined by the progress of the dialogue. It becomes easy to understand that.

【0178】また、入力側にマットやカメラ等による人
状態検出手段を設け、ユーザ検出とともに、単に合成音
を出すだけではなく表示画面上の人物の顔を明るくし、
笑顔にするようにもできるので、対話のタイミングが良
くなるばかりでなく、ユーザが驚かずに安心して使える
ユーザフレンドリーな音声インターフェースが実現でき
る。さらに、マルチモーダル音声対話システムに適用す
ることにより、使い勝手の良い自然なシステムが得ら
れ、コンピュータの操作性が著しく向上するという効果
が得られる。
Further, a human state detecting means such as a mat or a camera is provided on the input side to not only emit a synthetic sound but also brighten the face of a person on the display screen upon user detection.
Since it is possible to make the user smile, not only the timing of the dialogue is improved, but also a user-friendly voice interface that can be used with ease without the user being surprised can be realized. Further, by applying the present invention to a multi-modal voice interaction system, a natural system that is easy to use is obtained, and the effect of significantly improving the operability of a computer is obtained.

【0179】また、音声応答のキャンセル機能を加える
ことにより、音声応答中にでも画面表示結果をユーザが
みて、常時、割り込む(Interrupt)ことが可
能になり、スピーディーな音声による対話が可能であ
り、音声認識性能が低い場合でも対話のやり取りでカバ
ーし、意図の伝達やデータ入力の能率を大幅に改善でき
る。
Also, by adding a voice response cancel function, the user can always see the screen display result even during a voice response and interrupt (Interrupt), thereby enabling speedy voice interaction. Even if the voice recognition performance is low, it can be covered by dialogue exchanges, and the efficiency of communication of intention and data input can be greatly improved.

【0180】以上を総合すると本発明では、音声認識と
音声合成と対話管理機能を具備する音声対話システムに
おいて、システム側からユーザへの応答に際して時系列
情報である音声応答と並行して、応答内容の可視化を行
い、特に、表情やジェスチャーの表示、品物やサイズ、
種別等の対償物(オブジェクト)の表示、応答文の文字
出力を並行して行うことができることから、ユーザは同
時に様々な観点から応答を受け取ることがてきるように
なり、自由度が増し、必要に応じて正確な情報を選択で
き、親しみ易さ、効率、快適さの改善、目や耳の疲労度
の軽減等に効果的である。
Summarizing the above, the present invention provides a speech dialogue system having speech recognition, speech synthesis, and dialogue management functions. And visualization of facial expressions and gestures, items and sizes,
Since the display of the compensation object (object) such as the type and the character output of the response sentence can be performed in parallel, the user can receive the response from various viewpoints at the same time, and the degree of freedom increases. Accurate information can be selected as needed, which is effective for improving familiarity, efficiency, and comfort, and reducing eyes and ear fatigue.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の概略構成を示す図。FIG. 1 is a diagram showing a schematic configuration of an embodiment of the present invention.

【図2】音声理解部の詳細構成を示す図。FIG. 2 is a diagram showing a detailed configuration of a speech understanding unit.

【図3】キーワード候補系列を説明するための図。FIG. 3 is a diagram illustrating a keyword candidate sequence.

【図4】入力意味表現の一例を示す図。FIG. 4 is a diagram showing an example of an input meaning expression.

【図5】キーワードの内容を示す図。FIG. 5 is a diagram showing the contents of a keyword.

【図6】出力意味表現の一例を示す図。FIG. 6 is a diagram showing an example of an output semantic expression.

【図7】注文テーブルの一例を示す図。FIG. 7 is a diagram showing an example of an order table.

【図8】旧注文テーブルの一例を示す図。FIG. 8 is a diagram showing an example of an old order table.

【図9】対話管理部の内部における状態遷移の一例を示
す図。
FIG. 9 is a diagram showing an example of a state transition inside a dialog management unit.

【図10】ユーザ状態の処理を説明するためのフローチ
ャート。
FIG. 10 is a flowchart illustrating processing in a user state.

【図11】システム状態の処理を説明するためのフロー
チャート。
FIG. 11 is a flowchart for explaining processing in a system state.

【図12】対話処理の具体的な例を示す図。FIG. 12 is a diagram showing a specific example of the dialog processing.

【図13】図12に示す対話処理におけるユーザ状態の
処理を説明するための図。
FIG. 13 is a view for explaining processing of a user state in the interactive processing shown in FIG. 12;

【図14】対話処理におけるシステム状態の処理を説明
するための図。
FIG. 14 is a view for explaining processing of the system state in the interactive processing.

【図15】図14における対話処理の具体的な例を示す
図。
FIG. 15 is a view showing a specific example of the dialog processing in FIG. 14;

【図16】システムからの出力応答文の例を示す図。FIG. 16 is a diagram showing an example of an output response sentence from the system.

【図17】ユーザの発声速度の求め方を説明する図。FIG. 17 is a view for explaining how to determine a user's utterance speed;

【図18】対話管理部の出力の一例を示す図。FIG. 18 is a diagram illustrating an example of an output of a dialog management unit.

【図19】応答生成出力部の詳細構成を示す図。FIG. 19 is a diagram showing a detailed configuration of a response generation output unit.

【図20】人物像情報の一例を示す図。FIG. 20 is a diagram showing an example of person image information.

【図21】応答文型の例を示す図。FIG. 21 is a diagram showing an example of a response sentence pattern.

【図22】応答文生成部における応答文の生成のフロー
チャートと具体例を示す図。
FIG. 22 is a diagram illustrating a flowchart and a specific example of generating a response sentence in a response sentence generation unit.

【図23】人物像表情決定部の一例を示す図。FIG. 23 is a diagram illustrating an example of a person image expression determining unit.

【図24】感情・強調決定部の一例を示す図。FIG. 24 is a diagram illustrating an example of an emotion / emphasis determination unit.

【図25】音声応答生成部の詳細構成を示す図。FIG. 25 is a diagram showing a detailed configuration of a voice response generation unit.

【図26】基本周波数パターンモデルの一例を示す図。FIG. 26 is a diagram showing an example of a fundamental frequency pattern model.

【図27】喜びを併う応答の場合の基本周波数パターン
の変化を示す図。
FIG. 27 is a diagram showing a change in a fundamental frequency pattern in the case of a response accompanied by joy.

【図28】悲しみを併う応答の場合の基本周波数パター
ンの変化を示す図。
FIG. 28 is a diagram showing a change in a fundamental frequency pattern in the case of a response with sadness.

【図29】音声波形生成部の具体的構成の一例を示す
図。
FIG. 29 is a diagram showing an example of a specific configuration of an audio waveform generation unit.

【図30】出力呈示順序の時間制御の例を示すタイミン
グチャート。
FIG. 30 is a timing chart showing an example of time control of an output presentation order.

【図31】出力呈示順序の時間制御の他の例を示すタイ
ミングチャート。
FIG. 31 is a timing chart showing another example of time control of the output presentation order.

【図32】出力呈示順序の時間制御の他の例を示すタイ
ミングチャート。
FIG. 32 is a timing chart showing another example of time control of the output presentation order.

【図33】出力呈示順序の時間制御の他の例を示すタイ
ミングチャート。
FIG. 33 is a timing chart showing another example of time control of the output presentation order.

【図34】表示画面での表示例を示す図。FIG. 34 is a view showing a display example on a display screen.

【図35】表示画面での表示例を示す図。FIG. 35 is a view showing a display example on a display screen.

【図36】表示画面での表示例を示す図。FIG. 36 is a view showing a display example on a display screen.

【図37】表示画面での表示例を示す図。FIG. 37 is a view showing a display example on a display screen.

【図38】表示画面での表示例を示す図。FIG. 38 is a view showing a display example on a display screen.

【図39】表示画面での表示例を示す図。FIG. 39 is a view showing a display example on a display screen.

【図40】表示画面での表示例を示す図。FIG. 40 is a view showing a display example on a display screen.

【図41】対話処理の手順を簡単にまとめて示す図。FIG. 41 is a view simply showing the procedure of the dialog processing;

【図42】本発明の他の実施例の概略構成を示す図。FIG. 42 is a view showing a schematic configuration of another embodiment of the present invention.

【図43】人状態検出部を説明するための図。FIG. 43 is a view for explaining a human state detection unit;

【図44】図42に示す他の実施例の動作を説明するた
めの図。
FIG. 44 is a view for explaining the operation of the other embodiment shown in FIG. 42;

【図45】図42に示す他の実施例の動作を説明するた
めの図。
FIG. 45 is a view for explaining the operation of the other embodiment shown in FIG. 42;

【図46】図42に示す他の実施例の動作を説明するた
めのフローチャート。
FIG. 46 is a flowchart for explaining the operation of the other embodiment shown in FIG. 42;

【図47】本発明の他の実施例の概略構成を示す図。FIG. 47 is a view showing a schematic configuration of another embodiment of the present invention.

【図48】図47に示す他の実施例の一部を変形した例
を示す図。
FIG. 48 is a view showing an example in which a part of another embodiment shown in FIG. 47 is modified.

【図49】表示画面での表示例を示す図。FIG. 49 is a view showing a display example on a display screen.

【図50】表示画面での表示例を示す図。FIG. 50 is a view showing a display example on a display screen.

【符号の説明】[Explanation of symbols]

11,232 音声理解部 12,234 対話管理部 13,235 応答生成部 14,236 ディスプレイ 15,237 スピーカ 21 キーワード検出部 21a 音声分析部 21b キーワードスポッティング処理部 22 構文意味解析部 22a 文始端判定部 22b 文候補解析部 22c 文終端判定部 22d 文候補テーブル 231 音声入力部 233 人状態検出部 291 演算部 292 メモリ部 293 保存部 294 通信部 295 A/D部 296 マット部 297 演算処理部 298 D/A部 299 表示部 11,232 Voice comprehension unit 12,234 Dialogue management unit 13,235 Response generation unit 14,236 Display 15,237 Speaker 21 Keyword detection unit 21a Voice analysis unit 21b Keyword spotting processing unit 22 Syntax / meaning analysis unit 22a Sentence start determination unit 22b Sentence candidate analysis unit 22c Sentence end determination unit 22d Sentence candidate table 231 Voice input unit 233 Human state detection unit 291 Operation unit 292 Memory unit 293 Storage unit 294 Communication unit 295 A / D unit 296 Mat unit 297 Operation unit 298 D / A Part 299 Display part

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 17/60 336 G10L 3/00 571U (72)発明者 坪井 宏之 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 貞本 洋一 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 山下 泰樹 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内 (72)発明者 永田 仁史 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内 (72)発明者 瀬戸 重宣 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 新地 秀昭 東京都青梅市新町1385番地 東芝ソフトウ ェアエンジニアリング株式会社内 (72)発明者 橋本 秀樹 東京都青梅市新町1385番地 東芝ソフトウ ェアエンジニアリング株式会社内──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification FI FI Theme Court ゛ (Reference) G06F 17/60 336 G10L 3/00 571U (72) Inventor Hiroyuki Tsuboi Komukai Toshiba-cho, Kochi-ku, Kawasaki-shi, Kanagawa Prefecture. No. 1 In the Toshiba R & D Center (72) Inventor Yoichi Sadamoto 1 in Komukai Toshiba-cho, Koyuki-ku, Kawasaki-shi, Kanagawa Prefecture In-house Toshiba R & D Center (72) Inventor Yasuki Yamashita Kita-ku, Osaka-shi, Osaka 1-1-30 Oyodonaka Toshiba Kansai Branch Office (72) Inventor Hitoshi Nagata 1-1-30 Oyodonaka Kita-ku, Osaka-shi, Osaka Toshiba Kansai Branch Office (72) Inventor Shigenori Seto Kanagawa (1) Inventor Hideaki Shinchi 1385, Shinmachi, Ome-shi, Tokyo Toshiba Pier E A Engineering within Co., Ltd. (72) inventor Hideki Hashimoto Ome, Tokyo Shinmachi 1385 address Toshiba software engineering within Co., Ltd.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 入力が与えられ該入力の意味内容を理解
する理解手段と、 前記理解手段の理解結果に基づいて応答内容の意味的な
決定を行う対話管理手段と、 前記対話管理手段で決定された応答内容に基づいて音声
応答出力及び画面表示出力を生成する応答生成手段と、 前記応答生成手段で生成された音声応答出力及び画面表
示出力を出力する出力手段とを具備することを特徴とす
る音声対話システム。
1. An understanding means for receiving an input and understanding the meaning of the input, a dialog management means for determining a meaning of a response content based on an understanding result of the understanding means, and a decision made by the dialog management means. Response generation means for generating a voice response output and a screen display output based on the content of the response, and output means for outputting the voice response output and the screen display output generated by the response generation means. Spoken dialogue system.
【請求項2】 入力が与えられ該入力の意味内容を理解
する理解ステップと、 前記理解ステップでの理解結果に基づいて応答内容の意
味的な決定を行う対話管理ステップと、 前記対話管理ステップで決定された応答内容に基づいて
音声応答出力及び画面表示出力を生成する応答生成ステ
ップと、 前記応答生成ステップで生成された音声応答出力及び画
面表示出力を出力する出力ステップとからなることを特
徴とする音声対話方法。
2. An understanding step in which an input is given and the meaning of the input is understood, a dialogue management step of making a semantic determination of a response content based on an understanding result in the understanding step, and a dialogue management step. A response generation step of generating a voice response output and a screen display output based on the determined response content; and an output step of outputting the voice response output and the screen display output generated in the response generation step. Spoken dialogue method.
【請求項3】 音声入力が与えられ該入力される音声の
意味内容を理解する音声理解手段と、 前記音声理解手段の理解結果に基づいて応答内容の意味
的な決定を行う対話管理手段と、 前記対話管理手段で決定された応答内容に基づいて音声
応答出力及び画面表示出力を生成する応答生成手段と、 前記応答生成手段で生成された音声応答出力及び画面表
示出力を出力する出力手段とを具備することを特徴とす
る音声対話システム。
3. A voice comprehension means which is provided with a voice input and understands the meaning of the input voice, a dialogue management means for making a semantic determination of a response content based on an understanding result of the voice understanding means, A response generation unit that generates a voice response output and a screen display output based on the response content determined by the dialog management unit; and an output unit that outputs the voice response output and the screen display output generated by the response generation unit. A speech dialogue system comprising:
【請求項4】 音声入力が与えられ該入力される音声の
意味内容を理解する音声理解ステップと、 前記音声理解ステップでの理解結果に基づいて応答内容
の意味的な決定を行う対話管理ステップと、 前記対話管理ステップで決定された応答内容に基づいて
音声応答出力および画面表示出力を生成する応答生成ス
テップと、 前記応答生成ステップで生成された音声応答出力及び画
面表示出力を出力する出力ステップとからなることを特
徴とする音声対話方法。
4. A voice understanding step in which a voice input is given and the meaning of the input voice is understood, and a dialogue management step in which a response content is semantically determined based on an understanding result in the voice understanding step. A response generation step of generating a voice response output and a screen display output based on the response content determined in the dialog management step; and an output step of outputting the voice response output and the screen display output generated in the response generation step. A speech dialogue method comprising:
JP2000272353A 1991-11-18 2000-09-07 Spoken dialogue method and system Expired - Lifetime JP3667615B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000272353A JP3667615B2 (en) 1991-11-18 2000-09-07 Spoken dialogue method and system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP32947591 1991-11-18
JP3-329475 1991-11-18
JP2000272353A JP3667615B2 (en) 1991-11-18 2000-09-07 Spoken dialogue method and system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP4309093A Division JPH05216618A (en) 1991-11-18 1992-11-18 Voice interactive system

Publications (2)

Publication Number Publication Date
JP2001142484A true JP2001142484A (en) 2001-05-25
JP3667615B2 JP3667615B2 (en) 2005-07-06

Family

ID=26573220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000272353A Expired - Lifetime JP3667615B2 (en) 1991-11-18 2000-09-07 Spoken dialogue method and system

Country Status (1)

Country Link
JP (1) JP3667615B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126784A (en) * 2002-09-30 2004-04-22 P To Pa:Kk Image display apparatus, image display method and program
JP2004126941A (en) * 2002-10-02 2004-04-22 P To Pa:Kk Image display apparatus, image display method and program
JP2005062420A (en) * 2003-08-11 2005-03-10 Nec Corp System, method, and program for content generation
JP2006053470A (en) * 2004-08-16 2006-02-23 Nippon Telegr & Teleph Corp <Ntt> Speech dialog sequence state notation method, program, and speech dialog system
JP2006079624A (en) * 2004-09-09 2006-03-23 At & T Corp System and method for reporting information from automated dialog system
JP2008046570A (en) * 2006-08-21 2008-02-28 Aioi Kiso Kenkyusho:Kk Voice input system
JP2009210703A (en) * 2008-03-03 2009-09-17 Alpine Electronics Inc Speech recognition device
US7809573B2 (en) 2003-05-21 2010-10-05 Panasonic Corporation Voice output apparatus and voice output method
WO2015132829A1 (en) * 2014-03-07 2015-09-11 パナソニックIpマネジメント株式会社 Speech interaction device, speech interaction system, and speech interaction method
JP2019502944A (en) * 2015-11-12 2019-01-31 セマンティック マシーンズ, インク.Semantic Machines, Inc. Dialogue assistance
JP2019101667A (en) * 2017-11-30 2019-06-24 シャープ株式会社 Server, electronic apparatus, control device, control method and program for electronic apparatus
CN111724774A (en) * 2019-03-22 2020-09-29 阿里巴巴集团控股有限公司 Voice interaction method, voice interaction device, vehicle-mounted voice interaction device, equipment and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5701935B2 (en) * 2013-06-11 2015-04-15 富士ソフト株式会社 Speech recognition system and method for controlling speech recognition system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0283727A (en) * 1988-09-21 1990-03-23 Matsushita Electric Ind Co Ltd Voice interaction equipment
JPH0340000A (en) * 1989-07-07 1991-02-20 Matsushita Refrig Co Ltd Sound recognition system
JPH0344690A (en) * 1989-07-13 1991-02-26 N T T Data Tsushin Kk Conversation manner education system
JPH03233676A (en) * 1990-02-09 1991-10-17 Oki Techno Syst Lab:Kk Conversation control system
JPH05216618A (en) * 1991-11-18 1993-08-27 Toshiba Corp Voice interactive system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0283727A (en) * 1988-09-21 1990-03-23 Matsushita Electric Ind Co Ltd Voice interaction equipment
JPH0340000A (en) * 1989-07-07 1991-02-20 Matsushita Refrig Co Ltd Sound recognition system
JPH0344690A (en) * 1989-07-13 1991-02-26 N T T Data Tsushin Kk Conversation manner education system
JPH03233676A (en) * 1990-02-09 1991-10-17 Oki Techno Syst Lab:Kk Conversation control system
JPH05216618A (en) * 1991-11-18 1993-08-27 Toshiba Corp Voice interactive system

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126784A (en) * 2002-09-30 2004-04-22 P To Pa:Kk Image display apparatus, image display method and program
JP2004126941A (en) * 2002-10-02 2004-04-22 P To Pa:Kk Image display apparatus, image display method and program
US7809573B2 (en) 2003-05-21 2010-10-05 Panasonic Corporation Voice output apparatus and voice output method
JP2005062420A (en) * 2003-08-11 2005-03-10 Nec Corp System, method, and program for content generation
JP4535804B2 (en) * 2004-08-16 2010-09-01 日本電信電話株式会社 Spoken dialogue sequence state notation method, program, and spoken dialogue apparatus
JP2006053470A (en) * 2004-08-16 2006-02-23 Nippon Telegr & Teleph Corp <Ntt> Speech dialog sequence state notation method, program, and speech dialog system
JP2006079624A (en) * 2004-09-09 2006-03-23 At & T Corp System and method for reporting information from automated dialog system
US8086462B1 (en) 2004-09-09 2011-12-27 At&T Intellectual Property Ii, L.P. Automatic detection, summarization and reporting of business intelligence highlights from automated dialog systems
US8589172B2 (en) 2004-09-09 2013-11-19 At&T Intellectual Property Ii, L.P. Automatic detection, summarization and reporting of business intelligence highlights from automated dialog systems
JP2008046570A (en) * 2006-08-21 2008-02-28 Aioi Kiso Kenkyusho:Kk Voice input system
JP2009210703A (en) * 2008-03-03 2009-09-17 Alpine Electronics Inc Speech recognition device
WO2015132829A1 (en) * 2014-03-07 2015-09-11 パナソニックIpマネジメント株式会社 Speech interaction device, speech interaction system, and speech interaction method
JPWO2015132829A1 (en) * 2014-03-07 2017-03-30 パナソニックIpマネジメント株式会社 Voice dialogue apparatus, voice dialogue system, and voice dialogue method
JP2019502944A (en) * 2015-11-12 2019-01-31 セマンティック マシーンズ, インク.Semantic Machines, Inc. Dialogue assistance
JP2019101667A (en) * 2017-11-30 2019-06-24 シャープ株式会社 Server, electronic apparatus, control device, control method and program for electronic apparatus
CN111724774A (en) * 2019-03-22 2020-09-29 阿里巴巴集团控股有限公司 Voice interaction method, voice interaction device, vehicle-mounted voice interaction device, equipment and storage medium
CN111724774B (en) * 2019-03-22 2024-05-17 斑马智行网络(香港)有限公司 Voice interaction and vehicle-mounted voice interaction method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP3667615B2 (en) 2005-07-06

Similar Documents

Publication Publication Date Title
US5577165A (en) Speech dialogue system for facilitating improved human-computer interaction
JPH05216618A (en) Voice interactive system
US20220122580A1 (en) Intent recognition and emotional text-to-speech learning
KR102582291B1 (en) Emotion information-based voice synthesis method and device
US20200279553A1 (en) Linguistic style matching agent
Theune et al. Generating expressive speech for storytelling applications
US11289083B2 (en) Electronic apparatus and method for controlling thereof
CN111048062A (en) Speech synthesis method and apparatus
US20120016674A1 (en) Modification of Speech Quality in Conversations Over Voice Channels
JP4729902B2 (en) Spoken dialogue system
Santra et al. Development of GUI for text-to-speech recognition using natural language processing
JP3667615B2 (en) Spoken dialogue method and system
JP2000214764A (en) Finger language mailing device
JP2011504624A (en) Automatic simultaneous interpretation system
US20230099732A1 (en) Computing system for domain expressive text to speech
Delgado et al. Spoken, multilingual and multimodal dialogue systems: development and assessment
KR20220140599A (en) Synthetic speech audio data generated on behalf of a human participant in a conversation
JP2003066991A (en) Method and apparatus for outputting voice recognition result and recording medium with program for outputting and processing voice recognition result recorded thereon
CN116917984A (en) Interactive content output
JPH10326176A (en) Voice conversation control method
JP3667614B2 (en) Spoken dialogue method and system
JP2005215888A (en) Display device for text sentence
JP2005258235A (en) Interaction controller with interaction correcting function by feeling utterance detection
JP2020134719A (en) Translation device, translation method, and translation program
JP2007122510A (en) Presenting device and presenting program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040507

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050406

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080415

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090415

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100415

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100415

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110415

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130415

Year of fee payment: 8

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130415

Year of fee payment: 8