JPH0916800A - 顔画像付き音声対話システム - Google Patents

顔画像付き音声対話システム

Info

Publication number
JPH0916800A
JPH0916800A JP7168544A JP16854495A JPH0916800A JP H0916800 A JPH0916800 A JP H0916800A JP 7168544 A JP7168544 A JP 7168544A JP 16854495 A JP16854495 A JP 16854495A JP H0916800 A JPH0916800 A JP H0916800A
Authority
JP
Japan
Prior art keywords
voice
response
face image
emotion
theme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7168544A
Other languages
English (en)
Inventor
Yoshihiro Sato
義浩 佐藤
Hiroshi Naito
浩 内藤
Kenichi Hagiwara
賢一 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP7168544A priority Critical patent/JPH0916800A/ja
Publication of JPH0916800A publication Critical patent/JPH0916800A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【目的】 発話テーマの変更にも容易に対応し得る、実
用的かつユーザとの自然な対話が可能な顔画像付き音声
対話システムを提供する。 【構成】 入力音声をテキスト情報に変換する音声認識
部11、テキスト情報に対応する応答を生成する応答生
成部12、テキスト情報から音韻コードを生成し応答生
成部12で生成される感情情報から表情情報を生成する
応答制御部13、テキスト情報から音声を合成する音声
合成部14、合成した音声を出力するスピーカ15、上
記音韻コードと表情情報から顔の画像情報を生成する表
情合成部16、その画像情報を出力するモニタ17、ユ
ーザの発話に対する応答の内容を対応付けて格納した辞
書19を設け、これをテーマ毎に適宜選択可能とする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、人間の表情を模
すための顔画像付き音声対話システムに関するものであ
る。
【0002】
【従来の技術】従来、この種の表情を持った音声対話シ
ステムとして、例えば特開平5−216618号公報に
示すものが知られている。これは、図12に示すように
音声理解部31、対話管理部32、応答生成出力部3
3、ディスプレイ34およびスピーカ35等を設け、外
部より音声が入力されると、その意味内容を音声理解部
31で理解し、その意味内容から対話管理部32により
応答内容を決定し、これに応じてディスプレイ34によ
り画面表示出力を行なうとともに、スピーカ35により
音声出力を行なうものである。
【0003】
【発明が解決しようとする課題】しかし、音声認識技術
には誤認識や曖昧性があることから、実用的なシステム
を開発する場合に、不特定のユーザが自由に発する音声
(以下、単に発話ともいう)に対応する応答は簡単には
定義できず、また、どのシステムにも簡単に対応するこ
とができないのが現状であり、業務テーマ毎にシステム
の開発が必要になるという問題がある。さらには、モニ
タに表示される口の形状が発話の音量に関わらず一定で
あり、音声応答に対する表情変化が不自然である、など
の問題もある。したがって、この発明の課題は、業務テ
ーマの変更にも容易に対応し得る実用的なシステムにす
るとともに、ユーザとの自然な対話を可能とすることに
ある。
【0004】
【課題を解決するための手段】このような課題を解決す
るため、請求項1の発明では、顔画像付き音声対話シス
テムで実行すべき業務テーマに応じて、ユーザの発話と
その応答との対応関係を定義してテーブルなどに格納し
ておき、テーマに応じて選択することにより、実用的な
システムの構築を可能としている。音声認識のための辞
書をテーマ別に用意しておき、これを対話中のテーマに
応じて変更可能にする機能を付加することで、音声認識
のための速度,精度を向上させ、実用性を向上させる
(請求項2の発明)。また、請求項1の発明に加えて、
顔画像の口の動作の大きさを、前記出力すべき音声の音
量に応じて可変とする、前記応答に音声として出力すべ
き応答情報の他に、少なくとも感情コードと感情レベル
からなる感情情報を含めた上で、前記顔画像を感情情報
に応じて変化させるか、または前記感情レベルを時間の
経過とともに減衰させる機能を持たせることで、より自
然な対話を可能としている(請求項3,4,5および6
の発明)。
【0005】
【発明の実施の形態】図1はこの発明の実施形態を示す
機能ブロック図である。すなわち、入力音声をテキスト
情報に変換する音声認識部11、音声認識部11で生成
したテキスト情報に対応する応答を生成する応答生成部
12、応答生成部12で生成される応答のうち、音声出
力のためのテキスト情報から音韻コードを生成し、応答
生成部12で生成される感情情報から表情情報を生成す
る応答制御部13、応答生成部12で生成したテキスト
情報から音声を合成する音声合成部14、合成した音声
を出力する音声出力部(スピーカ)15、上記応答生成
部12で生成した音韻コードと表情情報から顔の画像情
報を生成する表情合成部16、表情合成部16で生成し
た画像情報を表示する顔画像表示部(モニタ)17およ
び辞書18,19などから構成される。なお、応答生成
部12には対話中テーマ20およびテーマ履歴21の各
テーブルが、また、応答制御部13には感情状態のテー
ブル22がそれぞれ用意されている。
【0006】このような構成において、音声認識部11
はユーザが発した音声を、辞書18にもとづき、テキス
ト情報に変換する。この処理では、音声内容の理解は行
なわず、一意的に音声をテキスト情報に変換し、応答生
成部12に対しテキスト情報を送る。応答生成部12
は、音声認識部11からのテキスト情報をユーザのシス
テムに対する発話と見なし、辞書19に格納されている
発話キーワードと応答のテーブルと、対話中テーマ2
0,テーマ履歴21の各テーブルにもとづき発話に対す
る応答を生成する。
【0007】応答生成部12は、図2に示すような個々
の業務テーマ別に発話と応答を対として定義したテーブ
ルを有している。この定義にもとづき、音声出力するテ
キスト情報とそれに対応する感情情報(感情コードと感
情レベルのリスト)が生成され、応答制御部13に与え
られる。応答制御部13は、応答生成部12が生成した
応答のうち、音声出力のためのテキスト情報を、例えば
図3に示すような音韻コードテーブルから音韻コードリ
ストに変換する。また、応答生成部12が生成した感情
情報から、感情状態テーブル22を更新する。
【0008】更新した感情状態テーブル22から生成す
る表情情報は、例えば文献(P.Ekman and
W.V.Friesen:「Facial Actio
nCoding System」Consulting
Psychologist Press(197
7))に発表された、図4に示すようなAU(Acti
on Unit)番号のテーブルと、文献(森島「知的
インタフェースのための表情分析・合成とメディア変換
技術」O Plus E,1994年8月)に発表され
た、図5に示すような感情コードと、AU番号と度合い
のリストテーブルにより合成する。この図5では、AU
番号と度合いのリストは括弧内が度合いを示し、0から
100の数値で表わされる。
【0009】次に、生成した表情情報(AU番号とその
度合いのリスト)と、音韻コードリストと、応答生成部
12から与えられる音声出力のためのテキスト情報とか
ら、表情合成部16を音声合成部14と同期して動作さ
せる。音声合成部14は、応答制御部13が生成した音
韻コードとその度合いから音声に変換し、スピーカ15
を通して出力する。表情合成部16は応答制御部13か
ら与えられる表情情報により、多面体で表現された顔の
画像を生成し、音声合成部14と同期をとってモニタ1
7に表示する。
【0010】以下、具体的に説明する。音声認識部11
は、不特定話者が発声する連続音声を認識する。このよ
うな連続音声認識については、例えば文献(平山,平島
「不特定話者、連続音声認識システムの開発とその応
用」International Symposium
“Computer World’91”Septem
ber 24−26,1991,Osaka,Japa
n)に示される手法により実現することができる。現在
の技術では不特定話者,連続音声,大語彙を認識するの
は認識速度,認識精度低下のため現実的ではないので、
予め設定した語彙を持った辞書に基づき認識することに
なる。この実施例では、例えば図6のように常時参照す
る語彙を持つ基本辞書181と、対話中のテーマ毎に参
照する語彙を持つ個別辞書182(182A,182
B,182Cなど)とを用意し、テーマ毎に切り換えて
認識することで、速度と精度の向上を図っている。
【0011】応答生成部12は、音声認識部11が認識
しテキスト情報に変換したユーザからの発話を受け取
り、それに対応する応答を生成し、対話中テーマ20お
よびテーマ履歴21として記憶する。図7は、或るユー
ザとの現在対話中のテーマと、過去の応答の出力テーマ
リストを示すテーブル(20,21)である。図2は、
ユーザの発話とそれに対応する応答を定義したテーブル
の1部を示すものである。すなわち、図2の「発話キー
ワード」は、ユーザの発話とマッチングをとるためのキ
ーワードのリストである。「入力テーマ」には、発話キ
ーワードが図7の「対話中のテーマ」をもとに、有効で
あるか否かをチェックするためのテーマを記述する。
【0012】また、図2の「入力履歴」には、「発話キ
ーワード」が図7の「テーマ履歴」をもとに有効である
か否かをチェックするためのテーマを記述する。「応
答」には、「発話キーワード」に対するシステムの「応
答」を記述する。「感情コード」は、「応答」に対応し
て生成する感情を符号化したものであり、図8に例示す
るような人間の基本的な感情をコード化したものであ
る。「感情レベル」は「感情コード」に対応し、その各
々について0(感情の度合いが最小)〜100(感情の
度合いが最大)の数値で記述する。「出力テーマ」は、
「応答」を行なったときに図7のような「対話中のテー
マ」のテーブル20に設定されるとともに、「テーマ履
歴」のテーブルに追加される。
【0013】ここで、ユーザが例えば「中央食堂ではう
どんが食べられますか」と発話したとする。音声認識部
11は、認識したユーザの発話のテキスト情報「中央食
堂ではうどんが食べられますか」を応答生成部12に送
る。応答生成部12は、テキスト情報「中央食堂ではう
どんが食べられますか」が、図2に示す「発話キーワー
ド」を全て含むかどうかを項目毎にチェックし、全て含
んでいればマッチングした発話キーワードの候補とす
る。全ての項目の「発話キーワード」のチェック後、マ
ッチングした発話キーワードの候補の中からキーワード
の数が最大の「発話キーワード」を、マッチングした発
話キーワードとする。
【0014】マッチングした発話キーワード「中央食
堂」,「うどん」,「食べられますか」には、図2の例
の場合「入力履歴」の記述がないため無条件に有効とし
て、対応する「応答」として、「はい、食べられま
す。」と、感情コード「1,3」、「1,3」、感情レ
ベル「20,10」を応答制御部13に送り、「出力テ
ーマ」に記述された「中央食堂」,「うどん」を図7の
「テーマ履歴」のテーブル21に、図7の「対話中のテ
ーマ」のテーブル20に設定する。図7の「テーマ履
歴」に「中央食堂」,「うどん」が存在しない場合は、
図7の「テーマ履歴」に「中央食堂」,「うどん」を追
加する。テーマ変更により、認識する語彙を持った辞書
を「中央食堂」,「うどん」に変更する。
【0015】応答制御部13は、図3の音韻コードテー
ブルにもとづき、応答「はい、食べられます。」につい
ては、「1,2,0,1,4,1,4,1,3」の音韻
コード列を生成する。なお、図3に示すように、句読点
は発声なしなので0とし、「長音符」は7で示してい
る。また、図9に示す感情状態テーブル22の感情コー
ド「1」の感情レベルには「20」が加算され、同じく
感情コード「3」の感情レベルには「10」が加算され
る。なお、この具体例では、感情レベルの値を図10に
示すように時間の経過に伴って減少させ、自然な感じを
出すようにしている。
【0016】現在の感情状態は図9に示すように、感情
コード「1」は感情レベル「20」で、感情コード
「3」は感情レベル「10」である。感情コードに対す
るAU番号と度合いのリストは図5に示されるので、感
情コード「1」の感情レベル「20」の場合は、感情コ
ード「1」のリストの度合いを0.2(20%)して、
「1(13),6(14),12(2),14(2)」
となる。同様に、感情コード「3」の感情レベル「1
0」の場合は、感情コード「3」のリストの度合いを
0.1(10%)して、「1(4),2(3),5
(6),15(2),16(3),20(1),26
(6)」となる。そして、感情コード「1」に対するA
U番号と度合いのリストと、感情コード「1」に対する
AU番号と度合いのリストとの平均を取り、「1
(9),2(2),5(3),6(7),12(1),
14(1),15(1),16(2),20(1),2
6(3)」とする。
【0017】次に、合成した応答に対するAU番号と度
合いのリストと、図9の現在の感情状態から0以外の感
情コードの感情レベル「20」と「10」の平均値「1
5」を、標準の音声出力の音量に対する増分値(15
%)として図1の表情合成部16に送る。また、標準の
音声出力の音量に対する増分値「15」と、応答生成部
12および応答制御部13を介して与えられる応答「は
い、食べられます。」を、音声出力のためのテキスト情
報として音声合成部14に送る。音声合成部14では、
応答制御部13から与えられたテキスト情報をディジタ
ル/アナログ変換するとともに、標準の音声出力の音量
に対する増分値「15」から音声の音量を標準設定の1
5%増しとして決定し、スピーカ15から音声を出力す
る。
【0018】表情合成部16では、無表情時の人物を表
わした形状の多面体の頂点座標と、図4に示す各AU番
号に対する標準形状の多面体の頂点座標と、図3の各音
韻コードに対する口形の標準形状の多面体の頂点座標を
有しており、応答制御部13からの応答に対応するAU
番号と度合いのリスト「1(9),2(2),5
(3),6(7),12(1),14(1),15
(1),16(2),20(1),26(3)」から、
表情の変化量を決定する。例えば、AU番号「1」は図
4から「眉の内側を上げる」の動作であるが、この例で
はその度合いが「9」であるため、標準の「眉の内側を
上げる」の動作に対して形状変化量を9%とするもので
ある。同様に、応答制御部13から与えられる各AU番
号について上述のように形状変化量を決定し、得られた
変化量を無表情時の人物を表わした形状に対して加算
し、これから表示する人物の形状の多面体の頂点座標を
求める。
【0019】次に、現在表示している人物の形状と、こ
れから表示する人物の形状から中間の形状を補完して生
成し、生成した形状を連続的に表示することにより、表
情を変化させる。表情変化後に、応答制御部13からの
音韻コードリストと感情レベルの平均値「15」から、
音韻コードリストに対応する標準形状の変化量を中間形
状(変化量50%)に加えて65%とし、口形を決定す
る。ここで、表情による口形と音韻コードによる口形と
で、口形に矛盾が発声する場合がある。この場合は、表
情による口形と音韻コードによる口形の平均や加算によ
り口形を決定しても良いが、ここでは、システムの音声
出力に対応する口形を重視し、音韻コードによる口形を
優先させることとする。
【0020】また、口形変化のタイミングとしては、例
えば図11に示すように応答音声出力と同期して動作す
る。具体的には、1個の音韻毎に口形変化と音声出力を
同期させる方法もあるが、そのための経費が増大する。
そこで、図11のように1個の音韻の口形変化時間と音
声出力時間を同一の定数とし、音韻コードリスト単位で
音声合成部14と表情合成部16を同時に動作させるこ
とで、同期をとるが可能となる。なお、1個の口形変化
時間と音声出力時間を同一の変数とすることにより、口
形変化と音声出力の時間を可変とすることもできる。
【0021】その後、ユーザが「他になにか食べられま
すか」と発話したものとすると、図1の音声認識部11
は、認識したユーザの発話のテキスト情報「他になにか
食べられますか」を応答生成部12に送る。応答生成部
12テキスト情報「他になにか食べられますか」が、図
2のテーブルの「発話キーワード」を全て含むか否かを
チェックし、全て含んでいればマッチングした発話キー
ワードの候補とする。全ての「発話キーワード」をチェ
ックし、マッチングした発話キーワードの候補の中から
キーワードの数が最大の「発話キーワード」をマッチン
グした発話キーワードとする。
【0022】マッチングした発話キーワード「他」,
「食べられますか」には、図2の例では「入力テーマ」
の記述「うどん」があるため、「対話中のテーマ」に
「うどん」があるかどうかをチェックする。この例では
前回の応答により「対話中のテーマ」に「うどん」があ
るので、次の処理に移行する。このとき、今回がユーザ
のはじめての発話で「対話中のテーマ」に「うどん」が
設定されていない場合は、発話の内容が分からない旨を
ユーザに通知する。次に、「入力履歴」の記述「中央食
堂」があるため、「テーマ履歴」の中に「中央食堂」が
あるかのチェックを行なう。この例では前回の応答によ
り「テーマ履歴」に「中央食堂」があるため、次の処理
に移る。このとき、今回がユーザのはじめての発話で
「テーマ履歴」に「中央食堂」が設定されていない場合
は、発話の内容が分からない旨をユーザに通知する。そ
の後、マッチングした「発話キーワード」に対応する応
答として、「定食,鉄板焼きが食べられます。」を生成
し、以下、上記と同様の処理を行なう。
【0023】
【発明の効果】この発明によれば、顔画像付き音声対話
システムで実行すべき業務テーマに応じて、ユーザの発
話とその応答との対応関係を定義してテーブルなどに格
納しておき、テーマに応じて選択することで、実用的な
システムの構築が可能となる。音声認識のための辞書を
テーマ別に用意しておき、対話中のテーマに応じて変更
可能にする機能を付加することで、音声認識のための速
度,精度を向上させ、実用性を向上させる。加えて、顔
画像の口の動作の大きさを、前記出力すべき音声の音量
に応じて可変とする、前記応答に音声として出力すべき
応答情報の他に、少なくとも感情コードと感情レベルか
らなる感情情報を含め、前記顔画像を感情情報に応じて
変化させる、さらには前記感情レベルを時間の経過とと
もに減衰させる機能を付加することで、より自然な対話
が可能となる。
【図面の簡単な説明】
【図1】この発明による実施の形態を示すブロック図で
ある。
【図2】発話キーワードと応答テーブル例の一部を示す
説明図である。
【図3】基本的な音韻と音韻コードの対応関係説明図で
ある。
【図4】基本的な表情の動作とAU番号の対応関係説明
図である。
【図5】感情コードとAU番号の度合いの対応関係説明
図である。
【図6】音声認識のための語彙を保存する辞書の例を示
す構成図である。
【図7】対話状態テーブルの例を示す構成図である。
【図8】基本的な感情と感情コードの対応関係説明図で
ある。
【図9】感情状態テーブルの例を示す構成図である。
【図10】感情レベルの時間的変化例を示すグラフであ
る。
【図11】ユーザとシステムとの対話タイミング例を示
すタイムチャートである。
【図12】従来例を示すブロック図である。
【符号の説明】
11…音声認識部、12…応答生成部、13…応答制御
部、14…音声合成部、15…音声出力(スピーカ)、
16…表情合成部、17…顔画像表示(モニタ)、1
8,19…辞書、20,21,22…テーブル。

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 外部より入力される音声を認識しその発
    言内容(発話)を理解して、それに対応する音声応答出
    力を顔画像と併せて出力可能な顔画像付き音声対話シス
    テムにおいて、 前記発話に対応する応答内容をテーブルとして予め定義
    しておき、この定義されたテーブルを種々の業務テーマ
    に応じて選択可能にしたことを特徴とする顔画像付き音
    声対話システム。
  2. 【請求項2】 前記音声認識のための辞書をテーマ別に
    用意しておき、これを対話中のテーマに応じて変更可能
    にしたことを特徴とする請求項1に記載の顔画像付き音
    声対話システム。
  3. 【請求項3】 前記顔画像の口の動作の大きさを、前記
    出力すべき音声の音量に応じて可変とすることを特徴と
    する請求項1に記載の顔画像付き音声対話システム。
  4. 【請求項4】 前記応答には、音声として出力すべき応
    答情報の他に、少なくとも感情コードと感情レベルから
    なる感情情報を含むことを特徴とする請求項1に記載の
    顔画像付き音声対話システム。
  5. 【請求項5】 前記顔画像を感情情報に応じて変化させ
    ることを特徴とする請求項4に記載の顔画像付き音声対
    話システム。
  6. 【請求項6】 前記感情レベルは時間の経過とともに減
    衰させることを特徴とする請求項4に記載の顔画像付き
    音声対話システム。
JP7168544A 1995-07-04 1995-07-04 顔画像付き音声対話システム Pending JPH0916800A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7168544A JPH0916800A (ja) 1995-07-04 1995-07-04 顔画像付き音声対話システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7168544A JPH0916800A (ja) 1995-07-04 1995-07-04 顔画像付き音声対話システム

Publications (1)

Publication Number Publication Date
JPH0916800A true JPH0916800A (ja) 1997-01-17

Family

ID=15869990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7168544A Pending JPH0916800A (ja) 1995-07-04 1995-07-04 顔画像付き音声対話システム

Country Status (1)

Country Link
JP (1) JPH0916800A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11242751A (ja) * 1998-02-24 1999-09-07 Canon Inc アニメーション制御装置及び方法及び文読み上げ装置
JP2000048221A (ja) * 1998-07-29 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> キャラクタのアニメーション化実現方法及びそのプログラムを記録した記録媒体
WO2000010327A1 (en) * 1998-08-11 2000-02-24 4Tv Limited Interactive television control/operating system
JP2001209820A (ja) * 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
US6434525B1 (en) 1998-05-27 2002-08-13 Nec Corporation Human image dialogue device and a recording medium storing a human image dialogue device
JP2003233388A (ja) * 2002-02-07 2003-08-22 Sharp Corp 音声合成装置および音声合成方法、並びに、プログラム記録媒体
US7203558B2 (en) 2001-06-05 2007-04-10 Open Interface, Inc. Method for computing sense data and device for computing sense data
CN103456299A (zh) * 2013-08-01 2013-12-18 百度在线网络技术(北京)有限公司 一种控制语音识别的方法和装置
JP2021168139A (ja) * 2020-12-30 2021-10-21 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド マンマシンインタラクションのための方法、装置、機器および媒体

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63259689A (ja) * 1987-04-17 1988-10-26 松下電器産業株式会社 音声認識応答装置
JPH0283727A (ja) * 1988-09-21 1990-03-23 Matsushita Electric Ind Co Ltd 音声対話装置
JPH04122998A (ja) * 1990-09-13 1992-04-23 Nec Corp 音声理解方式
JPH05216618A (ja) * 1991-11-18 1993-08-27 Toshiba Corp 音声対話システム
JPH05323991A (ja) * 1992-05-26 1993-12-07 Toshiba Corp 音声認識方式
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
JPH06203127A (ja) * 1992-12-30 1994-07-22 Casio Comput Co Ltd モンタージュ出力装置
JPH06208389A (ja) * 1993-01-13 1994-07-26 Canon Inc 情報処理方法及び装置
JPH06337700A (ja) * 1993-05-28 1994-12-06 Fujitsu Ltd 音声合成装置
JPH07104778A (ja) * 1993-10-07 1995-04-21 Fuji Xerox Co Ltd 感情表出装置
JPH07152723A (ja) * 1993-11-30 1995-06-16 Nippon Telegr & Teleph Corp <Ntt> 対話処理装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63259689A (ja) * 1987-04-17 1988-10-26 松下電器産業株式会社 音声認識応答装置
JPH0283727A (ja) * 1988-09-21 1990-03-23 Matsushita Electric Ind Co Ltd 音声対話装置
JPH04122998A (ja) * 1990-09-13 1992-04-23 Nec Corp 音声理解方式
JPH05216618A (ja) * 1991-11-18 1993-08-27 Toshiba Corp 音声対話システム
JPH05323991A (ja) * 1992-05-26 1993-12-07 Toshiba Corp 音声認識方式
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
JPH06203127A (ja) * 1992-12-30 1994-07-22 Casio Comput Co Ltd モンタージュ出力装置
JPH06208389A (ja) * 1993-01-13 1994-07-26 Canon Inc 情報処理方法及び装置
JPH06337700A (ja) * 1993-05-28 1994-12-06 Fujitsu Ltd 音声合成装置
JPH07104778A (ja) * 1993-10-07 1995-04-21 Fuji Xerox Co Ltd 感情表出装置
JPH07152723A (ja) * 1993-11-30 1995-06-16 Nippon Telegr & Teleph Corp <Ntt> 対話処理装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11242751A (ja) * 1998-02-24 1999-09-07 Canon Inc アニメーション制御装置及び方法及び文読み上げ装置
US6434525B1 (en) 1998-05-27 2002-08-13 Nec Corporation Human image dialogue device and a recording medium storing a human image dialogue device
JP2000048221A (ja) * 1998-07-29 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> キャラクタのアニメーション化実現方法及びそのプログラムを記録した記録媒体
WO2000010327A1 (en) * 1998-08-11 2000-02-24 4Tv Limited Interactive television control/operating system
JP2001209820A (ja) * 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
US7203558B2 (en) 2001-06-05 2007-04-10 Open Interface, Inc. Method for computing sense data and device for computing sense data
JP2003233388A (ja) * 2002-02-07 2003-08-22 Sharp Corp 音声合成装置および音声合成方法、並びに、プログラム記録媒体
CN103456299A (zh) * 2013-08-01 2013-12-18 百度在线网络技术(北京)有限公司 一种控制语音识别的方法和装置
JP2021168139A (ja) * 2020-12-30 2021-10-21 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド マンマシンインタラクションのための方法、装置、機器および媒体

Similar Documents

Publication Publication Date Title
CN112204653B (zh) 通过机器学习的直接的语音到语音翻译
TWI413105B (zh) 多語言之文字轉語音合成系統與方法
US20200365137A1 (en) Text-to-speech (tts) processing
US6208356B1 (en) Image synthesis
WO2000058943A1 (fr) Systeme et procede de synthese de la parole
JPH0916602A (ja) 翻訳装置および翻訳方法
KR101153736B1 (ko) 발음기관 애니메이션 생성 장치 및 방법
JP5198046B2 (ja) 音声処理装置及びそのプログラム
JP2022518721A (ja) 発話アニメーションのリアルタイム生成
JP2007183421A (ja) 音声合成装置
US20060229874A1 (en) Speech synthesizer, speech synthesizing method, and computer program
Delgado et al. Spoken, multilingual and multimodal dialogue systems: development and assessment
US20230099732A1 (en) Computing system for domain expressive text to speech
US20200193961A1 (en) System for synchronizing speech and motion of character
Fellbaum et al. Principles of electronic speech processing with applications for people with disabilities
Aylett et al. Building and designing expressive speech synthesis
JPH0916800A (ja) 顔画像付き音声対話システム
JP2003522978A (ja) 手話を音声へ変換する方法及び装置
JPH0772888A (ja) 情報処理装置
WO1999046732A1 (fr) Dispositif de generation d&#39;images en mouvement et dispositif d&#39;apprentissage via reseau de controle d&#39;images
CN115956269A (zh) 语音转换装置、语音转换方法、程序及记录介质
JP3576066B2 (ja) 音声合成システム、および音声合成方法
JP2003084787A (ja) 規則音声合成装置
JPH08335096A (ja) テキスト音声合成装置
JPH1152987A (ja) 話者適応機能を持つ音声合成装置