JP2002311983A - 翻訳電話システム - Google Patents

翻訳電話システム

Info

Publication number
JP2002311983A
JP2002311983A JP2001112132A JP2001112132A JP2002311983A JP 2002311983 A JP2002311983 A JP 2002311983A JP 2001112132 A JP2001112132 A JP 2001112132A JP 2001112132 A JP2001112132 A JP 2001112132A JP 2002311983 A JP2002311983 A JP 2002311983A
Authority
JP
Japan
Prior art keywords
voice
translation
information
speaker
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001112132A
Other languages
English (en)
Inventor
Takeshi Matsuda
猛 松田
Atsushi Nishino
敦士 西野
Gruhn Rainer
グルーン ライナー
Satoru Nakamura
哲 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR ONSEI GENGO TSUSHIN KENKYU
ATR Spoken Language Translation Research Laboratories
Original Assignee
ATR ONSEI GENGO TSUSHIN KENKYU
ATR Spoken Language Translation Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR ONSEI GENGO TSUSHIN KENKYU, ATR Spoken Language Translation Research Laboratories filed Critical ATR ONSEI GENGO TSUSHIN KENKYU
Priority to JP2001112132A priority Critical patent/JP2002311983A/ja
Publication of JP2002311983A publication Critical patent/JP2002311983A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【構成】 互いに異なる言語を母国語とする2人の話者
が電話回線40を介して会話をするとき、各々の話者の
発話音声は、音声翻訳システム10によって取り込まれ
る。音声翻訳システム10は、取り込まれた発話音声に
基づいて各々の話者の母国語および声質を特定し、特定
した母国語に基づいて発話音声を翻訳し、特定した音質
に基づいて翻訳された合成音声の音質を決定する。そし
て翻訳された合成音声を各々の話者に伝える。 【効果】 話者の声質に似た音質の合成音声を生成する
ことができる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、翻訳電話システムに
関し、特にたとえば、互いに異なる言語を使用する2人
の話者の間で電話回線を介して行われる会話を翻訳(通
訳)する、音翻訳システムに関する。
【0002】
【従来の技術】従来のこの種の翻訳電話システムとして
は、各々の話者の性別を特定し、性別に応じた2通りの
音質の合成音声を相手方への出力として使い分けるもの
があった。
【0003】
【発明が解決しようとする課題】しかし、従来の技術で
は発声された音声から話者の性別を判断し、性別に対応
した音質の合成音声を出力することができるが、合成音
声の音質は単調であり相手方の感情の起伏までを読み取
ることができなかった。
【0004】それゆえに、この発明の主たる目的は、話
者の声質の変化に合わせて合成音声の声質を変化させる
ことができる、翻訳電話システムを提供することであ
る。
【0005】
【課題を解決するための手段】この発明は、互いに異な
る言語を使用する複数の話者の間で電話回線を介して行
われる会話を翻訳する翻訳電話システムにおいて、各々
の話者の声質を特定する第1特定手段、各々の話者の発
話音声の内容を翻訳する翻訳手段、第1特定手段の特定
結果および翻訳手段の翻訳結果に基づいて合成音声を作
成する作成手段、および合成音声を出力する出力手段を
備えることを特徴とする、翻訳電話システムである。
【0006】
【作用】この発明においては、発話者の声質に応じた音
質の合成音声が作成される。つまり、第1特定手段は各
々の話者の性別を含む声質を特定する。また、各々の話
者の発話音声は、その内容が翻訳手段によって翻訳され
る。つぎに、作成手段は翻訳手段による翻訳結果および
第1特定手段の特定結果(声質)に基づいて合成音声を
作成する。そして、出力手段は合成音声を出力する。こ
れによって、発話者の声質に応じた音質で翻訳された言
語が合成音声で出力される。
【0007】この発明の好ましい実施例では、音声案内
手段は各々の話者に対して音声案内を行い、第1特定手
段は話者の音声案内に対する返事に基づいて各々の話者
の声質を特定する。
【0008】特定手段によって特定された声質を示す声
質情報をメモリに格納する場合、作成手段はメモリに格
納された声質情報に従って合成音声を作成する。
【0009】発話音声が取り込まれる毎に発話音声の声
質を特定する場合、発話音声の取り込み毎に特定された
声質情報によってメモリの記録内容を更新するようにし
てもよい。
【0010】
【発明の効果】この発明によれば、話者の音声の声質を
特定し、特定された音質に応じた翻訳合成音声が出力さ
れる。したがって、会話中に話者が交代したときには、
その話者の音声の声質に応じた音質の合成音声が出力さ
れるし、会話の途中で感情が変化してきた場合も、その
感情に対応した音質で翻訳された合成音声が出力され
る。
【0011】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
【0012】
【実施例】図1を参照して、この実施例の翻訳電話シス
テム10は、電話回線40に接続される。電話回線40
には、複数の電話機20および30も接続される。ここ
で、電話機20はたとえば日本国内に設置され、日本国
在住の日本人Aによって使用される。また、電話機30
はたとえば米国内に設置され、米国在住のドイツ人B
(またはアメリカ人C)によって使用される。
【0013】日本人Aが翻訳電話システム10を利用し
てドイツ人Bと会話したいとき、日本人Aは、まず翻訳
電話システム10にアクセスする。ドイツ人Bに対する
発呼処理は翻訳電話システム10によって行われ、ドイ
ツ人Bが応答すると、通話可能状態となる。日本人Aの
発話音声は日本語からドイツ語に翻訳され、翻訳された
合成音声がドイツ人Bに伝えられる。逆に、ドイツ人B
の発話音声はドイツ語から日本語に翻訳され、翻訳され
た合成音声が日本人Aに伝えられる。
【0014】図2を参照して、翻訳電話システム10
は、統合管理システム10a,データベースサーバ10
b,複数の音声認識システム10c,10c,…,複数
の言語翻訳システム10d,10d,…および複数の音
声合成システム10e,10e,…およびモデム10f
からなる。この翻訳電話システム10は、分散ネットワ
ークによって構成され、音声認識システム10cによる
音声認識,言語翻訳システム10dによる言語翻訳,お
よび音声合成システム10eによる音声合成によって、
発話音声の翻訳が実現される。
【0015】具体的には、各々の話者(日本人Aおよび
ドイツ人B)の発話音声の内容は、音声認識システム1
0cによって認識される。音声認識システム10はま
た、発話音声の特徴を抽出し、発話元の音声母国語(日
本人Aについては日本語、ドイツ人Bについてはドイツ
語),声質および性別を特定する。特定された母国語情
報,声質情報および性別情報は、データベースサーバ1
0bに登録される。
【0016】言語翻訳システム10dは、認識された発
話音声の内容をデータベースサーバ10bに登録された
母国語情報に基づいて翻訳する。日本人Aについては母
国語情報“日本語”がデータベースサーバ10bに登録
され、日本人Aについては母国語情報“日本語”がデー
タベースサーバ10bに登録される。このため、日本人
Aの発話音声の内容は言語翻訳システム10dによって
ドイツ語に翻訳され、また逆にドイツ国人Bの発話音声
の内容は言語翻訳システム10dによって日本語に翻訳
される。
【0017】音声合成システム10eは、言語翻訳シス
テム10dによる翻訳内容とデータベースサーバ10b
に登録された声質情報および性別情報に基づいて合成音
声を作成し、作成した合成音声を各々の話者に伝える。
音声合成システム10eは音声合成用の音質データベー
ス(図示せず)を備えており、話者の声質に合わせた音
質データを使用することによって、性別および発話音声
の調子に合わせた多様な音質の合成音声を作成すること
が可能である。つまり、日本人Aが高い声で話す女性で
あれば、女性らしい口調でかつキーの高いドイツ語の合
成音声がドイツ人Bに伝えられる。また、ドイツBが低
い声で話す男性であれば、男性らしい口調でかつキーの
低い音質の日本語による合成音声が日本人Aに伝えられ
る。さらに、日本人Aが会話の途中で喜んだり、悲しん
だり、怒ったりすると、これらの発話音声の調子に合わ
せた音質の合成音声が作成されドイツ人Bに与えられ
る。したがって、各々の話者は合成音声の音質から相手
方の感情の動きまでも読み取ることができるのでより自
然な会話を行うことができる。
【0018】音声認識システム10c,言語翻訳システ
ム10d,音声合成システム10eおよびデータベース
サーバ10bは、統合管理システム10aによって管理
される。モデム10fを通してアクセスがあると、統合
管理システム10がこれらのシステムおよびサーバを制
御し、利用者に翻訳サービスを提供する。統合管理シス
テム10aは、具体的には図3〜図8に示すフロー図を
処理する。
【0019】翻訳電話システム10へのアクセス要求に
は発呼元の電話番号情報が含まれる。このため、まずス
テップS1でアクセス要求から電話番号情報を取得し、
続くステップS3では検出された電話番号情報に基づい
て発呼元の国情報を検出する。日本人Aが電話機20を
用いて翻訳電話システム10にアクセスした場合、電話
番号情報には国番号“81”が含まれる。ステップS3
では、この国番号“81”から発呼元の国を日本と特定
する。ステップS5ではこうして得られた発呼元の電話
番号情報および国情報を内部メモリに保持し、ステップ
S7では、保持された国情報から発呼者の母国語(発呼
者が属する国の公用語)を仮決定する。発呼者が日本人
Aであるとき、ステップS7では日本語が母国語として
仮決定される。
【0020】ステップS9では、仮決定された母国語で
発呼者に音声ガイダンスを行う。仮決定された母国語が
日本語であれば、“こちらはATR音声言語通信研究所
の提供する自動音声翻訳サービスです。あなたがお話に
なる言語は日本語ですか?”という内容の合成音声が発
呼者に伝えられる。音声ガイダンスを終えると、ステッ
プS11で発呼者からの音声入力があったかどうか判断
するとともに、ステップS13で所定時間が経過したか
どうか判断する。所定期間内に音声入力がなかったとき
は、発呼者の母国語は仮決定母国語と異なるとみなし、
ステップS15で仮決定母国語をたとえば英語に変更し
てからステップS9に戻る。ステップS9では、変更さ
れた言語すなわち英語による音声ガイダンスが行われ
る。
【0021】発呼者から音声入力があったときは、音声
認識システム10cを制御してステップS17〜S21
の処理を行う。まずステップS17で、入力された発話
音声の特徴を抽出する。ステップS19では抽出された
特徴から発話者の母国語,声質および性別を特定し、特
定した母国語情報,声質情報および性別情報を発呼元の
電話番号情報および国情報と関連付けてデータベースサ
ーバ10bに登録する。この声質情報および性別情報は
合成音声の作成の際、合成音声の声質の決定に利用され
る。ステップS21では、入力された発話音声を認識し
て音声ガイダンスに対する返事を取得する。
【0022】取得した返事が“はい、そうです”などの
肯定的な返事であれば、ステップS23でYESと判断
し、ステップS31に進む。これに対して、返事が否定
的であればステップS25に進み、返事から発話者の言
語を決定できるかどうか判断する。返事の内容が単に
“いいえ”であれば、ステップS25でNOと判断し、
ステップS15で仮決定母国語を変更してからステップ
S9に戻る。一方、返事が“いいえ、英語です”のよう
に母国語を決定できる言葉が入っていれば、ステップS
25でYESと判断し、ステップS27でデータベース
サーバ10bの母国語情報を更新してからステップS3
1に進む。
【0023】ステップS31では通話相手の電話番号の
入力を促す音声ガイダンスを行う。具体的には、データ
ベースサーバ10bに登録された母国語情報に従う言語
で、“相手先の電話番号を国番号から言ってください
?”との音声メッセージを出力する。ステップS33で
はこの音声メッセージに対して音声入力があったかどう
か判断し、ステップS35では所定期間が経過したかど
うか判断する。発呼者から応答がないまま所定期間が経
過したときは、ステップS35でYESと判断し、ステ
ップS31に戻る。このため、同じ音声メッセージが再
度出力される。
【0024】一方、発呼者の発話音声が入力されると、
ステップS33でYESと判断し、音声認識システム1
0cを用いてステップS37〜41の処理を行う。ステ
ップS37では発話音声の特徴を抽出し、ステップS3
9では抽出された特徴から特定した発話者の母国語情
報,声質情報および性別情報をデータベースサーバ10
bに登録する。つまり、データベースサーバ10bに登
録された母国語情報,声質情報および性別情報は、発話
音声が入力される毎に更新される。
【0025】ステップS41では入力された発話音声を
認識して相手方の電話番号情報を取得し、続くステップ
S43では取得した電話番号情報の正当性を判断する。
電話番号情報に国番号が含まれていないような場合、こ
のステップでNOと判断され、ステップS31に戻る。
一方、電話番号情報が正当であれば、ステップS45に
進み、電話番号を確認するための音声ガイダンスを行
う。具体的には、データベースサーバ10bに登録され
た母国語情報に従う言語で、“相手先の電話番号は、○
○○−××××−△△△△△ですね?”との音声メッセ
ージを出力する。ステップS47ではこの音声メッセー
ジに対して音声入力があったかどうか判断し、ステップ
S49では所定期間が経過したかどうか判断する。所定
期間にわたって返事がないときはステップS49でYE
Sと判断し、ステップS45に戻る。一方、発呼者から
音声による返事があるとステップS47でYESと判断
し、音声認識システム10cを用いてステップS51〜
55の処理を行う。ステップS51では、返事を形成す
る音声から特徴を抽出する。ステップS53では、抽出
された特徴から発話者の母国語情報,声質情報および性
別情報を特定し、特定した情報によってデータベースサ
ーバ10bを更新する。ステップS53の処理が完了す
ると、ステップS55で返事の内容を認識する。
【0026】ステップS57では認識した音声が肯定的
であるかどうか判断し、“いいえ”のような否定的な返
事であれば、ステップS31に戻る。これによって、電
話番号の入力を案内する音声ガイダンスからの一連の処
理が繰り返される。一方、“はい、そうです”のような
肯定的な返事が取得されたときは、ステップS57から
ステップS59に進み、ステップS41で取得した電話
番号情報から通話相手の国情報を検出する。電話番号情
報に含まれる国番号が“1”であれば、通話相手の属す
る国は米国とされる。続いて、ステップS61で通話相
手の電話番号情報および国情報を内部メモリに保持し、
ステップS63で通話相手の母国語(通話相手が属する
国の公用語)を仮決定する。通話相手の属する国が米国
であれば、通話相手の母国語は英語と仮決定される。
【0027】ステップS65では、通話相手の名前の入
力を促がす音声ガイダンスを行う。発呼者には、発呼者
の母国語で“相手先の名前を言ってください?”との音
声メッセージが伝えられる。ステップS67ではこの音
声メッセージに対して音声による返事があったかどうか
判断し、ステップS69では所定期間が経過したかどう
か判断する。返事がないまま所定期間が経過すると、ス
テップS69でYESと判断し、再度の音声ガイダンス
を行うべくステップS65に戻る。
【0028】一方、発呼者から返事があったときは、ス
テップS67でYESと判断し、音声認識システム10
cを用いてステップS71〜75の処理を行う。ステッ
プS71では発話音声の特徴を抽出し、ステップS73
では抽出された特徴から特定した母国語情報,声質情報
および性別情報によってデータベースサーバ10bを更
新し、ステップS75では発話音声の認識処理によって
通話相手の名前を取得する。
【0029】こうして通話相手の電話番号情報および名
前の取得が完了すると、ステップS77およびS79で
通話相手がデータベースサーバ10bに登録されていな
いかどうか判別する。具体的には、通話相手の電話番号
情報をキーワードとしてデータベースサーバ10bを検
索し、同じ電話番号情報を発見できたかどうかステップ
S79で判断する。電話番号情報を発見できなかったと
きはそのままステップS85に進むが、電話番号情報を
発見できたときは、ステップS81でデータベースサー
バ10bから通話相手の母国語情報を取得し、ステップ
S83で通話相手の仮決定母国語を変更してからステッ
プS85に進む。たとえばステップS63で仮決定され
た母国語が英語であり、データベースサーバ10bから
取得された母国語情報がドイツ語であれば、仮決定母国
語が英語からドイツ語に変更される。
【0030】ステップS85では通話相手への発呼処理
を行い、ステップS87では回線状態がOKかどうか
を、ステップS89では相手方から応答があったかどう
かをそれぞれ判断する。回線状態がビジー(話し中)で
あるか、相手方からの応答がないときは、ステップS8
7またはS89からステップS107に進む。ステップ
S107では、通話不能であることを案内するための音
声ガイダンスを行う。具体的には、回線状態がビジーで
あれば“相手方の電話は使用中です”との音声メッセー
ジが出力され、応答がないときは“相手方からの応答が
ありません”との音声メッセージが出力される。これに
対して発呼者が電話回線を切断すると、ステップS10
9でYESと判断し、処理を終了する。
【0031】これに対して、回線状態がOKでかつ相手
方から応答があると、ステップS87およびS89でY
ESと判断し、ステップS91でサービス案内のための
音声ガイダンスを行う。このとき、ステップS75で取
得した相手方の名前を用いられる。具体的には、仮決定
された母国語で“こちらはATR音声言語通信研究所の
提供する自動音声翻訳サービスです。あなたはシュレー
ダさんですか?”との音声メッセージが相手方に伝えら
れる。
【0032】ステップS93ではこの音声メッセージに
対して音声による返事があったかどうか判断し、ステッ
プS95では所定期間が経過したかどうか判断する。返
事がないまま所定期間が経過すると、ステップS95で
YESと判断し、ステップS97で仮決定母国語を変更
してからステップS91に戻る。一方、相手方から返事
があったときは、ステップS93でYESと判断し、ス
テップS99で音声認識システム10cを用いて返事の
内容を認識するとともに、ステップS101で認識した
返事が肯定的であるか肯定的であるかを判断する。
【0033】ここで、返事が“シュレーダは不在です”
のような否定的な返事であれば、ステップS101から
ステップS107に進み、“シュレーダさんは不在だそ
うです”との音声メッセージを発呼者に伝える。これに
対して、返事が“はい、そうです”のような肯定的な返
事であればステップS101でYESと判断し、音声認
識システム10cを用いてステップS103およびS1
05の処理を行う。ステップS103では発話音声の特
徴を抽出し、ステップS105では抽出された特徴から
特定した母国語情報,声質情報および性別情報をデータ
ベースサーバ10bに登録または更新する。
【0034】つまり、通話相手がデータベースサーバ1
0bに登録済みであれば、特定した母国語情報,声質情
報および性別情報によってデータベースサーバ10bを
更新し、通話相手が未登録であれば、特定した母国語情
報,声質情報および性別情報をステップS61で保持し
た通話相手の電話番号情報および国情報と関連付けてデ
ータベースサーバ10bに登録する。
【0035】こうして発呼者および通話相手の両方の母
国語が特定され、かつ通話可能状態となると、ステップ
S111でサービス開始を案内するための音声ガイダン
スを行う。具体的には、“それではお話しください”と
の音声メッセージを発呼者および通話相手の両方に伝え
る。これによって、双方の会話が開始される。
【0036】ステップS113では一方の話者の発話音
声を取り込み、ステップS115では音声認識システム
10cを用いて発話音声の特徴を抽出する。続くステッ
プS117では、抽出された特徴に基づいて発話者の母
国語,声質および性別を特定し、特定した母国語情報,
声質情報および性別情報によってデータベースサーバ1
0bの登録済み情報を更新する。つまり、会話が開始さ
れた後も、発話音声を入力する毎にデータベースサーバ
10bの母国語情報,声質情報および性別情報が更新さ
れる。
【0037】ステップS119では、取り込まれた発話
音声の内容を音声認識システム10cを用いて認識し、
かつ認識した内容を言語翻訳システム10dを用いて他
方の話者の母国語に翻訳する。このとき、翻訳先の言語
は、データベースサーバ10bに登録された他方の話者
の母国語情報によって決定される。
【0038】翻訳処理が完了すると、音声合成システム
10eを用いてステップS121、ステップS123お
よびステップS125を処理する。ステップS121で
は声質情報および性別情報に基づいて、音声合成システ
ム10eの音質データベース(図示せず)から話者の声
質に近い合成音声の音質データを決定する。つまり、音
声情報および性別情報から特定される話者の声質とよく
似た音質の合成音声を作成するための音質データを音質
データベースから選択する。そして、ステップS123
では決定された音質データに基づいて翻訳内容の合成音
声を作成する。ステップS125では作成された合成音
声の再生を行う。再生された合成音声は他方の話者に伝
えられる。
【0039】ステップS127では、いずれかの話者が
電話回線を切断したかどうか判断し、NOであればステ
ップS113に戻る。これによって、各々の話者が発話
する毎に発話音声が翻訳され、翻訳された合成音声が相
手方に伝えられる。つまり、翻訳された合成音声を用い
た会話が継続して行われる。一方の話者が電話回線を切
断するとステップS127からステップS129に進
み、回線の切断を案内する音声ガイダンスが行われる。
つまり、“相手方が電話を切りましたのでサービスを終
了します、ご利用ありがとうございました”との音声メ
ッセージが他方の話者に伝えられる。これに対して、他
方の話者が回線を切断すると、ステップS131でYE
Sと判断し、処理を終了する。
【0040】ところで、会話中に(ステップS113〜
ステップS125)話者がドイツ人Bからアメリカ人C
に交代したとする。すると、上述のようにステップS1
13で取り込まれた話者の音声の特徴は、ステップS1
15で抽出され、ステップS117において母国語,声
質および性別が特定される。そして、特定された母国語
情報,音質情報および性別情報によってデータベースサ
ーバ10bの登録済み情報が更新される。このことによ
り、データベースサーバ10bには、ドイツ人Bの母国
語(ドイツ語),声質および性別に代わってアメリカ人
Cの母国語(英語)声質および性別が記録される。した
がって、日本人Aにはアメリカ人Cの声質に似た音質の
合成音声による日本語が出力される。つまり、ドイツ人
Bが男性でアメリカ人Cが女性である場合には、男性的
な音質の合成音声による日本語に代わって女性的な音質
の合成音声による日本語が日本人Aに与えられる。ま
た、会話中に日本人Aが喜んで歓喜の声をあげると、発
話音声の声質が変わり、同時に合成音声も女性の歓喜の
声質に似た音質へと変わる。
【0041】以上の説明から分かるように、互いに異な
る言語を母国語とする2人の話者が電話回線40を介し
て会話をするとき、まず各々の話者に発話を促すための
音声案内が行われる。音声案内に対して話者が返事をす
ると、翻訳電話システムはその返事に基づいて各々の話
者の声質を特定するとともに発話音声の内容を翻訳す
る。そして、翻訳結果および特定した声質に基づいて合
成音声を作成して各々の話者に伝える。
【0042】特定された声質を示す声質情報はデータベ
ースサーバ10bに登録され、音声合成はデータベース
サーバ10bに登録された声質情報に従って行われる。
また、各々の話者の声質の特定は、発話音声が取り込ま
れる毎に行われる。そして、データベースサーバ10b
に登録された声質情報は、声質が特定される毎に更新さ
れる。
【0043】したがって、会話の途中で話者が交代した
り、感情の起伏によって声の調子が変わった場合にも、
話者の声質に似た音質の合成音声を通話相手に伝えるこ
とができる。
【0044】なお、電話回線40はこれに限らず、イン
ターネットのような通信ネットワークであってもよい。
【図面の簡単な説明】
【図1】翻訳電話システムおよび複数の電話機が通信ネ
ットワークに接続された状態を示す図解図である。
【図2】翻訳電話システムの構成の一例を示す図解図で
ある。
【図3】翻訳電話システムの動作の一部を示すフロー図
である。
【図4】翻訳電話システムの動作の他の一部を示すフロ
ー図である。
【図5】翻訳電話システムの動作のその他の一部を示す
フロー図である。
【図6】翻訳電話システムの動作のさらにその他の一部
を示すフロー図である。
【図7】翻訳電話システムの動作の他の一部を示すフロ
ー図である。
【図8】翻訳電話システムの動作のその他の一部を示す
フロー図である。
【符号の説明】
10…翻訳電話システム 10a…統合管理システム 10b…データベースサーバ 10c…音声合成システム 10d…言語翻訳システム 10e…音声認識システム 10f…モデム 20,30…電話機 40…電話回線
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04M 3/42 G10L 3/00 531N 3/50 R (72)発明者 西野 敦士 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール音声言語通信 研究所内 (72)発明者 ライナー グルーン 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール音声言語通信 研究所内 (72)発明者 中村 哲 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール音声言語通信 研究所内 Fターム(参考) 5B091 AA03 CB12 CB32 5D015 AA03 AA04 AA06 HH23 LL02 5D045 AB03 5K015 AA06 AF07 GA02 5K024 AA74 BB01 CC01 EE09 FF05

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】互いに異なる言語を使用する複数の話者の
    間で電話回線を介して行われる会話を翻訳する翻訳電話
    システムにおいて、各々の前記話者の声質を特定する第
    1特定手段、 各々の前記話者の発話音声の内容を翻訳する翻訳手段、 前記第1特定手段の特定結果および前記翻訳手段の翻訳
    結果に基づいて合成音声を作成する作成手段、および前
    記合成音声を出力する出力手段を備えることを特徴とす
    る、翻訳電話システム。
  2. 【請求項2】各々の前記話者に音声案内をする音声案内
    手段をさらに備え、 前記第1特定手段は前記音声案内に対する返事に基づい
    て各々の前記話者の声質を特定する、請求項1記載の翻
    訳電話システム。
  3. 【請求項3】前記第1特定手段によって特定された前記
    声質を示す声質情報をメモリに格納する格納手段をさら
    に備え、 前記作成手段は前記メモリに格納された前記声質情報に
    従って合成音声を作成する、請求項1または2記載の翻
    訳電話システム。
  4. 【請求項4】各々の前記話者が発話する毎に当該発話音
    声に基づいて発話元の前記声質を特定する第2特定手
    段、および前記第2特定手段によって特定された前記声
    質を示す声質情報によって前記メモリの記録内容を更新
    する更新手段をさらに備える、請求項3記載の翻訳電話
    システム。
JP2001112132A 2001-04-11 2001-04-11 翻訳電話システム Withdrawn JP2002311983A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001112132A JP2002311983A (ja) 2001-04-11 2001-04-11 翻訳電話システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001112132A JP2002311983A (ja) 2001-04-11 2001-04-11 翻訳電話システム

Publications (1)

Publication Number Publication Date
JP2002311983A true JP2002311983A (ja) 2002-10-25

Family

ID=18963597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001112132A Withdrawn JP2002311983A (ja) 2001-04-11 2001-04-11 翻訳電話システム

Country Status (1)

Country Link
JP (1) JP2002311983A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139134A (ja) * 2004-11-12 2006-06-01 Pioneer Electronic Corp 音声出力制御装置、音声出力制御システム、それらの方法、それらのプログラム、および、それらのプログラムを記録した記録媒体
WO2011040056A1 (ja) * 2009-10-02 2011-04-07 独立行政法人情報通信研究機構 音声翻訳システム、第一端末装置、音声認識サーバ装置、翻訳サーバ装置、および音声合成サーバ装置
JP2011090100A (ja) * 2009-10-21 2011-05-06 National Institute Of Information & Communication Technology 音声翻訳システム、制御装置、音声認識装置、翻訳装置、および音声合成装置
JP5449633B1 (ja) * 2013-03-22 2014-03-19 パナソニック株式会社 広告翻訳装置、広告表示装置、および広告翻訳方法
WO2014147674A1 (ja) * 2013-03-22 2014-09-25 パナソニック株式会社 広告翻訳装置、広告表示装置、および広告翻訳方法
JP2020064151A (ja) * 2018-10-16 2020-04-23 東京瓦斯株式会社 再生システムおよびプログラム
JP2021529337A (ja) * 2018-04-27 2021-10-28 エル ソルー カンパニー, リミテッドLlsollu Co., Ltd. 音声認識技術を利用した多者間対話記録/出力方法及びこのため装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139134A (ja) * 2004-11-12 2006-06-01 Pioneer Electronic Corp 音声出力制御装置、音声出力制御システム、それらの方法、それらのプログラム、および、それらのプログラムを記録した記録媒体
US8862478B2 (en) 2009-10-02 2014-10-14 National Institute Of Information And Communications Technology Speech translation system, first terminal apparatus, speech recognition server, translation server, and speech synthesis server
WO2011040056A1 (ja) * 2009-10-02 2011-04-07 独立行政法人情報通信研究機構 音声翻訳システム、第一端末装置、音声認識サーバ装置、翻訳サーバ装置、および音声合成サーバ装置
CN102549653A (zh) * 2009-10-02 2012-07-04 独立行政法人情报通信研究机构 语音翻译系统、第一终端装置、语音识别服务器装置、翻译服务器装置以及语音合成服务器装置
CN103345467A (zh) * 2009-10-02 2013-10-09 独立行政法人情报通信研究机构 语音翻译系统
CN103345467B (zh) * 2009-10-02 2017-06-09 独立行政法人情报通信研究机构 语音翻译系统
JP5598998B2 (ja) * 2009-10-02 2014-10-01 独立行政法人情報通信研究機構 音声翻訳システム、第一端末装置、音声認識サーバ装置、翻訳サーバ装置、および音声合成サーバ装置
US8954335B2 (en) 2009-10-21 2015-02-10 National Institute Of Information And Communications Technology Speech translation system, control device, and control method
JP2011090100A (ja) * 2009-10-21 2011-05-06 National Institute Of Information & Communication Technology 音声翻訳システム、制御装置、音声認識装置、翻訳装置、および音声合成装置
WO2014147674A1 (ja) * 2013-03-22 2014-09-25 パナソニック株式会社 広告翻訳装置、広告表示装置、および広告翻訳方法
US9672529B2 (en) 2013-03-22 2017-06-06 Panasonic Intellectual Property Management Co., Ltd. Advertisement translation device, advertisement display device, and method for translating an advertisement
JP5449633B1 (ja) * 2013-03-22 2014-03-19 パナソニック株式会社 広告翻訳装置、広告表示装置、および広告翻訳方法
US10373191B2 (en) 2013-03-22 2019-08-06 Panasonic Intellectual Property Management Co., Ltd. Advertisement translation device, advertisement display device, and method for translating an advertisement
JP2021529337A (ja) * 2018-04-27 2021-10-28 エル ソルー カンパニー, リミテッドLlsollu Co., Ltd. 音声認識技術を利用した多者間対話記録/出力方法及びこのため装置
JP2020064151A (ja) * 2018-10-16 2020-04-23 東京瓦斯株式会社 再生システムおよびプログラム
JP7218143B2 (ja) 2018-10-16 2023-02-06 東京瓦斯株式会社 再生システムおよびプログラム

Similar Documents

Publication Publication Date Title
US9214154B2 (en) Personalized text-to-speech services
JP3168033B2 (ja) 音声テレフォン・ダイヤリング
US9484035B2 (en) System and method for distributed speech recognition
US5797124A (en) Voice-controlled voice mail having random-order message retrieval based on played spoken identifier list
US9380155B1 (en) Forming speech recognition over a network and using speech recognition results based on determining that a network connection exists
US7400712B2 (en) Network provided information using text-to-speech and speech recognition and text or speech activated network control sequences for complimentary feature access
CN107895578A (zh) 语音交互方法和装置
JPH09186770A (ja) 電話における自動音声認識のための方法
JPH06242793A (ja) 仲間正規化スコアリングを使用する話者検証法
CN111294471B (zh) 一种智能电话应答方法和系统
US20050131684A1 (en) Computer generated prompting
CN107871503A (zh) 语音对话系统以及发声意图理解方法
WO2013184048A1 (en) Method and message server for routing a speech message
EP1851757A1 (en) Selecting an order of elements for a speech synthesis
CN109102807A (zh) 个性化语音数据库创建系统、语音识别控制系统与终端
CN111862938A (zh) 一种智能应答方法与终端、计算机可读存储介质
JP2002311983A (ja) 翻訳電話システム
CN113779217A (zh) 一种基于人机交互的智能语音外呼业务方法及系统
JP2002304392A (ja) 音声翻訳システム
JPH08163252A (ja) Pbx−コンピュータ連動システム
US20060077967A1 (en) Method to manage media resources providing services to be used by an application requesting a particular set of services
JP4486235B2 (ja) 音声認識装置
JP2002320037A (ja) 翻訳電話システム
JP2001024781A (ja) 発呼者により生成された音声メッセージを分類する方法
JP3847674B2 (ja) 音声通信方法、音声通信装置、プログラム及び記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080701