JP2000010977A - 翻訳装置 - Google Patents

翻訳装置

Info

Publication number
JP2000010977A
JP2000010977A JP10171235A JP17123598A JP2000010977A JP 2000010977 A JP2000010977 A JP 2000010977A JP 10171235 A JP10171235 A JP 10171235A JP 17123598 A JP17123598 A JP 17123598A JP 2000010977 A JP2000010977 A JP 2000010977A
Authority
JP
Japan
Prior art keywords
voice
translation
unit
recognition
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10171235A
Other languages
English (en)
Inventor
Yoshiaki Kitatsume
吉明 北爪
Makoto Tanaka
田中  誠
Toshihisa Tsukada
俊久 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Solutions Technology Ltd
Original Assignee
Hitachi Ltd
Hitachi ULSI Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi ULSI Systems Co Ltd filed Critical Hitachi Ltd
Priority to JP10171235A priority Critical patent/JP2000010977A/ja
Publication of JP2000010977A publication Critical patent/JP2000010977A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 翻訳効率を向上させるめの技術を提供するこ
とにある。 【解決手段】 音声認識結果の翻訳前に音声認識結果を
上記出力手段から出力させる第1制御手段(14)と、
音声認識結果の正しいことが確認された後に翻訳手段
(13)での翻訳動作を開始させる第2制御手段(1
4)とを含んで翻訳装置を構成する。第1制御手段は、
音声認識結果の翻訳前に音声認識結果を上記出力手段か
ら出力させ、第2制御手段は、上記音声認識結果の正し
いことが確認された後に翻訳手段での翻訳動作を開始さ
せる。このことが、音声認識結果が不適切であった場合
の無駄な翻訳を排除して翻訳効率の向上を達成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、翻訳技術に関し、
例えば携帯型自動翻訳装置に適用して有効な技術に関す
る。
【0002】
【従来の技術】例えば、特開平8−329088号公報
に記載されているように、マイクロフォンから入力され
た第1言語の音声信号を音声認識手段で認識し、その認
識信号を第2言語に翻訳して、その結果を音声合成して
スピーカから出力するようにした翻訳装置が知られてい
る。
【0003】また、音声認識においては音響照合処理が
行われる。この処理は、辞書に登録されている単語と入
力情報とを照合するもので、この照合には動的計画法に
おける最適化処理による照合、あるいはHMM(Hid
den Markov Model)を用いた確率累積
による照合が行われる。
【0004】
【発明が解決しようとする課題】従来の翻訳装置につい
て本願発明者が検討したところ、音声認識手段で正確に
音声認識が行われたか否かにかかわらず、その認識結果
に従って翻訳が行われるようにすると、音声認識結果が
不適切であった場合に、無駄な翻訳が行われてしまい、
翻訳効率の低下を招来する。
【0005】また、翻訳効率を上げるために音声認識処
理、翻訳処理、及び音声合成処理が複雑になると、第1
言語による音声を入力してから、第2言語による翻訳結
果が音声で出力されるまでに時間がかかってしまい、実
用的でないことが見いだされた。
【0006】本発明の目的は、翻訳効率を向上させるめ
の技術を提供することにある。
【0007】
【課題を解決するための手段】本願において開示される
発明のうち代表的なものの概要を簡単に説明すれば下記
の通りである。
【0008】すなわち、第1言語の音声を入力するため
の入力手段(11)と、入力された音声信号を認識用辞
書に基づいて認識する音声認識手段(12)と、音声認
識結果を翻訳用辞書に基づいて第2言語に翻訳する翻訳
手段(13)と、上記翻訳手段の翻訳結果に対応する音
声を音源データに基づいて合成する音声合成手段(1
5)と、上記音声合成手段の音声合成結果を出力する出
力手段(16)と、上記音声認識結果の翻訳前に音声認
識結果を上記出力手段から出力させる第1制御手段(1
4)と、上記音声認識結果の正しいことが確認された後
に上記翻訳手段での翻訳動作を開始させる第2制御手段
(14)とを含んで翻訳装置を構成する。
【0009】上記した手段によれば、第1制御手段は、
音声認識結果の翻訳前に音声認識結果を上記出力手段か
ら出力させ、第2制御手段は、上記音声認識結果の正し
いことが確認された後に上記翻訳手段での翻訳動作を開
始させる。このことが、音声認識結果が不適切であった
場合の無駄な翻訳を排除して、翻訳効率の向上を達成す
る。
【0010】このとき、上記認識用辞書、翻訳用辞書、
及び音源データは、カード化されて翻訳装置本体(1
0)に着脱自在に形成された記憶媒体に格納することが
できる。
【0011】また、第1言語の音声を入力するための入
力手段(11)と、入力された音声信号を認識用辞書に
基づいて認識する音声認識手段(120)と、音声認識
結果を第2言語に翻訳する翻訳手段(130)と、翻訳
手段の出力信号に対応する音声を音原データに基づいて
合成するための音声合成手段(150)と、上記音声合
成手段の音声合成結果を出力する出力手段(16)とを
含んで翻訳装置が構成されるとき、翻訳手段は、上記音
声認識結果に対応する第2言語を出力するルックアップ
テーブルを含んで構成することができる。上記認識用辞
書、ルックアップテーブル、及び音原データがカード化
されて翻訳装置本体に着脱自在に形成された記憶媒体に
格納することができる。
【0012】音声合成手段は、音声をサンプリングして
得た音声データを記録する記憶手段(190)の記憶デ
ータに基づいて音声出力を行うように構成することがで
きる。
【0013】
【発明の実施の形態】図1には本発明にかかる翻訳装置
の一例である携帯型自動翻訳装置が示される。
【0014】図1に示される携帯型自動翻訳装置10
は、特に制限されないが、マイクロフォン11、音声認
識部12、翻訳部13、音声合成部15、スピーカ1
6、認識用辞書記憶部17、翻訳用辞書記憶部18、及
び音源記憶部19を含む。
【0015】上記マイクロフォン11、音声認識部1
2、翻訳部13、音声合成部15、スピーカ16は、携
帯型自動翻訳装置10の本体に内蔵される。認識用辞書
記憶部17、翻訳用辞書記憶部18、及び音源記憶部1
9は、特に制限されないが、カード化されて翻訳装置本
体に着脱自在に形成された記憶媒体とされる。この記憶
媒体は、特に制限されないが、不揮発性記憶媒体とされ
る。
【0016】音声認識部12は、マイクロフォン11を
介して入力された第1言語による音声信号から音声を認
識する機能を有し、この音声認識において認識用辞書記
憶部17に格納された認識用辞書が参照される。特に制
限されないが、第1言語は日本語とされる。翻訳部13
は、上記音声認識部12での認識結果を第2言語に翻訳
する。特に制限されないが、第2言語は英語とされる。
音声合成部15は上記翻訳部13の翻訳結果を、音源記
憶部19に格納された音源データに基づいて音声合成す
る機能を有する。音源データは、特に制限されないが、
翻訳用辞書記憶部18の翻訳用辞書に対応して英語とさ
れる。そして、上記音声合成部15での音声合成結果は
後段のスピーカ16を介して音響出力される。
【0017】また、制御部14が設けられ、この制御部
14によって本携帯型翻訳装置10の全体の動作制御が
行われる。
【0018】ここで、操作者が発した音声が音声認識部
12によって正しく認識され無かった場合を考えてみ
る。音声認識が正しく行われなかった場合、その誤った
音声認識結果に基づいて翻訳処理が行われ、さらにその
翻訳結果に基づいて音声合成されてそれがスピーカ16
から出力されるおそれがある。そこで、図1に示される
装置10では、翻訳前に音声認識内容の確認を行うこと
ができるようになっている。すなわち、操作者が発した
音声がマイクロフォン11で電気信号に変換され、音声
認識部12に入力されると、この音声認識部12におい
て、認識用辞書記憶部17の認識用辞書を参照すること
で音声認識が行われるが、この音声認識が行われた後、
翻訳部13での翻訳動作が開始される前に、上記音声認
識結果が音声合成部15へ伝達され、そこで音声合成さ
れてスピーカ16から出力される。スピーカ16から出
力された音声(第1言語による)を聞いて、操作者は上
記音声認識部12での音声認識が正しく行われたか否か
を確認することができる。このとき、制御部14の制御
により、音声認識結果に続けて、「ですか」なる音声を
付加するようにするとよい。例えば、マイクロフォン1
2から入力された音声が、「私は東京へ行った」である
なら、それの音声認識結果に、「ですか」が付加され
て、「私は東京へ行った、ですか」となる。これは、携
帯型自動翻訳装置10から操作者に対して、音声認識結
果が正しいか否かの問い合わせを意味する。この問い合
わせに対して、音声認識結果が正しい場合には、操作者
はマイクロフォン11に向かって、「はい」と答える。
上記制御部14における第2制御手段は、上記「です
か」の付加の後に、音声認識部12において、「はい」
が認識されると、先の認識結果(上記の例では「私は東
京へ行った」)が正しかったことを認識し、翻訳部13
に対して翻訳動作を開始させる。また、上記携帯型自動
翻訳装置10から操作者への問い合わせに対して、音声
認識結果が正しく無い場合には、「いいえ」と答える。
これにより、制御部14における第2制御手段は翻訳部
13に対して翻訳動作を開始させない。そしてその場
合、音声認識部12での認識結果は破棄される。
【0019】このように操作者は、スピーカ16から出
力された音声を聞いて、先に自分の発した音声が音声認
識部12で正しく認識されたことを確認することがで
き、それに基づいて翻訳部13での翻訳動作が開始され
るようになっているので、不所望な音声認識結果につい
て無駄な翻訳が行われるのが回避されて翻訳効率の向上
を図ることができる。
【0020】また、認識用辞書記憶部17、翻訳用辞書
記憶部18、音源記憶部19がカード化され、本体に着
脱自在とされるので、このカードを差し替えることによ
り、言語の変更を容易に行うことができる。そして、認
識用辞書記憶部17、翻訳用辞書記憶部18、音源記憶
部19の記憶内容を、航空、ホテル、レストラン、病
院、ショッピング等の応用に応じてそれぞれ専用化し
て、場面に応じてカードを差し替えることにより翻訳効
率をさらに上げることができる。
【0021】次に各部の詳細な構成について説明する。
【0022】図2には音声認識部12の構成例が示され
る。
【0023】図2に示されるように音声認識部12は、
マイクロフォン11から入力されたアナログ信号をディ
ジタル信号に変換するためのA/D(アナログ/ディジ
タル)変換部121、このA/D変換部121の出力信
号から音声分析を行う音声分析部122、この音声分析
部122の出力信号を認識用辞書記憶部17内の認識用
辞書と音響照合するための音響照合部123、この音響
照合部123の出力信号を判定する判定処理部125を
含んで成る。
【0024】上記音声分析部122では、人間の音声に
含まれる特徴の抽出が行われる。一般的な特徴抽出方法
としては、バンドパスフィルタ(BPF)方式あるいは
線形予測計数(LPC)方式が知られている。
【0025】バンドパスフィルタ方式では、音声帯域を
16チャンネルに分割して人間の音声に含まれている特
徴の抽出が行われる。具体的には、次式で示される計算
が16チャンネル分行われることにより、特徴点の抽出
が行われる。
【0026】
【数1】
【0027】ここで、ynは時点t=tnでのフィルタ
出力、yn−1、yn−2はそれぞれ時点t=tn−
1、t=tn−2でのフィルタ出力、xnは時点t=t
nでのフィルタ入力、xn−1は時点t=tn−1での
フィルタ入力、ai(i=1〜4)はフィルタ係数(周
波数帯域によって異なる)である。
【0028】また、線形予測係数方式では、次式で示さ
れる計算が行われることにより、特徴点の抽出が行われ
る。
【0029】
【数2】
【0030】上記においてynは過去のデータyn−1
からyn−pまでのp個の値から求められる時点nの予
測値である。これは音声波形の各時点のデータに強い相
関があるという統計的事実から成立する。尚、係数α1
〜αpはynを予測するときの線形予測誤差の二乗平均
値を最小とする条件で求められる。
【0031】例えば駅名の認識で東京(TOKYO)の
場合、T,O,K,Y,Oそれぞれの音素に対応したフ
ィルタ出力あるいは線形予測係数が求められる。
【0032】そして、音響照合部123では、予め辞書
に認識対象として登録されている単語と、発声された入
力音声との照合がとられる。ここで、認識用辞書記憶部
17に格納された認識用辞書は、音素の特徴そのものを
持つ辞書と、認識対象単語の綴りを持つ辞書とを含む。
実際の認識時には、綴りに対応した音素の系列が音響照
合部123へ送出される。
【0033】音響照合部123では、動的計画法におけ
る最適化処理による照合、あるいはHMM(Hidde
n Markov Model)を用いた確率累積によ
る照合が行われる。動的計画法における最適化処理は次
式で示される。
【0034】
【数3】
【0035】ここで、D(i,j)は入力音声iフレー
ム、登録単語jフレームでの照合値、d(i,j)は入
力音声iフレーム、登録単語jフレームの特徴量の間の
距離である。つまり、この方法では、入力と登録単語と
の各時点毎の距離の累積が最小となるように照合をとる
方法である。尚、この方法で処理する場合は、分析処理
としてバンドパスフィルタが用いられる。
【0036】また、HMMを用いた確率累積による音響
照合でも動的計画法が適用されるが、特徴量としてLP
C係数が用いられているので、最適化処理に用いられる
尺度は、BPFのときの距離尺度ではなく、事後確率
(尤度)となる。この場合、最適化処理は、最大値選択
処理となる。つまり、この方法は、入力に対して各時点
毎に登録単語に対応したHMM音韻系列との確率照合を
行い、最大確率を示す系列を認識結果とする。このよう
な音響照合について詳細に記載された文献の例として
は、「認識工学(パタン認識とその応用)テレビジョン
学会教科書シリーズ9,P28〜P29(コロナ
社)」、「パターン情報処理、電子情報通信学会編、電
子情報通信学会大学シリーズ1〜4、P106〜P10
9」、「改訂音声、P103(コロナ社)」がある。
【0037】次に、判定処理部125では、上記音響照
合部123での照合結果を受けてそれぞれの単語に対す
る照合値を元に、どの単語と最も良く照合しているかを
決定する。この判定処理部125の出力データはテキス
トデータとされる。また、任意の文章の認識を可能とす
るには、主語となる名詞、述語となる動詞、そしてそれ
らを関係付ける形容詞、助詞などをネットワークの単位
として持ち、それらを結合する処理を判定処理部125
に追加するとよい。
【0038】図3には上記翻訳部13の構成例が示され
る。
【0039】図3に示されるように翻訳部13は、特に
制限されないが、形態素解析部131、構文解析部13
2、構文生成部133を含んで成る。
【0040】形態素解析部131は、入力されたテキス
トデータを形態素に分割する。例えば、入力されたテキ
ストデータが「私は東京へ行った。」の場合、単語に分
割することにより、「私」、「は」、「東京」、
「へ」、「行っ」、「た」に分けられる。この分割に
は、各種の漢字表記、品詞種類を記憶している辞書が参
照される。そのような辞書は翻訳用辞書に含まれ、翻訳
用辞書記憶部18に格納されている。そして、上記構文
解析部132では、文の構造を解析して、述語動詞であ
る「行っ」、「た」にかかる部分が主語である「私」、
「は」であり、そして、目的語である「東京」、「へ」
であることが明らかにされる。このように、構文解析部
132では、日本語、英語の言語に依存しない構造が解
析される。
【0041】そして、後段の構文生成部133では、文
法に則った順序で、翻訳用辞書内の日本語に対応する英
単語が組み合わされて、「I went to Tok
yo.」などのように、英語の文章が生成される。生成
された文章データはテキストデータ134とされる。
【0042】図4には音声合成部15の構成例が示され
る。
【0043】図4に示されるように、この音声合成部1
5は、特に制限されないが、入力されたテキストデータ
134に基づいて音源記憶部19をアクセスするための
音源アクセス部151と、この音源アクセス部151の
出力信号をアナログ信号に変換するためのD/A(ディ
ジタル/アナログ)変換部152、及びこのD/A変換
部152の出力信号を増幅するためのアンプ153を含
む。上記音源記憶部19には出力すべき音声がPCM
(Pulse Code Modulation)デー
タとして予め記憶されており、それが上記音源アクセス
部151によって選択されるようになっている。例え
ば、上記音源記憶部19には、「I went to
Tokyo.」なる音源や、「Where is th
e park?」などの音源が記録されており、その中
から、テキストデータ134に対応する音源が選択さ
れ、それが、アナログ信号に変換され、スピーカ16か
ら出力される。音源記憶部19内のPCMデータは、ネ
イティブスピーカが発した音声をサンプリングしたもの
とすることができる。
【0044】別の構成例について説明する。
【0045】図5には、音声合成部15の別の構成例が
示される。
【0046】図5に示される音声合成部15は、入力さ
れたテキストデータ134にも基づいてアクセント記号
を生成するためのアクセント記号変換部155、このア
クセント記号変換部155の出力信号に対して実時間に
よるディジタルフィルタ処理を施すことにより5母音波
形などを合成するためのフォルマント合成部154、こ
のフォルマント合成部154の出力信号をアナログ信号
に変換するためのD/A変換部152、及びこのD/A
変換部152の出力信号を増幅してスピーカ16を駆動
するためのアンプ153を含む。実時間によるディジタ
ルフィルタ処理により、5母音波形などを合成するよう
にしているので、音声合成のために参照される音源記憶
部(図1参照)は不要となる。
【0047】また、「sys」と「tem」とを組み合
わせて、「system」とするように、英吾の音節の
組み合わせにより音声合成するようにしても良い。この
場合、「sys」と「tem」などの音節データを音源
記憶部19に格納しておき、それを音声合成部15で参
照する。
【0048】さらに、図6には上記音声合成部15の別
の構成例が示される。
【0049】図6に示される音声合成部15は、形態素
解析部156、読みアクセント付与部157、規則合成
部158、D/A変換部152、及びアンプ153を含
む。
【0050】形態素解析部156では、単語(名詞)/
助詞等の単位に分割され、読みアクセント付与部157
で、その単語にふさわしい読み・アクセント付与が行わ
れ、その出力信号が後段の規則合成部158に伝達され
る。規則合成部158では、与えられた読みに沿って音
源(あ、い、う、え、お、か、き、く、け、こ)の音源
(波形)を組み合わせて所定の単語音声が合成される。
音源データは音源記憶部160に格納されている。
【0051】図7には翻訳装置のさらに別の構成例が示
される。
【0052】図7に示される翻訳装置は、音声認識部1
20、翻訳部130、音声合成部150、認識用辞書記
憶部170、及び音源記憶部190を含む。
【0053】音声認識部120は、文章を名詞、助詞、
述語等のように細かく分けて認識するのではなく、例え
ば、「公園は」という単語と、「どこですか」という単
語との組み合わせで、「公園はどこですか?」という文
章を認識する。そのため、認識用辞書記憶部170に
は、文節認識のための単語情報が記憶されている。文節
認識のための単語情報は、操作者を限定しないよう、不
特定話者の音響モデルによる情報とされる。
【0054】上記音声認識部120の認識結果は後段の
翻訳部130に伝達される。上記音声認識部120で定
型文認識が行われるため、この定型文認識結果に1対1
で対応付けられた英語音声を出力するため、上記翻訳部
130は英語音声ルックアップテーブルを含んで成る。
このテーブルにより、定型文認識結果が入力されると、
それに対応する英語音声が速やかに読み出される。
【0055】また、音源記憶部190には、英語音声ル
ックアップテーブルの出力情報に対応した英語音声情報
がPCMデータとして記憶されている。この英語音声情
報は、ネイティブスピーカが発生した音声をサンプリン
グして得たものを適用することができる。
【0056】ここで、上記認識用辞書記憶部170、翻
訳部130である英語音声ルックアップテーブル、及び
音源記憶部190をカード化することにより、本体に着
脱自在に形成するようにしても良い。そしてこのカード
を、航空、ホテル、レストラン、病院、ショッピング等
の応用に応じてそれぞれ専用化して、場面に応じてカー
ドを差し替えることにより翻訳効率をさらに上げること
ができる。
【0057】このように、図7に示される構成例では、
音声認識部120において、長い音声単位で認識するた
め、手がかりとなる情報が多く、認識率が高い、という
利点がある。また、翻訳部130は、英語音声ルックア
ップテーブルを有し、定型文認識結果に1対1で対応付
けられた英語音声を出力するようになっているため、翻
訳誤りが皆無に近い。さらに、ネイティブスピーカが発
した音声をサンプリングして得たものを音声合成に使用
することで、ネイティブスピーカのきれいな発音で音声
出力を得ることができる。
【0058】以上本発明者によってなされた発明を実施
例に基づき具体的に説明したが、本発明は上記実施例に
限定されるものではなく、その要旨を逸脱しない範囲で
種々変更可能であることはいうまでもない。
【0059】例えば、認識用辞書記憶部17、翻訳用辞
書記憶部18、及び音源記憶部19をそれぞれ別々の辞
書カードとして形成しても良い。この場合、認識用辞
書、翻訳用辞書、及び音源データをそれぞれ個別的に交
換することができる。この場合、翻訳用辞書記憶部18
が形成された辞書カードを差し替えるだけで言語の切り
換えを行うことができる。
【0060】また、第1言語は日本語以外の言語とする
ことができ、第2言語は第1言語以外の言語とすること
ができる。
【0061】以上の説明では主として本発明者によって
なされた発明をその背景となった利用分野である携帯型
自動翻訳装置について説明したが、第1言語を第2言語
に翻訳する翻訳装置に広く適用することができる。
【0062】本発明は、少なくとも音声信号を認識する
音声認識手段と、この音声認識結果を翻訳する翻訳手段
と、この翻訳結果に対応する音声を合成する音声合成手
段とを含むことを条件に適用することができる。
【0063】
【発明の効果】本願において開示される発明のうち代表
的なものによって得られる効果を簡単に説明すれば下記
の通りである。
【0064】すなわち、第1制御手段は、音声認識結果
の翻訳前に音声認識結果を上記出力手段から出力させ、
第2制御手段は、上記音声認識結果の正しいことが確認
された後に上記翻訳手段での翻訳動作を開始させる。そ
れにより、音声認識結果が不適切であった場合の無駄な
翻訳を排除して、翻訳効率の向上を図ることができる。
【0065】また、翻訳部130は、英語音声ルックア
ップテーブルを有し、定型文認識結果に1対1で対応付
けられた英語音声を出力するようになっているため、翻
訳誤りが非常に少なく、翻訳効率の向上を図ることがで
きる。
【図面の簡単な説明】
【図1】本発明にかかる翻訳装置の構成例ブロック図で
ある。
【図2】上記翻訳装置に含まれる音声認識部の構成例ブ
ロック図である。
【図3】上記翻訳装置に含まれる翻訳部の構成例ブロッ
ク図である。
【図4】上記翻訳装置に含まれる音声合成部の構成例ブ
ロック図である。
【図5】上記音声合成部の別の構成例ブロック図であ
る。
【図6】上記音声合成部のさらに別の構成例ブロック図
である。
【図7】本発明にかかる翻訳装置の別の構成例ブロック
図である。
【符号の説明】
10 携帯型自動翻訳装置 11 マイクロフォン 12 音声認識部 13 翻訳部 14 制御部 15 音声合成部 16 スピーカ 17 認識用辞書記憶部 18 翻訳用辞書記憶部 19 音源記憶部 120 音声認識部 121 A/D変換部 122 音声解析部 123 音響照合部 125 判定処理部 126 テキストデータ 130 翻訳部 131 形態素解析部 132 構文解析部 133 構文生成部 134 テキストデータ 150 音声合成部 151 音源アクセス部 152 D/A変換部 153 アンプ 154 フォルマント合成部 155 アクセント記号変換部 156 形態素解析部 157 読みアクセント付与部 158 規則合成部 159 辞書記憶部 160 音源記憶部 170 認識用辞書記憶部 190 音源記憶部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 田中 誠 東京都小平市上水本町5丁目22番1号 株 式会社日立超エル・エス・アイ・システム ズ内 (72)発明者 塚田 俊久 東京都国分寺市東恋ケ窪一丁目280番地 株式会社日立製作所中央研究所内 Fターム(参考) 5B091 AA05 CB12 CB32 CD01 CD11 CD15 5D015 KK02 KK04 LL06 5D045 AB03 AB30

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 第1言語の音声を入力するための入力手
    段と、 入力された音声信号を認識用辞書に基づいて認識する音
    声認識手段と、 音声認識結果を翻訳用辞書に基づいて第2言語に翻訳す
    る翻訳手段と、 上記翻訳手段の翻訳結果に対応する音声を音源データに
    基づいて合成する音声合成手段と、 上記音声合成手段の音声合成結果を出力する出力手段
    と、 上記音声認識結果の翻訳前に音声認識結果を上記出力手
    段から出力させる第1制御手段と、 上記音声認識結果の正しいことが確認された後に上記翻
    訳手段での翻訳動作を開始させる第2制御手段と、 を含むことを特徴とする翻訳装置。
  2. 【請求項2】 上記認識用辞書、翻訳用辞書、及び音源
    データが、カード化されて翻訳装置本体に着脱自在に形
    成された記憶媒体に格納されて成る請求項1記載の翻訳
    装置。
  3. 【請求項3】 第1言語の音声を入力するための入力手
    段と、 入力された音声信号を認識用辞書に基づいて認識する音
    声認識手段と、 音声認識結果を第2言語に翻訳する翻訳手段と、 上記翻訳手段の翻訳結果に対応する音声を音源データに
    基づいて合成する音声合成手段と、 上記音声合成手段の音声合成結果を出力する出力手段
    と、 を含み、 上記翻訳手段は、上記音声認識結果に対応する第2言語
    を出力するルックアップテーブルを含んで成ることを特
    徴とする翻訳装置。
  4. 【請求項4】 上記認識用辞書、ルックアップテーブ
    ル、及び音原データが、カード化されて翻訳装置本体に
    着脱自在に形成された記憶媒体に格納されて成る請求項
    3記載の翻訳装置。
  5. 【請求項5】 上記音声合成手段は、音声をサンプリン
    グして得た音声データを記録する記憶手段の記憶データ
    に基づいて音声を合成する請求項1乃至4のいずれか1
    項記載の翻訳装置。
JP10171235A 1998-06-18 1998-06-18 翻訳装置 Withdrawn JP2000010977A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10171235A JP2000010977A (ja) 1998-06-18 1998-06-18 翻訳装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10171235A JP2000010977A (ja) 1998-06-18 1998-06-18 翻訳装置

Publications (1)

Publication Number Publication Date
JP2000010977A true JP2000010977A (ja) 2000-01-14

Family

ID=15919559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10171235A Withdrawn JP2000010977A (ja) 1998-06-18 1998-06-18 翻訳装置

Country Status (1)

Country Link
JP (1) JP2000010977A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2180392A1 (es) * 2000-09-26 2003-02-01 Crouy-Chanel Pablo Grosschmid Sistema dispositivo e instalacion de interpretacion simultanea mecanizada de idiomas.
JP2009223895A (ja) * 2008-03-14 2009-10-01 Nhn Corp 日本語辞書サービスにおいて2単語以上のクエリー、ハングルクエリーまたは一般的なクエリーの入力の際の検索結果を提供するための方法及びシステム
US8275603B2 (en) 2006-09-28 2012-09-25 Kabushiki Kaisha Toshiba Apparatus performing translation process from inputted speech
CN109036383A (zh) * 2018-08-24 2018-12-18 上海理工大学 一种结合爬虫技术的轻量级实时语音识别及翻译装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2180392A1 (es) * 2000-09-26 2003-02-01 Crouy-Chanel Pablo Grosschmid Sistema dispositivo e instalacion de interpretacion simultanea mecanizada de idiomas.
US8275603B2 (en) 2006-09-28 2012-09-25 Kabushiki Kaisha Toshiba Apparatus performing translation process from inputted speech
JP2009223895A (ja) * 2008-03-14 2009-10-01 Nhn Corp 日本語辞書サービスにおいて2単語以上のクエリー、ハングルクエリーまたは一般的なクエリーの入力の際の検索結果を提供するための方法及びシステム
CN109036383A (zh) * 2018-08-24 2018-12-18 上海理工大学 一种结合爬虫技术的轻量级实时语音识别及翻译装置

Similar Documents

Publication Publication Date Title
US11496582B2 (en) Generation of automated message responses
US7124082B2 (en) Phonetic speech-to-text-to-speech system and method
US10140973B1 (en) Text-to-speech processing using previously speech processed data
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US10163436B1 (en) Training a speech processing system using spoken utterances
JP3126985B2 (ja) 音声認識システムの言語モデルのサイズを適応させるための方法および装置
US7143033B2 (en) Automatic multi-language phonetic transcribing system
US10176809B1 (en) Customized compression and decompression of audio data
US20070088547A1 (en) Phonetic speech-to-text-to-speech system and method
US20040153306A1 (en) Recognition of proper nouns using native-language pronunciation
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
MXPA06003431A (es) Metodo para sintetizar voz.
US20030154080A1 (en) Method and apparatus for modification of audio input to a data processing system
JP2001101187A (ja) 翻訳装置および翻訳方法、並びに記録媒体
WO2010025460A1 (en) System and method for speech-to-speech translation
JPH0916602A (ja) 翻訳装置および翻訳方法
JP2002304190A (ja) 発音変化形生成方法及び音声認識方法
KR101836430B1 (ko) 음성 인식과 번역 방법 및 그를 위한 단말 장치와 서버
JP2001188781A (ja) 会話処理装置および方法、並びに記録媒体
KR20230056741A (ko) 목소리 변환 및 스피치 인식 모델을 사용한 합성 데이터 증강
JP2011504624A (ja) 自動同時通訳システム
JP2000029492A (ja) 音声翻訳装置、音声翻訳方法、音声認識装置
JP3911178B2 (ja) 音声認識辞書作成装置および音声認識辞書作成方法、音声認識装置、携帯端末器、音声認識システム、音声認識辞書作成プログラム、並びに、プログラム記録媒体
JP2000010977A (ja) 翻訳装置
JP2003162524A (ja) 言語処理装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050906