JP2638151B2 - 会話補助装置 - Google Patents

会話補助装置

Info

Publication number
JP2638151B2
JP2638151B2 JP63273874A JP27387488A JP2638151B2 JP 2638151 B2 JP2638151 B2 JP 2638151B2 JP 63273874 A JP63273874 A JP 63273874A JP 27387488 A JP27387488 A JP 27387488A JP 2638151 B2 JP2638151 B2 JP 2638151B2
Authority
JP
Japan
Prior art keywords
voice
data
conversation
input
voice data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63273874A
Other languages
English (en)
Other versions
JPH02129686A (ja
Inventor
健治 黒野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
REEMU PUROPATEIZU BV
Original Assignee
REEMU PUROPATEIZU BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by REEMU PUROPATEIZU BV filed Critical REEMU PUROPATEIZU BV
Priority to JP63273874A priority Critical patent/JP2638151B2/ja
Publication of JPH02129686A publication Critical patent/JPH02129686A/ja
Application granted granted Critical
Publication of JP2638151B2 publication Critical patent/JP2638151B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Description

【発明の詳細な説明】 発明の目的 [産業上の利用分野] 本発明は会話補助装置に関し、特に外国語会話におい
て、少ない知識でその場の状況に合わせた会話、あるい
は自己の音声にて会話する場合の補助装置に関する。
[従来の技術] 従来、発音練習機として、所定の単語をキーボードか
ら入力すると、その単語に対応する発声を電子回路によ
り合成して示す装置が存在する(特開昭62−36685
号)。また、メッセージ用に所定の文章を音声で出力す
る装置がある(特開昭62−40524号)。また人間の音声
を電気的に半導体メモリに記憶しておき、後で再生する
装置もある(特開昭62−55698号)。
[発明が解決しようとする課題] しかし、これらの装置は単に操作者が所望の会話+単
語を発音させたり、テープレコーダ代わりに録音し再生
するものである。従ってメモリに用意してない単語や会
話文では利用することが困難であり、更に装置に記憶さ
れた会話文を自己の声で発声させることなども不可能で
あった。
発明の構成 本発明はこの課題を解決し、装置のメモリにある知識
は十分に活用すると共に、装置のメモリにない単語や会
話文についても音声で出力可能な会話補助装置を提供
し、また操作者の声でその会話が出力される会話補助装
置を提供することを目的とするものである。
[課題を解決するための手段] 上記構成を解決するための構成は次のごとくである。
即ち、第1発明の会話補助装置は、第1図(A)に例示
するごとく、 音声入力手段M1と、 音声入力手段M1から入力された音声を記憶する音声記
憶手段M2と、 指示入力手段M3と、 指示入力手段M3から入力された指示に基づいて、音声
データからなる会話データ群M4から所定の会話の音声デ
ータを選択する選択手段M5と、 音声記憶手段M2の音声データと選択手段M5にて選択さ
れた音声データとを一連の音声データとして合成する合
成手段M6と、 合成手段M6にて合成された音声データを音声として出
力する音声出力手段M7と、 を備えたことを特徴とする。
第2の発明の会話補助装置は、第1図(B)に例示す
るごとく、 音声入力手段M11と、 音声入力手段M11から入力された音声を記憶する音声
記憶手段M12と、 指示入力手段M13と、 指示入力手段M13から入力された指示に基づいて、会
話データ群M14から所定の会話データを選択する選択手
段M15と、 音声入力手段M11から入力された音声パターンの特性
を抽出する特性抽出手段M16と、 選択手段M15にて選択された会話データを、特性抽出
手段M16にて抽出された音声パターン特性を有する音声
データに変換するデータ変換手段M17と、 音声記憶手段M12の音声データとデータ変換手段M17に
変換された音声データとを一連の音声データとして合成
する合成手段M18と、 合成手段M18にて合成された音声データを音声として
出力する音声出力手段M19段と、 を備えたことを特徴とする。
〔作用〕
第1発明 定形文などの会話データは、会話データ群M4として準
備され、指示入力手段M3から操作者が所定の会話の出力
を指示すれば、選択手段M5が会話データ群M4から所望の
会話の音声データを選び出す。この会話の音声データ操
作者が発声する部分が空白となっているデータである。
この音声データは、合成手段M6により、音声入力手段M1
を介して音声記憶手段M2に記憶されている操作者の声か
ら直接的に得られた音声データと一連の音声データに合
成される。この一連の音声データは、音声出力手段M7か
ら発声される。
即ち、その発声される会話の内容は、操作者が声で入
力した部分と、会話データ群中にある会話とが一連の文
に合成されて、完全な会話文として出力される。
第2発明 定形文などの会話データは、会話データ群M14として
準備され、指示入力手段M13から操作者が所定の会話の
出力を指示すれば、選択手段M15が会話データ群M14から
所望の会話データを選び出す。更、に音声入力手段M11
から入力された音声が音声記憶手段M12に記憶されるの
は、第1発明と同様である。
第2発明では、音声入力手段M11から入力された音声
について、特性抽出手段M16により音声のパターン特性
が抽出される。次いで上記選択された会話データを、デ
ータ変換手段M17にて上記パターン特性を有する音声デ
ータに変換される。この変換された音声データが、第1
発明と同様に、合成手段M18により、音声記憶手段M12に
記憶されている音声データと一連の音声データに合成さ
れ、この一連の音声データは、音声出力手段M19から発
声される。
第2発明の場合は、その合成された会話文がすべて、
操作者の声あるいは操作者に近時の声で出力される。
[実施例] 第2図に第1発明会話補助装置の一実施例を示す。本
装置は英仏西会話補助装置として構成されたものであ
る。
会話補助装置1の外観はカード型を為し、その一面
に、指示入力用キー3が配列され、表示用の液晶パネル
(LCD)5、音声出力用のスピーカ7及び音声入力用の
マイク9が設けられている。
この内部構成は第3図のブロック図に示すごとく、マ
イクロコンピュータとして構成され、主要部はCPU11,RO
M13,RAM15を備えると共に、、キー3及びマイク9の入
力回路17と、液晶パネル5及びスピーカ7の出力回路19
とを備えている。これらの構成は図示しないアドバイス
やデータバスにて信号送受信可能に接続されている。
第4図のフローチャートに第1発明の一実施例の会話
補助装置1の処理を示す。本処理は電池21が会話補助装
置1の装着された以後に繰り返し実行される。
処理が開始されると、まず初期設定がなされ、各種変
数やフラグの初期値が設定される(ステップ112)。次
のキー入力待となる(ステップ120)。ここでキー3の
いずれかが押されると、キー内容が判定される(ステッ
プ130)。
仏語キー3bが押されると、ROM13またはRAM15内に記憶
されている仏語の文章ファイルが、文章選択の対象とし
て設定される(ステップ135)。このときLCD5には「仏
会話が設定されました。」とメッセージが表示される
(ステップ137)。
次に、文章選択キー3eが押されると、該当する言語、
このときは仏語の文章がファイルの先頭から1つ読み出
されて表示される(ステップ140)。この文章が希望の
文章ではない場合、次候補選択キー3hが押されると(ス
テップ150)次の文章を表示する(ステップ140)。希望
の文章が表示されれば、確定キー3dを押すと、その確定
された文章に該当する音声データが、ROM13からRAM15内
の所定とアドレスに記憶される(ステップ160)。
例えば、順番にLCD5に表示されて来る複数の会話文、
例えば の中から、 「Que prendrez−vous,$物$ou$物$?」 なる文章を選択すると、この文章の音声データがRAM15
内に記憶されることになる。この音声データは各種の分
析合成形符号化方式により得られたパラメータにて構成
されているものでもよく、また記録再生方式の音声デー
タでもよい。尚、文章の内、2箇所の「$物$」は音声
データ挿入部分であり、音声データには変換されない。
次に「音声入力キーを押してから、音声をいれてくだ
さい。」という、音声入力指示表示がLCD5に表示される
(ステップ170)。
音声入力キー3fが押されると、マイク9から音声入力
に記憶することが可能となる(ステップ180)。マイク
9から入力された音声は、入力回路17に備えられたA/D
変換装置により、その波形がデジタル値に変換されて、
RAM15内に設定されたバッファ中に記憶される。例え
ば、「du lait」と発音すれば、その発音データがバッ
ファに記憶される。この音声データは上記会話文の内の
第1番目の「$物$」に該当する。
その後、再度、音声入力キー3fが押されれば(ステッ
プ184)、前回の訂正処理としてステップ180の音声入力
及び記憶処理が繰り返される。
確定キー3dが押されれば(ステップ186)、処理回数
が所定回数に至ったか否かが判断される(ステップ18
8)。「$物$」は2つあり、もう1回音声データ入力
が必要なので否定判定されて、2回目の音声入力+記憶
処理に移る(ステップ180)。即ち、上記会話文の内の
第2番目の「$物$」に該当する音声データが同様に入
力+記憶されることとなる。例えば、「du lacrme」
と発音すれば、第2番目の発音データとしてバッファに
記憶される。
次にこの発音データ中の2つの「$物$」部分にステ
ップ180にて記憶された2つの音声データを挿入して、
1つの文章に合成する(ステップ210)。即ち、 「Que prendrez−vous,dulait ou de la crme?」とい
う文章に該当する音声データを合成することになる。
次に音声出力指示表示をして(ステップ220)、キー
入力待となる(ステップ120)。
次に音声出力キー3gを押すと、ステップ210で合成さ
れた音声データがスピーカ7から出力される(ステップ
230)。
即ち、 「Que prendrez−vous,dulait ou de la crme?」なる
音声がスピーカ7から出力されることになる。
従って、単に目的の単語を発声して入力するだけで、
所望の文章が自動的に滑らかに発声されることになる。
本実施例において特別にステップ210の挿入合成処理
を実施せずとも、他の合成処理として、ステップ230に
て出力する際に発声すべき順に出力するようにしてもよ
い。
即ちROM13から「Que prendrez−vous」の音声データ
を取り出して発声した後、RAM15から「du lait」の音声
データを取り出して発声し、次ぎにROM13から「ou」の
音声データを取り出して発声し、次にRAM15から「de la
crme」の音声データを取り出して発声するようにし
てもよい。尚、このような発声方式ならば、ステップ16
0では音声データそのものを記憶する必要はなく、文章
の音声データが格納されているメモリアドレスのみ記憶
しておけばよい。
上記実施例において、マイク9が音声入力手段M1に該
当し,RAM15が音声記憶手段M2に該当し、次候補選択キー
3hが指示入力手段M3に該当し、CPU11が選択手段M5及び
合成手段M6に該当し、スピーカ7が音声出力手段M7に該
当する。CPU11の処理の内、ステップ140,150の処理が選
択手段M5としての処理に該当し、ステップ210の処理が
合成手段M6としての処理に該当する。
第5図のフローチャートに第2発明一実施例の会話補
助装置の処理を示す。本実施例のハード的構成は第2図
及び第3図に示した第1発明の実施例と同一であるので
説明は省略する。本処理は電池21が会話補助装置に装
着された以後の繰り返し実行される。
処理が開始されると、まず処理設定がなされ、各種変
数やフラグの初期値が設定される(ステップ310)。次
にキー入力待となる(ステップ320)。ここでキー3の
いずれかが押されると、キー内容が判定される(ステッ
プ330)。英語キー3aが押されると、ROM13またはRAM15
内に記憶されている英語の文章ファイルが、文章選択の
対象として設定される(ステップ335)。このときLCD5
には(英会話が設定されました。」とメッセージが表示
される(ステップ337)。
次に、文章選択キー3eが押されると、該当する言語、
このときは英語の文章がファイルの先頭から1つ読み出
されて表示される(ステップ340)。この文章が希望の
文章ではない場合、次候補選択キー3hが押されると(ス
テップ350)次の文章を表示する(ステップ340)。希望
の文章が表示されれば、確定キー3dを押すと、その確定
された文章に該当する音声データが、ROM13からRAM15内
に所定のアドレスに記憶される(ステップ360)。
例えば、順番にLCD5に表示されて来る複数の会話文、
例えば、 の中から、 「Would you page $人$?」なる文章を選択すると、
この文章の音声データがRAM15内に記憶されることにな
る。この音声データは各種の分析合成形符号化方式によ
り得られたパラメータにて構成されているものである。
尚、文章の内、「$人$」は音声データ挿入部分であ
り、音声データには変換されない。
次に「音声入力キーを押してから、音声をいれてくだ
さい。」という、音声入力指示表示がLCD5に表示される
(ステップ370)。
音声入力キー3fが押されると、マイク9から音声入力
し記憶することが可能となる(ステップ380)。マイク
9から入力された音声は、入力回路17に備えられたA/D
変換装置により、その波形がデジタル値に変換されて、
RAM15内に設定されたバッファ中に記憶される。例え
ば、「Mr.Smith」と発音すれば、その発音データがバッ
ファに記憶される。この音声データは上記会話文の内の
「$人$」に該当する。
その後、再度、音声入力キー3fが押されれば(ステッ
プ384)、前回の訂正処理としてステップ380の音声入力
及び記憶処理が繰り返される。
確定キー3dが押されれば(ステップ386)、処理回数
が所定回数に至ったか否かが判断される(ステップ38
8)。ここでは音声データが必要なのは「$人$」の1
つだけであるので、否定判定されて、次ぎにステップ38
0にてバッファに記憶されている音声のパターン分析が
行われる(ステップ390)。
即ち、一般的に知られているPARCORボコーダ方式やLS
Pボコーダ方式等の分析合成形符号化方式により、話者
の音声の特徴を表すパラメータを検出する。特にスペク
トル包絡と基本周波数(ピッチ)とが特徴を表している
ので、この2つのパラメータのみを捉えてもよい。
次にステップ360で記憶された文章の音声データの標
準的パラメータの内、スペクトル包絡パラメータと基本
周波数(ピッチ)パラメータとの部分が、ステップ390
にて検出されたパラメータで入れ替えられる(ステップ
400)。勿論、ステップ390で他のパラメータを検出して
いれば、そのパラメータも入れ替えてもよい。こうして
選択された文章の音声データが話者の声に近似される。
次にこの近似された音声データ中の「$人$」の部分
にステップ380にて記憶された音声データを挿入して、
1つの文章に合成する(ステップ410)。
次に音声出力指示表示をして(ステップ420)、キー
入力待となる(ステップ320)。
次に音声出力キー3gを押すと、ステップ410で合成さ
れた音声データがスピーカ7から出力される(ステップ
430)。
即ち、 「Would you page Mr.Smith?」なる音声がスピーカ7か
ら出力されることになる。しかも音声の内、「Mr.Smit
h」は完全に話者の音質であり、「Would you page」は
話者の音質に近似した音質となっている。
従って、単に目的の単語を発声して入力するだけで、
所望の文章が自動的に自己の声で滑らかに発声されるこ
とになる。
本実施例において特別にステップ410の挿入合成処理
を実施せずとも、他の合成処理として、ステップ430に
て出力する際に発声すべき順に出力してもよいことは、
第1発明の実施例と同様である。
上記実施例において、マイク9が音声入力手段M11に
該当し、次候補選択キー3hが指示入力手段M13に該当
し、CPU11が選択手段M15、特性抽出手段M16、データ変
換手段M17及び合成手段M18に該当し、RAM15が音声記憶
手段M12に該当し、スピーカ7が音声出力手段M19該当す
る。CPU11の処理の内、ステップ340,350の処理が選択手
段M15としての処理に該当し、ステップ390の処理が特性
抽出手段M16としての処理に該当し、ステップ400の処理
がデータ変換手段M17としての処理に該当し、ステップ4
10の処理が合成手段M18としての処理に該当する。
各実施例において、発音すべき単語が不明な場合を考
慮して辞書機能を設け、ステップ180,380の処理時に、
日本語を、別途設けた仮名キーから入力すると、英語、
仏語、スペイン語に変換してLCD5に出力するようにして
もよい。また同時にスピーカ7からその発音を音声出力
してもよい。操作者はそれを見て、あるいはそれを聞い
て音声入力すればよい。
また、ステップ140,340の表示処理にて、各国語の文
章を表示する際に、あわせて日本語を表示するようにし
てもよい。
例えば、 「Que prendrez−vous,$物$oub$物$? $物$と$
物$とどちらにしますか。」 「Would you page $人$? $人$を呼び出してもら
えますか。」 といった表示にする。
またこの表示の際に同時に装置が発声するようにして
もよい。こうすれば操作者にとっては予め正確な発音が
覚えられるという、メリットがある。
発明の効果 第1発明によれば、単に目的の単語を発音して入力す
るだけで、メモリ中の文章と一体となって所望の完全な
文章が自動的に滑らかに発声されることになる。
第2発明によれば、更に所望の文章が自己の声で滑ら
かに発声されることになる。
各発明のような会話補助装置を使用すれば、即座に必
要な会話文を円滑に発声できる。話者が発音する部分は
一部分であり、他は装置側が正確な発音をするので、話
者の発音が上手でなくとも、外国人の聞き手にも理解が
容易である。特に第2発明の会話補助装置は文章全体が
話者の音声に近い音質に統一されるので、聞き側も違和
感なく一層理解し易い。
【図面の簡単な説明】
第1図(A)は第1発明の基本的構成例示図、第1図
(B)は第2発明の基本的構成例示図、第2図は第1発
明及び第2発明の各実施例の外観斜視図、第3図はその
ブロック図、第4図は第1発明一実施例の処理内容のフ
ローチャート、第5図は第2発明一実施例の処理内容の
フローチャートを表す。 M1,M11……音声入力手段 M2,M12……音声記憶手段 M3,M13……指示入力手段 M4,M14……会話データ群 M5,M15……選択手段 M6,M18……合成手段 M7,M19……音声出力手段 M16……特性抽出手段、M17……データ変換手段 3h……次候補選択キー、7……スピーカ 9……マイク、11……CPU 13……ROM、15……RAM

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】音声入力手段と、 音声入力手段から入力された音声を記憶する音声記憶手
    段と、 指示入力手段と、 指示入力手段から入力された指示に基づいて、音声デー
    タからなる会話データ群から所定の会話の音声データを
    選択する選択手段と、 音声記憶手段の音声データと選択手段にて選択された音
    声データとを一連の音声データとして合成する合成手段
    と、 合成手段にて合成された音声データを音声として出力す
    る音声出力手段と、 を備えたことを特徴とする会話補助装置。
  2. 【請求項2】音声入力手段と、 音声入力手段から入力された音声を記憶する音声記憶手
    段と、 指示入力手段と、 指示入力手段から入力された指示に基づいて、会話デー
    タ群から所定の会話データを選択する選択手段と、 音声入力手段から入力された音声パターンの特性を抽出
    する特性抽出手段と、 選択手段にて選択された会話データを、特性抽出手段に
    て抽出された音声パターン特性を有する音声データに変
    換するデータ変換手段と、 音声記憶手段の音声データとデータ変換手段に変換され
    た音声データとを一連の音声データとして合成する合成
    手段と、 合成手段にて合成された音声データを音声として出力す
    る音声出力手段と、 を備えたことを特徴とする会話補助装置。
JP63273874A 1988-10-28 1988-10-28 会話補助装置 Expired - Lifetime JP2638151B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63273874A JP2638151B2 (ja) 1988-10-28 1988-10-28 会話補助装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63273874A JP2638151B2 (ja) 1988-10-28 1988-10-28 会話補助装置

Publications (2)

Publication Number Publication Date
JPH02129686A JPH02129686A (ja) 1990-05-17
JP2638151B2 true JP2638151B2 (ja) 1997-08-06

Family

ID=17533771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63273874A Expired - Lifetime JP2638151B2 (ja) 1988-10-28 1988-10-28 会話補助装置

Country Status (1)

Country Link
JP (1) JP2638151B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9602431D0 (en) * 1996-02-07 1996-04-03 Philips Electronics Nv Interactive audio entertainment apparatus

Also Published As

Publication number Publication date
JPH02129686A (ja) 1990-05-17

Similar Documents

Publication Publication Date Title
JP4867804B2 (ja) 音声認識装置及び会議システム
US6853971B2 (en) Two-way speech recognition and dialect system
CN108431883B (zh) 语言学习系统以及语言学习程序
JP3384646B2 (ja) 音声合成装置及び読み上げ時間演算装置
US20090197224A1 (en) Language Learning Apparatus, Language Learning Aiding Method, Program, and Recording Medium
KR100659212B1 (ko) 어학 학습 시스템 및 어학 학습용의 음성 데이터 제공 방법
JPH05165486A (ja) テキスト音声変換装置
JP2001318592A (ja) 言語学習装置及びその言語分析方法
CN111370001A (zh) 一种发音的纠正方法、智能终端及存储介质
JP2638151B2 (ja) 会話補助装置
JP2006139162A (ja) 語学学習装置
JPS6057898A (ja) 音声登録方式
JPS616732A (ja) 発声訓練装置
JP2001117752A (ja) 情報処理装置および情報処理方法、並びに記録媒体
JP4543919B2 (ja) 語学学習装置
JP2001282098A (ja) 外国語学習装置、外国語学習方法および媒体
KR20090081046A (ko) 인터넷을 이용한 언어 학습 시스템 및 방법
JP2578876B2 (ja) 文章読み上げ装置
JPH05341705A (ja) 会話訓練装置
JP2966954B2 (ja) 文書読上げ指示装置
Lau et al. A CASE STUDY ON MANDARIN TEXT-TO-SPEECH
JPH1165410A (ja) 発音練習装置
JPH1063287A (ja) 発音訓練装置
JPH08297673A (ja) 音声入力翻訳装置
JPH01285998A (ja) 音声認識装置