JPH06231124A - Voice conversion system - Google Patents
Voice conversion systemInfo
- Publication number
- JPH06231124A JPH06231124A JP5012989A JP1298993A JPH06231124A JP H06231124 A JPH06231124 A JP H06231124A JP 5012989 A JP5012989 A JP 5012989A JP 1298993 A JP1298993 A JP 1298993A JP H06231124 A JPH06231124 A JP H06231124A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- data
- character
- voice data
- conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Document Processing Apparatus (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、文書作成時に文字を音
声に変換して音声の文書を作成する音声変換システムに
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice conversion system for converting a character into a voice and producing a voice document when the document is produced.
【0002】[0002]
【従来の技術】近年、OA機器の発達に伴なって、平仮
名を漢字に変換して文書を作成する、いわゆるワープロ
などの使用人口が急激な増加傾向にあり、種々の用途の
ワープロが開発されている。例えば、業務用ワープロ、
個人用のパーソナルワープロ、パソコンに搭載されるワ
ープロソフトなどである。2. Description of the Related Art In recent years, with the development of OA equipment, the population of so-called word processors, etc., which convert hiragana into kanji and create documents, has been increasing rapidly, and word processors for various purposes have been developed. ing. For example, a business word processor,
These include personal word processors for individuals and word processor software installed on a personal computer.
【0003】このような用途別ワープロとして、音声技
術を利用した、いわゆる音声ワープロが開発され始めて
おり、ワープロで作成した文書を音声合成技術などを利
用して読み上げるシステムが開発されている。As such a word processor for each application, a so-called voice word processor using a voice technique has begun to be developed, and a system for reading out a document created by the word processor using a voice synthesis technique or the like has been developed.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、上記し
たシステムは、ただ単にワープロで作成した文書を音声
合成して読み上げるシステムであるため、ディスプレイ
を見ながら文章を作成するので、視力の低下や目の疲れ
を訴える人が多くなってきており、また、ディスプレイ
を見ないで文章を作成したり、あるいは目の不自由な人
はワープロによる文章作成が困難であるなどの問題があ
った。However, since the system described above is a system that simply synthesizes the text created by a word processor and reads it aloud, sentences are created while looking at the display. The number of people complaining of tiredness is increasing, and there are problems such as writing sentences without looking at the display, or making it difficult for a visually impaired person to write sentences with a word processor.
【0005】本発明は、上記事情に鑑みてなされたもの
で、文書作成の初期の段階から文書作成のための操作を
音声により発声し音声による文書作成を可能とする音声
変換システムを提供することを目的とする。The present invention has been made in view of the above circumstances, and provides a voice conversion system capable of uttering an operation for making a document by voice and making a document by voice from an early stage of document production. With the goal.
【0006】[0006]
【課題を解決するための手段】本発明は、上記目的を達
成するために、複数の平仮名からなる文字列や動作機能
の指示命令を入力する入力手段と、この入力手段から平
仮名あるいは指示命令が入力される毎にその平仮名ある
いは指示命令に対応する音声データを発声する発声手段
と、上記入力手段から入力された文字列を漢字などを含
む複数の文字データの候補に変換しこの変換された文字
データに対応する音声データを上記発声手段から発声す
る文字データ変換手段と、この文字データ変換手段で変
換された複数の文字データの候補から1個の文字データ
を決定する文字データ決定手段と、この文字データ決定
手段による決定時に決定された文字データを対応する最
初の音声データの候補に変換するとともに複数の音声デ
ータの候補に変換しこの変換された音声データの候補を
上記発声手段から発声する音声データ変換手段と、上記
音声データ変換手段で変換された複数の音声データの候
補から1個の音声データを決定する音声データ決定手段
と、この音声データ決定手段により決定された音声デー
タを記憶する記憶手段と、この記憶手段に記憶されてい
る音声データを連続的に再生する再生手段とを具備した
ことを特徴とする。In order to achieve the above object, the present invention provides an input means for inputting a character string composed of a plurality of hiragana characters and an instruction command of an operation function, and a hiragana or instruction command from the input means. A voicing means for uttering voice data corresponding to the hiragana or an instruction command each time it is input, and a character string input from the input means is converted into a plurality of character data candidates including kanji and the converted characters. Character data conversion means for uttering voice data corresponding to the data from the voicing means, character data determination means for deciding one character data from a plurality of character data candidates converted by the character data conversion means, and Converts the character data determined at the time of determination by the character data determination means into the corresponding first voice data candidate and into a plurality of voice data candidates Audio data conversion means for uttering the converted audio data candidates from the voicing means, and audio data determination means for deciding one audio data from a plurality of audio data candidates converted by the audio data conversion means. The present invention is characterized by comprising: storage means for storing the voice data determined by the voice data determination means; and reproduction means for continuously reproducing the voice data stored in the storage means.
【0007】また、本発明は、文字データに対し、複数
の話者の音声を音声辞書として有することを特徴とす
る。Further, the present invention is characterized by having voices of a plurality of speakers as a voice dictionary for the character data.
【0008】また、本発明は、発声手段による音声デー
タの発声の際に音声データを音声合成音あるいは予め登
録されている音声で切換えて発声する切換え手段を具備
したことを特徴とする。Further, the present invention is characterized by comprising switching means for switching and uttering voice data by voice synthesis sound or voice registered in advance when voice data is uttered by the voicing means.
【0009】また、本発明は、文字データを音声データ
に変換する際に、音声データを微調整して発声する微調
整手段を具備したことを特徴とする。Further, the present invention is characterized by comprising fine adjustment means for finely adjusting the voice data and uttering it when converting the character data into the voice data.
【0010】また、本発明は、微調整手段により微調整
された音声データを音声データとして音声辞書に登録す
る登録手段を具備したことを特徴とする。Further, the present invention is characterized by comprising a registration means for registering the voice data finely adjusted by the fine adjustment means as voice data in a voice dictionary.
【0011】[0011]
【作用】本発明は上記のように構成したので、発声手段
が入力手段から平仮名あるいは指示命令が入力される毎
にその平仮名あるいは指示命令に対応する音声データを
発声するとともに変換された文字データに対応する音声
データを発声することにより、発声される音声データに
基づいて文書作成が可能となり、目の不自由な人であっ
てもワープロによる文書作成が可能となる。Since the present invention is configured as described above, every time the voicing means utters the hiragana or the command corresponding to the hiragana or the command, the voice data corresponding to the hiragana or the command is converted into character data. By uttering corresponding voice data, a document can be created based on the uttered voice data, and even a visually handicapped person can create a document by a word processor.
【0012】また、本発明は音声辞書が文字データに対
し複数の話者の音声を有する構成としたので、オペレー
ターの聞き取り易い音声あるいは好みの音声で音声文書
を作成することができる。Further, according to the present invention, since the voice dictionary has the voices of a plurality of speakers for the character data, it is possible to create a voice document with a voice which the operator can easily hear or a voice of his / her preference.
【0013】また、本発明は切換え手段を具備した構成
としたので、音声データを音声合成音あるいは予め登録
されている音声で発声することにより、システムのフレ
キシビリティが拡大される。Further, according to the present invention, since the switching means is provided, the flexibility of the system can be expanded by uttering voice data as a voice synthesis voice or a voice registered in advance.
【0014】また、本発明は微調整手段を具備した構成
としたので、音声データの音質が改善されることにより
聞き間違えなどが防止されるとともに、音質改善された
音声データを音声辞書に登録することにより音声文書の
作成が容易となる。Further, since the present invention is provided with the fine adjustment means, the sound quality of the voice data is improved, thereby preventing misunderstanding, and the voice data having the improved sound quality is registered in the voice dictionary. This makes it easy to create a voice document.
【0015】[0015]
【実施例】以下、図面を参照して本発明の実施例を説明
する。Embodiments of the present invention will be described below with reference to the drawings.
【0016】図1は本発明の一実施例の音声変換システ
ムの概略の構成を示す図で、2点鎖線で囲まれた部分は
通常のワープロシステム1 を示すもので、本発明の音声
変換システムは上記構成のワープロシステム1 に2点鎖
線で囲まれて示されている部分以外の要素を付加して構
成される。FIG. 1 is a diagram showing a schematic configuration of a voice conversion system according to an embodiment of the present invention. A portion surrounded by a chain double-dashed line shows an ordinary word processing system 1, and the voice conversion system of the present invention. Is constructed by adding elements other than the portion surrounded by the two-dot chain line to the word processor system 1 having the above configuration.
【0017】同図において、キーボード部2 の文字入力
キー21から入力されたキーは、音声変換システムの動作
を制御するCPU、制御プログラムを記憶するROM、
および処理データを一時記憶するRAMなどからなる制
御部4 により判別され、判別されたキーに対応する文字
情報が表示部5 に表示されるとともに、例えばPCM方
式で変換された複数の話者の音声や自分の音声などの音
声データが予め登録されている記憶部6 の音声辞書63か
ら入力された文字入力キー21に対応する音声データが制
御部4 に制御されて読み出され、音声変換LSI7 に出
力される。音声変換LSI7 は入力されたディジタル信
号の音声データをアナログ信号に変換してスピーカー8
から音声として発声出力する。また、キーボード部2 を
構成する文字入力キー21以外の本システムの動作機能の
指示命令を入力する文字変換キー22、文字決定キー23な
どの指示命令キーが入力されたときにも、文字入力キー
21の入力と同様に、入力された指示命令キーに対応する
音声データがスピーカー8から音声として発声出力され
る。In the figure, the keys input from the character input keys 21 of the keyboard unit 2 are a CPU for controlling the operation of the voice conversion system, a ROM for storing a control program,
And the character information corresponding to the determined key is displayed on the display unit 5 while being discriminated by the control unit 4 including a RAM for temporarily storing the processed data, and voices of a plurality of speakers converted by, for example, the PCM method. The voice data corresponding to the character input key 21 input from the voice dictionary 63 of the storage unit 6 in which voice data such as or voice of the user is registered in advance is read by the control unit 4 under the control of the control unit 4. Is output. The voice conversion LSI 7 converts the voice data of the input digital signal into an analog signal and outputs it to the speaker 8
Is output as a voice from. Also, when an instruction command key such as a character conversion key 22 or a character determination key 23 for inputting an instruction command of an operation function of this system other than the character input key 21 configuring the keyboard unit 2 is input, the character input key
Similar to the input of 21, voice data corresponding to the input instruction command key is output as voice from the speaker 8.
【0018】仮名漢字変換の場合には、文字入力キー21
から複数の平仮名からなる文字列が入力された後、文字
変換キー22を押すことにより、制御部4 は記憶部6 を構
成するROMからなる仮名漢字変換用の文字辞書61から
入力された文字列に対応する文字データとして漢字、カ
タカナ、あるいはローマ字などからなる文字・単語の漢
字候補から最初の漢字候補を読み出し、表示部5 に表示
する。この最初の漢字候補の表示と同時に、その最初の
漢字候補に対応する音声データが音声辞書63から読み出
されてスピーカー8 から音声として発声出力される。オ
ペレーターは表示部5 あるいはスピーカー8 から発声さ
れる音声に基づいて、正しい漢字候補が表示あるいは発
声されるまで文字変換キー22を押し、正しい漢字候補が
表示あるいは発声されたら文字決定キー23を押すことに
より制御部4 はその漢字候補を決定文字データとして決
定し、決定された文字データを記憶部6 のRAMからな
る文字文書記憶部62に記憶する。In the case of kana-kanji conversion, the character input key 21
After inputting a character string consisting of multiple hiragana characters from, the control unit 4 causes the control unit 4 to input the character string input from the character dictionary 61 for Kana-Kanji conversion composed of the ROM that constitutes the storage unit 6. As the character data corresponding to, the first kanji candidate is read out from the kanji candidates of characters / words consisting of kanji, katakana, or romaji and displayed on the display unit 5. Simultaneously with the display of the first Kanji candidate, the voice data corresponding to the first Kanji candidate is read from the voice dictionary 63 and output as a voice from the speaker 8. The operator presses the character conversion key 22 based on the voice uttered from the display unit 5 or the speaker 8 until the correct Kanji candidate is displayed or uttered, and presses the character determination key 23 when the correct Kanji candidate is displayed or uttered. Thus, the control unit 4 determines the Kanji candidate as the determined character data, and stores the determined character data in the character document storage unit 62 including the RAM of the storage unit 6.
【0019】このように、文字列の入力、仮名漢字変
換、および文字データの決定を繰り返すことによって、
所望の文字文書が作成され、作成中の文字文書は文字文
書記憶部52に記憶され、また、作成済みの文字文書は所
定の手続きを経てフロッピーディスク装置(FDD)や
ハードディスク装置(HDD)からなる記憶装置9 に保
存される。As described above, by repeating the input of the character string, the kana-kanji conversion, and the determination of the character data,
A desired character document is created, the character document being created is stored in the character document storage unit 52, and the created character document is made up of a floppy disk device (FDD) or a hard disk device (HDD) through a predetermined procedure. Stored in storage device 9.
【0020】また、音声文書を作成する場合には、文字
決定キー23が押されて制御部4 が表示部5 に表示され、
あるいはスピーカー8 から発声された漢字候補を決定文
字データとして決定したときに、音声辞書63から決定さ
れた漢字候補に対応する音声データの最初の音声候補が
制御部4 に制御されて読み出され、音声変換LSI7に
出力される。音声変換LSI7 は入力されたディジタル
信号の音声データをアナログ信号に変換してスピーカー
8 から音声として発声出力する。オペレーターはスピー
カー8 から聞き取り易い発音の音声、すなわち所望の発
音の音声データが発声されるまで音声変換キー24を押
し、所望の発音が出力されたら、音声決定キー25を押す
ことにより制御部4 はその音声データを決定音声データ
として決定し、決定された音声データをRAMからなる
音声文書記憶部64に記憶する。When creating a voice document, the character determination key 23 is pressed to display the control section 4 on the display section 5,
Alternatively, when the Kanji candidate uttered from the speaker 8 is determined as the determined character data, the first voice candidate of the voice data corresponding to the Kanji candidate determined from the voice dictionary 63 is controlled and read by the control unit 4, It is output to the voice conversion LSI 7. The voice conversion LSI 7 converts the input digital signal voice data into an analog signal and outputs it to the speaker.
Speech output from 8 The operator presses the voice conversion key 24 until the voice with a pronunciation that is easy to hear from the speaker 8, that is, the voice data of the desired pronunciation is produced, and when the desired pronunciation is output, presses the voice determination key 25 to control the control unit 4. The voice data is determined as the determined voice data, and the determined voice data is stored in the voice document storage unit 64 including a RAM.
【0021】このように、文字列の入力、仮名漢字変
換、文字データの決定、音声データへの変換、および音
声データの決定を繰り返すことにより、決定された文字
データに対応する所望の音声文書が文字文書に連動して
作成され、作成中の音声文書は音声文書記憶部64に記憶
される。また、作成済みの音声文書は所定の手続きを経
て記憶装置9 のテープレコーダーに保存される。As described above, by repeating the input of the character string, the kana-kanji conversion, the determination of the character data, the conversion to the voice data, and the determination of the voice data, a desired voice document corresponding to the determined character data is obtained. The voice document being created in association with the text document is being stored in the voice document storage unit 64. The created voice document is stored in the tape recorder of the storage device 9 through a predetermined procedure.
【0022】ところで、文字に対応する音声を発声する
方法として、例えば入力された文字のアスキーコードを
そのまま音声辞書63のアドレスとして使用してもよい
し、あるいは文字辞書61のアドレスと音声辞書63のアド
レスを連動させるようにしてもよいが、一つの文字に対
し複数の音声データが存在するため、文字辞書61のアド
レスを数倍したアドレスを音声辞書63のアドレスとする
ことにより、倍数分だけのアドレス領域が1文字に対し
割り当てられる。倍数は1文字に割り当てられる音声デ
ータの数とするのが適切である。As a method of uttering a voice corresponding to a character, for example, the ASCII code of the input character may be used as the address of the voice dictionary 63 as it is, or the address of the character dictionary 61 and the voice dictionary 63. The addresses may be linked, but since there are multiple voice data for one character, the address obtained by multiplying the address of the character dictionary 61 by several times is used as the address of the voice dictionary 63, so that only the multiple The address area is assigned to one character. It is appropriate that the multiple is the number of voice data assigned to one character.
【0023】しかしながら、単純に文字辞書61のアドレ
スを数倍しただけでは文字辞書61のアドレスと音声辞書
63のアドレスが重なってしまうので、ハード的に分ける
か、あるいは文字辞書61のアドレス分だけ音声辞書63の
アドレスにバイアスをかければよい。例えば、倍数を4
とした場合、文字辞書61のアドレスが5である文字の音
声辞書63のアドレスは20+バイアス値、文字辞書61の
アドレスが6である文字の音声辞書63のアドレスは24
+バイアス値となり、1文字に対し4つのアドレス領域
が与えられたことになる。そこで、独立した4進カウン
ターをオフセットアドレスとして持ち、音声変換キー24
を押す毎にオフセットアドレスをカウントアップすれば
音声辞書63の全てのアドレスを表現することができ、そ
れぞれの4つのアドレスに異なった音声データを登録し
ておけばよい。このように構成することにより、音声変
換キー24を4回以上押すと、一度発声された音声データ
を再び発声させることができ、エンドレスで同じ発音の
音声を何度も発声させることができる。なお、上記説明
は1文字に対応する音声データの処理についてであった
が、漢字や単語に変換された文字データについても同様
にして対応することができる。However, by simply multiplying the address of the character dictionary 61 by several times, the address of the character dictionary 61 and the voice dictionary are
Since the addresses of 63 are overlapped, it is sufficient to divide them by hardware or to bias the addresses of the voice dictionary 63 by the addresses of the character dictionary 61. For example, a multiple of 4
, The address of the character voice dictionary 63 whose address is 5 is 20 + bias value, and the address of the character voice dictionary 63 whose character dictionary 61 is 6 is 24 addresses.
This is a + bias value, and four address areas are given to one character. Therefore, it has an independent quaternary counter as an offset address, and the voice conversion key 24
All addresses in the voice dictionary 63 can be expressed by counting up the offset address each time is pressed, and different voice data may be registered in each of the four addresses. With this configuration, when the voice conversion key 24 is pressed four times or more, the voice data once uttered can be uttered again, and the endless voice with the same pronunciation can be uttered many times. Note that the above description has dealt with the processing of voice data corresponding to one character, but the same can be applied to character data converted into Chinese characters or words.
【0024】また、音声辞書63は、文字辞書61と同様
に、前回決定された音声データに関する情報や各音声デ
ータについて使用頻度情報を有しており、これらの情報
に基づいて出力される音声データの優先順位が制御部3
により決定され、この優先順位に従ったアドレスの音声
データから順次出力される。例えば前回決定された音声
データが最も優先順位が高く、続いて使用頻度順に優先
順位が高くなる。また、文字入力キー21あるいは指示命
令キーの入力の際に対応して発声される音声データは、
例えば最も優先順位が高い音声データが出力される。Similarly to the character dictionary 61, the voice dictionary 63 has information about the voice data determined last time and use frequency information about each voice data, and the voice data output based on these information. Control unit 3 has priority
The audio data of the addresses determined according to the priority order are sequentially output. For example, the audio data determined last time has the highest priority, and then the priority increases in the order of frequency of use. Also, the voice data uttered corresponding to the input of the character input key 21 or the instruction command key is
For example, audio data with the highest priority is output.
【0025】また、決定された文字データと音声データ
はそれぞれ文字文書記憶部62と音声文書記憶部64に記憶
されるが、それぞれのデータは対応して記憶される。す
なわち、文字データと音声データを同一アドレスの異な
る領域に記憶して、それぞれの領域を文字文書記憶部62
と音声文書記憶部64とし、文字データと音声データを対
応させている。また、文字データと音声データを対応さ
せて記憶する方法としては、文字データの記憶アドレス
にある一定の数をプラスしたアドレスを音声データの記
憶アドレスとして対応させる方法などであってもよい。The determined character data and voice data are stored in the character document storage unit 62 and the voice document storage unit 64, respectively, and the respective data are stored correspondingly. That is, character data and voice data are stored in different areas of the same address, and the respective areas are stored in the character document storage unit 62.
The voice document storage unit 64 is used to associate character data with voice data. As a method of storing the character data and the voice data in association with each other, a method in which an address obtained by adding a certain number to the storage address of the character data is associated as the storage address of the voice data may be used.
【0026】また、26は、作成中あるいは作成後の音声
文書の発音のチェックを行なうために音声文書を再生す
る再生キーで、この再生キー26を押すことにより、制御
部4に制御されて音声文書記憶部64に保存されている音
声文書が読み出され、音声変換LSI7 を介してスピー
カー8 から出力される。このとき、制御部4 の制御によ
り、スピーカー8 から出力されて発声されている音声デ
ータに対応する文字データが、例えば反転表示などの特
殊表示で表示部5 表示され、オペレーターにより変換文
字に間違いがないか否かの確認が行なわれる。Reference numeral 26 is a reproduction key for reproducing a voice document in order to check the pronunciation of the voice document during or after the production. By pressing the reproduction key 26, the voice is controlled by the control unit 4. The voice document stored in the document storage unit 64 is read and output from the speaker 8 via the voice conversion LSI 7. At this time, under the control of the control unit 4, the character data corresponding to the voice data output from the speaker 8 is displayed on the display unit 5 in a special display such as reverse display, so that the operator can confirm that the converted characters are correct. It is confirmed whether or not there is any.
【0027】また、27は、音声データを所望の音質に微
調整するときに押される微調整キーで、この微調整キー
27が押されると、制御部4 により微調整キー27の押圧が
認識され、音声変換LSI7 に出力された音声データと
同一の音声データが、例えばDSP(Digital Signal P
rocessor)からなる音質改善プロセッサ10に出力され
る。微調整キー27が押される毎に音質改善プロセッサ10
は入力された音声データの音質を微調整変換し、変換さ
れた音声データは音声変換LSI7 に出力されてスピー
カー8 から発声される。オペレーターはスピーカー8 か
ら変換された音声を聞き取り、所望の音質になった時点
で音声決定キー25を押し音声を決定する。決定された音
質の音声は音声文書記憶部64に記憶される。Reference numeral 27 denotes a fine adjustment key that is pressed when finely adjusting the voice data to a desired sound quality.
When 27 is pressed, the control unit 4 recognizes the pressing of the fine adjustment key 27, and the same audio data as the audio data output to the audio conversion LSI 7 is output by, for example, a DSP (Digital Signal P
output to the sound quality improvement processor 10 composed of a rocessor). Each time the fine adjustment key 27 is pressed, the sound quality improvement processor 10
Fine-tunes and converts the sound quality of the input audio data, and the converted audio data is output to the audio conversion LSI 7 and uttered from the speaker 8. The operator listens to the converted voice from the speaker 8 and presses the voice determination key 25 when the desired sound quality is reached to determine the voice. The voice of the determined sound quality is stored in the voice document storage unit 64.
【0028】このように音質改善プロセッサ10により変
換される音声データの音質は、用いられるプロセッサの
種類や設定される変換方法に従う。さらに、音声辞書63
に1文字に対する音声データとして発音の異なるものを
幾つか用意しておいて、音質の微調整のみを音質改善プ
ロセッサ10を用いて音質を変換したり、あるいは、音声
辞書63の容量を小さくするため、一種類の文字に対して
発音の異なるものを少数とし、音質改善プロセッサ10で
音質を大幅に変更させて、音声辞書63の音声データの不
足分を補うことが可能となる。The sound quality of the audio data converted by the sound quality improvement processor 10 as described above depends on the type of processor used and the conversion method set. In addition, the voice dictionary 63
In order to prepare some voice data with different pronunciations for one character and convert the sound quality by using the sound quality improvement processor 10 only for fine adjustment of the sound quality, or to reduce the capacity of the sound dictionary 63. It is possible to compensate for the lack of voice data in the voice dictionary 63 by reducing the number of different pronunciations for one type of character and significantly changing the voice quality by the tone quality improvement processor 10.
【0029】また、28は、音声変換システムの動作モー
ドを切換えるモード切換えキーで、このモード切換えキ
ー28を押すことにより、制御部4 に制御されて表示部5
の表示画面に登録音モード、音声合成音モード、音声文
書作成モード、音声登録モードなどのモードメニューが
表示され、表示画面のカーソルをモード切換えキー28を
押すことにより移動させてモードメニューを選択するこ
とにより、選択した動作モードに切換えられる。また、
モードメニューが表示部5 に表示されるとともに、カー
ソルがモードメニュー移動するときに、カーソルが位置
するメニュー情報に対応する音声データが発声され、音
声によってもどのモードが選択されているかが判別され
る。Further, 28 is a mode switching key for switching the operation mode of the voice conversion system, and by pressing this mode switching key 28, the display unit 5 is controlled by the control unit 4.
A mode menu such as registered voice mode, voice synthesis voice mode, voice document creation mode, and voice registration mode is displayed on the display screen of, and the cursor on the display screen is moved by pressing the mode switching key 28 to select the mode menu. As a result, the selected operation mode is switched. Also,
While the mode menu is displayed on the display unit 5, when the cursor moves to the mode menu, the voice data corresponding to the menu information at which the cursor is positioned is uttered, and the voice also determines which mode is selected. .
【0030】登録音モードが選択されると、上記したよ
うに、音声辞書63から出力される音声データが音声変換
LSI7 でアナログ信号に変換されて登録されている音
声データに基づいた発声でスピーカー8 から出力され、
また、音声合成音モードが選択されると、音声辞書63か
ら出力される音声データは音声変換LSI7 には出力さ
れずに音声合成LSI11に出力されて、音声合成音コー
ドが音声合成LSI11から音声変換LSI7 に出力さ
れ、スピーカー8 から音声合成音が出力される。また、
音声合成LSI11で合成された音声合成音は、音質改善
プロセッサ10に出力されて微調整可能である。When the registered sound mode is selected, as described above, the voice data output from the voice dictionary 63 is converted into an analog signal by the voice conversion LSI 7 and the speaker 8 is uttered based on the registered voice data. Is output from
When the voice synthesis voice mode is selected, the voice data output from the voice dictionary 63 is output to the voice synthesis LSI 11 without being output to the voice conversion LSI 7, and the voice synthesis voice code is converted from the voice synthesis LSI 11 to the voice. It is output to the LSI7 and the synthesized voice is output from the speaker 8. Also,
The voice-synthesized sound synthesized by the voice-synthesis LSI 11 is output to the sound quality improvement processor 10 and can be finely adjusted.
【0031】音声文書作成モードが選択されると、上記
したように、仮名漢字変換に引き続いて音声文書が作成
される。When the voice document creation mode is selected, as described above, the voice document is created subsequent to the kana-kanji conversion.
【0032】音声登録モードが選択されると、音声辞書
63に音声データを登録するモードとなる。まず、登録す
る音声データに対応する文字や漢字などの文字データを
入力し、文字決定キー23を押すと、制御部4 は、上記し
た音声データ発声と同様の方法で、文字データに対応す
る音声辞書63のアドレスの空いているオフセットアドレ
スを読み出す。オペレーターは音声入力キー29を押しな
がら音声をマイク12から入力する。音声入力キー29が押
されている間にマイク12から入力された音声は、制御部
4 の制御により音声変換LSI7 においてPCMコード
からなる音声コードに変換され、読み出したアドレスの
音声辞書63の領域に登録される。さらに、音声合成LS
I11から出力される音声データ、あるいは音質改善プロ
セッサ10で音質改善された音声データも音声入力キー29
を押しながら発声させることにより音声辞書53に登録さ
れる。When the voice registration mode is selected, the voice dictionary
It becomes the mode to register the voice data in 63. First, input character data such as characters or kanji corresponding to the voice data to be registered, and press the character determination key 23, and the control unit 4 causes the voice corresponding to the character data in the same manner as the voice data utterance described above. The vacant offset address of the address of the dictionary 63 is read. The operator inputs a voice from the microphone 12 while pressing the voice input key 29. The voice input from the microphone 12 while the voice input key 29 is pressed is
Under the control of 4, the voice conversion LSI 7 converts the voice code to a voice code consisting of a PCM code and registers it in the region of the voice dictionary 63 of the read address. Furthermore, speech synthesis LS
The audio data output from I11 or the audio data whose sound quality has been improved by the sound quality improvement processor 10 is also the voice input key 29.
It is registered in the voice dictionary 53 by making a voice while pressing.
【0033】また、30は取消しキーおよび31は削除キー
であり、例えば文字入力キー21から誤った仮名文字が入
力されたときに、誤った文字の取消しあるいは削除のた
めに用いられる。Further, numeral 30 is a cancel key and numeral 31 is a delete key, which is used for canceling or deleting an erroneous character when, for example, an incorrect kana character is input from the character input key 21.
【0034】次に、上記構成の本発明の音声変換システ
ムの作用について、「川」という漢字を入力する事例に
基づいて説明する。Next, the operation of the speech conversion system of the present invention having the above configuration will be described based on the case of inputting the kanji "kawa".
【0035】まず、文字入力キー21により「か」という
平仮名が入力され、表示部4 に入力された「か」という
文字が表示されるとともに「か」という音声がスピーカ
ー8から発声される。オペレーターは「か」という音声
が発生されたことを確認して文字決定キー23を押す。続
いて、同様にして、「わ」の入力が行なわれるが、もし
誤って入力されたときには、取消しキー30あるいは削除
キー31を押して誤って入力された文字の消去を行なう。
例えば誤って「た」を入力してしまった場合、取消しキ
ー30を押すことにより、スピーカー8 から「取消」とい
う音声が発声され誤って入力された「た」が取消された
ことが確認される。また、削除キー31を用いて消去する
場合には、例えば、『「削除する文字」を削除しまし
た』と音声辞書63に登録しておけば、削除キー31を押す
ことにより、『「た」を削除しました』とスピーカー8
から発声される。いずれにしても消去のために押された
キーの役割がオペレーターに伝わればよいわけで、発声
される言葉はどのような言葉であってもよい。First, the hiragana character "ka" is input by the character input key 21, the input character "ka" is displayed on the display unit 4, and the voice "ka" is uttered from the speaker 8. The operator confirms that the sound "ka" is generated and presses the character determination key 23. Then, in the same manner, "wa" is input. If input is made by mistake, the cancel key 30 or the delete key 31 is pressed to erase the character input by mistake.
For example, if you mistakenly input “ta”, pressing the cancel key 30 will output the voice “Cancel” from the speaker 8 and confirm that the mistakenly entered “ta” has been canceled. . When deleting with the delete key 31, for example, if “Deleted character” has been deleted is registered in the voice dictionary 63, pressing the delete key 31 causes “” Removed ”and speaker 8
Voiced by. In any case, it is only necessary to convey the role of the key pressed for deletion to the operator, and the spoken word may be any word.
【0036】表示部4 には平仮名で「かわ」と表示され
た段階で文字変換キー22が押されると、「かわ」という
文字列に対応する漢字が文字辞書51から読み出され、漢
字に変換される。ここで、例えば「皮」という漢字に変
換されたとする。この場合、音声で「かわ」と発声して
もどのような漢字が表示されているか理解できるよう
に、例えば、『みかんの皮の「皮」』と発声される。こ
の場合にも、どのような漢字が表示されているかがオペ
レーターに伝わればよいわけで、要は、自分が理解し易
い言葉を音声辞書63に登録すればよい。When the character conversion key 22 is pressed at the stage where "KAWA" is displayed in hiragana on the display unit 4, the Kanji corresponding to the character string "KAWA" is read from the character dictionary 51 and converted into Kanji. To be done. Here, for example, it is assumed that the character has been converted to the Chinese character “skin”. In this case, in order to understand what kind of kanji is displayed even if the voice "kawa" is spoken, for example, "skin of mandarin orange" is spoken. In this case as well, it suffices to inform the operator what kind of kanji is displayed, and in short, it is sufficient to register in the voice dictionary 63 words that are easy for the user to understand.
【0037】ところで、オペレーターは「皮」を入力し
たいわけではないので、文字変換キー22を押して次の漢
字候補を読み出す。「川」が読み出されるまで文字変換
キー22を押し続けて「川」が読み出され、『川崎市の
「川」』と発声されたときに、文字決定キー23を押して
「川」を文字データとして決定する。文字データとして
決定された「川」は文字文書記憶部52に保存される。こ
のとき、同じ「川」でも『川崎市の「川」』では理解で
きず、『川越市の「川」』で理解できる人もいるので、
同じ言葉でも形を変えて数回発声させるようにした方が
適切である。By the way, since the operator does not want to input "skin", the character conversion key 22 is pressed to read the next kanji character candidate. Press and hold the character conversion key 22 until "River" is read out, and "River" is read out. When "Kawasaki-shi" River "" is uttered, press the character decision key 23 to enter "River" into character data. To decide. The “kawa” determined as the character data is stored in the character document storage unit 52. At this time, even if the same "river" cannot be understood by the "kawa" in Kawasaki City, some people can understand it by the "kawa" in Kawagoe City.
It is more appropriate to change the shape of the same word so that it is spoken several times.
【0038】オペレーターはこの段階で文書作成操作を
終了させて文字文書だけを作成してもよいが、音声文書
を作成することでより正確な文書を作成することが可能
であり、そのためには予めモード切換えキー28によりで
音声文書作成モードを選択しておく。音声文書作成モー
ドを選択することにより、「川」が文字決定キー23で文
字データとして決定されると、制御部4 の制御により、
「川」に対応する音声データの最初の候補が音声辞書63
から読み出され、音声変換LSI7 を介してスピーカー
8 から発声される。オペレーターはスピーカー8 から発
声される発音を聞いて、所望の発音でなければ、音声変
換キー25を押して次の候補の音声データを読みだして、
スピーカー8 から出力させる。所望の発音の音声が発声
された段階で、音声決定キー25が押され、音声データが
決定される。決定された音声データは文字文書記憶部62
に対応して音声データを記憶する音声文書記憶部64に保
存される。Although the operator may finish the document creating operation at this stage and create only a text document, it is possible to create a more accurate document by creating a voice document. The voice document creation mode is selected with the mode switching key 28. When "kawa" is selected as character data by the character determination key 23 by selecting the voice document creation mode, the control unit 4 controls the
The first candidate for the voice data corresponding to "river" is the voice dictionary 63.
Read out from the speaker via the voice conversion LSI7
Spoken from 8. The operator hears the pronunciation produced from the speaker 8, and if the pronunciation is not the desired one, press the voice conversion key 25 to read the voice data of the next candidate,
Output from speaker 8. When the voice with the desired pronunciation is uttered, the voice determination key 25 is pressed to determine the voice data. The determined voice data is stored in the character document storage unit 62.
Is stored in the voice document storage unit 64 which stores voice data corresponding to.
【0039】上記した文字列の入力、仮名漢字変換、文
字データの決定、および音声データの決定を繰り返すこ
とにより、決定された文字データに対応する所望の音声
文書が文字文書に連動して作成され、文字文書記憶部62
に対応して音声文書記憶部64に保存される。By repeating the input of the character string, the kana-kanji conversion, the determination of the character data, and the determination of the voice data, the desired voice document corresponding to the determined character data is created in association with the character document. , Character document storage unit 62
Is stored in the voice document storage unit 64 in correspondence with.
【0040】上記したように、文字文書とともに音声文
書を作成することにより、例えば、同じ「はし」でも
「橋」と「箸」とでは発音が異なり、「箸」を「橋」と
発音する人はいないので、音声辞書63に正しい発音が登
録されていれば、これらの漢字が混在してしまうことは
なくなり、正しい文字の入力が可能となる。As described above, by creating a voice document together with a text document, for example, the same "chopstick" has different pronunciations for "bridge" and "chopsticks", and "chopsticks" is pronounced as "bridge". Since there are no people, if the correct pronunciation is registered in the voice dictionary 63, these Chinese characters will not be mixed and the correct characters can be input.
【0041】音声文書の作成後に再生キー26が押される
と、音声文書記憶部64に保存されている音声文書が読み
出され、音声変換LSI7 を介してスピーカー8 から発
声される。このとき、スピーカー8 から出力されて発声
されている音声データに対応する文字データが、反転表
示による特殊表示で表示部5 に表示され、オペレーター
による音声文書の発音と文字文書の変換漢字の確認が同
時に行なわれる。When the reproduction key 26 is pressed after the voice document is created, the voice document stored in the voice document storage unit 64 is read out and the voice is output from the speaker 8 via the voice conversion LSI 7. At this time, character data corresponding to the voice data output from the speaker 8 is displayed on the display unit 5 as a special display with reverse video, and the operator can confirm the pronunciation of the voice document and the conversion of the text document. It is done at the same time.
【0042】また、スピーカー8 から発声される「川」
を聞いて音質を変えたいときには、微調整キー27を押す
ことにより音質の調整を行なう。すなわち、微調整キー
27が押されると、「川」の音声データが音質改善プロセ
ッサ10に出力され、微調整キー27が押される毎に音質改
善プロセッサ10は「川」の音質を変換する。そして、ス
ピーカー7 から発声される変換された「川」を聞き取
り、所望の音質になった時点で音声決定キー25を押して
「川」の音質を決定する。決定された音質の音声は音質
改善プロセッサ10で変換された「川」の音声データで音
声文書記憶部64に記憶される。The "river" uttered from the speaker 8
If you want to change the sound quality by listening to, press the fine adjustment key 27 to adjust the sound quality. That is, the fine adjustment key
When 27 is pressed, the sound data of "River" is output to the sound quality improvement processor 10, and each time the fine adjustment key 27 is pressed, the sound quality improvement processor 10 converts the sound quality of "River". Then, the converted "river" uttered from the speaker 7 is heard, and when the desired sound quality is reached, the sound determination key 25 is pressed to determine the sound quality of the "river". The sound of the determined sound quality is stored in the sound document storage unit 64 as the sound data of “river” converted by the sound quality improvement processor 10.
【0043】また、「川」の音声データを決定する段階
で、所望の発音の音声データが存在しない時には、モー
ド切換えキー28を押して動作モードメニューから音声登
録モードを選択し、まず、登録する音声データに対応す
る文字データの「川」を入力し、文字決定キー23を押す
と、「川」に対応する音声辞書63のアドレスの空いてい
るオフセットアドレスを読み出す。続いて、オペレータ
ーが音声入力キー29を押しながらマイク12から所望の発
音の「川」をマイク12から入力すると、音声変換LSI
7 において所望の発音の「川」の音声コードに変換さ
れ、読み出したアドレスの音声辞書63の領域に登録され
る。In addition, at the stage of determining the voice data of "kawa", when the voice data of the desired pronunciation does not exist, the mode switching key 28 is pressed to select the voice registration mode from the operation mode menu. When "kawa" of the character data corresponding to the data is input and the character determination key 23 is pressed, the vacant offset address of the address of the voice dictionary 63 corresponding to "kawa" is read. Next, when the operator inputs the desired pronunciation "kawa" from the microphone 12 while pressing the voice input key 29, the voice conversion LSI
At 7, the voice code is converted into a voice code of "kawa" having a desired pronunciation and registered in the region of the voice dictionary 63 of the read address.
【0044】また、動作モードメニューから音声合成音
モードが選択されると、音声辞書63から読み出された
「川」の音声データは音声合成LSI11に出力されて、
「川」に対応する音声合成音コードが音声合成LSI11
から音声変換LSI7 に出力され、スピーカー8 から
「川」の合成音が出力される。Further, when the voice synthesis voice mode is selected from the operation mode menu, the voice data of "kawa" read from the voice dictionary 63 is output to the voice synthesis LSI 11.
The voice synthesis voice code corresponding to "River" is the voice synthesis LSI11.
Is output to the voice conversion LSI 7, and the synthesized sound of “river” is output from the speaker 8.
【0045】なお、上記実施例では音声辞書53に登録さ
れている音声データを複数の話者の音声や自分の音声と
したが、これに限ることはなく、動物の自然な鳴き声な
ど表現が困難であった自然界の種々の音声を音声データ
として音声辞書53に登録して所望の音声データを選択す
るようにしてもよく、このようにすることにより極く自
然な音声文書を作成することができる。In the above embodiment, the voice data registered in the voice dictionary 53 is the voices of a plurality of speakers or one's own voice, but the present invention is not limited to this, and it is difficult to express the natural crying of animals. It is also possible to register various voices in the natural world as voice data in the voice dictionary 53 and select desired voice data. By doing so, a very natural voice document can be created. .
【0046】また、上記実施例では専用の微調整キー27
を用いて音声データの音質を微調整するようにしたが、
これに限ることはなく、他の2個のキー、例えばシフト
キーと音声変換キー24を同時に押すことにより微調整す
るようにしてもよく、要は専用のキーを設けることなく
他の手段を用いて微調整できるものであればよい。In the above embodiment, the fine adjustment key 27 for exclusive use is used.
I tried to fine-tune the sound quality of the voice data using
The present invention is not limited to this, and fine adjustment may be performed by simultaneously pressing the other two keys, for example, the shift key and the voice conversion key 24. The point is to use other means without providing a dedicated key. Anything can be finely adjusted.
【0047】また、本発明は上記実施例に限定されるこ
となく、本発明の要旨を逸脱しない範囲において、種々
変形可能であることは勿論である。Further, the present invention is not limited to the above-mentioned embodiments, and it goes without saying that various modifications can be made without departing from the gist of the present invention.
【0048】[0048]
【発明の効果】以上詳述したように、本発明の音声変換
システムによれば、発声手段が入力手段から平仮名ある
いは指示命令が入力される毎にその平仮名あるいは指示
命令に対応する音声データを発声するとともに変換され
た文字データに対応する音声データを発声することによ
り、発声される音声データに基づいて文書作成が可能と
なるので、ディスプレイを見ることなく文書作成を行な
うことができ、目の不自由な人であってもワープロによ
る文書作成が可能となる。As described in detail above, according to the voice conversion system of the present invention, every time the voicing means inputs a hiragana or an instruction command from the input means, it produces voice data corresponding to the hiragana or the instruction command. In addition, by uttering voice data corresponding to the converted character data, it becomes possible to create a document based on the uttered voice data. Even free people can create documents by word processing.
【0049】また、切換え手段により音声合成音と予め
登録されている音声との切換え発声可能となり、システ
ムのフレキシビリティを拡大することができる。Further, it is possible to switch the voice synthesis voice and the voice registered in advance by the switching means, so that the flexibility of the system can be expanded.
【0050】また、微調整手段により、発声される音声
データの音質が改善されるので、音声文書の聞き取りが
容易となり、聞き間違えなどを防止することができる。Further, since the sound quality of the voice data to be uttered is improved by the fine adjustment means, it becomes easy to listen to the voice document, and it is possible to prevent a mistake in listening.
【図1】本発明の一実施例の音声変換システムの概略の
構成を示す図である。FIG. 1 is a diagram showing a schematic configuration of a voice conversion system according to an embodiment of the present invention.
21…文字入力キー(入力手段) 22…文字変換キー(文字データ変換手段) 23…文字決定キー(文字データ決定手段) 24…音声変換キー(音声データ変換手段) 25…音声決定キー(音声データ決定手段) 26…再生キー(再生手段) 27…微調整キー(微調整手段) 28…モード切換えキー(切換え手段) 29…モード切換えキー(切換え手段) 4 …制御部 62…文字文書記憶部(記憶手段) 63…音声辞書 64…音声文書記憶部(記憶手段) 7 …音声変換LSI(発声手段) 8 …スピーカー(発声手段) 10…音質改善プロセッサ(微調整手段) 21 ... Character input key (input means) 22 ... Character conversion key (character data conversion means) 23 ... Character determination key (character data determination means) 24 ... Voice conversion key (voice data conversion means) 25 ... Voice determination key (voice data) 26. Playback key (playback means) 27 ... Fine adjustment key (fine adjustment means) 28 ... Mode switching key (switching means) 29 ... Mode switching key (switching means) 4 ... Control section 62 ... Character document storage section ( Storage means 63 ... Voice dictionary 64 ... Voice document storage unit (storage means) 7 ... Voice conversion LSI (speaking means) 8 ... Speaker (speaking means) 10 ... Sound quality improvement processor (fine adjustment means)
Claims (5)
の指示命令を入力する入力手段と、この入力手段から平
仮名あるいは指示命令が入力される毎にその平仮名ある
いは指示命令に対応する音声データを発声する発声手段
と、上記入力手段から入力された文字列を漢字などを含
む複数の文字データの候補に変換しこの変換された文字
データに対応する音声データを上記発声手段から発声す
る文字データ変換手段と、この文字データ変換手段で変
換された複数の文字データの候補から1個の文字データ
を決定する文字データ決定手段と、この文字データ決定
手段による決定時に決定された文字データを対応する最
初の音声データの候補に変換するとともに複数の音声デ
ータの候補に変換しこの変換された音声データの候補を
上記発声手段から発声する音声データ変換手段と、上記
音声データ変換手段で変換された複数の音声データの候
補から1個の音声データを決定する音声データ決定手段
と、この音声データ決定手段により決定された音声デー
タを記憶する記憶手段と、この記憶手段に記憶されてい
る音声データを連続的に再生する再生手段とを具備した
ことを特徴とする音声変換システム。1. An input means for inputting a character string composed of a plurality of hiragana characters and an instruction command for an operation function, and voice data corresponding to the hiragana or instruction command each time the hiragana or instruction command is input from the input means. Speaking means for uttering and converting the character string input from the inputting means into a plurality of character data candidates including Chinese characters and converting the voice data corresponding to the converted character data from the uttering means Means, a character data determination means for determining one character data from a plurality of character data candidates converted by this character data conversion means, and a character data determined at the time of determination by this character data determination means. Of the voice data and the plurality of voice data candidates, and the converted voice data candidates are uttered from the voicing means. The voice data conversion means for uttering voice, the voice data determination means for determining one voice data from the plurality of voice data candidates converted by the voice data conversion means, and the voice data determined by the voice data determination means An audio conversion system comprising a storage means for storing and a reproduction means for continuously reproducing the audio data stored in the storage means.
音声辞書として有することを特徴とする請求項1記載の
音声変換システム。2. The voice conversion system according to claim 1, further comprising voices of a plurality of speakers as a voice dictionary for the character data.
音声データを音声合成音あるいは予め登録されている音
声で切換えて発声する切換え手段を具備したことを特徴
とする請求項1記載の音声変換システム。3. The voice conversion according to claim 1, further comprising switching means for switching the voice data by voice synthesis voice or a voice registered in advance when the voice data is produced by the voice producing means. system.
に、音声データを微調整して発声する微調整手段を具備
したことを特徴とする請求項1記載の音声変換システ
ム。4. The voice conversion system according to claim 1, further comprising a fine adjustment means for finely adjusting the voice data and uttering the voice data when converting the character data into the voice data.
タを音声データとして音声辞書に登録する登録手段を具
備したことを特徴とする請求項4記載の音声変換システ
ム。5. The voice conversion system according to claim 4, further comprising registration means for registering voice data finely adjusted by the fine adjustment means as voice data in a voice dictionary.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5012989A JPH06231124A (en) | 1993-01-29 | 1993-01-29 | Voice conversion system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5012989A JPH06231124A (en) | 1993-01-29 | 1993-01-29 | Voice conversion system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06231124A true JPH06231124A (en) | 1994-08-19 |
Family
ID=11820621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5012989A Pending JPH06231124A (en) | 1993-01-29 | 1993-01-29 | Voice conversion system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06231124A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7111629B2 (en) | 2001-01-08 | 2006-09-26 | Apl Co., Ltd. | Method for cleaning substrate surface |
-
1993
- 1993-01-29 JP JP5012989A patent/JPH06231124A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7111629B2 (en) | 2001-01-08 | 2006-09-26 | Apl Co., Ltd. | Method for cleaning substrate surface |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6321196B1 (en) | Phonetic spelling for speech recognition | |
WO2004036939A1 (en) | Portable digital mobile communication apparatus, method for controlling speech and system | |
JP3795692B2 (en) | Character processing apparatus and method | |
JPH06231124A (en) | Voice conversion system | |
JP2004145015A (en) | System and method for text speech synthesis | |
JPH06337876A (en) | Sentence reader | |
JP2006031725A (en) | Character processor | |
JP4229627B2 (en) | Dictation device, method and program | |
JP2580565B2 (en) | Voice information dictionary creation device | |
JPS6184771A (en) | Voice input device | |
JP2002268664A (en) | Voice converter and program | |
JPH06231125A (en) | Voice conversion system | |
JPH09259145A (en) | Retrieval method and speech recognition device | |
JPS60251466A (en) | Chinese braille point voice word processor | |
JPH054676B2 (en) | ||
JP2658476B2 (en) | Document Braille device | |
Zitouni et al. | OrienTel: speech-based interactive communication applications for the mediterranean and the Middle East | |
JP2002189490A (en) | Method of pinyin speech input | |
JP2547611B2 (en) | Writing system | |
JPH0195323A (en) | Voice input device | |
JPH02238494A (en) | Voice synthesizing device | |
JPH04177526A (en) | Sentence reading-out device | |
JPH1195978A (en) | Sentence input device | |
JPH01161296A (en) | Voice recognition system | |
JPS6184772A (en) | Audio typewriter |