JPS63155229A - Conversion system for word processor - Google Patents
Conversion system for word processorInfo
- Publication number
- JPS63155229A JPS63155229A JP61300124A JP30012486A JPS63155229A JP S63155229 A JPS63155229 A JP S63155229A JP 61300124 A JP61300124 A JP 61300124A JP 30012486 A JP30012486 A JP 30012486A JP S63155229 A JPS63155229 A JP S63155229A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- word
- conversion
- input
- time length
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Landscapes
- Document Processing Apparatus (AREA)
Abstract
Description
【発明の詳細な説明】
〔概 要〕
本発明は音声入力ワードプロセッサにおいて、人力音声
の時間長を識別することによって文字変換、行変換等を
キーボードによらず、音声により行えるようにした変換
方式である。[Detailed Description of the Invention] [Summary] The present invention provides a conversion method in a voice input word processor that enables character conversion, line conversion, etc. to be performed by voice instead of using a keyboard by identifying the time length of human voice. be.
本発明はワードプロセッサに関し、特に音声入力が可能
なワードプロセッサの変換方式に関する。The present invention relates to a word processor, and more particularly to a conversion method for a word processor that allows voice input.
〔従来の技術及び発明が解決しようとする問題点)近年
、音声認識技術の発展に伴いワードプロセッサのキー人
力の代りに音声を用いて入力することが行われている。[Prior Art and Problems to be Solved by the Invention] In recent years, with the development of speech recognition technology, voice input has become commonplace in place of human input using the keys of a word processor.
この場合、通常行われる音声認識装置では、音素、単語
、構文など種々の次元の言語情報を記憶した装置によっ
て、音素標準パターンに基づいて入力音声との類似度を
調べ音素の認識を行っている。装置にはいわゆる単語辞
書(テンプレート)が備えられ、カタカナ、ひらがな、
漢字等の文字列が記憶され単語認識のために参照される
。In this case, the speech recognition device that is normally used uses a device that stores linguistic information of various dimensions such as phonemes, words, and syntax to recognize the phonemes by checking the degree of similarity with the input speech based on a standard phoneme pattern. . The device is equipped with a so-called word dictionary (template), which includes katakana, hiragana,
Character strings such as kanji are stored and referenced for word recognition.
第4図は上述した従来装置の要部の一例である。FIG. 4 shows an example of the main part of the conventional device described above.
第4図において、1は音声入力するマイクロホン、2は
データ、コマンド等入力するキーボード、3は音声認識
部、4はテンプレート切換部、5は文章データ用単音節
テンプレート、6はコマンド用単語テンプレート、7は
文章処理部、そして8は表示装置(CRT)である。In FIG. 4, 1 is a microphone for voice input, 2 is a keyboard for inputting data, commands, etc., 3 is a voice recognition section, 4 is a template switching section, 5 is a monosyllabic template for text data, 6 is a word template for commands, 7 is a text processing section, and 8 is a display device (CRT).
このような構成において、「音声」と入力したい場合に
は、第5図に示すように単音節で「オ」、「ン」、「セ
」、「イ」と発声するとマイクロホン1を経て音声認識
部3に入力される。音声認識部3は、単音節テンプレー
ト5と照合しながら「オ」、「ン」、「セ」、「イ」と
認識し、その結果を文章処理部7に入力する。その後、
第5図に示すようにキーボード2のコマンドキーを押下
する(ONする)とテンプレート切換部4によりコマン
ド用単語テンプレート6に切り換え「ヘンカン」の入力
音声に対して照合を行い文字変換処理の指示であること
を認識した後文章処理部7に変換処理の指示を送る。こ
れにより「音声」の入力データを表示装置8に表示する
ことができる。In such a configuration, if you want to input "speech", utter the monosyllables "o", "n", "se", and "i" as shown in Figure 5, and the voice will be recognized through microphone 1. The information is input to section 3. The speech recognition unit 3 recognizes “o”, “n”, “se”, and “i” while checking against the monosyllable template 5, and inputs the result to the sentence processing unit 7. after that,
As shown in FIG. 5, when the command key on the keyboard 2 is pressed (turned ON), the template switching unit 4 switches to the command word template 6, matches the input voice of "Henkan", and instructs the character conversion process. After recognizing this, an instruction for conversion processing is sent to the text processing section 7. Thereby, the "audio" input data can be displayed on the display device 8.
このように従来は音声入力を変換する場合にはコマンド
キーの押下により行われており、データ部分は音声入力
が可能であっても文字変換指示等の制御部分については
相変らずコマンドキーで行われ手操作を繁雑なものにし
ていた。In this way, conventionally, when converting voice input, it was done by pressing the command key, and even though voice input is possible for the data part, the command key is still used for control parts such as character conversion instructions. This made manual operations complicated.
〔問題点を解決するための手段および作用〕本発明は上
述の問題点を解決したワードプロセッサの変換方式を提
供するものであり、音声データの単音節の発声時間とコ
マンドとしての単語の発声時間の違いに着目して、音声
データと変換コマンドの切換えをキーボード操作なしで
音声のみで行うようにしたものであって、その手段は、
入力音声の時間長を検出し基準値と比較する音声認識部
を備え、該入力音声の時間長が該基準値を超えた時は該
入力音声を変換コマンドと認識して文字変換、あるいは
行変換等の変換を行い、該時間長が該基準値を超えない
時は文章データと認識して表示することを特徴とする。[Means and effects for solving the problems] The present invention provides a conversion method for a word processor that solves the above-mentioned problems. Focusing on the difference, the system allows switching between audio data and conversion commands using only voice without keyboard operations, and the method is as follows:
Equipped with a voice recognition unit that detects the time length of input voice and compares it with a reference value, and when the time length of the input voice exceeds the reference value, it recognizes the input voice as a conversion command and converts characters or lines. etc., and when the time length does not exceed the reference value, it is recognized as text data and displayed.
第1図は本発明に係るワードプロセッサの変換方式の基
本構成図である。図からも明らかなように基本的装置構
成は従来のそれと同じであるが、本発明においては音声
認識部3から音声の時間長信号Sがテンプレート切換部
4に送出され、単音節の発声時間の時間長と単語の発声
時間の時間長の相違を検出して音声データか変換コマン
ドが判断しテンプレートの切換を行っている。尚、第4
図のキーボード2は他の機能において必要であるが図示
を省略する。FIG. 1 is a basic configuration diagram of a word processor conversion method according to the present invention. As is clear from the figure, the basic device configuration is the same as that of the conventional one, but in the present invention, the speech time length signal S is sent from the speech recognition section 3 to the template switching section 4, and the utterance time of a single syllable is The template is switched by detecting the difference between the time length and the time length of the utterance of the word, determining whether it is voice data or a conversion command. Furthermore, the fourth
Although the illustrated keyboard 2 is necessary for other functions, illustration thereof is omitted.
さらに第2図を参照しつつさらに詳細に説明する。音声
入力によるワードプロセッサにおいて、例えば「音声」
という単語を入力する場合、「オ」、「ン」、「セ」、
「イ」と単音節ごとに区切って発声すると、音声認識部
3は単音節テンプレート5と照合をとり、オ、ン、セ、
イと認識する。この場合の音声時間はt、〜t4で示す
ようにほぼ各単音節で同じと見ることができる。尚、第
2図の縦軸は音の大きさ、横軸は時間である。A more detailed explanation will be given with reference to FIG. In a word processor using voice input, for example, "voice"
When entering the word ``o'', ``n'', ``se'',
When you utter "i" in single syllables, the speech recognition unit 3 compares it with the monosyllable template 5 and utters ``o'', ``n'', ``se'', etc.
I recognize that. In this case, the speech time can be seen to be almost the same for each monosyllable, as shown by t to t4. Note that the vertical axis in FIG. 2 represents the loudness of the sound, and the horizontal axis represents the time.
次に「ヘンカン」と区切らずに発声された場合、その発
声時間t、は単音節の場合よりも長くなるので、音声認
識部3はこの時間の差異を検知して音声時間長信号Sを
テンプレート切換部4に送出しコマンド用の単語テンプ
レート6に切り換え、照合を行って「変換処理」である
ことを認識した後変換コマンドCを送出して文章処理部
7に通知する。Next, when "Henkan" is uttered without separation, the utterance time t is longer than when it is a single syllable, so the speech recognition unit 3 detects this difference in time and converts the speech duration signal S into a template. The switching unit 4 switches to the word template 6 for the sending command, performs a check, and after recognizing that it is a "conversion process", sends a conversion command C and notifies the text processing unit 7.
一般に単音節発声の時間長は約230m5ecであり単
語の発声時間長は1 sec程度である。しかし発声者
の個人差もあり、−概に決められない場合には入力音声
の時間長の分布から、一時的に長く発声された音声をコ
マンドとする方法も考えられ、また分布状態から決定す
ることも考えられる。Generally, the time length of monosyllable utterance is about 230 m5ec, and the length of time uttered of a word is about 1 sec. However, there are individual differences between speakers, and if it cannot be determined generally, it is possible to use a temporarily long voice as a command based on the distribution of the time length of the input voice. It is also possible.
第3図は本発明に係る変換方式の制御′flIフローチ
ャートである。第3図において、音声がマイクロホン1
を通して音声認識部3に入力される(ステップ1)。音
声認識部3では入力音声の時間長を比較するための比較
手段(図示せず)によって単音節か単語かの判断がなさ
れる。この判断基準は例えば基準時間長との比較により
行われ、人力音声が基準時間長より短いときは単音節、
長いときは単語と判断し、音声時間長信号Sを出力する
(ステップ2)。そしてテンプレート切換部4において
、単音節の場合には単音節テンプレート5が選択され(
ステップ3)、単語辞書を参照して音声認識部3におい
て単語同定され(ステップ4)、文章処理部7を経て(
ステップ5)表示される(ステップ6)。FIG. 3 is a control 'flI flowchart of the conversion method according to the present invention. In Figure 3, the sound is transmitted to microphone 1.
is input to the speech recognition unit 3 through the voice recognition unit 3 (step 1). In the speech recognition unit 3, a comparison means (not shown) for comparing the time length of the input speech determines whether the input speech is a monosyllable or a word. This judgment criterion is, for example, compared with a standard time length, and when the human voice is shorter than the standard time length, it is monosyllable,
If it is long, it is determined that it is a word, and a voice duration signal S is output (step 2). Then, in the template switching unit 4, in the case of a monosyllable, a monosyllabic template 5 is selected (
Step 3), the word is identified in the speech recognition unit 3 with reference to the word dictionary (step 4), and then passed through the sentence processing unit 7 (
Step 5) Displayed (Step 6).
一方、テンプレート切換部4において、単語の場合には
単語テンプレート6が選択され(ステップ7)。制御コ
マンド用単語辞書を参照して音声認識部3において制御
コマンドとして認識され(ステップ8)制御コマンド生
成部(図示せず)において変換コマンドCが作成され(
ステップ9)、文章処理部7において文字変換された(
ステップ5)後表示される(ステップ6)。尚、文字変
換に限らず行変換も同様に時間長の判別によって変換す
ることができる。On the other hand, in the case of a word, the template switching unit 4 selects the word template 6 (step 7). It is recognized as a control command in the speech recognition section 3 with reference to the control command word dictionary (step 8), and a conversion command C is created in the control command generation section (not shown) (
Step 9), character conversion is performed in the text processing unit 7 (
Step 5) is then displayed (Step 6). Note that not only character conversion but also line conversion can be similarly performed by determining the time length.
以上説明したように、本発明によれば音声入力ワードプ
ロセッサにおいて文字変換あるいは行変換する場合にコ
マンドキーによらず音声の時間長により行えるようにし
たので、手操作による繁雑さを解消することができる。As explained above, according to the present invention, when converting characters or lines in a voice input word processor, it is possible to perform character conversion or line conversion based on the duration of the voice rather than using command keys, thereby eliminating the complexity of manual operations. .
第1図は本発明に係るワードプロセッサの変換方式の構
成図、
第2図は文字変換を説明する図、
第3図は本発明に係る文字変換方式を示すフローチャー
ト、
第4図は従来方式の構成図、および
第5図は従来の文字変換を説明する図である。
(符号の説明)
l・・・マイクロホン
2・・・キーボード
3・・・音声認識部
4・・・テンプレート切換部
5・・・単音節テンプレート
6・・・単語テンプレート
7・・・文章処理部
8・・・表示装置
本発明に係る文字変換方式の構成図
$1図
不発明の詳細な説明する図
第2図
本発明に係る方式のフローチャート
第3図Fig. 1 is a block diagram of a word processor conversion method according to the present invention, Fig. 2 is a diagram explaining character conversion, Fig. 3 is a flowchart showing a character conversion method according to the present invention, and Fig. 4 is a configuration of a conventional method. 1 and 5 are diagrams illustrating conventional character conversion. (Explanation of symbols) l...Microphone 2...Keyboard 3...Speech recognition section 4...Template switching section 5...Monosyllabic template 6...Word template 7...Sentence processing section 8 ... Display device Configuration diagram of the character conversion method according to the present invention $1 Figure Detailed explanation of the non-invention Figure 2 Flowchart of the method according to the present invention Figure 3
Claims (1)
入力音声により行う音声入力型ワードプロセッサの変換
方式において、該入力音声の時間長を検出し基準値と比
較する音声認識部を備え、該入力音声の時間長が該基準
値を超えた時は該入力音声を変換コマンドと認識して文
字変換、あるいは行変換等の変換を行い、該時間長が該
基準値を超えない時は文章データと認識して表示するこ
とを特徴とする音声入力ワードプロセッサの変換方式。1. A conversion method for a voice input type word processor in which text data is input using the input voice when the text data is read aloud. When the duration of the audio exceeds the standard value, the input audio is recognized as a conversion command and converted into text or lines, and when the duration does not exceed the standard, it is converted into text data. A conversion method for a voice input word processor characterized by recognition and display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61300124A JPS63155229A (en) | 1986-12-18 | 1986-12-18 | Conversion system for word processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61300124A JPS63155229A (en) | 1986-12-18 | 1986-12-18 | Conversion system for word processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS63155229A true JPS63155229A (en) | 1988-06-28 |
Family
ID=17881013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61300124A Pending JPS63155229A (en) | 1986-12-18 | 1986-12-18 | Conversion system for word processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS63155229A (en) |
-
1986
- 1986-12-18 JP JP61300124A patent/JPS63155229A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7260529B1 (en) | Command insertion system and method for voice recognition applications | |
JP2815579B2 (en) | Word candidate reduction device in speech recognition | |
JP2001318915A (en) | Font conversion device | |
JP4094255B2 (en) | Dictation device with command input function | |
JPS63155229A (en) | Conversion system for word processor | |
JPH10116093A (en) | Voice recognition device | |
JPH06202689A (en) | Method and device for speech recognition | |
JP3110025B2 (en) | Utterance deformation detection device | |
JPH03217900A (en) | Text voice synthesizing device | |
JPH0634175B2 (en) | Text-to-speech device | |
JPS6288026A (en) | Text vocalizing device | |
JPH05173589A (en) | Speech recognizing and answering device | |
JPH08110790A (en) | Sound recognizing device | |
JPS6027433B2 (en) | Japanese information input device | |
JPH0195323A (en) | Voice input device | |
JP2001067096A (en) | Voice recognition result evaluating device and record medium | |
JPS6184772A (en) | Audio typewriter | |
JPS6211732B2 (en) | ||
JPS5953900A (en) | Speaker recognition system | |
JPH0950290A (en) | Voice recognition device and communication device using it | |
JPH08248990A (en) | Voice synthesizer | |
JP2001175275A (en) | Acoustic subword model generating method and speech recognizing device | |
JPH03149598A (en) | Voice recognition device | |
JPS62233830A (en) | Voice processor | |
JPH0667688A (en) | Input device |