JPS59119434A - Processing device for japanese language inputted by voice - Google Patents

Processing device for japanese language inputted by voice

Info

Publication number
JPS59119434A
JPS59119434A JP57233265A JP23326582A JPS59119434A JP S59119434 A JPS59119434 A JP S59119434A JP 57233265 A JP57233265 A JP 57233265A JP 23326582 A JP23326582 A JP 23326582A JP S59119434 A JPS59119434 A JP S59119434A
Authority
JP
Japan
Prior art keywords
candidate
kana
voice
input
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP57233265A
Other languages
Japanese (ja)
Inventor
Takashi Hamada
浜田 隆史
Takahiko Ogita
荻田 隆彦
Yutaka Kamiyanagi
上柳 裕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP57233265A priority Critical patent/JPS59119434A/en
Publication of JPS59119434A publication Critical patent/JPS59119434A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Document Processing Apparatus (AREA)

Abstract

PURPOSE:To execute easily a conversion of an inputted voice to a ''KANA'' (Japanese syllabary) train, and to obtain automatically a ''KANA'' and Chinese character mixing sentence by adding automatically a small character, and using it as the following candidate. CONSTITUTION:When a Japanese sentence to be printed out by a printer is uttered toward a microphone 10, a voice recognizing part 14 recognizes it in each separate syllable. Subsequently, as for those syllable groups, the feature is extracted by the recognizing part 14, compared and collated with a feature of each syllable registered in advance, and the first candidate having the highest degree of similarity, the second candidate having a high degree of similarity in the next place, etc. are selected, and they are outputted as the first recognition result S1 from the voice recognizing part. This first recognition result is received, a small character and a particle are added to the first recognition result S1, and they are outputted as the second recognition result S2.

Description

【発明の詳細な説明】 発明の技術分野 本発明は、音声入力により日本語文書を作成する装置に
おける音声認識方式に関する。
DETAILED DESCRIPTION OF THE INVENTION Technical Field of the Invention The present invention relates to a speech recognition method in an apparatus for creating a Japanese document through speech input.

従来技術と問題点 日本語ワードプロセッサ゛は現状ではキーボード入力が
主流であるが、音声入力のものも開発されている。音声
入力型のワードプロセッサは現状では入力音声を認識し
てカナ列を作り、該カナ列をカナ漢字変換して漢字混り
のカナ文にするという方法をとり、キー人力ワードプロ
セッサに音声認識部を付加したものと言える。
Prior Art and Problems Currently, keyboard input is the mainstream for Japanese word processors, but voice input types have also been developed. Currently, voice input type word processors recognize the input voice, create a kana string, convert the kana string to kana-kanji, and create a kana sentence mixed with kanji.A voice recognition unit is added to the key human-powered word processor. It can be said that it was done.

第1図は音声入力ワードプロセッサの概要を示し、10
はマイクロホン、12は操作卓、14は音声認識部、1
6はカナ漢字変換部、18は文書編集部、20はCRT
ディスプレイ、22はスピーカ、24は音声合成/出力
制御部、26はプリンタである。プリンタ26でプリン
トアウトしたい日本語文章をマイクロホン10に向って
発声すると、音声認識部14は半れを各音節(つまりカ
ナ)別に認識し、カナ列としてカナ漢字変換部16へ渡
す。こ−で単語辞書索引、文法による接続関係のチェッ
クに従って当該単語の当否判定などが行なわれ、カナ漢
字混りの文に変換される。文書編集部18では改行、改
頁、文章入れ換えその他の編集を行ない、編集されたカ
ナ漢字文章が音声合成/出力制御部24を介してディス
プレイ20に表示され、操作卓12等からの指示でプリ
ンタ26からプリントアウトされたりする。
Figure 1 shows an overview of a voice input word processor, with 10
1 is a microphone, 12 is an operation console, 14 is a voice recognition unit, 1
6 is a kana-kanji converter, 18 is a document editor, and 20 is a CRT.
22 is a speaker, 24 is a voice synthesis/output control unit, and 26 is a printer. When a Japanese sentence to be printed out by the printer 26 is uttered into the microphone 10, the speech recognition section 14 recognizes the half-words for each syllable (that is, kana) and passes it to the kana-kanji conversion section 16 as a kana string. At this point, the validity of the word is determined according to the word dictionary index and the grammatical connection relation check, and the word is converted into a sentence containing kana and kanji. The document editing section 18 performs line breaks, page breaks, sentence replacement, and other editing, and the edited kana-kanji text is displayed on the display 20 via the speech synthesis/output control section 24, and sent to the printer according to instructions from the operation console 12, etc. It is printed out from 26.

音声認識には単音節認識型と単語認識型があり、勿論後
者が好ましいが、現状では単語のま\で認識され得るの
は指示指令用などの特定語に限られ、不特定語の認識は
単音節つまり個々のカナに限られるのが普通である。そ
の単音節認識にも種々問題がある。例えば、日本語にお
いては助詞「は」「へ」 「を」は発声と表記が異なり
、発声は「わ」「え」 「お」であるが表記は「は」 
「へ」 「を」である。このようなものは単純に発声を
認識する精度を上げるだけでは適応できない。そこで従
来方式では、発声に先立って次の音節は発声と表記が異
なる助詞であることを指定する特定の操作例えばキー人
力を行なっている。例えば「音声を認識する」を音声人
力する場合は、「お」 「ん」「せ」 「い」と個々に
音節人力して行って次は「助詞1指定キーを押し、然る
のち「お」 「に」 「ん」「シ」「き」 「す」 「
る」と音節入力する。音声認識部では助詞指定キーの押
下があった直後に音声入力された音節1つを助詞扱いし
、それが「お」と認識できたら助詞「を」であると判断
する。
There are two types of speech recognition: monosyllable recognition type and word recognition type, and the latter is of course preferred, but currently only specific words such as commands can be recognized as words, and non-specific words cannot be recognized. It is usually limited to monosyllables, or individual kana. There are also various problems with monosyllable recognition. For example, in Japanese, the particles ``ha'', ``he'', and ``wo'' are pronounced and written differently; they are uttered as ``wa'', ``e'', and ``o'', but are written as ``ha''.
``to'' and ``wo''. Such devices cannot be adapted simply by increasing the accuracy of speech recognition. Therefore, in the conventional system, prior to utterance, a specific operation, such as a keystroke, is performed to specify that the next syllable is a particle whose notation is different from the utterance. For example, if you want to manually pronounce ``recognize speech'', manually input the individual syllables ``o'', ``n'', ``se'', and ``i'', then press the particle 1 designation key, and then ``o''. ” “ni” “n” “shi” “ki” “su” “
Enter the syllables "ru". The speech recognition unit treats a syllable inputted by voice immediately after the particle specification key is pressed as a particle, and if it is recognized as "o", it is determined to be the particle "wo".

またカナには小文字扱いされるものかあり「や」「よ」
 「ゆ」 「つ」 「あ」 「い」 「う」 「え」「
お」がそれである。この種のものも音声認識精度を上げ
るだけでは小文字扱いのものか否かの判定はできず、従
来方式では小文字指定キーを押すようにしている。例え
ば「一層の努力」を音声人力する場合は「い」と発声し
、次に小文字指定キーを押し、然るのち「つ」 「そ」
 「う」 「の」 「ど」「す」と個々に音声発声し、
再ひ小文字指定キーを押し然るのち「よ」「り」と続け
る。これで「つ」と「よ」が小文字であることが指定さ
れ、音声認識a1;は「いっそうのどりよ<」′なる認
識を行なうことができる。
Also, some kana characters are treated as lowercase letters, such as ``ya'' and ``yo''.
"Yu""Tsu""A""I""U""E""
"O" is that. In this type of case, it is not possible to determine whether or not a letter is treated as a lowercase letter simply by increasing the speech recognition accuracy, so in the conventional system, a lowercase letter designation key is pressed. For example, if you want to say "more effort" by voice, say "i", then press the lowercase letter designation key, then "tsu", "so".
Say “u”, “no”, “do”, and “su” individually,
After pressing the lowercase letter designation key again, continue with ``yo'' and ``ri''. This specifies that ``tsu'' and ``yo'' are lowercase letters, and the speech recognition a1; can perform the recognition ``Issho Nodoriyo <'''.

このような方式では、助詞、小文字の発声前に指定を巣
作が必要であり、一連の発声の流れの中で前辺って指定
操作の有無の判断が必要で気骨が折れ、円滑平易な入力
操作が妨害されるという欠点かある。
In such a method, it is necessary to specify the particle or lowercase letter before uttering it, and it is necessary to judge whether or not to specify at the front in the flow of a series of utterances. The drawback is that input operations are obstructed.

発明の目的 本発明はか\る点を改善し、助詞、小文字の音声入力処
理を極めて簡単、平易に行なえるようにしようとするも
のである。
OBJECTS OF THE INVENTION The present invention aims to improve the above points and to make it possible to perform speech input processing of particles and lowercase letters extremely simply and easily.

発明の構成 本発明は入力音声を認識して日本語文に変換する音声入
力日本語処理装置において、音節単位で人力された音声
を認識してカナ列に変換する音声認識部と、該音声認識
部が出力するカナ列を入力され、該カナ列中に助詞及び
小文字であり得るカナがあればその助詞および小文字を
当該カナに対する次候補として付加する候補追加部を備
えることを特徴とするが、次に実施例を参照しながらこ
れを詳細に説明する。
Structure of the Invention The present invention provides a speech input Japanese processing device that recognizes input speech and converts it into a Japanese sentence, including a speech recognition unit that recognizes human input speech in units of syllables and converts it into kana strings, and the speech recognition unit. The present invention is characterized in that it receives a kana string outputted by the kana string, and if there is a kana that can be a particle or a lowercase letter in the kana string, the candidate addition section adds that particle and lowercase letter as the next candidate for the kana. This will be explained in detail with reference to examples.

発明の実施例 本発明の要部構成を第2図に示す。この図に示すように
本発明では音声認識部14の後に候補追加部28を設け
る。マイク10を通して入力された音節群は音声認識部
において特徴抽出が行なわれ、予め登録されている各音
節の特徴と比較照合され、最も類似度が高い(距離の近
い)第1候補、次に類似度が高い第2候補・・・・・・
等が選出され、これらが音声認識部より第1次認識結果
S1として出力される。候補追加部28はこの第1次認
識結果を受は取って第3図に示す処理を行ない、小文字
及び助詞を第1次認識結果S1に追加してこれらを第2
次認識結果S2として出力する。
Embodiment of the Invention The main structure of the present invention is shown in FIG. As shown in this figure, in the present invention, a candidate addition section 28 is provided after the speech recognition section 14. The group of syllables input through the microphone 10 is extracted with features in the speech recognition unit, and compared with the features of each syllable registered in advance.The first candidate with the highest degree of similarity (closest distance) is selected, followed by The second candidate with a high degree of
etc. are selected, and these are outputted from the speech recognition unit as the first recognition result S1. The candidate addition unit 28 receives this first recognition result and performs the processing shown in FIG.
The next recognition result is output as S2.

第1次認識結果S1は各音節について第n候補まで有す
るとすると、これを受取った候補追加部28はn個の候
補(以下認識対象と言う)をチェックし、小文字となり
得る文字(小文字対象)ヤ、ヨ、ユ、ツ、ア、イ、つ、
工、オがその中にあるか否かをチェックする。フロック
30でのこの判定結果が存在する(Y)ならばその文字
が「え」または「お」か否かをブロック32.34でチ
ェックし、「え」でも「お」でもなければその文字(第
に候補とする、こ\で1<K<n)の次候補(K+1候
補)に該文字の小文字を追加する。そしてこの(K+1
)候補の距離情報はに候補と同じとする。但しくK+1
)>nとなる場合は(K十1)候補は追加しない。ブロ
ック34での判定結果が「お」である(Y)、であれば
、「お」の次候補に1を」を追加し、更にその「を」の
次候補に小文字の「お」を追加する。これらの追加「を
」 「お」は最初の「お」と同一距離とする。
Assuming that the primary recognition result S1 has up to the n-th candidate for each syllable, the candidate addition unit 28 that receives this checks the n candidates (hereinafter referred to as recognition targets), and checks the characters that can be lowercase letters (lowercase targets). Ya, yo, yu, tsu, a, i, tsu,
Check to see if ``Eng'' and ``O'' are among them. If this judgment result in block 30 exists (Y), check whether the character is "e" or "o" in block 32.34, and if it is neither "e" nor "o", the character ( First, the lowercase letter of the character is added to the next candidate (K+1 candidate) where 1<K<n. And this (K+1
) The distance information of the candidate is the same as that of the candidate. However, K+1
)>n, (K11) The candidate is not added. If the judgment result in block 34 is "o" (Y), add "1" to the next candidate for "o", and then add a lowercase "o" to the next candidate for "wo". do. These additional “wo” and “o” should be at the same distance as the first “o”.

次にブロック32において小文字対象が「え」である(
Y)ならばブロック36へ移り、認識候補内に「へ」が
あるか否かをチェックし、(N)なら「え」の次候補に
「へ」を加え、更にその「へ」の次候補に小文字の「え
」を加える。これらの追加「へ」 「え」は最初の「え
」と同一距離とする。一方、ブロック36での判定結果
が認識対象内に「へ」ありであればブロック38へ移り
、その「へ」は「え」より早い候補(距離数か小で候補
順位番号が小)かをチェ’7りし、そう(Y)であれば
改めて「へ」を追加することはせず単に「え」の次候補
に小文字の「え」を追加する。これに対し「へ」は「え
」より早い候補でなければ、「へ」を「え」の次候補に
追加し、遅い候?Ni (距離数が大で候補順位番号が
大)内の1へ」を解除し、つまり「へ」について順位の
入れ換えを行ない、更に追加した「へ」の次候補に小文
字の、「え」を追加する。これらの追加「へ」 「え」
も最初の「え」と同一距離とする。
Next, in block 32, the lowercase letter target is "e" (
If (Y), move to block 36 and check whether there is "he" in the recognition candidates; if (N), add "he" to the next candidate for "e", and then add "he" to the next candidate for "e". Add the lowercase letter "e" to . These additional ``he'' and ``e'' should be at the same distance as the first ``e.'' On the other hand, if the judgment result in block 36 is that there is "he" in the recognition target, the process moves to block 38, and it is determined whether "he" is an earlier candidate than "e" (the distance number is small and the candidate rank number is small). If it's true (Y), we don't add ``e'' again, but simply add a lowercase ``e'' to the next option after ``e''. On the other hand, if "he" is not a faster candidate than "e", "he" is added to the next candidate after "e", and if it is a later candidate? Ni (the distance number is large and the candidate ranking number is large)" is canceled, in other words, the ranking is swapped for "to", and the next candidate for the added "to" is a lower case "e". to add. These additions “he” and “e”
is also the same distance as the first "e".

上記処理は、認識対象内に小文字対象があればその小文
字を小文字対象文字の次候補として追加するか、小文字
対象文字のうち「え」 「お」だけは助詞「へ」 「を
」である可能性もあるのでそれを小文字の前に加える、
というものである。
In the above process, if there is a lowercase letter in the recognition target, that lowercase letter is added as the next candidate for the lowercase target character, or among the lowercase target characters, only "e" and "o" are particles "he" and "wo". There is also a gender, so add it before the lowercase letter,
That is what it is.

ブロック30での判定結果が小文字対象なしであれは、
助詞かあるかのチェックをする。但し助詞「え」 「お
」は上述のブロック32.34のルートでチェックする
ので、残りの助詞「は」についてのチェックのみとなる
。即ちブロック40で「わ」か認識対象内にあるかをチ
ェックし、なければ候補追加は行なわれない。このブロ
ック30゜40を直通するルートは認識対象内に小文字
対象も助詞対象もないというものであり、か\る認識対
象は候補追加部28では何もせす、第1次認識結果S1
をそのま\第2次認識結果として出力する。
If the judgment result in block 30 is that there are no lowercase letters,
Check whether there is a particle. However, since the particles "e" and "o" are checked using the route of blocks 32 and 34 described above, only the remaining particles "ha" are checked. That is, in block 40, it is checked whether "wa" is within the recognition target, and if not, no candidate is added. A direct route through these blocks 30 and 40 is one in which there is no lowercase letter target or particle target in the recognition target, and the candidate addition unit 28 does nothing with the recognition target, and the first recognition result S1
is output as is as the secondary recognition result.

ブロック40での判定結果が認識対象内に「わ」ありで
あればブロック42へ移り、認識対象内に「は」がある
かを8周べ、なければこれを「わ」の次候補として追加
する。「は」があれば「は」は「わ」より早い候補であ
るかを調へ、そうならそのま−1そうでなければ「は」
は「わ」の次候補とし遅い候補の「ば」は削除する、つ
まり「ば」の候補順位の入れ換えを行なう。
If the judgment result in block 40 is that "wa" is present in the recognition target, the process moves to block 42, and the process checks eight times to see if there is "wa" in the recognition target, and if not, it is added as the next candidate for "wa". do. If there is "ha", check whether "ha" is a faster candidate than "wa", if so, then ma-1, otherwise "ha"
is set as the next candidate after ``wa'', and the later candidate ``ba'' is deleted, that is, the candidate ranking of ``ba'' is changed.

こ\で付加された候補(第(m+1)候補とする)の距
離情報(ま、第m候補と第(m+2)候補の距離情報の
間に位置する情報であれは差し支えないが、上述のよう
に第m候補と同じものとすると設定し易く、また後々追
加された候補であるとの判断力が容易にできる利点があ
る。
Distance information of the candidate added here (referred to as the (m+1)th candidate) (well, any information located between the distance information of the mth candidate and the (m+2)th candidate is fine, but as described above It is easy to set the same candidate as the m-th candidate, and there is an advantage that it is easy to determine whether the candidate is a candidate added later.

このように第1次認識結果に助詞および小文字が自動的
に追加されていると、ディスプレイに表示された第1次
認識結果をみて単純に「次候補」選択指示を与えるだけ
で該当文字の小文字化、助詞化が簡単にできる。即ち候
補追加部28の出力を第1図の音声合成/出力制御部2
4を介してディスフライ20に加え、表示された第2次
認識結果S2に助詞化すべきもの、小文字化すべきもの
があれば、単純に「次候補」キーを押して次候補に交替
させればよい。例えば前述の例の「音声を認識する」で
「お」 「ん」 「せ」 「い」 「お」と発声しそれ
がディスプレイ2oに表示されたとき操作卓12の次候
補キーを押せは表示ば「おんせいを」に変り、以後「に
」 「んJ  rLJ  rき」「す」 「る」と発声
すればディスフライ2oの表示は[おんせいをにんしき
する」になる。また前述の「一層の努力」の例では「い
」 「っ」と発声しこれが表示されたとき次候補キー婆
押せば表示は[−いっ」に変り、続いて「そ」 「う」
 「の」と発声すればそれらが表示され、更に「ど」 
「す」「よ」を発声してそれが表示されたとき次候補キ
ーを押せば表示は「いっそうのどりょ」になり、最後に
「<」を発声すれば表示は「いっそうのどりょく」にな
る。
If particles and lowercase letters are automatically added to the primary recognition results in this way, you can simply look at the primary recognition results displayed on the display and give an instruction to select the "next candidate" and you will be able to see the lowercase letters of the corresponding characters. It can be easily transformed into particles. That is, the output of the candidate addition section 28 is sent to the speech synthesis/output control section 2 in FIG.
In addition to displaying the display 20 via step 4, if there is something that should be converted into a particle or a lowercase character in the displayed secondary recognition result S2, simply press the "Next candidate" key to replace it with the next candidate. . For example, in the above-mentioned example of "Recognize voice", when you utter "o", "n", "se", "i", and "o" and the words are displayed on the display 2o, the next candidate key on the console 12 will be pressed. If you say ``ni'', ``nJ rLJ rki'', ``su'', or ``ru'', the display on the Disfly 2o will change to ``onsei wo.'' Also, in the example of "more effort" mentioned above, if you say "i" and "tsu" and press the next candidate key when this is displayed, the display will change to "-i", followed by "so" and "u".
If you say "no", they will be displayed, and then "do"
When you say ``su'' or ``yo'' and press the next candidate key when it is displayed, the display will change to ``Hassou no Doryo'', and if you say ``<'' at the end, the display will change to ``Hassou no Doryoku''. "become.

この操作では事前にチェックしそして所要の小文字キー
、助詞キーを選択して押す必要はなく、表示されたもの
をみて希望のものと異なるのを知って、それから単純に
共通の次候補キーを押せばよいから、処理が極めて容易
であり、話者に課せられる負担が軽い。更に、小文字、
助詞が次候補としてイ」加されていると、その選択を人
手で行なう代りに文法チェック等で自動選択させること
も可能である。この自動選択の一手法としては、別途出
願したマルチルート法を利用できる。次に4図を参照し
てその概要を説明する。
With this operation, there is no need to check in advance and select and press the required lowercase letter key or particle key.You can simply look at what is displayed, know that it is different from what you want, and then press the next common candidate key. It is extremely easy to process, and the burden placed on the speaker is light. Furthermore, lowercase letters,
If a particle has been added as a next candidate, it can be automatically selected by a grammar check, etc., instead of being selected manually. As one method for this automatic selection, a separately filed multi-route method can be used. Next, the outline will be explained with reference to FIG.

第4図では「総額を計算する」を音声入力したと仮定し
ており、そしてその音声認識結果の第1候補は「ソウガ
ウオ、ケニサンスル」、第2候補は「オフカクヲ、ヘイ
ハクウス」であったとしている。なお第2候補の各文字
は第1候補の各文字に対応するものであり、近似度が2
番目のものである。そして助詞「ヲ」は前述の処理で第
2候補に追加されたものである。音声入力は音節毎なの
で「ソ」 「つ」 「ガ」・・・・・・と発声して人力
し、そして読点「、」は「カンマ」と単語発声して入力
する。単語入力は句読点その他の特定語(制御用の言葉
なと)に限られているので認識率は高く、第2候補は不
要である。次に変換単位の切出しを行ない、読点で区切
った最初のカナ列を取込む。
In Figure 4, it is assumed that ``Calculate the total amount'' was inputted by voice, and the first candidate of the voice recognition result was ``Sougaouo, Kenisansuru,'' and the second candidate was ``Ofukakuwo, Heihakuus.'' . Note that each character of the second candidate corresponds to each character of the first candidate, and the degree of approximation is 2.
It is the second one. The particle "wo" was added to the second candidate in the process described above. Since the voice input is syllable by syllable, it is input manually by saying ``so'', ``tsu'', ``ga'', etc., and the comma ``,'' is input by saying the word ``comma''. Since the word input is limited to punctuation marks and other specific words (such as control words), the recognition rate is high and a second candidate is not necessary. Next, extract the conversion unit and import the first kana sequence separated by commas.

次に候補間の近似度情報の評価を行なう。この評価で本
例では第1候補のソ、つ、ガに対する第2候補の近似度
は低い(第1候補ソ、つ、ガの距離Ll、L2.L3に
対する第2候禎オ、)、力の距離β1.R2,R3の羞
R)−Ll、R2−L2が閾値以上)ので落とし、近似
度が高い第1候補つに対する第2候禎りのみを残した。
Next, the similarity information between the candidates is evaluated. In this evaluation, in this example, the degree of approximation of the second candidate to the first candidate So, Tsu, Ga is low (distance Ll of the first candidate So, Tsu, Ga, second candidate O for L2, L3), power The distance β1. R2, R3 (R)-Ll, R2-L2 are above the threshold values), so they were dropped, and only the second candidate with a high degree of approximation was left.

勿論、追加第2候?lIi「ヲ」はそのま\残す。なお
各音節(カナ)に第2候補があると、正解を求める際に
検討す−きカナ列は多種になる。例えばカナ列をソウの
2文字に限ってもそれにオフの第2候補があると組合せ
はソウ、ソフ、オウ、オフの4通りとなり、カナ列内文
字数が多く、その上第2、第3、第4・・・・・・候補
があったのではその組合せは天文学的数字になるから、
この第4図の処理では近似度で対象候補を可及的にふる
い落としている。第4図の例では第2候補は2つなので
組合せは4通りあるが、図では簡単化のため2通りのみ
示す。
Of course, the second choice? lIi Leave ``wo'' as is. Note that if there is a second candidate for each syllable (kana), there are many different kana strings to consider when finding the correct answer. For example, even if the kana string is limited to two characters, ``so'', if there is a second candidate for ``off'', there will be four combinations: ``sou'', ``sofu'', ``oh'', and ``off''. 4th...If there were candidates, the combination would be an astronomical number,
In the process shown in FIG. 4, target candidates are screened out as much as possible based on the degree of approximation. In the example of FIG. 4, there are two second candidates, so there are four combinations, but the figure shows only two for simplicity.

次にルートの設定及び優先順の付与に入り、本例では「
ソウガウオ」を順位1、「ソウガクヲ」を順位2とする
。順位1のカナ列はへのルートへ、順位2のカナ列は旧
のルートへ導く。これらのA。
Next, we start setting the route and assigning priority, in this example,
``Sogakuo'' is ranked 1st, and ``Sogakuwo'' is ranked 2nd. The kana string with rank 1 leads to the route to, and the kana string with rank 2 leads to the old route. These A.

Bルー1−ではカナ漢字変換及びそのヂエソクを行なう
。A、Bルートとも処理内容に同しで、先ず単語辞書を
引き、最長一致法で該当語を確度の高いもの順に選出す
る。最長一致であるから辞書見出し語(形態素)とカナ
列が先頭より可及的に後部に至るまで文字一致したもの
を最も確度が高いとする。こうして選ばれた形態素は本
例では図示の如くAルートでは草両うお、爪閉、相、そ
、Bルー1−では総額をであった。これらに対して文法
チェックを行なう。単語辞書には各形態素に品詞がのっ
ており、この形態素はどの品詞と連結可能かの接続情報
もあるから、これらにより形態素化したものが相互に連
結可能か否かをチェ、りする。
In B-route 1-, kana-kanji conversion and its processing are performed. The processing content for both routes A and B is the same; first, a word dictionary is looked up, and corresponding words are selected in descending order of accuracy using the longest match method. Since this is the longest match, the one in which the dictionary headword (morpheme) and the kana string match from the beginning to the end as far as possible is considered to be the most accurate. In this example, the morphemes selected in this way were, as shown in the figure, Kusa Ryo Uo, Nail Closure, So, So, for the A route, and the total amount for the B route 1-. Perform a grammar check on these. The word dictionary has a part of speech for each morpheme, and there is also connection information about which part of speech this morpheme can be connected to, so we use these to check whether the morphemes can be connected to each other.

次は最尤評価を行ない、長さく字数)の大なるもの及び
使用頻度の大なるもの等に高い評価を与える。
Next, a maximum likelihood evaluation is performed, and a high evaluation is given to items with a large length (length, number of characters), and items with a high frequency of use.

次は打切り評価を行なう。カナ列は最長一致などで形態
素化しア行くが、最長一致したものが正解とは限らず、
そして誤った形態素化が行なわれると以後の形態素が連
結しなくなる。か\る行き止りの枝路に入ったら当該枝
路での形態素化は打切り、1つ、2つ・・・・・・前の
形態素化を他の形態素化に変更して解析をやりなおし、
正解へ至る努力を続けるが、該打切りを何処で行なうか
の判断基準を与えるのかこの評価である。深さ、読み長
などで当該枝路の評価をして評価値が設定値を越えたも
のは打切りとする。次の言語的評価は、文法チェックな
どではOKであっても日本語では存在しない、無意味語
である、等を摘出してふるい落すための処理である。具
体例を上げると「すべくどりょくする」などのカナ漢字
変換で、「すべ句度力する」などと変換されることがあ
るが、漢字が3個も連続してまだそれぞれl形態素のま
\であることはない、等の基準でこれは失格とする。
Next, we will conduct a censored evaluation. Kana strings are converted into morphemes based on the longest match, but the longest match is not necessarily the correct answer.
If morphemes are erroneously converted, subsequent morphemes will not be connected. When we enter a dead-end branch, we discontinue the morphemization in that branch, change the previous morphemization to another one, two, etc., and redo the analysis.
Efforts will continue to arrive at the correct answer, but this evaluation provides a criterion for deciding where to make the cut. The branches are evaluated based on depth, reading length, etc., and those whose evaluation values exceed the set values are discontinued. The next linguistic evaluation is a process to extract and filter out words that may be OK in a grammar check, but do not exist in Japanese, are meaningless, etc. To give a specific example, when converting kana to kanji such as ``subekudoryokusuru'', it may be converted to ``subekudoryokusuru'', but if there are three kanji in a row, each still has an l morpheme. This will be disqualified based on the criteria that it cannot be ``Ma\''.

次に最優先ルートの決定、本例ではAルートがよいか、
Bルートがよいかを決定する。こ\では未使用単語を含
んでいるか、形態素数は多いかなどをチェックする6A
ルートの「草画」は本システムでは使用したことのない
単語であるとすると、未使用単語ありとなり、Bルート
の「総額」は使用したことがある単語であると未使用単
語なしとなり、後者の方が評価が高くなる。また形態素
数はAルートの草画うおは3、Bルートの総額をは2で
あり、形態素数は少ない方がよしとする。これらの結果
から、入力音声の近イシ度としてはAルートのカナ列の
方が高かったが鎖線枠内での解析結果ではBルートのカ
ナ列の方が評価が高まり、優先度はBルートの「総額を
」が■、Aルートの「草画うお」は■と変更される。次
いて優先度■の「総額を」が「ソウガクオ」にカナ変換
され、これは入力データに等しいので解析中にエラーが
導入されたことはなかったと判断され、「総額を」が出
力データとなる。このように正解可能性のあるカナ列を
複数個作り文法解析などで確度の最も高いものを選ぶと
正解に至る確率が高く、人手を介在させなくても音声入
力文をカナ漢字混合文にすることができ、カナ列の段階
でティスプレィに表示して話者に確認、修正を求めるこ
とも不要になる。勿論カナ列の段階で話者に確認修正を
求めると第4図の入力データは第1候補のみになり、カ
ナ漢字変換は容易、迅速、正確化が期待できる。
Next, determine the highest priority route, in this example, is route A better?
Decide whether route B is better. Check whether this contains unused words, whether there are many morphemes, etc. 6A
If the root "Sugata" is a word that has never been used in this system, there will be unused words, and if the "Total amount" of route B is a word that has been used, there will be no unused words, and the latter will be rated higher. Also, the number of morphemes is 3 for the A route, and 2 for the total number of B routes, so it is better to have fewer morphemes. From these results, the kana strings of route A had a higher degree of nearness in the input speech, but the analysis results within the chain line frame showed that the kana strings of route B had a higher evaluation, and the priority was higher than that of route B. "Total amount" is changed to ■, and "Sugata Uo" of route A is changed to ■. Next, "total amount" with priority ■ is converted into kana to "sou gakuo", and since this is equal to the input data, it is determined that no error was introduced during analysis, and "total amount" becomes the output data. . In this way, if you create multiple kana sequences that have a possibility of being correct and select the one with the highest accuracy through grammatical analysis, the probability of reaching the correct answer is high, and the voice input sentence can be converted into a kana-kanji mixed sentence without human intervention. This eliminates the need to display the information on the display and ask the speaker for confirmation and correction at the stage of the kana sequence. Of course, if the speaker is asked to confirm and correct the kana string at the stage, the input data shown in FIG. 4 will be limited to the first candidate, and the kana-kanji conversion can be expected to be easier, faster, and more accurate.

発明の詳細 な説明したように本発明によれば助詞、小文字を自動追
加してこれを次候補とするので入力音声のカナ列への変
換を容易に行なうことができ、更には該カナ列の話者に
よるチェック、修正を要求することなくカナ漢字混合文
へ自動変換することも可能なとの利点が得られる。
As described in detail, according to the present invention, particles and lowercase letters are automatically added and used as the next candidate, making it easy to convert input speech into a kana string. The advantage is that it is possible to automatically convert sentences into kana-kanji mixed sentences without requiring the speaker to check or correct them.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は音声入力日本語ワードプロセッサの概要を示す
フロック図、第2図は本発明の要部を示すブロック図、
第3図および第4図は処理要領を示すフロー図である。 図面で14は音声認識部、28は候補追加部である。
FIG. 1 is a block diagram showing an overview of a voice input Japanese word processor, and FIG. 2 is a block diagram showing the main parts of the present invention.
FIGS. 3 and 4 are flowcharts showing the processing procedure. In the drawing, 14 is a speech recognition section, and 28 is a candidate addition section.

Claims (1)

【特許請求の範囲】[Claims] 入力音声を認識して日本語文に変換する音声入力日本語
処理装置において、音節単位で入力された音声を認識し
てカナ列に変換する音声認識部と、該音声認識部が出力
するカナ列を入力され、該カナ列中に助詞及び小文字で
あり得るカナがあればその助詞および小文字を当該カナ
に対する次候補として付加する候補追加部を備えること
を特徴とする音声入力日本語処理装置。
A speech input Japanese processing device that recognizes input speech and converts it into Japanese sentences includes a speech recognition section that recognizes input speech in units of syllables and converts it into a kana string, and a speech recognition section that converts the input speech into a kana string, and a kana string that the speech recognition section outputs. 1. A voice input Japanese language processing device, comprising: a candidate addition unit that adds a kana that can be a particle and a lowercase letter to the input kana string as a next candidate for the kana.
JP57233265A 1982-12-25 1982-12-25 Processing device for japanese language inputted by voice Pending JPS59119434A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57233265A JPS59119434A (en) 1982-12-25 1982-12-25 Processing device for japanese language inputted by voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57233265A JPS59119434A (en) 1982-12-25 1982-12-25 Processing device for japanese language inputted by voice

Publications (1)

Publication Number Publication Date
JPS59119434A true JPS59119434A (en) 1984-07-10

Family

ID=16952370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57233265A Pending JPS59119434A (en) 1982-12-25 1982-12-25 Processing device for japanese language inputted by voice

Country Status (1)

Country Link
JP (1) JPS59119434A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6073700A (en) * 1983-09-30 1985-04-25 三洋電機株式会社 Voice recognition equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6073700A (en) * 1983-09-30 1985-04-25 三洋電機株式会社 Voice recognition equipment

Similar Documents

Publication Publication Date Title
US8126714B2 (en) Voice search device
EP0262938B1 (en) Language translation system
US5806021A (en) Automatic segmentation of continuous text using statistical approaches
JP4473193B2 (en) Mixed language text speech synthesis method and speech synthesizer
US7406408B1 (en) Method of recognizing phones in speech of any language
US20150073796A1 (en) Apparatus and method of generating language model for speech recognition
KR100669241B1 (en) System and method of synthesizing dialog-style speech using speech-act information
Tjalve et al. Pronunciation variation modelling using accent features
US7430503B1 (en) Method of combining corpora to achieve consistency in phonetic labeling
JPS634206B2 (en)
JPS59119434A (en) Processing device for japanese language inputted by voice
Lewis et al. Language identification and language specific letter-to-sound rules
JPS6229796B2 (en)
US6327560B1 (en) Chinese character conversion apparatus with no need to input tone symbols
King Contextual factors in Chinese pinyin writing
JPH09237096A (en) Kanji (chinese character) explaining method and device
JP2658476B2 (en) Document Braille device
Khusainov et al. Towards automatic speech recognition for the Tatar language
JP2003005776A (en) Voice synthesizing device
JPS59123926A (en) Voice input japanese processing system
KR20050006936A (en) Method of selective prosody realization for specific forms in dialogical text for Korean TTS system
JPH11327871A (en) Voice synthesizing device
CN113077792A (en) Buddhism subject term recognition method, device, equipment and storage medium
JPS61121167A (en) Audio word processor using divided utterance
JPS6027433B2 (en) Japanese information input device