JP2000163427A - Processor and method for information processing and provision medium - Google Patents

Processor and method for information processing and provision medium

Info

Publication number
JP2000163427A
JP2000163427A JP10333698A JP33369898A JP2000163427A JP 2000163427 A JP2000163427 A JP 2000163427A JP 10333698 A JP10333698 A JP 10333698A JP 33369898 A JP33369898 A JP 33369898A JP 2000163427 A JP2000163427 A JP 2000163427A
Authority
JP
Japan
Prior art keywords
word data
information
word
detection
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10333698A
Other languages
Japanese (ja)
Inventor
Atsuo Hiroe
厚夫 廣江
Tetsuya Kagami
徹也 加賀美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP10333698A priority Critical patent/JP2000163427A/en
Publication of JP2000163427A publication Critical patent/JP2000163427A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain the dictionary main sentence of a word, which is inputted by being voiced, accurately at a high speed. SOLUTION: A speech recognition part 42 recognizes a voice inputted from a microphone by referring to a recognition object word storage part 43 and determines N speech-recognized word candidates. In a recognition object word storage part 43, about 5000 words (less than the words collected in a general Japanese dictionary) are registered. An index word detection part 44 detects the index words corresponding to the speech-recognized word candidates by referring to a detection object storage part 45. In the detection object word storage part 45, words more than the words registered in the recognition object word storage part 43, e.g. tens of thousands of words (nearly as many as the words collected in a general Japanese dictionary) are registered. A dictionary main sentence detection part 46 detects the dictionary main sentences corresponding to the index words by referring to a dictionary main sentence storage part 47. The dictionary main sentence storage part 47 is stored with dictionary main sentences (explanatory sentence) of the words registered in the detection object word storage part 45.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置およ
び方法、並びに提供媒体に関し、特に、音声で入力され
た指定情報に対応した情報を、正確に、かつ、高速に得
ることができるようにした情報処理装置および方法、並
びに提供媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and method, and a providing medium, and more particularly, to an information processing apparatus and method capable of accurately and quickly obtaining information corresponding to designated information input by voice. Information processing apparatus and method, and a providing medium.

【0002】[0002]

【従来の技術】辞書本文(説明)を、検索したい単語を
キーボードの操作により入力する代わりに、それを発音
し、音声で入力することができる電子辞書装置が開発さ
れている。この電子辞書装置においては、内蔵するROM
などに記憶されている国語辞書や和英辞書などから、音
声で入力された単語の辞書本文(説明文)が読み出さ
れ、表示部に表示される。このように、音声で入力する
ことより、利用者の電子辞書装置に対する入力操作が、
より容易になる。
2. Description of the Related Art There has been developed an electronic dictionary device capable of pronouncing a dictionary text (explanation) instead of inputting a word to be searched by operating a keyboard and inputting it by voice. In this electronic dictionary device, a built-in ROM
The dictionary body (description) of the word input by voice is read from a Japanese language dictionary, a Japanese-English dictionary, or the like stored in, for example, and displayed on the display unit. In this way, by inputting by voice, the user's input operation on the electronic dictionary device is
It will be easier.

【0003】[0003]

【発明が解決しようとする課題】ところで、音声認識処
理において、入力された音声が正確に認識されるために
は、より多くの単語の音声認識用の情報が必要とされ
る。しかしながら、参照される音声認識用の情報が多け
れば多いほど、音声認識に時間がかかる課題があった。
By the way, in the speech recognition processing, more information for speech recognition of more words is required in order to accurately recognize the inputted speech. However, there is a problem that the more the information for voice recognition to be referred to, the longer the time for voice recognition.

【0004】一方、音声認識処理がより高速に実行され
るようにするために、参照される音声認識用の情報が制
限されると、入力が正確に音声認識されず、結局、必要
とする辞書本文が得られない(検索が行われない)課題
があった。
On the other hand, if the information for speech recognition to be referred to is limited in order to execute the speech recognition processing at a higher speed, the input will not be accurately recognized, and eventually the required dictionary will be required. There was a problem that text could not be obtained (search was not performed).

【0005】本発明はこのような状況に鑑みてなされた
ものであり、高速に、かつ、正確に、必要とする辞書本
文を得ることができるようにするものである。
[0005] The present invention has been made in view of such circumstances, and it is an object of the present invention to obtain a required dictionary text quickly and accurately.

【0006】[0006]

【課題を解決するための手段】請求項1に記載の情報処
理装置は、指定情報を音声で入力する入力手段と、単語
データと音声認識用の情報を記憶する第1の記憶手段
と、第1の記憶手段に記憶されている単語データよりも
大語彙の単語データを記憶する第2の記憶手段と、第2
の記憶手段に記憶されている単語データに対応する情報
を記憶する第3の記憶手段と、入力手段により入力され
た指定情報を、第1の記憶手段に記憶されている音声認
識用の情報に基づいて音声認識し、N個の単語データを
検出する第1の検出手段と、第1の検出手段により検出
されたN個の単語データから選択された所定の単語デー
タに対応して、所定の類似度基準に基づいて、第2の記
憶手段からM個の単語データを検出する第2の検出手段
と、第2の検出手段により検出されたM個の単語データ
のうち、選択された単語データに対応する情報を、第3
の記憶手段から検出する第3の検出手段と、第1の検出
手段により検出されたN個の単語データ、第2の検出手
段により検出されたM個の単語データ、または第3の検
出手段により検出された単語データに対応する情報の表
示を制御する表示制御手段とを備えることを特徴とす
る。
According to a first aspect of the present invention, there is provided an information processing apparatus comprising: an input unit for inputting designation information by voice; a first storage unit for storing word data and information for voice recognition; A second storage unit for storing word data having a larger vocabulary than the word data stored in the first storage unit;
A third storage unit for storing information corresponding to the word data stored in the storage unit, and converting the designation information input by the input unit into information for voice recognition stored in the first storage unit. A first detecting means for performing voice recognition based on the first word data and detecting the N word data; and a predetermined word data selected from the N word data detected by the first detecting means. A second detecting means for detecting M word data from the second storage means based on the similarity criterion; and a word data selected from the M word data detected by the second detecting means. Information corresponding to the third
And N word data detected by the first detecting means, M word data detected by the second detecting means, or the third detecting means. Display control means for controlling display of information corresponding to the detected word data.

【0007】請求項3に記載の情報処理方法は、指定情
報を音声で入力する入力ステップと、単語データと音声
認識用の情報を記憶する第1の記憶ステップと、第1の
記憶ステップで記憶された単語データよりも大語彙の単
語データを記憶する第2の記憶ステップと、第2の記憶
ステップで記憶された単語データに対応する情報を記憶
する第3の記憶ステップと、入力ステップで入力された
指定情報を、第1の記憶ステップで記憶された音声認識
用の情報に基づいて音声認識し、N個の単語データを検
出する第1の検出ステップと、前記第1の検出ステップ
で検出されたN個の前記単語データから選択された所定
の前記単語データに対応して、所定の類似度基準に基づ
いて、前記第2の記憶ステップで記憶された前記単語デ
ータからM個の単語データを検出する第2の検出ステッ
プと、第2の検出ステップで検出されたM個の単語デー
タのうち、選択された単語データに対応する情報を、第
3の記憶ステップで記憶されている情報から検出する第
3の検出ステップと、第1の検出ステップで検出された
N個の単語データ、第2の検出ステップで検出されたM
個の単語データ、または第3の検出ステップで検出され
た単語データに対応する情報の表示を制御する表示制御
ステップとを含むことを特徴とする。
According to a third aspect of the present invention, in the information processing method, an input step of inputting designated information by voice, a first storage step of storing word data and information for voice recognition, and a first storage step are performed. A second storage step of storing word data having a greater vocabulary than the input word data, a third storage step of storing information corresponding to the word data stored in the second storage step, and an input step. A first detecting step of performing voice recognition on the specified information based on the voice recognition information stored in the first storing step, and detecting N word data; In correspondence with the predetermined word data selected from the selected N pieces of word data, based on a predetermined similarity criterion, M word units stored in the second storage step are used. A second detection step of detecting data; and information corresponding to the selected word data among the M word data detected in the second detection step, the information stored in the third storage step. From the third detection step, the N word data detected in the first detection step, and the M word data detected in the second detection step.
And a display control step of controlling display of information corresponding to the individual word data or the word data detected in the third detection step.

【0008】請求項4に記載の提供媒体は、指定情報を
音声で入力する入力ステップと、単語データと音声認識
用の情報を記憶する第1の記憶ステップと、第1の記憶
ステップで記憶された単語データよりも大語彙の単語デ
ータを記憶する第2の記憶ステップと、第2の記憶ステ
ップで記憶された単語データに対応する情報を記憶する
第3の記憶ステップと、入力ステップで入力された指定
情報を、第1の記憶ステップで記憶された音声認識用の
情報に基づいて音声認識し、N個の単語データを検出す
る第1の検出ステップと、前記第1の検出ステップで検
出されたN個の前記単語データから選択された所定の前
記単語データに対応して、所定の類似度基準に基づい
て、前記第2の記憶ステップで記憶された前記単語デー
タからM個の単語データを検出する第2の検出ステップ
と、第2の検出ステップで検出されたM個の単語データ
のうち、選択された単語データに対応する情報を、第3
の記憶ステップで記憶されている情報から検出する第3
の検出ステップと、第1の検出ステップで検出されたN
個の単語データ、第2の検出ステップで検出されたM個
の単語データ、または第3の検出ステップで検出された
単語データに対応する情報の表示を制御する表示制御ス
テップとを含む処理を情報処理装置に実行させるコンピ
ュータが読み取り可能なプログラムを提供することを特
徴とする。
According to a fourth aspect of the present invention, a providing medium is stored in an input step of inputting designated information by voice, a first storage step of storing word data and information for voice recognition, and a first storage step. A second storage step of storing word data having a larger vocabulary than the word data obtained, a third storage step of storing information corresponding to the word data stored in the second storage step, and an input step. The specified information is subjected to voice recognition based on the voice recognition information stored in the first storage step, and a first detection step of detecting N word data; Corresponding to the predetermined word data selected from the N pieces of the word data, based on a predetermined similarity criterion, M word data from the word data stored in the second storage step. A second detecting step of detecting the data, of the M word data detected by the second detection step, the information corresponding to the word data selected, third
Detecting from the information stored in the storage step of the third
And the N detected in the first detection step
A display control step of controlling display of information corresponding to the word data, the M word data detected in the second detection step, or the word data detected in the third detection step. A computer-readable program to be executed by a processing device is provided.

【0009】請求項1に記載の情報処理装置、請求項3
に記載の情報処理方法、および請求項4に記載の提供媒
体においては、指定情報が音声で入力され、単語データ
と音声認識用の情報が記憶され、記憶されている単語デ
ータよりも大語彙の単語データが記憶され、記憶されて
いる単語データに対応する情報が記憶され、入力された
指定情報が、記憶されている音声認識用の情報に基づい
て音声認識され、N個の単語データが検出され、検出さ
れたN個の前記単語データから選択された所定の単語デ
ータに対応して、所定の類似度基準に基づいて、記憶さ
れた単語データからM個の単語データが検出され、検出
されたM個の単語データのうち、選択された単語データ
に対応する情報が検出され、検出されたN個の単語デー
タ、検出されたM個の単語データ、または検出された単
語データに対応する情報の表示が制御される。
[0009] The information processing apparatus according to claim 1, claim 3,
In the information processing method described in the above, and the providing medium described in the claim 4, the designation information is input by voice, the word data and the information for voice recognition are stored, Word data is stored, information corresponding to the stored word data is stored, and input designation information is subjected to voice recognition based on the stored voice recognition information, and N word data are detected. M word data is detected and detected from the stored word data based on a predetermined similarity criterion in accordance with predetermined word data selected from the detected N word data. Information corresponding to the selected word data among the M word data is detected, and information corresponding to the detected N word data, the detected M word data, or the detected word data is detected. Display of information is controlled.

【0010】[0010]

【発明の実施の形態】以下に本発明の実施の形態を説明
するが、特許請求の範囲に記載の発明の各手段と以下の
実施の形態との対応関係を明らかにするために、各手段
の後の括弧内に、対応する実施の形態(但し一例)を付
加して本発明の特徴を記述すると、次のようになる。但
し勿論この記載は、各手段を記載したものに限定するこ
とを意味するものではない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below. In order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, each means is described. When the features of the present invention are described by adding the corresponding embodiment (however, an example) in parentheses after the parentheses, the result is as follows. However, of course, this description does not mean that each means is limited to those described.

【0011】請求項1に記載の情報処理装置は、指定情
報を音声で入力する入力手段(例えば、図2のマイクロ
フォン5)と、単語データと音声認識用の情報を記憶す
る第1の記憶手段(例えば、図3の認識対象単語記憶部
43)と、第1の記憶手段に記憶されている単語データ
よりも大語彙の単語データを記憶する第2の記憶手段
(検出対象単語記憶部45)と、第2の記憶手段に記憶
されている単語データに対応する情報を記憶する第3の
記憶手段(例えば、図3の辞書本文記憶部47)と、入
力手段により入力された指定情報を、第1の記憶手段に
記憶されている音声認識用の情報に基づいて音声認識
し、N個の単語データを検出する第1の検出手段(例え
ば、図3の音声認識部42)と、第1の検出手段により
検出されたN個の単語データから選択された所定の単語
データに対応して、所定の類似度基準に基づいて、第2
の記憶手段からM個の単語データを検出する第2の検出
手段(例えば、図3の見出し語検出部44)と、第2の
検出手段により検出されたM個の単語データのうち、選
択された単語データに対応する情報を、第3の記憶手段
から検出する第3の検出手段(例えば、辞書本文検出部
46)と、第1の検出手段により検出されたN個の単語
データ、第2の検出手段により検出されたM個の単語デ
ータ、または第3の検出手段により検出された単語デー
タに対応する情報の表示を制御する表示制御手段(例え
ば、図3の入出力表示制御部48)とを備えることを特
徴とする。
An information processing apparatus according to a first aspect of the present invention includes an input unit (for example, a microphone 5 in FIG. 2) for inputting designated information by voice, and a first storage unit for storing word data and information for voice recognition. (For example, the recognition target word storage unit 43 in FIG. 3) and a second storage unit (detection target word storage unit 45) that stores word data having a larger vocabulary than the word data stored in the first storage unit. And third storage means for storing information corresponding to the word data stored in the second storage means (for example, the dictionary body storage unit 47 in FIG. 3), and designation information input by the input means. A first detection unit (for example, the voice recognition unit 42 in FIG. 3) that performs voice recognition based on the voice recognition information stored in the first storage unit and detects N word data; N words detected by the detection means Corresponding to a predetermined word data selected from over data, based on a predetermined similarity criteria, second
The second detection means (for example, the headword detection unit 44 in FIG. 3) for detecting the M word data from the storage means, and the selected word data from the M word data detected by the second detection means A third detection unit (for example, a dictionary body detection unit 46) for detecting information corresponding to the extracted word data from the third storage unit, and N word data detected by the first detection unit. Display control means for controlling the display of information corresponding to the M word data detected by the detection means or the word data detected by the third detection means (for example, the input / output display control section 48 in FIG. 3) And characterized in that:

【0012】請求項2に記載の情報処理装置は、類似度
基準を変更する変更手段(例えば、図4のステップS
6、S9,S12,S15)をさらに備え、表示制御手
段は、第1の検出手段により検出された単語データ、第
2の検出手段により、変更手段により変更された類似度
基準のそれぞれに基づいて検出されたそれぞれの単語デ
ータ、および第3の検出手段により検出された単語デー
タに対応する情報の表示を組み合わせて表示する(例え
ば、図17および図18)ことを特徴とする情報処理装
置。
[0012] The information processing apparatus according to the second aspect of the present invention provides a changing means for changing the similarity criterion (for example, step S in FIG. 4).
6, S9, S12, S15), wherein the display control means is based on the word data detected by the first detection means and the similarity criterion changed by the change means by the second detection means. An information processing apparatus for displaying a combination of each of the detected word data and information corresponding to the word data detected by the third detection means (for example, FIGS. 17 and 18).

【0013】図1は、本発明を適用した携帯用電子辞書
10の外観の構成例を表している。携帯用電子辞書10
の正面上部には、LCD(Liquid Crystal Display)で構
成され、ユーザからの入力に対応した処理結果など、ユ
ーザに提示する情報を表示する表示部1が設けられてい
る。
FIG. 1 shows an example of the external configuration of a portable electronic dictionary 10 to which the present invention is applied. Portable electronic dictionary 10
A display unit 1 configured by an LCD (Liquid Crystal Display) and displaying information to be presented to the user, such as a processing result corresponding to an input from the user, is provided at an upper front portion of the LCD.

【0014】表示部1の下方には、表示部1に表示され
るカーソルを上方に移動させるとき操作されるカーソル
ボタン2A、カーソルを下方に移動させるとき操作され
るカーソルボタン2B、カーソルに対応する項目を選択
するとき操作される決定ボタン3、および所定の処理を
キャンセルするとき操作されるキャンセルボタン4が設
けられている。
A cursor button 2A operated to move the cursor displayed on the display unit 1 upward, a cursor button 2B operated to move the cursor downward, and a cursor below the display unit 1. A decision button 3 operated when selecting an item and a cancel button 4 operated when canceling a predetermined process are provided.

【0015】携帯用電子辞書10の正面右側には、ユー
ザが音声を入力するためのマイクロホン5、および類似
度基準(後述)を変更するとき操作される基準変更ボタ
ン6が設けられている。
On the front right side of the portable electronic dictionary 10, a microphone 5 for a user to input voice and a reference change button 6 operated when changing a similarity reference (described later) are provided.

【0016】図2は、携帯用電子辞書10の内部の構成
例を表している。インタフェース21には、表示部1、
カーソルボタン2、決定ボタン3、キャンセルボタン
4、マイクロフォン5、および基準変更ボタン6が接続
されており、インタフェース21は、それらの入出力の
インタフェース処理を実行する。
FIG. 2 shows an example of the internal configuration of the portable electronic dictionary 10. The interface 21 includes a display unit 1,
The cursor button 2, the enter button 3, the cancel button 4, the microphone 5, and the reference change button 6 are connected, and the interface 21 executes an input / output interface process.

【0017】CPU22は、ROM23に記憶されているプロ
グラムに従って、各種の処理を実行する。ROM23に
は、CPU22が実行するプログラムが記憶されている
他、そのプログラムを実行する上において必要な所定の
情報が記憶されている。RAM24は、CPU22が各種の処
理を実行する上において必要なデータやプログラムを適
宜記憶する。
The CPU 22 executes various processes according to a program stored in the ROM 23. The ROM 23 stores a program to be executed by the CPU 22 and also stores predetermined information necessary for executing the program. The RAM 24 appropriately stores data and programs necessary for the CPU 22 to execute various processes.

【0018】図3は、携帯用電子辞書10の音声認識付
き辞書機能を実行するアプリケーションプログラムの機
能的構成例を表している。
FIG. 3 shows an example of a functional configuration of an application program for executing the dictionary function with voice recognition of the portable electronic dictionary 10.

【0019】音声認識部42は、認識対象単語記憶部4
3を参照し、マイクロフォン5から入力された音声に対
して、音声認識を実行し、N個の音声認識単語候補(後
述)を決定する。認識対象単語記憶部43には、約50
00個の単語(一般的な国語辞典に収緑されている単語
数より少ない単語数)の情報と、されに対応する音声認
識用の情報が登録されている。
The speech recognition unit 42 is used for the recognition target word storage unit 4.
3, speech recognition is performed on the speech input from the microphone 5, and N speech recognition word candidates (described later) are determined. About 50 words are stored in the recognition target word storage unit 43.
Information of 00 words (the number of words smaller than the number of words collected in a general Japanese dictionary) and information for voice recognition corresponding to the information are registered.

【0020】見出し語検出部44は、検出対象単語記憶
部45を参照し、音声認識単語候補の見出し語(後述)
を検出する。検出対象単語記憶部45には、認識対象単
語記憶部43に登録されている単語の情報よりも大語彙
の単語、例えば、数万の単語(一般的な国語辞書に収録
されている程度の単語数)の情報が登録されている。
The headword detection unit 44 refers to the detection target word storage unit 45, and searches for a candidate word for speech recognition word (described later).
Is detected. The detection target word storage unit 45 stores words of a larger vocabulary than the information of the words registered in the recognition target word storage unit 43, for example, tens of thousands of words (words that are included in a general Japanese language dictionary). Number) is registered.

【0021】辞書本文検出部46は、辞書本文記憶部4
7を参照し、見出し語に対応する辞書本文(見出し語の
説明文)を検出する。辞書本文記憶部47には、検出対
象単語記憶部45に登録されている単語の辞書本文が記
憶されている。
The dictionary text detecting section 46 includes a dictionary text storage section 4.
7, the dictionary text (description of the headword) corresponding to the headword is detected. The dictionary text storage unit 47 stores the dictionary text of the words registered in the detection target word storage unit 45.

【0022】入出力表示制御部48は、表示部1への情
報を制御する。例えば、音声認識部42により決定され
たN個の音声認識単語候補、見出し語検出部44により
検出された見出し語、および辞書本文検出部46により
検出された辞書本文は、入出力表示制御部48により表
示部1に表示される。入出力表示制御部48はまた、カ
ーソルボタン2乃至基準変更ボタン6からの入力を制御
する。
The input / output display control section 48 controls information to the display section 1. For example, the N voice recognition word candidates determined by the voice recognition unit 42, the headwords detected by the headword detection unit 44, and the dictionary text detected by the dictionary text detection unit 46 are input / output display control units 48. Is displayed on the display unit 1. The input / output display controller 48 also controls inputs from the cursor button 2 to the reference change button 6.

【0023】制御部41は、各部を制御し、上述した各
処理を実行させる。
The control section 41 controls each section to execute each process described above.

【0024】これらの機能を実行する各部のうち、認識
対象単語記憶部43、検出対象単語記憶部45、および
辞書本文記憶部47は、図2に示すように、ROM23に
記憶されている。残りの制御部41、音声認識部42、
見出し語検出部44、辞書本文検出部46、および入出
力表示制御部48は、CPU22に保持されている。
The recognition target word storage unit 43, the detection target word storage unit 45, and the dictionary text storage unit 47 among the units that execute these functions are stored in the ROM 23, as shown in FIG. The remaining control unit 41, voice recognition unit 42,
The headword detection unit 44, the dictionary text detection unit 46, and the input / output display control unit 48 are held in the CPU 22.

【0025】次に、音声認識付き辞書機能が実行される
場合の処理手順について、図4のフローチャートを参照
して説明する。ステップS1において、制御部41は、
ユーザによりマイクロフォン5から音声が入力され、入
力された音声に対応した音声信号が入出力表示制御部4
8から供給されるまで待機し、入出力表示制御部48か
ら音声信号が入力されたとき、ステップS2に進む。こ
の例において、ユーザは、”カメハメハ”と発音し、マ
イクロフォン5から入力したものとする。
Next, a processing procedure when the dictionary function with voice recognition is executed will be described with reference to the flowchart of FIG. In step S1, the control unit 41
Audio is input from the microphone 5 by the user, and an audio signal corresponding to the input audio is input / output display control unit 4.
Then, the process waits until the audio signal is supplied from the input / output 8 and when the audio signal is input from the input / output display control unit 48, the process proceeds to step S2. In this example, it is assumed that the user pronounces “Kamehameha” and inputs the sound from the microphone 5.

【0026】ステップS2において、制御部41は、ス
テップS1で供給された音声信号を音声認識部42に転
送し、音声認識処理を実行させる。ステップS2におけ
る音声認識処理の詳細は、図5のフローチャートに示さ
れている。
In step S2, the control section 41 transfers the voice signal supplied in step S1 to the voice recognition section 42, and executes voice recognition processing. Details of the speech recognition processing in step S2 are shown in the flowchart of FIG.

【0027】ステップS31において、音声認識部42
は、入出力表示制御部48から供給された音声信号に対
し、AD変換処理を施し、デジタル音声信号に変換す
る。
In step S31, the voice recognition unit 42
Performs an AD conversion process on the audio signal supplied from the input / output display control unit 48 to convert the audio signal into a digital audio signal.

【0028】ステップS32において、音声認識部42
は、認識対象単語記憶部43を参照し、それに登録され
ている単語のうち、ステップS31で得られたデジタル
音声信号により近いN個の単語を検出し、音声認識単語
候補に決定する。すなわち、この例の場合、”カメハメ
ハ”に、より音響的に近いN個の単語が音声認識単語候
補とされる。
In step S32, the voice recognition unit 42
Refers to the recognition target word storage unit 43, detects N words closer to the digital voice signal obtained in step S31 among words registered therein, and determines the words as voice recognition word candidates. That is, in the case of this example, N words that are acoustically closer to "Kamehameha" are set as speech recognition word candidates.

【0029】このようにして、音声認識単語候補が決定
されるが、このとき参照される認識対象単語記憶部43
には、一般的な国語辞典に収録されている数より少ない
数の単語しか登録されていないので、音声認識単語候補
が決定されるのに、多くの時間は必要とされない。
The speech recognition word candidates are determined in this way, and the recognition target word storage unit 43 referred to at this time is
Does not require a lot of time to determine speech recognition word candidates, since only a smaller number of words are registered than those in a general Japanese dictionary.

【0030】ステップS33において、音声認識部42
は、ステップS32で決定した音声認識単語候補のそれ
ぞれのテキストデータを認識対象単語記憶部43から読
み出し、それを入出力表示制御部48に供給する。これ
により、音声認識処理は終了され、図4のステップS3
に進む。
In step S33, the voice recognition unit 42
Reads the text data of each of the speech recognition word candidates determined in step S32 from the recognition target word storage unit 43, and supplies it to the input / output display control unit 48. As a result, the voice recognition processing is terminated, and step S3 in FIG.
Proceed to.

【0031】ステップS3において、入出力表示制御部
48は、音声認識部42から供給されたテキストデータ
を表示部1に出力し、表示させる。図1に示す表示部1
には、ユーザにより音声で入力された”カメハメハ”に
対応する音声認識単語候補のうち、”から”、”か
め”、”カメ”、および”はは”の4個の単語が表示さ
れている。
In step S3, the input / output display control section 48 outputs the text data supplied from the voice recognition section 42 to the display section 1 and causes the display section 1 to display the text data. Display unit 1 shown in FIG.
, Among the voice recognition word candidates corresponding to “Kamehameha” input by the user as voice, four words “from”, “Kame”, “Kame”, and “ha” are displayed. .

【0032】なお、4個以上の音声認識単語候補が存在
する場合、ユーザは、カーソルボタン2を操作し、カー
ソルを上下方向に移動させ、表示部1の表示をスクロー
ルさせることにより、それらを閲覧することができる。
When there are four or more speech recognition word candidates, the user operates the cursor button 2 to move the cursor up and down and scroll the display on the display unit 1 to browse them. can do.

【0033】次に、ステップS4において、制御部41
は、ユーザにより決定ボタン3が操作されるか、また
は、キャンセルボタン4が操作されるまで待機し、キャ
ンセルボタン4が操作された場合、ステップS1に戻
り、再び、ユーザによりマイクロフォン5から音声が入
力されるまで待機する。
Next, in step S4, the control unit 41
Waits until the user operates the decision button 3 or the cancel button 4, and if the cancel button 4 is operated, the process returns to step S <b> 1, and the user again inputs voice from the microphone 5. Wait until it is done.

【0034】例えば、表示部1に表示される音声認識単
語候補の中に、先にマイクロフォン5から音声で入力し
た単語、この例の場合、”カメハメハ”を見つけ出すこ
とができなかった場合、ユーザは、キャンセルボタン4
を操作し、再びマイクロフォン5からそれを音声で入力
することができる。
For example, if a word that was previously input by voice from the microphone 5, in this example, “Kamehameha” was not found in the voice recognition word candidates displayed on the display unit 1, the user , Cancel button 4
Can be input again by voice from the microphone 5.

【0035】また、ユーザは、表示部1に表示された音
声認識単語候補の中に、マイクロフォン5から音声で入
力した単語を見つけ出すことができない場合であって
も、その単語に、音響的に近いものを選択することがで
きる。例えば、この例の場合、ユーザは、”かめ”
を、”カメハメハ”に近い単語として認識し、そして、
カーソルボタン2を操作し、図6に示すように、”か
め”にカーソルを移動させ、決定ボタン3を操作するこ
とにより、それを選択することができる。このような場
合、ステップS4において、制御部41は、決定ボタン
3が操作されたと判定し、ステップS5に進み、このと
き選択された音声認識単語候補の1つである”かめ”
を、音声認識単語に決定する。
Further, even if the user cannot find a word input by voice from the microphone 5 among the voice recognition word candidates displayed on the display unit 1, the user is acoustically close to the word. You can choose one. For example, in the case of this example, the user
Is recognized as a word close to "Kamehameha", and
By operating the cursor button 2 and moving the cursor to "Kame" as shown in FIG. 6 and operating the enter button 3, it can be selected. In such a case, in step S4, the control unit 41 determines that the determination button 3 has been operated, and proceeds to step S5, in which one of the speech recognition word candidates selected at this time, "Kame".
Is determined as a speech recognition word.

【0036】次に、ステップS6において、制御部41
は、ステップS5で決定した音声認識単語を見出し語検
出部44に通知し、第1の類似度基準に基づいた見出し
語検出処理を実行させる。ここでは、検出対象単語記憶
部45に登録されている単語のうち、音声認識単語に、
50音順において近いN個の単語が見出し語として検出
される。以下に、この処理を、図7のフローチャートを
参照して、より具体的に説明する。
Next, in step S6, the control unit 41
Notifies the headword detection unit 44 of the speech recognition word determined in step S5, and causes the headword detection process to be executed based on the first similarity criterion. Here, among the words registered in the detection target word storage unit 45, the speech recognition words include
N words in the order of the Japanese syllabary are detected as headwords. Hereinafter, this processing will be described more specifically with reference to the flowchart of FIG.

【0037】ステップS41において、見出し語検出部
44は、ステップS5で音声認識単語に決定された単語
の、検出対象単語記憶部45における50音順の順番
(番号)を検出する。
In step S41, the headword detection unit 44 detects the order (number) of the words determined as the voice recognition words in step S5 in the order of the Japanese syllabary in the detection target word storage unit 45.

【0038】ステップS42において、見出し語検出部
44は、ステップS41で検出した音声認識単語の50
音順の順番を示す数値から、検出対象単語記憶部45に
登録されている単語の50音順の順番を示す数値のそれ
ぞれを減算し、その減算結果の絶対値(以下、単語間距
離と称する)を算出する。
In step S42, the headword detecting unit 44 detects the 50th of the speech recognition words detected in step S41.
Each of the numerical values indicating the order of the syllabary order of the words registered in the detection target word storage unit 45 is subtracted from the numerical value indicating the order of the sound order, and the absolute value of the subtraction result (hereinafter, referred to as inter-word distance) ) Is calculated.

【0039】例えば、”かめ”の50音順における順番
が第100番目で、また、”かめ”より50音順において
後方の”かも”の順番が第103番目である場合、”か
め”と”かも”の単語間距離は、3(=|100−103|)
とされる。また、”かめ”より50音順において前方
の”かむこおだ”の順番が第99番目である場合、”か
め”と”かむこおだ”の単語間距離は、1(=100−99)
とされる。このようにして、音声認識単語と、検出対象
単語記憶部45に登録されている単語のそれぞれとの単
語間距離が算出される。
For example, if the order of the "Kame" in the Japanese syllabary is the 100th and the order of the "Kamo" after the "Kame" in the Japanese syllabary is the 103rd, "Kame" and " The distance between words of "Kamo" is 3 (= | 100-103 |)
It is said. Also, if the order of “Kamukoda” ahead of “Kameko” in the Japanese syllabary is the 99th order, the inter-word distance between “Kameko” and “Kamukoda” is 1 (= 100−99). )
It is said. In this way, the inter-word distance between the speech recognition word and each of the words registered in the detection target word storage unit 45 is calculated.

【0040】なお、音声認識単語とされた単語が検出対
象単語記憶部45に登録されていない場合、この例で
は、”かめ”が検出対象単語記憶部45に登録されてい
ない場合、ステップS41において、”かめ”が、検出
対象単語記憶部45に登録されているものとされ、50
音順の順番が決定される。そして、決定された順番に基
づいて、単語間距離が算出される。
If the word recognized as the speech recognition word is not registered in the word-to-be-detected storage unit 45, in this example, if "Kame" is not registered in the word-to-be-detected storage unit 45, the process proceeds to step S41. , “Kame” are registered in the detection target word storage unit 45, and 50
The order of the sound order is determined. Then, the inter-word distance is calculated based on the determined order.

【0041】ステップS43において、見出し語検出部
44は、ステップS42で算出した単語間距離のうち、
値の小さい方から、N個の単語間距離を選び出し、それ
が算出されたときの単語を検出し、見出し語に決定す
る。
In step S43, the headword detection unit 44 determines the distance between words calculated in step S42.
From the smaller value, N inter-word distances are selected, the word when the distance is calculated is detected, and determined as a headword.

【0042】このようにして、音声認識単語に、50音
順においてより近いN個の単語が見出し語として検出さ
れる。
In this way, N words that are closer to the voice recognition word in the order of the Japanese syllabary are detected as headwords.

【0043】次に、ステップS44において、見出し語
検出部44は、ステップS43で決定したN個の見出し
語のテキストデータを、入出力表示制御部48に供給す
る。これにより、第1の類似度基準に基づく見出し語検
出処理は終了され、図4のステップS7に進む。
Next, in step S44, the headword detection unit 44 supplies the text data of the N headwords determined in step S43 to the input / output display control unit 48. Thus, the headword detection processing based on the first similarity criterion is terminated, and the process proceeds to step S7 in FIG.

【0044】ステップS7において、入出力表示制御部
48は、見出し語検出部44から供給されたテキストデ
ータを表示部1に出力し、表示させる。図8に示す表示
部1には、ステップS5で音声認識単語とされた”か
め”の、第1の類似度基準に基づいて検出された見出し
語の一部が表示されている。例えば、”かめ”より50
音順において前方の単語である”かむこおだあ”は、”
かめ”の上方に表示され、”かめ”より50音順におい
て後方の”カメハメハ”は、それよりも下方に表示され
ている。
In step S7, the input / output display control unit 48 outputs the text data supplied from the headword detection unit 44 to the display unit 1 and displays it. The display unit 1 shown in FIG. 8 displays a part of the headword detected based on the first similarity criterion of “Kame”, which is determined as the voice recognition word in step S5. For example, 50 from "Kame"
The first word in the phonetic order, "Kamukooda", is
"Kamehameha" is displayed above "Kame", and "Kamehameha" after "Kame" in the Japanese syllabary order is displayed below it.

【0045】なお、音声認識単語とされた”かめ”が、
検出対象単語記憶部45に登録されていない場合、”か
め”自体は、見出し語として検出されず(ステップS4
3)、表示部1にも表示されない。
It should be noted that "Kame", which is regarded as a speech recognition word,
If not registered in the detection target word storage unit 45, “Kame” itself is not detected as a headword (step S4).
3) It is not displayed on the display unit 1.

【0046】次に、ステップS8において、制御部41
は、ユーザにより決定ボタン3が操作されるか、また
は、基準変更ボタン6が操作されるまで待機し、基準変
更ボタン6が操作された場合、ステップS9に進み、見
出し語検出部44を制御し、ステップS5で決定した音
声認識単語の見出し単語を、第2の類似度基準に基づい
て検出させる。ステップS9における第2の類似度基準
に基づいた見出し語検出処理の詳細は、図9のフローチ
ャートに示されている。
Next, in step S8, the control unit 41
Waits until the user operates the enter button 3 or the reference change button 6, and if the reference change button 6 is operated, the process proceeds to step S9 to control the headword detection unit 44. Then, the headword of the speech recognition word determined in step S5 is detected based on the second similarity criterion. Details of the headword detection process based on the second similarity criterion in step S9 are shown in the flowchart of FIG.

【0047】ステップS51において、見出し語検出部
44は、検出対象単語記憶部45に登録されている単語
のそれぞれに対し、その1文字を他の文字に置き換える
処理、1文字を挿入する処理、1文字を削除する処理、
または所定の1文字とそれに隣接する文字を入れ替える
処理の4つの処理を施し、ステップS5で音声認識単語
に決定された単語に変換し、このときの行った処理の回
数をカウントする。なお、以下において、カウントされ
た処理回数を、MED(Minimun Edit Distance)値と記述
する。なお、音声認識単語に変換するための処理(上述
した4との処理)の組み合わせが複数ある場合、そのう
ち、最も少ない処理数がMED値とされる。
In step S51, the headword detection unit 44 replaces one character with another character, inserts one character, and performs processing for each word registered in the word storage unit 45. The process of deleting characters,
Alternatively, four processes of replacing a predetermined one character and a character adjacent thereto are performed, the word is converted into a word determined as a speech recognition word in step S5, and the number of times of the process performed at this time is counted. In the following, the counted number of processes is referred to as a MED (Minimun Edit Distance) value. When there are a plurality of combinations of the processing for converting to the speech recognition word (the processing with 4 described above), the smallest number of the processings is set as the MED value.

【0048】例えば、”あめ”は、その先頭の文字の”
あ”が、”か”に置き換えられる処理が1回実行される
ことにより、”かめ”に変換される。すなわち、”あ
め”の”かめ”に対するMED値は、”1”とされる。ま
た、”がめら”は、”ら”が削除される処理と、”が”
が”か”に置き換えられる処理との合計2回の処理が実
行されることより、”かめ”に変換される。すなわ
ち、”がめら”の”かめ”に対するMED値は、”2”と
される。
For example, "Ame" is the first character "
By performing the process of replacing “a” with “ka” once, it is converted into “kame”, that is, the MED value of “ame” for “kame” is set to “1”. , “Gamera” means that “ra” is deleted, and “
Is converted to “Kame” by executing the processing twice in total with the processing in which is replaced with “K”. That is, the MED value of “Game” for “Kame” is “2”.

【0049】次に、ステップS52において、見出し語
検出部44は、ステップS51でカウントしたMED値の
うち、値の小さい方から、N個のMED値を選び出し、そ
のMED値がカウントされた単語を検出し、見出し語に決
定する。次に、ステップS53において、見出し語検出
部44は、ステップS52で決定したN個の見出し語の
テキストデータを、入出力表示制御部48に供給する。
これにより、第2の類似度基準に基づく見出し語検出処
理は終了され、図4のステップS10に進む。
Next, in step S52, the headword detecting unit 44 selects N MED values from the smaller one of the MED values counted in step S51, and extracts the words in which the MED values are counted. Detect and decide on a headword. Next, in step S53, the headword detection unit 44 supplies the text data of the N headwords determined in step S52 to the input / output display control unit 48.
Thus, the headword detection process based on the second similarity criterion is terminated, and the process proceeds to step S10 in FIG.

【0050】ステップS10において、入出力表示制御
部48は、見出し語検出部44から供給されたテキスト
データを表示部1に出力し、表示させる。図10に示す
表示部1には、ステップS5で音声認識単語とされた”
かめ”の、第2の類似度基準に基づいて検出された見出
し語の一部が表示されている。
In step S10, the input / output display control unit 48 outputs the text data supplied from the headword detection unit 44 to the display unit 1 and displays it. The display unit 1 shown in FIG. 10 displays the word recognized as the voice recognition word in step S5.
A part of the headword of “Kame” detected based on the second similarity criterion is displayed.

【0051】次に、ステップS11において、制御部4
1は、ユーザにより決定ボタン3が操作されるか、また
は基準変更ボタン6が操作されるまで待機し、基準変更
ボタン6が操作された場合、ステップS12に進み、見
出し語検出部44を制御し、ステップS5で決定された
音声認識単語に対応する見出し語を、第3の類似度基準
に基づいて検出させる。ステップS12における第3の
類似度基準に基づいた見出し語検出処理の詳細は、図1
1のフローチャートに示されている。
Next, at step S11, the control unit 4
1 waits until the user operates the enter button 3 or the reference change button 6, and if the reference change button 6 is operated, the process proceeds to step S 12 and controls the headword detection unit 44. The headword corresponding to the speech recognition word determined in step S5 is detected based on the third similarity criterion. The details of the headword detection processing based on the third similarity criterion in step S12 are described in FIG.
1 is shown in the flowchart.

【0052】ステップS61において、見出し語検出部
44は、検出対象単語記憶部45に登録されている単語
の中から、音声認識単語を含む単語を選び出す。例え
ば、”なかめぐろ”は、文字列中に”かめ”を含むの
で、この場合、”かめ”に対応する見出し語とされる。
同様に、”おかめ”および”カメハメハ”も、文字列中
に、”かめ”を含むので、見出し語とされる。
In step S61, the headword detection unit 44 selects a word including a speech recognition word from the words registered in the detection target word storage unit 45. For example, "nakameguro" includes "kame" in the character string, and in this case, is a headword corresponding to "kame".
Similarly, “Kame” and “Kamehameha” are also headwords because “Kame” is included in the character string.

【0053】ステップS62において、見出し語検出部
48は、ステップS61で検出された見出し語のテキス
トデータを、入出力表示制御部48に供給する。これに
より、第3の類似度基準に基づいた見出し語検出処理は
終了され、図4のステップS13に進む。
In step S62, the headword detection unit 48 supplies the text data of the headword detected in step S61 to the input / output display control unit 48. Thereby, the headword detection processing based on the third similarity criterion is terminated, and the process proceeds to step S13 in FIG.

【0054】ステップS13において、入出力表示制御
部48は、見出し語検出部44から供給されたテキスト
データを表示部1に出力し、表示させる。図12に示す
表示部1には、ステップS5で音声認識単語とされた”
かめ”の、第3の類似度基準に基づいて検出された見出
し語の一部が表示されている。
In step S13, the input / output display control unit 48 outputs the text data supplied from the headword detection unit 44 to the display unit 1 and displays it. The display unit 1 shown in FIG.
A part of the headword of "Kame" detected based on the third similarity criterion is displayed.

【0055】次に、ステップS14において、制御部4
1は、ユーザにより決定ボタン3または基準変更ボタン
6のうちいずれかが操作されるまで待機し、基準変更ボ
タン6が操作された場合、ステップS15に進み、見出
し語検出部44を制御し、ステップS5で決定された音
声認識単語に対応する見出し語を、第4の類似度基準に
基づいて検出させる。ここでは、ステップS5で音声認
識単語とされた単語と、検出対象単語記憶部45に登録
されている単語との、シソーラス距離が算出される。以
下に、この処理について、図13のフローチャートを参
照して説明する。
Next, in step S14, the control unit 4
1 waits until the user operates either the enter button 3 or the reference change button 6, and if the reference change button 6 is operated, the process proceeds to step S15, where the headword detection unit 44 is controlled. A headword corresponding to the speech recognition word determined in S5 is detected based on a fourth similarity criterion. Here, the thesaurus distance between the word recognized as the speech recognition word in step S5 and the word registered in the detection target word storage unit 45 is calculated. Hereinafter, this processing will be described with reference to the flowchart in FIG.

【0056】ステップS71において、見出し語検出部
44は、検出対象単語記憶部45に登録されている単語
で、図14に示すような、5階層のシソーラス構造を形
成する。
In step S71, the headword detection unit 44 forms a five-level thesaurus structure as shown in FIG. 14 using the words registered in the word storage unit 45 to be detected.

【0057】ステップS72において、見出し語検出部
44は、検出対象単語記憶部45に登録されている単語
と、音声認識単語とのシソーラス距離を算出する。例え
ば、第6階層の”かめ”と、”すっぽん”は、1つ上位
の第5階層において、分類1・5630ー1に属している。この
ような場合、”かめ”と”すっぽん”のシソーラス距離
は、1とされる。また、第6階層の”かめ”と、”蛇”
は、2階層分だけ上位の第4階層において、分類1.5630
(爬虫類)に属している。このような場合、”かめ”
と”蛇”のシソーラス距離は、2とされる。このように
して、音声認識単語とのシソーラス距離が算出される。
In step S72, the headword detection section 44 calculates a thesaurus distance between the word registered in the word storage section 45 to be detected and the speech recognition word. For example, “Kame” and “Suppin” in the sixth hierarchy belong to the category 1.5630-1 in the fifth hierarchy one level higher. In such a case, the thesaurus distance between “Kame” and “Suppin” is set to 1. Also, the sixth level “Kame” and “Snake”
Is 1.5630 in the fourth layer, which is two layers higher.
(Reptiles). In this case, "Kame"
And the thesaurus distance between “the snake” is 2. In this way, the thesaurus distance from the speech recognition word is calculated.

【0058】次に、ステップS73において、見出し語
検出部44は、ステップS72で算出したシソーラス距
離のうち、値の小さい方から、N個のシソーラス距離を
選び出し、それが算出されたときの単語を検出し、見出
し語に決定する。
Next, in step S73, the headword detection unit 44 selects N thesaurus distances from the smaller one of the thesaurus distances calculated in step S72, and extracts the word at the time of calculation. Detect and decide on a headword.

【0059】次に、ステップS74において、見出し語
検出部44は、ステップS73で決定したN個の見出し
語のテキストデータを、入出力表示制御部48に供給す
る。これにより、第4の類似度基準に基づく見出し語検
出処理は終了され、図4のステップS16に進む。
Next, in step S74, the headword detection unit 44 supplies the text data of the N headwords determined in step S73 to the input / output display control unit 48. Thus, the headword detection processing based on the fourth similarity criterion is terminated, and the process proceeds to step S16 in FIG.

【0060】ステップS16において、入出力表示制御
部48は、見出し語検出部44から供給されたテキスト
データを、表示部1に出力し、表示させる。図15に示
す表示部1には、音声認識単語とされた”かめ”の、第
4の類似度基準に基づいて検出された見出し語の一部が
表示されている。
In step S16, the input / output display control section 48 outputs the text data supplied from the headword detection section 44 to the display section 1 for display. The display unit 1 shown in FIG. 15 displays a part of the headword detected based on the fourth similarity criterion of “Kame”, which is a speech recognition word.

【0061】次に、ステップS17において、制御部4
1は、決定ボタン3まはた基準変更ボタン6のいずれか
が操作されるまで待機し、基準変更ボタン6が操作され
た場合、ステップS6に戻り、それ以降の処理を実行す
る。
Next, in step S17, the control unit 4
1 waits until either the enter button 3 or the reference change button 6 is operated, and when the reference change button 6 is operated, returns to step S6 and executes the subsequent processing.

【0062】ステップS8、ステップS11、ステップ
S14、またはステップS17において、決定ボタン3
が操作されたと判定された場合、制御部41は、ステッ
プS18に進み、現在選択されている見出し語を、辞書
本文検出部46に通知し、その見出し語の辞書本文(説
明文)を辞書本文記憶部47から読み出させ、入出力表
示制御部48に供給させ、その後、入出力表示制御部4
8を制御し、辞書本文記憶部47から供給されたテキス
トデータを、表示部1に出力し、表示させる。
In step S8, step S11, step S14, or step S17, the enter button 3
Is determined to have been operated, the control unit 41 proceeds to step S18, notifies the dictionary text detection unit 46 of the currently selected headword, and outputs the dictionary text (explanatory text) of the headword to the dictionary text. The data is read from the storage unit 47 and supplied to the input / output display control unit 48.
8 to output the text data supplied from the dictionary body storage unit 47 to the display unit 1 for display.

【0063】この例の場合、ステップS7における処理
およびステップS13における処理により、表示部1に
は、ステップS1で入力した”カメハメハ”が表示され
るので、ユーザは、ステップS8またはステップS14
で、”カメハメハ”を選択し、決定ボタン3を操作する
ことで、図16に示すように、表示部1に、”カメハメ
ハ”の辞書本文を表示させることができる。
In the case of this example, the display unit 1 displays "Kamehameha" input in step S1 by the processing in step S7 and the processing in step S13, so that the user can proceed to step S8 or step S14.
By selecting “Kamehameha” and operating the enter button 3, the dictionary text of “Kamehameha” can be displayed on the display unit 1 as shown in FIG.

【0064】このように、表示部1に辞書本文が表示さ
れると、処理は終了される。
As described above, when the dictionary text is displayed on the display unit 1, the processing is terminated.

【0065】以上のようにして、マイクロフォン5から
入力した単語が、ステップS5において、表示部1にお
いて表示されない場合であっても、基準変更ボタン6を
操作し(トグル操作し)、見出し語検出処理における類
似度基準を変更させ、先に入力した単語を表示させ、そ
してそれの辞書本文を表示されることができる。
As described above, even if the word input from the microphone 5 is not displayed on the display unit 1 in step S5, the reference change button 6 is operated (toggle operation), and the headword detection processing is performed. Can be changed, the previously entered word can be displayed, and its dictionary text can be displayed.

【0066】以上において、第1の類似度基準乃至第4
の類似度基準に基づいて検出された見出し語が、それぞ
れ別に表示部1に表示される場合を例として説明した
が、図17に示すように、それらを同時に表示部1に表
示させることもできる。図17では、表示部1の左端か
ら右端に向かって、第1の類似度基準、第2の類似度基
準、第3の類似度基準、および第4の類似度基準に基づ
いて検出された見出し語が表示されている。
In the above, the first to fourth similarity criteria
In the above description, the headwords detected based on the similarity criterion are separately displayed on the display unit 1. However, as shown in FIG. 17, they can be displayed on the display unit 1 at the same time. . In FIG. 17, headings detected based on a first similarity criterion, a second similarity criterion, a third similarity criterion, and a fourth similarity criterion from the left end to the right end of the display unit 1. The word is displayed.

【0067】また、図18に示すように、音声認識単語
候補(左側)、見出し語(中央)、および辞書文(右
側)を、同時に、表示部1に表示されることもできる。
Further, as shown in FIG. 18, the voice recognition word candidate (left side), the headword (center), and the dictionary sentence (right side) can be simultaneously displayed on the display unit 1.

【0068】なお、上記したような処理を行うコンピュ
ータプログラムをユーザに提供する提供媒体としては、
磁気ディスク、CD-ROM、固体メモリなどの記録媒体の
他、ネットワーク、衛星などの通信媒体を利用すること
ができる。
[0068] Examples of a providing medium for providing a user with a computer program for performing the above-described processing include:
In addition to recording media such as magnetic disks, CD-ROMs, and solid-state memories, communication media such as networks and satellites can be used.

【0069】[0069]

【発明の効果】請求項1に記載の情報処理装置、請求項
3に記載の情報処理方法、および請求項4に記載の提供
媒体によれば、音声認識用の情報に対応する単語データ
と、それを含む単語データを別にして記憶するようにし
たので、正確にかつ高速に、指定した情報に対応する情
報を得るすることができる。
According to the information processing apparatus according to the first aspect, the information processing method according to the third aspect, and the providing medium according to the fourth aspect, the word data corresponding to the information for voice recognition includes: Since the word data including the word information is separately stored, information corresponding to the specified information can be obtained accurately and at high speed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した携帯用電子辞書10の外観の
構成例を表す図である。
FIG. 1 is a diagram illustrating a configuration example of an appearance of a portable electronic dictionary 10 to which the present invention is applied.

【図2】図1の携帯用電子辞書10の内部の構成例を表
すブロック図である。
FIG. 2 is a block diagram illustrating an example of an internal configuration of the portable electronic dictionary 10 of FIG.

【図3】図1の携帯用電子辞書10の機能的構成例を表
す図である。
FIG. 3 is a diagram illustrating a functional configuration example of the portable electronic dictionary 10 of FIG.

【図4】辞書機能が実行される場合の処理手順を説明す
るフローチャートである。
FIG. 4 is a flowchart illustrating a processing procedure when a dictionary function is executed.

【図5】音声認識処理を説明するフローチャートであ
る。
FIG. 5 is a flowchart illustrating a speech recognition process.

【図6】表示部1の表示例を表す図である。FIG. 6 is a diagram illustrating a display example of the display unit 1.

【図7】第1の類似度基準に基づく見出し語検出処理を
説明するフローチャートである。
FIG. 7 is a flowchart illustrating a headword detection process based on a first similarity criterion.

【図8】表示部1の他の表示例を表す図である。FIG. 8 is a diagram illustrating another display example of the display unit 1.

【図9】第2の類似度基準に基づく見出し語検出処理を
説明するフローチャートである。
FIG. 9 is a flowchart illustrating a headword detection process based on a second similarity criterion.

【図10】表示部1の他の表示例を表す図である。FIG. 10 is a diagram illustrating another display example of the display unit 1.

【図11】第3の類似度基準に基づく見出し語検出処理
を説明するフローチャートである。
FIG. 11 is a flowchart illustrating a headword detection process based on a third similarity criterion.

【図12】表示部1の他の表示例を表す図である。FIG. 12 is a diagram illustrating another display example of the display unit 1.

【図13】第4の類似度基準に基づく見出し語検出処理
を説明するフローチャートである。
FIG. 13 is a flowchart illustrating a headword detection process based on a fourth similarity criterion.

【図14】シソーラス構造を説明する図である。FIG. 14 is a diagram illustrating a thesaurus structure.

【図15】表示部1の他の表示例を表す図である。FIG. 15 is a diagram illustrating another display example of the display unit 1.

【図16】表示部1の他の表示例を表す図である。FIG. 16 is a diagram illustrating another display example of the display unit 1.

【図17】表示部1の他の表示例を表す図である。FIG. 17 is a diagram illustrating another display example of the display unit 1.

【図18】表示部1の他の表示例を表す図である。FIG. 18 is a diagram illustrating another display example of the display unit 1.

【符号の説明】[Explanation of symbols]

1 表示部, 2 カーソルボタン, 3 決定ボタ
ン, 4 キャンセルボタン, 5 マイクロフォン,
6 基準変更ボタン, 10 携帯用電子辞書, 2
1 インタフェース, 22 CPU, 23 ROM, 2
4 RAM, 41制御部, 42 音声認識部, 43
認識対象単語記憶部, 44 見出し語検出部, 4
5 検出対象単語記憶部, 46 辞書本文検出部,
47 辞書本文記憶部, 48 入出力表示制御部
1 display unit, 2 cursor buttons, 3 enter button, 4 cancel button, 5 microphone,
6 Standard change button, 10 Portable electronic dictionary, 2
1 interface, 22 CPU, 23 ROM, 2
4 RAM, 41 control unit, 42 voice recognition unit, 43
Recognition word storage unit, 44 Headword detection unit, 4
5 Detection target word storage unit, 46 Dictionary text detection unit,
47 dictionary text storage unit, 48 input / output display control unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 15/40 310G 15/403 310Z 350C Fターム(参考) 5B009 KB00 VA00 5B075 ND03 PP07 PP22 PR06 QM05 UU01 5B091 AA03 BA02 CA22 CB12 CC02──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 15/40 310G 15/403 310Z 350C F-term (Reference) 5B009 KB00 VA00 5B075 ND03 PP07 PP22 PR06 QM05 UU01 5B091 AA03 BA02 CA22 CB12 CC02

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 指定情報を音声で入力する入力手段と、 単語データと音声認識用の情報を記憶する第1の記憶手
段と、 前記第1の記憶手段に記憶されている前記単語データよ
りも大語彙の単語データを記憶する第2の記憶手段と、 前記第2の記憶手段に記憶されている前記単語データに
対応する情報を記憶する第3の記憶手段と、 前記入力手段により入力された前記指定情報を、前記第
1の記憶手段に記憶されている前記音声認識用の情報に
基づいて音声認識し、N個の前記単語データを検出する
第1の検出手段と、 前記第1の検出手段により検出されたN個の前記単語デ
ータから選択された所定の前記単語データに対応して、
所定の類似度基準に基づいて、前記第2の記憶手段から
M個の単語データを検出する第2の検出手段と、 前記第2の検出手段により検出されたM個の前記単語デ
ータのうち、選択された前記単語データに対応する情報
を、前記第3の記憶手段から検出する第3の検出手段
と、 前記第1の検出手段により検出されたN個の前記単語デ
ータ、前記第2の検出手段により検出されたM個の前記
単語データ、または前記第3の検出手段により検出され
た前記単語データに対応する前記情報の表示を制御する
表示制御手段とを備えることを特徴とする情報処理装置
装置。
An input unit for inputting designated information by voice; a first storage unit for storing word data and information for voice recognition; a first storage unit for storing word information and voice recognition information; A second storage unit for storing word data of a large vocabulary; a third storage unit for storing information corresponding to the word data stored in the second storage unit; First detection means for performing voice recognition on the designation information based on the voice recognition information stored in the first storage means and detecting N pieces of the word data; Corresponding to the predetermined word data selected from the N word data detected by the means,
A second detection unit that detects M word data from the second storage unit based on a predetermined similarity criterion; and, among the M word data detected by the second detection unit, Third detection means for detecting information corresponding to the selected word data from the third storage means, N word data detected by the first detection means, the second detection And a display control means for controlling display of the information corresponding to the M word data detected by the means or the word data detected by the third detection means. apparatus.
【請求項2】 前記類似度基準を変更する変更手段をさ
らに備え、 前記表示制御手段は、前記第1の検出手段により検出さ
れた前記単語データ、前記第2の検出手段により、前記
変更手段により変更された類似度基準のそれぞれに基づ
いて検出されたそれぞれの単語データ、および前記第3
の検出手段により検出された単語データに対応する情報
の表示を組み合わせて表示することを特徴とする請求項
1に記載の情報処理装置。
2. The image processing apparatus according to claim 1, further comprising a change unit configured to change the similarity criterion, wherein the display control unit sets the word data detected by the first detection unit, the word data detected by the second detection unit, The respective word data detected based on each of the changed similarity criteria;
The information processing apparatus according to claim 1, wherein the information corresponding to the word data detected by the detecting means is displayed in combination.
【請求項3】 指定情報を音声で入力する入力ステップ
と、 単語データと音声認識用の情報を記憶する第1の記憶ス
テップと、 前記第1の記憶ステップで記憶された前記単語データよ
りも大語彙の単語データを記憶する第2の記憶ステップ
と、 前記第2の記憶ステップで記憶された前記単語データに
対応する情報を記憶する第3の記憶ステップと、 前記入力ステップで入力された前記指定情報を、前記第
1の記憶ステップで記憶された前記音声認識用の情報に
基づいて音声認識し、N個の前記単語データを検出する
第1の検出ステップと、 前記第1の検出ステップで検出されたN個の前記単語デ
ータから選択された所定の前記単語データに対応して、
所定の類似度基準に基づいて、前記第2の記憶ステップ
で記憶された前記単語データからM個の単語データを検
出する第2の検出ステップと、 前記第2の検出ステップで検出されたM個の前記単語デ
ータのうち、選択された前記単語データに対応する情報
を、前記第3の記憶ステップで記憶されている前記情報
から検出する第3の検出ステップと、 前記第1の検出ステップで検出されたN個の前記単語デ
ータ、前記第2の検出ステップで検出されたM個の前記
単語データ、または前記第3の検出ステップで検出され
た前記単語データに対応する前記情報の表示を制御する
表示制御ステップとを含むことを特徴とする情報処理方
法。
3. An input step of inputting designated information by voice; a first storage step of storing word data and information for voice recognition; and a larger than the word data stored in the first storage step. A second storage step of storing vocabulary word data; a third storage step of storing information corresponding to the word data stored in the second storage step; and the designation input in the input step A first detecting step of recognizing information based on the information for voice recognition stored in the first storing step and detecting N word data; and detecting in the first detecting step Corresponding to the predetermined word data selected from the N pieces of word data thus obtained,
A second detection step of detecting M word data from the word data stored in the second storage step based on a predetermined similarity criterion; and a M number of word data detected in the second detection step. A third detection step of detecting information corresponding to the selected word data from the word data selected from the information stored in the third storage step; and detecting the information in the first detection step. Controlling the display of the N pieces of word data, the M pieces of word data detected in the second detection step, or the information corresponding to the word data detected in the third detection step. An information processing method, comprising: a display control step.
【請求項4】 指定情報を音声で入力する入力ステップ
と、 単語データと音声認識用の情報を記憶する第1の記憶ス
テップと、 前記第1の記憶ステップで記憶された前記単語データよ
りも大語彙の単語データを記憶する第2の記憶ステップ
と、 前記第2の記憶ステップで記憶された前記単語データに
対応する情報を記憶する第3の記憶ステップと、 前記入力ステップで入力された前記指定情報を、前記第
1の記憶ステップで記憶された前記音声認識用の情報に
基づいて音声認識し、N個の前記単語データを検出する
第1の検出ステップと、 前記第1の検出ステップで検出されたN個の前記単語デ
ータから選択された所定の前記単語データに対応して、
所定の類似度基準に基づいて、前記第2の記憶ステップ
で記憶された前記単語データからM個の単語データを検
出する第2の検出ステップと、 前記第2の検出ステップで検出されたM個の前記単語デ
ータのうち、選択された前記単語データに対応する情報
を、前記第3の記憶ステップで記憶されている前記情報
から検出する第3の検出ステップと、 前記第1の検出ステップで検出されたN個の前記単語デ
ータ、前記第2の検出ステップで検出されたM個の前記
単語データ、または前記第3の検出ステップで検出され
た前記単語データに対応する前記情報の表示を制御する
表示制御ステップとを含む処理を情報処理装置に実行さ
せるコンピュータが読み取り可能なプログラムを提供す
ることを特徴とする提供媒体。
4. An input step of inputting designated information by voice, a first storage step of storing word data and information for voice recognition, and a step of storing the word data and the word data stored in the first storage step. A second storage step of storing vocabulary word data; a third storage step of storing information corresponding to the word data stored in the second storage step; and the designation input in the input step A first detecting step of recognizing information based on the information for voice recognition stored in the first storing step and detecting N word data; and detecting in the first detecting step Corresponding to the predetermined word data selected from the N pieces of word data thus obtained,
A second detection step of detecting M word data from the word data stored in the second storage step based on a predetermined similarity criterion; and a M number of word data detected in the second detection step. A third detection step of detecting information corresponding to the selected word data from the word data selected from the information stored in the third storage step; and detecting the information in the first detection step. Controlling the display of the N pieces of word data, the M pieces of word data detected in the second detection step, or the information corresponding to the word data detected in the third detection step. A providing medium for providing a computer-readable program that causes an information processing apparatus to execute a process including a display control step.
JP10333698A 1998-11-25 1998-11-25 Processor and method for information processing and provision medium Withdrawn JP2000163427A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10333698A JP2000163427A (en) 1998-11-25 1998-11-25 Processor and method for information processing and provision medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10333698A JP2000163427A (en) 1998-11-25 1998-11-25 Processor and method for information processing and provision medium

Publications (1)

Publication Number Publication Date
JP2000163427A true JP2000163427A (en) 2000-06-16

Family

ID=18268972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10333698A Withdrawn JP2000163427A (en) 1998-11-25 1998-11-25 Processor and method for information processing and provision medium

Country Status (1)

Country Link
JP (1) JP2000163427A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005076259A1 (en) * 2004-02-10 2005-08-18 Nec Corporation Speech input system, electronic device, speech input method, and speech input program
JP2006039954A (en) * 2004-07-27 2006-02-09 Denso Corp Database retrieval system, program, and navigation system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005076259A1 (en) * 2004-02-10 2005-08-18 Nec Corporation Speech input system, electronic device, speech input method, and speech input program
JPWO2005076259A1 (en) * 2004-02-10 2007-10-18 日本電気株式会社 Voice input system, voice input method, and voice input program
JP4622861B2 (en) * 2004-02-10 2011-02-02 日本電気株式会社 Voice input system, voice input method, and voice input program
JP2006039954A (en) * 2004-07-27 2006-02-09 Denso Corp Database retrieval system, program, and navigation system

Similar Documents

Publication Publication Date Title
CN107305768B (en) Error-prone character calibration method in voice interaction
TWI266280B (en) Multimodal disambiguation of speech recognition
JP4416643B2 (en) Multimodal input method
JP4829901B2 (en) Method and apparatus for confirming manually entered indeterminate text input using speech input
RU2377664C2 (en) Text input method
EP1617409B1 (en) Multimodal method to provide input to a computing device
JPH03224055A (en) Method and device for input of translation text
JP2002116796A (en) Voice processor and method for voice processing and storage medium
JP2010198241A (en) Chinese input device and program
JP3903993B2 (en) Sentiment recognition device, sentence emotion recognition method and program
CN115309994A (en) Location search method, electronic device, and storage medium
JP3762191B2 (en) Information input method, information input device, and storage medium
JP2000163427A (en) Processor and method for information processing and provision medium
CN111429886B (en) Voice recognition method and system
JP5008248B2 (en) Display processing apparatus, display processing method, display processing program, and recording medium
JPH08166966A (en) Dictionary retrieval device, database device, character recognizing device, speech recognition device and sentence correction device
JP3059504B2 (en) Part of speech selection system
JP2000056795A (en) Speech recognition device
CN1965349A (en) Multimodal disambiguation of speech recognition
JP2006107353A (en) Information processor, information processing method, recording medium and program
JP3762300B2 (en) Text input processing apparatus and method, and program
CN112882680A (en) Voice recognition method and device
JP2004309928A (en) Speech recognition device, electronic dictionary device, speech recognizing method, retrieving method, and program
JP5302784B2 (en) Machine translation method and system
JP2004118720A (en) Translating device, translating method, and translating program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060207