JPH1021254A - Information retrieval device with speech recognizing function - Google Patents

Information retrieval device with speech recognizing function

Info

Publication number
JPH1021254A
JPH1021254A JP8169753A JP16975396A JPH1021254A JP H1021254 A JPH1021254 A JP H1021254A JP 8169753 A JP8169753 A JP 8169753A JP 16975396 A JP16975396 A JP 16975396A JP H1021254 A JPH1021254 A JP H1021254A
Authority
JP
Japan
Prior art keywords
voice
search
voice input
recognition
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8169753A
Other languages
Japanese (ja)
Inventor
Hiroshi Matsuura
博 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP8169753A priority Critical patent/JPH1021254A/en
Publication of JPH1021254A publication Critical patent/JPH1021254A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To narrow items down to necessary irreducible items of high possibility and improve the operability of information retrieval by recognizing the voice of a retrieval item name that an operator has spoken and obtaining recognition candidates for it. SOLUTION: When the operator vocalizes a desired retrieval item belonging to a currently object layer in front of a microphone 31 of a speech input part 3 while a window for speech input is displayed, a speech input part 3 inputs the speech and a speech recognition part 5 recognizes it. Recognition candidates obtained by the recognition are displayed in the said window by a control part 8 as retrieval candidates defined as selection buttons. Here, a 1st candidate is in a selected state and when another retrieval candidate is selected with a mouse 2, the selected candidate is newly put in a selected state and the retrieval item in the next layer belonging to the retrieval candidate in the selected state enters a next retrieval range. Thus, the retrieval range is narrowed down to obtain a final retrieval result.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、操作者が音声を発
声することによって、文字(テキスト)、図形、地図
(に代表される画像)などの情報を素早く検索し表示す
る音声認識機能付き情報検索装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to information with a voice recognition function for quickly retrieving and displaying information such as characters (text), graphics, maps (images represented by maps), etc., when an operator utters a voice. Related to a search device.

【0002】[0002]

【従来の技術】従来、図形、地図などの情報を検索する
情報検索装置では、検索項目の一覧を画面表示し、その
検索項目一覧からユーザがマウスによる位置合わせ操作
を行って所望の検索項目を選択することにより情報検索
を行うのが一般的であった。
2. Description of the Related Art Conventionally, in an information retrieval apparatus for retrieving information such as figures and maps, a list of search items is displayed on a screen, and a user performs a positioning operation with a mouse from the list of search items to select a desired search item. It was common to perform information retrieval by selecting.

【0003】しかし、このような情報検索装置では、検
索項目が例えば数千乃至数万というように膨大な場合に
は、たとえ検索項目の先頭の文字を50音表から検索す
ることによって、或いは住所などのように検索項目を階
層化させることによって、ある程度検索対象を絞ったと
しても、検索項目が数百乃至数千になる場合がある。こ
のような場合、検索項目一覧を1つの画面に収めること
は到底困難であり、しかも各項目の文字サイズも著しく
小さいものとなることから、マウス(位置指示手段)を
用いた検索操作を効率的に行うことは容易ではない。
However, in such an information search apparatus, if the number of search items is enormous, for example, from several thousands to tens of thousands, even if the first character of the search item is searched from the Japanese syllabary, Even if the search target is narrowed down to some extent by hierarchizing the search items as described above, the number of search items may be hundreds to thousands. In such a case, it is extremely difficult to fit the search item list on one screen, and the character size of each item becomes extremely small. Therefore, the search operation using the mouse (position indicating means) is efficiently performed. It is not easy to do.

【0004】[0004]

【発明が解決しようとする課題】上記したようにマウス
操作を基本とする従来の情報検索装置では、検索項目が
多くなると、たとえ検索項目の先頭の文字を50音表か
ら検索することによって、或いは住所などのように検索
項目を階層化させることによって、ある程度検索対象を
絞ったとしても、検索項目を大幅に少なくすることは困
難であり、効率的な検索操作を実現することは容易でな
かった。
As described above, in the conventional information retrieval apparatus based on a mouse operation, when the number of search items increases, even if the first character of the search item is searched from the Japanese syllabary, Even if the search target is narrowed down to some extent by hierarchically arranging the search items such as addresses, it is difficult to greatly reduce the number of search items, and it has not been easy to realize an efficient search operation. .

【0005】本発明は上記事情を考慮してなされたもの
でその目的は、操作者が発声した検索項目名の音声を認
識して、その認識候補を得ることで、膨大な数の検索項
目の中から可能性の高い必要最小限の項目に絞るように
し、もって情報検索の操作性を大幅に向上することがで
きる音声認識機能付き情報検索装置を提供することにあ
る。
The present invention has been made in consideration of the above circumstances, and has as its object to recognize an utterance of a search item name uttered by an operator and obtain candidates for the recognition, thereby obtaining an enormous number of search items. It is an object of the present invention to provide an information retrieval apparatus with a voice recognition function that can narrow down to the minimum necessary items having a high possibility from among them, thereby greatly improving the operability of information retrieval.

【0006】本発明の他の目的は、情報検索のための音
声入力を案内する音声入力用ウインドウ内の画面を前に
戻したり、消去したり、認識候補を選択するといったこ
とが、位置指示手段を用いた煩雑な位置合わせ操作を必
要とせずに簡単に行える音声認識機能付き情報検索装置
を提供することにある。
Another object of the present invention is to return or erase a screen in a voice input window for guiding voice input for information search, or to select a recognition candidate. It is an object of the present invention to provide an information retrieval apparatus with a voice recognition function that can be easily performed without requiring a complicated positioning operation using the information processing apparatus.

【0007】[0007]

【課題を解決するための手段】本発明は、音声を入力す
る音声入力手段と、この音声入力手段により入力された
音声を認識して、その認識候補を複数取得する音声認識
手段と、情報検索結果等の表示に用いられる表示手段
と、この表示手段の表示画面上に表示されるカーソルを
移動操作することで位置指示するための位置指示手段
と、情報検索のための音声入力を案内する音声入力用ウ
インドウを上記表示手段の表示画面に上書きして表示
し、その案内に応じて利用者から発声されて上記音声入
力手段により入力される音声を上記音声認識手段により
認識させる制御を1回以上行うことで順次検索範囲を絞
り、最終的に検索結果を取得して上記表示手段に表示す
る制御手段であって、上記音声認識手段により取得され
た複数の認識候補を選択ボタンとして定義される検索候
補として上記音声入力ウインドウ内に表示し、その検索
候補の1つが上記位置指示手段により選択的に位置指示
された場合には、その検索候補を選択状態にして再表示
する制御手段とを具備することを特徴とする。
SUMMARY OF THE INVENTION The present invention provides a voice input means for inputting voice, a voice recognition means for recognizing a voice input by the voice input means and obtaining a plurality of recognition candidates, and an information retrieval method. Display means used for displaying results, etc., position indicating means for indicating a position by moving a cursor displayed on the display screen of the display means, and voice for guiding voice input for information search The input window is overwritten and displayed on the display screen of the display means, and control for causing the voice recognition means to recognize a voice uttered by a user according to the guidance and input by the voice input means is performed at least once. Control means for sequentially narrowing a search range, finally obtaining search results and displaying the search results on the display means, and selecting a plurality of recognition candidates obtained by the voice recognition means Is displayed in the voice input window as a search candidate defined as a button, and when one of the search candidates is selectively designated by the position designating means, the search candidate is selected and displayed again. And control means.

【0008】ここで、上記音声入力手段への人の接近を
検知する接近検知手段を追加し、この接近検知手段によ
る接近検知に応じて音声入力用ウインドウが自動的に表
示される構成とするとか、この表示時点から一定時間を
経過しても音声の入力がなされない場合に、音声入力用
ウインドウの表示を消去する構成とするとよい。
Here, an approach detecting means for detecting the approach of a person to the voice input means is added, and a voice input window is automatically displayed in response to the approach detection by the approach detecting means. In the case where no voice is input even after a certain period of time has elapsed from the display time, the display of the voice input window may be deleted.

【0009】このような構成においては、操作者(情報
検索者)が、音声入力ウインドウ内に示される情報検索
のための音声入力案内に従って、音声入力手段に向かっ
て検索項目を発声すると、その音声が音声入力手段によ
り入力され、音声認識手段により認識される。音声認識
手段では、入力音声に対する音声認識結果として、複数
の認識候補を順位付きで取得する。この音声認識手段に
より取得された複数の認識候補は、音声入力ウインドウ
内に選択ボタンとして定義される検索候補として例えば
候補順に表示される。ここでは、まず第1位の検索候補
(認識候補)が選択状態に設定され、もし、その第1位
の検索候補が誤りであるならば、操作者は位置指示手段
(ポインティングデバイス)を操作して他の検索候補の
中から正しい検索候補を選択すればよく、その正しい検
索候補を選択状態に切り替えることができる。そして、
選択状態にある検索候補に属する次(1つ下)の階層の
検索項目が存在しないならば、その選択状態にある検索
候補に対応する情報が検索結果として画面表示される。
また、選択状態にある検索候補に属する次の階層の検索
項目が存在する場合に、操作者が所望の検索項目を発声
すると、上記と同様にして、その発声した検索項目を対
象とする音声認識処理により複数の認識候補が取得さ
れ、音声入力ウインドウ内に表示される。
In such a configuration, when the operator (information searcher) utters a search item toward the voice input means in accordance with the voice input guidance for information search shown in the voice input window, the voice is output. Is input by the voice input means and recognized by the voice recognition means. The voice recognition unit obtains a plurality of recognition candidates with ranking as voice recognition results for the input voice. The plurality of recognition candidates acquired by the voice recognition unit are displayed as search candidates defined as selection buttons in the voice input window, for example, in the order of the candidates. Here, first, the first search candidate (recognition candidate) is set to the selected state, and if the first search candidate is incorrect, the operator operates the position indicating means (pointing device). Then, a correct search candidate may be selected from other search candidates, and the correct search candidate can be switched to a selected state. And
If there is no search item of the next (one lower) hierarchy belonging to the search candidate in the selected state, information corresponding to the search candidate in the selected state is displayed on the screen as a search result.
When the operator utters a desired search item when there is a next hierarchical search item belonging to the selected search candidate, the voice recognition for the uttered search item is performed in the same manner as described above. A plurality of recognition candidates are obtained by the processing and displayed in the voice input window.

【0010】このように本発明においては、音声入力に
よる情報検索を適用し、少なくとも1回以上の音声認識
によって検索範囲を絞り、最終的に確定された検索結果
を画面表示するようにしている。このため、従来技術と
異なり、膨大な数の検索項目一覧の中から目的の検索項
目を見つけ、当該検索項目を位置指示手段を用いて位置
指示することで選択するという操作も不要であり、情報
検索を簡単に且つ容易に行うことができる。しかも本発
明においては、検索項目一覧は不要であり、たとえ操作
者の便宜を図るために画面表示するにしても、位置指示
手段による位置指示の対象とならないため(即ち選択ボ
タンとしての役割は必要ないため)、従来に比べて十分
小さい文字サイズで表示できるため、音声入力用ウイン
ドウも小さなものにすることができる。
As described above, in the present invention, an information search by voice input is applied, a search range is narrowed by at least one voice recognition, and a finally determined search result is displayed on a screen. Therefore, unlike the related art, an operation of finding a target search item from a huge number of search item lists and selecting the relevant search item by specifying the position using a position specifying means is not necessary, and information is not required. Searching can be performed easily and easily. Moreover, in the present invention, a search item list is unnecessary, and even if it is displayed on the screen for the convenience of the operator, it is not targeted for position designation by the position designation means (that is, a role as a selection button is necessary). Since the display can be performed with a character size sufficiently smaller than that of the related art, the voice input window can be made smaller.

【0011】ところで、選択状態にある検索候補を切り
替えるには、位置指示手段を用いて目的の検索候補にカ
ーソルを位置合わせすればよい。この操作は、せいぜい
5個前後のごく少数の検索候補(認識候補)を対象とす
るため、操作性の点でそれ程問題とはならない。しか
し、このようなカーソルの位置合わせを行わなくても検
索候補を切り替え(選択)が行えるなら、なお便利であ
る。
By the way, in order to switch the selected search candidate, the cursor may be positioned to the target search candidate using the position indicating means. Since this operation targets at most a small number of search candidates (recognition candidates) of about five, there is not much problem in operability. However, it is still more convenient if the search candidates can be switched (selected) without performing such cursor positioning.

【0012】そこで本発明では、音声入力用ウインドウ
内の選択ボタンとして定義されている(検索候補等の)
表示領域から外れた位置にカーソルが存在する状態で、
位置指示手段が持つ所定の指示入力手段による指示入力
がなされる毎に(位置指示手段がマウスの例であれば、
所定のマウスボタン、例えば左ボタンがクリックされる
毎に)、選択状態にある検索候補が次の候補に切り替え
られて再表示されるようにしている。
Therefore, according to the present invention, it is defined as a selection button in a voice input window (such as a search candidate).
With the cursor at a position outside the display area,
Each time an instruction is input by a predetermined instruction input means of the position instruction means (if the position instruction means is an example of a mouse,
Each time a predetermined mouse button, for example, a left button is clicked), the selected search candidate is switched to the next candidate and displayed again.

【0013】この他、音声入力用ウインドウ内への画面
表示時に、当該ウインドウ内の選択ボタンとして定義さ
れている表示領域から外れた位置にカーソルを自動配置
するならば、なお一層便利である。
In addition, when the screen is displayed in the voice input window, it is more convenient if the cursor is automatically arranged at a position outside the display area defined as a selection button in the window.

【0014】ところで、操作者が誤った検索項目を入力
したり、或いは音声認識処理の誤りで認識候補(検索候
補)中に操作者が発声した検索項目が存在しないといっ
た場合に、音声入力用ウインドウ内の画面を1つ前の画
面、或いは初期画面に戻せるようにすると便利である。
このためには、前画面や、初期画面に戻すことを指示す
るための専用の選択ボタンを用意することが考えられる
が、位置指示手段を用いた位置合わせ操作が必要とな
る。
By the way, when the operator inputs an incorrect search item, or when there is no search item uttered by the operator among recognition candidates (search candidates) due to an error in voice recognition processing, a voice input window is displayed. It is convenient to be able to return the previous screen to the previous screen or the initial screen.
To this end, it is conceivable to prepare a dedicated selection button for instructing to return to the previous screen or the initial screen, but a positioning operation using a position indicating means is required.

【0015】そこで本発明では、音声入力用ウインドウ
内の選択ボタンとして定義されている(検索候補等の)
表示領域から外れた位置にカーソルが存在する状態で、
位置指示手段が持つ所定の指示入力手段による指示入力
がなされた場合(位置指示手段がマウスの例であれば、
所定のマウスボタン、例えば中ボタン、或いは右ボタン
がクリックされるた場合)には、音声入力用ウインドウ
内を1つ前の画面、或いは初期画面に戻すようにしてい
る。また、1つ前の画面に戻すための操作が行われた際
に音声入力用ウインドウ内に初期画面が表示されていた
場合には、即ち1つ前の画面がない場合には、音声入力
用ウインドウ全体の表示を消去するようにするとよい。
Therefore, in the present invention, it is defined as a selection button in a window for voice input (such as a search candidate).
With the cursor at a position outside the display area,
When an instruction is input by a predetermined instruction input unit of the position instruction unit (if the position instruction unit is an example of a mouse,
When a predetermined mouse button, for example, a middle button or a right button is clicked, the voice input window is returned to the previous screen or the initial screen. If the initial screen is displayed in the voice input window when the operation for returning to the previous screen is performed, that is, if there is no previous screen, the voice input It is preferable to delete the display of the entire window.

【0016】[0016]

【発明の実施の形態】以下、本発明の実施の形態につき
図面を参照して説明する。図1は本発明の一実施形態に
係る音声認識機能付き情報検索装置の概略構成を示すブ
ロック図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of an information search device with a voice recognition function according to one embodiment of the present invention.

【0017】本実施形態において、図1の情報検索装置
は、警察署の通信指令室に地図情報検索装置として配備
されるもので、ディスプレイ1、マウス2、音声入力部
3、光電センサ4、音声認識部5、地図データベース
(地図DB)6、地図検索部7、及び制御部8から構成
される。
In the present embodiment, the information retrieval device of FIG. 1 is provided as a map information retrieval device in a communication command room of a police station, and includes a display 1, a mouse 2, a voice input unit 3, a photoelectric sensor 4, a voice It comprises a recognition unit 5, a map database (map DB) 6, a map search unit 7, and a control unit 8.

【0018】ディスプレイ1は、情報検索結果(ここで
は、地図からなる情報)等の表示に用いられる表示手段
である。マウス2はディスプレイ1の表示画面上の位置
指示等に用いられる位置指示手段(ポインティングデバ
イス)であり、(指示入力手段としての)例えば左ボタ
ン、中(中央)ボタン及び右ボタンの3つのマウスボタ
ンを有している。
The display 1 is a display means used to display information retrieval results (here, information comprising a map) and the like. The mouse 2 is a position pointing device (pointing device) used for pointing a position on the display screen of the display 1, for example, three mouse buttons (as an instruction input device) of a left button, a middle (center) button, and a right button have.

【0019】音声入力部3は、操作者の発声した音声の
入力を司どる。音声入力部3は、音声を入力して電気信
号(アナログ音声信号)に変換するマイクロホン31を
有している。このマイクロホン31は、例えば机上に設
置される。また音声入力部3は、マイクロホン31によ
り入力されたアナログ音声信号をディジタル音声信号に
変換する図示せぬアナログ/ディジタル変換器(A/D
変換器)も有している。
The voice input unit 3 controls input of voice uttered by the operator. The voice input unit 3 has a microphone 31 that inputs voice and converts it into an electric signal (analog voice signal). The microphone 31 is installed on, for example, a desk. The audio input unit 3 also converts an analog audio signal input by the microphone 31 into a digital audio signal (not shown) using an analog / digital converter (A / D).
Converter).

【0020】光電センサ4は、操作者がマイクロホン3
1に接近したことを検知する接近検知手段であり、図2
に示すようにマイクロホン31に付随して設けられてい
る。音声認識部5は、音声入力部3により入力されたデ
ィジタル音声信号から音韻の特徴量を抽出し、その抽出
した特徴量をもとに後述する認識辞書61を用いて入力
音声を認識し、複数の認識候補(認識結果)を順位付き
で出力する音声認識処理を司る。
The photoelectric sensor 4 allows the operator to operate the microphone 3
2 is an approach detecting means for detecting the approach to
Are provided along with the microphone 31 as shown in FIG. The voice recognition unit 5 extracts phonemic features from the digital voice signal input by the voice input unit 3, recognizes input speech using a recognition dictionary 61 described later based on the extracted features, and And voice recognition processing for outputting recognition candidates (recognition results) with ranking.

【0021】地図データベース6は予め定められた地域
の地図情報を登録しておくものである。地図データベー
ス6には、上記の地域を対象とする検索項目名(を示す
単語)が音声で入力された際の音声認識に必要な認識辞
書61も登録されている。この認識辞書61は、階層化
された辞書構造を適用しており、警察署名用の辞書と、
各警察署別に用意され、対応する警察署の管轄下にある
市町村名用の辞書と、各市町村別に用意され、対応する
市町村に属する大字名用の辞書と、各大字別に用意さ
れ、対応する大字に属する小字名用の辞書からなる。
The map database 6 is for registering map information of a predetermined area. The map database 6 also registers a recognition dictionary 61 necessary for voice recognition when a search item name (word indicating) for the above area is input by voice. This recognition dictionary 61 applies a hierarchical dictionary structure, and includes a dictionary for police signatures,
Dictionaries for municipalities that are prepared for each police station and under the jurisdiction of the corresponding police station, and dictionaries that are prepared for each municipal and belong to the corresponding municipalities, and are prepared for each of the capitals, and the corresponding capitals Consists of dictionaries for small names belonging to.

【0022】地図検索部7は、音声認識部5により認識
された検索項目が制御部8により最終的に確定される検
索項目であると判断された場合に、対応する地図部分を
地図データベース6から検索する地図検索を司る。
When it is determined that the search item recognized by the voice recognition unit 5 is a search item finally determined by the control unit 8, the map search unit 7 extracts a corresponding map part from the map database 6. Manage map search to search.

【0023】制御部8は、装置全体の制御を司る。次
に、図1の構成の動作を、住所によって目的地を示す地
図部分を検索していく場合を例に、図3のフローチャー
トを適宜参照して説明する。
The control section 8 controls the entire apparatus. Next, the operation of the configuration of FIG. 1 will be described with reference to the flowchart of FIG.

【0024】今、ディスプレイ1には、前回検索した検
索項目名で表される区域を中心とする地図情報が画面全
体に表示されているものとする。このような状態で、図
1の音声認識機能付き情報検索装置を利用する操作者
が、机上に置かれたマイクロホン31に音声入力するた
めに近付くと、当該マイクロホン31に付随して設けら
れた光電センサ4(図2参照)により、操作者の接近が
検知される。この光電センサ4の検知出力は制御部8に
送られる。
Now, it is assumed that the display 1 displays map information centered on the area represented by the previously searched search item name on the entire screen. In such a state, when an operator using the information search device with a voice recognition function of FIG. 1 approaches to input a voice to the microphone 31 placed on a desk, a photoelectric device attached to the microphone 31 is provided. The approach of the operator is detected by the sensor 4 (see FIG. 2). The detection output of the photoelectric sensor 4 is sent to the control unit 8.

【0025】制御部8は、光電センサ4の検知出力に応
じて、即ち操作者のマイクロホン31への接近検知に応
じて、ディスプレイ1の表示画面に、図4に示すよう
に、音声入力用ウインドウ100を、現在表示中の地図
情報画面の一部領域に上書きして表示する。この音声入
力用ウインドウ100には、図4に示すように、操作者
に対して(最上位の階層の検索項目としての)警察署を
発声することを案内するための警察署発声画面110が
初期画面として表示される。この警察署発声画面110
には、本装置の検索対象となる地域内の全ての警察署の
一覧が表示される。また制御部8は、音声認識部5に対
し、(音声入力部3により音声が入力された場合には)
認識辞書61内の警察署名用の辞書を用いた音声認識を
行うことを指示する。
In response to the detection output of the photoelectric sensor 4, that is, the detection of the approach of the operator to the microphone 31, the control unit 8 displays a voice input window on the display screen of the display 1 as shown in FIG. 100 is overwritten and displayed on a partial area of the currently displayed map information screen. In the voice input window 100, as shown in FIG. 4, a police station utterance screen 110 for guiding the operator to utter a police station (as a search item at the highest level) is initially displayed. Displayed as a screen. This police station utterance screen 110
Displays a list of all police stations in the area to be searched by this apparatus. In addition, the control unit 8 instructs the voice recognition unit 5 (when a voice is input by the voice input unit 3).
An instruction is given to perform voice recognition using a police signature dictionary in the recognition dictionary 61.

【0026】操作者は、音声入力用ウインドウ100内
の警察署発声画面110の案内に従って、自身の目的地
を管轄している警察署をマイクロホン31に向かって発
声する。ここでは、「保原」と発声されたものとする。
In accordance with the guidance on the police station utterance screen 110 in the voice input window 100, the operator utters the police station in charge of his or her destination toward the microphone 31. Here, it is assumed that “Hohara” is uttered.

【0027】操作者の発声した音声は、マイクロホン3
1により入力されて電気信号(アナログ音声信号)に変
換され、音声入力部3(内の図示せぬA/D変換器)に
よりディジタル音声信号に変換される。
The voice uttered by the operator is transmitted to the microphone 3
1 and converted into an electric signal (analog sound signal), and converted into a digital sound signal by a sound input unit 3 (an A / D converter not shown).

【0028】音声認識部5は、このディジタル音声信号
から、音韻の特徴量、例えばケプストラム係数を抽出
し、その抽出したケプストラム係数をもとに、例えば複
合類似度法によって、例えば8ms毎に、音声信号を音
声ラベルに変換する。そして音声認識部5は、この音声
ラベルを、例えば離散隠れマルコフモデル(HMM)法
によって、(認識辞書61中の警察署名用の辞書に登録
されている)予め定められている検索項目(ここでは、
警察署発声画面110に表示されている警察署一覧中の
各項目)を示す単語毎のモデルと照合することで、最も
類似性の高い(第1位の)単語から、例えば第5位まで
を音声認識結果(認識候補)として求める。ここでは、
第1位から順に、「保原」、「福島」、「福島北」、
「若松」、「高田」の認識候補が求められたものとす
る。
The speech recognition unit 5 extracts phonemic features, for example, cepstrum coefficients, from the digital speech signal, and, based on the extracted cepstrum coefficients, for example, every 8 ms, using the complex similarity method. Convert signals to speech labels. Then, the speech recognition unit 5 uses the speech label as a predetermined search item (registered in the police signature dictionary in the recognition dictionary 61) by, for example, the discrete hidden Markov model (HMM) method (here, ,
By collating with the model for each word indicating each item in the police station list displayed on the police station utterance screen 110, the words having the highest similarity (the first place) to the fifth place, for example, are searched. It is obtained as a speech recognition result (recognition candidate). here,
From the first place, "Hobara", "Fukushima", "Fukushima Kita",
It is assumed that recognition candidates of “Wakamatsu” and “Takada” have been obtained.

【0029】「保原」に対する音声認識部5の音声認識
結果である第1位から第5位までの(警察署名の)認識
候補は制御部8に渡される。これを受けて制御部8は、
音声入力用ウインドウ100内の警察署発声画面110
を図5に示す市町村発声画面120に切り替えて、第1
位から第5位までの認識候補を表示する。この認識候補
の表示領域は、選択ボタン(機能ボタン)の表示領域と
して定義されており、最初は第1位の認識候補が選択状
態に自動設定され、その旨を示す反転表示状態にある。
この他、市町村発声画面120には、警察署発声画面
(初期画面)110に戻るための選択ボタンである「警
察署」ボタンも表示される。
The first to fifth recognition candidates (of the police signature), which are the speech recognition results of the speech recognition unit 5 for “Hobara”, are passed to the control unit 8. In response to this, the control unit 8
Police station utterance screen 110 in voice input window 100
To the municipal speech screen 120 shown in FIG.
The recognition candidates from the first place to the fifth place are displayed. The display area of the recognition candidates is defined as a display area of a selection button (function button). At first, the first recognition candidate is automatically set to a selected state, and is in a reverse display state indicating that.
In addition, the municipal utterance screen 120 also displays a “police station” button, which is a selection button for returning to the police station utterance screen (initial screen) 110.

【0030】このとき、図5に示すように、第1位の認
識候補である「保原」警察署の管轄下にある市町村名の
一覧も(認識候補より小さな文字で)表示される。ま
た、第1位の認識候補の近傍、例えば上方の所定位置
(ホームポジション)には、マウスカーソル21が自動
的に配置される。このマウスカーソル21の自動配置位
置は、第1位の認識候補だけでなく、他の各認識候補及
び「警察署」(の表示領域)から外れた位置となってい
る。
At this time, as shown in FIG. 5, a list of the names of municipalities under the jurisdiction of the "Hobara" police station, which is the first recognition candidate, is also displayed (in smaller characters than the recognition candidates). In addition, the mouse cursor 21 is automatically placed near a first recognition candidate, for example, at a predetermined position (home position) above. The automatic placement position of the mouse cursor 21 is not only the first recognition candidate, but also a position deviating from (the display area of) other recognition candidates and “police station”.

【0031】もし、第1位の認識候補が操作者の発声し
たものとは異なる場合に、マウスカーソル21が各認識
候補「保原」、「福島」、「福島北」、「若松」、「高
田」(の表示領域)及び「警察署」(の表示領域)から
外れた位置にある状態で、操作者がマウス2の所定のマ
ウスボタン、例えば左ボタンをクリックする(押して離
す)と(ステップS1,S2)、制御部8は、現在選択
状態にある第1位の認識候補の「保原」を非選択状態に
すると同時に、次の(第2位の)認識候補の「福島」を
選択状態にする(ステップS3)。このとき制御部8
は、市町村名の一覧も、新たに選択状態となった認識候
補、即ち「福島」警察署の管轄下にある市町村名の一覧
に切り替える。
If the first recognition candidate is different from the one uttered by the operator, the mouse cursor 21 moves each recognition candidate "Hoshihara", "Fukushima", "Fukushima Kita", "Wakamatsu", "Takada" When the operator clicks (presses and releases) a predetermined mouse button, for example, the left button of the mouse 2 in a position outside the (display area) and the (police station) (step S1). , S2), the control unit 8 sets the first selected recognition candidate “Hohara” in the currently selected state to the non-selected state, and simultaneously sets the next (second) recognition candidate “Fukushima” to the selected state. (Step S3). At this time, the control unit 8
Also switches the list of municipalities to the newly selected recognition candidates, that is, the list of municipalities under the jurisdiction of the "Fukushima" police station.

【0032】以下同様に、マウスカーソル21が各認識
候補及び「警察署」(の表示領域)から外れた位置にあ
る状態で、マウス2の左ボタンがクリックされる毎に、
選択状態にある認識候補が順次切り替えられる(ステッ
プS1〜S3)。
Similarly, each time the left button of the mouse 2 is clicked in a state where the mouse cursor 21 is located at a position outside of each recognition candidate and the "police station" (display area),
The recognition candidates in the selected state are sequentially switched (steps S1 to S3).

【0033】このように本実施形態においては、第1位
の認識候補が操作者の発声したものと異なる場合でも、
操作者は、マウスカーソル21を移動して正しい認識候
補に位置合わせするという煩雑なマウス操作を行うこと
なく、単にマウス2の左ボタンのクリック操作だけで、
目的の認識候補を選択することができる。なお本実施形
態では、目的の認識候補にマウスカーソル21を移動し
た状態で、マウス2の所定ボタン、例えば左ボタンをク
リックすることでも(ステップS1,S4)、当該認識
候補を選択することが可能である(ステップS5)。
As described above, in the present embodiment, even if the first recognition candidate is different from the one uttered by the operator,
The operator can simply click the left button of the mouse 2 without performing a complicated mouse operation of moving the mouse cursor 21 and aligning it with a correct recognition candidate.
A target recognition candidate can be selected. In this embodiment, the recognition candidate can be selected by clicking a predetermined button, for example, a left button of the mouse 2 with the mouse cursor 21 moved to the target recognition candidate (steps S1 and S4). (Step S5).

【0034】また、マウスカーソル21が各認識候補
「保原」、「福島」、「福島北」、「若松」、「高田」
(の表示領域)及び「警察署」(の表示領域)から外れ
た位置にある状態で、操作者がマウス2の所定のマウス
ボタン、例えば右ボタンをクリックすると(ステップS
1,S2,S6)、制御部8は、音声入力用ウインドウ
100に表示している画面を初期画面である警察署発声
画面110に切り替える(ステップS7)。なお、「警
察署」ボタンにマウスカーソル21を移動した状態で、
マウス2の所定ボタン、例えば左ボタンをクリックする
ことでも(ステップS1,S4)、警察署発声画面11
0に戻ることができる(ステップS5)。
When the mouse cursor 21 is moved to each of the recognition candidates "Hobara", "Fukushima", "Fukushima Kita", "Wakamatsu", "Takada"
When the operator clicks a predetermined mouse button, for example, the right button of the mouse 2 in a position outside the (display area) and the “police station” (display area) (step S
1, S2, S6), the control unit 8 switches the screen displayed on the voice input window 100 to the police station utterance screen 110, which is the initial screen (step S7). In addition, with the mouse cursor 21 moved to the “police station” button,
By clicking a predetermined button of the mouse 2, for example, a left button (steps S1 and S4), the police station utterance screen 11 is also displayed.
It can return to 0 (step S5).

【0035】また、マウスカーソル21が各認識候補及
び「警察署」(の表示領域)から外れた位置にある状態
で、操作者がマウス2の所定のマウスボタン、例えば中
ボタンをクリックすると(ステップS1,S2,S
6)、制御部8は、音声入力用ウインドウ100に表示
している画面を1つ前の画面(前画面)に切り替える
(ステップS8,S9)。この場合、初期画面である警
察署発声画面110に戻ることになる。
Further, when the operator clicks a predetermined mouse button of the mouse 2, for example, a middle button, in a state where the mouse cursor 21 is located outside of each recognition candidate and the "police station" (display area) (step S1). S1, S2, S
6), the control unit 8 switches the screen displayed in the voice input window 100 to the previous screen (previous screen) (steps S8, S9). In this case, the display returns to the police station utterance screen 110 which is the initial screen.

【0036】もし、警察署発声画面110でマウス2の
中ボタンがクリックされたならば(ステップS1,S
2,S6)、制御部8は、音声入力用ウインドウ100
全体を消去する(ステップS8,S10)。
If the middle button of the mouse 2 is clicked on the police station utterance screen 110 (steps S1 and S
2, S6), the control unit 8 controls the voice input window 100
The whole is erased (steps S8, S10).

【0037】なお、警察署発声画面110には、地図検
索を終了させる(音声入力用ウインドウ100を消去さ
せる)ための「終了」ボタンが設けられ、当該「終了」
ボタンの近傍にマウスカーソル21が配置されるように
なっており、この「終了」ボタンにマウスカーソル21
を移動した状態で、マウス2の左ボタンをクリックする
ことでも(ステップS1,S4)、即ち「終了」ボタン
を選択することでも、音声入力用ウインドウ100を消
去することが可能である(ステップS5)。
The police station utterance screen 110 is provided with an "end" button for ending the map search (erasing the voice input window 100).
The mouse cursor 21 is arranged in the vicinity of the button.
Can be erased by clicking the left button of the mouse 2 (steps S1 and S4), that is, by selecting the "end" button in the state where is moved (step S5). ).

【0038】さて、図5の例のように、市町村発声画面
120上で第1位の認識候補「保原」が選択状態にある
ときに、操作者が、その「保原」の管轄下にある市町村
(即ち「保原」に属する1つ下位の階層の検索項目)の
うちの1つ、例えば「保原町」と発声したものとする。
すると、操作者が「保原町」と発声した音声が音声入力
部3により入力され、その入力音声に対する音声認識処
理が、認識辞書61内の「保原」の管轄下にある市町村
名用の辞書を用いて音声認識部5により行われる。な
お、「保原」の管轄下にある市町村名用の辞書を用いる
ことは、市町村発声画面120上で認識候補「保原」が
選択状態に設定された段階で、制御部8から音声認識部
5に対して指示される。
As shown in the example of FIG. 5, when the first-ranked recognition candidate "Hohara" is in the selected state on the municipal voice screen 120, the operator can select the municipalities under the jurisdiction of the "Hobara". (That is, the search item of the next lower layer belonging to “Hobara”), for example, “Hobara-cho” is uttered.
Then, the voice uttered by the operator as “Hobara-cho” is input by the voice input unit 3, and the voice recognition processing for the input voice is performed by using the dictionary for the names of municipalities under the jurisdiction of “Hobara” in the recognition dictionary 61. This is performed by the voice recognition unit 5 using this. The use of the dictionary for the names of municipalities under the jurisdiction of “Hobara” means that the recognition candidate “Hohara” is set to the selected state on the municipal utterance screen 120 by the control unit 8 to the voice recognition unit 5. Instructed.

【0039】ここで、操作者が「保原町」と発声した音
声に対する音声認識部5の音声認識結果として、第1位
の認識候補「保原町」を含む第1位から第5位までの認
識候補が求められたものとする。この場合、制御部8
は、音声入力用ウインドウ100内の市町村発声画面1
20を図6に示す大字発声画面130に切り替えて、第
1位から第5位までの認識候補を表示する。この認識候
補の表示領域は、選択ボタン(機能ボタン)の表示領域
として定義されており、最初は第1位の認識候補が選択
状態に自動設定され、その旨を示す反転表示状態にあ
る。この他、大字発声画面130には、警察署発声画面
110(初期画面)に戻るための選択ボタンである「警
察署」ボタン、市町村発声画面120(前画面)に戻る
ための選択ボタンである「市町村」ボタンも表示され
る。
Here, as a result of the voice recognition performed by the voice recognition unit 5 for the voice uttered by the operator as "Hobara-cho," the first to fifth recognitions including the first-ranked recognition candidate "Hobara-cho" are performed. It is assumed that candidates have been obtained. In this case, the control unit 8
Is the municipal utterance screen 1 in the voice input window 100
20 is switched to a large-speech utterance screen 130 shown in FIG. 6, and the first to fifth recognition candidates are displayed. The display area of the recognition candidates is defined as a display area of a selection button (function button). At first, the first recognition candidate is automatically set to a selected state, and is in a reverse display state indicating that. In addition, the large section utterance screen 130 includes a “police station” button as a selection button for returning to the police station utterance screen 110 (initial screen) and a selection button for returning to the municipal utterance screen 120 (previous screen). A "city" button is also displayed.

【0040】このとき、図6に示すように、第1位の認
識候補である「保原町」に属する大字名の一覧も(認識
候補より小さな文字で)表示される。また、大字発声画
面130におけるマウスカーソル21の配置位置は市町
村発声画面120の場合と同様であり、第1位の認識候
補の近傍、例えば上方の所定位置(ホームポジション)
に配置される。
At this time, as shown in FIG. 6, a list of large letter names belonging to the first-ranked recognition candidate “Hobara-cho” is also displayed (in smaller characters than the recognition candidate). The arrangement position of the mouse cursor 21 on the large-size utterance screen 130 is the same as that on the municipal utterance screen 120, and is in the vicinity of the first recognition candidate, for example, a predetermined position (home position) above.
Placed in

【0041】また、第1位の認識候補が操作者の発声し
たものとは異なる場合のマウス2の操作についても、市
町村発声画面120の場合と同様であり、マウスカーソ
ル21が各認識候補等の表示領域(選択ボタンとして定
義されている表示領域)から外れた位置にある状態で、
操作者がマウス2の左ボタンをクリックする毎に(ステ
ップS1,S2)、選択状態にある認識候補が切り替え
られる(ステップS3)。また、このような状態で、マ
ウス2の中ボタンをクリックすると(ステップS1,S
2,S6)、前画面(市町村発声画面120)に戻り
(ステップS8,S9)、右ボタンをクリックすると
(ステップS1,S2,S6)、初期画面(警察署発声
画面110)に戻る(ステップS7)。
The operation of the mouse 2 when the first recognition candidate is different from the one uttered by the operator is the same as that in the case of the municipal utterance screen 120. In a position outside the display area (display area defined as a select button)
Each time the operator clicks the left button of the mouse 2 (steps S1 and S2), the selected recognition candidate is switched (step S3). When the middle button of the mouse 2 is clicked in such a state (steps S1 and S1).
2, S6), return to the previous screen (municipal utterance screen 120) (steps S8, S9), and click the right button (steps S1, S2, S6) to return to the initial screen (police station utterance screen 110) (step S7). ).

【0042】さて、図6の例のように、大字発声画面1
30上で第1位の認識候補「保原町」が選択状態にある
ときに、操作者が、その「保原町」に属する大字(即ち
「保原町」に属する1つ下位の階層の検索項目)のうち
の1つ、例えば「古町」と発声したものとする。する
と、操作者が「古町」と発声した音声が音声入力部3に
より入力され、その入力音声に対する音声認識処理が、
認識辞書61内の「保原町」に属する大字名用の辞書を
用いて音声認識部5により行われる。なお、「保原町」
に属する大字名用の辞書を用いることは、大字発声画面
130上で認識候補「保原町」が選択状態に設定された
段階で、制御部8から音声認識部5に対して指示され
る。
Now, as shown in the example of FIG.
When the first-ranked recognition candidate “Hohara-cho” is in the selected state on 30, the operator can change the O-sha belonging to that “Hobara-cho” (that is, a search item of the next lower hierarchy belonging to “Hobara-cho”). , For example, "Furumachi" is uttered. Then, the voice uttered by the operator as “Furumachi” is input by the voice input unit 3, and the voice recognition processing for the input voice is performed.
The recognition is performed by the voice recognition unit 5 using a dictionary for a capital letter belonging to “Hobara-cho” in the recognition dictionary 61. In addition, "Hobara-cho"
The control unit 8 instructs the speech recognition unit 5 to use the dictionary for the large letter name belonging to the above at the stage when the recognition candidate “Hobaracho” is set to the selected state on the large letter utterance screen 130.

【0043】ここで、操作者が「古町」と発声した音声
に対する音声認識部5の音声認識結果として、第1位の
認識候補「古町」を含む第1位から第5位までの認識候
補が求められたものとする。この場合、制御部8は、音
声入力用ウインドウ100内の大字発声画面130を図
7に示す小字発声画面140に切り替えて、第1位から
第5位までの認識候補を表示する。この認識候補の表示
領域は、選択ボタン(機能ボタン)の表示領域として定
義されており、最初は第1位の認識候補が選択状態に自
動設定され、その旨を示す反転表示状態にある。この
他、小字発声画面140には、警察署発声画面110
(初期画面)に戻るための選択ボタンである「警察署」
ボタン、大字発声画面130(前画面)に戻るための選
択ボタンである「大字」ボタンも表示される。
As a result of the voice recognition performed by the voice recognition unit 5 on the voice uttered by the operator as “Furumachi”, the first to fifth recognition candidates including the first recognition candidate “Furumachi” are obtained. It shall be requested. In this case, the control unit 8 switches the large utterance screen 130 in the voice input window 100 to the small utterance screen 140 shown in FIG. 7, and displays the first to fifth recognition candidates. The display area of the recognition candidates is defined as a display area of a selection button (function button). At first, the first recognition candidate is automatically set to a selected state, and is in a reverse display state indicating that. In addition, the small-sized utterance screen 140 includes a police station utterance screen 110.
"Police station" which is a selection button to return to (initial screen)
A button, a “large font” button, which is a selection button for returning to the large font utterance screen 130 (previous screen), is also displayed.

【0044】このとき、図7に示すように、第1位の認
識候補である「古町」に属する小字名の一覧も(認識候
補より小さな文字で)表示される。また、小字発声画面
140におけるマウスカーソル21の配置位置は市町村
発声画面120の場合と同様であり、第1位の認識候補
の近傍、例えば上方の所定位置(ホームポジション)に
配置される。
At this time, as shown in FIG. 7, a list of small letters belonging to the first-ranked recognition candidate "Furumachi" is also displayed (in a smaller character than the recognition candidate). The arrangement position of the mouse cursor 21 on the small-size utterance screen 140 is the same as that on the municipal utterance screen 120, and is located in the vicinity of the first recognition candidate, for example, at a predetermined position (home position) above.

【0045】また、第1位の認識候補が操作者の発声し
たものとは異なる場合のマウス2の操作についても、市
町村発声画面120の場合と同様であり、マウスカーソ
ル21が各認識候補等の表示領域(選択ボタンとして定
義されている表示領域)から外れた位置にある状態で、
操作者がマウス2の左ボタンをクリックする毎に(ステ
ップS1,S2)、選択状態にある認識候補が切り替え
られる(ステップS3)。また、このような状態で、マ
ウス2の中ボタンをクリックすると(ステップS1,S
2,S6)、前画面(大字発声画面130)に戻り(ス
テップS8,S9)、右ボタンをクリックすると(ステ
ップS1,S2,S6)、初期画面(警察署発声画面1
10)に戻る(ステップS7)。
The operation of the mouse 2 when the first recognition candidate is different from the one uttered by the operator is the same as that in the case of the municipal utterance screen 120. In a position outside the display area (display area defined as a select button)
Each time the operator clicks the left button of the mouse 2 (steps S1 and S2), the selected recognition candidate is switched (step S3). When the middle button of the mouse 2 is clicked in such a state (steps S1 and S1).
2, S6), return to the previous screen (large-speech utterance screen 130) (steps S8, S9), and click the right button (steps S1, S2, S6), and the initial screen (police station utterance screen 1)
Return to 10) (step S7).

【0046】さて、図7の例のように、小字発声画面1
40上で第1位の認識候補「古町」が選択状態にあると
きに、操作者が、その「古町」に属する小字(即ち「古
町」のに属する1つ下位の階層の検索項目)のうちの1
つ、例えば「神明石」と発声したものとする。すると、
操作者が「神明石」と発声した音声が音声入力部3によ
り入力され、その入力音声に対する音声認識処理が、認
識辞書61内の「古町」に属する小字名用の辞書を用い
て音声認識部5により行われる。なお、「古町」に属す
る小字名用の辞書を用いることは、小字発声画面140
上で認識候補「古町」が選択状態に設定された段階で、
制御部8から音声認識部5に対して指示される。
Now, as shown in the example of FIG.
When the first-ranked recognition candidate “Furumachi” is in the selected state on 40, the operator selects one of the small letters belonging to the “Furumachi” (that is, the search item of the next lower hierarchy belonging to the “Furumachi”). Of 1
For example, it is assumed that “Shin-Akashi” is uttered. Then
The voice uttered by the operator as "Shin Akashi" is input by the voice input unit 3, and the voice recognition process for the input voice is performed using the dictionary for the small name belonging to "Furumachi" in the recognition dictionary 61. It is performed by Note that using a dictionary for small names belonging to “Furumachi” is not necessary for the small-speech utterance screen 140.
At the stage when the recognition candidate "Furumachi" is set to the selected state above,
The control unit 8 instructs the speech recognition unit 5.

【0047】ここで、操作者が「神明石」と発声した音
声に対する音声認識部5の音声認識結果として、第1位
の認識候補「神明石」を含む第1位から第5位までの5
つの認識候補が求められたものとする。この場合、制御
部8は、音声入力用ウインドウ100内の小字発声画面
140を図8に示す検索結果確定画面150に切り替え
て、第1位から第5位までの5つの認識候補を表示す
る。この認識候補の表示領域は、選択ボタン(機能ボタ
ン)の表示領域として定義されており、最初は第1位の
認識候補が選択状態に自動設定され、その旨を示す反転
表示状態にある。また、第1位の認識候補の近傍には、
マウスカーソル21が自動配置される。
Here, as a result of speech recognition performed by the speech recognizing unit 5 for the voice uttered by the operator as "Shin-Akashi", the first to fifth places including the first-ranked recognition candidate "Shin-Akashi" are obtained.
It is assumed that one recognition candidate has been obtained. In this case, the control unit 8 switches the small-speech utterance screen 140 in the voice input window 100 to the search result confirmation screen 150 shown in FIG. 8 and displays five recognition candidates from the first place to the fifth place. The display area of the recognition candidates is defined as a display area of a selection button (function button). At first, the first recognition candidate is automatically set to a selected state, and is in a reverse display state indicating that. In the vicinity of the first recognition candidate,
The mouse cursor 21 is automatically arranged.

【0048】同時に制御部8は、選択状態にある第1位
の認識候補「神明石」に対応する地図の検索を地図検索
部7に要求する。これにより地図検索部7は、地図デー
タベース6から「神明石」に対応する地図情報を検索
し、それを制御部8に渡す。すると制御部8は、地図検
索部7により検索された地図をディスプレイ1の画面全
体を使って図8に示すように表示する。
At the same time, the control unit 8 requests the map search unit 7 to search for a map corresponding to the first-ranked recognition candidate “Shin-Akashi” in the selected state. As a result, the map search unit 7 searches the map database 6 for map information corresponding to “Shin-Akashi” and passes it to the control unit 8. Then, the control unit 8 displays the map searched by the map search unit 7 using the entire screen of the display 1 as shown in FIG.

【0049】また、マウスカーソル21が各認識候補の
表示領域(選択ボタンとして定義されている表示領域)
から外れた位置にある状態で、操作者がマウス2の左ボ
タンをクリックする毎に(ステップS1,S2)、選択
状態にある認識候補が切り替えられる(ステップS
3)。そして、この切り替えの都度、新たに選択状態と
なった認識候補に対応する地図が検索されて画面表示さ
れる。
The mouse cursor 21 is moved to a display area of each recognition candidate (a display area defined as a selection button).
Each time the operator clicks the left button of the mouse 2 in a position out of the range (steps S1 and S2), the recognition candidate in the selected state is switched (step S2).
3). Then, each time this switching is performed, a map corresponding to the newly selected recognition candidate is retrieved and displayed on the screen.

【0050】このようにして、ディスプレイ1の表示画
面には、最終的に選択状態となった(即ち確定された)
認識候補(認識結果)に対応する地図検索結果が表示さ
れることになる。ここで、音声入力用ウインドウ100
(内の検索結果確定画面150)には、図8に示したよ
うに第1位から第5位までの認識候補(及び後述する検
索履歴)のみを表示するようにし、前画面や初期画面に
戻ることを指示する選択ボタン(機能ボタン)を表示し
ないことで、音声入力用ウインドウ100を(それまで
より)極力小さくなるようにしている。この結果、検索
された地図表示が、音声入力用ウインドウ100により
邪魔されるのを最小限に抑えることができる。この他、
マウス2の操作等により、地図表示を邪魔しない位置に
音声入力用ウインドウ100を移動可能としてもよく、
また、一定時間を経過しても認識候補の切り替えがない
ならば、検索結果が確定したものとして、制御部8が音
声入力用ウインドウ100を自動的に消去するようにし
てもよい。
In this way, the display screen of the display 1 is finally in the selected state (that is, determined).
The map search result corresponding to the recognition candidate (recognition result) is displayed. Here, the voice input window 100
As shown in FIG. 8, only the first to fifth recognition candidates (and a search history described later) are displayed on (the search result confirmation screen 150 in FIG. 8), and the previous screen and the initial screen are displayed. By not displaying the selection button (function button) for instructing to return, the voice input window 100 is made as small as possible. As a result, it is possible to minimize the hindrance of the searched map display by the voice input window 100. In addition,
By operating the mouse 2 or the like, the voice input window 100 may be movable to a position that does not disturb the map display.
If there is no switching of the recognition candidates even after the lapse of a certain time, the control unit 8 may automatically delete the voice input window 100 assuming that the search result has been determined.

【0051】なお、図8においても、マウスカーソル2
1が各認識候補の表示領域から外れた位置にある状態
で、マウス2の中ボタンをクリックすると(ステップS
1,S2,S6)、前画面(小字発声画面140)に戻
り(ステップS8,S9)、右ボタンをクリックすると
(ステップS1,S2,S6)、初期画面(警察署発声
画面110)に戻る(ステップS7)。このように、音
声入力用ウインドウ100内に専用の選択ボタン(機能
ボタン)を設けなくても、マウス2のクリック操作だけ
で前画面や初期画面に戻ることができる。
In FIG. 8, the mouse cursor 2
When the middle button of the mouse 2 is clicked in a state where 1 is out of the display area of each recognition candidate (step S
1, S2, S6), return to the previous screen (small-sized utterance screen 140) (steps S8, S9), and click the right button (steps S1, S2, S6) to return to the initial screen (police station utterance screen 110) ( Step S7). In this manner, the user can return to the previous screen or the initial screen only by clicking the mouse 2 without providing a dedicated selection button (function button) in the voice input window 100.

【0052】さて、本実施形態においては、音声入力用
ウインドウ100の所定部位、例えば下端付近には、図
4乃至図8に示すように、検索履歴(検索経過)を表示
するための領域(検索履歴表示領域)101が確保され
ている、この検索履歴表示領域101には、図5に示し
たように市町村発声画面120で「保原」が選択されて
いる状態では「保原→」と、図6に示したように大字発
声画面130で「保原町」が選択されている状態では
「保原→保原町→」と、図7に示したように小字発声画
面140で「古町」が選択されている状態では「保原→
保原町→古町」と、そして図8に示したように検索結果
確定画面150で「神明石」が選択されている状態では
「保原→保原町→古町→神明石」と、いずれも制御部8
により表示される。これにより操作者は、検索履歴表示
領域101の内容から、順次検索範囲を絞っていった過
程を視認することができる。
In the present embodiment, an area (search progress) for displaying a search history (search progress) is shown in a predetermined portion of the voice input window 100, for example, near the lower end, as shown in FIGS. In the search history display area 101 in which “Hohara” is selected on the municipal utterance screen 120 as shown in FIG. 5, “Hohara →” is displayed. As shown in FIG. 7, when “Hobara-cho” is selected on the large-size utterance screen 130, “Hobara → Hobara-cho →” is selected, and “Furumachi” is selected on the small-size utterance screen 140 as shown in FIG. 7. In the state `` Hobara →
As shown in FIG. 8, when “Shin-Akashi” is selected on the search result confirmation screen 150 as shown in FIG. 8, the control unit 8 displays “Hobara → Hobara-cho → Furumachi → Shin-Akashi”.
Is displayed. Thus, the operator can visually recognize the process of sequentially narrowing the search range from the contents of the search history display area 101.

【0053】なお、以上の説明では、警察署名→市町村
名→大字名→小字名の順序で検索項目を発声することで
順次検索範囲を絞り、最終的に目的とする検索結果が得
られる場合について説明したが、目的地によっては市町
村名の検索項目を発声した段階で目的とする検索結果を
得る場合もあり、検索範囲を絞る段数は1〜上限値まで
の範囲で変化し得る。
In the above description, the case where the search range is narrowed down sequentially by uttering the search items in the order of police signature → municipal name → larger name → lowercase name to finally obtain the desired search result As described above, depending on the destination, a desired search result may be obtained at the stage where the search item of the municipal name is uttered, and the number of steps for narrowing the search range may vary from 1 to the upper limit.

【0054】また、以上は、本発明の音声認識機能付き
情報検索装置を地図情報検索に適用した実施形態につい
て説明したが、本発明は、地図以外の画像、更には文字
(テキスト)、図形等の情報の検索にも適用できる。
Although the embodiment in which the information retrieval apparatus with a voice recognition function of the present invention is applied to map information retrieval has been described above, the present invention is directed to an image other than a map, furthermore, a character (text), a figure, or the like. It can also be applied to search for information.

【0055】[0055]

【発明の効果】以上詳述したように本発明によれば、操
作者が発声した検索項目名の音声を認識して、その認識
候補を得ることで、膨大な数の検索項目の中から可能性
の高い必要最小限の項目に絞ることができるようにな
り、これにより情報検索の操作性を大幅に向上すること
ができる。
As described in detail above, according to the present invention, the voice of the search item name uttered by the operator is recognized and its recognition candidates are obtained, so that it is possible to select from a huge number of search items. It is possible to narrow down to the necessary minimum items with high performance, thereby greatly improving the operability of information search.

【0056】また、本発明によれば、情報検索のための
音声入力を案内する音声入力用ウインドウ内の画面の切
り替え、消去、認識候補の選択等が、位置指示手段を用
いた煩雑な位置合わせ操作なしに簡単に行える。
According to the present invention, switching of the screen in the voice input window for guiding voice input for information search, deletion, selection of recognition candidates, and the like can be performed by complicated positioning using the position designating means. Easy operation without any operation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る音声認識機能付き情
報検索装置の概略構成を示すブロック。
FIG. 1 is a block diagram illustrating a schematic configuration of an information search device with a voice recognition function according to an embodiment of the present invention.

【図2】図1中のマイクロホン31と、当該マイクロホ
ン31に付随して設けられている光電センサ4との関係
を示す図。
FIG. 2 is a diagram showing a relationship between a microphone 31 in FIG. 1 and a photoelectric sensor 4 provided in association with the microphone 31;

【図3】同実施形態におけるマウス2のマウスボタンク
リック時の動作の流れを説明するための図。
FIG. 3 is an exemplary view for explaining the flow of operation when the mouse button of the mouse 2 is clicked in the embodiment.

【図4】表示中の地図情報画面の一部領域に上書きされ
る音声入力用ウインドウ100の配置と、当該ウインド
ウ100内に表示される警察署発声画面110の一例を
示す図。
FIG. 4 is a diagram showing an example of an arrangement of a voice input window 100 overwritten on a partial area of a map information screen being displayed, and an example of a police station utterance screen 110 displayed in the window 100;

【図5】音声入力用ウインドウ100内に表示される市
町村発声画面120の一例を示す図。
FIG. 5 is a diagram showing an example of a municipal voice utterance screen 120 displayed in a voice input window 100.

【図6】音声入力用ウインドウ100内に表示される大
字発声画面130の一例を示す図。
FIG. 6 is a diagram showing an example of a large-speech utterance screen 130 displayed in a voice input window 100.

【図7】音声入力用ウインドウ100内に表示される小
字発声画面140の一例を示す図。
FIG. 7 is a diagram showing an example of a small vocalization screen 140 displayed in a voice input window 100.

【図8】音声入力用ウインドウ100内に表示される検
索結果確定画面150の一例を示す図。
FIG. 8 is a view showing an example of a search result confirmation screen 150 displayed in the voice input window 100.

【符号の説明】[Explanation of symbols]

1…ディスプレイ(表示手段)、 2…マウス(位置指示手段)、 3…音声入力部、 4…光電センサ(接近検知手段)、 5…音声認識部、 6…地図データベース(地図DB)、 7…地図検索部、 8…制御部、 21…マウスカーソル、 31…マイクロホン、 61…認識辞書、 100…音声入力用ウインドウ、 101…検索履歴表示領域、 110…警察署発声画面、 120…市町村発声画面、 130…大字発声画面、 140…小字発声画面。 150…検索結果確定画面。 DESCRIPTION OF SYMBOLS 1 ... Display (display means), 2 ... Mouse (position indication means), 3 ... Voice input part, 4 ... Photoelectric sensor (approach detection means), 5 ... Voice recognition part, 6 ... Map database (map DB), 7 ... 8: control unit, 21: mouse cursor, 31: microphone, 61: recognition dictionary, 100: voice input window, 101: search history display area, 110: police station voice screen, 120: municipal voice screen, 130: Large-size utterance screen, 140: Small-size utterance screen. 150: Search result confirmation screen.

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 音声を入力する音声入力手段と、 前記音声入力手段により入力された音声を認識して、そ
の認識候補を複数取得する音声認識手段と、 情報検索結果等の表示に用いられる表示手段と、 位置指示手段と、 情報検索のための音声入力を案内する音声入力用ウイン
ドウを前記表示手段の表示画面に上書きして表示し、そ
の案内に応じて利用者から発声されて前記音声入力手段
により入力される音声を前記音声認識手段により認識さ
せる制御を1回以上行うことで順次検索範囲を絞り、最
終的に検索結果を取得して前記表示手段に表示する制御
手段であって、前記音声認識手段により取得された複数
の認識候補を選択ボタンとして定義される検索候補とし
て前記音声入力ウインドウ内に表示し、その検索候補の
1つが前記位置指示手段により指示選択された場合に
は、その検索候補を選択状態にして再表示する制御手段
とを具備することを特徴とする音声認識機能付き情報検
索装置。
1. A voice input unit for inputting voice, a voice recognition unit for recognizing a voice input by the voice input unit and acquiring a plurality of recognition candidates, and a display used for displaying information search results and the like Means, a position indicating means, and a voice input window for guiding voice input for information search, overwritten and displayed on the display screen of the display means. Control means for recognizing the voice input by the means by the voice recognition means at least once, thereby sequentially narrowing the search range, finally acquiring the search result, and displaying the search result on the display means, A plurality of recognition candidates obtained by the voice recognition means are displayed in the voice input window as search candidates defined as selection buttons, and one of the search candidates is the position pointing device. Instruction when it is selected, the voice recognition function information retrieval apparatus characterized by comprising a control means for redisplay the search candidate selected by.
【請求項2】 前記音声入力手段への人の接近を検知す
る接近検知手段を更に具備し、 前記制御手段は、前記接近検知手段による接近検知に応
じて前記音声入力用ウインドウを表示することを特徴と
する請求項1記載の音声認識機能付き情報検索装置。
2. The apparatus according to claim 1, further comprising: an approach detecting unit configured to detect approach of a person to the voice input unit, wherein the control unit displays the voice input window in response to the approach detection by the approach detecting unit. The information retrieval device with a voice recognition function according to claim 1, wherein:
【請求項3】 前記制御手段は、前記接近検知手段によ
る接近検知に応じて前記音声入力用ウインドウを表示さ
せてから予め定められた一定時間を経過しても前記音声
入力手段に音声の入力がなされない場合、前記音声入力
用ウインドウの表示を消去することを特徴とする請求項
2記載の音声認識機能付き情報検索装置。
3. The control means, when a predetermined period of time has passed since the voice input window was displayed in response to the approach detection by the approach detection means, input of a voice to the voice input means. 3. The information retrieval apparatus with a speech recognition function according to claim 2, wherein the display of the speech input window is erased when not performed.
【請求項4】 前記位置指示手段は、複数の指示入力手
段を有しており、 前記制御手段は、前記音声入力用ウインドウ内の選択ボ
タンとして定義されている表示領域から外れた位置に前
記カーソルが存在する状態で、前記位置指示手段の所定
の前記指示入力手段による指示入力がなされた場合に、
前記音声入力用ウインドウ内を初期画面に戻すことを特
徴とする請求項1記載の音声認識機能付き情報検索装
置。
4. The position indicating means includes a plurality of instruction input means, and the control means controls the cursor at a position outside a display area defined as a selection button in the voice input window. In the state where exists, when an instruction input by the predetermined instruction input means of the position instruction means is performed,
2. The information retrieval apparatus with a speech recognition function according to claim 1, wherein the inside of the speech input window is returned to an initial screen.
【請求項5】 前記位置指示手段は、複数の指示入力手
段を有しており、 前記制御手段は、前記音声入力用ウインドウ内の選択ボ
タンとして定義されている表示領域から外れた位置に前
記カーソルが存在する状態で、前記位置指示手段の所定
の前記指示入力手段による指示入力がなされた場合に、
前記音声入力用ウインドウ内を1つ前の画面に戻すこと
を特徴とする請求項1記載の音声認識機能付き情報検索
装置。
5. The position indicating means has a plurality of instruction input means, and the control means controls the cursor at a position outside a display area defined as a selection button in the voice input window. In the state where exists, when an instruction input by the predetermined instruction input means of the position instruction means is performed,
2. The information retrieval apparatus with a speech recognition function according to claim 1, wherein the inside of the speech input window is returned to a previous screen.
【請求項6】 前記制御手段は、前記音声入力用ウイン
ドウ内に前記初期画面が表示されており、前記1つ前の
画面が存在しない場合には、前記音声入力用ウインドウ
全体の表示を消去することを特徴とする請求項5記載の
音声認識機能付き情報検索装置。
6. The control means, wherein the initial screen is displayed in the voice input window, and when the previous screen does not exist, the control means deletes the display of the entire voice input window. The information retrieval device with a voice recognition function according to claim 5, wherein
【請求項7】 前記位置指示手段は、複数の指示入力手
段を有しており、 前記制御手段は、前記音声入力用ウインドウ内の選択ボ
タンとして定義されている表示領域から外れた位置に前
記カーソルが存在する状態で、前記位置指示手段の所定
の前記指示入力手段による指示入力がなされる毎に、選
択状態にある検索候補を次の候補に切り替えて再表示す
ることを特徴とする請求項1記載の音声認識機能付き情
報検索装置。
7. The position indicating means has a plurality of instruction input means, and the control means controls the cursor at a position outside a display area defined as a selection button in the voice input window. The search candidate in the selected state is switched to the next candidate and displayed again each time an instruction is input by the predetermined instruction input unit of the position instruction unit in a state where there is a search instruction. Information retrieval device with voice recognition function as described.
【請求項8】 前記制御手段は、前記音声入力用ウイン
ドウ内への画面表示時には、当該ウインドウ内の選択ボ
タンとして定義されている表示領域から外れた位置に前
記カーソルを配置することを特徴とする請求項4、請求
項5または請求項7に記載の音声認識機能付き情報検索
装置。
8. The control means, when displaying a screen in the voice input window, positions the cursor at a position outside a display area defined as a selection button in the window. The information retrieval device with a speech recognition function according to claim 4, 5, or 7.
【請求項9】 前記制御手段は、前記音声入力用ウイン
ドウへの検索結果の表示または再表示後から予め定めら
れた一定時間を経過すると、前記音声入力用ウインドウ
全体を消去することを特徴とする請求項1記載の音声認
識機能付き情報検索装置。
9. The method according to claim 1, wherein the control unit deletes the entire voice input window when a predetermined time has elapsed after displaying or redisplaying the search result in the voice input window. The information retrieval device with a voice recognition function according to claim 1.
【請求項10】 情報検索のための音声入力を案内する
音声入力用ウインドウを情報検索結果等の表示に用いら
れる表示手段の表示画面に上書きして表示し、 前記音声入力用ウインドウ内に表示される音声入力案内
に応じて利用者から発声される音声を入力して音声認識
処理を行い、複数の認識候補を候補順位付きで取得し、 前記取得した複数の認識候補を選択ボタンとして定義さ
れる検索候補として前記音声入力ウインドウ内に表示
し、その検索候補の1つが、前記表示手段の表示画面上
に表示されるカーソルを移動操作することで位置指示す
るための位置指示手段により指示選択された場合には、
その検索候補を選択状態にして再表示し、前記選択状態
にある検索候補に属する1つ下位の階層の検索項目があ
れば、その検索項目の1つを発声することを案内し、 1回以上の前記音声認識処理によって順次検索範囲を絞
り、最終的に検索結果を取得して前記表示手段に表示す
るようにしたことを特徴とする情報検索方法。
10. A voice input window for guiding voice input for information search is overwritten and displayed on a display screen of a display means used for displaying information search results and the like, and is displayed in the voice input window. A voice uttered by the user is input in accordance with the voice input guidance to perform voice recognition processing, a plurality of recognition candidates are obtained with a candidate ranking, and the obtained plurality of recognition candidates are defined as selection buttons. It is displayed in the voice input window as a search candidate, and one of the search candidates is designated and selected by the position designating means for designating the position by moving the cursor displayed on the display screen of the display means. in case of,
The search candidate is selected and displayed again, and if there is a search item of the next lower hierarchy belonging to the search candidate in the selected state, guidance is given to utter one of the search items, and at least one time An information search method, wherein a search range is sequentially narrowed by the voice recognition processing, and a search result is finally obtained and displayed on the display means.
【請求項11】 前記位置指示手段は、第1乃至第3の
指示入力手段を有しており、 前記音声入力用ウインドウ内の選択ボタンとして定義さ
れている表示領域から外れた位置に前記カーソルが存在
する状態で、前記位置指示手段の第1の指示入力手段に
よる指示入力がなされる毎に、選択状態にある検索候補
を次の候補に切り替えて再表示し、前記第2の指示入力
手段による指示入力がなされた場合に前記音声入力用ウ
インドウ内を初期画面に戻し、前記第3の指示入力手段
による指示入力がなされた場合に前記音声入力用ウイン
ドウ内を1つ前の画面に戻すことを特徴とする請求項1
0記載の情報検索方法。
11. The position indicating means has first to third instruction input means, and the cursor is located at a position outside a display area defined as a selection button in the voice input window. In the presence state, every time an instruction is input by the first instruction input unit of the position instruction unit, the search candidate in the selected state is switched to the next candidate and displayed again, and the second candidate is input by the second instruction input unit. Returning the inside of the voice input window to the initial screen when an instruction input is made, and returning the inside of the voice input window to the previous screen when an instruction input is made by the third instruction input means. Claim 1.
0 information search method.
【請求項12】 前記音声入力用ウインドウ内への画面
表示時には、当該ウインドウ内の選択ボタンとして定義
されている表示領域から外れた位置に前記カーソルを配
置することを特徴とする請求項11記載の情報検索方
法。
12. The screen according to claim 11, wherein, when a screen is displayed in the voice input window, the cursor is arranged at a position outside a display area defined as a selection button in the window. Information retrieval method.
JP8169753A 1996-06-28 1996-06-28 Information retrieval device with speech recognizing function Pending JPH1021254A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8169753A JPH1021254A (en) 1996-06-28 1996-06-28 Information retrieval device with speech recognizing function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8169753A JPH1021254A (en) 1996-06-28 1996-06-28 Information retrieval device with speech recognizing function

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005222814A Division JP2006031033A (en) 2005-08-01 2005-08-01 Information processor

Publications (1)

Publication Number Publication Date
JPH1021254A true JPH1021254A (en) 1998-01-23

Family

ID=15892216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8169753A Pending JPH1021254A (en) 1996-06-28 1996-06-28 Information retrieval device with speech recognizing function

Country Status (1)

Country Link
JP (1) JPH1021254A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200094A (en) * 1998-12-16 2000-07-18 Internatl Business Mach Corp <Ibm> Method and device for displaying feedback on display
JP2003241794A (en) * 2002-02-18 2003-08-29 Nec Corp Device and method for speech recognition
KR100467590B1 (en) * 2002-06-28 2005-01-24 삼성전자주식회사 Apparatus and method for updating a lexicon
KR100679042B1 (en) 2004-10-27 2007-02-06 삼성전자주식회사 Method and apparatus for speech recognition, and navigation system using for the same
WO2010013369A1 (en) * 2008-07-30 2010-02-04 三菱電機株式会社 Voice recognition device
JP2010091962A (en) * 2008-10-10 2010-04-22 Denso Corp Information processing apparatus, interface providing method, and program
WO2016063622A1 (en) * 2014-10-24 2016-04-28 株式会社ソニー・コンピュータエンタテインメント Capturing device, capturing method, program, and information storage medium
WO2020186712A1 (en) * 2019-03-20 2020-09-24 海信视像科技股份有限公司 Voice recognition method and apparatus, and terminal

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200094A (en) * 1998-12-16 2000-07-18 Internatl Business Mach Corp <Ibm> Method and device for displaying feedback on display
JP2003241794A (en) * 2002-02-18 2003-08-29 Nec Corp Device and method for speech recognition
KR100467590B1 (en) * 2002-06-28 2005-01-24 삼성전자주식회사 Apparatus and method for updating a lexicon
KR100679042B1 (en) 2004-10-27 2007-02-06 삼성전자주식회사 Method and apparatus for speech recognition, and navigation system using for the same
WO2010013369A1 (en) * 2008-07-30 2010-02-04 三菱電機株式会社 Voice recognition device
CN102105929A (en) * 2008-07-30 2011-06-22 三菱电机株式会社 Voice recognition device
JPWO2010013369A1 (en) * 2008-07-30 2012-01-05 三菱電機株式会社 Voice recognition device
US8818816B2 (en) 2008-07-30 2014-08-26 Mitsubishi Electric Corporation Voice recognition device
JP2010091962A (en) * 2008-10-10 2010-04-22 Denso Corp Information processing apparatus, interface providing method, and program
WO2016063622A1 (en) * 2014-10-24 2016-04-28 株式会社ソニー・コンピュータエンタテインメント Capturing device, capturing method, program, and information storage medium
JPWO2016063622A1 (en) * 2014-10-24 2017-04-27 株式会社ソニー・インタラクティブエンタテインメント Capture device, capture method, program, and information storage medium
WO2020186712A1 (en) * 2019-03-20 2020-09-24 海信视像科技股份有限公司 Voice recognition method and apparatus, and terminal

Similar Documents

Publication Publication Date Title
US7949524B2 (en) Speech recognition correction with standby-word dictionary
KR910002745B1 (en) Apparatus for searching information
US7720682B2 (en) Method and apparatus utilizing voice input to resolve ambiguous manually entered text input
EP0840288B1 (en) Method and system for editing phrases during continuous speech recognition
US8060841B2 (en) Method and device for touchless media searching
US8949133B2 (en) Information retrieving apparatus
JP3278222B2 (en) Information processing method and apparatus
KR101545881B1 (en) Input Processing Device For Portable Device And Method including the same
JPH06138815A (en) Finger language/word conversion system
US20020032568A1 (en) Voice recognition unit and method thereof
JP4466379B2 (en) In-vehicle speech recognition device
EP2897055A1 (en) Information processing device, information processing method, and program
JP2006031033A (en) Information processor
US20070016420A1 (en) Dictionary lookup for mobile devices using spelling recognition
JPH1021254A (en) Information retrieval device with speech recognizing function
JP5364412B2 (en) Search device
JP3710493B2 (en) Voice input device and voice input method
JPH0778183A (en) Data base retrieving system
CN1629934A (en) Building and using method of virtual speech keyboard for interactive control
KR100919227B1 (en) The method and apparatus for recognizing speech for navigation system
JPH07311656A (en) Multi-modal character input device
JP2003140682A (en) Voice recognition device and voice dictionary generation method
JPH0630052B2 (en) Voice recognition display
JP2009037433A (en) Number voice browser and method for controlling number voice browser
JPH09274555A (en) Information input/display device and train operation managing table preparation system utilizing the same

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051011