JPH05341951A - Voice input operation unit - Google Patents

Voice input operation unit

Info

Publication number
JPH05341951A
JPH05341951A JP4152268A JP15226892A JPH05341951A JP H05341951 A JPH05341951 A JP H05341951A JP 4152268 A JP4152268 A JP 4152268A JP 15226892 A JP15226892 A JP 15226892A JP H05341951 A JPH05341951 A JP H05341951A
Authority
JP
Japan
Prior art keywords
display
voice
cursor
recognition
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4152268A
Other languages
Japanese (ja)
Inventor
Masahiro Yao
正博 八尾
Akira Nakayama
昭 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Computer Engineering Corp
Original Assignee
Toshiba Corp
Toshiba Computer Engineering Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Computer Engineering Corp filed Critical Toshiba Corp
Priority to JP4152268A priority Critical patent/JPH05341951A/en
Publication of JPH05341951A publication Critical patent/JPH05341951A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To quickly and smoothly perform recognition confirming processing and erroneous recognition processing, etc., accompanied by a voice input operation. CONSTITUTION:When a voice recognition button on the display screen of a display part 4 is selected with the left button of a device (mouse) 5, the shape of a cursor in the position is changed by a control part 3 and a user is urged to vocalize. In this case, when the user input one of selectable operation buttons in voice, the voice is recognized at a voice recognition part 2 and the result is delivered to the control part 3. The control part 3 urges the recognition processing by the user by moving the cursor to the operation button corresponding to the first option of the recognized result and changing the shape of the cursor. When the user presses the left, center or right button of the device (mouse) 5 at this time, the control part 3 selects the operation button at the position of the cursor, moves the cursor to the operation button corresponding to the next option of the recognized result or moves the cursor to a voice recognition button.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、マウス等の位置指示手
段と音声入力手段とを併用して各種制御を行うのに好適
な音声入力操作装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice input operation device suitable for performing various controls by using position indicating means such as a mouse and voice input means in combination.

【0002】[0002]

【従来の技術】音声認識の技術は、優れたマンマシン・
インタ−フェ−スを実現する上で重要な役割を担ってい
る。近年、パーソナル・コンピュータの高性能・小型化
に伴って、音声入力によってこれらの装置を操作する場
合が多くなってきた。
2. Description of the Related Art Speech recognition technology is an excellent man-machine
It plays an important role in realizing the interface. In recent years, with the high performance and miniaturization of personal computers, these devices are often operated by voice input.

【0003】音声入力によってこのような装置を操作す
る場合に、認識確認と誤認識処理をどのように行うか、
どのようにして発声を促すかという問題は、実用上非常
に重要な課題の一つである。従来の音声入力操作装置で
は、上記の認識確認と誤認識処理、および発声を促す通
知は、次のような方法で実現されていた。
How to perform recognition confirmation and erroneous recognition processing when operating such a device by voice input,
The problem of how to encourage vocalization is one of the most important practical issues. In the conventional voice input operation device, the above-described recognition confirmation, erroneous recognition processing, and notification prompting utterance have been realized by the following methods.

【0004】まず、従来の音声入力操作装置において、
例えば表示部に表示された複数の選択子(コマンド選択
のために表示されている操作ボタンなどの選択可能な表
示セル)の1つを選択したい場合には、利用者は、その
選択子名(表示セル名、コマンド名)等を音声により入
力する。
First, in the conventional voice input operation device,
For example, when the user wants to select one of a plurality of selectors (selectable display cells such as operation buttons displayed for command selection) displayed on the display unit, the user selects the selector name ( Input the display cell name, command name, etc. by voice.

【0005】音声入力操作装置は、利用者が発声した音
声の認識を行い、その認識結果を文字列により表示画面
の所定領域に表示する。同時に音声入力操作装置は、認
識結果が正しい否かの確認案内を表示する。
The voice input operation device recognizes the voice uttered by the user and displays the recognition result as a character string in a predetermined area of the display screen. At the same time, the voice input operation device displays a confirmation guide as to whether or not the recognition result is correct.

【0006】利用者は、この認識結果を示す表示文字列
から、入力音声が正しく認識されたか否かを判断し、そ
の判断結果をキーボードなどの入力装置により入力する
ことで、音声入力操作装置に通知する。
[0006] The user determines whether or not the input voice is correctly recognized from the display character string indicating the recognition result, and inputs the determination result with an input device such as a keyboard, thereby inputting to the voice input operation device. Notice.

【0007】音声入力操作装置は、利用者のキーボード
操作により正しく認識されたこと(認識確認)が通知さ
れた場合には、認識した選択子に対応した処理を行い、
誤認識が通知された場合には、(認識の)次候補を認識
結果として文字列により表示し、再度確認案内を表示す
る。
[0007] The voice input operation device, when notified of correct recognition (recognition confirmation) by the user's keyboard operation, performs processing corresponding to the recognized selector,
When the erroneous recognition is notified, the next candidate (of recognition) is displayed as a recognition result in a character string, and the confirmation guidance is displayed again.

【0008】また、音声入力操作装置での認識結果が誤
認識であったために、認識結果を訂正したい場合には、
利用者は、上記確認処理の中でキーボードの操作により
誤認識処理に移り、認識結果を訂正するという2段階の
処理を行う。一方、利用者への発声を促す通知は、キー
ボード操作により発声受付処理に入ってから「発声して
下さい」等の表示を行う方法で実現されている。
Further, when the recognition result by the voice input operation device is erroneous recognition and it is desired to correct the recognition result,
The user performs a two-step process of correcting the recognition result by moving to the erroneous recognition process by operating the keyboard in the confirmation process. On the other hand, the notification prompting the user to speak is realized by a method of displaying "Please speak" or the like after entering the speech reception process by operating the keyboard.

【0009】このような従来の音声入力操作装置におけ
る認識確認と誤認識処理では、認識確認が直観的に簡単
に行えない上、誤認識処理での訂正が迅速に行えないと
いった操作性の点で大きな欠点を有していた。
In the recognition confirmation and the erroneous recognition processing in the conventional voice input operation device as described above, the recognition confirmation cannot be intuitively and easily performed, and the correction in the erroneous recognition processing cannot be performed quickly. It had a major drawback.

【0010】[0010]

【発明が解決しようとする課題】上記したように、従来
の音声入力操作装置にあっては、認識確認が直観的に簡
単に行えない上、認識結果が誤認識であった場合には、
確認処理でキーボードの操作により誤認識処理に移り、
認識結果の訂正等を行うという2段階の処理が必要にな
るという問題があった。また、利用者への発声を促す通
知も、キーボードなどの入力操作を必要とした。
As described above, in the conventional voice input operation device, recognition confirmation cannot be performed intuitively and easily, and when the recognition result is erroneous recognition,
In the confirmation process, the keyboard is operated to move to the misrecognition process,
There is a problem that a two-step process of correcting the recognition result is necessary. In addition, the notification that prompts the user to speak requires an input operation such as a keyboard.

【0011】即ち従来の音声入力操作装置にあっては、
迅速な認識確認および誤認識処理が行えず、且つ煩わし
い発声開始準備が必要であるという操作性の大きな欠点
を有し、音声入力による迅速で円滑な操作を妨げている
という問題があった。
That is, in the conventional voice input operation device,
There is a large operability drawback that quick recognition confirmation and erroneous recognition processing cannot be performed, and troublesome preparation for starting vocalization is required, and there is a problem that a quick and smooth operation by voice input is hindered.

【0012】本発明はこのような事情を考慮してなされ
たもので、その目的とするところは、コマンド選択画面
上の選択子(操作ボタン)や、地図画面上の建物、場所
等、表示画面上での選択指定の対象となるな表示セルが
音声で指定された場合に、その音声認識結果に該当する
表示画面上の表示セルに、マウス等の位置指示手段によ
り移動操作可能な位置指示表示カーソルを移動すること
により、迅速な認識確認が行える音声入力操作装置を提
供することにある。
The present invention has been made in consideration of such circumstances, and its purpose is to display a selector (operation button) on a command selection screen, a building, a place, etc. on a map screen. When a display cell that is not the target of selection on the screen is specified by voice, a position indication display that can be moved by a position indication means such as a mouse is displayed on the display cell on the display screen that corresponds to the voice recognition result. An object of the present invention is to provide a voice input operation device that allows quick recognition and confirmation by moving a cursor.

【0013】本発明の他の目的は、上記の音声認識結果
に対する誤認識処理のための操作が、マウス等の位置指
示手段を用いて迅速且つ円滑に行える音声入力操作装置
を提供することにある。
Another object of the present invention is to provide a voice input operation device in which an operation for erroneous recognition processing of the above voice recognition result can be performed quickly and smoothly by using a position indicating means such as a mouse. ..

【0014】本発明の更に他の目的は、利用者へ音声入
力の発声を促す通知、特に誤認識に伴う再発声を促す通
知が、利用者に負担をかけずに行える音声入力操作装置
を提供することにある。
Still another object of the present invention is to provide a voice input operation device capable of giving a notification prompting the user to utter a voice input, in particular, a notification prompting a re-voice due to misrecognition without burdening the user. To do.

【0015】[0015]

【課題を解決するための手段】本発明に係る音声入力操
作装置は、コマンド選択画面上の選択子(操作ボタン)
や、地図画面上の建物、場所等、表示画面上での選択指
定の対象となる表示セルを、音声入力の認識結果に基づ
き選択操作する場合に、マウス等の位置指示手段の操作
にて移動制御可能な位置指示表示カーソルを表示画面上
の該当する表示セルの位置へ移動させ、入力音声に対す
る認識結果を位置指示表示カーソルにより指し示す構成
としたことを特徴とするものである。
A voice input operation device according to the present invention is a selector (operation button) on a command selection screen.
In addition, when selecting a display cell such as a building or place on the map screen that is to be selected and specified on the display screen based on the recognition result of voice input, move it by operating the position indicating means such as a mouse. The controllable position indication display cursor is moved to the position of the corresponding display cell on the display screen, and the recognition result for the input voice is indicated by the position indication display cursor.

【0016】また本発明は、入力音声に対する認識結果
を位置指示表示カーソルにより指し示した後、位置指示
手段からの入力を受付け、その入力情報に従って認識結
果の「確認」または「誤認識処理」を行う構成としたこ
とをも特徴とする。
Further, according to the present invention, after the recognition result for the input voice is pointed by the position pointing display cursor, the input from the position pointing means is accepted, and the "recognition" or "erroneous recognition process" of the recognition result is performed according to the input information. It is also characterized in that it is configured.

【0017】更に本発明は、認識結果の「誤認識処理」
において、位置指示手段の操作内容に従い、認識結果の
次候補に該当する表示セルへの位置指示表示カーソルの
移動、位置指示手段からの位置指示操作で音声入力開始
が指定可能な特定表示セルへの位置指示表示カーソルの
移動、または位置指示手段からの位置指示入力に従う表
示セル選択指定の受付けを行う構成としたことをも特徴
とする。
Furthermore, the present invention provides "erroneous recognition processing" for the recognition result.
In accordance with the operation contents of the position indicating means, the position indicating display cursor is moved to the display cell corresponding to the next candidate of the recognition result, and the voice input start can be specified by the position indicating operation from the position indicating means. It is also characterized in that the display cell selection designation according to the movement of the position indication display cursor or the position indication input from the position indication means is accepted.

【0018】更に本発明は、上記認識結果に従って該当
する表示セルに位置指示表示カーソルを移動した際に、
認識結果の後続する候補の上位N個(Nは1以上の整
数)に該当する表示セルをその候補順位に固有の表示形
態で表示する構成としたことをも特徴とする。
Further, according to the present invention, when the position indicating display cursor is moved to the corresponding display cell according to the recognition result,
It is also characterized in that display cells corresponding to the top N (N is an integer equal to or greater than 1) of the subsequent candidates of the recognition result are displayed in a display mode specific to the candidate rank.

【0019】[0019]

【作用】上記の構成においては、表示画面上に表示され
ている特定表示セルを位置指示手段の操作により位置指
示した状態で、その特定表示セルを選択すると、位置指
示表示カーソルの色または形状が変化して、利用者に対
して発声が促される。
In the above configuration, when the specific display cell displayed on the display screen is positioned by operating the position pointing means and the specific display cell is selected, the color or shape of the position pointing display cursor is changed. It changes and prompts the user to speak.

【0020】ここで利用者が、表示画面上の表示セル群
の中から任意の1つを選択するために、目的の表示セル
に固有の属性名を発声すると、その発生内容が認識さ
れ、その認識結果の第1位の候補に該当する表示セルへ
位置指示表示カーソルが移動される。利用者は、この位
置指示カーソルの指し示す位置(の表示セル)から、自
身が発声した音声に対する認識結果を直観的に判断でき
る。
Here, when the user utters an attribute name unique to the target display cell in order to select any one from the display cell group on the display screen, the generated content is recognized, and the generated content is recognized. The position indicating display cursor is moved to the display cell corresponding to the first candidate of the recognition result. The user can intuitively judge the recognition result for the voice uttered by the user from (the display cell of) the position pointed by the position pointing cursor.

【0021】利用者は、位置指示カーソルの指し示す位
置の表示セルが、目的とするものであるならば、即ち認
識結果が正しいならば、その表示セルを選択するために
位置指示手段の特定操作(位置指示手段がマウスの例で
あれば、マウスの特定ボタンの操作)を行う。これによ
り、恰も利用者が位置指示手段を操作して目的の表示セ
ルに位置指示カーソルを移動した状態で、その表示セル
を選択するための位置指示手段の特定操作が行われたか
の如く、その表示セルが選択される。
If the display cell at the position pointed by the position indicating cursor is the intended one, that is, if the recognition result is correct, the user performs a specific operation of the position indicating means to select the display cell ( If the position indicating means is an example of a mouse, a specific button of the mouse is operated. As a result, while the user operates the position indicating means to move the position indicating cursor to the target display cell, the display is performed as if the specific operation of the position indicating means for selecting the display cell is performed. The cell is selected.

【0022】また利用者は、位置指示カーソルの指し示
す位置の表示セルが、目的とするものでないならば、即
ち認識結果が誤っているならば、「誤認識処理」のため
に位置指示手段の特定操作を行う。ここで第1の特定操
作が行われた場合には、認識結果の次候補に該当する表
示セルへ位置指示表示カーソルが移動され、次候補に対
する「確認」または「誤認識処理」が可能となる。ま
た、第2の特定操作が行われた場合には、上記特定表示
セルへ位置指示表示カーソルが移動され、再発声を促す
通知が可能となる。更に第3の特定操作が行われた場合
には、位置指示手段からの位置指示入力に従う表示セル
選択指定の受付けモードとなり、位置指示手段を操作し
て直接目的の表示セルを位置指定することが可能とな
る。
If the display cell at the position pointed by the position pointing cursor is not the intended one, that is, if the recognition result is incorrect, the user specifies the position pointing means for "erroneous recognition processing". Do the operation. If the first specific operation is performed here, the position indicating display cursor is moved to the display cell corresponding to the next candidate of the recognition result, and “confirmation” or “erroneous recognition processing” for the next candidate becomes possible. .. In addition, when the second specific operation is performed, the position indicating display cursor is moved to the specific display cell, and it becomes possible to give a notification prompting a re-voice. Further, when the third specific operation is performed, the display cell selection designation mode according to the position indication input from the position indication means is entered, and the position indication means can be operated to directly specify the position of the target display cell. It will be possible.

【0023】また、上記の構成においては、入力音声に
対する認識結果に従って該当する表示セルに位置指示表
示カーソルが移動されると同時に、認識結果の第2位以
降の候補の上位N個(Nは1以上の整数)に該当する表
示セルがその候補順位に固有の表示形態で表示される。
このため利用者は、認識結果の候補の内容を画面上で確
認でき、したがって再発声とするか次候補選択とするか
の判断が円滑に行える。
Further, in the above configuration, the position indicating display cursor is moved to the corresponding display cell in accordance with the recognition result for the input voice, and at the same time, the upper N candidates of the second and subsequent candidates of the recognition result (N is 1 Display cells corresponding to the above integers) are displayed in a display form specific to the candidate rank.
Therefore, the user can confirm the content of the recognition result candidate on the screen, and thus can smoothly determine whether to re-voice or select the next candidate.

【0024】このように、上記の構成によれば、音声入
力の認識結果に対して利用者は、位置指示手段を操作す
るだけで、音声入力の発声を促す通知から認識結果の確
認および誤認識処理に至る処理を行うことができ、迅速
且つ円滑な音声入力操作が可能となる。
As described above, according to the above configuration, the user only operates the position indicating means with respect to the recognition result of the voice input to confirm the recognition result and erroneously recognize the recognition result from the notification prompting the utterance of the voice input. The processing up to the processing can be performed, and a quick and smooth voice input operation can be performed.

【0025】[0025]

【実施例】以下、本発明を適用した一実施例につき図面
を参照して説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment to which the present invention is applied will be described below with reference to the drawings.

【0026】図1は本発明の一実施例に係る音声入力操
作装置の概略構成を示すブロック図である。同図におい
て、1は音声を入力するマイクロホン、2はマイクロホ
ン1により入力された音声を認識する音声認識部であ
る。3は音声認識部2の認識結果および後述するポイン
ティング・デバイス5の操作内容を受けて表示制御を含
む装置全体の制御を行う制御部である。
FIG. 1 is a block diagram showing a schematic configuration of a voice input operation device according to an embodiment of the present invention. In the figure, 1 is a microphone for inputting voice, and 2 is a voice recognition unit for recognizing voice input by the microphone 1. Reference numeral 3 denotes a control unit that receives the recognition result of the voice recognition unit 2 and the operation content of a pointing device 5 described later, and controls the entire apparatus including display control.

【0027】4は制御部3によって制御される表示部、
5は利用者の操作により表示部4の表示画面上の任意位
置を指示してその指示位置に位置指示用表示カーソル
(ポインティング・カーソル)を移動操作可能なポイン
ティング・デバイスである。このポインティング・デバ
イス5は、ポインティング・カーソルの移動操作の他、
選択情報の入力操作が可能である。ポインティング・デ
バイス5の代表的なものに、マウス、タッチパネル、ペ
ン入力装置等があるが、ここでは、簡単のため3ボタン
のマウスを想定して説明を行う。
A display unit 4 is controlled by the control unit 3,
Reference numeral 5 denotes a pointing device capable of pointing an arbitrary position on the display screen of the display unit 4 by a user's operation and moving the position pointing display cursor (pointing cursor) to the designated position. This pointing device 5 is used for moving the pointing cursor,
It is possible to input selection information. A typical pointing device 5 is a mouse, a touch panel, a pen input device, or the like, but here, for simplicity, a three-button mouse will be assumed and described.

【0028】図2は図1の表示部4における表示画面の
画面構成の一例を示す。図2に示す表示画面は、文章や
図形等が入力可能な作業画面21と、コマンド選択が可
能なコマンド選択画面22から構成される。このコマン
ド選択画面22には、複数のコマンドの選択子が操作ボ
タン23として表示される。またコマンド選択画面22
の所定領域には、音声認識開始を通知するのに用いられ
る、例えば唇の形状パターンを持つ操作ボタン(以下、
音声認識ボタンと称する)24が表示される。利用者
は、この音声認識ボタン24をポインティング・デバイ
ス(マウス)5で選択することにより、ポインティング
・カーソル(マウス・カーソル)の形状変化によって発
声を促される。
FIG. 2 shows an example of the screen configuration of the display screen on the display unit 4 of FIG. The display screen shown in FIG. 2 is composed of a work screen 21 in which sentences and figures can be input, and a command selection screen 22 in which commands can be selected. On this command selection screen 22, a plurality of command selectors are displayed as operation buttons 23. Command selection screen 22
In a predetermined area of, for example, an operation button having a lip shape pattern used to notify the start of voice recognition (hereinafter,
A voice recognition button) 24 is displayed. By selecting the voice recognition button 24 with the pointing device (mouse) 5, the user is prompted to speak by changing the shape of the pointing cursor (mouse cursor).

【0029】さて、利用者は、図2に示すコマンド選択
画面22上の所望の操作ボタン23を音声入力により選
択したい場合には、まず音声認識ボタン24をポインテ
ィング・デバイス(マウス)5で選択した後、所望の操
作ボタン23が持つ属性(ここではコマンド)に固有の
属性名(ここではコマンド名)をマイクロホン1に向か
って発声する。
When the user wants to select a desired operation button 23 on the command selection screen 22 shown in FIG. 2 by voice input, first, the user selects the voice recognition button 24 with the pointing device (mouse) 5. After that, an attribute name (here, command name) unique to the attribute (here, command) of the desired operation button 23 is uttered toward the microphone 1.

【0030】利用者から発声された属性名、即ちコマン
ド名は、マイクロホン1により入力され、音声認識部2
に送られる。音声認識部2は、マイクロホン1からの入
力音声(コマンド名)に対して、音響分析、特徴抽出、
類似度計算等の処理からなる周知の音声認識処理を行
い、その認識結果(第1位〜第n位までの候補)を制御
部3に渡す。
The attribute name uttered by the user, that is, the command name is input by the microphone 1, and the voice recognition unit 2
Sent to. The voice recognition unit 2 performs acoustic analysis, feature extraction on the input voice (command name) from the microphone 1,
Well-known voice recognition processing including processing such as similarity calculation is performed, and the recognition result (first to nth candidates) is passed to the control unit 3.

【0031】制御部3は、音声認識部2からの入力音声
(コマンド名)に対する音声認識結果を受けて、表示部
4の表示画面上のマウス・カーソル(ポインティング・
カーソル)を、その認識結果(第1位の候補)に対応す
るコマンドの操作ボタン23に重なるように移動させ
る。
Upon receiving the voice recognition result for the input voice (command name) from the voice recognition unit 2, the control unit 3 receives a mouse cursor (pointing button) on the display screen of the display unit 4.
The cursor) is moved so as to overlap the operation button 23 of the command corresponding to the recognition result (first candidate).

【0032】利用者は、マウス・カーソルの表示位置か
ら、即ちマウス・カーソルの指し示す操作ボタン23の
位置から、認識結果が正しいか否かを判断する。そして
利用者は、認識結果が正しいならば、その位置でポイン
ティング・デバイス(マウス)5の例えば左ボタンによ
り確認の入力を行う。すると、マウス・カーソルの指し
示している操作ボタン23が選択され、その選択された
ボタン23に対応する操作が、制御部3により実行され
る。
The user determines from the display position of the mouse cursor, that is, the position of the operation button 23 pointed to by the mouse cursor, whether or not the recognition result is correct. Then, if the recognition result is correct, the user inputs confirmation by using, for example, the left button of the pointing device (mouse) 5 at that position. Then, the operation button 23 pointed by the mouse cursor is selected, and the operation corresponding to the selected button 23 is executed by the control unit 3.

【0033】一方、誤認識の場合、即ち利用者が発声し
たコマンド名に対応しない操作ボタン23上にマウス・
カーソルが移動した場合は、利用者は(1)次候補選
択、(2)再発声、(3)直接入力のいずれかによる誤
認識処理を行う。
On the other hand, in the case of erroneous recognition, that is, the mouse is pressed on the operation button 23 that does not correspond to the command name uttered by the user
When the cursor moves, the user performs erroneous recognition processing by any one of (1) selection of next candidate, (2) re-voiced voice, and (3) direct input.

【0034】まず上記(1)の次候補選択による誤認識
処理を行いたい場合、利用者はポインティング・デバイ
ス(マウス)5の例えば中ボタンを押す。すると、制御
部3の制御により、認識結果の次候補に対応する操作ボ
タン23上にマウス・カーソルが移動する。この状態
で、確認処理または再度の誤認識処理が可能となる。
First, in order to perform the erroneous recognition process by selecting the next candidate in (1) above, the user presses, for example, the middle button of the pointing device (mouse) 5. Then, under the control of the control unit 3, the mouse cursor moves to the operation button 23 corresponding to the next candidate of the recognition result. In this state, confirmation processing or erroneous recognition processing again can be performed.

【0035】次に上記(2)の再発声による誤認識処理
を行いたい場合、利用者はポインティング・デバイス
(マウス)5の例えば右ボタンを押す。すると、制御部
3の制御により、図2に示す表示画面の音声認識ボタン
24上にマウス・カーソルが移動して、その形状が変化
し、利用者に対して発声を促す。
When the user wants to perform the erroneous recognition process due to the re-voiced voice of (2), the user presses the right button of the pointing device (mouse) 5, for example. Then, under the control of the control unit 3, the mouse cursor moves onto the voice recognition button 24 on the display screen shown in FIG. 2 and the shape thereof changes to prompt the user to speak.

【0036】次に上記(3)の直接入力による誤認識処
理を行いたい場合、利用者は直接ポインティング・デバ
イス(マウス)5を移動操作することで、目的とする操
作ボタン23上へマウス・カーソルを移動させ、その位
置でポインティング・デバイス(マウス)5の例えば左
ボタンを押す。すると、マウス・カーソルの指し示して
いる操作ボタン23が選択され、その選択されたボタン
23に対応する操作が、制御部3により実行される。
Next, when it is desired to perform the erroneous recognition processing by the direct input of the above (3), the user directly moves the pointing device (mouse) 5 to move the mouse cursor to the target operation button 23. Is moved, and the left button of the pointing device (mouse) 5 is pressed at that position. Then, the operation button 23 pointed by the mouse cursor is selected, and the operation corresponding to the selected button 23 is executed by the control unit 3.

【0037】次に、上記の音声入力操作に関連する一連
の処理を、図3に示すフローチャートおよび図4に示す
マウス・カーソルの形状変化説明図を参照して、更に具
体的に説明する。
Next, a series of processes relating to the above-mentioned voice input operation will be described more specifically with reference to the flow chart shown in FIG. 3 and the mouse / cursor shape change explanatory diagram shown in FIG.

【0038】利用者は、図2に示すコマンド選択画面2
2上の所望の操作ボタン23を音声入力により選択した
い場合、まずポインティング・デバイス(マウス)5を
移動操作して、同選択画面22上の音声認識ボタン24
に、図4(a)に示すようにマウス・カーソル25を移
動させ、その位置でポインティング・デバイス(マウ
ス)5の左ボタンを押すことで、音声認識ボタン24を
選択する。
The user selects the command selection screen 2 shown in FIG.
When it is desired to select a desired operation button 23 on the display 2 by voice input, first, the pointing device (mouse) 5 is moved and operated, and the voice recognition button 24 on the selection screen 22 is selected.
4A, the mouse cursor 25 is moved, and the left button of the pointing device (mouse) 5 is pressed at that position to select the voice recognition button 24.

【0039】制御部3は、ポインティング・デバイス
(マウス)5の左ボタン操作で音声認識ボタン24が選
択されたことを検出すると(ステップS2)、図4
(b)に示すように音声認識ボタン24上のマウス・カ
ーソル25の形状を変え(ここでは、矢印のパターンか
らマイクロホンを示すパターンに変え)、利用者の発声
を促す表示を行う(ステップS3)。なお、カーソル形
状を変えずに、色を変えるようにしてもよい。また、カ
ーソル形状と色の両方を変えてもよい。
When the control section 3 detects that the voice recognition button 24 has been selected by operating the left button of the pointing device (mouse) 5 (step S2), FIG.
As shown in (b), the shape of the mouse cursor 25 on the voice recognition button 24 is changed (here, the pattern of the arrow is changed to a pattern indicating a microphone), and a display prompting the user to speak is displayed (step S3). .. The color may be changed without changing the cursor shape. Further, both the cursor shape and the color may be changed.

【0040】利用者は、図4(b)に示す表示により、
音声入力の開始が促されていることを認識し、選択指定
しようとする操作ボタン23に固有のコマンド名を発声
する。
The user can display the display shown in FIG.
Recognizing that the start of voice input is prompted, a command name unique to the operation button 23 to be selected and specified is uttered.

【0041】利用者から発声されたコマンド名は、マイ
クロホン1により入力されて音声認識部2に送られ、認
識処理が行われ、その認識結果(第1位〜第n位までの
候補)が制御部3に渡される(ステップS4)。
The command name uttered by the user is input by the microphone 1 and sent to the voice recognition unit 2, where the recognition process is performed, and the recognition result (first to nth candidates) is controlled. It is passed to the section 3 (step S4).

【0042】制御部3は、音声認識部2からの入力音声
(コマンド名)に対する音声認識結果を受けると、その
認識結果(第1位の候補)に対応した操作ボタン23の
位置情報を生成し、その情報の示す位置(即ち認識した
操作ボタン23の位置)へマウス・カーソル25を移動
し(ステップS5)、図4(c)に示すようにマウス・
カーソル25の形状を変えて(色を変えてもよい)、利
用者の確認処理を促す(ステップS6)。
When the control unit 3 receives the voice recognition result for the input voice (command name) from the voice recognition unit 2, the control unit 3 generates the position information of the operation button 23 corresponding to the recognition result (first candidate). , The mouse cursor 25 is moved to the position indicated by the information (that is, the position of the recognized operation button 23) (step S5), and as shown in FIG.
The shape of the cursor 25 is changed (the color may be changed) to prompt the user for confirmation processing (step S6).

【0043】利用者は、マウス・カーソル25の指し示
す操作ボタン23の位置から、認識結果が正しいか否か
を判断する。そして利用者は、認識結果が正しいなら
ば、その操作ボタン23の位置でポインティング・デバ
イス(マウス)5の左ボタンにより確認の入力を行う。
The user determines from the position of the operation button 23 pointed by the mouse cursor 25 whether or not the recognition result is correct. Then, if the recognition result is correct, the user inputs a confirmation with the left button of the pointing device (mouse) 5 at the position of the operation button 23.

【0044】制御部3は、操作ボタン23上(をマウス
・カーソル25が指し示している状態)でポインティン
グ・デバイス(マウス)5の左ボタンが押されたことを
検出すると(ステップS7)、マウス・カーソル25の
指し示している操作ボタン23に対応したコマンド処理
を実行する(ステップS8)。
When the control section 3 detects that the left button of the pointing device (mouse) 5 has been pressed on the operation button 23 (in which the mouse cursor 25 is pointing) (step S7), the mouse Command processing corresponding to the operation button 23 pointed by the cursor 25 is executed (step S8).

【0045】一方、認識結果が間違っている場合、もし
前記(1)の次候補選択による誤認識処理を行いたいな
らば、利用者は誤認識された操作ボタン23上でポイン
ティング・デバイス(マウス)5の中ボタンを押す。
On the other hand, if the recognition result is wrong, if the user wants to perform the erroneous recognition process by selecting the next candidate in (1), the user points the pointing device (mouse) on the erroneously recognized operation button 23. Press the 5 middle button.

【0046】制御部3は、操作ボタン23上(をマウス
・カーソル25が指し示している状態)でポインティン
グ・デバイス(マウス)5の中ボタンを押されたことを
検出すると(ステップS9)、認識結果の次候補に対応
した操作ボタン23へマウス・カーソル25を移動する
(ステップS10)。これにより利用者は、次候補の確
認処理を、第1位の認識結果に対するのと同様に行うこ
とができ、再発声の必要がなくなる。
When the control unit 3 detects that the middle button of the pointing device (mouse) 5 has been pressed on the operation button 23 (the state where the mouse cursor 25 is pointing) (step S9), the recognition result The mouse cursor 25 is moved to the operation button 23 corresponding to the next candidate (step S10). As a result, the user can perform the confirmation processing of the next candidate in the same manner as for the recognition result of the first place, and there is no need to re-voice.

【0047】また、認識結果が間違っている場合に、前
記(2)の再発声による誤認識処理を行いたいならば、
利用者は誤認識された操作ボタン23上でポインティン
グ・デバイス(マウス)5の右ボタンを押す。
Further, if the recognition result is wrong and if the erroneous recognition process by the re-voiced voice of (2) is desired,
The user presses the right button of the pointing device (mouse) 5 on the operation button 23 that has been erroneously recognized.

【0048】制御部3は、操作ボタン23上(をマウス
・カーソル25が指し示している状態)でポインティン
グ・デバイス(マウス)5の右ボタンを押されたことを
検出すると(ステップS11)、マウス・カーソル25
を音声認識ボタン24へ移動し、そのカーソル形状(ま
たは色)を、図4(a)に示す初期状態(音声認識ボタ
ン24を選択する前の状態)に変える(ステップS1
2)。これにより、次の音声入力(再発声)を円滑に行
うことができる。このステップS12の処理は、認識確
認がなされた結果(ステップS7)、認識された操作ボ
タン23に対応する処理(ステップS8)が実行された
場合にも行われる。
When the control unit 3 detects that the right button of the pointing device (mouse) 5 is pressed on the operation button 23 (the state where the mouse cursor 25 is pointing) (step S11), the mouse Cursor 25
To the voice recognition button 24 and change the cursor shape (or color) to the initial state (state before selecting the voice recognition button 24) shown in FIG. 4A (step S1).
2). As a result, the next voice input (re-voice) can be smoothly performed. The process of step S12 is also performed when the process corresponding to the recognized operation button 23 (step S8) is executed as a result of the recognition confirmation (step S7).

【0049】また、認識結果が間違っている場合に、前
記(3)の直接入力による誤認識処理を行いたいなら
ば、利用者は直接ポインティング・デバイス(マウス)
5を移動操作することで、目的とする操作ボタン23上
へマウス・カーソル25を移動させ、その位置でポイン
ティング・デバイス(マウス)5の左ボタンを押す。
If the recognition result is wrong and the user wants to perform the erroneous recognition processing by the direct input in (3) above, the user can directly use the pointing device (mouse).
By moving 5 the mouse cursor 25 is moved onto the desired operation button 23, and the left button of the pointing device (mouse) 5 is pressed at that position.

【0050】制御部3は、操作ボタン23上(をマウス
・カーソル25が指し示している状態)でポインティン
グ・デバイス(マウス)5の左ボタンが押されたことを
検出すると(ステップS7)、前記したように音声認識
結果に従って対応する操作ボタン23にマウス・カーソ
ル25を移動した状態で左ボタンが押された場合と同様
に、マウス・カーソル25の指し示している操作ボタン
23に対応したコマンド処理を実行する(ステップS
8)。
When the control section 3 detects that the left button of the pointing device (mouse) 5 is pressed on the operation button 23 (the state where the mouse cursor 25 is pointing) (step S7), the above-mentioned operation is performed. As in the case where the left button is pressed while the mouse cursor 25 is moved to the corresponding operation button 23 according to the voice recognition result, command processing corresponding to the operation button 23 pointed to by the mouse cursor 25 is executed. Yes (Step S
8).

【0051】なお、本発明は前記実施例に限定されるも
のではなく、その要旨を変更しない範囲で種々に変形実
施できる。例えば、音声認識結果を第1位の候補以外に
ついても表示することにより、次候補の選択を円滑に処
理することが可能となる。即ち、認識結果の第2位以降
の候補のうちの上位N個(Nは1以上の整数)にそれぞ
れ対応する表示画面上の操作ボタン23を、その候補順
位に固有の表示形態、例えば色分けや反転、点滅等によ
って表示するようにしてもよい。こうした場合、次候補
の内容が確認できるようになるので、再発声または次候
補選択のいずれを適用した方が有利かの判断を円滑に行
うことが可能となる。
The present invention is not limited to the above embodiment, but can be variously modified and implemented without changing the gist thereof. For example, by displaying the voice recognition result for other than the first-ranked candidate, the selection of the next candidate can be smoothly processed. That is, the operation buttons 23 on the display screen respectively corresponding to the top N (N is an integer of 1 or more) of the second and subsequent candidates of the recognition result are displayed in a display mode specific to the candidate order, for example, by color coding. It may be displayed by reversing or blinking. In such a case, since the content of the next candidate can be confirmed, it becomes possible to smoothly judge which of the re-voice and the selection of the next candidate is more advantageous.

【0052】また、認識結果によりマウス・カーソルが
指し示すものは、コマンド選択画面22上の操作ボタン
23に限るものではなく、表示画面上での選択指定の対
象となるもの、即ち固有の属性名の属性を持ち選択指定
の対象となる表示セルであれば、同様に適用できる。そ
の一例を図5に示す。
Further, what is pointed to by the mouse cursor according to the recognition result is not limited to the operation button 23 on the command selection screen 22, but the target of selection designation on the display screen, that is, the unique attribute name. The same applies to any display cell that has an attribute and is a target of selection specification. An example thereof is shown in FIG.

【0053】図5は地図上の建物や場所が表示された地
図画面の一例であり、音声認識結果に従ってマウス・カ
ーソルが指し示すものは地図上の建物や場所となる。こ
こでは、マウス・カーソルが指し示す建物や場所の画面
上で確認や誤認識処理を行うことになる。また、運賃が
記載された鉄道路線図の画面上で、行先(駅)を音声で
入力指定する場合にも同様に適用できる。この場合、音
声認識結果に従ってマウス・カーソルが指し示すものは
鉄道路線図上の駅となる。
FIG. 5 is an example of a map screen on which buildings and places on the map are displayed, and what the mouse cursor points to according to the voice recognition result is the buildings and places on the map. Here, confirmation and erroneous recognition processing are performed on the screen of the building or place pointed by the mouse cursor. In addition, the same applies to the case where the destination (station) is designated by voice on the screen of the railway route map in which the fare is stated. In this case, what is indicated by the mouse cursor according to the voice recognition result is the station on the railway route map.

【0054】また、前記実施例では、簡単のためポイン
ティング・デバイス5をマウスと想定して説明を行った
が、タッチパネルやペン入力装置等、他の位置指示手段
でも適用可能である。なお、ポインティング・デバイス
5としてタッチパネルやペン入力装置を用いた場合に
は、前記実施例で述べたマウスボタンの機能において、
例えば左ボタンを指やペンによる画面への直接入力に対
応させ、中ボタンおよび右ボタンについては、画面上に
それぞれに対応する操作ボタンを表示し、それを直接指
やペンによって選択することにより、マウスの場合と同
様の操作性を得ることが可能となる。
In the above embodiment, the pointing device 5 is assumed to be a mouse for the sake of simplicity, but other position indicating means such as a touch panel or a pen input device can also be applied. When a touch panel or a pen input device is used as the pointing device 5, in the function of the mouse button described in the above embodiment,
For example, by making the left button correspond to direct input to the screen with a finger or a pen, for the middle button and the right button, by displaying the corresponding operation button on the screen and selecting it directly with the finger or pen, It is possible to obtain the same operability as that of a mouse.

【0055】[0055]

【発明の効果】以上に説明したように本発明によれば、
コマンド選択画面上の選択子(操作ボタン)や、地図画
面上の建物、場所等、表示画面上での選択指定の対象と
なる表示セルが音声で指定された場合に、その音声認識
結果に該当する表示画面上の表示セルに、マウス等の位
置指示手段により移動操作可能な位置指示表示カーソル
を移動する構成としたので、利用者は、この位置指示カ
ーソルの指し示す位置(の表示セル)から、自身が発声
した音声に対する認識結果を直観的に判断でき、迅速な
認識確認が行える。
As described above, according to the present invention,
Corresponds to the speech recognition result when the display cell that is the target of selection specification on the display screen such as the selector (operation button) on the command selection screen, the building, the place, etc. on the map screen is specified by voice. Since the position indicating display cursor that can be moved and operated by the position indicating means such as a mouse is moved to the display cell on the display screen to be displayed, the user can change the position indicating cursor of the position indicating cursor (the display cell thereof) from The recognition result for the voice uttered by the user can be intuitively determined, and quick recognition confirmation can be performed.

【0056】また本発明によれば、入力音声に対する認
識結果を位置指示表示カーソルにより指し示した後、位
置指示手段からの入力を受付け、その入力情報に従って
認識結果の「確認」または「誤認識処理」を行い、特に
「誤認識処理」においては、位置指示手段の操作内容に
従い、認識結果の次候補に該当する表示セルへの位置指
示表示カーソルの移動、位置指示手段からの位置指示操
作で音声入力開始が指定可能な特定表示セルへの位置指
示表示カーソルの移動、または位置指示手段からの位置
指示入力に従う表示セル選択指定の受付けを行う構成と
したので、音声認識結果に対する誤認識処理のための各
種操作、および利用者へ音声入力の発声を促す通知が、
位置指示手段を用いて利用者に負担をかけることなく迅
速且つ円滑に行える。
Further, according to the present invention, after the recognition result for the input voice is pointed by the position pointing display cursor, the input from the position pointing means is accepted, and the "confirmation" or "erroneous recognition process" of the recognition result is performed according to the input information. Especially, in the "erroneous recognition process", the position indication display cursor is moved to the display cell corresponding to the next candidate of the recognition result according to the operation content of the position indication means, and the voice is inputted by the position indication operation from the position indication means. Since the position indication display cursor is moved to a specific display cell whose start can be designated, or the display cell selection designation according to the position indication input from the position indication means is accepted, the erroneous recognition process for the voice recognition result is performed. Various operations and notifications prompting the user to speak voice input,
The position indicating means can be used quickly and smoothly without burdening the user.

【0057】このように本発明によれば、音声入力開始
が指定可能な特定表示セルへの位置指示表示カーソルの
移動で利用者に発声を促し、認識結果を位置指示表示カ
ーソルで指し示し、位置指示手段の操作に従って確認、
誤認識処理を行うことにより、迅速かつ円滑な音声入力
操作が行えるようになり、音声入力操作装置のユーザ・
インターフェースを飛躍的に向上させることが可能とな
り、実用上多大な効果が得られる。
As described above, according to the present invention, the user is urged to speak by moving the position indicating display cursor to the specific display cell in which the voice input start can be designated, and the recognition result is indicated by the position indicating display cursor to indicate the position. Confirm according to the operation of the means,
By performing the misrecognition process, it becomes possible to perform a quick and smooth voice input operation.
The interface can be dramatically improved, and a great effect can be obtained in practical use.

【0058】また本発明によれば、既存の位置指示手段
(ポインティング・デバイス)を用いたアプリケーショ
ンに音声認識による入力機能を容易に組み込むことがで
きる。
Further, according to the present invention, the input function by voice recognition can be easily incorporated into the application using the existing position pointing means (pointing device).

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る音声入力操作装置の概
略構成を示すブロック図。
FIG. 1 is a block diagram showing a schematic configuration of a voice input operation device according to an embodiment of the present invention.

【図2】同実施例における表示画面の画面構成の一例を
示す図。
FIG. 2 is a diagram showing an example of a screen configuration of a display screen in the embodiment.

【図3】同実施例の動作を説明するためのフローチャー
ト。
FIG. 3 is a flowchart for explaining the operation of the embodiment.

【図4】同実施例におけるマウス・カーソルの形状変化
を説明するための図。
FIG. 4 is a view for explaining a shape change of a mouse cursor in the same embodiment.

【図5】図1の装置に適用可能な表示画面の画面構成の
他の例を示す図。
5 is a diagram showing another example of a screen configuration of a display screen applicable to the device of FIG.

【符号の説明】[Explanation of symbols]

1…マイクロホン(音声入力手段)、2…音声認識部、
3…制御部、4…表示部、5…ポインティング・デバイ
ス(位置指示手段)、22…コマンド選択画面、23…
操作ボタン(表示セル)、24…音声認識ボタン(特定
表示セル)、25…マウス・カーソル(位置指示表示カ
ーソル)。
1 ... Microphone (voice input means), 2 ... Voice recognition unit,
3 ... Control unit, 4 ... Display unit, 5 ... Pointing device (position indicating means), 22 ... Command selection screen, 23 ...
Operation button (display cell), 24 ... Voice recognition button (specific display cell), 25 ... Mouse cursor (position indication display cursor).

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 固有の属性名の属性を持ち選択指定の対
象となる複数の表示セルが表示可能な表示装置と、 この表示装置の表示画面上の任意位置を指示してその指
示位置に位置指示用表示カーソルを移動操作可能な位置
指示手段と、 音声を入力するための音声入力手段と、 この音声入力手段により入力された音声を認識するため
の音声認識手段と、 この音声認識手段によって認識された音声認識結果およ
び前記位置指示手段からの入力情報を受けて前記表示装
置の表示制御を含む対応する制御を行う制御手段とを具
備し、 前記制御手段は、前記表示装置の表示画面上に前記複数
の表示セルが表示されている状態で、前記音声入力手段
により任意の表示セルの属性名が音声入力されて、その
属性名が前記音声認識手段により認識された場合に、そ
の認識結果に従って前記表示画面上の該当する表示セル
に前記位置指示表示カーソルを移動することを特徴とす
る音声入力操作装置。
1. A display device having a unique attribute name and capable of displaying a plurality of display cells to be selected and designated, and an arbitrary position on a display screen of the display device is designated to position at the designated position. Position indicating means capable of moving the indication display cursor, voice input means for inputting voice, voice recognition means for recognizing voice input by this voice input means, and recognition by this voice recognition means And a control means for performing corresponding control including display control of the display device by receiving the input voice recognition result and the input information from the position indicating means, the control means on the display screen of the display device. When the attribute name of an arbitrary display cell is voice-input by the voice input unit while the plurality of display cells are being displayed, and the attribute name is recognized by the voice recognition unit. As a result of recognition in accordance with the display screen of the corresponding voice input operation apparatus characterized by moving the position indicating cursor on the display cell.
【請求項2】 前記制御手段は、前記位置指示表示カー
ソルを前記表示セルに移動した後、前記位置指示手段か
らの入力を受付け、その入力情報に従って前記認識結果
の「確認」または「誤認識処理」を行うことを特徴とす
る請求項1記載の音声入力操作装置。
2. The control means receives an input from the position designating means after moving the position designating display cursor to the display cell, and “confirms” or “misrecognizes the recognition result” according to the input information. The voice input operation device according to claim 1, wherein
【請求項3】 前記制御手段は、前記位置指示手段から
の入力情報が予め定められた第1の情報である場合に
は、認識結果の次候補に該当する前記表示セルに前記位
置指示表示カーソルを移動する第1の誤認識処理を行う
ことを特徴とする請求項2記載の音声入力操作装置。
3. The control means, when the input information from the position designating means is predetermined first information, the position designating display cursor is displayed on the display cell corresponding to the next candidate of the recognition result. The voice input operation device according to claim 2, wherein the first erroneous recognition process of moving the voice input device is performed.
【請求項4】 前記制御手段は、前記位置指示手段から
の入力情報が予め定められた第2の情報である場合に
は、再発声を促す第2の誤認識処理を行うことを特徴と
する請求項3記載の音声入力操作装置。
4. The control means, when the input information from the position pointing means is predetermined second information, performs a second erroneous recognition process for prompting a re-voice. The voice input operation device according to claim 3.
【請求項5】 前記制御手段は、前記位置指示手段によ
り位置指示されることで音声入力開始が指定可能な特定
表示セルを前記表示画面上に予め表示しておき、前記再
発声を促す第2の誤認識処理では、前記特定表示セルに
前記位置指示表示カーソルを移動することを特徴とする
請求項4記載の音声入力操作装置。
5. The second control unit displays in advance on the display screen a specific display cell in which a voice input start can be designated by being position-instructed by the position instructing unit, and urges the re-voice. 5. The voice input operation device according to claim 4, wherein in the erroneous recognition process, the position indicating display cursor is moved to the specific display cell.
【請求項6】 前記制御手段は、前記位置指示手段から
の入力情報が予め定められた第3の情報である場合に
は、前記位置指示手段からの位置指示入力に従う前記表
示セルの選択指定を受付ける第3の誤認識処理を行うこ
とを特徴とする請求項5記載の音声入力操作装置。
6. The control means, when the input information from the position instructing means is predetermined third information, selects and designates the display cell according to the position instructing input from the position instructing means. The voice input operation device according to claim 5, wherein the third erroneous recognition process is performed.
【請求項7】 前記制御手段は、前記認識結果に従って
前記表示画面上の該当する表示セルに前記位置指示表示
カーソルを移動すると同時に、認識結果の後続する候補
の上位N個(Nは1以上の整数)に該当する前記表示セ
ルをその候補順位に固有の表示形態で表示することを特
徴とする請求項6記載の音声入力操作装置。
7. The control means moves the position-indicating display cursor to a corresponding display cell on the display screen according to the recognition result, and at the same time, the upper N candidates (N is 1 or more) of subsequent candidates of the recognition result. 7. The voice input operation device according to claim 6, wherein the display cells corresponding to (integer) are displayed in a display form unique to the candidate rank.
JP4152268A 1992-06-11 1992-06-11 Voice input operation unit Pending JPH05341951A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4152268A JPH05341951A (en) 1992-06-11 1992-06-11 Voice input operation unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4152268A JPH05341951A (en) 1992-06-11 1992-06-11 Voice input operation unit

Publications (1)

Publication Number Publication Date
JPH05341951A true JPH05341951A (en) 1993-12-24

Family

ID=15536784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4152268A Pending JPH05341951A (en) 1992-06-11 1992-06-11 Voice input operation unit

Country Status (1)

Country Link
JP (1) JPH05341951A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002079970A2 (en) * 2001-03-30 2002-10-10 Siemens Aktiengesellschaft Computer and control method therefor
JP2009252238A (en) * 2008-04-08 2009-10-29 Lg Electronics Inc Mobile terminal and its menu control method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002079970A2 (en) * 2001-03-30 2002-10-10 Siemens Aktiengesellschaft Computer and control method therefor
WO2002079970A3 (en) * 2001-03-30 2003-08-21 Siemens Ag Computer and control method therefor
JP2009252238A (en) * 2008-04-08 2009-10-29 Lg Electronics Inc Mobile terminal and its menu control method
US8560324B2 (en) 2008-04-08 2013-10-15 Lg Electronics Inc. Mobile terminal and menu control method thereof

Similar Documents

Publication Publication Date Title
US7260529B1 (en) Command insertion system and method for voice recognition applications
US6002862A (en) Man-machine interface system allowing input of information by operator into non-input-focused control among more than one controls on display screen with minimum key operation
US6401065B1 (en) Intelligent keyboard interface with use of human language processing
KR100457509B1 (en) Communication terminal controlled through a touch screen and a voice recognition and instruction executing method thereof
JP2006048628A (en) Multimodal input method
JP2002062966A (en) Information processor and control method thereof
KR20140095998A (en) Remote control system and device
JP2009205303A (en) Input method and input device
KR20150083173A (en) System for editing a text of a portable terminal and method thereof
US6542090B1 (en) Character input apparatus and method, and a recording medium
KR20030008873A (en) Word input method and a computer-readable recording medium with program for executing the method
JPH05341951A (en) Voice input operation unit
KR101099652B1 (en) Hangeul input apparatus and method on touch screen
JP4702081B2 (en) Character input device
JP7063843B2 (en) Robot teaching device
JPH09258946A (en) Information processor
JPH1124695A (en) Speech recognition processing device and speech recognition processing method
JP2003005902A (en) Character inputting device, information processor, method for controlling character inputting device, and storage medium
JP2000250587A (en) Voice recognition device and voice recognizing and translating device
JPS6237734A (en) Instruction selector
JP2009271835A (en) Equipment operation controller and program
JPH10326175A (en) Voice indication device, and voice indication information storage medium
JPH08160988A (en) Speech recognition device
KR20000003293A (en) Computer system and method of outputting input data as voice signal
JPH06110495A (en) Speech recognition device