JP2001216131A - Information processor, its method and program storage medium - Google Patents

Information processor, its method and program storage medium

Info

Publication number
JP2001216131A
JP2001216131A JP2000027889A JP2000027889A JP2001216131A JP 2001216131 A JP2001216131 A JP 2001216131A JP 2000027889 A JP2000027889 A JP 2000027889A JP 2000027889 A JP2000027889 A JP 2000027889A JP 2001216131 A JP2001216131 A JP 2001216131A
Authority
JP
Japan
Prior art keywords
program
voice
recognition
window
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000027889A
Other languages
Japanese (ja)
Inventor
Satoshi Fujimura
聡 藤村
Yasuhiko Kato
靖彦 加藤
Shuji Yonekura
修二 米倉
Takashi Sasai
崇司 笹井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000027889A priority Critical patent/JP2001216131A/en
Publication of JP2001216131A publication Critical patent/JP2001216131A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stored Programmes (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a user to recognize which application receives a voice recognition result to be sent. SOLUTION: When an application for voice recognition is started and the display of a window for the application is instructed as minimum display, a small display window 241 for the application corresponds to voice recognition and is displayed in the vicinity of an activated electronic pet window 191. The window 241 is displayed only during the execution of voice recognition.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は情報処理装置および
方法、並びにプログラム格納媒体に関し、特に、音声認
識を行う装置に用いて好適な情報処理装置および方法、
並びにプログラム格納媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and method, and a program storage medium, and more particularly, to an information processing apparatus and method suitable for an apparatus for performing voice recognition.
And a program storage medium.

【0002】[0002]

【従来の技術】音声を認識し、認識した音声に対応し
て、所定の処理を実行するパーソナルコンピュータなど
の情報処理装置が普及しつつある。例えば、パーソナル
コンピュータにおいて、音声認識が実行される場合、音
声認識用アプリケーションが起動され、その起動された
ことを示すウィンドウなどがディスプレイ表示される。
そのウィンドウには、使用者が音声として発話した言葉
を認識した結果などが表示される。
2. Description of the Related Art Information processing apparatuses, such as personal computers, which recognize voice and execute predetermined processing in response to the recognized voice, are becoming widespread. For example, when voice recognition is executed in a personal computer, a voice recognition application is activated, and a window or the like indicating that the application is activated is displayed on a display.
The window displays the result of recognition of words spoken by the user as speech.

【0003】[0003]

【発明が解決しようとする課題】上述した音声認識が実
行されている状態において表示されるウィンドは、小型
表示され、タスクバーなどに格納される場合がある。そ
のような小型表示され、かつ、複数の音声認識対応のア
プリケーションが実行されている場合、使用者は、入力
した音声の認識結果が、どのアプリケーションに対して
送られたのかがわかりづらいといった課題があった。
A window displayed while the above-described speech recognition is being executed is sometimes displayed in a small size and stored in a task bar or the like. When such a small-sized display and a plurality of applications that support voice recognition are executed, the user has a problem that it is difficult to recognize to which application the recognition result of the input voice was sent. there were.

【0004】また、音声認識をさせる場合、使用者は、
予め決められたコマンドを発話する必要がある。そのコ
マンドは、アプリケーションにより異なり、また、その
数も多いため、使用者は覚えきれず、使いこなせないた
め、使い勝手が悪くなるといった課題があった。
[0004] In the case of voice recognition, the user must
It is necessary to speak a predetermined command. The commands differ depending on the application and the number of commands is large, so that the user cannot remember them and cannot use them easily, so that there is a problem that usability is deteriorated.

【0005】本発明はこのような状況に鑑みてなされた
ものであり、ウィンドウが小型表示されている時には、
音声の認識結果が送られるアプリケーションの近傍にウ
ィンドウを表示し、また、コマンドの一覧を音声により
呼び出せるようにすることにより、使用者にとって使い
勝手の良い音声認識を実現させることを目的とする。
The present invention has been made in view of such circumstances, and when a window is displayed in a small size,
It is an object of the present invention to realize a user-friendly voice recognition by displaying a window near an application to which a voice recognition result is sent and enabling a list of commands to be called up by voice.

【0006】[0006]

【課題を解決するための手段】請求項1に記載の情報処
理装置は、音声を認識する状態が指示されているか否か
を判断する第1の判断手段と、第1の判断手段により音
声を認識する状態が指示されていると判断された場合、
音声認識の結果に対応して所定の処理を実行するプログ
ラムが起動され、かつ、アクティブな状態になっている
か否かを判断する第2の判断手段と、第2の判断手段に
より音声認識の結果に対応して所定の処理を実行するプ
ログラムが起動され、かつ、アクティブな状態になって
いると判断された場合、音声認識が指示されている状態
を示す第1のウィンドウを、プログラムに対応するる第
2のウィンドウの近傍、または、重なる位置に表示され
るように表示を制御する第1の表示制御手段と、第2の
判断手段により音声認識の結果に対応して所定の処理を
実行するプログラムは起動されていない、または、起動
されてはいるがアクティブな状態ではないと判断された
場合、第1のウィンドウが予め定められた所定の位置に
表示されるように表示を制御する第2の表示制御手段と
を含むことを特徴とする。
According to a first aspect of the present invention, there is provided an information processing apparatus comprising: first determining means for determining whether a voice recognition state is instructed; If it is determined that the recognition state is indicated,
A second determining means for determining whether or not a program for executing a predetermined process according to the result of the voice recognition is activated and in an active state; and a result of the voice recognition by the second determining means. When it is determined that the program for executing the predetermined process is activated and is in the active state in response to the above, the first window indicating the state in which the voice recognition is instructed is set to correspond to the program. First display control means for controlling display so as to be displayed near or overlapping the second window, and predetermined processing is executed by the second determination means in accordance with the result of voice recognition. If it is determined that the program has not been started or has been started but is not active, the first window is displayed at a predetermined position. Characterized in that it comprises a second display control means for controlling indicates.

【0007】音声認識した結果が、所定の処理を実行さ
せるためのコマンドの一覧の表示を指示するものであっ
た場合、コマンドの一覧が表示されるように表示を制御
する第3の表示制御手段をさらに含むようにすることも
できる。
If the result of the speech recognition indicates that a command list for executing a predetermined process is to be displayed, a third display control means for controlling the display so that the command list is displayed. May be further included.

【0008】請求項3に記載の情報処理方法は、音声を
認識する状態が指示されているか否かを判断する第1の
判断ステップと、第1の判断ステップの処理で音声を認
識する状態が指示されていると判断された場合、音声認
識の結果に対応して所定の処理を実行するプログラムが
起動され、かつ、アクティブな状態になっているか否か
を判断する第2の判断ステップと、第2の判断ステップ
の処理で音声認識の結果に対応して所定の処理を実行す
るプログラムが起動され、かつ、アクティブな状態にな
っていると判断された場合、音声認識が指示されている
状態を示す第1のウィンドウを、プログラムに対応する
第2のウィンドウの近傍、または、重なる位置に表示さ
れるように表示を制御する第1の表示制御ステップと、
第2の判断ステップの処理で音声認識の結果に対応して
所定の処理を実行するプログラムは起動されていない、
または、起動されてはいるがアクティブな状態ではない
と判断された場合、第1のウィンドウが予め定められた
所定の位置に表示されるように表示を制御する第2の表
示制御ステップとを含むことを特徴とする。
According to a third aspect of the present invention, there is provided an information processing method comprising: a first determining step of determining whether a state of recognizing a voice is instructed; If it is determined that the instruction has been given, a second determination step of determining whether or not a program for executing a predetermined process according to the result of the voice recognition is activated and in an active state; If a program for executing a predetermined process corresponding to the result of speech recognition is started in the process of the second determination step and it is determined that the program is in an active state, a state in which speech recognition is instructed A first display control step of controlling the display so that a first window indicating the above is displayed near or overlapping with the second window corresponding to the program;
In the processing of the second determination step, the program for executing the predetermined processing corresponding to the result of the voice recognition has not been started,
Or a second display control step of controlling display so that the first window is displayed at a predetermined position when it is determined that the first window is activated but not in an active state. It is characterized by the following.

【0009】請求項4に記載のプログラム格納媒体のプ
ログラムは、音声を認識する状態が指示されているか否
かを判断する第1の判断ステップと、第1の判断ステッ
プの処理で音声を認識する状態が指示されていると判断
された場合、音声認識の結果に対応して所定の処理を実
行するプログラムが起動され、かつ、アクティブな状態
になっているか否かを判断する第2の判断ステップと、
第2の判断ステップの処理で音声認識の結果に対応して
所定の処理を実行するプログラムが起動され、かつ、ア
クティブな状態になっていると判断された場合、音声認
識が指示されている状態を示す第1のウィンドウを、プ
ログラムに対応する第2のウィンドウの近傍、または、
重なる位置に表示されるように表示を制御する第1の表
示制御ステップと、第2の判断ステップの処理で音声認
識の結果に対応して所定の処理を実行するプログラムは
起動されていない、または、起動されてはいるがアクテ
ィブな状態ではないと判断された場合、第1のウィンド
ウが予め定められた所定の位置に表示されるように表示
を制御する第2の表示制御ステップとを含むことを特徴
とする。
According to a fourth aspect of the present invention, a program in a program storage medium recognizes a voice by a first determining step of determining whether a voice recognition state is instructed, and a process of the first determining step. If it is determined that the state has been instructed, a second determination step of activating a program for executing a predetermined process in accordance with the result of voice recognition and determining whether the state is active When,
If a program for executing a predetermined process corresponding to the result of speech recognition is started in the process of the second determination step and it is determined that the program is in an active state, a state in which speech recognition is instructed Is displayed in the vicinity of the second window corresponding to the program, or
A first display control step of controlling display so as to be displayed at an overlapping position and a program for executing predetermined processing corresponding to a result of voice recognition in the processing of the second determination step have not been started, or A second display control step of controlling the display so that the first window is displayed at a predetermined position when it is determined that the first window is activated but not active. It is characterized by.

【0010】請求項1に記載の情報処理装置、請求項3
に記載の情報処理方法、および請求項4に記載のプログ
ラム格納媒体においては、音声認識の結果に対応して所
定の処理を実行するプログラムが起動され、かつ、アク
ティブな状態になっていると判断された場合、音声認識
が指示されている状態を示す第1のウィンドウが、プロ
グラムに対応する表示される第2のウィンドウの近傍、
または、重なる位置に表示されるように表示が制御さ
れ、音声認識の結果に対応して所定の処理を実行するプ
ログラムは起動されていない、または、起動されてはい
るがアクティブな状態ではないと判断された場合、第1
のウィンドウが予め定められた所定の位置に表示される
ように表示が制御される。
[0010] The information processing apparatus according to claim 1, claim 3,
In the information processing method described in the above, and the program storage medium described in the claim 4, it is determined that the program for executing the predetermined processing in response to the result of the voice recognition is activated and is in an active state. In this case, the first window indicating the state where the voice recognition is instructed is located near the second window displayed corresponding to the program,
Or, the display is controlled to be displayed at an overlapping position, and a program for executing a predetermined process corresponding to a result of voice recognition is not activated, or is activated but is not in an active state. If determined, the first
The display is controlled so that this window is displayed at a predetermined position.

【0011】[0011]

【発明の実施の形態】以下、本発明に係る情報処理装置
の一実施の形態を図面を参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of an information processing apparatus according to the present invention will be described below with reference to the drawings.

【0012】図1乃至図6は、本発明を適用した携帯型
パーソナルコンピュータの構成例を表している。このパ
ーソナルコンピュータ1は、ミニノート型のパーソナル
コンピュータとされ、基本的に、本体2と、本体2に対
して開閉自在とされている表示部3により構成されてい
る。図1は、表示部3を本体2に対して開いた状態を示
す外観斜視図、図2は、図1の平面図、図3は、表示部
3を本体2に対して閉塞した状態を示す左側側面図、図
4は、表示部3を本体2に対して180度開いた状態を
示す右側側面図、図5は、図3の正面図、図6は、図4
の底面図である。
1 to 6 show examples of the configuration of a portable personal computer to which the present invention is applied. The personal computer 1 is a mini-notebook type personal computer, and basically includes a main body 2 and a display unit 3 which can be opened and closed with respect to the main body 2. 1 is an external perspective view showing a state in which the display unit 3 is opened with respect to the main body 2, FIG. 2 is a plan view of FIG. 1, and FIG. 3 shows a state in which the display unit 3 is closed with respect to the main body 2. 4 is a right side view showing the display unit 3 opened 180 degrees with respect to the main body 2, FIG. 5 is a front view of FIG. 3, and FIG.
FIG.

【0013】本体2には、各種の文字や記号などを入力
するとき操作されるキーボード4、マウスカーソルを移
動させるときなどに操作されるスティック式ポインティ
ングデバイス5が、その上面に設けられている。また、
本体2の上面には、音を出力するスピーカ8と、表示部
3に設けられているCCDビデオカメラ23で撮像すると
き操作されるシャッタボタン10がさらに設けられてい
る。
The main body 2 is provided with a keyboard 4 operated when inputting various characters and symbols, and a stick-type pointing device 5 operated when moving a mouse cursor or the like. Also,
On the upper surface of the main body 2, there are further provided a speaker 8 for outputting sound and a shutter button 10 operated when capturing an image with the CCD video camera 23 provided on the display unit 3.

【0014】表示部3の上端部には、ツメ13が設けら
れており、図3に示すように、表示部3を本体2に対し
て閉塞した状態において、ツメ13に対向する位置にお
ける本体2には、ツメ13が嵌合する孔部6が設けられ
ている。本体2の前面には、スライドレバー7が前面に
平行に移動可能に設けられており、スライドレバー7は
孔部6に嵌合したツメ13と係合してロックし、またロ
ック解除することができるようになっている。ロックを
解除することにより、表示部3を本体2に対して回動す
ることができる。ツメ13の隣りには、マイクロホン2
4が取り付けられている。このマイクロホン24は、図
6にも示すように、背面からの音も収音できるようにな
されている。
A claw 13 is provided at an upper end portion of the display unit 3. As shown in FIG. 3, when the display unit 3 is closed with respect to the main body 2, Is provided with a hole 6 into which the claw 13 is fitted. A slide lever 7 is provided on the front surface of the main body 2 so as to be movable in parallel with the front surface. The slide lever 7 engages with a claw 13 fitted in the hole 6 to lock and unlock. I can do it. By releasing the lock, the display unit 3 can be rotated with respect to the main body 2. Microphone 2 next to claw 13
4 is attached. As shown in FIG. 6, the microphone 24 can collect sound from the back.

【0015】本体2の正面にはまた、プログラマブルパ
ワーキー(PPK)9が設けられている。本体2の右側面
には、図4に示すように、排気孔11が設けられてお
り、本体2の前面下部には、図5に示すように、吸気孔
14が設けられている。さらに、排気孔11の右側に
は、PCMCIA(Personal Computer Memory Card Internat
ional Association)カード(PCカード)を挿入する
ためのスロット12が設けられている。
A programmable power key (PPK) 9 is also provided on the front of the main body 2. As shown in FIG. 4, an exhaust hole 11 is provided on the right side surface of the main body 2, and an intake hole 14 is provided at a lower part of the front surface of the main body 2 as shown in FIG. 5. Further, a PCMCIA (Personal Computer Memory Card Internat) is provided on the right side of the exhaust hole 11.
A slot 12 for inserting an ional association) card (PC card) is provided.

【0016】表示部3の正面には、画像を表示するLCD
(Liquid Crystal Display)21が設けられており、そ
の上端部には、撮像部22が、表示部3に対して回動自
在に設けられている。すなわち、この撮像部22は、LC
D21と同一の方向と、その逆の方向(背面の方向)と
の間の180度の範囲の任意の位置に回動することがで
きるようになされている。撮像部22には、CCDビデオ
カメラ23が取り付けられている。
An LCD for displaying an image is provided on the front of the display unit 3.
(Liquid Crystal Display) 21 is provided, and an imaging unit 22 is provided at the upper end thereof so as to be rotatable with respect to the display unit 3. That is, this imaging unit 22
It can rotate to any position within a range of 180 degrees between the same direction as D21 and the opposite direction (backward direction). A CCD video camera 23 is attached to the imaging unit 22.

【0017】表示部3の下側の本体側には、電源ランプ
PL、電池ランプBL、メッセージランプML、その他のLED
よりなるランプが設けられている。なお、図3に示す符
号40は、本体2の左側面に設けられた電源スイッチで
あり、図5に示す符号25は、CCDビデオカメラ23の
フォーカスを調整する調整リングである。さらに、図6
に示す符号26は、本体2内に増設メモリを取り付ける
ための開口部を被覆する蓋であり、符号41は、蓋26
のロックツメを外すためのピンを挿入する小孔である。
A power lamp is provided on the lower body side of the display unit 3.
PL, battery lamp BL, message lamp ML, other LEDs
Is provided. Reference numeral 40 shown in FIG. 3 is a power switch provided on the left side surface of the main body 2, and reference numeral 25 shown in FIG. 5 is an adjustment ring for adjusting the focus of the CCD video camera 23. Further, FIG.
Reference numeral 26 denotes a lid for covering an opening for mounting an additional memory in the main body 2, and reference numeral 41 denotes a lid 26.
This is a small hole for inserting a pin for removing the lock claw.

【0018】図7は、パーソナルコンピュータ1の内部
の構成を表している。内部バス51には、図7に示すよ
うに、CPU(Central Processing Unit)52、必要に応
じて挿入されるPCカード53、RAM(Random Access M
emory)54、およびグラフィックチップ81が接続さ
れている。この内部バス51は、外部バス55に接続さ
れており、外部バス55には、ハードディスクドライブ
(HDD)56、I/O(入出力)コントローラ57、キ
ーボードコントローラ58、スティック式ポインティン
グデバイスコントローラ59、サウンドチップ60、LC
Dコントローラ83、モデム50などが接続されてい
る。
FIG. 7 shows the internal configuration of the personal computer 1. As shown in FIG. 7, a CPU (Central Processing Unit) 52, a PC card 53 inserted as needed, and a RAM (Random Access M
emory) 54 and a graphic chip 81 are connected. The internal bus 51 is connected to an external bus 55. The external bus 55 includes a hard disk drive (HDD) 56, an I / O (input / output) controller 57, a keyboard controller 58, a stick pointing device controller 59, and a sound. Chip 60, LC
The D controller 83, the modem 50 and the like are connected.

【0019】CPU52は、各機能を統括するコントロー
ラであり、PCカード53は、オプションの機能を付加
するとき適宜装着される。
The CPU 52 is a controller that controls each function, and the PC card 53 is appropriately mounted when an optional function is added.

【0020】RAM54の中には、起動が完了した時点に
おいて、電子メールプログラム(アプリケーションプロ
グラム)54A、オートパイロットプログラム(アプリ
ケーションプログラム)54B、そしてOS(基本プロ
グラム)54Cが、HDD56から転送され、記憶され
る。
In the RAM 54, an e-mail program (application program) 54A, an auto-pilot program (application program) 54B, and an OS (basic program) 54C are transferred from the HDD 56 and stored at the time of completion of the activation. You.

【0021】電子メールプログラム54Aは、電話回線
のような通信回線などからネットワーク経由で通信文を
授受するプログラムである。電子メールプログラム54
Aは、特定機能としての着信メール取得機能を有してい
る。この着信メール取得機能は、メールサーバ93に対
して、そのメールボックス93A内に自分(利用者)宛
のメールが着信しているかどうかを確認して、自分宛の
メールがあれば取得する処理を実行する。
The electronic mail program 54A is a program for sending and receiving messages via a network from a communication line such as a telephone line. E-mail program 54
A has an incoming mail acquisition function as a specific function. This incoming mail acquisition function checks the mail server 93 to see if mail addressed to the user (user) has arrived in the mailbox 93A, and if there is mail addressed to the user, obtains the mail. Execute.

【0022】オートパイロットプログラム54Bは、予
め設定された複数の処理(またはプログラム)などを、
予め設定された順序で順次起動して、処理するプログラ
ムである。
The auto-pilot program 54B includes a plurality of preset processes (or programs).
This is a program that is started and processed sequentially in a preset order.

【0023】OS54Cは、Windows98(商標)に代
表される、コンピュータの基本的な動作を制御するもの
である。
The OS 54C controls the basic operation of a computer typified by Windows 98 (trademark).

【0024】一方、外部バス55側のハードディスクド
ライブ(HDD)56には、電子メールプログラム56
A、オートパイロットプログラム56B、OS56Cが
記憶されている。ハードディスクドライブ56内のOS
56C、オートパイロットプログラム56B、および電
子メールプログラム56Aは、起動(ブートアップ)処
理の過程で、RAM54内に順次転送され、格納される。
On the other hand, a hard disk drive (HDD) 56 on the external bus 55 side has an electronic mail program 56
A, an autopilot program 56B, and an OS 56C are stored. OS in the hard disk drive 56
56C, the auto-pilot program 56B, and the e-mail program 56A are sequentially transferred and stored in the RAM 54 in the course of the startup (boot-up) process.

【0025】I/Oコントローラ57は、マイクロコン
トローラ61を有し、このマイクロコントローラ61に
は、I/Oインタフェース62が設けられている。この
マイクロコントローラ61は、I/Oインタフェース6
2、CPU63、RAM64、ROM69が相互に接続されて構
成されている。このRAM64は、キー入力ステイタスレ
ジスタ65、LED(発光ダイオード)制御レジスタ6
6、設定時刻レジスタ67、レジスタ68を有してい
る。設定時刻レジスタ67は、ユーザが予め設定した時
刻(起動条件)になると起動シーケンス制御部76の動
作を開始させる際に利用される。レジスタ68は、予め
設定された操作キーの組み合わせ(起動条件)と、起動
すべきアプリケーションプログラムの対応を記憶するも
ので、その記憶された操作キーの組み合わせがユーザに
より入力されると、その記憶されたアプリケーションプ
ログラム(例えば電子メール)が起動されることにな
る。
The I / O controller 57 has a microcontroller 61, and the microcontroller 61 is provided with an I / O interface 62. This microcontroller 61 includes an I / O interface 6
2, the CPU 63, the RAM 64, and the ROM 69 are connected to each other. The RAM 64 includes a key input status register 65 and an LED (light emitting diode) control register 6.
6, a set time register 67 and a register 68 are provided. The set time register 67 is used to start the operation of the start-up sequence control unit 76 at a time (start-up condition) set by the user in advance. The register 68 stores a correspondence between a preset operation key combination (start condition) and an application program to be started. When the stored operation key combination is input by the user, the register 68 stores the correspondence. The activated application program (for example, e-mail) is activated.

【0026】キー入力ステイタスレジスタ65は、ワン
タッチ操作用のプログラマブルパワーキー(PPK)9が
押されると、操作キーフラグが格納されるようになって
いる。LED制御レジスタ66は、レジスタ68に記憶さ
れたアプリケーションプログラム(電子メール)の立ち
上げ状態を表示するメッセージランプMLの点灯を制御す
るものである。設定時刻レジスタ67は、所定の時刻を
任意に設定することができるものである。
When the programmable power key (PPK) 9 for one-touch operation is pressed, the key input status register 65 stores an operation key flag. The LED control register 66 controls the lighting of a message lamp ML that indicates the activation state of the application program (e-mail) stored in the register 68. The set time register 67 can arbitrarily set a predetermined time.

【0027】なお、このマイクロコントローラ61に
は、バックアップ用のバッテリ74が接続されており、
各レジスタ65,66,67の値は、本体2の電源がオ
フとされている状態においても保持されるようになって
いる。
A backup battery 74 is connected to the microcontroller 61.
The values of the registers 65, 66, and 67 are retained even when the power of the main unit 2 is turned off.

【0028】マイクロコントローラ61内のROM69の
中には、ウェイクアッププログラム70、キー入力監視
プログラム71、LED制御プログラム72が予め格納さ
れている。このROM69は、例えばEEPROM(electricall
y erasable and programmable read only memory)で構
成されている。このEEPROMはフラッシュメモリとも呼ば
れている。さらにマイクロコントローラ61には、常時
現在時刻をカウントするRTC(Real-Time Clock)75が
接続されている。
The ROM 69 in the microcontroller 61 stores a wake-up program 70, a key input monitoring program 71, and an LED control program 72 in advance. The ROM 69 is, for example, an EEPROM (electricall
y erasable and programmable read only memory). This EEPROM is also called a flash memory. Further, an RTC (Real-Time Clock) 75 that constantly counts the current time is connected to the microcontroller 61.

【0029】ROM69の中のウェイクアッププログラム
70は、RTC75から供給される現在時刻データに基づ
いて、設定時刻レジスタ67に予め設定された時刻にな
ったかどうかをチェックして、設定された時刻になる
と、所定の処理(またはプログラム)などの起動をする
プログラムである。キー入力監視プログラム71は、PP
K9が利用者により押されたかどうかを常時監視するプ
ログラムである。LED制御プログラム72は、メッセー
ジランプMLの点灯を制御するプログラムである。
The wake-up program 70 in the ROM 69 checks, based on the current time data supplied from the RTC 75, whether or not the time set in the set time register 67 has been reached. , A program for starting a predetermined process (or a program). The key input monitoring program 71
This is a program for constantly monitoring whether or not K9 has been pressed by the user. The LED control program 72 is a program for controlling lighting of the message lamp ML.

【0030】ROM69には、さらにBIOS(Basic Input O
utput System)73が書き込まれている。このBIOS73
は、電源投入時にOS56Cを起動したり、起動した
後、各種アプリケーションソフトウェアと周辺機器(デ
ィスプレイ、キーボード、ハードディスクドライブな
ど)の間でデータを授受する等の機能を有する。
The ROM 69 further includes a BIOS (Basic Input O
utput System) 73 is written. This BIOS 73
Has a function of activating the OS 56C when the power is turned on, and transmitting and receiving data between various application software and peripheral devices (display, keyboard, hard disk drive, etc.) after the activation.

【0031】外部バス55に接続されているキーボード
コントローラ58は、キーボード4からの入力をコント
ロールする。スティック式ポインティングデバイスコン
トローラ59は、スティック式ポインティングデバイス
5の入力を制御する。
A keyboard controller 58 connected to the external bus 55 controls an input from the keyboard 4. The stick pointing device controller 59 controls an input of the stick pointing device 5.

【0032】サウンドチップ60は、マイクロホン24
からの入力を取り込み、あるいは内蔵スピーカ8に対し
て音声信号を供給する。
The sound chip 60 includes the microphone 24
Or an audio signal is supplied to the built-in speaker 8.

【0033】モデム50は、公衆電話回線90、インタ
ーネットサービスプロバイダ91を介して、インターネ
ットなどの通信ネットワーク92やメールサーバ93な
どに接続することができる。
The modem 50 can be connected to a communication network 92 such as the Internet, a mail server 93, and the like via a public telephone line 90 and an Internet service provider 91.

【0034】内部バス51に接続されているグラフィッ
クチップ81には、CCDビデオカメラ23で取り込んだ
画像データが、処理部82で処理された後、ZV(Zo
omed Video)ポートを介して入力されるよう
になされている。グラフィックチップ81は、処理部8
2を介してCCDビデオカメラ23より入力されたビデオ
データを、内蔵するVRAM81に記憶し、適宜、これを読
み出して、LCDコントローラ83に出力する。LCDコント
ローラ83は、グラフィックチップ81より供給された
画像データをLCD21に出力し、表示させる。バックラ
イト84は、LCD21を後方から照明するようになされ
ている。
After the image data captured by the CCD video camera 23 is processed by the processing unit 82, the graphics chip 81 connected to the internal bus 51
omed Video) port. The graphic chip 81 includes the processing unit 8
Video data input from the CCD video camera 23 via the VRAM 2 is stored in the built-in VRAM 81, read out as appropriate, and output to the LCD controller 83. The LCD controller 83 outputs the image data supplied from the graphic chip 81 to the LCD 21 for display. The backlight 84 illuminates the LCD 21 from behind.

【0035】電源スイッチ40は、電源をオンまたはオ
フするとき操作される。半押しスイッチ85は、シャッ
タボタン10が半押し状態にされたときオンされ、全押
しスイッチ86は、シャッタボタン10が全押し状態に
されたときオンされる。反転スイッチ87は、撮像部2
2が180度回転されたとき(CCDビデオカメラ23がL
CD21の反対側を撮像する方向に回転されたとき)、オ
ンされるようになされている。
The power switch 40 is operated when the power is turned on or off. The half-press switch 85 is turned on when the shutter button 10 is half-pressed, and the full-press switch 86 is turned on when the shutter button 10 is fully pressed. The reversing switch 87 is connected to the imaging unit 2
2 is rotated 180 degrees (CCD video camera 23
It is turned on when it is rotated in the direction of imaging the opposite side of the CD 21).

【0036】ドライブ88は、外部バス55に接続され
ている。ドライブ88は、磁気ディスク351(フロッ
ピディスクを含む)、光ディスク352(CD-ROM(Compa
ct Disc-Read Only Memory)、DVD(Digital Versatile D
isc)を含む)、光磁気ディスク353(MD(Mini-Dis
c)を含む)、または半導体メモリ354などが装着さ
れ、装着された磁気ディスク351、光ディスク35
2、光磁気ディスク353、または半導体メモリ354
などに記録されているプログラムまたはデータを、外部
バス55または内部バス51を介して、HDD56またはR
AM54に供給する。
The drive 88 is connected to the external bus 55. The drive 88 includes a magnetic disk 351 (including a floppy disk) and an optical disk 352 (CD-ROM (Compa
ct Disc-Read Only Memory), DVD (Digital Versatile D)
isc)), magneto-optical disk 353 (MD (Mini-Dis
c)) or a semiconductor memory 354 or the like, and the mounted magnetic disk 351 and optical disk 35
2. Magneto-optical disk 353 or semiconductor memory 354
Program or data recorded in the HDD 56 or the R via the external bus 55 or the internal bus 51.
Supply to AM54.

【0037】ドライブ88は、外部バス55または内部
バス51を介して、モデム50、HDD56、またはRAM5
4から供給されたプログラムまたはデータなどを、装着
された磁気ディスク351、光ディスク352、光磁気
ディスク353、または半導体メモリ354などに記録
させる。
The drive 88 is connected to the modem 50, the HDD 56, or the RAM 5 via the external bus 55 or the internal bus 51.
4 is recorded on the mounted magnetic disk 351, optical disk 352, magneto-optical disk 353, semiconductor memory 354, or the like.

【0038】図8は、音声認識に係るプログラムをパー
ソナルコンピュータ1が起動させたときの、所定のプロ
グラムによる機能ブロックを示す図である。音声認識エ
ンジン101は、読み仮名辞書データベース111に予
め記憶されている漢字に対する読み、またはエンジン用
認識単語・文法データベース112に予め記憶されてい
る認識単語、若しくは文法を基に、マイクロホン24か
ら入力された使用者の音声に対応するデータを入力し、
使用者が発話した言葉に対応するテキストなどの所定の
方式のデータを生成して、音声コマンダ102に供給す
る。
FIG. 8 is a diagram showing functional blocks according to a predetermined program when the personal computer 1 starts a program relating to voice recognition. The speech recognition engine 101 is input from the microphone 24 based on the reading of the kanji stored in the reading kana dictionary database 111 in advance, or the recognition word or grammar stored in the engine recognition word / grammar database 112 in advance. Enter the data corresponding to the user's voice
The data in a predetermined format such as text corresponding to the words spoken by the user is generated and supplied to the voice commander 102.

【0039】音声認識エンジン101は、音声コマンダ
102から認識単語、若しくは文法などのデータを受信
して、読み仮名辞書データベース111またはエンジン
用認識単語・文法データベース112に記憶させる。
The voice recognition engine 101 receives data such as a recognized word or grammar from the voice commander 102 and stores the data in the reading kana dictionary database 111 or the recognized word / grammar database 112 for the engine.

【0040】音声コマンダ102は、使用者が発話した
所定の言葉に対応する単語(テキストなど)などのデー
タが音声認識エンジン101から供給されたとき、静止
画撮影プログラム103、静止画閲覧プログラム10
4、若しくは電子ペットプログラム105を起動させ、
または静止画撮影プログラム103、静止画閲覧プログ
ラム104、若しくは電子ペットプログラム105に所
定コマンド(使用者が発話した言葉に対応する)を送信
する。
When data such as a word (text or the like) corresponding to a predetermined word spoken by the user is supplied from the voice recognition engine 101, the voice commander 102 executes the still image photographing program 103 and the still image browsing program 10
4 or start the electronic pet program 105,
Alternatively, a predetermined command (corresponding to a word spoken by the user) is transmitted to the still image photographing program 103, the still image browsing program 104, or the electronic pet program 105.

【0041】音声コマンダ102は、使用者が発話した
他の所定の言葉に対応する単語(テキストなど)などの
データが音声認識エンジン101から供給されたとき、
ランチャ設定データベース113に記憶されている起動
に関する設定に基づき、電子メールプログラム54A、
ワードプロセッサプログラム106、または表計算プロ
グラム107を起動させ、電子メールプログラム54A
にメールアドレスなどの所定のデータを供給する。
When the voice commander 102 receives data such as a word (text or the like) corresponding to another predetermined word spoken by the user from the voice recognition engine 101,
The e-mail program 54A, based on the setting related to the activation stored in the launcher setting database 113,
Activate the word processor program 106 or the spreadsheet program 107 and execute the e-mail program 54A.
Is supplied with predetermined data such as a mail address.

【0042】また、音声コマンダ102は、グラフィカ
ルなユーザインターフェースを有し、使用者により、グ
ラフィカルなユーザインターフェースを介して種々の設
定がなされ、使用者により設定された内容を分類して、
アプリケーションプログラム(電子メールプログラム5
4A、ワードプロセッサプログラム106、または表計
算プログラム107)の起動に関する設定をランチャ設
定データベース113に、漢字の読み、または静止画撮
影プログラム103、静止画閲覧プログラム104、若
しくは電子ペットプログラム105のコマンドなどに関
する設定を辞書設定データベース114に、音声認識す
る単語または文法に関する設定を認識単語・文法データ
ベース115にそれぞれ記憶させる。
The voice commander 102 has a graphical user interface. Various settings are made by the user through the graphical user interface, and the contents set by the user are classified.
Application program (E-mail program 5
4A, the settings related to the activation of the word processor program 106 or the spreadsheet program 107) in the launcher setting database 113, the settings related to reading of kanji, or commands of the still image photographing program 103, the still image browsing program 104, or the electronic pet program 105 Is stored in the dictionary setting database 114, and the setting relating to the word or grammar to be recognized is stored in the recognition word / grammar database 115, respectively.

【0043】音声コマンダ102は、所定のタイミング
で、例えば、音声認識エンジン101に音声を認識させ
るとき、認識単語・文法データベース115に記憶して
いる認識単語のデータおよび文法のデータを、音声認識
エンジン101に送信する。
When the voice commander 102 causes the voice recognition engine 101 to recognize a voice at a predetermined timing, for example, the voice commander 102 converts the recognition word data and the grammar data stored in the recognition word / grammar database 115 into the voice recognition engine 101. Send to 101.

【0044】音声認識エンジン101は、OS54Cを
起動するとき入力される使用者を判別するデータに基づ
いて、その使用者用の読み仮名辞書データベース111
およびエンジン用認識単語・文法データベース112を
利用する。音声コマンダ102は、OS54Cを起動す
るとき入力される使用者を判別するデータに基づいて、
その使用者用のランチャ設定データベース113、辞書
設定データベース114、および認識単語・文法データ
ベース115を利用する。
The speech recognition engine 101 reads the kana dictionary database 111 for the user based on the data inputted when the OS 54C is started to determine the user.
And the engine recognition word / grammar database 112 is used. The voice commander 102 determines the user based on data input when the OS 54C is started,
The launcher setting database 113, dictionary setting database 114, and recognized word / grammar database 115 for the user are used.

【0045】仮名辞書データベース111、エンジン用
認識単語・文法データベース112、ランチャ設定デー
タベース113、辞書設定データベース114、および
認識単語・文法データベース115は、パーソナルコン
ピュータ1の使用者毎に生成され、HDD56に記録され
る。
A kana dictionary database 111, an engine recognition word / grammar database 112, a launcher setting database 113, a dictionary setting database 114, and a recognition word / grammar database 115 are generated for each user of the personal computer 1 and recorded on the HDD 56. Is done.

【0046】静止画撮影プログラム103は、CCDビデ
オカメラ23から入力された画像を、シャッタボタン1
0などの操作に対応した信号に基づき、静止画像のデー
タを生成して、所定のファイルとしてHDD56に記録す
る。
The still image shooting program 103 converts the image input from the CCD video camera 23 into the shutter button 1
Based on a signal corresponding to an operation such as 0, data of a still image is generated and recorded in the HDD 56 as a predetermined file.

【0047】静止画閲覧プログラム104は、静止画撮
影プログラム103が記録させた静止画像のファイルを
選択し、または使用者に選択させ、選択された静止画像
をLCD21に表示させる。電子ペットプログラム105
は、LCD21に仮想的なペットを表示させ、使用者の操
作に対応して、仮想的なペットに指示などを与える。
The still image browsing program 104 selects a file of the still image recorded by the still image photographing program 103 or allows the user to select the file, and causes the LCD 21 to display the selected still image. Electronic pet program 105
Displays a virtual pet on the LCD 21 and gives an instruction to the virtual pet in response to a user operation.

【0048】ワードプロセッサプログラム106は、文
字または図形などから成る文書を編集するためのプログ
ラムである。表計算プログラム107は、所定の形式の
表に配置された数値に所定の演算を実行する、または配
置された数値に対応するグラフを描写するなどの機能を
有する。
The word processor program 106 is a program for editing a document composed of characters or figures. The spreadsheet program 107 has a function of executing a predetermined operation on numerical values arranged in a table of a predetermined format, or drawing a graph corresponding to the arranged numerical values.

【0049】図9は、音声コマンダ102のより詳細な
機能を説明する図である。UI(ユーザインターフェー
ス)処理部123は、アプリケーション通信部121、
エンジン通信部122、音声ランチャ制御部124、ユ
ーザ辞書制御部125、または認識テスト処理部126
から所定のデータを入力するとともに、キーボード4ま
たはスティック式ポインティングデバイス5などから所
定の信号を入力して、マイクロフォン24を介して入力
された音声の大きさまたは音声認識の結果などを、所定
のウィンドウに表示させる。UI処理部123は、所定
のプログラムを起動させるとき、アプリケーション通信
部121、または音声ランチャ制御部124から入力さ
れたデータを基に、所定の画像をLCD21に表示させ
る。
FIG. 9 is a diagram for explaining more detailed functions of the voice commander 102. The UI (user interface) processing unit 123 includes an application communication unit 121,
Engine communication unit 122, voice launcher control unit 124, user dictionary control unit 125, or recognition test processing unit 126
And a predetermined signal from the keyboard 4 or the stick-type pointing device 5 and the like, and the loudness of the voice input through the microphone 24 or the result of voice recognition is displayed in a predetermined window. To be displayed. When activating a predetermined program, the UI processing unit 123 displays a predetermined image on the LCD 21 based on data input from the application communication unit 121 or the audio launcher control unit 124.

【0050】UI処理部123は、キーボード4または
ステッィク式ポインティングデバイス5などの操作に対
応した信号を基に、UI処理部123自身の状態を変化
させ、所定のデータをアプリケーション通信部121、
エンジン通信部122、音声ランチャ制御部124、ユ
ーザ辞書制御部125、または認識テスト処理部126
に供給する。
The UI processing unit 123 changes the state of the UI processing unit 123 itself on the basis of a signal corresponding to the operation of the keyboard 4 or the stick type pointing device 5, and transmits predetermined data to the application communication unit 121.
Engine communication unit 122, voice launcher control unit 124, user dictionary control unit 125, or recognition test processing unit 126
To supply.

【0051】また、UI処理部123は、静止画撮影プ
ログラム103、静止画閲覧プログラム104、および
電子ペットプログラム105の状態、並びにエンジン通
信部122を介して音声認識エンジン101から供給さ
れた、使用者が発話した所定の言葉に対応する所定のテ
キストなどのデータを基に、アプリケーション通信部1
21または音声ランチャ制御部124に、コマンドを送
信または所定のプログラムの起動をさせるか否かを決定
し、アプリケーション通信部121または音声ランチャ
制御部124にコマンドを送信させ、または所定のプロ
グラムの起動させる。
Further, the UI processing unit 123 controls the state of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105, and the user supplied from the voice recognition engine 101 via the engine communication unit 122. Based on data such as a predetermined text corresponding to a predetermined word spoken by the application communication unit 1
21 or the voice launcher control unit 124 determines whether to transmit a command or activate a predetermined program, and causes the application communication unit 121 or the voice launcher control unit 124 to transmit the command or activate a predetermined program. .

【0052】アプリケーション通信部121は、静止画
撮影プログラム103、静止画閲覧プログラム104、
または電子ペットプログラム105を起動させ、起動し
ている静止画撮影プログラム103、静止画閲覧プログ
ラム104、または電子ペットプログラム105と通信
を行い、静止画撮影プログラム103、静止画閲覧プロ
グラム104、または電子ペットプログラム105から
それぞれの状態を示すデータを受信する。
The application communication unit 121 includes a still image photographing program 103, a still image browsing program 104,
Alternatively, the electronic pet program 105 is activated, and communicates with the activated still image photographing program 103, still image browsing program 104, or electronic pet program 105, and the still image photographing program 103, the still image browsing program 104, or the electronic pet is activated. Data indicating each state is received from the program 105.

【0053】アプリケーション通信部121は、静止画
撮影プログラム103、静止画閲覧プログラム104、
および電子ペットプログラム105の状態を示すデータ
などをエンジン通信部122またはUI処理部123に
供給するとともに、エンジン通信部122またはUI処
理部123から、使用者が発話した所定の言葉に対応す
る所定のテキストなどのデータ、または使用者のキーボ
ード4などへの操作に対応するデータなどを受信する。
The application communication unit 121 includes a still image photographing program 103, a still image browsing program 104,
In addition to supplying data indicating the state of the electronic pet program 105 to the engine communication unit 122 or the UI processing unit 123, the engine communication unit 122 or the UI processing unit 123 outputs predetermined data corresponding to a predetermined word spoken by the user. It receives data such as text, data corresponding to a user's operation on the keyboard 4, and the like.

【0054】また、アプリケーション通信部121は、
静止画撮影プログラム103、静止画閲覧プログラム1
04、および電子ペットプログラム105の状態、並び
にエンジン通信部122を介して音声認識エンジン10
1から供給された、使用者が発話した所定の言葉に対応
する所定のテキストなどのデータを基に、静止画撮影プ
ログラム103、静止画閲覧プログラム104、若しく
は電子ペットプログラム105のいずれかを起動させ、
または静止画撮影プログラム103、静止画閲覧プログ
ラム104、若しくは電子ペットプログラム105のい
ずれかに所定のコマンドを供給する。
Also, the application communication unit 121
Still image shooting program 103, still image viewing program 1
04, the state of the electronic pet program 105, and the voice recognition engine 10 via the engine communication unit 122.
On the basis of data such as a predetermined text corresponding to a predetermined word spoken by the user supplied from 1, one of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105 is activated. ,
Alternatively, a predetermined command is supplied to any one of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105.

【0055】静止画撮影プログラム103、静止画閲覧
プログラム104、および電子ペットプログラム105
のいずれもが、フォーカスがあてられていないとき(い
ずれもアクティブでないとき)、音声コマンダ102
は、静止画撮影プログラム103、静止画閲覧プログラ
ム104、または電子ペットプログラム105のいずれ
かを対象としたコマンドを実行できない。
The still image photographing program 103, the still image browsing program 104, and the electronic pet program 105
Are not focused (when neither is active), the voice commander 102
Cannot execute a command for any one of the still image shooting program 103, the still image browsing program 104, and the electronic pet program 105.

【0056】静止画撮影プログラム103、静止画閲覧
プログラム104、および電子ペットプログラム105
のいずれかが、フォーカスがあてられているとき(いず
れかがアクティブであるとき)、音声コマンダ102
は、アクティブである、静止画撮影プログラム103、
静止画閲覧プログラム104、または電子ペットプログ
ラム105のいずれかを対象としたコマンドを実行する
ことができる。
A still image photographing program 103, a still image browsing program 104, and an electronic pet program 105
Are focused (when either is active), the voice commander 102
Is an active still image shooting program 103,
A command for either the still image browsing program 104 or the electronic pet program 105 can be executed.

【0057】このような静止画撮影プログラム103、
静止画閲覧プログラム104、または電子ペットプログ
ラム105のいずれかの特定のプログラムを対象とした
コマンドをローカルなコマンドと称する。
Such a still image photographing program 103,
A command for a specific one of the still image browsing program 104 and the electronic pet program 105 is referred to as a local command.

【0058】なお、音声コマンダ102がローカルなコ
マンドを送信するプログラムを特定する方法は、フォー
カスに限らず、他の状態またはデータを参照するように
してもよい。
The method by which the voice commander 102 specifies a program for transmitting a local command is not limited to the focus, but may refer to another state or data.

【0059】エンジン通信部122は、所定の方式を基
づいて、認識単語・文法データベース115から認識単
語のデータおよび文法のデータを読み出して、そのデー
タを音声認識エンジン101に送信するとともに、音声
認識エンジン101から供給された使用者が発話した所
定の言葉に対応する所定のテキストなどのデータを受信
する。
The engine communication unit 122 reads the recognized word data and the grammatical data from the recognized word / grammar database 115 based on a predetermined method, transmits the data to the voice recognition engine 101, and transmits the data to the voice recognition engine 101. Data such as a predetermined text corresponding to a predetermined word spoken by the user supplied from 101 is received.

【0060】エンジン通信部122は、例えば、図10
に例を示すMicrosoft Speech API(商標)(以下、SAPI
と称する)に規定された方式で、音声認識エンジン10
1に認識単語・文法データベース115に記憶されてい
る認識単語のデータおよび文法のデータを送信する。図
10に示すデータの例には、音声認識の対象が<Global>
および<SVCommand>から構成され、<Global>が更に(Chan
geWin),(VoiceCommand)から構成され、<SVCommand>が
「ヘルプ」、「前へ」などのコマンドの他、<SendMail>
で表されるメールのコマンドも含むことが記述されてい
る。また、図10に示すデータの例には、「ヘルプ」と
いうコマンドのコード番号が102であり、「パパ」と
いう読みを有する単語に「daddy@test.company.co.jp」
という文字列が関連していることなどが示されている。
The engine communication unit 122 is, for example, as shown in FIG.
Microsoft Speech API (trademark) (hereafter, SAPI
The speech recognition engine 10
1, the data of the recognized word and the data of the grammar stored in the recognized word / grammar database 115 are transmitted. In the data example shown in FIG. 10, the target of speech recognition is <Global>
And <SVCommand>, and <Global> is further (Chan
geWin), (VoiceCommand), where <SVCommand> is a command such as "Help" or "Previous", and <SendMail>
It is described that it also includes the mail command represented by. In the example of the data shown in FIG. 10, the code number of the command “help” is 102, and the word having the pronunciation “dad” is “daddy@test.company.co.jp”.
It is shown that the character string is related.

【0061】音声認識エンジン101は、エンジン通信
部122から受信したデータを、所定の方式のデータに
変換して、読み仮名辞書データベース111またはエン
ジン用認識単語・文法データベース112に記憶させ、
読み仮名辞書データベース111またはエンジン用認識
単語・文法データベース112に記憶しているデータに
基づき、音声認識の処理を実行する。
The speech recognition engine 101 converts the data received from the engine communication unit 122 into data of a predetermined method, and stores the data in the reading kana dictionary database 111 or the recognized word / grammar database 112 for the engine.
Based on the data stored in the reading kana dictionary database 111 or the engine recognition word / grammar database 112, a speech recognition process is executed.

【0062】音声認識エンジン101は、エンジン通信
部122に、使用者が発話した所定の言葉に対応する、
コード番号(例えば、102など)、認識した単語また
は文(例えば、”パパにメール”など)、および認識し
た単語に関連する文字列(例えば、”daddy@test.compa
ny.co.jp”)のデータを送信する。
The speech recognition engine 101 causes the engine communication unit 122 to correspond to a predetermined word spoken by the user.
A code number (eg, 102), a recognized word or sentence (eg, “Email Dad”), and a character string associated with the recognized word (eg, “daddy@test.compa”)
ny.co.jp ”).

【0063】例えば、使用者がマイクロフォン24に向
かって「パパにメール」という音声を入力して、音声認
識エンジン101が正しく音声を認識したとき、音声認
識エンジン101は、7fffffff(16進数)、”パパに
メール”、および”daddy@test.company.co.jp”をエン
ジン通信部122に送信する。
For example, when the user inputs a voice of “mail to dad” into the microphone 24 and the voice recognition engine 101 correctly recognizes the voice, the voice recognition engine 101 outputs 7fffffff (hexadecimal), “ "E-mail to dad" and "daddy@test.company.co.jp" are transmitted to engine communication unit 122.

【0064】エンジン通信部122は、音声認識エンジ
ン101から受信したデータを基に、受信したデータを
アプリケーション通信部121、UI処理部123、音
声ランチャ制御部124、ユーザ辞書制御部125、ま
たは認識テスト処理部126のいずれに送信するかを判
断し、その判断に基づいて、音声認識エンジン101か
ら受信したデータを所定の方式に変換して、選択された
アプリケーション通信部121、UI処理部123、音
声ランチャ制御部124、ユーザ辞書制御部125、ま
たは認識テスト処理部126のいずれかに変換したデー
タを供給する。
The engine communication unit 122 converts the received data based on the data received from the speech recognition engine 101 into an application communication unit 121, a UI processing unit 123, a speech launcher control unit 124, a user dictionary control unit 125, or a recognition test. It determines which of the processing units 126 to transmit, and based on the determination, converts the data received from the speech recognition engine 101 into a predetermined method, and selects the selected application communication unit 121, UI processing unit 123, The converted data is supplied to any one of the launcher control unit 124, the user dictionary control unit 125, and the recognition test processing unit 126.

【0065】音声ランチャ制御部124は、グラフィカ
ルなユーザインターフェースを表示させて使用者により
入力された、アプリケーションプログラム(電子メール
プログラム54A、ワードプロセッサプログラム10
6、または表計算プログラム107)の起動に関する設
定をランチャ設定データベース113に保存させるとと
もに、その設定に基づき、認識単語・文法データベース
115に記憶されている音声認識する単語または文法に
関する設定を更新させる。
The voice launcher control unit 124 displays an application program (e-mail program 54A, word processor program 10
6, or the setting relating to the activation of the spreadsheet program 107) is stored in the launcher setting database 113, and the setting relating to the speech recognition word or grammar stored in the recognition word / grammar database 115 is updated based on the setting.

【0066】音声ランチャ制御部124は、エンジン通
信部122からランチャに関するデータを受信したと
き、ランチャ設定データベース113に記憶されている
起動に関する設定に基づき、電子メールプログラム54
A、ワードプロセッサプログラム106、または表計算
プログラム107のいずれかを起動させ、電子メールプ
ログラム54Aにメールアドレスなどを供給する。
When the data related to the launcher is received from the engine communication unit 122, the voice launcher control unit 124 executes the e-mail program 54 based on the setting related to the activation stored in the launcher setting database 113.
A, activates any one of the word processor program 106 and the spreadsheet program 107 and supplies a mail address and the like to the e-mail program 54A.

【0067】音声コマンダ102は、フォーカスの状態
にかかわらず(いずれのプログラムがアクティブであっ
ても)、電子メールプログラム54A、ワードプロセッ
サプログラム106、または表計算プログラム107の
いずれかを起動させるコマンドを実行することができ
る。
The voice commander 102 executes a command to activate any one of the electronic mail program 54A, the word processor program 106, and the spreadsheet program 107, regardless of the focus state (no matter which program is active). be able to.

【0068】このような、フォーカスの状態などにかか
わらず、常に実行することができる、例えば、電子メー
ルプログラム54A、ワードプロセッサプログラム10
6、または表計算プログラム107のいずれかを起動さ
せるコマンドをグローバルなコマンドと称する。
Regardless of the focus state, the program can be always executed. For example, the electronic mail program 54A, the word processor program 10
6 or a command for activating one of the spreadsheet programs 107 is referred to as a global command.

【0069】ユーザ辞書制御部125は、グラフィカル
なユーザインターフェースを表示させ使用者により入力
された、認識する音声に関する設定を辞書設定データベ
ース114に記憶させるとともに、その設定に基づき、
認識単語・文法データベース115に記憶されている音
声認識する単語または文法に関する設定を更新させる。
The user dictionary control unit 125 displays a graphical user interface, stores the setting relating to the recognized voice input by the user in the dictionary setting database 114, and based on the setting,
The setting related to the word or grammar for speech recognition stored in the recognition word / grammar database 115 is updated.

【0070】認識テスト処理部126は、使用者により
テストを実行する旨がユーザ辞書制御部125に入力さ
れたとき、グラフィカルなユーザインターフェースを表
示させて、辞書設定データベース114に記憶され、選
択されている所定の1の単語と、エンジン通信部122
を介して、音声認識エンジン101から供給された、音
声を認識した結果を示す単語とが一致するか否かを判定
し、その判定の結果を表示する。
When the user inputs a command to execute a test to the user dictionary control unit 125, the recognition test processing unit 126 displays a graphical user interface, and stores the graphical user interface in the dictionary setting database 114. The predetermined one word and the engine communication unit 122
And determines whether the word supplied from the voice recognition engine 101 matches the word indicating the result of the voice recognition, and displays the result of the determination.

【0071】また、認識テスト処理部126は、使用者
によりテストを実行する旨がユーザ辞書制御部125に
入力されたとき、グラフィカルなユーザインターフェー
スを表示させて、エンジン通信部122を介して、音声
認識エンジン101から供給された、音声を認識した結
果を示す単語が、辞書設定データベース114に記憶さ
れ、選択されている所定の1以上の単語に含まれるか否
かを判定し、その判定の結果を表示する。
When the user inputs a command to the user dictionary control unit 125 to execute a test, the recognition test processing unit 126 displays a graphical user interface and outputs a voice via the engine communication unit 122. It is determined whether or not the word indicating the result of the voice recognition supplied from the recognition engine 101 is stored in the dictionary setting database 114 and is included in one or more selected predetermined words. Is displayed.

【0072】音声コマンダ102が起動されると、UI
処理部123は、LCD21に起動中を示す画像を表示さ
せるとともに、図11に示す音声コマンダ102のウィ
ンドウを表示させ、音声認識エンジン101の起動を待
つ状態1に遷移する。
When the voice commander 102 is activated, the UI
The processing unit 123 causes the LCD 21 to display an image indicating that the voice commander is running, displays the window of the voice commander 102 shown in FIG.

【0073】音声コマンダウィンドウ161は、レベル
ゲージ162、認識結果表示部163、ランチャ設定ボ
タン164、辞書管理ボタン165、ヘルプボタン16
6、最小化ボタン167、閉じるボタン168、認識状
態表示部169、および音声入力モード切り換えボタン
170を有する。
The voice commander window 161 includes a level gauge 162, a recognition result display section 163, a launcher setting button 164, a dictionary management button 165, and a help button 16.
6, a minimize button 167, a close button 168, a recognition state display section 169, and a voice input mode switching button 170.

【0074】レベルゲージ162は、マイクロフォン2
4を介して入力された使用者の音声のレベル(マイクロ
フォン24が出力する信号の振幅)を表示する。認識結
果表示部163は、エンジン通信部122から供給され
た認識された音声に対応する単語または文を表示する。
ランチャ設定ボタン164は、電子メールプログラム5
4A、ワードプロセッサプログラム106、または表計
算プログラム107の起動に関する設定をするとき、操
作される。
The level gauge 162 is connected to the microphone 2
4 shows the level of the user's voice input via the microphone 4 (the amplitude of the signal output from the microphone 24). The recognition result display unit 163 displays a word or a sentence corresponding to the recognized voice supplied from the engine communication unit 122.
The launcher setting button 164 is used for the e-mail program 5
4A, the word processor program 106 or the spreadsheet program 107 is operated to make settings for activation.

【0075】辞書管理ボタン165は、認識する音声に
関する設定を辞書設定データベース114に記憶させる
とき、操作される。ヘルプボタン166は、オンライン
ヘルプをLCD21に表示させるとき、操作される。最小
化ボタン167は、音声コマンダウィンドウ161をLC
D21から消去し、例えば、タスクトレイ上に所定のア
イコンを表示させるとき、操作される。閉じるボタン1
68は、音声コマンダ102を終了させるとき、操作さ
れる。
The dictionary management button 165 is operated when the setting relating to the voice to be recognized is stored in the dictionary setting database 114. The help button 166 is operated when displaying online help on the LCD 21. The minimize button 167 allows the voice commander window 161 to be
The operation is performed when the icon is deleted from D21 and a predetermined icon is displayed on the task tray, for example. Close button 1
Reference numeral 68 is operated when the voice commander 102 is terminated.

【0076】認識状態表示部169は、音声認識エンジ
ン101の状態またはローカルコマンドが使用できるか
否か(所定のプログラムがアクティブであるか否か)な
どを表示する。音声入力モード切り換えボタン170
は、常時認識モードと通常の認識モードとを切り換える
ときに、操作される。
The recognition state display section 169 displays the state of the speech recognition engine 101, whether a local command can be used (whether a predetermined program is active or not) and the like. Voice input mode switching button 170
Is operated when switching between the normal recognition mode and the normal recognition mode.

【0077】音声認識エンジン101が起動された場
合、上述したような音声コマンダウィンドウ161がLC
D21に表示される。このような状態で、閉じるボタン
168がクリックされると、UI処理部123は、音声
コマンダ102を終了させる。また、使用者が音声認識
に割り当てているキー(例えば、キーボード4のコント
ロールキーなど。以下、認識キーと称する)を押圧した
とき、UI処理部123は、音声入力可能な状態に遷移
する。
When the voice recognition engine 101 is activated, the voice commander window 161 as described above
Displayed in D21. When the close button 168 is clicked in such a state, the UI processing unit 123 ends the voice commander 102. When the user presses a key assigned to voice recognition (for example, a control key of the keyboard 4; hereinafter, referred to as a recognition key), the UI processing unit 123 transits to a state in which voice input is possible.

【0078】音声入力可能な状態に遷移するとき、UI
処理部123は、アプリケーション通信部121から静
止画撮影プログラム103、静止画閲覧プログラム10
4、および電子ペットプログラム105の内、アクティ
ブであるプログラムを示すデータを受信し、アクティブ
であるプログラムの名称を音声コマンダウィンドウ16
1の認識状態表示部169に表示させる。静止画撮影プ
ログラム103、静止画閲覧プログラム104、または
電子ペットプログラム105のいずれもアクティブでな
いとき、UI処理部123は、音声コマンダウィンドウ
161の認識状態表示部169にその旨(例えば、”Gl
obal Command”など)を表示させる。
When transitioning to a state where voice input is possible, the UI
The processing unit 123 transmits the still image photographing program 103 and the still image browsing program 10 from the application communication unit 121.
4, and data indicating the active program among the electronic pet programs 105 is received, and the name of the active program is entered in the voice commander window 16.
1 is displayed on the recognition state display unit 169. When none of the still image photographing program 103, the still image browsing program 104, or the electronic pet program 105 is active, the UI processing unit 123 displays a message to that effect on the recognition status display unit 169 of the voice commander window 161 (for example, “Gl”).
obal Command ”).

【0079】音声入力可能な状態において、使用者がマ
イクロフォン24から入力させた音声に対応する信号が
音声認識エンジン101に供給され、音声認識エンジン
101に供給された音声に対応する信号のレベルに対応
するデータが、エンジン通信部122を介して、UI処
理部123に供給される。また、UI処理部123は、
音声に対応する信号のレベルに対応するデータに基づ
き、音声コマンダウィンドウ161のレベルゲージ16
2の表示を更新する。
In a state where voice input is possible, a signal corresponding to the voice input by the user from the microphone 24 is supplied to the voice recognition engine 101, and a signal corresponding to the level of the signal supplied to the voice recognition engine 101 is provided. Is supplied to the UI processing unit 123 via the engine communication unit 122. Also, the UI processing unit 123
Based on the data corresponding to the level of the signal corresponding to the voice, the level gauge 16 of the voice commander window 161 is used.
Update the display of 2.

【0080】さらに、音声認識エンジン101が音声を
認識したとき、UI処理部123は、音声認識エンジン
101から認識した単語または文などのデータを受信
し、音声コマンダウィンドウ161の認識結果表示部1
63に認識した単語または文を表示させる。
Further, when the speech recognition engine 101 recognizes the speech, the UI processing unit 123 receives the data such as the recognized word or sentence from the speech recognition engine 101 and displays the data in the recognition result display unit 1 of the speech commander window 161.
63 displays the recognized word or sentence.

【0081】音声認識可能な状態において、使用者が認
識キーを離したとき、UI処理部123は、アプリケー
ション通信部121または音声ランチャ制御部124
に、音声認識エンジン101から供給された、コード番
号、認識した単語または文、および認識した単語に関連
する文字列のデータに対応する、所定の動作(例えば、
電子メールプログラム54Aの起動など)を要求する。
When the user releases the recognition key in a state in which the voice can be recognized, the UI processing unit 123 controls the application communication unit 121 or the voice launcher control unit 124.
A predetermined operation (for example, corresponding to the code number, the recognized word or sentence, and the character string data related to the recognized word, supplied from the voice recognition engine 101)
(E.g., activation of the e-mail program 54A).

【0082】このとき、アプリケーション通信部121
は、UI処理部123からの要求に対応して、静止画撮
影プログラム103、静止画閲覧プログラム104、若
しくは電子ペットプログラム105のいずれかを起動さ
せ、または静止画撮影プログラム103、静止画閲覧プ
ログラム104、若しくは電子ペットプログラム105
のいずれかに所定のコマンドを送信する。
At this time, the application communication unit 121
Starts one of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105 in response to a request from the UI processing unit 123, or executes the still image photographing program 103, the still image browsing program 104 Or electronic pet program 105
A predetermined command.

【0083】このとき、音声ランチャ制御部124は、
UI処理部123からの要求に対応して、電子メールプ
ログラム54A、ワードプロセッサプログラム106、
若しくは表計算プログラム107のいずれかを起動さ
せ、または電子メールプログラム54Aに所定のデータ
(例えば、メールアドレスなど)を供給する。
At this time, the voice launcher control unit 124
In response to the request from the UI processing unit 123, the e-mail program 54A, the word processor program 106,
Alternatively, one of the spreadsheet programs 107 is activated, or predetermined data (for example, a mail address) is supplied to the e-mail program 54A.

【0084】アプリケーション通信部121または音声
ランチャ制御部124が所定のプログラムに対して、所
定の動作を完了させたとき、アプリケーション通信部1
21または音声ランチャ制御部124はUI処理部12
3にその旨を通知し、UI処理部123は、動作の対象
となる所定のプログラムに応じて、動作の対象となる所
定のプログラムを使用者に認識させる画像をLCD21に
表示させる。
When the application communication unit 121 or the sound launcher control unit 124 completes a predetermined operation for a predetermined program, the application communication unit 1
21 or the voice launcher control unit 124
3 is notified to that effect, and the UI processing unit 123 causes the LCD 21 to display an image that allows the user to recognize the predetermined program to be operated according to the predetermined program to be operated.

【0085】LCD21に動作の対象となる所定のプログ
ラム認識させる画像が表示されるので、使用者は、音声
の認識の結果、および音声コマンダ102の動作を知る
ことができる。
An image for recognizing a predetermined program to be operated is displayed on the LCD 21, so that the user can know the result of voice recognition and the operation of the voice commander 102.

【0086】音声入力モード切り換えボタン170がク
リックされたとき、UI処理部123は、常時認識モー
ドである状態に遷移する。常時認識モードに遷移すると
き、UI処理部123は、アプリケーション通信部12
1から静止画撮影プログラム103、静止画閲覧プログ
ラム104、および電子ペットプログラム105の内、
アクティブであるプログラムを示すデータを受信し、ア
クティブであるプログラムの名称を認識状態表示部16
9に表示させる。静止画撮影プログラム103、静止画
閲覧プログラム104、または電子ペットプログラム1
05のいずれもアクティブでないとき、UI処理部12
3は、音声コマンダウィンドウ161の認識状態表示部
169にその旨(例えば、”Global Command”など)を
表示させる。
When the voice input mode switching button 170 is clicked, the UI processing section 123 transits to a state in which it is always in the recognition mode. When transitioning to the constant recognition mode, the UI processing unit 123
1 to a still image photographing program 103, a still image browsing program 104, and an electronic pet program 105,
Receiving data indicating the active program and recognizing the name of the active program
9 is displayed. Still image shooting program 103, still image viewing program 104, or electronic pet program 1
05 is not active, the UI processing unit 12
No. 3 causes the recognition status display section 169 of the voice commander window 161 to display the fact (for example, “Global Command”).

【0087】常時認識モードにおいては、音声コマンダ
2は、認識キーに対する操作に係わらず、音声認識エン
ジンが所定の音声を認識したとき、静止画撮影プログラ
ム103、静止画閲覧プログラム104、若しくは電子
ペットプログラム105のいずれかを起動させ、若しく
は静止画撮影プログラム103、静止画閲覧プログラム
104、若しくは電子ペットプログラム105のいずれ
かに所定のコマンドを送信し、または電子メールプログ
ラム54A、ワードプロセッサプログラム106、若し
くは表計算プログラム107のいずれかを起動させ、若
しくは電子メールプログラム54Aに所定のデータを供
給する。
In the continuous recognition mode, when the voice recognition engine recognizes a predetermined voice irrespective of the operation of the recognition key, the voice commander 2 executes the still image photographing program 103, the still image browsing program 104, or the electronic pet program. 105, or sends a predetermined command to any one of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105, or the e-mail program 54A, the word processor program 106, or the spreadsheet. Activate any of the programs 107 or supply predetermined data to the e-mail program 54A.

【0088】常時認識モードにおいて、音声入力モード
切り換えボタン170がクリックされたとき、UI処理
部123は、通常の認識モードに遷移する。
When the voice input mode switching button 170 is clicked in the continuous recognition mode, the UI processing unit 123 shifts to the normal recognition mode.

【0089】通常認識モードにおいて、音声コマンダウ
ィンドウ161の辞書管理ボタン165がクリックされ
ると、UI処理部123は、辞書を設定する状態に遷移
し、ユーザ辞書制御部125に辞書の設定の処理を要求
する。辞書を設定する状態において、ユーザ辞書制御部
125は、辞書設定用のダイアログをLCD21に表示さ
せ、辞書設定用のダイアログへの操作に基づき、辞書設
定データベース114および認識単語・文法データベー
ス115に記憶されている設定を更新する。
When the dictionary management button 165 of the voice commander window 161 is clicked in the normal recognition mode, the UI processing unit 123 makes a transition to a state in which a dictionary is set, and the user dictionary control unit 125 sends a dictionary setting process. Request. In the state of setting a dictionary, the user dictionary control unit 125 causes the LCD 21 to display a dialog for setting a dictionary, and stores the dialog in the dictionary setting database 114 and the recognized word / grammar database 115 based on an operation on the dialog for setting a dictionary. Update the settings you have.

【0090】辞書を設定する状態において、辞書設定用
のダイアログに配置されているテストボタンがクリック
されると、UI処理部123は、音声認識テストを実行
する状態に遷移し、認識テスト処理部126に音声認識
テストの処理を要求する。認識テスト処理部126は、
音声認識テストのダイアログをLCD21に表示させ、エ
ンジン通信部122を介して、音声認識エンジン101
から供給された、音声を認識した単語が、辞書設定デー
タベース114に登録されている単語と一致するか否か
を判定する音声認識のテストを実行し、その結果を表示
する。
When a test button arranged in the dictionary setting dialog is clicked in a state where a dictionary is set, the UI processing unit 123 makes a transition to a state in which a speech recognition test is executed, and the recognition test processing unit 126 Request processing of the voice recognition test. The recognition test processing unit 126
A dialog for the voice recognition test is displayed on the LCD 21, and the voice recognition engine 101 is transmitted via the engine communication unit 122.
Performs a speech recognition test for determining whether or not the word whose speech has been recognized supplied from is matched with a word registered in the dictionary setting database 114, and displays the result.

【0091】または、認識テスト処理部126は、音声
認識テストのダイアログをLCD21に表示させ、エンジ
ン通信部122を介して、音声認識エンジン101から
供給された認識した単語が、辞書設定データベース11
4に登録されている単語に含まれているか否かを判定す
る音声認識のテストを実行し、その結果を表示する。
Alternatively, the recognition test processing unit 126 causes the LCD 21 to display a dialog of the speech recognition test, and the recognized word supplied from the speech recognition engine 101 via the engine communication unit 122 is used by the dictionary setting database 11
Then, a speech recognition test for determining whether the word is included in the words registered in No. 4 is executed, and the result is displayed.

【0092】音声認識テストを実行する状態において、
音声認識テストのダイアログに配置されているテストボ
タンがクリックされると、UI処理部123は、辞書を
設定する状態に遷移する。辞書を設定する状態におい
て、辞書設定用のダイアログに配置されている閉じるボ
タンがクリックされると、UI処理部123は、通常認
識モードに遷移する。
In the state where the voice recognition test is executed,
When a test button arranged in the dialog for the voice recognition test is clicked, the UI processing unit 123 transits to a state where a dictionary is set. When the close button arranged in the dictionary setting dialog is clicked in the state where the dictionary is set, the UI processing unit 123 transits to the normal recognition mode.

【0093】通常認識モードにおいて、音声コマンダウ
ィンドウ161のランチャ設定ボタン164がクリック
されると、UI処理部123は、音声ランチャ制御部1
24の電子メールプログラム54A、ワードプロセッサ
プログラム106、または表計算プログラム107を起
動する設定を行う状態に遷移し、音声ランチャ制御部1
24にプログラムの起動の設定の処理を要求する。
When the launcher setting button 164 of the voice commander window 161 is clicked in the normal recognition mode, the UI processing unit 123 causes the voice launcher control unit 1
24 e-mail program 54A, word processor program 106, or spreadsheet program 107.
24 is requested to perform the setting process of the program activation.

【0094】起動の設定を行う状態において、音声ラン
チャ制御部124は、ランチャ設定用のダイアログをLC
D21に表示させ、ランチャ設定用のダイアログへの操
作に基づき、ランチャ設定データベース113に記憶さ
れている設定を更新する。
In a state in which the setting of starting is performed, the voice launcher control unit 124 displays a dialog for launcher setting in the LC.
D21 is displayed, and the setting stored in the launcher setting database 113 is updated based on the operation on the launcher setting dialog.

【0095】次に、パーソナルコンピュータ1のLCD2
1に表示する画面について説明する。図12は、音声コ
マンダ102、音声認識エンジン101、および電子ペ
ットプログラム105が起動しているとき、LCD21に
表示される画面を示す図である。
Next, the LCD 2 of the personal computer 1
The screen displayed in No. 1 will be described. FIG. 12 is a diagram illustrating a screen displayed on the LCD 21 when the voice commander 102, the voice recognition engine 101, and the electronic pet program 105 are running.

【0096】LCD21の画面の所定の位置に、電子メー
ルプログラム54Aに対応するアイコン181、ワード
プロセッサプログラム106に対応するアイコン18
2、表計算プログラム107に対応するアイコン18
3、音声コマンダウィンドウ161、および電子ペット
プログラム105が表示させる電子ペットウィンドウ1
91が配置される。
At a predetermined position on the screen of the LCD 21, an icon 181 corresponding to the electronic mail program 54A and an icon 18 corresponding to the word processor program 106 are displayed.
2. Icon 18 corresponding to spreadsheet program 107
3. Voice commander window 161 and electronic pet window 1 displayed by electronic pet program 105
91 are arranged.

【0097】スティック式ポインティングデバイス5な
どを操作してアイコン181を選択して、起動コマンド
を実行する(図示せぬメニューなどから選択するなどの
操作をする)と、電子メールプログラム54Aが起動さ
れる。アイコン182を選択して、起動コマンドを実行
すると、ワードプロセッサプログラム106が起動され
る。アイコン183を選択して、起動コマンドを実行す
ると、表計算プログラム107が起動される。
When the stick type pointing device 5 or the like is operated to select the icon 181 and execute a start command (an operation such as selecting from a menu or the like not shown), the e-mail program 54A is started. . When the icon 182 is selected and the start command is executed, the word processor program 106 is started. When the icon 183 is selected and a start command is executed, the spreadsheet program 107 is started.

【0098】電子ペットウィンドウ191は、仮想空間
内で生息している電子ペットが表示される表示部200
と、複数のボタン201乃至206から構成されてい
る。閉じるボタン201は、電子ペットプログラム10
5を終了させたいときに操作され、拡大ボタン202
は、電子ペットウィンドウ191の表示を拡大させたい
ときに操作され、最小化ボタン203は、電子ペットウ
ィンドウ191をLCD21上から消去し、タスクバーに
収納させたい時に操作される。
The electronic pet window 191 displays the electronic pet inhabiting the virtual space.
And a plurality of buttons 201 to 206. The close button 201 is used for the electronic pet program 10
5 is operated when the user wants to end
Is operated when the display of the electronic pet window 191 is to be enlarged, and the minimize button 203 is operated when the electronic pet window 191 is to be deleted from the LCD 21 and stored in the task bar.

【0099】また、音階指示ボタン204は、図示しな
いロボットに対して指示を出す場合に操作され、辞書管
理ボタン205は、辞書に仮想ペットの新たな名前など
を登録させたい時などに操作され、ヘルプボタン206
は、わからないことを調べたい時に操作される。
The scale instruction button 204 is operated when giving an instruction to a robot (not shown), and the dictionary management button 205 is operated when it is desired to register a new name of the virtual pet in the dictionary. Help button 206
Is operated when you want to check what you do not know.

【0100】図12に示したような状態で、使用者が、
音声コマンダウィンドウ161の最小化ボタン167を
操作すると、その操作結果として、タスクトレイ211
上に、音声コマンダ102に対応するアイコンが、図1
3に示しように表示される。図13において、タスクト
レイ211に表示されている複数のアイコンの内、アイ
コン221が、音声コマンダ102に対応するアイコン
である。
In the state shown in FIG. 12, the user
When the minimize button 167 of the voice commander window 161 is operated, as a result of the operation, the task tray 211
An icon corresponding to the voice commander 102 is shown in FIG.
It is displayed as shown in FIG. In FIG. 13, among a plurality of icons displayed on the task tray 211, an icon 221 is an icon corresponding to the voice commander 102.

【0101】このアイコン211上に、使用者がカーソ
ル231を移動させ、クリックなどの所定の操作を行う
と、図14に示すように、メニューが表示される。メニ
ューには、音声コマンダウィンドウ161を通常表示さ
せたいとき(図12に示したような表示に戻したいと
き)に操作される”通常表示”、通常の認識モードと常
時認識モードとを切り換える時に操作される”入力モー
ド切換”、および音声コマンダ102を終了させる時に
操作される”終了”が表示されている。
When the user moves the cursor 231 on this icon 211 and performs a predetermined operation such as clicking, a menu is displayed as shown in FIG. The menu includes a “normal display” which is operated when the voice commander window 161 is to be normally displayed (when it is desired to return to the display as shown in FIG. 12), and which is operated when switching between the normal recognition mode and the normal recognition mode. "Input mode switching" and "end" operated when terminating the voice commander 102 are displayed.

【0102】図13に示したような表示状態のとき、す
なわち、音声コマンダウィンドウ161が、最小化され
ており、タスクトレイ211にアイコン221が表示さ
れている状態のとき、ユーザが音声認識を行わせるため
に、認識キーを操作すると、図15に示したように、小
型表示ウィンドウ241が表示される。この小型表示ウ
ィンドウ241は、認識キーが操作された時点で、起動
されている(アクティブにされている)音声認識対応の
アプリケーションの近傍に表示される。、例えば、図1
5の場合、音声認識対応のアプリケーションとして電子
ペットプログラム105が起動されており、その電子ペ
ットプログラム105の電子ペットウィンドウ191の
左上に重ならないように表示されている。
In the display state as shown in FIG. 13, that is, when the voice commander window 161 is minimized and the icon 221 is displayed on the task tray 211, the user performs voice recognition. Therefore, when the recognition key is operated, a small display window 241 is displayed as shown in FIG. The small display window 241 is displayed near the activated (activated) voice recognition compatible application when the recognition key is operated. For example, FIG.
In the case of 5, the electronic pet program 105 is activated as a voice recognition compatible application, and is displayed so as not to overlap the upper left of the electronic pet window 191 of the electronic pet program 105.

【0103】電子ペットウィンドウ191自体が、LCD
21の端にあるために見切れてしまっている場合があ
る。そのような場合は、図16に示すように、小型表示
ウィンドウ241は、電子ペットウィンドウ191に重
ねられて表示される。なお、アプリケーションに対する
小型表示ウィンドウ241の位置は、右上、右下、左下
など、どこでもよく、左上に限定されるものではない。
The electronic pet window 191 itself has an LCD
There is a case where it is cut off because it is at the end of 21. In such a case, as shown in FIG. 16, the small display window 241 is displayed so as to overlap the electronic pet window 191. The position of the small display window 241 with respect to the application may be anywhere, such as the upper right, lower right, or lower left, and is not limited to the upper left.

【0104】音声認識に対応しているアプリケーション
が起動され、かつ、そのアプリケーションがアクティブ
な状態になっている場合は、上述したように、認識キー
が操作されると、そのアプリケーションの近傍に、小型
表示ウィンドウ241が表示されるが、音声認識に対応
しているアプリケーションが起動されていないとき、ま
たは、起動されているが、アクティブな状態になってい
ないときは、例えば、図17に示すように、LCD21の
画面の中央下側に、小型表示ウィンドウ241は表示さ
れる。勿論、その表示位置は、中央下側に限られるもの
ではない。
When an application corresponding to voice recognition is activated and the application is in an active state, when the recognition key is operated as described above, a small size is placed near the application. Although the display window 241 is displayed, when an application corresponding to voice recognition is not activated, or when it is activated but is not in an active state, for example, as shown in FIG. , A small display window 241 is displayed at the lower center of the screen of the LCD 21. Of course, the display position is not limited to the lower side of the center.

【0105】小型表示ウィンドウ241の左側の丸い部
分は、レベルゲージ162(図11)と同様の表示を行
う部分であり、右側の細長い部分は、認識状態表示部1
69と同様の表示(音声認識された結果を表示)する部
分である。
The round part on the left side of the small display window 241 is a part for performing the same display as the level gauge 162 (FIG. 11), and the elongated part on the right side is the recognition state display unit 1.
This is a portion for displaying the same as 69 (displaying the result of voice recognition).

【0106】図18は、音声認識に対応している2つの
アプリケーションが起動されている状態を示している。
図18には、音声認識に対応しているアプリケーション
として電子ペットプログラム105と静止画閲覧プログ
ラム104が起動されている状態を示している。このよ
うな状態において、静止画閲覧プログラム104がアク
ティブな状態であるときに、ユーザが認識キーを操作す
ると、そのアクティブな状態となっている静止画閲覧ウ
ィンドウ251の左上に、小型表示ウィンドウ241が
表示される。
FIG. 18 shows a state in which two applications corresponding to voice recognition are activated.
FIG. 18 illustrates a state in which the electronic pet program 105 and the still image browsing program 104 have been activated as applications supporting voice recognition. In such a state, when the user operates the recognition key while the still image browsing program 104 is in an active state, a small display window 241 is displayed on the upper left of the active still image browsing window 251. Is displayed.

【0107】このように、音声認識された結果を、どの
アプリケーションに送るか、換言すれば、どのアプリケ
ーションに対して音声によるコマンドを出すのかを、ア
プリケーションに対応するウィンドウの近傍に、小型表
示ウィンドウ241を表示させることにより、使用者に
認識させることが可能となる。
As described above, to which application the result of voice recognition is to be sent, in other words, to which application a voice command is to be issued, is displayed in the small display window 241 near the window corresponding to the application. Is displayed, the user can be recognized.

【0108】また、例えば、使用者が電子ペットプログ
ラム105に対して音声によるコマンドを出そうと思
い、認識キーを操作したにも関わらず、小型表示ウィン
ドウ241が、静止画閲覧ウィンドウ251の近傍に表
示されたり、画面中央下側に表示されたときには、使用
者は、電子ペットプログラム105がアクティブな状態
になっていないと判断することができ、その判断に基づ
いて、電子ペットプログラム105をアクティブな状態
にし、再度、認識キーを操作して電子ペットプログラム
105に対してコマンドを出すことができる。すなわ
ち、誤ったアプリケーションに対してコマンドを出して
しまうようなことを防ぐことが可能となる。
Also, for example, the small display window 241 is positioned near the still image browsing window 251 even though the user operates the recognition key to give a command to the electronic pet program 105 by voice. When the electronic pet program 105 is displayed or displayed at the lower center of the screen, the user can determine that the electronic pet program 105 is not in an active state, and based on the determination, activates the electronic pet program 105. Then, the user can operate the recognition key again to issue a command to the electronic pet program 105. That is, it is possible to prevent a command from being issued to an incorrect application.

【0109】さらに、このような小型表示ウィンドウ2
41にすることにより、音声コマンダウィンドウ161
を通常表示させる場合に比べ、その描画に係る時間(処
理能力)を軽減させることが可能となる。
Further, such a small display window 2
41, the voice commander window 161
Can be reduced in the time required for the drawing (processing capability) as compared with the case where is normally displayed.

【0110】ところで、音声認識させるためには、予め
設定されているコマンドの形式に従って発話する必要が
ある。使用者は、音声認識により処理を実行させている
とき、所望な処理を実行させるためには、どのようなコ
マンド形式に従って発話すれば良いかわからない時があ
る。そのような場合、使用者は、”コマンド一覧”と発
話することにより、コマンドに関するヘルプ画面をLCD
21上に表示させることができる。
By the way, in order to perform voice recognition, it is necessary to speak in accordance with a preset command format. When executing a process by voice recognition, the user sometimes does not know what command format should be used in order to execute a desired process. In such a case, the user speaks “command list” to display a help screen for the command on the LCD.
21 can be displayed.

【0111】図19は、使用者が”コマンド一覧”と発
話した結果。”コマンド一覧”と認識され、音声コマン
ダウィンドウ161の認識結果表示部163に表示され
た状態を示している。もちろん、音声コマンドウィンド
ウ161が、最小化表示が指示されていることにより、
小型表示ウィンドウ241が表示される場合、その小型
表示ウィンドウ241に”コマンド一覧”と表示され
る。このように、使用者が発話した”コマンド一覧”と
いう言葉が認識されることにより、図20に示したよう
に、音声コマンドに関するヘルプ画面がLCD21上に表
示される。
FIG. 19 shows the result of the user saying “command list”. This shows a state where the command is recognized as “command list” and displayed on the recognition result display section 163 of the voice commander window 161. Of course, since the voice command window 161 is instructed to minimize the display,
When the small display window 241 is displayed, "command list" is displayed in the small display window 241. In this way, by recognizing the word “command list” spoken by the user, a help screen relating to voice commands is displayed on the LCD 21 as shown in FIG.

【0112】このように、音声認識に関するコマンドの
操作に困ったときには、音声により、ヘルプ画面を表示
させることができるようにすることにより、使用者は、
マウスなどを操作してヘルプ画面を表示させる操作を行
わなくて良く、一貫して音声にて操作を行うことがで
き、使い勝手が向上する。
As described above, when it is difficult to operate a command related to voice recognition, the help screen can be displayed by voice so that the user can
It is not necessary to perform an operation of displaying a help screen by operating a mouse or the like, and the operation can be consistently performed by voice, thereby improving usability.

【0113】音声認識は、使用回数が多いほど、学習し
ていき、認識率が高くなる。そこで、使用者は、音声コ
マンダ102を何回使用したかという情報を知りたいと
きがある。そのような場合、例えば、コマンドとして”
何回使ったかな”という言葉を発話することにより、音
声コマンダ102を使用した回数を知ることができる。
具体的には、使用者が”何回使ったかな”と発話する
と、その発話が認識された結果が、図21(A)に示す
ように、音声コマンダウィンドウ161の認識結果表示
部163に表示される。そして、図21(B)に示すよ
うに、認識状態表示部169に、使用回数が表示される
(図21(B)の表示例の場合、8回である)。この表
示は所定時間表示された後に、消される。
In speech recognition, as the number of uses increases, learning is performed, and the recognition rate increases. Therefore, the user sometimes wants to know information on how many times the voice commander 102 has been used. In such a case, for example,
By saying the word "how many times have you used?", The number of times the voice commander 102 has been used can be known.
Specifically, when the user utters “How many times have you used?”, The recognition result is displayed on the recognition result display section 163 of the voice commander window 161 as shown in FIG. Is done. Then, as shown in FIG. 21 (B), the number of times of use is displayed on the recognition state display unit 169 (in the case of the display example of FIG. 21 (B), the number is eight). This display is turned off after being displayed for a predetermined time.

【0114】次に、音声認識エンジン101および音声
コマンダ102を実行するCPU52の音声によるコマン
ドの送信の処理を図22のフローチャートを参照して説
明する。ここでは、音声コマンダウィンドウ161が最
小化表示が指示されており、音声認識に対応しているア
プリケーションが1以上起動されていることを前提とし
て説明する。
Next, the processing of command transmission by voice of the CPU 52 executing the voice recognition engine 101 and the voice commander 102 will be described with reference to the flowchart of FIG. Here, the description will be given on the assumption that the voice commander window 161 has been instructed to minimize the display and that one or more applications corresponding to voice recognition have been activated.

【0115】ステップS1において、音声コマンダ10
2は、常時入力モードが選択されているか否かを判定
し、常時入力モードが選択されていないと判定された場
合、ステップS2に進み、認識キーが押圧されているか
否かを判定する。ステップS2において、認識キーが押
圧されていないと判定された場合、ステップS2に戻
り、音声コマンダ102は、認識キーが押圧されるま
で、認識キーの押圧の判定の処理を繰り返す。
In step S1, the voice commander 10
Step 2 determines whether or not the continuous input mode is selected. If it is determined that the continuous input mode is not selected, the process proceeds to step S2 to determine whether or not the recognition key is pressed. If it is determined in step S2 that the recognition key has not been pressed, the process returns to step S2, and the voice commander 102 repeats the process of determining whether the recognition key has been pressed until the recognition key is pressed.

【0116】ステップS2において、認識キーが押圧さ
れたと判定された場合、ステップS3に進み、小型表示
ウィンドウ241を、アクティブな状態になっている音
声認識に対応しているアプリケーションの近傍、ここで
は、左上に表示する(図15に示したような状態)。そ
して、ステップS4において、音声コマンダ102は、
音声認識エンジン101に音声認識の処理を実行させ
る。ステップS5において、音声コマンダ102は、音
声認識エンジン101から音声認識の処理の結果を受信
する。
If it is determined in step S2 that the recognition key has been pressed, the process proceeds to step S3, in which the small display window 241 is placed in the vicinity of an active application corresponding to voice recognition, here, It is displayed at the upper left (as shown in FIG. 15). Then, in step S4, the voice commander 102
It causes the speech recognition engine 101 to execute speech recognition processing. In step S5, the voice commander 102 receives the result of the voice recognition processing from the voice recognition engine 101.

【0117】ステップS6において、音声コマンダ10
2は、音声認識エンジン101から受信した音声認識の
処理の結果を、小型表示ウィンドウ241に表示させ
る。ステップS7において、音声コマンダ102は、認
識キーが離されたか否かを判定し、認識キーが離された
と判定された場合、ステップS8に進み、表示されてい
る小型表示ウィンドウ241をLCD21上から消し、ス
テップS9において、コマンドの送信を実行して、処理
は終了する。
At step S6, the voice commander 10
2 displays the result of the speech recognition processing received from the speech recognition engine 101 on the small display window 241. In step S7, the voice commander 102 determines whether or not the recognition key has been released. If it is determined that the recognition key has been released, the process proceeds to step S8, where the displayed small display window 241 is erased from the LCD 21. In step S9, a command is transmitted, and the process ends.

【0118】ステップS7において、認識キーが離され
ていないと判定された場合、ステップS10に進み、音
声コマンダ102は、解除キー(例えば、シフトキー)
が押圧されたか否かを判定する。ステップS10におい
て、解除キーが押圧されたと判定された場合、ステップ
S11に進み、音声コマンダ102は、音声認識の結果
をクリアして、ステップS4に戻り、音声認識の処理を
繰り返す。ステップS10において、解除キーが押圧さ
れていないと判定された場合、ステップS11はスキッ
プされ、ステップS4に戻り、音声認識の処理を繰り返
す。
If it is determined in step S7 that the recognition key has not been released, the flow advances to step S10, where the voice commander 102 sets the release key (for example, the shift key).
It is determined whether or not is pressed. If it is determined in step S10 that the release key has been pressed, the process proceeds to step S11, in which the voice commander 102 clears the result of voice recognition, returns to step S4, and repeats the voice recognition process. If it is determined in step S10 that the release key has not been pressed, step S11 is skipped, the process returns to step S4, and the voice recognition process is repeated.

【0119】一方、ステップS1において、常時入力モ
ードが選択されていると判定された場合、ステップS1
2に進み、小型表示ウィンドウ241を、アクティブな
状態になっている音声認識に対応しているアプリケーシ
ョンの左上に表示される。そして、ステップS13にお
いて、音声コマンダ102は、音声認識エンジン101
に音声認識の処理を実行させる。ステップS14におい
て、音声コマンダ102は、音声認識エンジン101か
ら音声認識の処理の結果を受信する。
On the other hand, if it is determined in step S1 that the constant input mode has been selected, the process proceeds to step S1.
Proceeding to 2, the small display window 241 is displayed at the upper left of the application corresponding to the active voice recognition. Then, in step S13, the voice commander 102 makes the voice recognition engine 101
To execute voice recognition processing. In step S14, the voice commander 102 receives the result of the voice recognition process from the voice recognition engine 101.

【0120】ステップS15において、音声コマンダ1
02は、音声認識エンジン101から受信した音声認識
の処理の結果を、小型表示ウィンドウ241に表示させ
る。ステップS16において、音声コマンダ102は、
コマンドの送信を実行して、ステップS1に戻り、コマ
ンドの送信または起動の処理を繰り返す。
In step S15, the voice commander 1
02 displays the result of the speech recognition process received from the speech recognition engine 101 on the small display window 241. In step S16, the voice commander 102
After transmitting the command, the process returns to step S1 to repeat the process of transmitting or starting the command.

【0121】このように、認識キーの操作により、使用
者は、音声コマンダウィンドウ161が最小化表示され
ている状態においても、音声が認識された結果を小型表
示ウィンドウ241を確認して、コマンドの送信をさせ
ることができ、誤った認識による処理の実行を防止する
ことができる。また、以上のように、使用者は、キーボ
ード4などを操作することなく、簡単に、電子ペットと
遊んだり、静止画像を閲覧したりすることができる。
As described above, by operating the recognition key, even when the voice commander window 161 is displayed in a minimized state, the user confirms the result of voice recognition in the small display window 241 and checks the command. Transmission can be performed, and execution of processing due to incorrect recognition can be prevented. Further, as described above, the user can easily play with the electronic pet or browse the still image without operating the keyboard 4 or the like.

【0122】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウェアに組み込まれているコン
ピュータ、または、各種のプログラムをインストールす
ることで、各種の機能を実行することが可能な、例えば
汎用のパーソナルコンピュータなどに、プログラム格納
媒体からインストールされる。
The above-described series of processing can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software can execute various functions by installing a computer built into dedicated hardware or installing various programs. It is installed from a program storage medium to a possible general-purpose personal computer or the like.

【0123】コンピュータにインストールされ、コンピ
ュータによって実行可能な状態とされるプログラムを格
納するプログラム格納媒体は、図7に示すように、磁気
ディスク95(フロッピディスクを含む)、光ディスク
96(CD-ROM(Compact Disc-Read Only Memory)、DVD(D
igital Versatile Disc)を含む)、光磁気ディスク97
(MD(Mini-Disc)を含む)、若しくは半導体メモリ9
8などよりなるパッケージメディア、または、プログラ
ムが一時的若しくは永続的に格納されるROM69や、ハ
ードディスク56などにより構成される。プログラム格
納媒体へのプログラムの格納は、必要に応じてルータ、
モデム50などのインタフェースを介して、ローカルエ
リアネットワーク、インターネット92、図示せぬデジ
タル衛星放送といった、有線または無線の通信媒体を利
用して行われる。
As shown in FIG. 7, a program storage medium for storing a program installed in a computer and made executable by the computer includes a magnetic disk 95 (including a floppy disk), an optical disk 96 (CD-ROM ( Compact Disc-Read Only Memory), DVD (D
digital Versatile Disc), magneto-optical disc 97
(Including MD (Mini-Disc)) or semiconductor memory 9
8 or a ROM 69 for temporarily or permanently storing a program, a hard disk 56, or the like. The storage of the program in the program storage medium can be performed by a router,
This is performed using a wired or wireless communication medium such as a local area network, the Internet 92, or a digital satellite broadcast (not shown) via an interface such as the modem 50.

【0124】なお、本明細書において、プログラム格納
媒体に格納されるプログラムを記述するステップは、記
載された順序に沿って時系列的に行われる処理はもちろ
ん、必ずしも時系列的に処理されなくとも、並列的ある
いは個別に実行される処理をも含むものである。
In this specification, the step of describing a program stored in a program storage medium is not limited to processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. , And also includes processes executed in parallel or individually.

【0125】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
In this specification, the system is
It represents the entire device composed of a plurality of devices.

【0126】[0126]

【発明の効果】以上の如く、請求項1に記載の情報処理
装置、請求項3に記載の情報処理方法、および請求項4
に記載のプログラム格納媒体によれば、音声認識の結果
に対応して所定の処理を実行するプログラムが起動さ
れ、かつ、アクティブな状態になっていると判断された
場合、音声認識が指示されている状態を示す第1のウィ
ンドウを、プログラムに対応する第2のウィンドウの近
傍、または、重なる位置に表示されるように表示を制御
し、音声認識の結果に対応して所定の処理を実行するプ
ログラムは起動されていない、または、起動されてはい
るがアクティブな状態ではないと判断された場合、第1
のウィンドウが予め定められた所定の位置に表示される
ように表示を制御するようにしたので、使用者は、音声
認識の状態を確認することができ、もって、誤った処理
を指示することを防ぐことができる。
As described above, the information processing apparatus according to the first aspect, the information processing method according to the third aspect, and the fourth aspect.
According to the program storage medium described in the above, a program for executing a predetermined process corresponding to the result of voice recognition is started, and when it is determined that it is in an active state, voice recognition is instructed The display is controlled so that the first window indicating the present state is displayed near or overlapping with the second window corresponding to the program, and a predetermined process is executed in response to the result of voice recognition. If it is determined that the program has not been started or has been started but is not active, the first
Since the display is controlled so that the window is displayed at a predetermined position, the user can confirm the state of the voice recognition, and thus can instruct an erroneous process. Can be prevented.

【図面の簡単な説明】[Brief description of the drawings]

【図1】パーソナルコンピュータ1の外観斜視図であ
る。
FIG. 1 is an external perspective view of a personal computer 1. FIG.

【図2】パーソナルコンピュータ1の平面図である。FIG. 2 is a plan view of the personal computer 1.

【図3】パーソナルコンピュータ1の左側側面図であ
る。
FIG. 3 is a left side view of the personal computer 1.

【図4】パーソナルコンピュータ1の右側側面図であ
る。
FIG. 4 is a right side view of the personal computer 1.

【図5】パーソナルコンピュータ1の正面図である。FIG. 5 is a front view of the personal computer 1.

【図6】パーソナルコンピュータ1の底面図である。FIG. 6 is a bottom view of the personal computer 1.

【図7】パーソナルコンピュータ1の構成を示すブロッ
ク図である。
FIG. 7 is a block diagram showing a configuration of the personal computer 1.

【図8】パーソナルコンピュータ1の機能ブロックを示
す図である。
FIG. 8 is a diagram showing functional blocks of the personal computer 1.

【図9】パーソナルコンピュータ1の機能ブロックを示
す図である。
FIG. 9 is a diagram showing functional blocks of the personal computer 1.

【図10】SAPIを説明する図である。FIG. 10 is a diagram illustrating SAPI.

【図11】音声コマンダウィンドウ161を示す図であ
る。
FIG. 11 is a diagram showing a voice commander window 161.

【図12】LCD21に表示される画面を説明する図であ
る。
FIG. 12 is a diagram illustrating a screen displayed on the LCD 21.

【図13】LCD21に表示される画面を説明する図であ
る。
FIG. 13 is a diagram illustrating a screen displayed on the LCD 21.

【図14】LCD21に表示される画面を説明する図であ
る。
FIG. 14 is a diagram illustrating a screen displayed on the LCD 21.

【図15】LCD21に表示される画面を説明する図であ
る。
FIG. 15 is a diagram illustrating a screen displayed on the LCD 21.

【図16】LCD21に表示される画面を説明する図であ
る。
FIG. 16 is a diagram illustrating a screen displayed on the LCD 21.

【図17】LCD21に表示される画面を説明する図であ
る。
FIG. 17 is a diagram illustrating a screen displayed on the LCD 21.

【図18】LCD21に表示される画面を説明する図であ
る。
FIG. 18 is a diagram illustrating a screen displayed on the LCD 21.

【図19】LCD21に表示される画面を説明する図であ
る。
FIG. 19 is a diagram illustrating a screen displayed on the LCD 21.

【図20】LCD21に表示される画面を説明する図であ
る。
FIG. 20 is a diagram illustrating a screen displayed on the LCD 21.

【図21】LCD21に表示される画面を説明する図であ
る。
FIG. 21 is a diagram illustrating a screen displayed on the LCD 21.

【図22】音声認識に関する処理を説明するフローチャ
ートである。
FIG. 22 is a flowchart illustrating processing related to speech recognition.

【符号の説明】[Explanation of symbols]

1 パーソナルコンピュータ, 4 キーボード, 1
0 シャッタボタン,21 LCD, 23 CCDビデオカ
メラ, 24 マイクロフォン, 52 CPU, 59
ROM, 54 RAM, 84A 電子メールプログラ
ム, 86 前押しスイッチ, 88 ドライブ, 9
2 インターネット, 95 磁気ディスク, 96
光ディスク, 97 光磁気ディスク, 98 半導体
メモリ,101 音声認識エンジン, 102 音声コ
マンダ, 103 静止画撮影プログラム, 104
静止画閲覧プログラム, 111 読み仮名辞書データ
ベース, 112 エンジン用認識単語・文法データベ
ース, 113 ランチャ設定データベース, 114
辞書設定データベース, 115 認識単語データベ
ース, 121 アプリケーション通信部, 122
エンジン通信部,123 UI処理部, 124 音声
ランチャ制御部, 125 ユーザ辞書制御部, 12
6 認識テスト処理部, 241 小型表示ウィンドウ
1 personal computer, 4 keyboard, 1
0 shutter button, 21 LCD, 23 CCD video camera, 24 microphone, 52 CPU, 59
ROM, 54 RAM, 84A E-mail program, 86 Front switch, 88 drive, 9
2 Internet, 95 Magnetic disk, 96
Optical disk, 97 magneto-optical disk, 98 semiconductor memory, 101 voice recognition engine, 102 voice commander, 103 still image photographing program, 104
Still image browsing program, 111 reading kana dictionary database, 112 recognition word / grammar database for engine, 113 launcher setting database, 114
Dictionary setting database, 115 recognized word database, 121 application communication unit, 122
Engine communication unit, 123 UI processing unit, 124 voice launcher control unit, 125 user dictionary control unit, 12
6 Recognition test processing unit, 241 Small display window

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 551P 15/28 561C 15/22 571H (72)発明者 米倉 修二 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 笹井 崇司 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5B076 AB17 5D015 KK03 LL02 LL05 5E501 AA02 AC37 CA03 CB15 EA21 EB05 FA06 FA23 FA43 FB22 9A001 DD11 HH17 HH34 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat ゛ (Reference) G10L 15/00 G10L 3/00 551P 15/28 561C 15/22 571H (72) Inventor Shuji Yonekura Shinagawa, Tokyo 6-7-35 Kita-Shinagawa-ku, Sony Corporation (72) Takashi Sasai Inventor 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F-term (reference) 5B076 AB17 5D015 KK03 LL02 LL05 5E501 AA02 AC37 CA03 CB15 EA21 EB05 FA06 FA23 FA43 FB22 9A001 DD11 HH17 HH34

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 音声を認識する状態が指示されているか
否かを判断する第1の判断手段と、 前記第1の判断手段により音声を認識する状態が指示さ
れていると判断された場合、音声認識の結果に対応して
所定の処理を実行するプログラムが起動され、かつ、ア
クティブな状態になっているか否かを判断する第2の判
断手段と、 前記第2の判断手段により音声認識の結果に対応して所
定の処理を実行するプログラムが起動され、かつ、アク
ティブな状態になっていると判断された場合、音声認識
が指示されている状態を示す第1のウィンドウを、前記
プログラムに対応する第2のウィンドウの近傍、また
は、重なる位置に表示されるように表示を制御する第1
の表示制御手段と、 前記第2の判断手段により音声認識の結果に対応して所
定の処理を実行するプログラムは起動されていない、ま
たは、起動されてはいるがアクティブな状態ではないと
判断された場合、前記第1のウィンドウが予め定められ
た所定の位置に表示されるように表示を制御する第2の
表示制御手段とを含むことを特徴とする情報処理装置。
A first determining means for determining whether or not a state of recognizing a voice is instructed; and if the first determining means determines that the state of recognizing the voice is instructed, A second determining means for determining whether or not a program for executing a predetermined process according to a result of the voice recognition is activated and in an active state; and When it is determined that the program for executing the predetermined process corresponding to the result is activated and is in the active state, the first window indicating the state where the voice recognition is instructed is added to the program. A first controlling display so as to be displayed near or overlapping with the corresponding second window;
The display control unit and the second determination unit determine that the program for executing the predetermined process in response to the result of the voice recognition is not activated, or is activated but not active. And a second display control means for controlling the display so that the first window is displayed at a predetermined position.
【請求項2】 音声認識した結果が、所定の処理を実行
させるためのコマンドの一覧の表示を指示するものであ
った場合、コマンドの一覧が表示されるように表示を制
御する第3の表示制御手段をさらに含むことを特徴とす
る請求項1に記載の情報処理装置。
2. A third display for controlling the display so that the list of commands is displayed, when the result of the speech recognition is an instruction to display a list of commands for executing a predetermined process. The information processing apparatus according to claim 1, further comprising a control unit.
【請求項3】 音声を認識する状態が指示されているか
否かを判断する第1の判断ステップと、 前記第1の判断ステップの処理で音声を認識する状態が
指示されていると判断された場合、音声認識の結果に対
応して所定の処理を実行するプログラムが起動され、か
つ、アクティブな状態になっているか否かを判断する第
2の判断ステップと、 前記第2の判断ステップの処理で音声認識の結果に対応
して所定の処理を実行するプログラムが起動され、か
つ、アクティブな状態になっていると判断された場合、
音声認識が指示されている状態を示す第1のウィンドウ
を、前記プログラムに対応する第2のウィンドウの近
傍、または、重なる位置に表示されるように表示を制御
する第1の表示制御ステップと、 前記第2の判断ステップの処理で音声認識の結果に対応
して所定の処理を実行するプログラムは起動されていな
い、または、起動されてはいるがアクティブな状態では
ないと判断された場合、前記第1のウィンドウが予め定
められた所定の位置に表示されるように表示を制御する
第2の表示制御ステップとを含むことを特徴とする情報
処理方法。
3. A first judging step of judging whether or not a state of recognizing a voice has been instructed, and it has been determined in the processing of the first judging step that a state of recognizing a voice has been instructed. A second determining step of determining whether or not a program for executing a predetermined process according to a result of the voice recognition is activated and in an active state; and a process of the second determining step When a program that executes a predetermined process corresponding to the result of voice recognition is started, and it is determined that it is in an active state,
A first display control step of controlling display so that a first window indicating a state in which voice recognition is instructed is displayed near or overlapping with a second window corresponding to the program; If it is determined in the processing of the second determination step that the program for executing the predetermined processing corresponding to the result of the voice recognition has not been activated, or that it has been activated but is not in an active state, A second display control step of controlling the display so that the first window is displayed at a predetermined position.
【請求項4】 音声を認識する状態が指示されているか
否かを判断する第1の判断ステップと、 前記第1の判断ステップの処理で音声を認識する状態が
指示されていると判断された場合、音声認識対応のプロ
グラムが起動され、かつ、アクティブな状態になってい
るか否かを判断する第2の判断ステップと、 前記第2の判断ステップの処理で音声認識の結果に対応
して所定の処理を実行するプログラムが起動され、か
つ、アクティブな状態になっていると判断された場合、
音声認識が指示されている状態を示す第1のウィンドウ
を、前記プログラムに対応する第2のウィンドウの近
傍、または、重なる位置に表示されるように表示を制御
する第1の表示制御ステップと、 前記第2の判断ステップの処理で音声認識の結果に対応
して所定の処理を実行するプログラムは起動されていな
い、または、起動されてはいるがアクティブな状態では
ないと判断された場合、前記第1のウィンドウが予め定
められた所定の位置に表示されるように表示を制御する
第2の表示制御ステップとを含むことを特徴とするコン
ピュータが実行可能なプログラムが格納されているプロ
グラム格納媒体。
4. A first judging step of judging whether or not a state of recognizing a voice has been instructed, and it has been determined in the processing of the first judging step that a state of recognizing a voice has been instructed. In the case, a second determination step of determining whether or not a program for voice recognition is activated and is in an active state; and a predetermined processing corresponding to a result of voice recognition in the processing of the second determination step. If it is determined that the program that executes the processing of the above is activated and is in the active state,
A first display control step of controlling display so that a first window indicating a state in which voice recognition is instructed is displayed near or overlapping with a second window corresponding to the program; If it is determined in the processing of the second determination step that the program for executing the predetermined processing corresponding to the result of the voice recognition has not been activated, or that it has been activated but is not in an active state, And a second display control step of controlling display so that the first window is displayed at a predetermined position. A program storage medium storing a computer-executable program. .
JP2000027889A 2000-02-04 2000-02-04 Information processor, its method and program storage medium Pending JP2001216131A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000027889A JP2001216131A (en) 2000-02-04 2000-02-04 Information processor, its method and program storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000027889A JP2001216131A (en) 2000-02-04 2000-02-04 Information processor, its method and program storage medium

Publications (1)

Publication Number Publication Date
JP2001216131A true JP2001216131A (en) 2001-08-10

Family

ID=18553399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000027889A Pending JP2001216131A (en) 2000-02-04 2000-02-04 Information processor, its method and program storage medium

Country Status (1)

Country Link
JP (1) JP2001216131A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007521522A (en) * 2003-08-21 2007-08-02 マイクロソフト コーポレーション System and method for providing rich minimized applications
KR101073154B1 (en) * 2005-01-07 2011-10-12 주식회사 현대오토넷 User interface apparatus utilizing speech recognition in windows environment and method thereof
CN106878390A (en) * 2017-01-09 2017-06-20 北京奇虎科技有限公司 Electronic pet interaction control method, device and wearable device
JP2020134627A (en) * 2019-02-15 2020-08-31 レノボ・シンガポール・プライベート・リミテッド Information processing device, information processing method and program
JP2020194557A (en) * 2011-09-30 2020-12-03 アップル インコーポレイテッドApple Inc. Using context information to facilitate processing of commands in virtual assistant
JP2022028879A (en) * 2020-12-21 2022-02-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Voice data processing method, apparatus, device, and storage medium
US11831799B2 (en) 2019-08-09 2023-11-28 Apple Inc. Propagating context information in a privacy preserving manner

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007521522A (en) * 2003-08-21 2007-08-02 マイクロソフト コーポレーション System and method for providing rich minimized applications
KR101073154B1 (en) * 2005-01-07 2011-10-12 주식회사 현대오토넷 User interface apparatus utilizing speech recognition in windows environment and method thereof
JP2020194557A (en) * 2011-09-30 2020-12-03 アップル インコーポレイテッドApple Inc. Using context information to facilitate processing of commands in virtual assistant
JP7082645B2 (en) 2011-09-30 2022-06-08 アップル インコーポレイテッド Using contextual information to facilitate virtual assistant command processing
CN106878390A (en) * 2017-01-09 2017-06-20 北京奇虎科技有限公司 Electronic pet interaction control method, device and wearable device
CN106878390B (en) * 2017-01-09 2020-07-28 北京奇虎科技有限公司 Electronic pet interaction control method and device and wearable equipment
JP2020134627A (en) * 2019-02-15 2020-08-31 レノボ・シンガポール・プライベート・リミテッド Information processing device, information processing method and program
US11831799B2 (en) 2019-08-09 2023-11-28 Apple Inc. Propagating context information in a privacy preserving manner
JP2022028879A (en) * 2020-12-21 2022-02-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Voice data processing method, apparatus, device, and storage medium
JP7371075B2 (en) 2020-12-21 2023-10-30 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Audio data processing methods, devices, equipment and storage media

Similar Documents

Publication Publication Date Title
US7047199B2 (en) Communication apparatus, communication method and program storage medium
US6757657B1 (en) Information processing apparatus, information processing method and program storage medium
US7099920B1 (en) Method and system for creating an e-mail by automatically constituting a text and an attached file of the e-mail basing on at least one words or sentences and picture stored in a single picture file
JP2000222185A (en) Device and method for processing information and provision medium
KR20190021012A (en) Continuous coversation function in artificial intelligence device
JP2001216131A (en) Information processor, its method and program storage medium
JP2001216059A (en) Device and method for processing information and program storage medium
JP2001216061A (en) Device and method for processing information and program storage medium
JP3449364B2 (en) Program starting device, program starting method, medium, and electronic device in electronic device
JP2001075774A (en) Information processor, its method and program storage medium
JP2001216128A (en) Information processor, information processing method and program storage medium
JP2000152138A (en) Information processor, information processing method and medium stored with program
JP2001075775A (en) Information processor, its method and program storage medium
JP2001075591A (en) Information processor and method and program storage medium
JPH11212893A (en) Program starting device/method in electronic unit, medium and electronic unit
JP2001075773A (en) Device and method for information processing and program storage medium
JP2001142878A (en) Information processor, information processing method and program storage medium
JP2001075592A (en) Information processor and method and program storage medium
JP2000112726A (en) Device and method for activating program in electronic apparatus and medium
JP2001096481A (en) Information processing device and method, and program storing media
JP2001222353A (en) Information processor, its method and program storage medium
JP5082939B2 (en) Information processing device
JP2000112727A (en) Device and method for activating program in electronic apparatus and medium
JP2000105690A (en) Device and method for starting program in electronic equipment, and medium
JP2000112730A (en) Device and method for activating program in electronic apparatus and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080515

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080918