JP2001075773A - Device and method for information processing and program storage medium - Google Patents

Device and method for information processing and program storage medium

Info

Publication number
JP2001075773A
JP2001075773A JP25067599A JP25067599A JP2001075773A JP 2001075773 A JP2001075773 A JP 2001075773A JP 25067599 A JP25067599 A JP 25067599A JP 25067599 A JP25067599 A JP 25067599A JP 2001075773 A JP2001075773 A JP 2001075773A
Authority
JP
Japan
Prior art keywords
program
voice
word
still image
engine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP25067599A
Other languages
Japanese (ja)
Inventor
Kiyonobu Kojima
清信 小島
Yasuhiko Kato
靖彦 加藤
Shuji Yonekura
修二 米倉
Satoshi Fujimura
聡 藤村
Takashi Sasai
崇司 笹井
Naoki Fujisawa
直樹 藤澤
Junji Oi
純司 大井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP25067599A priority Critical patent/JP2001075773A/en
Publication of JP2001075773A publication Critical patent/JP2001075773A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily operate a program by recognizing a voice and generating a word corresponding to the voice, storing a command of a specific program corresponding to the word, and sending the command corresponding to the generated word to the program. SOLUTION: Data corresponding to a voice of a user are inputted and the data in specific form such as a text corresponding to a word that the user speaks are generated and supplied to a voice commander 102. A voice recognition engine 101 receives the recognized word or the data of grammar or the like from the voice commander 102 and stores them in a reading KANA (Japanese syllabary) dictionary database 111 or a recognized word and grammar database 112 for the engine. When the voice commander 102 is supplied with the data of the word or the like corresponding to specific speech that the user speaks from the voice recognition engine 101 sends a specific command to a still picture photography program 103, a still picture browsing program 104, or an electronic pet program 105.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置およ
び方法、並びにプログラム格納媒体に関し、特に、音声
を認識する情報処理装置および方法、並びにプログラム
格納媒体に関する。
The present invention relates to an information processing apparatus and method, and a program storage medium, and more particularly to an information processing apparatus and method for recognizing voice, and a program storage medium.

【0002】[0002]

【従来の技術】パーソナルコンピュータなどの情報処理
装置は、種々のプログラムを動作させ、使用者は、これ
らのプログラムを操作することができる。
2. Description of the Related Art Information processing apparatuses such as personal computers operate various programs, and users can operate these programs.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、パーソ
ナルコンピュータなどで動作しているプログラムを操作
するとき、キーボードまたはマウスなどの入力デバイス
を操作をしなければならず、面倒だった。
However, when operating a program operating on a personal computer or the like, it is necessary to operate an input device such as a keyboard or a mouse, which is troublesome.

【0004】本発明はこのような状況に鑑みてなされた
ものであり、簡単に、プログラムを操作できるようにす
ることを目的とする。
[0004] The present invention has been made in view of such a situation, and an object of the present invention is to make it possible to easily operate a program.

【0005】[0005]

【課題を解決するための手段】請求項1に記載の情報処
理装置は、音声を認識して、音声に対応する単語を生成
する生成手段と、単語に対応させて、所定のプログラム
のコマンドを記憶する記憶手段と、プログラムに、生成
手段により生成された単語に対応するコマンドを送信す
る送信手段とを含むことを特徴とする。
An information processing apparatus according to a first aspect of the present invention includes a generating means for recognizing a voice and generating a word corresponding to the voice, and a command of a predetermined program corresponding to the word. It is characterized by including a storage unit for storing and a transmission unit for transmitting a command corresponding to the word generated by the generation unit to the program.

【0006】情報処理装置は、動作しているプログラム
の中からプログラムを選択する選択手段を更に設け、送
信手段は、選択手段により選択されたプログラムにコマ
ンドを送信するようにすることができる。
[0006] The information processing apparatus may further include a selection unit for selecting a program from the running programs, and the transmission unit may transmit a command to the program selected by the selection unit.

【0007】請求項3に記載の情報処理方法は、音声を
認識して、音声に対応する単語を生成する生成ステップ
と、単語に対応させて、所定のプログラムのコマンドを
記憶する記憶ステップと、プログラムに、生成ステップ
の処理で生成された単語に対応するコマンドを送信する
送信ステップとを含むことを特徴とする。
According to a third aspect of the present invention, there is provided an information processing method comprising: a generating step of recognizing a voice and generating a word corresponding to the voice; a storing step of storing a command of a predetermined program in association with the word; A transmitting step of transmitting a command corresponding to the word generated in the processing of the generating step to the program.

【0008】請求項4に記載のプログラム格納媒体のプ
ログラムは、音声を認識して、音声に対応する単語を生
成する生成ステップと、単語に対応させて、所定のプロ
グラムのコマンドを記憶する記憶ステップと、プログラ
ムに、生成ステップの処理で生成された単語に対応する
コマンドを送信する送信ステップとからなることを特徴
とする。
According to a fourth aspect of the present invention, there is provided a program storage medium storing a program for recognizing a voice and generating a word corresponding to the voice, and storing a command of a predetermined program corresponding to the word. And a transmission step of transmitting a command corresponding to the word generated in the processing of the generation step to the program.

【0009】請求項1に記載の情報処理装置、請求項3
に記載の情報処理方法、および請求項4に記載のプログ
ラム格納媒体においては、音声を認識して、音声に対応
する単語が生成され、単語に対応させて、所定のプログ
ラムのコマンドが記憶され、プログラムに、生成された
単語に対応するコマンドが送信される。
[0009] The information processing apparatus according to claim 1, claim 3,
In the information processing method described in the above, and in the program storage medium according to the claim 4, a word corresponding to the voice is generated by recognizing the voice, a command of a predetermined program is stored corresponding to the word, A command corresponding to the generated word is sent to the program.

【0010】[0010]

【発明の実施の形態】以下、本発明に係る情報処理装置
の一実施の形態を図面を参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of an information processing apparatus according to the present invention will be described below with reference to the drawings.

【0011】図1乃至図6は、本発明を適用した携帯型
パーソナルコンピュータの構成例を表している。このパ
ーソナルコンピュータ1は、ミニノート型のパーソナル
コンピュータとされ、基本的に、本体2と、本体2に対
して開閉自在とされている表示部3により構成されてい
る。図1は、表示部3を本体2に対して開いた状態を示
す外観斜視図、図2は、図1の平面図、図3は、表示部
3を本体2に対して閉塞した状態を示す左側側面図、図
4は、表示部3を本体2に対して180度開いた状態を
示す右側側面図、図5は、図3の正面図、図6は、図4
の底面図である。
FIGS. 1 to 6 show examples of the configuration of a portable personal computer to which the present invention is applied. The personal computer 1 is a mini-notebook type personal computer, and basically includes a main body 2 and a display unit 3 which can be opened and closed with respect to the main body 2. 1 is an external perspective view showing a state in which the display unit 3 is opened with respect to the main body 2, FIG. 2 is a plan view of FIG. 1, and FIG. 3 shows a state in which the display unit 3 is closed with respect to the main body 2. 4 is a right side view showing the display unit 3 opened 180 degrees with respect to the main body 2, FIG. 5 is a front view of FIG. 3, and FIG.
FIG.

【0012】本体2には、各種の文字や記号などを入力
するとき操作されるキーボード4、マウスカーソルを移
動させるときなどに操作されるスティック式ポインティ
ングデバイス5が、その上面に設けられている。また、
本体2の上面には、音を出力するスピーカ8と、表示部
3に設けられているCCDビデオカメラ23で撮像すると
き操作されるシャッタボタン10がさらに設けられてい
る。
On the main body 2, a keyboard 4 operated when inputting various characters and symbols, and a stick type pointing device 5 operated when moving a mouse cursor are provided on the upper surface thereof. Also,
On the upper surface of the main body 2, there are further provided a speaker 8 for outputting sound and a shutter button 10 operated when capturing an image with the CCD video camera 23 provided on the display unit 3.

【0013】表示部3の上端部には、ツメ13が設けら
れており、図3に示すように、表示部3を本体2に対し
て閉塞した状態において、ツメ13に対向する位置にお
ける本体2には、ツメ13が嵌合する孔部6が設けられ
ている。本体2の前面には、スライドレバー7が前面に
平行に移動可能に設けられており、スライドレバー7は
孔部6に嵌合したツメ13と係合してロックし、またロ
ック解除することができるようになっている。ロックを
解除することにより、表示部3を本体2に対して回動す
ることができる。ツメ13の隣りには、マイクロホン2
4が取り付けられている。このマイクロホン24は、図
6にも示すように、背面からの音も収音できるようにな
されている。
A claw 13 is provided at the upper end of the display unit 3. As shown in FIG. 3, when the display unit 3 is closed with respect to the main body 2, Is provided with a hole 6 into which the claw 13 is fitted. A slide lever 7 is provided on the front surface of the main body 2 so as to be movable in parallel with the front surface. The slide lever 7 engages with a claw 13 fitted in the hole 6 to lock and unlock. I can do it. By releasing the lock, the display unit 3 can be rotated with respect to the main body 2. Microphone 2 next to claw 13
4 is attached. As shown in FIG. 6, the microphone 24 can collect sound from the back.

【0014】本体2の正面にはまた、プログラマブルパ
ワーキー(PPK)9が設けられている。本体2の右側面
には、図4に示すように、排気孔11が設けられてお
り、本体2の前面下部には、図5に示すように、吸気孔
14が設けられている。さらに、排気孔11の右側に
は、PCMCIA(Personal Computer Memory Card Internat
ional Association)カード(PCカード)を挿入する
ためのスロット12が設けられている。
A programmable power key (PPK) 9 is also provided on the front of the main body 2. As shown in FIG. 4, an exhaust hole 11 is provided on the right side surface of the main body 2, and an intake hole 14 is provided at a lower part of the front surface of the main body 2 as shown in FIG. 5. Further, a PCMCIA (Personal Computer Memory Card Internat) is provided on the right side of the exhaust hole 11.
A slot 12 for inserting an ional association) card (PC card) is provided.

【0015】表示部3の正面には、画像を表示するLCD
(Liquid Crystal Display)21が設けられており、そ
の上端部には、撮像部22が、表示部3に対して回動自
在に設けられている。すなわち、この撮像部22は、LC
D21と同一の方向と、その逆の方向(背面の方向)と
の間の180度の範囲の任意の位置に回動することがで
きるようになされている。撮像部22には、CCDビデオ
カメラ23が取り付けられている。
An LCD for displaying an image is provided on the front of the display unit 3.
(Liquid Crystal Display) 21 is provided, and an imaging unit 22 is provided at the upper end thereof so as to be rotatable with respect to the display unit 3. That is, this imaging unit 22
It can rotate to any position within a range of 180 degrees between the same direction as D21 and the opposite direction (backward direction). A CCD video camera 23 is attached to the imaging unit 22.

【0016】表示部3の下側の本体側には、電源ランプ
PL、電池ランプBL、メッセージランプML、その他のLED
よりなるランプが設けられている。なお、図3に示す符
号40は、本体2の左側面に設けられた電源スイッチで
あり、図5に示す符号25は、CCDビデオカメラ23の
フォーカスを調整する調整リングである。さらに、図6
に示す符号26は、本体2内に増設メモリを取り付ける
ための開口部を被覆する蓋であり、符号41は、蓋26
のロックツメを外すためのピンを挿入する小孔である。
A power lamp is provided on the lower main body side of the display unit 3.
PL, battery lamp BL, message lamp ML, other LEDs
Is provided. Reference numeral 40 shown in FIG. 3 is a power switch provided on the left side surface of the main body 2, and reference numeral 25 shown in FIG. 5 is an adjustment ring for adjusting the focus of the CCD video camera 23. Further, FIG.
Reference numeral 26 denotes a lid for covering an opening for mounting an additional memory in the main body 2, and reference numeral 41 denotes a lid 26.
This is a small hole for inserting a pin for removing the lock claw.

【0017】図7は、パーソナルコンピュータ1の内部
の構成を表している。内部バス51には、図7に示すよ
うに、CPU(Central Processing Unit)52、必要に応
じて挿入されるPCカード53、RAM(Random Access M
emory)54、およびグラフィックチップ81が接続さ
れている。この内部バス51は、外部バス55に接続さ
れており、外部バス55には、ハードディスクドライブ
(HDD)56、I/O(入出力)コントローラ57、キ
ーボードコントローラ58、スティック式ポインティン
グデバイスコントローラ59、サウンドチップ60、LC
Dコントローラ83、モデム50などが接続されてい
る。
FIG. 7 shows an internal configuration of the personal computer 1. As shown in FIG. 7, a CPU (Central Processing Unit) 52, a PC card 53 inserted as needed, and a RAM (Random Access M
emory) 54 and a graphic chip 81 are connected. The internal bus 51 is connected to an external bus 55. The external bus 55 includes a hard disk drive (HDD) 56, an I / O (input / output) controller 57, a keyboard controller 58, a stick pointing device controller 59, and a sound. Chip 60, LC
The D controller 83, the modem 50 and the like are connected.

【0018】CPU52は、各機能を統括するコントロー
ラであり、PCカード53は、オプションの機能を付加
するとき適宜装着される。
The CPU 52 is a controller that controls each function, and the PC card 53 is appropriately mounted when an optional function is added.

【0019】RAM54の中には、起動が完了した時点に
おいて、電子メールプログラム(アプリケーションプロ
グラム)54A、オートパイロットプログラム(アプリ
ケーションプログラム)54B、そしてOS(基本プロ
グラム)54Cが、HDD56から転送され、記憶され
る。
In the RAM 54, an e-mail program (application program) 54A, an auto-pilot program (application program) 54B, and an OS (basic program) 54C are transferred from the HDD 56 and stored at the time when the activation is completed. You.

【0020】電子メールプログラム54Aは、電話回線
のような通信回線などからネットワーク経由で通信文を
授受するプログラムである。電子メールプログラム54
Aは、特定機能としての着信メール取得機能を有してい
る。この着信メール取得機能は、メールサーバ93に対
して、そのメールボックス93A内に自分(利用者)宛
のメールが着信しているかどうかを確認して、自分宛の
メールがあれば取得する処理を実行する。
The electronic mail program 54A is a program for sending and receiving messages via a network from a communication line such as a telephone line. E-mail program 54
A has an incoming mail acquisition function as a specific function. This incoming mail acquisition function checks the mail server 93 to see if mail addressed to the user (user) has arrived in the mailbox 93A, and if there is mail addressed to the user, obtains the mail. Execute.

【0021】オートパイロットプログラム54Bは、予
め設定された複数の処理(またはプログラム)などを、
予め設定された順序で順次起動して、処理するプログラ
ムである。
The autopilot program 54B includes a plurality of processes (or programs) set in advance.
This is a program that is started and processed sequentially in a preset order.

【0022】OS54Cは、Windows98(商標)に代
表される、コンピュータの基本的な動作を制御するもの
である。
The OS 54C controls the basic operation of a computer typified by Windows 98 (trademark).

【0023】一方、外部バス55側のハードディスクド
ライブ(HDD)56には、電子メールプログラム56
A、オートパイロットプログラム56B、OS56Cが
記憶されている。ハードディスクドライブ56内のOS
56C、オートパイロットプログラム56B、および電
子メールプログラム56Aは、起動(ブートアップ)処
理の過程で、RAM54内に順次転送され、格納される。
On the other hand, a hard disk drive (HDD) 56 on the external bus 55 side has an e-mail program 56
A, an autopilot program 56B, and an OS 56C are stored. OS in the hard disk drive 56
56C, the auto-pilot program 56B, and the e-mail program 56A are sequentially transferred and stored in the RAM 54 in the course of the startup (boot-up) process.

【0024】I/Oコントローラ57は、マイクロコン
トローラ61を有し、このマイクロコントローラ61に
は、I/Oインタフェース62が設けられている。この
マイクロコントローラ61は、I/Oインタフェース6
2、CPU63、RAM64、ROM69が相互に接続されて構
成されている。このRAM64は、キー入力ステイタスレ
ジスタ65、LED(発光ダイオード)制御レジスタ6
6、設定時刻レジスタ67、レジスタ68を有してい
る。設定時刻レジスタ67は、ユーザが予め設定した時
刻(起動条件)になると起動シーケンス制御部76の動
作を開始させる際に利用される。レジスタ68は、予め
設定された操作キーの組み合わせ(起動条件)と、起動
すべきアプリケーションプログラムの対応を記憶するも
ので、その記憶された操作キーの組み合わせがユーザに
より入力されると、その記憶されたアプリケーションプ
ログラム(例えば電子メール)が起動されることにな
る。
The I / O controller 57 has a microcontroller 61, and the microcontroller 61 is provided with an I / O interface 62. This microcontroller 61 includes an I / O interface 6
2, the CPU 63, the RAM 64, and the ROM 69 are connected to each other. The RAM 64 includes a key input status register 65 and an LED (light emitting diode) control register 6.
6, a set time register 67 and a register 68 are provided. The set time register 67 is used to start the operation of the start-up sequence control unit 76 at a time (start-up condition) set by the user in advance. The register 68 stores a correspondence between a preset operation key combination (start condition) and an application program to be started. When the stored operation key combination is input by the user, the register 68 stores the correspondence. The activated application program (for example, e-mail) is activated.

【0025】キー入力ステイタスレジスタ65は、ワン
タッチ操作用のプログラマブルパワーキー(PPK)9が
押されると、操作キーフラグが格納されるようになって
いる。LED制御レジスタ66は、レジスタ68に記憶さ
れたアプリケーションプログラム(電子メール)の立ち
上げ状態を表示するメッセージランプMLの点灯を制御す
るものである。設定時刻レジスタ67は、所定の時刻を
任意に設定することができるものである。
The key input status register 65 stores an operation key flag when the programmable power key (PPK) 9 for one-touch operation is pressed. The LED control register 66 controls the lighting of a message lamp ML that indicates the activation state of the application program (e-mail) stored in the register 68. The set time register 67 can arbitrarily set a predetermined time.

【0026】なお、このマイクロコントローラ61に
は、バックアップ用のバッテリ74が接続されており、
各レジスタ65,66,67の値は、本体2の電源がオ
フとされている状態においても保持されるようになって
いる。
A backup battery 74 is connected to the microcontroller 61.
The values of the registers 65, 66, and 67 are retained even when the power of the main unit 2 is turned off.

【0027】マイクロコントローラ61内のROM69の
中には、ウェイクアッププログラム70、キー入力監視
プログラム71、LED制御プログラム72が予め格納さ
れている。このROM69は、例えばEEPROM(electricall
y erasable and programmable read only memory)で構
成されている。このEEPROMはフラッシュメモリとも呼ば
れている。さらにマイクロコントローラ61には、常時
現在時刻をカウントするRTC(Real-Time Clock)75が
接続されている。
The ROM 69 in the microcontroller 61 stores a wake-up program 70, a key input monitoring program 71, and an LED control program 72 in advance. The ROM 69 is, for example, an EEPROM (electricall
y erasable and programmable read only memory). This EEPROM is also called a flash memory. Further, an RTC (Real-Time Clock) 75 that constantly counts the current time is connected to the microcontroller 61.

【0028】ROM69の中のウェイクアッププログラム
70は、RTC75から供給される現在時刻データに基づ
いて、設定時刻レジスタ67に予め設定された時刻にな
ったかどうかをチェックして、設定された時刻になる
と、所定の処理(またはプログラム)などの起動をする
プログラムである。キー入力監視プログラム71は、PP
K9が利用者により押されたかどうかを常時監視するプ
ログラムである。LED制御プログラム72は、メッセー
ジランプMLの点灯を制御するプログラムである。
The wake-up program 70 in the ROM 69 checks, based on the current time data supplied from the RTC 75, whether or not the time set in the set time register 67 has been reached. , A program for starting a predetermined process (or a program). The key input monitoring program 71
This is a program for constantly monitoring whether or not K9 has been pressed by the user. The LED control program 72 is a program for controlling lighting of the message lamp ML.

【0029】ROM69には、さらにBIOS(Basic Input O
utput System)73が書き込まれている。このBIOS73
は、電源投入時にOS56Cを起動したり、起動した
後、各種アプリケーションソフトウェアと周辺機器(デ
ィスプレイ、キーボード、ハードディスクドライブな
ど)の間でデータを授受する等の機能を有する。
The ROM 69 further contains a BIOS (Basic Input O
utput System) 73 is written. This BIOS 73
Has a function of activating the OS 56C when the power is turned on, and transmitting and receiving data between various application software and peripheral devices (display, keyboard, hard disk drive, etc.) after the activation.

【0030】外部バス55に接続されているキーボード
コントローラ58は、キーボード4からの入力をコント
ロールする。スティック式ポインティングデバイスコン
トローラ59は、スティック式ポインティングデバイス
5の入力を制御する。
A keyboard controller 58 connected to the external bus 55 controls an input from the keyboard 4. The stick pointing device controller 59 controls an input of the stick pointing device 5.

【0031】サウンドチップ60は、マイクロホン24
からの入力を取り込み、あるいは内蔵スピーカ8に対し
て音声信号を供給する。
The sound chip 60 includes the microphone 24
Or an audio signal is supplied to the built-in speaker 8.

【0032】モデム50は、公衆電話回線90、インタ
ーネットサービスプロバイダ91を介して、インターネ
ットなどの通信ネットワーク92やメールサーバ93な
どに接続することができる。
The modem 50 can be connected to a communication network 92 such as the Internet, a mail server 93, and the like via a public telephone line 90 and an Internet service provider 91.

【0033】内部バス51に接続されているグラフィッ
クチップ81には、CCDビデオカメラ23で取り込んだ
画像データが、処理部82で処理された後、ZV(Zo
omed Video)ポートを介して入力されるよう
になされている。グラフィックチップ81は、処理部8
2を介してCCDビデオカメラ23より入力されたビデオ
データを、内蔵するVRAM81に記憶し、適宜、これを読
み出して、LCDコントローラ83に出力する。LCDコント
ローラ83は、グラフィックチップ81より供給された
画像データをLCD21に出力し、表示させる。バックラ
イト84は、LCD21を後方から照明するようになされ
ている。
After the image data captured by the CCD video camera 23 is processed by the processing unit 82, the graphic chip 81 connected to the internal bus 51
omed Video) port. The graphic chip 81 includes the processing unit 8
Video data input from the CCD video camera 23 via the VRAM 2 is stored in the built-in VRAM 81, read out as appropriate, and output to the LCD controller 83. The LCD controller 83 outputs the image data supplied from the graphic chip 81 to the LCD 21 for display. The backlight 84 illuminates the LCD 21 from behind.

【0034】電源スイッチ40は、電源をオンまたはオ
フするとき操作される。半押しスイッチ85は、シャッ
タボタン10が半押し状態にされたときオンされ、全押
しスイッチ86は、シャッタボタン10が全押し状態に
されたときオンされる。反転スイッチ87は、撮像部2
2が180度回転されたとき(CCDビデオカメラ23がL
CD21の反対側を撮像する方向に回転されたとき)、オ
ンされるようになされている。
The power switch 40 is operated when the power is turned on or off. The half-press switch 85 is turned on when the shutter button 10 is half-pressed, and the full-press switch 86 is turned on when the shutter button 10 is fully pressed. The reversing switch 87 is connected to the imaging unit 2
2 is rotated 180 degrees (CCD video camera 23
It is turned on when it is rotated in the direction of imaging the opposite side of the CD 21).

【0035】ドライブ88は、外部バス55に接続され
ている。ドライブ88は、磁気ディスク351(フロッ
ピディスクを含む)、光ディスク352(CD-ROM(Compa
ct Disc-Read Only Memory)、DVD(Digital Versatile D
isc)を含む)、光磁気ディスク353(MD(Mini-Dis
c)を含む)、または半導体メモリ354などが装着さ
れ、装着された磁気ディスク351、光ディスク35
2、光磁気ディスク353、または半導体メモリ354
などに記録されているプログラムまたはデータを、外部
バス55または内部バス51を介して、HDD56またはR
AM54に供給する。
The drive 88 is connected to the external bus 55. The drive 88 includes a magnetic disk 351 (including a floppy disk) and an optical disk 352 (CD-ROM (Compa
ct Disc-Read Only Memory), DVD (Digital Versatile D)
isc)), magneto-optical disk 353 (MD (Mini-Dis
c)) or a semiconductor memory 354 or the like, and the mounted magnetic disk 351 and optical disk 35
2. Magneto-optical disk 353 or semiconductor memory 354
Program or data recorded in the HDD 56 or the R via the external bus 55 or the internal bus 51.
Supply to AM54.

【0036】ドライブ88は、外部バス55または内部
バス51を介して、モデム50、HDD56、またはRAM5
4から供給されたプログラムまたはデータなどを、装着
された磁気ディスク351、光ディスク352、光磁気
ディスク353、または半導体メモリ354などに記録
させる。
The drive 88 is connected to the modem 50, the HDD 56, or the RAM 5 via the external bus 55 or the internal bus 51.
4 is recorded on the mounted magnetic disk 351, optical disk 352, magneto-optical disk 353, semiconductor memory 354, or the like.

【0037】図8は、音声認識に係るプログラムをパー
ソナルコンピュータ1が起動させたときの、所定のプロ
グラムによる機能ブロックを示す図である。音声認識エ
ンジン101は、読み仮名辞書データベース111に予
め記憶されている漢字に対する読み、またはエンジン用
認識単語・文法データベース112に予め記憶されてい
る認識単語、若しくは文法を基に、マイクロホン24か
ら入力された使用者の音声に対応するデータを入力し、
使用者が喋った言葉に対応するテキストなどの所定の方
式のデータを生成して、音声コマンダ102に供給す
る。
FIG. 8 is a diagram showing functional blocks according to a predetermined program when the personal computer 1 activates a program relating to speech recognition. The speech recognition engine 101 is input from the microphone 24 based on the reading of the kanji stored in the reading kana dictionary database 111 in advance, or the recognition word or grammar stored in the engine recognition word / grammar database 112 in advance. Enter the data corresponding to the user's voice
The data in a predetermined format such as text corresponding to the word spoken by the user is generated and supplied to the voice commander 102.

【0038】音声認識エンジン101は、音声コマンダ
102から認識単語、若しくは文法などのデータを受信
して、読み仮名辞書データベース111またはエンジン
用認識単語・文法データベース112に記憶させる。
The speech recognition engine 101 receives data such as a recognized word or grammar from the voice commander 102 and stores it in the reading kana dictionary database 111 or the recognized word / grammar database 112 for the engine.

【0039】音声コマンダ102は、使用者が喋った所
定の言葉に対応する単語(テキストなど)などのデータ
が音声認識エンジン101から供給されたとき、静止画
撮影プログラム103、静止画閲覧プログラム104、
若しくは電子ペットプログラム105を起動させ、また
は静止画撮影プログラム103、静止画閲覧プログラム
104、若しくは電子ペットプログラム105に所定コ
マンド(使用者が喋った言葉に対応する)を送信する。
When data such as a word (text, etc.) corresponding to a predetermined word spoken by the user is supplied from the voice recognition engine 101, the voice commander 102 receives a still image photographing program 103, a still image browsing program 104,
Alternatively, it activates the electronic pet program 105 or transmits a predetermined command (corresponding to a word spoken by the user) to the still image photographing program 103, the still image browsing program 104, or the electronic pet program 105.

【0040】音声コマンダ102は、使用者が喋った他
の所定の言葉に対応する単語(テキストなど)などのデ
ータが音声認識エンジン101から供給されたとき、ラ
ンチャ設定データベース113に記憶されている起動に
関する設定に基づき、電子メールプログラム54A、ワ
ードプロセッサプログラム106、または表計算プログ
ラム107を起動させ、電子メールプログラム54Aに
メールアドレスなどの所定のデータを供給する。
When data such as a word (text or the like) corresponding to another predetermined word spoken by the user is supplied from the voice recognition engine 101, the voice commander 102 activates the launcher stored in the launcher setting database 113. The e-mail program 54A, the word processor program 106, or the spreadsheet program 107 is started based on the settings related to the above, and predetermined data such as a mail address is supplied to the e-mail program 54A.

【0041】また、音声コマンダ102は、グラフィカ
ルなユーザインターフェースを有し、使用者により、グ
ラフィカルなユーザインターフェースを介して種々の設
定がなされ、使用者により設定された内容を分類して、
アプリケーションプログラム(電子メールプログラム5
4A、ワードプロセッサプログラム106、または表計
算プログラム107)の起動に関する設定をランチャ設
定データベース113に、漢字の読み、または静止画撮
影プログラム103、静止画閲覧プログラム104、若
しくは電子ペットプログラム105のコマンドなどに関
する設定を辞書設定データベース114に、音声認識す
る単語または文法に関する設定を認識単語・文法データ
ベース115にそれぞれ記憶させる。
The voice commander 102 has a graphical user interface. Various settings are made by the user through the graphical user interface, and the contents set by the user are classified.
Application program (E-mail program 5
4A, the settings related to the activation of the word processor program 106 or the spreadsheet program 107) in the launcher setting database 113, the settings related to reading of kanji, or commands of the still image photographing program 103, the still image browsing program 104, or the electronic pet program 105 Is stored in the dictionary setting database 114, and the setting relating to the word or grammar to be recognized is stored in the recognition word / grammar database 115, respectively.

【0042】音声コマンダ102は、所定のタイミング
で、例えば、音声認識エンジン101に音声を認識させ
るとき、認識単語・文法データベース115に記憶して
いる認識単語のデータおよび文法のデータを、音声認識
エンジン101に送信する。
When the voice commander 102 causes the voice recognition engine 101 to recognize a voice at a predetermined timing, for example, the voice commander 102 converts the recognition word data and the grammar data stored in the recognition word / grammar database 115 into the voice recognition engine. Send to 101.

【0043】音声認識エンジン101は、OS54Cを
起動するとき入力される使用者を判別するデータに基づ
いて、その使用者用の読み仮名辞書データベース111
およびエンジン用認識単語・文法データベース112を
利用する。音声コマンダ102は、OS54Cを起動す
るとき入力される使用者を判別するデータに基づいて、
その使用者用のランチャ設定データベース113、辞書
設定データベース114、および認識単語・文法データ
ベース115を利用する。
The voice recognition engine 101 reads the kana dictionary database 111 for the user based on the data inputted when the OS 54C is started to determine the user.
And the engine recognition word / grammar database 112 is used. The voice commander 102 determines the user based on data input when the OS 54C is started,
The launcher setting database 113, dictionary setting database 114, and recognized word / grammar database 115 for the user are used.

【0044】仮名辞書データベース111、エンジン用
認識単語・文法データベース112、ランチャ設定デー
タベース113、辞書設定データベース114、および
認識単語・文法データベース115は、パーソナルコン
ピュータ1の使用者毎に生成され、HDD56に記録され
る。
A kana dictionary database 111, an engine recognition word / grammar database 112, a launcher setting database 113, a dictionary setting database 114, and a recognition word / grammar database 115 are generated for each user of the personal computer 1 and recorded on the HDD 56. Is done.

【0045】静止画撮影プログラム103は、CCDビデ
オカメラ23から入力された画像を、シャッタボタン1
0などの操作に対応した信号に基づき、静止画像のデー
タを生成して、所定のファイルとしてHDD56に記録す
る。
The still image shooting program 103 converts the image input from the CCD video camera 23 into the shutter button 1
Based on a signal corresponding to an operation such as 0, data of a still image is generated and recorded in the HDD 56 as a predetermined file.

【0046】静止画閲覧プログラム104は、静止画撮
影プログラム103が記録させた静止画像のファイルを
選択し、または使用者に選択させ、選択された静止画像
をLCD21に表示させる。電子ペットプログラム105
は、LCD21に仮想的なペットを表示させ、使用者の操
作に対応して、仮想的なペットに指示などを与える。
The still image browsing program 104 selects a file of the still image recorded by the still image photographing program 103 or allows the user to select the file, and causes the LCD 21 to display the selected still image. Electronic pet program 105
Displays a virtual pet on the LCD 21 and gives an instruction to the virtual pet in response to a user operation.

【0047】ワードプロセッサプログラム106は、文
字または図形などから成る文書を編集するためのプログ
ラムである。表計算プログラム107は、所定の形式の
表に配置された数値に所定の演算を実行する、または配
置された数値に対応するグラフを描写するなどの機能を
有する。
The word processor program 106 is a program for editing a document composed of characters or figures. The spreadsheet program 107 has a function of executing a predetermined operation on numerical values arranged in a table of a predetermined format, or drawing a graph corresponding to the arranged numerical values.

【0048】図9は、音声コマンダ102のより詳細な
機能を説明する図である。UI(ユーザインターフェー
ス)処理部123は、アプリケーション通信部121、
エンジン通信部122、音声ランチャ制御部124、ユ
ーザ辞書制御部125、または認識テスト処理部126
から所定のデータを入力するとともに、キーボード4ま
たはスティック式ポインティングデバイス5などから所
定の信号を入力して、マイクロフォン24を介して入力
された音声の大きさまたは音声認識の結果などを、所定
のウィンドウに表示させる。UI処理部123は、所定
のプログラムを起動させるとき、アプリケーション通信
部121、または音声ランチャ制御部124から入力さ
れたデータを基に、所定の画像をLCD21に表示させ
る。
FIG. 9 is a diagram for explaining the functions of the voice commander 102 in more detail. The UI (user interface) processing unit 123 includes an application communication unit 121,
Engine communication unit 122, voice launcher control unit 124, user dictionary control unit 125, or recognition test processing unit 126
And a predetermined signal from the keyboard 4 or the stick-type pointing device 5 and the like, and the loudness of the voice input through the microphone 24 or the result of voice recognition is displayed in a predetermined window. To be displayed. When activating a predetermined program, the UI processing unit 123 displays a predetermined image on the LCD 21 based on data input from the application communication unit 121 or the audio launcher control unit 124.

【0049】UI処理部123は、キーボード4または
ステッィク式ポインティングデバイス5などの操作に対
応した信号を基に、UI処理部123自身の状態を変化
させ、所定のデータをアプリケーション通信部121、
エンジン通信部122、音声ランチャ制御部124、ユ
ーザ辞書制御部125、または認識テスト処理部126
に供給する。
The UI processing unit 123 changes the state of the UI processing unit 123 itself based on a signal corresponding to an operation of the keyboard 4 or the stick type pointing device 5, and transmits predetermined data to the application communication unit 121.
Engine communication unit 122, voice launcher control unit 124, user dictionary control unit 125, or recognition test processing unit 126
To supply.

【0050】また、UI処理部123は、静止画撮影プ
ログラム103、静止画閲覧プログラム104、および
電子ペットプログラム105の状態、並びにエンジン通
信部122を介して音声認識エンジン101から供給さ
れた、使用者が喋った所定の言葉に対応する所定のテキ
ストなどのデータを基に、アプリケーション通信部12
1または音声ランチャ制御部124に、コマンドを送信
または所定のプログラムの起動をさせるか否かを決定
し、アプリケーション通信部121または音声ランチャ
制御部124にコマンドを送信させ、または所定のプロ
グラムの起動させる。
Further, the UI processing unit 123 controls the state of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105, and the user supplied from the voice recognition engine 101 via the engine communication unit 122. Based on data such as a predetermined text corresponding to a predetermined word spoken by the application communication unit 12
1 or the voice launcher control unit 124 determines whether to transmit a command or activate a predetermined program, and causes the application communication unit 121 or the voice launcher control unit 124 to transmit the command or activate a predetermined program. .

【0051】アプリケーション通信部121は、静止画
撮影プログラム103、静止画閲覧プログラム104、
または電子ペットプログラム105を起動させ、起動し
ている静止画撮影プログラム103、静止画閲覧プログ
ラム104、または電子ペットプログラム105と通信
を行い、静止画撮影プログラム103、静止画閲覧プロ
グラム104、または電子ペットプログラム105から
それぞれの状態を示すデータを受信する。
The application communication unit 121 includes a still image photographing program 103, a still image browsing program 104,
Alternatively, the electronic pet program 105 is activated, and communicates with the activated still image photographing program 103, still image browsing program 104, or electronic pet program 105, and the still image photographing program 103, the still image browsing program 104, or the electronic pet is activated. Data indicating each state is received from the program 105.

【0052】アプリケーション通信部121は、静止画
撮影プログラム103、静止画閲覧プログラム104、
および電子ペットプログラム105の状態を示すデータ
などをエンジン通信部122またはUI処理部123に
供給するとともに、エンジン通信部122またはUI処
理部123から、使用者が喋った所定の言葉に対応する
所定のテキストなどのデータ、または使用者のキーボー
ド4などへの操作に対応するデータなどを受信する。
The application communication unit 121 includes a still image photographing program 103, a still image browsing program 104,
In addition to supplying data indicating the state of the electronic pet program 105 to the engine communication unit 122 or the UI processing unit 123, the engine communication unit 122 or the UI processing unit 123 outputs predetermined data corresponding to a predetermined word spoken by the user. It receives data such as text, data corresponding to a user's operation on the keyboard 4, and the like.

【0053】また、アプリケーション通信部121は、
静止画撮影プログラム103、静止画閲覧プログラム1
04、および電子ペットプログラム105の状態、並び
にエンジン通信部122を介して音声認識エンジン10
1から供給された、使用者が喋った所定の言葉に対応す
る所定のテキストなどのデータを基に、静止画撮影プロ
グラム103、静止画閲覧プログラム104、若しくは
電子ペットプログラム105のいずれかを起動させ、ま
たは静止画撮影プログラム103、静止画閲覧プログラ
ム104、若しくは電子ペットプログラム105のいず
れかに所定のコマンドを供給する。
The application communication section 121
Still image shooting program 103, still image viewing program 1
04, the state of the electronic pet program 105, and the voice recognition engine 10 via the engine communication unit 122.
On the basis of data such as a predetermined text corresponding to a predetermined word spoken by the user supplied from 1, any one of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105 is started. Alternatively, a predetermined command is supplied to any one of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105.

【0054】静止画撮影プログラム103、静止画閲覧
プログラム104、および電子ペットプログラム105
のいずれもが、フォーカスがあてられていないとき(い
ずれもアクティブでないとき)、音声コマンダ102
は、静止画撮影プログラム103、静止画閲覧プログラ
ム104、または電子ペットプログラム105のいずれ
かを対象としたコマンドを実行できない。
A still image photographing program 103, a still image browsing program 104, and an electronic pet program 105
Are not focused (when neither is active), the voice commander 102
Cannot execute a command for any one of the still image shooting program 103, the still image browsing program 104, and the electronic pet program 105.

【0055】静止画撮影プログラム103、静止画閲覧
プログラム104、および電子ペットプログラム105
のいずれかが、フォーカスがあてられているとき(いず
れかがアクティブであるとき)、音声コマンダ102
は、アクティブである、静止画撮影プログラム103、
静止画閲覧プログラム104、または電子ペットプログ
ラム105のいずれかを対象としたコマンドを実行する
ことができる。
The still image photographing program 103, the still image browsing program 104, and the electronic pet program 105
Are focused (when either is active), the voice commander 102
Is an active still image shooting program 103,
A command for either the still image browsing program 104 or the electronic pet program 105 can be executed.

【0056】このような静止画撮影プログラム103、
静止画閲覧プログラム104、または電子ペットプログ
ラム105のいずれかの特定のプログラムを対象とした
コマンドをローカルなコマンドと称する。
Such a still image photographing program 103,
A command for a specific one of the still image browsing program 104 and the electronic pet program 105 is referred to as a local command.

【0057】なお、音声コマンダ102がローカルなコ
マンドを送信するプログラムを特定する方法は、フォー
カスに限らず、他の状態またはデータを参照するように
してもよい。
The method by which the voice commander 102 specifies a program for transmitting a local command is not limited to focus, but may refer to another state or data.

【0058】エンジン通信部122は、所定の方式を基
づいて、認識単語・文法データベース115から認識単
語のデータおよび文法のデータを読み出して、そのデー
タを音声認識エンジン101に送信するとともに、音声
認識エンジン101から供給された使用者が喋った所定
の言葉に対応する所定のテキストなどのデータを受信す
る。
The engine communication unit 122 reads the data of the recognized word and the data of the grammar from the recognized word / grammar database 115 based on a predetermined method, transmits the data to the voice recognition engine 101, and transmits the data to the voice recognition engine 101. Data such as a predetermined text corresponding to a predetermined word spoken by the user supplied from 101 is received.

【0059】エンジン通信部122は、例えば、図10
に例を示すMicrosoft Speech API(商標)(以下、SAPI
と称する)に規定された方式で、音声認識エンジン10
1に認識単語・文法データベース115に記憶されてい
る認識単語のデータおよび文法のデータを送信する。図
10に示すデータの例には、音声認識の対象が<Global>
および<SVCommand>から構成され、<Global>が更に(Chan
geWin),(VoiceCommand)から構成され、<SVCommand>が
「ヘルプ」、「前へ」などのコマンドの他、<SendMail>
で表されるメールのコマンドも含むことが記述されてい
る。また、図10に示すデータの例には、「ヘルプ」と
いうコマンドのコード番号が102であり、「パパ」と
いう読みを有する単語に「daddy@test.company.co.jp」
という文字列が関連していることなどが示されている。
The engine communication unit 122 is, for example, as shown in FIG.
Microsoft Speech API (trademark) (hereafter, SAPI
The speech recognition engine 10
1, the data of the recognized word and the data of the grammar stored in the recognized word / grammar database 115 are transmitted. In the data example shown in FIG. 10, the target of speech recognition is <Global>
And <SVCommand>, and <Global> is further (Chan
geWin), (VoiceCommand), where <SVCommand> is a command such as "Help" or "Previous", and <SendMail>
It is described that it also includes the mail command represented by. In the example of the data shown in FIG. 10, the code number of the command “help” is 102, and the word having the pronunciation “dad” is “daddy@test.company.co.jp”.
It is shown that the character string is related.

【0060】音声認識エンジン101は、エンジン通信
部122から受信したデータを、所定の方式のデータに
変換して、読み仮名辞書データベース111またはエン
ジン用認識単語・文法データベース112に記憶させ、
読み仮名辞書データベース111またはエンジン用認識
単語・文法データベース112に記憶しているデータに
基づき、音声認識の処理を実行する。
The speech recognition engine 101 converts the data received from the engine communication unit 122 into data of a predetermined format, and stores the converted data in the reading kana dictionary database 111 or the engine recognition word / grammar database 112.
Based on the data stored in the reading kana dictionary database 111 or the engine recognition word / grammar database 112, a speech recognition process is executed.

【0061】音声認識エンジン101は、エンジン通信
部122に、使用者が喋った所定の言葉に対応する、コ
ード番号(例えば、102など)、認識した単語または
文(例えば、”パパにメール”など)、および認識した
単語に関連する文字列(例えば、”daddy@test.compan
y.co.jp”)のデータを送信する。
The speech recognition engine 101 provides the engine communication unit 122 with a code number (for example, 102), a recognized word or sentence (for example, "mail to dad", etc.) corresponding to a predetermined word spoken by the user. ), And the string associated with the recognized word (eg, “daddy@test.compan
y.co.jp ”).

【0062】例えば、使用者がマイクロフォン24に向
かって「パパにメール」という音声を入力して、音声認
識エンジン101が正しく音声を認識したとき、音声認
識エンジン101は、7fffffff(16進数)、”パパに
メール”、および”daddy@test.company.co.jp”をエン
ジン通信部122に送信する。
For example, when the user inputs a voice “mail to dad” into the microphone 24 and the voice recognition engine 101 correctly recognizes the voice, the voice recognition engine 101 outputs 7fffffff (hexadecimal), “ "E-mail to dad" and "daddy@test.company.co.jp" are transmitted to engine communication unit 122.

【0063】エンジン通信部122は、音声認識エンジ
ン101から受信したデータを基に、受信したデータを
アプリケーション通信部121、UI処理部123、音
声ランチャ制御部124、ユーザ辞書制御部125、ま
たは認識テスト処理部126のいずれに送信するかを判
断し、その判断に基づいて、音声認識エンジン101か
ら受信したデータを所定の方式に変換して、選択された
アプリケーション通信部121、UI処理部123、音
声ランチャ制御部124、ユーザ辞書制御部125、ま
たは認識テスト処理部126のいずれかに変換したデー
タを供給する。
The engine communication unit 122 converts the received data based on the data received from the speech recognition engine 101 into an application communication unit 121, a UI processing unit 123, a speech launcher control unit 124, a user dictionary control unit 125, or a recognition test. It determines which of the processing units 126 to transmit, and based on the determination, converts the data received from the speech recognition engine 101 into a predetermined method, and selects the selected application communication unit 121, UI processing unit 123, The converted data is supplied to any one of the launcher control unit 124, the user dictionary control unit 125, and the recognition test processing unit 126.

【0064】音声ランチャ制御部124は、グラフィカ
ルなユーザインターフェースを表示させて使用者により
入力された、アプリケーションプログラム(電子メール
プログラム54A、ワードプロセッサプログラム10
6、または表計算プログラム107)の起動に関する設
定をランチャ設定データベース113に保存させるとと
もに、その設定に基づき、認識単語・文法データベース
115に記憶されている音声認識する単語または文法に
関する設定を更新させる。
The voice launcher control section 124 displays an application program (e-mail program 54A, word processor program 10
6, or the setting relating to the activation of the spreadsheet program 107) is stored in the launcher setting database 113, and the setting relating to the speech recognition word or grammar stored in the recognition word / grammar database 115 is updated based on the setting.

【0065】音声ランチャ制御部124は、エンジン通
信部122からランチャに関するデータを受信したと
き、ランチャ設定データベース113に記憶されている
起動に関する設定に基づき、電子メールプログラム54
A、ワードプロセッサプログラム106、または表計算
プログラム107のいずれかを起動させ、電子メールプ
ログラム54Aにメールアドレスなどを供給する。
When the voice launcher control unit 124 receives data related to the launcher from the engine communication unit 122, the voice launcher control unit 124 executes the e-mail program 54
A, activates any one of the word processor program 106 and the spreadsheet program 107 and supplies a mail address and the like to the e-mail program 54A.

【0066】音声コマンダ102は、フォーカスの状態
にかかわらず(いずれのプログラムがアクティブであっ
ても)、電子メールプログラム54A、ワードプロセッ
サプログラム106、または表計算プログラム107の
いずれかを起動させるコマンドを実行することができ
る。
The voice commander 102 executes a command to activate any one of the e-mail program 54A, the word processor program 106, and the spreadsheet program 107, regardless of the focus state (no matter which program is active). be able to.

【0067】このような、フォーカスの状態などにかか
わらず、常に実行することができる、例えば、電子メー
ルプログラム54A、ワードプロセッサプログラム10
6、または表計算プログラム107のいずれかを起動さ
せるコマンドをグローバルなコマンドと称する。
Regardless of the focus state, the program can always be executed. For example, the electronic mail program 54A, the word processor program 10
6 or a command for activating one of the spreadsheet programs 107 is referred to as a global command.

【0068】ユーザ辞書制御部125は、グラフィカル
なユーザインターフェースを表示させ使用者により入力
された、認識する音声に関する設定を辞書設定データベ
ース114に記憶させるとともに、その設定に基づき、
認識単語・文法データベース115に記憶されている音
声認識する単語または文法に関する設定を更新させる。
The user dictionary control unit 125 displays a graphical user interface, stores the setting relating to the voice to be recognized input by the user in the dictionary setting database 114, and based on the setting,
The setting related to the word or grammar for speech recognition stored in the recognition word / grammar database 115 is updated.

【0069】認識テスト処理部126は、使用者により
テストを実行する旨がユーザ辞書制御部125に入力さ
れたとき、グラフィカルなユーザインターフェースを表
示させて、辞書設定データベース114に記憶され、選
択されている所定の1の単語と、エンジン通信部122
を介して、音声認識エンジン101から供給された、音
声を認識した結果を示す単語とが一致するか否かを判定
し、その判定の結果を表示する。
The recognition test processing unit 126 displays a graphical user interface when the user inputs a command to execute a test to the user dictionary control unit 125, stores the graphical user interface in the dictionary setting database 114, and selects and executes the test. The predetermined one word and the engine communication unit 122
And determines whether the word supplied from the voice recognition engine 101 matches the word indicating the result of the voice recognition, and displays the result of the determination.

【0070】また、認識テスト処理部126は、使用者
によりテストを実行する旨がユーザ辞書制御部125に
入力されたとき、グラフィカルなユーザインターフェー
スを表示させて、エンジン通信部122を介して、音声
認識エンジン101から供給された、音声を認識した結
果を示す単語が、辞書設定データベース114に記憶さ
れ、選択されている所定の1以上の単語に含まれるか否
かを判定し、その判定の結果を表示する。
When the user inputs a command to execute a test to the user dictionary control unit 125, the recognition test processing unit 126 displays a graphical user interface and outputs a voice via the engine communication unit 122. It is determined whether or not the word indicating the result of the voice recognition supplied from the recognition engine 101 is stored in the dictionary setting database 114 and is included in one or more selected predetermined words. Is displayed.

【0071】図11は、所定の入力に対応した、UI処
理部123の状態の遷移を説明する状態遷移図である。
図11において、()で囲まれた文は、状態の遷移の条
件(例えば、プログラムの起動、エンジン起動完了な
ど)を示し、[]で囲まれた文は、状態の遷移に伴って
実行される処理(例えば、起動中の旨表示、認識単語・
文法設定など)を示す。
FIG. 11 is a state transition diagram for explaining a state transition of the UI processing unit 123 corresponding to a predetermined input.
In FIG. 11, a statement enclosed in parentheses indicates a state transition condition (for example, program startup, engine activation completed, etc.), and a statement enclosed in [] is executed along with the state transition. Processing (for example, indicating that the device is running,
Grammar settings).

【0072】音声コマンダ102が起動されると、UI
処理部123は、LCD21に起動中を示す画像を表示さ
せるとともに、図12に示す音声コマンダ102のウィ
ンドウを表示させ、音声認識エンジン101の起動を待
つ状態1に遷移する。
When the voice commander 102 is activated, the UI
The processing unit 123 causes the LCD 21 to display an image indicating that it is being activated, displays the window of the voice commander 102 shown in FIG.

【0073】音声コマンダウィンドウ151は、レベル
ゲージ161、認識結果表示部162、表示切り換えボ
タン163、ランチャ設定ボタン164、辞書管理ボタ
ン165、ヘルプボタン166、最小化ボタン167、
閉じるボタン168、認識状態表示部169、および音
声入力モード切り換えボタン170を有する。
The voice commander window 151 includes a level gauge 161, a recognition result display section 162, a display switching button 163, a launcher setting button 164, a dictionary management button 165, a help button 166, a minimize button 167,
It has a close button 168, a recognition state display section 169, and a voice input mode switching button 170.

【0074】レベルゲージ161は、マイクロフォン2
4を介して入力された使用者の音声のレベル(マイクロ
フォン24が出力する信号の振幅)を表示する。認識結
果表示部162は、エンジン通信部122から供給され
た認識された音声に対応する単語または文を表示する。
The level gauge 161 is connected to the microphone 2
4 shows the level of the user's voice input via the microphone 4 (the amplitude of the signal output from the microphone 24). The recognition result display unit 162 displays a word or a sentence corresponding to the recognized voice supplied from the engine communication unit 122.

【0075】表示切り換えボタン163は、音声コマン
ダウィンドウ151を図示せぬ小型のウィンドウに切り
換えるとき、操作される。ランチャ設定ボタン164
は、電子メールプログラム54A、ワードプロセッサプ
ログラム106、または表計算プログラム107の起動
に関する設定をするとき、操作される。
The display switching button 163 is operated when the voice commander window 151 is switched to a small window (not shown). Launcher setting button 164
Is operated when making settings relating to activation of the e-mail program 54A, the word processor program 106, or the spreadsheet program 107.

【0076】辞書管理ボタン165は、認識する音声に
関する設定を辞書設定データベース114に記憶させる
とき、操作される。ヘルプボタン166は、オンライン
ヘルプをLCD21に表示させるとき、操作される。最小
化ボタン167は、音声コマンダウィンドウ151をLC
D21から消去し、例えば、タスクトレイ上に所定のア
イコンを表示させるとき、操作される。閉じるボタン1
68は、音声コマンダ102を終了させるとき、操作さ
れる。
The dictionary management button 165 is operated when the setting relating to the voice to be recognized is stored in the dictionary setting database 114. The help button 166 is operated when displaying online help on the LCD 21. The minimize button 167 allows the voice commander window 151 to be
The operation is performed when the icon is deleted from D21 and a predetermined icon is displayed on the task tray, for example. Close button 1
Reference numeral 68 is operated when the voice commander 102 is terminated.

【0077】認識状態表示部169は、音声認識エンジ
ン101の状態またはローカルコマンドが使用できるか
否か(所定のプログラムがアクティブであるか否か)な
どを表示する。音声入力モード切り換えボタン170
は、常時認識モードと通常の認識モードとを切り換える
ときに、操作される。
The recognition state display section 169 displays the state of the speech recognition engine 101, whether a local command can be used (whether a predetermined program is active or not) and the like. Voice input mode switching button 170
Is operated when switching between the normal recognition mode and the normal recognition mode.

【0078】状態1において、音声認識エンジン101
の起動が失敗したとき、UI処理部123は終了する。
In state 1, the speech recognition engine 101
When the start of the operation fails, the UI processing unit 123 ends.

【0079】状態1において、音声認識エンジン101
の起動が成功したとき、UI処理部123は、ユーザの
操作を待つ状態2に遷移する。
In state 1, the speech recognition engine 101
Is successfully activated, the UI processing unit 123 transitions to a state 2 waiting for a user operation.

【0080】状態2において、閉じるボタン168がク
リックされたとき、UI処理部123は、音声コマンダ
102を終了させる。状態2において、使用者が音声認
識に割り当てているキー(例えば、キーボード4のコン
トロールキーなど。以下、認識キーと称する)が押圧さ
れたとき、UI処理部123は、音声入力可能な状態3
に遷移する。
When the close button 168 is clicked in the state 2, the UI processing unit 123 ends the voice commander 102. In state 2, when a key (for example, a control key of the keyboard 4 or the like, hereinafter referred to as a recognition key) assigned by the user is pressed, the UI processing unit 123 changes to a state 3 in which voice input is possible.
Transitions to.

【0081】状態2から状態3に遷移するとき、UI処
理部123は、アプリケーション通信部121から静止
画撮影プログラム103、静止画閲覧プログラム10
4、および電子ペットプログラム105の内、アクティ
ブであるプログラムを示すデータを受信し、アクティブ
であるプログラムの名称を音声コマンダウィンドウ15
1の認識状態表示部169に表示させる。静止画撮影プ
ログラム103、静止画閲覧プログラム104、または
電子ペットプログラム105のいずれもアクティブでな
いとき、UI処理部123は、音声コマンダウィンドウ
151の認識状態表示部169にその旨(例えば、”Gl
obal Command”など)を表示させる。
At the time of transition from state 2 to state 3, the UI processing unit 123 sends the still image photographing program 103 and the still image browsing program 10 from the application communication unit 121.
4, and data indicating the active program among the electronic pet programs 105 is received, and the name of the active program is input to the voice commander window 15.
1 is displayed on the recognition state display unit 169. When none of the still image photographing program 103, the still image browsing program 104, or the electronic pet program 105 is active, the UI processing unit 123 displays a message to that effect on the recognition status display unit 169 of the voice commander window 151 (for example, “Gl”).
obal Command ”).

【0082】状態3において、使用者がマイクロフォン
24から入力させた音声に対応する信号が音声認識エン
ジン101に供給され、音声認識エンジン101に供給
された音声に対応する信号のレベルに対応するデータ
が、エンジン通信部122を介して、UI処理部123
に供給される。状態3において、UI処理部123は、
音声に対応する信号のレベルに対応するデータに基づ
き、音声コマンダウィンドウ151のレベルゲージ16
1の表示を更新する。
In state 3, a signal corresponding to the voice input by the user from the microphone 24 is supplied to the voice recognition engine 101, and data corresponding to the level of the signal corresponding to the voice supplied to the voice recognition engine 101 is output. , The UI processing unit 123 via the engine communication unit 122
Supplied to In state 3, the UI processing unit 123
Based on the data corresponding to the level of the signal corresponding to the voice, the level gauge 16 of the voice commander window 151 is displayed.
Update the display of 1.

【0083】また、状態3において、音声認識エンジン
101が音声を認識したとき、UI処理部123は、音
声認識エンジン101から認識した単語または文などの
データを受信し、音声コマンダウィンドウ151の認識
結果表示部162に認識した単語または文を表示させ
る。
In the state 3, when the voice recognition engine 101 recognizes a voice, the UI processing unit 123 receives data such as a recognized word or sentence from the voice recognition engine 101, and displays the recognition result in the voice commander window 151. The display unit 162 displays the recognized word or sentence.

【0084】状態3において、使用者が認識キーの押圧
を続けると、UI処理部123は、状態3における処理
を繰り返す。
If the user continues to press the recognition key in state 3, the UI processing unit 123 repeats the processing in state 3.

【0085】状態3において、使用者が認識キーを離し
たとき、UI処理部123は、アプリケーション通信部
121または音声ランチャ制御部124に、音声認識エ
ンジン101から供給された、コード番号、認識した単
語または文、および認識した単語に関連する文字列のデ
ータに対応する、所定の動作(例えば、電子メールプロ
グラム54Aの起動など)を要求する。
In state 3, when the user releases the recognition key, the UI processing unit 123 sends the code number and the recognized word supplied from the voice recognition engine 101 to the application communication unit 121 or the voice launcher control unit 124. Alternatively, a predetermined operation (for example, activation of the e-mail program 54A) corresponding to the sentence and character string data related to the recognized word is requested.

【0086】このとき、アプリケーション通信部121
は、UI処理部123からの要求に対応して、静止画撮
影プログラム103、静止画閲覧プログラム104、若
しくは電子ペットプログラム105のいずれかを起動さ
せ、または静止画撮影プログラム103、静止画閲覧プ
ログラム104、若しくは電子ペットプログラム105
のいずれかに所定のコマンドを送信する。
At this time, the application communication unit 121
Starts one of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105 in response to a request from the UI processing unit 123, or executes the still image photographing program 103, the still image browsing program 104 Or electronic pet program 105
A predetermined command.

【0087】このとき、音声ランチャ制御部124は、
UI処理部123からの要求に対応して、電子メールプ
ログラム54A、ワードプロセッサプログラム106、
若しくは表計算プログラム107のいずれかを起動さ
せ、または電子メールプログラム54Aに所定のデータ
(例えば、メールアドレスなど)を供給する。
At this time, the voice launcher control unit 124
In response to the request from the UI processing unit 123, the e-mail program 54A, the word processor program 106,
Alternatively, one of the spreadsheet programs 107 is activated, or predetermined data (for example, a mail address) is supplied to the e-mail program 54A.

【0088】アプリケーション通信部121または音声
ランチャ制御部124が所定のプログラムに対して、所
定の動作を完了させたとき、アプリケーション通信部1
21または音声ランチャ制御部124はUI処理部12
3にその旨を通知し、UI処理部123は、動作の対象
となる所定のプログラムに応じて、動作の対象となる所
定のプログラムを使用者に認識させる画像(後述する)
をLCD21に表示させる。
When the application communication unit 121 or the voice launcher control unit 124 completes a predetermined operation for a predetermined program, the application communication unit 1
21 or the voice launcher control unit 124
The UI processing unit 123 notifies the user of the predetermined program to be operated in accordance with the predetermined program to be operated (described later).
Is displayed on the LCD 21.

【0089】LCD21に動作の対象となる所定のプログ
ラム認識させる画像が表示されるので、使用者は、音声
の認識の結果、および音声コマンダ102の動作を知る
ことができる。
An image for recognizing a predetermined program to be operated is displayed on the LCD 21, so that the user can know the result of voice recognition and the operation of the voice commander 102.

【0090】状態3から状態2に遷移するとき、UI処
理部123は、認識状態表示部169の表示を消去す
る。
At the time of transition from state 3 to state 2, the UI processing unit 123 deletes the display of the recognition state display unit 169.

【0091】状態2において、音声入力モード切り換え
ボタン170がクリックされたとき、UI処理部123
は、常時認識モードである状態4に遷移する。
In the state 2, when the voice input mode switching button 170 is clicked, the UI processing unit 123
Transitions to state 4, which is the always recognition mode.

【0092】状態2から状態4に遷移するとき、UI処
理部123は、アプリケーション通信部121から静止
画撮影プログラム103、静止画閲覧プログラム10
4、および電子ペットプログラム105の内、アクティ
ブであるプログラムを示すデータを受信し、アクティブ
であるプログラムの名称を認識状態表示部169に表示
させる。静止画撮影プログラム103、静止画閲覧プロ
グラム104、または電子ペットプログラム105のい
ずれもアクティブでないとき、UI処理部123は、音
声コマンダウィンドウ151の認識状態表示部169に
その旨(例えば、”Global Command”など)を表示させ
る。
When transitioning from state 2 to state 4, the UI processing unit 123 sends the still image photographing program 103 and the still image browsing program 10 from the application communication unit 121.
4, and the data indicating the active program among the electronic pet programs 105 are received, and the name of the active program is displayed on the recognition state display unit 169. When none of the still image photographing program 103, the still image browsing program 104, or the electronic pet program 105 is active, the UI processing unit 123 displays the fact (for example, “Global Command”) on the recognition status display unit 169 of the voice commander window 151. Etc.).

【0093】状態4において、使用者がマイクロフォン
24から入力させた音声に対応する信号が音声認識エン
ジン101に供給され、音声認識エンジン101に供給
された音声に対応する信号のレベルに対応するデータ
が、エンジン通信部122を介して、UI処理部123
に供給される。状態4において、UI処理部123は、
音声に対応する信号のレベルに対応するデータに基づ
き、音声コマンダウィンドウ151のレベルゲージ16
1の表示を更新する。
In state 4, a signal corresponding to the voice input by the user from the microphone 24 is supplied to the voice recognition engine 101, and data corresponding to the level of the signal corresponding to the voice supplied to the voice recognition engine 101 is output. , The UI processing unit 123 via the engine communication unit 122
Supplied to In state 4, the UI processing unit 123
Based on the data corresponding to the level of the signal corresponding to the voice, the level gauge 16 of the voice commander window 151 is displayed.
Update the display of 1.

【0094】また、状態4において、音声認識エンジン
101が音声を認識したとき、UI処理部123は、音
声認識エンジン101から認識した単語または文などの
データを受信し、音声コマンダウィンドウ151の認識
結果表示部162に認識した単語または文を表示させ
る。
When the voice recognition engine 101 recognizes a voice in the state 4, the UI processing unit 123 receives data such as a recognized word or sentence from the voice recognition engine 101, and displays the recognition result in the voice commander window 151. The display unit 162 displays the recognized word or sentence.

【0095】状態4において、UI処理部123が、音
声認識エンジン101から認識した単語または文などの
データを受信したとき、UI処理部123は、アプリケ
ーション通信部121または音声ランチャ制御部124
に、音声認識エンジン101から供給された、コード番
号、認識した単語または文、および認識した単語に関連
する文字列のデータに対応する、所定の動作を要求す
る。
In state 4, when the UI processing unit 123 receives data such as a word or a sentence recognized from the speech recognition engine 101, the UI processing unit 123 executes the application communication unit 121 or the voice launcher control unit 124.
Then, a predetermined operation corresponding to the code number, the recognized word or sentence, and the character string data related to the recognized word supplied from the voice recognition engine 101 is requested.

【0096】このとき、アプリケーション通信部121
は、UI処理部123からの要求に対応して、静止画撮
影プログラム103、静止画閲覧プログラム104、若
しくは電子ペットプログラム105のいずれかを起動さ
せ、または静止画撮影プログラム103、静止画閲覧プ
ログラム104、若しくは電子ペットプログラム105
のいずれかに所定のコマンドを送信する。
At this time, the application communication unit 121
Starts one of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105 in response to a request from the UI processing unit 123, or executes the still image photographing program 103, the still image browsing program 104 Or electronic pet program 105
A predetermined command.

【0097】このとき、音声ランチャ制御部124は、
UI処理部123からの要求に対応して、電子メールプ
ログラム54A、ワードプロセッサプログラム106、
若しくは表計算プログラム107のいずれかを起動さ
せ、または電子メールプログラム54Aに所定のデータ
(例えば、メールアドレスなど)を供給する。
At this time, the voice launcher control unit 124
In response to the request from the UI processing unit 123, the e-mail program 54A, the word processor program 106,
Alternatively, one of the spreadsheet programs 107 is activated, or predetermined data (for example, a mail address) is supplied to the e-mail program 54A.

【0098】アプリケーション通信部121または音声
ランチャ制御部124が所定のプログラムに対して、所
定の動作を完了させたとき、アプリケーション通信部1
21または音声ランチャ制御部124はUI処理部12
3にその旨を通知し、UI処理部123は、動作の対象
となる所定のプログラムに応じて、動作の対象となる所
定のプログラムを使用者に認識させる画像(後述する)
をLCD21に表示させる。
When the application communication unit 121 or the voice launcher control unit 124 completes a predetermined operation for a predetermined program, the application communication unit 1
21 or the voice launcher control unit 124
The UI processing unit 123 notifies the user of the predetermined program to be operated in accordance with the predetermined program to be operated (described later).
Is displayed on the LCD 21.

【0099】状態4においては、音声コマンダ2は、認
識キーに対する操作に係わらず、音声認識エンジンが所
定の音声を認識したとき、静止画撮影プログラム10
3、静止画閲覧プログラム104、若しくは電子ペット
プログラム105のいずれかを起動させ、若しくは静止
画撮影プログラム103、静止画閲覧プログラム10
4、若しくは電子ペットプログラム105のいずれかに
所定のコマンドを送信し、または電子メールプログラム
54A、ワードプロセッサプログラム106、若しくは
表計算プログラム107のいずれかを起動させ、若しく
は電子メールプログラム54Aに所定のデータを供給す
る。
In state 4, when the voice recognition engine recognizes a predetermined voice irrespective of the operation on the recognition key, the voice commander 2 executes the still image capturing program 10
3. Activate either the still image browsing program 104 or the electronic pet program 105, or execute the still image photographing program 103, the still image browsing program 10
4 or a predetermined command is transmitted to one of the electronic pet programs 105, or one of the electronic mail program 54A, the word processor program 106, and the spreadsheet program 107 is activated, or predetermined data is transmitted to the electronic mail program 54A. Supply.

【0100】状態4において、音声入力モード切り換え
ボタン170がクリックされたとき、UI処理部123
は、状態2に遷移する。
When the voice input mode switching button 170 is clicked in state 4, the UI processing unit 123
Transitions to state 2.

【0101】状態2において、静止画撮影プログラム1
03に静止画像を撮影する操作が加えられたとき(例え
ば、シャッタボタン10が押圧されたなど)、UI処理
部123は、静止画像に添付するコメントを入力する状
態5に遷移する。
In state 2, still image shooting program 1
When an operation of photographing a still image is added to 03 (for example, when the shutter button 10 is pressed), the UI processing unit 123 transits to a state 5 for inputting a comment attached to the still image.

【0102】状態5において、使用者がマイクロフォン
24から入力させた音声に対応する信号が音声認識エン
ジン101に供給され、音声認識エンジン101に供給
された音声に対応する信号のレベルに対応するデータ
が、エンジン通信部122を介して、UI処理部123
に供給される。状態5において、UI処理部123は、
音声に対応する信号のレベルに対応するデータに基づ
き、音声コマンダウィンドウ151のレベルゲージ16
1の表示を更新する。
In state 5, a signal corresponding to the voice input by the user from the microphone 24 is supplied to the voice recognition engine 101, and data corresponding to the level of the signal corresponding to the voice supplied to the voice recognition engine 101 is output. , The UI processing unit 123 via the engine communication unit 122
Supplied to In state 5, the UI processing unit 123
Based on the data corresponding to the level of the signal corresponding to the voice, the level gauge 16 of the voice commander window 151 is displayed.
Update the display of 1.

【0103】また、状態5において、音声認識エンジン
101が音声を認識したとき、UI処理部123は、音
声認識エンジン101から認識した単語または文などの
データを受信し、LCD21に表示されている、コメント
を添付する画像に対応する所定のダイアログなどに認識
した単語または文を表示させる。
In state 5, when the voice recognition engine 101 recognizes a voice, the UI processing unit 123 receives data such as a recognized word or sentence from the voice recognition engine 101 and displays the data on the LCD 21. The recognized word or sentence is displayed in a predetermined dialog or the like corresponding to the image to which the comment is attached.

【0104】状態5において、UI処理部123は、ア
プリケーション通信部121に、音声認識エンジン10
1から供給された、認識した単語または文を送信する。
アプリケーション通信部121は、静止画撮影プログラ
ム103に認識した単語または文を送信し、静止画撮影
プログラム103に認識した単語または文を画像のコメ
ントとして保存させる。
In the state 5, the UI processing section 123 sends the speech recognition engine 10 to the application communication section 121.
Transmit the recognized word or sentence supplied from 1.
The application communication unit 121 transmits the recognized word or sentence to the still image shooting program 103 and causes the still image shooting program 103 to store the recognized word or sentence as a comment on the image.

【0105】状態5において、アプリケーション通信部
121を介して、静止画撮影プログラム103からコメ
ントの入力を終了させる操作(例えば、シャッタボタン
10が離されたなど)を示すデータがUI処理部123
に入力されたとき、UI処理部123は、状態2に遷移
する。
In state 5, data indicating an operation of ending input of a comment from the still image photographing program 103 via the application communication unit 121 (for example, the shutter button 10 is released) is transmitted to the UI processing unit 123.
, The UI processing unit 123 transitions to state 2.

【0106】状態2において、音声コマンダウィンドウ
151の辞書管理ボタン165がクリックされると、U
I処理部123は、辞書を設定する状態6に遷移し、ユ
ーザ辞書制御部125に辞書の設定の処理を要求する。
In state 2, when dictionary management button 165 of voice commander window 151 is clicked, U
The I processing unit 123 transitions to the dictionary setting state 6 and requests the user dictionary control unit 125 to perform dictionary setting processing.

【0107】状態6において、ユーザ辞書制御部125
は、辞書設定用のダイアログをLCD21に表示させ、辞
書設定用のダイアログへの操作に基づき、辞書設定デー
タベース114および認識単語・文法データベース11
5に記憶されている設定を更新する。
In state 6, the user dictionary control unit 125
Displays a dictionary setting dialog on the LCD 21 and, based on an operation on the dictionary setting dialog, sets the dictionary setting database 114 and the recognized word / grammar database 11
The setting stored in 5 is updated.

【0108】状態6において、辞書設定用のダイアログ
に配置されているテストボタンがクリックされると、U
I処理部123は、音声認識テストを実行するする状態
8に遷移し、認識テスト処理部126に音声認識テスト
の処理を要求する。
In state 6, when the test button arranged in the dictionary setting dialog is clicked, U
The I processing unit 123 makes a transition to the state 8 in which the voice recognition test is executed, and requests the recognition test processing unit 126 to process the voice recognition test.

【0109】認識テスト処理部126は、音声認識テス
トのダイアログをLCD21に表示させ、エンジン通信部
122を介して、音声認識エンジン101から供給され
た、音声を認識した単語が、辞書設定データベース11
4に登録されている単語と一致するか否かを判定する音
声認識のテストを実行し、その結果を表示する。
The recognition test processing unit 126 causes the LCD 21 to display a dialog of the voice recognition test, and the words recognized by the voice supplied from the voice recognition engine 101 via the engine communication unit 122 are input to the dictionary setting database 11.
Then, a speech recognition test is performed to determine whether the word matches the word registered in No. 4 and the result is displayed.

【0110】または、認識テスト処理部126は、音声
認識テストのダイアログをLCD21に表示させ、エンジ
ン通信部122を介して、音声認識エンジン101から
供給された認識した単語が、辞書設定データベース11
4に登録されている単語に含まれているか否かを判定す
る音声認識のテストを実行し、その結果を表示する。
Alternatively, the recognition test processing unit 126 causes the LCD 21 to display a dialog for a voice recognition test, and the recognized word supplied from the voice recognition engine 101 via the engine communication unit 122 is used by the dictionary setting database 11
Then, a speech recognition test for determining whether the word is included in the words registered in No. 4 is executed, and the result is displayed.

【0111】状態8において、音声認識テストのダイア
ログに配置されているテストボタンがクリックされる
と、UI処理部123は、状態6に遷移する。
In state 8, when the test button arranged in the dialog for the speech recognition test is clicked, the UI processing unit 123 transitions to state 6.

【0112】状態6において、辞書設定用のダイアログ
に配置されている閉じるボタンがクリックされると、U
I処理部123は、状態2に遷移する。
In state 6, when the close button arranged in the dictionary setting dialog is clicked, U
The I processing unit 123 transitions to state 2.

【0113】状態2において、音声コマンダウィンドウ
151のランチャ設定ボタン164がクリックされる
と、UI処理部123は、音声ランチャ制御部124の
電子メールプログラム54A、ワードプロセッサプログ
ラム106、または表計算プログラム107を起動する
設定を行う状態7に遷移し、音声ランチャ制御部124
にプログラムの起動の設定の処理を要求する。
When the launcher setting button 164 of the voice commander window 151 is clicked in the state 2, the UI processing unit 123 activates the electronic mail program 54A, the word processor program 106, or the spreadsheet program 107 of the voice launcher control unit 124. The state transits to the state 7 in which the setting to perform
Request processing of the program startup setting.

【0114】状態7において、音声ランチャ制御部12
4は、ランチャ設定用のダイアログをLCD21に表示さ
せ、ランチャ設定用のダイアログへの操作に基づき、ラ
ンチャ設定データベース113に記憶されている設定を
更新する。
In the state 7, the voice launcher control unit 12
4 displays a launcher setting dialog on the LCD 21 and updates the settings stored in the launcher setting database 113 based on an operation on the launcher setting dialog.

【0115】状態7において、ランチャ設定用のダイア
ログに配置されているテストボタンがクリックされる
と、UI処理部123は、音声認識テストを実行する状
態9に遷移し、認識テスト処理部126に音声認識テス
トの処理を要求する。
In state 7, when the test button arranged in the launcher setting dialog is clicked, the UI processing unit 123 makes a transition to state 9 in which a speech recognition test is executed, and the recognition test processing unit 126 Request recognition test processing.

【0116】認識テスト処理部126は、音声認識テス
トのダイアログをLCD21に表示させ、エンジン通信部
122を介して、音声認識エンジン101から供給され
た認識した単語または文に、ランチャ設定データベース
113に登録されている単語が含まれ、認識した単語ま
たは文が設定されている文法に一致するか否かを判定す
る音声認識のテストを実行し、その結果を表示する。
The recognition test processing unit 126 displays a dialog for the voice recognition test on the LCD 21 and registers the recognized word or sentence supplied from the voice recognition engine 101 via the engine communication unit 122 in the launcher setting database 113. Then, a speech recognition test is performed to determine whether the recognized word or sentence matches the set grammar, and the result is displayed.

【0117】状態9において、音声認識テストのダイア
ログに配置されているテストボタンがクリックされる
と、UI処理部123は、状態7に遷移する。
In state 9, when the test button arranged in the dialog for the voice recognition test is clicked, the UI processing unit 123 transitions to state 7.

【0118】状態7において、ランチャ設定用のダイア
ログに配置されている閉じるボタンがクリックされる
と、UI処理部123は、状態2に遷移する。
In state 7, when the close button arranged in the launcher setting dialog is clicked, the UI processing unit 123 transitions to state 2.

【0119】図13は、所定の入力に対応した、エンジ
ン通信部122の状態の遷移を説明する状態遷移図であ
る。図13において、()で囲まれた文は、状態の遷移
の条件(例えば、プログラムの起動、起動の終了通知な
ど)を示し、[]で囲まれた文は、状態の遷移に伴って
実行される処理(例えば、処理結果通知、認識結果転送
など)を示す。
FIG. 13 is a state transition diagram for explaining a state transition of the engine communication unit 122 corresponding to a predetermined input. In FIG. 13, statements enclosed in parentheses indicate state transition conditions (for example, program startup, startup end notification, etc.), and statements enclosed in [] are executed along with state transitions. (For example, processing result notification, recognition result transfer, etc.).

【0120】音声コマンダ102が起動されると、エン
ジン通信部122は、音声認識エンジン101を起動
し、音声認識エンジン101の起動を待つ状態11に遷
移する。状態11において、初期化に失敗すると、エン
ジン通信部122は、その結果をUI処理部123に送
信する。初期化に失敗した旨を受信したUI処理部12
3は、音声コマンダ102を終了させるので、初期化に
失敗したとき、エンジン通信部122は、終了する。
When the voice commander 102 is activated, the engine communication unit 122 activates the voice recognition engine 101 and transitions to a state 11 for waiting for the voice recognition engine 101 to be activated. In the state 11, when the initialization fails, the engine communication unit 122 transmits the result to the UI processing unit 123. The UI processing unit 12 that has received the notification that the initialization has failed
3 terminates the voice commander 102, so that when the initialization fails, the engine communication unit 122 terminates.

【0121】状態11において、音声認識エンジン10
1の起動の結果をUI処理部123に通知したとき、エ
ンジン通信部122は、イベント待ちの状態12に遷移
する。
In state 11, the speech recognition engine 10
When the engine communication unit 122 notifies the UI processing unit 123 of the result of the activation of the first, the engine communication unit 122 transitions to the event waiting state 12.

【0122】使用者が認識キー(例えば、コントロール
キー)を押圧すると、UI処理部123がその旨のデー
タをエンジン通信部122に送信するので、状態11に
おいて、エンジン通信部122は、使用者が認識キーを
押圧した旨のデータを受信したとき、アプリケーション
通信部121から静止画撮影プログラム103、静止画
閲覧プログラム104、および電子ペットプログラム1
05の内、アクティブであるプログラムを示すデータを
受信し、そのデータに対応した単語および文法を示すデ
ータを認識単語・文法データベース115から読み出
す。
When the user presses a recognition key (for example, a control key), the UI processing unit 123 transmits data to that effect to the engine communication unit 122. In state 11, the engine communication unit 122 When receiving data indicating that the recognition key has been pressed, the still image photographing program 103, the still image browsing program 104, and the electronic pet program 1 from the application communication unit 121.
The data indicating the active program is received from the recognition word / grammar database 115, and the data indicating the word and the grammar corresponding to the data is read from the recognition word / grammar database 115.

【0123】エンジン通信部122は、アクティブであ
るプログラムに対応した単語および文法を示すデータ、
または静止画撮影プログラム103、静止画閲覧プログ
ラム104、若しくは電子ペットプログラム105のコ
マンドなどに関するデータを適宜変換して、音声認識エ
ンジン101に送信して、音声認識エンジン101から
音声認識の結果を示すデータを受信できる状態13に遷
移する。
Engine communication section 122 includes data indicating words and grammar corresponding to the active program,
Alternatively, data relating to commands of the still image photographing program 103, the still image browsing program 104, or the electronic pet program 105, etc. are appropriately converted and transmitted to the voice recognition engine 101, and data indicating the result of voice recognition from the voice recognition engine 101. The state transits to the state 13 in which the.

【0124】状態13において、エンジン通信部122
は、使用者がマイクロフォン24から入力させた音声に
対応する信号を受信した音声認識エンジン101が生成
する、信号のレベルに対応するデータを受信して、UI
処理部123に供給する。UI処理部123は、音声に
対応する信号のレベルに対応するデータに基づき、音声
コマンダウィンドウ151のレベルゲージ161の表示
を更新する。
In state 13, the engine communication unit 122
Receives data corresponding to the signal level generated by the voice recognition engine 101 that has received the signal corresponding to the voice input by the user from the microphone 24, and
It is supplied to the processing unit 123. The UI processing unit 123 updates the display of the level gauge 161 of the voice commander window 151 based on the data corresponding to the level of the signal corresponding to the voice.

【0125】使用者がマイクロフォン24に向かって音
声を発すると、音声認識エンジン101が、それを検知
して、音声を検出した旨のデータをエンジン通信部12
2に送信する。状態13において、エンジン通信部12
2は、音声を検出した旨のデータを受信すると、そのデ
ータをUI処理部123に転送するとともに、状態14
に遷移する。
When a user utters a voice toward the microphone 24, the voice recognition engine 101 detects the voice and outputs data indicating that the voice has been detected to the engine communication unit 12.
Send to 2. In state 13, the engine communication unit 12
2 receives the data indicating that the voice is detected, transfers the data to the UI processing unit 123, and
Transitions to.

【0126】状態14において、エンジン通信部122
は、使用者がマイクロフォン24から入力させた音声に
対応する信号を受信した音声認識エンジン101が生成
する、信号のレベルに対応するデータを受信して、UI
処理部123に供給する。UI処理部123は、音声に
対応する信号のレベルに対応するデータに基づき、音声
コマンダウィンドウ151のレベルゲージ161の表示
を更新する。
In state 14, engine communication unit 122
Receives data corresponding to the signal level generated by the voice recognition engine 101 that has received the signal corresponding to the voice input by the user from the microphone 24, and
It is supplied to the processing unit 123. The UI processing unit 123 updates the display of the level gauge 161 of the voice commander window 151 based on the data corresponding to the level of the signal corresponding to the voice.

【0127】状態14において、エンジン通信部122
は、音声認識エンジン101から認識した単語または文
などのデータを受信したとき、そのデータをUI処理部
123に供給する。UI処理部123は、認識した単語
または文などのデータを基に、LDC21に表示する画
像または文字などを更新する。
In state 14, engine communication unit 122
When receiving data such as a recognized word or sentence from the speech recognition engine 101, the data is supplied to the UI processing unit 123. The UI processing unit 123 updates an image or a character displayed on the LDC 21 based on data such as the recognized word or sentence.

【0128】状態14において、エンジン通信部122
は、音声認識エンジン101から受信した、認識した単
語または文などのデータが、静止画撮影プログラム10
3、静止画閲覧プログラム104、若しくは電子ペット
プログラム105のいずれかの起動、または静止画撮影
プログラム103、静止画閲覧プログラム104、若し
くは電子ペットプログラム105のいずれかにコマンド
に対応すると判定したとき、認識した単語または文など
のデータをアプリケーション通信部121に供給する。
In state 14, engine communication unit 122
The data such as the recognized word or sentence received from the voice recognition engine 101 is stored in the still image photographing program 10.
3. Recognition is performed when any of the still image browsing program 104 or the electronic pet program 105 is activated, or when it is determined that the still image photographing program 103, the still image browsing program 104, or the electronic pet program 105 corresponds to the command. The data such as the selected word or sentence is supplied to the application communication unit 121.

【0129】状態14において、エンジン通信部122
は、音声認識エンジン101から受信した、認識した単
語または文などのデータが、電子メールプログラム54
A、ワードプロセッサプログラム106、若しくは表計
算プログラム107のいずれかの起動、または電子メー
ルプログラム54Aに供給すべきデータに対応すると判
定したとき、認識した単語または文などのデータを音声
ランチャ制御部124に供給する。
In the state 14, the engine communication unit 122
The data received from the speech recognition engine 101, such as a recognized word or sentence, is stored in the e-mail program 54.
A, when the word processor program 106 or the spreadsheet program 107 is activated, or when it is determined that the data corresponds to the data to be supplied to the e-mail program 54A, the recognized data such as a word or sentence is supplied to the voice launcher control unit 124. I do.

【0130】状態14において、認識した単語または文
などのデータをアプリケーション通信部121または音
声ランチャ制御部124に供給したとき、エンジン通信
部122は、状態12に遷移する。
In state 14, when data such as a recognized word or sentence is supplied to the application communication unit 121 or the voice launcher control unit 124, the engine communication unit 122 transitions to state 12.

【0131】図14は、所定の入力に対応した、アプリ
ケーション通信部121の状態の遷移を説明する状態遷
移図である。
FIG. 14 is a state transition diagram for explaining a state transition of the application communication unit 121 corresponding to a predetermined input.

【0132】アプリケーション通信部121は、音声コ
マンダ102の起動とともに、状態21に遷移する。状
態21において、音声コマンダ102が終了したとき、
アプリケーション通信部121は、終了する。
When the voice commander 102 is activated, the application communication section 121 makes a transition to the state 21. In the state 21, when the voice commander 102 ends,
The application communication unit 121 ends.

【0133】アプリケーション通信部121は、動作し
ているとき、常に状態21にあり、ウィンドウのフォー
カスが変化したとき、または所定の時間が経過したと
き、静止画撮影プログラム103、静止画閲覧プログラ
ム104、または電子ペットプログラム105が起動さ
れているか否か、またはいずれがアクティブになってい
るかを調べて、アプリケーション通信部121内部に記
憶されている所定のデータを更新する。
When operating, the application communication unit 121 is always in the state 21, and when the focus of the window changes or a predetermined time has elapsed, the still image photographing program 103, the still image browsing program 104, Alternatively, it checks whether or not the electronic pet program 105 has been activated, or which one is active, and updates predetermined data stored inside the application communication unit 121.

【0134】また、アプリケーション通信部121は、
UI処理部123またはエンジン通信部122から要求
があったとき、静止画撮影プログラム103、静止画閲
覧プログラム104、または電子ペットプログラム10
5が起動されているか否か、または、いずれがアクティ
ブになっているか(いずれもアクティブでない場合、そ
れを示すデータ含む)を示すデータをUI処理部123
またはエンジン通信部122に送信する。
Further, the application communication section 121
When there is a request from the UI processing unit 123 or the engine communication unit 122, the still image photographing program 103, the still image browsing program 104, or the electronic pet program 10
5 indicates whether or not 5 is activated, or which is active (if none is active, data indicating this is included).
Or, it transmits to engine communication section 122.

【0135】状態21において、エンジン通信部122
から認識した単語または文などのデータを受信したと
き、アプリケーション通信部121は、図47で後述す
るフローチャートに示す手順に従って、静止画撮影プロ
グラム103、静止画閲覧プログラム104、若しくは
電子ペットプログラム105を起動させ、静止画撮影プ
ログラム103、静止画閲覧プログラム104、若しく
は電子ペットプログラム105のいずれかをアクティブ
にし、または静止画撮影プログラム103、静止画閲覧
プログラム104、若しくは電子ペットプログラム10
5に所定のコマンドを供給する。
In state 21, engine communication unit 122
When the application communication unit 121 receives data such as a word or a sentence recognized from the application, the application communication unit 121 activates the still image photographing program 103, the still image browsing program 104, or the electronic pet program 105 according to a procedure shown in a flowchart described later with reference to FIG. To activate any one of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105, or the still image photographing program 103, the still image browsing program 104, or the electronic pet program 10
5 is supplied with a predetermined command.

【0136】また、状態21において、静止画撮影プロ
グラム103からコメントの入力させる、または終了さ
せる操作(例えば、シャッタボタン10が押圧された、
または離されたなど)を示すデータが入力されたとき、
アプリケーション通信部121は、UI処理部123に
そのデータを転送する。
In the state 21, an operation for inputting or ending a comment from the still image shooting program 103 (for example, when the shutter button 10 is pressed,
Or release, etc.)
The application communication unit 121 transfers the data to the UI processing unit 123.

【0137】次に、パーソナルコンピュータ1のLCD2
1に表示する画面について説明する。図15は、音声コ
マンダ102、音声認識エンジン101、および静止画
撮影プログラム103が起動しているとき、LCD21に
表示される画面を示す図である。
Next, the LCD 2 of the personal computer 1
The screen displayed in No. 1 will be described. FIG. 15 is a diagram illustrating a screen displayed on the LCD 21 when the voice commander 102, the voice recognition engine 101, and the still image shooting program 103 are running.

【0138】LCD21の画面の所定の位置に、電子メー
ルプログラム54Aに対応するアイコン191、ワード
プロセッサプログラム106に対応するアイコン19
2、表計算プログラム107に対応するアイコン19
3、音声コマンダウィンドウ151、および静止画撮影
プログラム103が表示させるウィンドウ194が配置
される。
An icon 191 corresponding to the e-mail program 54A and an icon 19 corresponding to the word processor program 106 are provided at predetermined positions on the screen of the LCD 21.
2. Icon 19 corresponding to spreadsheet program 107
3. An audio commander window 151 and a window 194 displayed by the still image shooting program 103 are arranged.

【0139】スティック式ポインティングデバイス5な
どを操作してアイコン191を選択して、起動コマンド
を実行する(図示せぬメニューなどから選択するなどの
操作をする)と、電子メールプログラム54Aが起動さ
れる。アイコン192を選択して、起動コマンドを実行
すると、ワードプロセッサプログラム106が起動され
る。アイコン193を選択して、起動コマンドを実行す
ると、表計算プログラム107が起動される。
When the stick type pointing device 5 or the like is operated to select the icon 191 and execute the start command (by performing an operation such as selecting from a menu or the like, not shown), the e-mail program 54A is started. . When the icon 192 is selected and the start command is executed, the word processor program 106 is started. When the icon 193 is selected and a start command is executed, the spreadsheet program 107 is started.

【0140】静止画撮影プログラム103が表示させる
ウィンドウ194は、CCDビデオカメラ23が撮像して
いる画像を表示する画像表示領域195およびエフェク
トボタン196などを有する。
A window 194 displayed by the still image shooting program 103 has an image display area 195 for displaying an image picked up by the CCD video camera 23, an effect button 196, and the like.

【0141】図15に示す状態からパーソナルコンピュ
ータ1のシャッタボタン10を押圧すると、静止画撮影
プログラム103は、CCDビデオカメラ23が撮像てい
る画像を基に、所定の形式(例えば、JPEG(Joint Photo
graphic Experts Group)など)の静止画像のデータを
生成して、そのデータを格納したファイルを生成して、
生成したファイルをHDD56に記録させるとともに、静
止画閲覧プログラム104を起動させる。
When the shutter button 10 of the personal computer 1 is pressed from the state shown in FIG. 15, the still image photographing program 103 executes a predetermined format (for example, JPEG (Joint Photo) based on the image captured by the CCD video camera 23.
graphic Experts Group)) and generate a file containing that data,
The generated file is recorded on the HDD 56 and the still image browsing program 104 is started.

【0142】パーソナルコンピュータ1のシャッタボタ
ン10を押圧したまま、使用者がマイクロフォン24に
音声(例えば、”パパと八丈島で”)を入力すると、U
I処理部123は、状態5に遷移して、アプリケーショ
ン通信部122を介して、音声認識エンジン101から
供給された、認識された単語または文を受信して、アプ
リケーション通信部121を介して受信した単語または
文を静止画撮影プログラム103に出力する。
When the user inputs a voice (for example, “at Daddy and Hachijojima”) to the microphone 24 while pressing the shutter button 10 of the personal computer 1, U
The I processing unit 123 transits to the state 5, receives the recognized word or sentence supplied from the speech recognition engine 101 via the application communication unit 122, and receives the received word or sentence via the application communication unit 121. The word or sentence is output to the still image shooting program 103.

【0143】静止画撮影プログラム103は、静止画像
のファイルの、例えば、ヘッダの所定の位置に、受信し
た単語または文をコメントとして貼付する。
The still image shooting program 103 pastes the received word or sentence as a comment, for example, at a predetermined position of the header of the still image file.

【0144】パーソナルコンピュータ1のシャッタボタ
ン10が離されたとき、UI処理部123は、状態2に
遷移するので、音声の認識の処理は終了する。
When the shutter button 10 of the personal computer 1 is released, the UI processing section 123 makes a transition to state 2, and the voice recognition processing ends.

【0145】なお、静止画像のファイルへのコメントの
貼付は、静止画閲覧プログラム104が実行するように
してもよい。
The attachment of the comment to the file of the still image may be executed by the still image browsing program 104.

【0146】図16に示すように、静止画閲覧プログラ
ム104は、生成したファイルに格納されている静止画
像を表示させる。静止画閲覧プログラム104が表示さ
せるウィンドウ201は、生成したファイルの静止画像
を表示させる画像表示領域203、貼付された単語また
は文を表示させるコメント入力ダイアログ202、メー
ルと名前が付されたボタン204などを有する。
As shown in FIG. 16, the still image browsing program 104 displays a still image stored in the generated file. The window 201 displayed by the still image browsing program 104 includes an image display area 203 for displaying a still image of the generated file, a comment input dialog 202 for displaying a pasted word or sentence, a button 204 with an e-mail and a name, and the like. Having.

【0147】次に、静止画像のファイルに添付する単語
を登録するダイアログについて説明する。図17は、音
声コマンダウィンドウ151の辞書管理ボタン165を
クリックしたとき、ユーザ辞書制御部125がLCD21
に表示させる辞書管理ダイアログを示す図である。
Next, a dialog for registering a word to be attached to a still image file will be described. FIG. 17 shows that when the dictionary management button 165 of the voice commander window 151 is clicked, the user dictionary control unit 125
FIG. 7 is a diagram showing a dictionary management dialog displayed on the screen.

【0148】辞書管理ダイアログには、呼び名(音声認
識エンジン101に認識させる単語または文)に対応す
るメールアドレスを表示させるときクリックされるメー
ルアドレスと名前が付されたタブ221、呼び名に対応
する人名を表示させるときクリックされる人名と名前が
付されたタブ222、呼び名に対応する地名を表示させ
るときクリックされる地名と名前が付されたタブ22
3、呼び名に対応する都道府県名を表示させるときクリ
ックされる都道府県と名前が付されたタブ224、およ
び呼び名に対応するURLを表示させるときクリックさ
れるURLと名前が付されたタブ225が配置されてい
る。
In the dictionary management dialog box, a tab 221 having a mail address and a name clicked when displaying a mail address corresponding to a call name (a word or a sentence to be recognized by the voice recognition engine 101), a personal name corresponding to the call name Tab 222 with the name and name of the person clicked to display the name, and tab 22 with the name of the place clicked to display the name of the place corresponding to the call name
3. A tab 224 labeled with the prefecture and name clicked when displaying the name of the prefecture corresponding to the call name, and a tab 225 labeled with the URL clicked when displaying the URL corresponding to the call name. Are located.

【0149】図17に示す例では、タブ222がクリッ
クされ、呼び名表示フィールド226には、辞書設定デ
ータベース114に記憶されている、人名のカテゴリに
属する、呼び名および呼び名に対応する登録語(音声認
識が成功したとき、コメントとして入力される単語)が
表示されている。例えば、呼び名”パパ”に対する登録
語は、”パパ”である。”かおりちゃん”または”かお
りん”のいずれかが認識されたとき、コメントとして入
力される登録語は、”かおりちゃん”である。呼び名”
隣のお姉さん”に対する登録語は、”隣のお姉さん”で
ある。
In the example shown in FIG. 17, the tab 222 is clicked, and in the call name display field 226, the call names and the registered words corresponding to the call names that belong to the personal name category and are stored in the dictionary setting database 114 (voice recognition). Is successful, a word entered as a comment) is displayed. For example, the registered word for the nickname "papa" is "papa". When either “Kaori-chan” or “Kaori-in” is recognized, the registered word input as a comment is “Kaori-chan”. Name "
The registered word for “next sister” is “next sister”.

【0150】辞書管理ダイアログには、状態8に遷移す
るためのテストボタン227および登録ボタン228が
配置されている。
A test button 227 and a registration button 228 for transitioning to state 8 are arranged in the dictionary management dialog.

【0151】登録ボタン228がクリックされたとき、
ユーザ辞書制御部125は、図18に示す新規登録ダイ
アログをLCD21に表示させる。新規登録ダイアログ
は、呼び名を入力するための呼び名入力フィールド24
1、および登録語を入力するための登録語入力フィール
ド242を有する。呼び名入力フィールド241に所定
の呼び名を入力して、登録語入力フィールド242に呼
び名に対応する登録語を入力して、OKと名前が付され
たボタンをクリックすれば、呼び名入力フィールド24
1に入力された呼び名、および登録語入力フィールド2
42に登録語(呼び名に対応する)は、辞書設定データ
ベース114に記憶される。
When the registration button 228 is clicked,
The user dictionary control unit 125 causes the LCD 21 to display a new registration dialog shown in FIG. The new registration dialog box includes a nickname input field 24 for inputting a nickname.
1 and a registered word input field 242 for inputting a registered word. By inputting a predetermined nickname in the nickname input field 241, inputting a registered word corresponding to the nickname in the registered word input field 242, and clicking a button labeled “OK”, the nickname input field 24 is displayed.
Name entered in 1 and registered word input field 2
The registered words (corresponding to the names) in 42 are stored in the dictionary setting database 114.

【0152】新規登録ダイアログのテストと名前が付さ
れたボタン243をクリックすると、UI処理部123
は、状態8に遷移して、認識テスト処理部126は、図
19に示す新規登録単語テストダイアログを表示させ
る。
When the user clicks the button 243 with the test and name in the new registration dialog, the UI processing unit 123
Transits to the state 8, and the recognition test processing unit 126 causes the newly registered word test dialog shown in FIG. 19 to be displayed.

【0153】新規登録単語テストダイアログは、呼び名
入力フィールド241、所定のメッセージを表示するメ
ッセージフィールド252、およびテスト結果表示フィ
ールド253を有する。使用者がマイクロフォン24に
向かって音声を入力すると(マイクロフォン24に向か
って呼び名を喋ると)、認識テスト処理部126は、音
声認識エンジン101が認識した音声と、呼び名入力フ
ィールド241に入力した単語とが一致したか否かを判
定し、その結果をテスト結果表示フィールド253に表
示する。
The newly registered word test dialog has a call name input field 241, a message field 252 for displaying a predetermined message, and a test result display field 253. When the user inputs a voice to the microphone 24 (speaks the name to the microphone 24), the recognition test processing unit 126 outputs the voice recognized by the voice recognition engine 101 and the word input to the name input field 241. Is determined, and the result is displayed in the test result display field 253.

【0154】図19に示す、テスト結果表示フィールド
253の例は、使用者がマイクロフォン24に向かっ
て”おねえちゃん”と入力し、音声認識エンジン101
が”おねえちゃん”を認識して、認識テスト処理部12
6が、音声認識エンジン101が認識した”おねえちゃ
ん”と、呼び名入力フィールド241に入力されてい
る”おねえちゃん”とが一致したと判定したとき、表示
される例である。
In the example of the test result display field 253 shown in FIG. 19, the user inputs “Sister” into the microphone 24 and the voice recognition engine 101
Recognizes "Sister", and recognizes test processor 12
6 is an example displayed when it is determined that “Sister” recognized by the voice recognition engine 101 matches “Sister” entered in the nickname input field 241.

【0155】音声認識エンジン101が認識した音声
と、呼び名入力フィールド241に入力した単語とが一
致しないと判定された場合、例えば、認識テスト処理部
126は、テスト結果表示フィールド253に音声認識
エンジン101が認識した音声に対応するテキスト、お
よび一致しないことを示すメッセージ(例えば、”N
G”など)を表示させる。
If it is determined that the speech recognized by the speech recognition engine 101 does not match the word entered in the call name input field 241, for example, the recognition test processing unit 126 displays the speech recognition engine 101 in the test result display field 253. Text corresponding to the recognized speech and a message indicating that there is no match (e.g., "N
G ").

【0156】新規登録単語テストダイアログのテスト中
と名前が付されたボタン251がクリックされたとき、
UI処理部123は、状態6に遷移して、ユーザ辞書制
御部125に辞書管理ダイアログを表示させる。
When the button 251 named “Testing” in the new registration word test dialog is clicked,
The UI processing unit 123 makes a transition to state 6, and causes the user dictionary control unit 125 to display a dictionary management dialog.

【0157】辞書管理ダイアログのテストボタン227
がクリックされたとき、UI処理部123は、状態8に
遷移して、認識テスト処理部126は、図20に示す登
録単語テストダイアログを表示する。
Test button 227 in dictionary management dialog
When is clicked, the UI processing unit 123 transits to the state 8, and the recognition test processing unit 126 displays the registered word test dialog shown in FIG.

【0158】登録単語テストダイアログは、タブ22
1、タブ222、タブ223、タブ224、タブ22
5、および呼び名表示フィールド226に加えて、所定
のメッセージを表示するメッセージフィールド272、
およびテスト結果表示フィールド273を有する。
The registered word test dialog box has a tab 22
1, tab 222, tab 223, tab 224, tab 22
5, and a message field 272 for displaying a predetermined message in addition to the call name display field 226,
And a test result display field 273.

【0159】登録単語テストダイアログが表示されてい
る状態において、使用者がマイクロフォン24に向かっ
て音声を入力すると(マイクロフォン24に向かって呼
び名を喋ると)、認識テスト処理部126は、呼び名表
示フィールド226に表示されているいずれかの単語
と、音声認識エンジン101が認識した単語とが一致し
たか否かを判定し、呼び名表示フィールド226に表示
されているいずれかの単語と、音声認識エンジン101
が認識した単語とが一致した場合、呼び名表示フィール
ド226に表示されている一致した単語をハイライトに
して表示させる。
When the user inputs a voice to the microphone 24 (speaks a name to the microphone 24) while the registered word test dialog is displayed, the recognition test processing unit 126 causes the name display field 226 to be displayed. Is determined whether the word recognized by the speech recognition engine 101 matches any of the words displayed by the speech recognition engine 101, and any one of the words displayed in the call name display field 226 is determined.
If the word matches the recognized word, the matched word displayed in the call name display field 226 is highlighted and displayed.

【0160】音声認識エンジン101が認識した単語
が、呼び名表示フィールド226に表示されているいず
れの単語とも一致しないと判定された場合、認識テスト
処理部126は、例えば、テスト結果表示フィールド2
73に音声認識エンジン101が認識した音声に対応す
るテキスト、および一致しないことを示すメッセージ
(例えば、”NG”など)を表示させる。
If it is determined that the word recognized by the speech recognition engine 101 does not match any of the words displayed in the call name display field 226, the recognition test processing unit 126, for example, executes the test result display field 2
A text corresponding to the voice recognized by the voice recognition engine 101 and a message indicating that the text does not match (for example, “NG”) are displayed at 73.

【0161】登録単語テストダイアログのテスト中と名
前が付されたボタン271がクリックされたとき、UI
処理部123は、状態6に遷移して、ユーザ辞書制御部
125に辞書管理ダイアログを表示させる。
When the button 271 named “Testing” in the registered word test dialog is clicked, the UI
The processing unit 123 makes a transition to state 6, and causes the user dictionary control unit 125 to display a dictionary management dialog.

【0162】辞書管理ダイアログのタブ223がクリッ
クされたとき、ユーザ辞書制御部125は、図21に示
すように、呼び名表示フィールド281に、辞書設定デ
ータベース114に記憶されている、地名のカテゴリに
属する、呼び名および呼び名に対応する登録語(音声認
識が成功したとき、コメントとして入力される単語)を
表示させる。例えば、呼び名”八丈島”または”八丈”
に対する登録語は、”八丈島”である。呼び名”東京タ
ワー”に対する登録語は、”東京タワー”である。”野
球場”または”球場”のいずれかが認識されたとき、コ
メントとして入力される登録語は、”野球場”である。
When the tab 223 of the dictionary management dialog is clicked, the user dictionary control unit 125 assigns the user name to the place name category stored in the dictionary setting database 114 in the call name display field 281 as shown in FIG. , And a registered word (a word input as a comment when speech recognition is successful) corresponding to the nickname. For example, the name “Hachijojima” or “Hachijo”
The registered word for is "Hachijojima". The registered word for the nickname "Tokyo Tower" is "Tokyo Tower". When either “baseball field” or “ball field” is recognized, the registered word input as a comment is “baseball field”.

【0163】図16に示すように、静止画閲覧プログラ
ム104が、所定の静止画像を表示させている状態か
ら、メールと名前が付されたボタン204をクリックす
ると、静止画閲覧プログラム104は、電子メールプロ
グラム54Aが起動していないとき、電子メールプログ
ラム54Aを起動させる。
As shown in FIG. 16, when the still image browsing program 104 displays a predetermined still image and clicks a button 204 with a mail and a name, the still image browsing program 104 When the mail program 54A is not running, the electronic mail program 54A is started.

【0164】静止画閲覧プログラム104は、電子メー
ルプログラム54Aに新規のメールを生成させる。静止
画像閲覧プログラム104は、生成させた新規のメール
に静止画像のファイル(表示している静止画像に対応す
る)を添付する。
The still image browsing program 104 causes the electronic mail program 54A to generate a new mail. The still image browsing program 104 attaches a still image file (corresponding to the displayed still image) to the generated new mail.

【0165】更に、静止画像閲覧プログラム104は、
添付した静止画像ファイルに格納されているコメント
を、新規のメールの本文に貼付させる。
Furthermore, the still image browsing program 104
Attach the comment stored in the attached still image file to the body of the new mail.

【0166】図22は、静止画像閲覧プログラム104
が、電子メールプログラム54Aに新規のメッセージを
生成させたとき、電子メールプログラム54AがLCD2
1に表示させるメッセージウィンドウ301を説明する
図である。
FIG. 22 shows a still image browsing program 104.
Causes the e-mail program 54A to generate a new message, the e-mail program 54A
FIG. 3 is a diagram for explaining a message window 301 displayed on No. 1;

【0167】添付ファイル表示フィールド312には、
添付された静止画像のファイルのファイル名が表示され
る。本文表示フィールド313には、添付した静止画像
ファイルに格納されているコメントから貼付された新規
のメッセージの本文が表示される。
In the attached file display field 312,
The file name of the attached still image file is displayed. The text display field 313 displays the text of a new message pasted from the comment stored in the attached still image file.

【0168】宛先フィールド311に、所定のメールア
ドレスが入力され、メッセージウィンドウ301の送信
と名前が付されたボタンがクリックされたとき、メッセ
ージウィンドウ301に表示されたメッセージは、宛先
フィールド311に設定されたメールアドレス宛てに、
インターネット92を介して、送信される。
When a predetermined e-mail address is entered in the destination field 311 and the transmission window of the message window 301 and the button with the name are clicked, the message displayed in the message window 301 is set in the destination field 311. To your email address
It is transmitted via the Internet 92.

【0169】次に、音声コマンダ102が電子メールプ
ログラム54Aを起動させて、電子メールプログラム5
4Aに所定のメールアドレスが設定されたメールを生成
させる処理について説明する。音声コマンダ102が起
動している状態で、認識キーを押圧したまま、マイクロ
フォン24に、例えば、”姉さんにメール”と音声を入
力すると、音声認識エンジン101は、”姉さんにメー
ル”に対応する所定のデータを音声コマンダ102に供
給する。
Next, the voice commander 102 activates the e-mail program 54A and the e-mail program 5A.
Processing for causing 4A to generate a mail having a predetermined mail address will be described. When the voice commander 102 is activated and a voice is input to the microphone 24 while the recognition key is being pressed, for example, “mail to sister” is input. Is supplied to the voice commander 102.

【0170】図23に示すように、UI処理部123
は、音声コマンダウィンドウ151から画面全体に向か
って広がるように(図中の点線の矢印(点線の矢印は、
説明のための矢印で、実際には表示されない)で示す方
向に向かって)、LCD21に波紋状の画像を表示させ
る。
As shown in FIG. 23, the UI processing unit 123
Is extended from the voice commander window 151 toward the entire screen (the dotted arrow in the figure (the dotted arrow is
In the direction indicated by an arrow for explanation, which is not actually displayed), a ripple-like image is displayed on the LCD 21.

【0171】次に、図24に示すように、UI処理部1
23は、画面全体から電子メールプログラム54Aに対
応するアイコン191に向かって収束するように(図中
の点線の矢印(点線の矢印は、説明のための矢印で、実
際には表示されない)で示す方向に向かって)、LCD2
1に波紋状の画像を表示させる。
Next, as shown in FIG. 24, the UI processing unit 1
Reference numeral 23 indicates a convergence from the entire screen toward the icon 191 corresponding to the e-mail program 54A (indicated by a dotted arrow in the figure (a dotted arrow is an arrow for explanation and is not actually displayed). LCD2
1 displays a ripple-like image.

【0172】そして、図25に示すように、UI処理部
123は、電子メールプログラム54Aに対応するアイ
コン191を強調表示させる。電子メールプログラム5
4Aが起動していないとき、音声コマンダ102のアプ
リケーション通信部12は、静止画像閲覧プログラム1
04に、電子メールプログラム54Aを起動させる。
Then, as shown in FIG. 25, the UI processing section 123 highlights the icon 191 corresponding to the electronic mail program 54A. Email program 5
When 4A is not running, the application communication unit 12 of the voice commander 102 transmits the still image browsing program 1
In 04, the e-mail program 54A is activated.

【0173】その後、図26に示すように、音声ランチ
ャ制御部124は、電子メールプログラム54Aに、新
規のメッセージを生成させ、電子メールプログラム54
Aは、新規のメッセージをメッセージウィンドウ301
に表示させる。音声ランチャ制御部124は、電子メー
ルプログラム54Aに、新規のメッセージのメールアド
レスとして、エンジン通信部122を介して、音声認識
エンジンから供給された、”姉さんにメール”の”姉さ
ん”に対応するメールアドレスを設定させる。
Thereafter, as shown in FIG. 26, the voice launcher control section 124 causes the e-mail program 54A to generate a new message,
A sends a new message to message window 301
To be displayed. The voice launcher control unit 124 sends the e-mail program 54A as a mail address of the new message, the mail corresponding to the “sister” of the “mail to sister” supplied from the voice recognition engine via the engine communication unit 122. Set the address.

【0174】新規のメッセージを表示するメッセージウ
ィンドウ301の宛先フィールド311には、”姉さん
にメール”の”姉さん”に対応して設定したメールアド
レス(例えば、ane@home.zzz)が表示される。
In the destination field 311 of the message window 301 for displaying a new message, a mail address (for example, ane@home.zzz) set corresponding to “Sister” of “Mail to Sister” is displayed.

【0175】図27は、辞書管理ダイアログのメールア
ドレスと名前が付されたタブ221がクリックされたと
き、辞書管理ダイアログの例を示す図である。呼び名表
示フィールド351には、ランチャ設定データベース1
13に記憶されている、メールアドレスのカテゴリに属
する、呼び名および呼び名に対応する登録語(音声認識
が成功したとき、メールアドレスとして設定されるテキ
スト)が表示されている。例えば、呼び名”パパ”に対
する登録語は、”daddy@nowhere.xxx”である。”兄さ
ん”が認識されたとき、メールアドレスとして設定され
る登録語は、”ani@home.yyy”である。呼び名”姉さ
ん”に対する登録語は、”ane@home.zzz”である。
FIG. 27 is a diagram showing an example of the dictionary management dialog when the tab 221 to which the mail address and name of the dictionary management dialog are added is clicked. The nickname display field 351 includes the launcher setting database 1
13, a call name and a registered word corresponding to the call name (a text set as a mail address when speech recognition is successful) belonging to the mail address category are displayed. For example, the registered word for the nickname "papa" is "daddy@nowhere.xxx". When "brother" is recognized, the registered word set as the mail address is "ani@home.yyy". The registered word for the nickname "Sister" is "ane@home.zzz".

【0176】次に、音声コマンダ102が静止画撮影プ
ログラム103に所定のコマンドを供給するときの画面
の表示について説明する。静止画撮影プログラム103
が表示させるウィンドウ194のエフェクトボタン19
6をクリックすると、図28に示すエフェクト設定ダイ
アログ371がLDC21に表示される。
Next, the screen display when the voice commander 102 supplies a predetermined command to the still image shooting program 103 will be described. Still image shooting program 103
The effect button 19 of the window 194 displayed by
Clicking on 6 displays an effect setting dialog 371 shown in FIG.

【0177】エフェクト設定ダイアログ371のエフェ
クト選択フィールド372から所定のエフェクトを選択
すると、静止画撮影プログラム103は、CCDビデオカ
メラ23が撮像した画像に選択されたエフェクトをかけ
る。
When a predetermined effect is selected from the effect selection field 372 of the effect setting dialog 371, the still image shooting program 103 applies the selected effect to the image captured by the CCD video camera 23.

【0178】例えば、エフェクト設定ダイアログ371
で”モザイク”を選択すると、静止画撮影プログラム1
03は、CCDビデオカメラ23が撮像した画像にいわゆ
る”モザイク”エフェクトをかけ、”モザイク”エフェ
クトをかけた画像を画像表示領域195に表示させる。
エフェクト設定ダイアログ371で”ネガポジ反転”を
選択すると、静止画撮影プログラム103は、CCDビデ
オカメラ23が撮像した画像にいわゆる”モザイク”エ
フェクトをかけ、”ネガポジ反転”エフェクトをかけた
画像を画像表示領域195に表示させる。
For example, the effect setting dialog 371
And select "mosaic", the still image shooting program 1
In step 03, a so-called “mosaic” effect is applied to the image captured by the CCD video camera 23, and the image with the “mosaic” effect applied is displayed in the image display area 195.
When “negative / positive inversion” is selected in the effect setting dialog 371, the still image shooting program 103 applies a so-called “mosaic” effect to the image captured by the CCD video camera 23, and displays the image with the “negative / positive inversion” effect applied to the image display area. 195 is displayed.

【0179】図29に示すように、静止画撮影プログラ
ム103がアクティブで、音声コマンダウィンドウ15
1および静止画撮影プログラム103が表示させるウィ
ンドウ194がLCD21に表示されている場合、認識キ
ーを押圧したまま、マイクロフォン24に、例えば、”
モザイク”と音声を入力すると、音声認識エンジン10
1は、”モザイク”に対応するコマンドを示すデータを
音声コマンダ102に供給する。
As shown in FIG. 29, when the still image shooting program 103 is active and the voice commander window 15
1 and the window 194 displayed by the still image photographing program 103 are displayed on the LCD 21, while the recognition key is being pressed, the microphone 24 is input to the microphone 24.
"Mosaic", the voice recognition engine 10
1 supplies data indicating a command corresponding to “mosaic” to the voice commander 102.

【0180】図30に示すように、UI処理部123
は、音声コマンダウィンドウ151から画面全体に向か
って広がるように(図中の点線の矢印(点線の矢印は、
説明のための矢印で、実際には表示されない)で示す方
向に向かって)、LCD21に波紋状の画像を表示させ
る。
As shown in FIG. 30, the UI processing unit 123
Is extended from the voice commander window 151 toward the entire screen (the dotted arrow in the figure (the dotted arrow is
In the direction indicated by an arrow for explanation, which is not actually displayed), a ripple-like image is displayed on the LCD 21.

【0181】図31に示すように、UI処理部123
は、画面全体からウィンドウ194に向かって収束する
ように(図中の点線の矢印(点線の矢印は、説明のため
の矢印で、実際には表示されない)で示す方向に向かっ
て)、LCD21に波紋状の画像を表示させる。
As shown in FIG. 31, the UI processing unit 123
Is displayed on the LCD 21 so as to converge from the entire screen toward the window 194 (in a direction indicated by a dotted arrow in the drawing (a dotted arrow is an arrow for explanation and is not actually displayed)). Display a ripple-like image.

【0182】そして、図32に示すように、UI処理部
123は、静止画撮影プログラム103が表示させるウ
ィンドウ194を強調表示させる。
Then, as shown in FIG. 32, the UI processing section 123 highlights the window 194 displayed by the still image photographing program 103.

【0183】音声コマンダ102は、”モザイク”に対
応するコマンドを示すデータを基に、静止画撮影プログ
ラム103に”モザイク”に対応するコマンドを送信す
る。図33に示すように、静止画撮影プログラム103
は、音声コマンダ102から”モザイク”に対応するコ
マンドを受信して、CCDビデオカメラ23が撮像した画
像にいわゆる”モザイク”エフェクトをかけ、”モザイ
ク”エフェクトをかけた画像を画像表示領域195に表
示させる。
The voice commander 102 transmits a command corresponding to “mosaic” to the still image shooting program 103 based on data indicating a command corresponding to “mosaic”. As shown in FIG.
Receives a command corresponding to “mosaic” from the voice commander 102, applies a so-called “mosaic” effect to the image captured by the CCD video camera 23, and displays the image subjected to the “mosaic” effect in the image display area 195. Let it.

【0184】次に、音声コマンダ102がワードプロセ
ッサプログラム106を起動させる処理について説明す
る。図34に示すように、音声コマンダ102が起動し
ている状態で、認識キーを押圧したまま、マイクロフォ
ン24に、例えば、”ワープロ”と音声を入力すると、
音声認識エンジン101は、”ワープロ”に対応する所
定のデータを音声コマンダ102に供給する。
Next, the process in which the voice commander 102 activates the word processor program 106 will be described. As shown in FIG. 34, when the voice commander 102 is running, if a voice such as “word processor” is input to the microphone 24 while pressing the recognition key,
The voice recognition engine 101 supplies predetermined data corresponding to “word processor” to the voice commander 102.

【0185】図35に示すように、UI処理部123
は、音声コマンダウィンドウ151から画面全体に向か
って広がるように(図中の点線の矢印(点線の矢印は、
説明のための矢印で、実際には表示されない)で示す方
向に向かって)、LCD21に波紋状の画像を表示させ
る。
As shown in FIG. 35, the UI processing unit 123
Is extended from the voice commander window 151 toward the entire screen (the dotted arrow in the figure (the dotted arrow is
In the direction indicated by an arrow for explanation, which is not actually displayed), a ripple-like image is displayed on the LCD 21.

【0186】図36に示すように、UI処理部123
は、画面全体からワードプロセッサプログラム106に
対応するアイコン192に向かって収束するように(図
中の点線の矢印(点線の矢印は、説明のための矢印で、
実際には表示されない)で示す方向に向かって)、LCD
21に波紋状の画像を表示させる。
As shown in FIG. 36, the UI processing unit 123
Are converged from the entire screen toward the icon 192 corresponding to the word processor program 106 (dotted arrows in the figure (dotted arrows are arrows for explanation,
LCD is not displayed)
A ripple-like image is displayed on 21.

【0187】そして、図37に示すように、UI処理部
123は、ワードプロセッサプログラム106に対応す
るアイコン192を強調表示させる。
Then, as shown in FIG. 37, the UI processing unit 123 highlights the icon 192 corresponding to the word processor program 106.

【0188】音声コマンダ102の音声ランチャ制御部
124は、ワードプロセッサプログラム106を起動さ
せる。ワードプロセッサプログラム106は、所定のウ
ィンドウ391をLCD21に表示させる。ワードプロセ
ッサプログラム106が表示させるウィンドウ391に
は、文書ファイルを表示させる表示領域392が配置さ
れる。
The voice launcher control section 124 of the voice commander 102 activates the word processor program 106. The word processor program 106 causes the LCD 21 to display a predetermined window 391. A window 391 displayed by the word processor program 106 has a display area 392 for displaying a document file.

【0189】マイクロフォン24に、例えば、”ワープ
ロ”と音声を入力して、音声コマンダ102の音声ラン
チャ制御部124にワードプロセッサプログラム106
を起動させたとき、音声ランチャ制御部124は、ワー
ドプロセッサプログラム106のみを起動させる。この
とき、ワードプロセッサプログラム106は新規の文書
を生成して、新規の文書を表示領域392に表示させ
る。
For example, a voice such as “word processor” is input to the microphone 24, and the word processor program 106 is input to the voice launcher control unit 124 of the voice commander 102.
Is activated, the voice launcher control unit 124 activates only the word processor program 106. At this time, the word processor program 106 generates a new document and causes the display area 392 to display the new document.

【0190】マイクロフォン24に、例えば、”ワープ
ロで手紙”と音声を入力して、音声コマンダ102の音
声ランチャ制御部124にワードプロセッサプログラム
106を起動させたとき、音声ランチャ制御部124
は、”手紙”に対応する文書ファイルをワードプロセッ
サプログラム106に開かせる。このとき、図39に示
すように、ワードプロセッサプログラム106は”手
紙”に対応する文書ファイルに対応する文字または画像
を、表示領域392に表示させる。
When a voice such as "letter by word processor" is input to the microphone 24 and the word processor program 106 is started by the voice launcher control unit 124 of the voice commander 102, the voice launcher control unit 124 is activated.
Causes the word processor program 106 to open the document file corresponding to the "letter". At this time, as shown in FIG. 39, the word processor program 106 causes the display area 392 to display characters or images corresponding to the document file corresponding to "letter".

【0191】同様に、マイクロフォン24に、例え
ば、”表計算”と音声を入力して、音声コマンダ102
の音声ランチャ制御部124に表計算プログラム107
を起動させたとき、音声ランチャ制御部124は、表計
算プログラム107のみを起動させる。音声ランチャ制
御部124が表計算プログラム107を起動させとき
も、UI処理部123は、所定の波紋状の画像の表示、
およびアイコン193の強調の表示を実行する。図40
に示すように、表計算プログラム107は新規の文書を
生成して、新規の文書を表計算プログラム107が表示
させるウィンドウ411の表示領域412に表示させ
る。
Similarly, a voice such as “spreadsheet” is input to the microphone 24 and the voice commander 102 is input.
Spreadsheet control program 107 in the voice launcher control unit 124 of
Is activated, the voice launcher control unit 124 activates only the spreadsheet program 107. Also when the voice launcher control unit 124 activates the spreadsheet program 107, the UI processing unit 123 displays a predetermined ripple-like image,
And highlighting of the icon 193 is executed. FIG.
As shown in (1), the spreadsheet program 107 generates a new document and displays the new document in the display area 412 of the window 411 displayed by the spreadsheet program 107.

【0192】マイクロフォン24に、例えば、”表計算
で家計簿”と音声を入力して、音声コマンダ102の音
声ランチャ制御部124に表計算プログラム107を起
動させたとき、音声ランチャ制御部124は、”家計
簿”に対応する文書ファイルを表計算プログラム107
に開かせる。このとき、図41に示すように、表計算プ
ログラム107は”家計簿”に対応する文書ファイルに
対応する文字または画像を、表示領域412に表示させ
る。
For example, when a voice such as “household account book by spreadsheet” is input to the microphone 24 and the spreadsheet control program 107 is started by the voice launcher control unit 124 of the voice commander 102, the voice launcher control unit 124 The document file corresponding to "household account book" is stored in the spreadsheet program 107
To open. At this time, as shown in FIG. 41, the spreadsheet program 107 causes the display area 412 to display characters or images corresponding to the document file corresponding to “household account book”.

【0193】次に、起動するプログラムに対応する単語
を登録するダイアログについて説明する。図42は、音
声コマンダウィンドウ151のランチャ設定ボタン16
4をクリックしたとき、音声ランチャ制御部113がLC
D21に表示させるランチャ設定ダイアログを示す図で
ある。
Next, a dialog for registering a word corresponding to a program to be started will be described. FIG. 42 shows the launcher setting button 16 of the voice commander window 151.
4, when the voice launcher control unit 113
It is a figure showing the launcher setting dialog displayed on D21.

【0194】ランチャ設定ダイアログは、実行可能ファ
イルと名前が付されたチェックボックスがチェックされ
ているとき、呼び名表示フィールド451に、ランチャ
設定データベース113に記憶されている、呼び名およ
び呼び名に対応する実行ファイルの名前(ディレクトリ
を含む)を表示する。このとき、呼び名表示フィールド
451に表示される、実行ファイルの名前に対応する実
行ファイルは、実行ファィルカテゴリに属すると称す
る。
In the launcher setting dialog box, when a check box with an executable file name is checked, the call name display field 451 displays the call name and the executable file corresponding to the call name stored in the launcher setting database 113. Displays the name (including directory) of. At this time, the execution file corresponding to the name of the execution file displayed in the call name display field 451 is referred to as belonging to the execution file category.

【0195】例えば、呼び名”ワープロ”に対する実行
ファイルの名前は、”C:\ProgramFiles\ProWord”であ
る。呼び名”表計算”に対する実行ファイルの名前
は、”C:\ProgramFiles\大介”である。呼び名”お絵か
き”に対する実行ファイルの名前は、”C:\ProgramFile
s1\華子”である。
For example, the name of the executable file for the nickname "word processor" is "C: \ ProgramFiles \ ProWord". The name of the executable file for the nickname "spreadsheet" is "C: \ ProgramFiles \ Dasuke". The name of the executable file for the nickname "Draw" is "C: \ ProgramFile"
s1 \ Hanako ”.

【0196】ランチャ設定ダイアログは、テストと名前
が付されたボタンおよび詳細と名前が付されたボタン4
52を有する。
The launcher setting dialog box includes a button named “Test” and a button named “Details” and “Name”.
52.

【0197】文書ファイルと名前が付されたチェックボ
ックスがチェックされているとき、ランチャ設定ダイア
ログは、図43に示すように、呼び名表示フィールド4
51に、ランチャ設定データベース113に記憶されて
いる、呼び名および呼び名に対応する文書ファイルの名
前(ディレクトリを含む)を表示する。例えば、呼び
名”家計簿”に対する文書ファイルの名前は、”C:\文
書ファイル\家計簿”である。呼び名”見積り”に対す
る文書ファイルの名前は、”C:\文書ファイル1\見積
り”である。呼び名”手紙”に対する文書ファイルの名
前は、”C:\文書ファイル1\手紙”である。
When the check box with the name of the document file is checked, the launcher setting dialog is displayed as shown in FIG.
At 51, a call name and a name of a document file (including a directory) corresponding to the call name stored in the launcher setting database 113 are displayed. For example, the name of the document file for the nickname "household book" is "C: \ document file \ household book". The name of the document file for the nickname "estimate" is "C: \ document file 1 \ estimate". The name of the document file for the nickname "letter" is "C: \ document file 1 \ letter".

【0198】このとき、呼び名表示フィールド451に
表示される、文書ファイルの名前に対応する文書ファイ
ルは、文書ファイルカテゴリに属すると称する。
At this time, the document file corresponding to the name of the document file displayed in the call name display field 451 is said to belong to the document file category.

【0199】呼び名表示フィールド451に表示されて
いる所定の呼び名(例えば、”ワープロ”)、および呼
び名に対応する実行ファイルの名前を選択して、詳細と
名前が付されたボタン452をクリックすると、音声ラ
ンチャ制御部113は、図44に示すランチャ詳細設定
ダイアログをLCD21に表示させる。
When a predetermined call name (for example, “word processor”) displayed in the call name display field 451 and the name of an execution file corresponding to the call name are selected, and a button 452 with details and names is clicked, The voice launcher control unit 113 causes the LCD 21 to display a launcher detailed setting dialog shown in FIG.

【0200】ランチャ詳細設定ダイアログは、呼び名表
示フィールド471に、呼び名表示フィールド451で
選択された呼び名(例えば、”ワープロ”)に対応する
ボイス形式[実行ファイル=ワープロ]が表示される。
ランチャ詳細設定ダイアログに配置された辞書参照と名
前が付されたボタンなどを操作して、使用者は、実行フ
ァイルと文書ファイルを組み合わせたボイス形式、例え
ば、”[実行ファイル=ワープロ]で[文書ファイ
ル]”に定義することができる。
In the launcher detailed setting dialog, a voice format [executable file = word processor] corresponding to the nickname (for example, “word processor”) selected in the nickname display field 451 is displayed in the nickname display field 471.
By operating a dictionary reference and a button with a name placed in the launcher detailed setting dialog, the user can use a voice format combining an executable file and a document file, for example, "[executable file = word processor] to select [document] File] ".

【0201】音声ランチャ制御部124は、設定された
ボイス形式に所定の文法番号を割り振って、ランチャ設
定データベース113に記憶させる。
The voice launcher control section 124 allocates a predetermined grammar number to the set voice format, and stores it in the launcher setting database 113.

【0202】使用者に設定された実行ファイルと文書フ
ァイルを組み合わせたボイス形式は、呼び名表示フィー
ルド471に表示される。例えば、図44に示す実行フ
ァイルカテゴリに属するファイルと文書ファイルカテゴ
リに属するファイルとを組み合わせたボイス形式、”
[実行ファイル=ワープロ]で[文書ファイル]”
は、”[文書ファイル]”を引数としているので、音声
ランチャ制御部124に”[実行ファイル=ワープロ]
で[文書ファイル]”に対応する音声が認識されたデー
タ(例えば、”ワープロで手紙”および文法番号など)
が供給されたとき、音声ランチャ制御部124は、文法
番号を基に、呼び名が”ワープロ”に対応する実行ファ
イルカテゴリに属する実行ファイル(例えば、C:\Progr
amFiles\ProWord)を開き(すなわち、ワードプロセッ
サプログラム106を起動して)、呼び名が設定されて
いる文書ファイルカテゴリに属する文書ファイル(例え
ば、”手紙”に対応するC:\文書ファイル1\手紙)を、
ワードプロセッサプログラム106に開かせる。
The voice format in which the executable file and the document file set by the user are combined is displayed in the name display field 471. For example, a voice format combining files belonging to the executable file category and files belonging to the document file category shown in FIG.
[Executable file = Word processor] [Document file] "
Has "[document file]" as an argument, so that "[executable file = word processor]
In which the voice corresponding to "[document file]" is recognized (for example, "letter in word processor" and grammar number)
Is supplied, the voice launcher control unit 124 executes, based on the grammar number, an executable file (for example, C: \ Progr) belonging to the executable file category corresponding to “Word Processor”.
amFiles \ ProWord) (that is, by starting the word processing program 106), and copying a document file belonging to the document file category for which the name is set (for example, C: \ document file 1 \ letter corresponding to "letter"). ,
Let the word processor program 106 open it.

【0203】同様に、例えば、音声ランチャ制御部12
4に、”[実行ファイル=ワープロ]で[文書ファイ
ル]”に対応する音声が認識された”ワープロで家計
簿”およびその文法番号が供給されたとき、音声ランチ
ャ制御部124は、文法番号を基に、呼び名が”ワープ
ロ”に対応する実行ファイルカテゴリに属する実行ファ
イルであるC:\ProgramFiles\ProWordを開き、文書ファ
イルカテゴリに属する文書ファイルであるC:\文書ファ
イル\家計簿を、ワードプロセッサプログラム106に
開かせる。
Similarly, for example, the sound launcher control unit 12
4, when the voice corresponding to "[document file] in" [executable file = word processor] "is recognized and" housekeeping in word processor "and its grammar number are supplied, the voice launcher control unit 124 sets the grammar number to Open C: \ ProgramFiles \ ProWord, an executable file belonging to the executable file category corresponding to the word processor, and add C: \ Document Files \ Household, which is a document file belonging to the document file category, to a word processor program. Let 106 open.

【0204】なお、ランチャ制御部124は、図示せぬ
所定のスクリプト実行プログラムに、所定のスクリプト
ファイル(コマンドなどの処理手順が記述されているフ
ァイル)を実行させるようにしてもよい。更に、スクリ
プトファイルの引数として、所定のデータ(例えば、メ
ールアドレスまたは画像データなど)を指定するように
してもよい。このとき、ランチャ設定データベース11
3は、スクリプトファイルまたはスクリプトファイルの
引数としてのデータを特定するデータ、または文法番号
などを記憶する。
The launcher control section 124 may cause a predetermined script execution program (not shown) to execute a predetermined script file (a file in which processing procedures such as commands are described). Further, predetermined data (for example, a mail address or image data) may be specified as an argument of the script file. At this time, the launcher setting database 11
Reference numeral 3 stores a script file, data specifying data as an argument of the script file, a grammar number, and the like.

【0205】次に、音声認識エンジン101、音声コマ
ンダ102、および静止画撮影プログラム103を実行
するCPU52の静止画像の撮像の処理を図45のフロー
チャートを参照して説明する。ステップS11におい
て、静止画撮影プログラム103は、マイクロコントロ
ーラ61、外部バス55、および内部バス51を介し
て、前押しスイッチ86から供給される信号を基に、シ
ャッタボタン10が押されたか否かを判定し、シャッタ
ボタン10が押されていないと判定された場合、ステッ
プS11に戻り、シャッタボタン10が押されるまで判
定の処理を繰り返す。
Next, the process of capturing a still image by the CPU 52 executing the voice recognition engine 101, the voice commander 102, and the still image capturing program 103 will be described with reference to the flowchart in FIG. In step S11, the still image shooting program 103 determines whether or not the shutter button 10 has been pressed based on a signal supplied from the pre-press switch 86 via the microcontroller 61, the external bus 55, and the internal bus 51. If it is determined that the shutter button 10 has not been pressed, the process returns to step S11, and the determination process is repeated until the shutter button 10 is pressed.

【0206】ステップS11において、シャッタボタン
10が押されたと判定された場合、ステップS12に進
み、静止画撮影プログラム103は、静止画像閲覧プロ
グラム104を起動させる。ステップS13において、
静止画像撮影プログラム103は、処理部82およびグ
ラフィックチップ81を介して、CCDビデオカメラ23
から供給された信号を基に、所定の方式の静止画像デー
タのファイルを生成して、生成した静止画像データのフ
ァイルをHDD56に保存させる。
If it is determined in step S11 that the shutter button 10 has been pressed, the flow advances to step S12, and the still image photographing program 103 activates the still image browsing program 104. In step S13,
The still image shooting program 103 is transmitted to the CCD video camera 23 via the processing unit 82 and the graphic chip 81.
A file of the still image data in a predetermined format is generated based on the signal supplied from the HDD, and the generated still image data file is stored in the HDD 56.

【0207】ステップS14において、静止画撮影プロ
グラム103は、シャッタボタン10が押されているか
否かを判定し、シャッタボタン10が押されていると判
定された場合、ステップS15に進み、音声コマンダ1
02は、音声認識エンジン101にマイクロフォン24
から入力された信号を基に、音声認識の処理を実行させ
る。ステップS16において、音声コマンダ102は、
音声認識エンジン101から、音声認識の処理の結果を
受信する。
In step S14, the still image shooting program 103 determines whether or not the shutter button 10 has been pressed. If it is determined that the shutter button 10 has been pressed, the process proceeds to step S15, where the voice commander 1
02 is the microphone 24 provided to the speech recognition engine 101.
On the basis of the signal input from the device. In step S16, the voice commander 102
The result of speech recognition processing is received from the speech recognition engine 101.

【0208】ステップS17において、音声コマンダ1
02は、音声認識の結果を静止画撮影プログラム103
に送信する。ステップS18において、音声コマンダ1
02は、静止画撮影プログラム103に音声認識の結果
を画像ファイルのコメントとして添付させる。
At step S17, the voice commander 1
02, the result of voice recognition is stored in the still image photographing program 103;
Send to In step S18, the voice commander 1
02 causes the still image photographing program 103 to attach the result of the voice recognition as a comment of the image file.

【0209】ステップS19において、音声コマンダ1
02は、静止画像閲覧プログラム104にコメントを表
示させ、処理は終了する。
In step S19, the voice commander 1
02 displays a comment on the still image browsing program 104, and the process ends.

【0210】ステップS14において、シャッタボタン
10が離されたと判定された場合、ステップS15乃至
ステップS19の処理は、スキップされ、処理は終了す
る。
If it is determined in step S14 that the shutter button 10 has been released, the processes in steps S15 to S19 are skipped, and the process ends.

【0211】このように、使用者は、静止画撮影プログ
ラム103で撮像した静止画像に、キーボート4などを
操作することなく、簡単にコメントを貼付することがで
きる。
As described above, the user can easily attach a comment to a still image captured by the still image capturing program 103 without operating the keyboard 4 or the like.

【0212】次に、音声認識エンジン101および音声
コマンダ102を実行するCPU52の音声によるコマン
ド送信または起動の処理を図46のフローチャートを参
照して説明する。ステップS31において、音声コマン
ダ102は、常時入力モードが選択されているか否かを
判定し、常時入力モードが選択されていないと判定され
た場合、ステップS32に進み、認識キーが押圧されて
いるか否かを判定する。
Next, the process of command transmission or activation by voice of the CPU 52 executing the voice recognition engine 101 and voice commander 102 will be described with reference to the flowchart of FIG. In step S31, the voice commander 102 determines whether the continuous input mode is selected. If it is determined that the continuous input mode is not selected, the process proceeds to step S32, and determines whether the recognition key is pressed. Is determined.

【0213】ステップS32において、認識キーが押圧
されていないと判定された場合、ステップS32に戻
り、音声コマンダ102は、認識キーが押圧されるま
で、認識キーの押圧の判定の処理を繰り返す。
If it is determined in step S32 that the recognition key has not been pressed, the process returns to step S32, and the voice commander 102 repeats the process of determining whether the recognition key has been pressed until the recognition key is pressed.

【0214】ステップS32において、認識キーが押圧
されたと判定された場合、ステップS33に進み、音声
コマンダ102は、音声認識エンジン101に音声認識
の処理を実行させる。ステップS34において、音声コ
マンダ102は、音声認識エンジン101から音声認識
の処理の結果を受信する。
If it is determined in step S32 that the recognition key has been pressed, the flow advances to step S33, and the voice commander 102 causes the voice recognition engine 101 to execute voice recognition processing. In step S34, the voice commander 102 receives the result of the voice recognition process from the voice recognition engine 101.

【0215】ステップS35において、音声コマンダ1
02は、音声認識エンジン101から受信した音声認識
の処理の結果を表示させる。
At step S35, voice commander 1
02 displays the result of the speech recognition process received from the speech recognition engine 101.

【0216】ステップS36において、音声コマンダ1
02は、認識キーが離されたか否かを判定し、認識キー
が離されたと判定された場合、ステップS37に進み、
コマンドの送信または起動を実行して、処理は終了す
る。
At step S36, the voice commander 1
02 determines whether or not the recognition key has been released, and if it is determined that the recognition key has been released, the process proceeds to step S37,
After transmitting or starting the command, the process ends.

【0217】ステップS36において、認識キーが離さ
れていないと判定された場合、ステップS38に進み、
音声コマンダ102は、解除キー(例えば、シフトキ
ー)が押圧されたか否かを判定する。ステップS38に
おいて、解除キーが押圧されたと判定された場合、ステ
ップS39に進み、音声コマンダ102は、音声認識の
結果をクリアして、ステップS33に戻り、音声認識の
処理を繰り返す。
If it is determined in step S36 that the recognition key has not been released, the flow advances to step S38.
The voice commander 102 determines whether a release key (for example, a shift key) is pressed. If it is determined in step S38 that the release key has been pressed, the process proceeds to step S39, in which the voice commander 102 clears the result of voice recognition, returns to step S33, and repeats the voice recognition process.

【0218】ステップS38において、解除キーが押圧
されていないと判定された場合、ステップS39はスキ
ップされ、ステップS33に戻り、音声認識の処理を繰
り返す。
If it is determined in step S38 that the release key has not been pressed, step S39 is skipped, the process returns to step S33, and the voice recognition process is repeated.

【0219】ステップS31において、常時入力モード
が選択されていると判定された場合、ステップS40に
進み、音声コマンダ102は、音声認識エンジン101
に音声認識の処理を実行させる。ステップS41におい
て、音声コマンダ102は、音声認識エンジン101か
ら音声認識の処理の結果を受信する。
If it is determined in step S31 that the constant input mode has been selected, the process proceeds to step S40, where the voice commander 102
To execute voice recognition processing. In step S41, the voice commander 102 receives the result of the voice recognition process from the voice recognition engine 101.

【0220】ステップS42において、音声コマンダ1
02は、音声認識エンジン101から受信した音声認識
の処理の結果を表示させる。ステップS43において、
音声コマンダ102は、コマンドの送信または起動を実
行して、ステップS31に戻り、コマンドの送信または
起動の処理を繰り返す。
At step S42, the voice commander 1
02 displays the result of the speech recognition process received from the speech recognition engine 101. In step S43,
The voice commander 102 executes command transmission or activation, returns to step S31, and repeats command transmission or activation processing.

【0221】このように、認識キーの操作により、使用
者は、音声が認識された結果を確認して、コマンドの送
信または所定のプログラムの起動をさせることができ、
誤った認識による処理の実行を防止することができる。
As described above, by operating the recognition key, the user can confirm the result of the voice recognition, transmit a command or activate a predetermined program.
Execution of processing due to incorrect recognition can be prevented.

【0222】次にステップS37またはステップS43
に対応する、音声コマンダ102を実行するCPU52の
アプリケーションプログラムの起動またはコマンド送信
の処理を図47のフローチャートを参照して説明する。
ステップS51において、音声コマンダ102は、音声
認識エンジン101から受信した音声認識の処理の結果
が、所定のアプリケーションプログラムの起動させるデ
ータであるか否かを判定し、所定のアプリケーションプ
ログラムの起動させるデータであると判定された場合、
ステップS52に進む。
Next, step S37 or step S43
A process of starting an application program or transmitting a command of the CPU 52 that executes the voice commander 102, which corresponds to the above, will be described with reference to the flowchart in FIG.
In step S51, the voice commander 102 determines whether or not the result of the voice recognition process received from the voice recognition engine 101 is data for starting a predetermined application program. If it is determined that there is
Proceed to step S52.

【0223】ステップS52において、音声コマンダ1
02は、音声認識エンジン101から受信した音声認識
の処理の結果に対応する所定のアプリケーションプログ
ラムが既に起動されているか否かを判定し、所定のアプ
リケーションプログラムが既に起動されていると判定さ
れた場合、ステップS53に進み、ウィンドウのフォー
カスを対応するアプリケーションプログラムに移し、処
理は終了する。
At step S52, voice commander 1
02, it is determined whether a predetermined application program corresponding to the result of the voice recognition process received from the voice recognition engine 101 has already been started, and it is determined that the predetermined application program has already been started. Then, the process advances to step S53 to shift the focus of the window to the corresponding application program, and the process ends.

【0224】ステップS52において、所定のアプリケ
ーションプログラムが起動されていないと判定された場
合、ステップS54に進み、音声コマンダ102は、対
応するアプリケーションプログラムを起動して、処理は
終了する。
If it is determined in step S52 that the predetermined application program has not been started, the flow advances to step S54, where the voice commander 102 starts the corresponding application program and ends the processing.

【0225】ステップS51において、所定のアプリケ
ーションプログラムの起動させるデータであると判定さ
れた場合、ステップS55に進み、音声コマンダ102
は、対応するコマンドをアプリケーションプログラムに
送信して、処理は終了する。
If it is determined in step S51 that the data is data for starting a predetermined application program, the flow advances to step S55 to execute the voice commander 102.
Sends the corresponding command to the application program, and the process ends.

【0226】このように、音声コマンダ102は、プロ
グラムの状態、および音声で入力されたデータに対応し
て、コマンドの送信またはプログラムの起動の処理を実
行することができる。
As described above, the voice commander 102 can execute command transmission or program start processing in accordance with the state of the program and the data input by voice.

【0227】次に、静止画閲覧プログラム104を実行
するCPU52の電子メールプログラム54Aの起動の処
理を図48のフローチャートを参照して説明する。ステ
ップS71において、静止画閲覧プログラム104は、
電子メールプログラム54Aを起動させる。ステップS
72において、静止画閲覧プログラム104は、電子メ
ールプログラム54Aに新規のメールを開かせる。
Next, the activation process of the e-mail program 54A of the CPU 52 executing the still image browsing program 104 will be described with reference to the flowchart in FIG. In step S71, the still image browsing program 104
Activate the e-mail program 54A. Step S
At 72, the still image browsing program 104 causes the e-mail program 54A to open a new mail.

【0228】ステップS73において、静止画閲覧プロ
グラム104は、画像データを新規のメールに添付す
る。ステップS74において、静止画閲覧プログラム1
04は、画像データのコメントを新規のメールの本文に
貼り付け、処理は終了する。
At step S73, the still image browsing program 104 attaches the image data to a new mail. In step S74, the still image browsing program 1
In step 04, the comment of the image data is pasted on the body of the new mail, and the process ends.

【0229】以上のように、使用者は、キーボード4な
どを操作することなく、簡単に、所定の画像を貼付し、
所定のコメントを貼付したメールを生成することができ
る。
As described above, the user can easily paste a predetermined image without operating the keyboard 4 and the like.
An e-mail to which a predetermined comment is attached can be generated.

【0230】次に、図48のステップS37またはステ
ップS43に対応する、音声コマンダ102を実行する
CPU52のアプリケーションプログラムの起動またはデ
ータの送信の処理を図49のフローチャートを参照して
説明する。ステップS91において、音声コマンダ10
2は、音声認識の結果に引数が含まれているか否かを判
定し、音声認識の結果に引数が含まれていないと判定さ
れた場合、ステップS92に進み、対応するアプリケー
ションプログラムを起動して、処理は終了する。
Next, voice commander 102 corresponding to step S37 or step S43 in FIG. 48 is executed.
A process of starting an application program or transmitting data of the CPU 52 will be described with reference to a flowchart of FIG. In step S91, the voice commander 10
2 determines whether or not the argument is included in the result of the speech recognition. If it is determined that the argument is not included in the result of the speech recognition, the process proceeds to step S92 to start the corresponding application program. , The process ends.

【0231】ステップS91において、音声認識の結果
に引数が含まれていると判定された場合、ステップS9
3に進み、音声コマンダ102は、音声認識の結果に含
まれる引数のカテゴリがメールアドレスであるか否かを
判定し、音声認識の結果に含まれる引数のカテゴリがメ
ールアドレスであると判定された場合、ステップS94
に進み、電子メールプログラム54Aを起動する。ステ
ップS95において、音声コマンダ102は、引数に対
応したメールアドレスを設定した新規のメールを開き、
処理は終了する。
If it is determined in step S91 that the argument is included in the speech recognition result, the process proceeds to step S9.
Proceeding to 3, the voice commander 102 determines whether the category of the argument included in the result of voice recognition is a mail address, and determines that the category of the argument included in the result of voice recognition is a mail address. If so, step S94
To start the e-mail program 54A. In step S95, the voice commander 102 opens a new mail in which a mail address corresponding to the argument is set,
The process ends.

【0232】ステップS93において、音声認識の結果
に含まれる引数のカテゴリがメールアドレスでないと判
定された場合、ステップS96に進み、音声コマンダ1
02は、引数で指定される文書ファイルを対応するアプ
リケーションプログラムで開き、処理は終了する。
If it is determined in step S93 that the category of the argument included in the result of voice recognition is not a mail address, the flow advances to step S96 to execute voice commander 1
In step 02, the document file specified by the argument is opened by the corresponding application program, and the process ends.

【0233】以上のように、音声コマンダ102は、入
力された音声に対応して、所定のプログラムを起動さ
せ、そのプログラムに文書ファイルカテゴリに属する所
定の文書ファイルを開かせることができる。
[0233] As described above, the voice commander 102 can activate a predetermined program in response to the input voice and cause the program to open a predetermined document file belonging to the document file category.

【0234】次に、音声コマンダ102を実行するCPU
52の起動またはコマンド送信のときの画像表示の処理
を図50のフローチャートを参照して説明する。ステッ
プS101において、音声コマンダ102は、コマンド
の送信であるか否かを判定し、コマンドの送信であると
判定された場合、ステップS102に進み、音声コマン
ダウィンドウ151から画面全体に広がるように波紋の
画像を表示させる。
Next, a CPU for executing the voice commander 102
The image display processing at the time of activation of 52 or command transmission will be described with reference to the flowchart of FIG. In step S101, the voice commander 102 determines whether or not the command is to be transmitted. If it is determined that the command is to be transmitted, the process proceeds to step S102. Display the image.

【0235】ステップS103において、音声コマンダ
102は、画面全体からアプリケーションプログラムの
ウィンドウに収束するように波紋の画像を表示させる。
[0235] In step S103, the voice commander 102 displays a ripple image so as to converge on the window of the application program from the entire screen.

【0236】ステップS104において、音声コマンダ
102は、コマンドを受信するアプリケーションプログ
ラムのウィンドウを強調表示させ、処理は終了する。
In step S104, voice commander 102 highlights the window of the application program that receives the command, and the process ends.

【0237】ステップS101において、コマンドの送
信でないと判定された場合、アプリケーションプログラ
ムの起動なので、ステップS105に進み、音声コマン
ダ102は、画面全体からアプリケーションプログラム
のウィンドウに収束するように波紋の画像を表示させ
る。
If it is determined in step S101 that the command has not been transmitted, the application program is started, so the flow advances to step S105, and the voice commander 102 displays a ripple image so as to converge from the entire screen to the window of the application program. Let it.

【0238】ステップS106において、音声コマンダ
102は、画面全体からアプリケーションプログラムの
アイコンに収束するように波紋の画像を表示させる。
In step S106, the voice commander 102 displays a ripple image so as to converge on the icon of the application program from the entire screen.

【0239】ステップS107において、音声コマンダ
102は、起動するアプリケーションプログラムのアイ
コンを強調表示させ、処理は終了する。
[0239] In step S107, the voice commander 102 highlights the icon of the application program to be started, and the process ends.

【0240】このように、音声コマンダ102は、音声
コマンダウィンドウ151から、コマンドを受信するプ
ログラムのウィンドに向かう画像を表示させるので、使
用者は、確実に、音声コマンダ102が動作しているこ
と、および音声コマンダ102の操作対象を知ることが
できる。
As described above, the voice commander 102 displays an image from the voice commander window 151 toward the window of the program for receiving a command, so that the user can be sure that the voice commander 102 is operating. And the operation target of the voice commander 102 can be known.

【0241】また、音声コマンダ102は、音声コマン
ダウィンドウ151から、起動させるプログラムのアイ
コンに向かう画像を表示させるので、使用者は、確実
に、音声コマンダ102が動作していること、および音
声コマンダ102の操作対象を知ることができる。
Further, since the voice commander 102 displays an image from the voice commander window 151 toward the icon of the program to be activated, the user can be sure that the voice commander 102 is operating and that the voice commander 102 is operating. Can be operated.

【0242】次に、音声コマンダ102を実行するCPU
52の音声認識のテストの処理を図51のフローチャー
トを参照して説明する。ステップS131において、音
声コマンダ102は、音声認識エンジン101から供給
された所定の単語の認識結果を基に、所定の単語が認識
されたか否かを判定する単語の認識テストを実行する。
Next, a CPU for executing the voice commander 102
The speech recognition test process of 52 will be described with reference to the flowchart of FIG. In step S131, the voice commander 102 executes a word recognition test for determining whether or not the predetermined word has been recognized based on the recognition result of the predetermined word supplied from the voice recognition engine 101.

【0243】ステップS132において、音声コマンダ
102は、ステップS131の結果を基に、所定の単語
が認識されたか否かを判定し、所定の単語が認識された
と判定された場合、ステップS133に進み、所定のカ
テゴリに含まれる単語の認識のテストを実行する。
In step S132, the voice commander 102 determines whether a predetermined word has been recognized based on the result of step S131. If it is determined that the predetermined word has been recognized, the process proceeds to step S133. A test for recognizing words included in a predetermined category is performed.

【0244】ステップS134において、音声コマンダ
102は、所定のカテゴリに含まれる単語が認識された
か否かを判定し、所定のカテゴリに含まれる単語が認識
されたと判定された場合、ステップS135に進み、複
数の単語を含むときの文法の認識のテストを実行する。
In step S134, the voice commander 102 determines whether a word included in the predetermined category has been recognized. If it is determined that a word included in the predetermined category has been recognized, the process proceeds to step S135. Perform grammar recognition tests when multiple words are involved.

【0245】ステップS136において、音声コマンダ
102は、複数の単語を含むときの文法が認識されたか
否かを判定し、複数の単語を含むときの文法が認識され
たと判定された場合、処理は終了する。
In step S136, voice commander 102 determines whether a grammar including a plurality of words has been recognized. If it is determined that a grammar including a plurality of words has been recognized, the process ends. I do.

【0246】ステップS136において、複数の単語を
含むときの文法が認識されないと判定された場合、ステ
ップS138に進み、音声コマンダ102は、文法を修
正して、ステップS135に戻り、複数の単語を含むと
きの文法の認識のテストを繰り返す。
If it is determined in step S136 that the grammar including a plurality of words is not recognized, the process proceeds to step S138, in which the voice commander 102 corrects the grammar and returns to step S135 to include the plurality of words. When the grammar recognition test is repeated.

【0247】ステップS134において、所定のカテゴ
リに含まれる単語が認識されない判定された場合、およ
びステップS132において、所定の単語が認識されな
いと判定された場合、ステップS137に進み、音声コ
マンダ102は、単語を修正して、ステップS131に
戻り、単語の認識のテストから処理を繰り返す。
If it is determined in step S134 that a word included in the predetermined category is not recognized, and if it is determined in step S132 that the predetermined word is not recognized, the process proceeds to step S137, where the voice commander 102 Is corrected, the process returns to step S131, and the process is repeated from the word recognition test.

【0248】以上のように、音声コマンダ102は、音
声認識のテストの結果を表示して、単語または文法を修
正するので、確実に所定の音声を認識することができ
る。
As described above, the voice commander 102 displays the result of the voice recognition test and corrects the word or grammar, so that the predetermined voice can be reliably recognized.

【0249】ステップS131の単語の認識のテストに
対応する、音声コマンダ102を実行するCPU52の登
録する呼び名のテストの処理を図52のフローチャート
を参照して説明する。ステップS151において、音声
コマンダ102は、音声認識エンジン101から音声認
識の結果を受信する。
A description will now be given, with reference to the flowchart of FIG. 52, of a process of testing a registered name by the CPU 52 executing the voice commander 102, which corresponds to the word recognition test in step S131. In step S151, the voice commander 102 receives the result of voice recognition from the voice recognition engine 101.

【0250】ステップS152において、音声コマンダ
102は、音声認識の結果と呼び名が一致するか否かを
判定し、音声認識の結果と呼び名が一致すると判定され
た場合、ステップS153に進み、テスト結果表示フィ
ールド253に正しく認識された旨を表示して、処理は
終了する。
In step S152, the voice commander 102 determines whether or not the name matches the voice recognition result. If it is determined that the name matches the voice recognition result, the process advances to step S153 to display the test result. The fact that the recognition has been correctly made is displayed in the field 253, and the process ends.

【0251】ステップS152において、音声認識の結
果と呼び名が一致しないと判定された場合、ステップS
154に進み、音声コマンダ102は、テスト結果表示
フィールド253に正しく認識されなかった旨を表示し
て、処理は終了する。
If it is determined in step S152 that the speech recognition result does not match the name, the process proceeds to step S152.
Proceeding to 154, the voice commander 102 displays in the test result display field 253 that the recognition has not been correctly performed, and the process ends.

【0252】ステップS133のカテゴリの認識のテス
トに対応する、音声コマンダ102を実行するCPU52
のカテゴリの呼び名のテストの処理を図53のフローチ
ャートを参照して説明する。ステップS171におい
て、音声コマンダ102は、音声認識エンジン101か
ら音声認識の結果を受信する。
CPU 52 executing voice commander 102 corresponding to the category recognition test in step S133
The process of the test of the name of the category is described with reference to the flowchart of FIG. In step S171, the voice commander 102 receives the result of voice recognition from the voice recognition engine 101.

【0253】ステップS172において、音声コマンダ
102は、音声認識の結果と一致する呼び名が登録され
ているか否かを判定し、音声認識の結果と一致する呼び
名が登録されていると判定された場合、ステップS17
3に進み、呼び名表示フィールド226に表示されてい
る、音声認識の結果と一致する呼び名を強調表示して、
処理は終了する。
In step S172, voice commander 102 determines whether or not a name matching the result of voice recognition has been registered. If it is determined that a name matching the result of voice recognition has been registered, Step S17
3 and highlighting the call name that is displayed in the call name display field 226 and that matches the result of voice recognition,
The process ends.

【0254】ステップS172において、音声認識の結
果と一致する呼び名が登録されていないと判定された場
合、ステップS174に進み、音声コマンダ102は、
テスト結果表示フィールド273に音声認識の結果と一
致する呼び名が登録されていない旨を表示して、処理は
終了する。
If it is determined in step S172 that the name matching the result of the voice recognition is not registered, the process proceeds to step S174, where the voice commander 102
In the test result display field 273, a message indicating that the name corresponding to the voice recognition result is not registered is displayed, and the process ends.

【0255】次に、音声コマンダ102を実行するCPU
52が、静止画撮影プログラム103を起動させて、静
止画像を撮像させて、静止画像にコメントを貼付するま
での一連の処理を図54および図55にフローチャート
を参照して説明する。ステップS211において、エン
ジン通信部122は、音声認識エンジン101を起動さ
せ、状態11に遷移する。ステップS251において、
UI処理部123は、エンジン起動中の表示を実行し
て、状態1に遷移する。ステップS301において、ア
プリケーション通信部121は、状態21に遷移する。
Next, a CPU for executing the voice commander 102
A series of processes from starting the still image photographing program 103 to capturing a still image and attaching a comment to the still image will be described with reference to flowcharts in FIGS. 54 and 55. In step S211, the engine communication unit 122 activates the speech recognition engine 101 and makes a transition to state 11. In step S251,
The UI processing unit 123 executes a display indicating that the engine is running, and makes a transition to state 1. In step S301, the application communication unit 121 transitions to the state 21.

【0256】ステップS212において、エンジン通信
部122は、音声認識エンジン101から起動が成功し
た旨のデータを受信して、音声認識エンジン101の起
動が成功したことを示すデータをUI処理部123に送
信する。ステップS252において、UI処理部123
は、音声認識エンジン101の起動が成功したことを示
すデータを受信して、状態2に遷移する。
In step S212, the engine communication unit 122 receives data indicating that the activation has succeeded from the speech recognition engine 101, and transmits data indicating that the activation of the speech recognition engine 101 has succeeded to the UI processing unit 123. I do. In step S252, the UI processing unit 123
Receives data indicating that the activation of the speech recognition engine 101 has been successful, and transitions to state 2.

【0257】ステップS253において、UI処理部1
23は、音声認識エンジン101が起動完了したことを
示す画像または文をLCD21に表示させる。
In step S253, the UI processing unit 1
23 causes the LCD 21 to display an image or a sentence indicating that the speech recognition engine 101 has been started.

【0258】ステップS254において、UI処理部1
23は、認識キーであるコントロールキーが押圧されて
いるか否かを検出する。認識キーであるコントロールキ
ーが押圧されているとき、ステップS255に進み、U
I処理部123は、アプリケーション通信部121に、
静止画撮影プログラム103、静止画閲覧プログラム1
04、または電子ペットプログラム105のいずれにフ
ォーカスがあたっているか(いずれのプログラムがアク
ティブになっているか、またはいずれもアクティブにな
っていないか)を示すデータの送信を要求する。ステッ
プS302において、アプリケーション通信部121
は、アプリケーション通信部121からの、静止画撮影
プログラム103、静止画閲覧プログラム104、また
は電子ペットプログラム105のいずれにフォーカスが
あたっているかを示すデータの送信の要求を受信する。
At step S254, the UI processing unit 1
23 detects whether or not the control key which is the recognition key is pressed. When the control key serving as the recognition key is pressed, the process proceeds to step S255,
The I processing unit 123 provides the application communication unit 121 with:
Still image shooting program 103, still image viewing program 1
Request transmission of data indicating which of the electronic program 04 and the electronic pet program 105 is focused (whether any program is active or none of them is active). In step S302, the application communication unit 121
Receives a request from the application communication unit 121 to transmit data indicating which of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105 is in focus.

【0259】ステップS303において、アプリケーシ
ョン通信部121は、静止画撮影プログラム103、静
止画閲覧プログラム104、または電子ペットプログラ
ム105のいずれにフォーカスがあたっているかを示す
データを送信する。ステップS256において、UI処
理部123は、アプリケーション通信部121からの、
静止画撮影プログラム103、静止画閲覧プログラム1
04、または電子ペットプログラム105のいずれにフ
ォーカスがあたっているかを示すデータを受信する。ス
テップS257において、静止画撮影プログラム10
3、静止画閲覧プログラム104、または電子ペットプ
ログラム105のいずれにもフォーカスがあたっていな
いことを示すデータを受信したとき、UI処理部123
は、音声コマンダウィンドウ151の認識状態表示部1
69に、グローバルコマンドしか受け付けないことを示
す文字(例えば、「(Global Comman
d)」)と表示させる。
In step S303, application communication section 121 transmits data indicating which of still image photographing program 103, still image browsing program 104, and electronic pet program 105 is in focus. In step S256, the UI processing unit 123 sends the
Still image shooting program 103, still image viewing program 1
04, or data indicating which of the electronic pet programs 105 is in focus. In step S257, the still image shooting program 10
3. Upon receiving data indicating that neither the still image browsing program 104 nor the electronic pet program 105 is focused, the UI processing unit 123
Is the recognition status display section 1 of the voice commander window 151.
69, a character indicating that only a global command is accepted (for example, “(Global Command)
d))).

【0260】ステップS258において、UI処理部1
23は、エンジン通信部122に音声受付(すなわち、
音声入力を可能にすること)を要求を送信して、状態3
に遷移する。ステップS213において、エンジン通信
部122は、音声受付の要求を受信する。ステップS2
14において、エンジン通信部122は、アプリケーシ
ョン通信部121に、静止画撮影プログラム103、静
止画閲覧プログラム104、または電子ペットプログラ
ム105のいずれにフォーカスがあたっているか(いず
れのプログラムがアクティブになっているか、またはい
ずれもアクティブになっていないか)を示すデータの送
信を要求する。
At step S258, the UI processing unit 1
23 receives a voice from the engine communication unit 122 (that is,
Send a request to enable voice input) and state 3
Transitions to. In step S213, the engine communication unit 122 receives the request for voice reception. Step S2
In 14, the engine communication unit 122 determines which of the still image photographing program 103, the still image browsing program 104, and the electronic pet program 105 is focused on the application communication unit 121 (which program is active , Or if none of them are active).

【0261】ステップS305において、アプリケーシ
ョン通信部121は、エンジン通信部122に、静止画
撮影プログラム103、静止画閲覧プログラム104、
または電子ペットプログラム105のいずれにフォーカ
スがあたっているかを示すデータを送信する。
In step S 305, the application communication unit 121 sends the still image photographing program 103, the still image browsing program 104,
Alternatively, data indicating which of the electronic pet programs 105 is in focus is transmitted.

【0262】ステップS215において、エンジン通信
部122は、静止画撮影プログラム103、静止画閲覧
プログラム104、または電子ペットプログラム105
のいずれにフォーカスがあたっているかを示すデータを
受信する。ステップS216において、エンジン通信部
122は、認識単語・文法データベース115から現在
受付可能な単語および文法のデータを読み出し、読み出
したデータを音声認識エンジン101に送信して、状態
13に遷移する。
[0262] In step S215, the engine communication unit 122 sends the still image photographing program 103, the still image browsing program 104, or the electronic pet program 105.
Receives data indicating which of the focuses is on. In step S216, the engine communication unit 122 reads the currently acceptable word and grammar data from the recognized word / grammar database 115, transmits the read data to the speech recognition engine 101, and transitions to state 13.

【0263】使用者がマイクロフォン24に音声を入力
し始めると、ステップS217に進み、エンジン通信部
122は、音声認識エンジン101から音声検知を示す
データを受信して、状態14に遷移する。
When the user starts inputting voice to the microphone 24, the process proceeds to step S217, where the engine communication unit 122 receives data indicating voice detection from the voice recognition engine 101, and transitions to state 14.

【0264】ステップS218において、エンジン通信
部122は、音声認識エンジン101から音声に対応す
る信号のレベル(音声の音量を示す)に対応するデータ
を受信する。ステップS219において、エンジン通信
部122は、音声に対応する信号のレベルに対応するデ
ータをUI処理部123に送信する。ステップS259
において、UI処理部123は、音声に対応する信号の
レベルに対応するデータを受信する。ステップS260
において、UI処理部123は、受信した音声に対応す
る信号のレベルに対応するデータに基づき、音声コマン
ダウィンドウ151のレベルゲージ161の表示を更新
する。
In step S218, engine communication section 122 receives data corresponding to the level of a signal (indicating the volume of the voice) corresponding to the voice from voice recognition engine 101. In step S219, the engine communication unit 122 transmits data corresponding to the level of the signal corresponding to the voice to the UI processing unit 123. Step S259
In, the UI processing unit 123 receives data corresponding to the level of a signal corresponding to audio. Step S260
In, the UI processing unit 123 updates the display of the level gauge 161 of the voice commander window 151 based on the data corresponding to the level of the signal corresponding to the received voice.

【0265】ステップS220において、エンジン通信
部122は、音声認識エンジン101から音声に対応す
る信号のレベル(音声の音量を示す)に対応するデータ
を受信する。ステップS221において、エンジン通信
部122は、音声に対応する信号のレベルに対応するデ
ータをUI処理部123に送信する。ステップS261
において、UI処理部123は、音声に対応する信号の
レベルに対応するデータを受信する。ステップS262
において、UI処理部123は、受信した音声に対応す
る信号のレベルに対応するデータに基づき、音声コマン
ダウィンドウ151のレベルゲージ161の表示を更新
する。
In step S 220, engine communication section 122 receives data corresponding to the level of a signal (indicating the volume of the voice) corresponding to the voice from voice recognition engine 101. In step S221, the engine communication unit 122 transmits data corresponding to the level of the signal corresponding to the voice to the UI processing unit 123. Step S261
In, the UI processing unit 123 receives data corresponding to the level of a signal corresponding to audio. Step S262
In, the UI processing unit 123 updates the display of the level gauge 161 of the voice commander window 151 based on the data corresponding to the level of the signal corresponding to the received voice.

【0266】音声認識エンジン101から音声に対応す
る信号のレベルを受信して、音声コマンダウィンドウ1
51のレベルゲージ161の表示を更新する処理は、音
声受付が可能である状態では、随時繰り返される。
The level of a signal corresponding to voice is received from the voice recognition engine 101, and the voice commander window 1 is received.
The process of updating the display of the level gauge 161 of 51 is repeated as needed in a state where voice reception is possible.

【0267】ステップS222において、エンジン通信
部122は、音声認識エンジン101から音使用者が喋
った所定の言葉に対応する、コード番号(例えば、10
6など)、認識した単語または文(例えば、”撮影”な
ど)、および認識した単語に関連する文字列のデータを
受信する。ステップS223において、エンジン通信部
122は、コード番号、認識した単語または文、および
認識した単語に関連する文字列のデータをUI処理部1
23に送信する。ステップS263において、UI処理
部123は、コード番号、認識した単語または文、およ
び認識した単語に関連する文字列のデータを受信する。
ステップS264において、UI処理部123は、認識
した単語または文を、音声コマンダウィンドウ151の
認識結果表示部162に表示させる。
[0267] In step S222, the engine communication unit 122 transmits a code number (for example, 10) corresponding to a predetermined word spoken by the sound user from the speech recognition engine 101.
6), a recognized word or sentence (eg, “photographing”), and character string data related to the recognized word. In step S223, the engine communication unit 122 transmits the code number, the recognized word or sentence, and character string data related to the recognized word to the UI processing unit 1.
23. In step S263, the UI processing unit 123 receives the code number, the recognized word or sentence, and the data of the character string related to the recognized word.
In step S264, the UI processing unit 123 displays the recognized word or sentence on the recognition result display unit 162 of the voice commander window 151.

【0268】ステップS224において、エンジン通信
部122は、コード番号を基にアプリケーション通信部
121にも受信したデータを送信すべきものと判定し
て、コード番号、認識した単語または文、および認識し
た単語に関連する文字列のデータをアプリケーション通
信部121に送信して、状態13に遷移する。ステップ
S306において、アプリケーション通信部121は、
コード番号、認識した単語または文、および認識した単
語に関連する文字列のデータを受信する。
In step S224, the engine communication unit 122 determines that the data received also should be transmitted to the application communication unit 121 based on the code number, and determines the code number, the recognized word or sentence, and the recognized word. The data of the related character string is transmitted to the application communication unit 121, and the state transits to the state 13. In step S306, the application communication unit 121
Receive code number, recognized word or sentence, and character string data related to the recognized word.

【0269】ステップS265において、UI処理部1
23は、認識キーであるコントロールキーがは離されて
いるか否かを検出する。認識キーであるコントロールキ
ーが離されているとき、ステップS266に進み、UI
処理部123は、エンジン通信部122に音声受付の終
了を要求するとともに、アプリケーション通信部121
に対して、ステップ306でアプリケーション通信部1
21が受信しているコード番号、認識した単語または
文、および認識した単語に関連する文字列のデータを基
にした、所定の処理(例えば、静止画撮影プログラム1
03を起動させる)の実行を要求して、状態2に遷移す
る。
At step S265, the UI processing unit 1
23 detects whether the control key which is the recognition key is released. When the control key which is the recognition key is released, the process proceeds to step S266, and the UI
The processing unit 123 requests the engine communication unit 122 to end the voice reception, and the application communication unit 121
In step 306, the application communication unit 1
A predetermined process (for example, the still image photographing program 1) based on the code number, the recognized word or sentence, and the data of the character string related to the recognized word
03 is started), and the state transits to the state 2.

【0270】ステップS225において、エンジン通信
部122は、UI処理部123からの音声受付の終了の
要求を受信する。ステップS226において、エンジン
通信部122は、音声認識エンジン101に音声受付を
終了させ、状態12に遷移する。
In step S225, engine communication unit 122 receives a request from UI processing unit 123 to end voice reception. In step S226, the engine communication unit 122 causes the speech recognition engine 101 to stop accepting speech, and makes a transition to state 12.

【0271】ステップS307において、アプリケーシ
ョン通信部121は、UI処理部123からの要求を受
信する。ステップS308において、アプリケーション
通信部121は、静止画撮影プログラム103を起動さ
せる。
In step S307, the application communication section 121 receives a request from the UI processing section 123. In step S308, the application communication unit 121 activates the still image shooting program 103.

【0272】ステップS309において、アプリケーシ
ョン通信部121は、静止画撮影プログラム103か
ら、シャッタボタン10の押し下げなどに対応した、コ
メント入力の要求を受信する。ステップS310におい
て、アプリケーション通信部121は、コメント入力の
要求をUI処理部123に送信する。ステップS267
において、UI処理部123は、コメント入力の要求を
受信する。ステップS268において、UI処理部12
3は、コメント入力の要求をエンジン通信部122に送
信して、状態5に遷移する。ステップS227におい
て、エンジン通信部122は、コメント入力の要求を受
信する。
In step S 309, the application communication section 121 receives a comment input request corresponding to the depression of the shutter button 10 from the still image shooting program 103. In step S310, the application communication unit 121 transmits a comment input request to the UI processing unit 123. Step S267
, The UI processing unit 123 receives a request for comment input. In step S268, the UI processing unit 12
3 transmits a comment input request to the engine communication unit 122, and transitions to state 5. In step S227, engine communication unit 122 receives a request for comment input.

【0273】ステップS228において、エンジン通信
部122は、認識単語・文法データベース115から現
在受付可能な単語および文法のデータを読み出し、読み
出したデータを音声認識エンジン101に送信して、状
態13に遷移する。
In step S 228, engine communication section 122 reads the currently acceptable word and grammar data from recognized word / grammar database 115, transmits the read data to speech recognition engine 101, and transitions to state 13. .

【0274】使用者がマイクロフォン24に音声を入力
し始めると、ステップS229に進み、エンジン通信部
122は、音声認識エンジン101から音声検知を示す
データを受信して、状態14に遷移する。
When the user starts inputting voice to the microphone 24, the process proceeds to step S229, where the engine communication unit 122 receives data indicating voice detection from the voice recognition engine 101, and transitions to state 14.

【0275】ステップS230において、エンジン通信
部122は、音声認識エンジン101から音声に対応す
る信号のレベル(音声の音量を示す)に対応するデータ
を受信する。ステップS231において、エンジン通信
部122は、音声に対応する信号のレベルに対応するデ
ータをUI処理部123に送信する。ステップS269
において、UI処理部123は、音声に対応する信号の
レベルに対応するデータを受信する。ステップS270
において、UI処理部123は、受信した音声に対応す
る信号のレベルに対応するデータに基づき、音声コマン
ダウィンドウ151のレベルゲージ161の表示を更新
する。
In step S230, engine communication section 122 receives data corresponding to the level of the signal corresponding to the voice (indicating the volume of the voice) from voice recognition engine 101. In step S231, the engine communication unit 122 transmits data corresponding to the level of the signal corresponding to the voice to the UI processing unit 123. Step S269
In, the UI processing unit 123 receives data corresponding to the level of a signal corresponding to audio. Step S270
In, the UI processing unit 123 updates the display of the level gauge 161 of the voice commander window 151 based on the data corresponding to the level of the signal corresponding to the received voice.

【0276】ステップS232において、エンジン通信
部122は、音声認識エンジン101から音使用者が喋
った所定の言葉に対応する、コード番号(例えば、10
7など)、認識した単語または文(例えば、”パパと八
丈島で”など)、および認識した単語に関連する文字列
のデータを受信する。ステップS233において、エン
ジン通信部122は、コード番号、認識した単語または
文、および認識した単語に関連する文字列のデータをU
I処理部123に送信する。ステップS271におい
て、UI処理部123は、コード番号、認識した単語ま
たは文、および認識した単語に関連する文字列のデータ
を受信する。ステップS272において、UI処理部1
23は、認識した単語または文を、音声コマンダウィン
ドウ151の認識結果表示部162に表示させる。
[0276] In step S232, the engine communication unit 122 transmits a code number (for example, 10) corresponding to a predetermined word spoken by the sound user from the speech recognition engine 101.
7), a recognized word or sentence (eg, “Dad and Hachijojima”, etc.), and character string data related to the recognized word. In step S233, the engine communication unit 122 stores the code number, the recognized word or sentence, and the data of the character string related to the recognized word in the U
It is transmitted to the I processing unit 123. In step S271, the UI processing unit 123 receives the code number, the recognized word or sentence, and the data of the character string related to the recognized word. In step S272, the UI processing unit 1
23 displays the recognized word or sentence on the recognition result display section 162 of the voice commander window 151.

【0277】ステップS234において、エンジン通信
部122は、コード番号を基にアプリケーション通信部
121にも受信したデータを送信すべきものと判定し
て、コード番号、認識した単語または文、および認識し
た単語に関連する文字列のデータをアプリケーション通
信部121に送信して、状態13に遷移する。ステップ
S311において、アプリケーション通信部121は、
コード番号、認識した単語または文、および認識した単
語に関連する文字列のデータを受信する。
In step S234, the engine communication unit 122 determines that the received data should also be transmitted to the application communication unit 121 based on the code number, and determines the code number, the recognized word or sentence, and the recognized word. The data of the related character string is transmitted to the application communication unit 121, and the state transits to the state 13. In step S311, the application communication unit 121
Receive code number, recognized word or sentence, and character string data related to the recognized word.

【0278】ステップS312において、アプリケーシ
ョン通信部121は、認識した単語または文をコメント
として静止画撮影プログラム103に送信して、静止画
撮影プログラム103に識した単語または文をコメント
として貼付させる。
In step S312, application communication section 121 transmits the recognized word or sentence as a comment to still image shooting program 103, and causes the still image shooting program 103 to attach the recognized word or sentence as a comment.

【0279】ステップS232乃至ステップS312の
処理は、シャッタボタン10が離されず、使用者の音声
を音声認識エンジン101が認識したとき、繰り返し実
行される。
The processes of steps S232 to S312 are repeatedly executed when the shutter button 10 is not released and the voice of the user is recognized by the voice recognition engine 101.

【0280】ステップS313において、アプリケーシ
ョン通信部121は、静止画撮影プログラム103か
ら、シャッタボタン10を離すなどの操作に対応した、
コメント入力の終了の要求を受信する。ステップS31
4において、アプリケーション通信部121は、コメン
ト入力の終了の要求をUI処理部123に送信する。ス
テップS273において、UI処理部123は、コメン
ト入力の終了の要求を受信する。ステップS274にお
いて、UI処理部123は、コメント入力の終了の要求
をエンジン通信部122に送信して、状態2に遷移す
る。ステップS225において、エンジン通信部122
は、コメント入力の終了の要求を受信する。ステップS
236において、エンジン通信部122は、音声認識エ
ンジン101に音声受付を終了させ、状態12に遷移し
て、処理は終了する。
In step S313, the application communication unit 121 responds to an operation such as releasing the shutter button 10 from the still image photographing program 103.
Receives a request to end comment input. Step S31
In 4, the application communication unit 121 transmits a request to end the comment input to the UI processing unit 123. In step S273, the UI processing unit 123 receives a request to end comment input. In step S274, the UI processing unit 123 transmits a request to end the comment input to the engine communication unit 122, and makes a transition to state 2. In step S225, the engine communication unit 122
Receives a request to end comment input. Step S
In 236, the engine communication unit 122 causes the speech recognition engine 101 to end accepting speech, transitions to state 12, and ends the processing.

【0281】このように、キーボード4またはスティッ
ク式ポインティングデバイス5への複雑な操作すること
なく、音声コマンダ102は、音声の入力に対応して、
静止画撮影プログラム103を起動させ、静止画撮影プ
ログラム103が撮像した静止画像にコメントを入力す
ることができる。
As described above, the voice commander 102 responds to the input of voice without complicated operation on the keyboard 4 or the stick-type pointing device 5,
The user can start the still image shooting program 103 and input a comment to the still image captured by the still image shooting program 103.

【0282】なお、音声認識エンジン101は、登録さ
れた単語または文のみを認識するだけでなく、任意の単
語または文を認識する機能(いわゆる、ディクテーショ
ン機能)を有するようにしてもよい。
Note that the speech recognition engine 101 may have a function of recognizing not only a registered word or sentence but also an arbitrary word or sentence (a so-called dictation function).

【0283】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウェアに組み込まれているコン
ピュータ、または、各種のプログラムをインストールす
ることで、各種の機能を実行することが可能な、例えば
汎用のパーソナルコンピュータなどに、プログラム格納
媒体からインストールされる。
The above-described series of processes can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software can execute various functions by installing a computer built into dedicated hardware or installing various programs. It is installed from a program storage medium to a possible general-purpose personal computer or the like.

【0284】コンピュータにインストールされ、コンピ
ュータによって実行可能な状態とされるプログラムを格
納するプログラム格納媒体は、図7に示すように、磁気
ディスク95(フロッピディスクを含む)、光ディスク
96(CD-ROM(Compact Disc-Read Only Memory)、DVD(D
igital Versatile Disc)を含む)、光磁気ディスク97
(MD(Mini-Disc)を含む)、若しくは半導体メモリ9
8などよりなるパッケージメディア、または、プログラ
ムが一時的若しくは永続的に格納されるROM69や、ハ
ードディスク56などにより構成される。プログラム格
納媒体へのプログラムの格納は、必要に応じてルータ、
モデム50などのインタフェースを介して、ローカルエ
リアネットワーク、インターネット92、図示せぬデジ
タル衛星放送といった、有線または無線の通信媒体を利
用して行われる。
As shown in FIG. 7, a program storage medium for storing a program installed in a computer and made executable by the computer includes a magnetic disk 95 (including a floppy disk) and an optical disk 96 (CD-ROM ( Compact Disc-Read Only Memory), DVD (D
digital Versatile Disc), magneto-optical disc 97
(Including MD (Mini-Disc)) or semiconductor memory 9
8 or a ROM 69 for temporarily or permanently storing a program, a hard disk 56, or the like. The storage of the program in the program storage medium can be performed by a router,
This is performed using a wired or wireless communication medium such as a local area network, the Internet 92, or a digital satellite broadcast (not shown) via an interface such as the modem 50.

【0285】なお、本明細書において、プログラム格納
媒体に格納されるプログラムを記述するステップは、記
載された順序に沿って時系列的に行われる処理はもちろ
ん、必ずしも時系列的に処理されなくとも、並列的ある
いは個別に実行される処理をも含むものである。
[0285] In this specification, the step of describing a program stored in a program storage medium may be performed not only in chronological order but also in chronological order in the order described. , And also includes processes executed in parallel or individually.

【0286】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
[0286] In this specification, the system is
It represents the entire device composed of a plurality of devices.

【0287】[0287]

【発明の効果】請求項1に記載の情報処理装置、請求項
3に記載の情報処理方法、および請求項4に記載のプロ
グラム格納媒体によれば、音声を認識して、音声に対応
する単語が生成され、単語に対応させて、所定のプログ
ラムのコマンドが記憶され、プログラムに、生成された
単語に対応するコマンドが送信されるようにしたので、
簡単に、プログラムを操作できるようになる。
According to the information processing apparatus according to the first aspect, the information processing method according to the third aspect, and the program storage medium according to the fourth aspect, a word corresponding to the voice is recognized by recognizing the voice. Is generated, a command of a predetermined program is stored in association with the word, and a command corresponding to the generated word is transmitted to the program.
You can easily operate the program.

【図面の簡単な説明】[Brief description of the drawings]

【図1】パーソナルコンピュータ1の外観斜視図であ
る。
FIG. 1 is an external perspective view of a personal computer 1. FIG.

【図2】パーソナルコンピュータ1の平面図である。FIG. 2 is a plan view of the personal computer 1.

【図3】パーソナルコンピュータ1の左側側面図であ
る。
FIG. 3 is a left side view of the personal computer 1.

【図4】パーソナルコンピュータ1の右側側面図であ
る。
FIG. 4 is a right side view of the personal computer 1.

【図5】パーソナルコンピュータ1の正面図である。FIG. 5 is a front view of the personal computer 1.

【図6】パーソナルコンピュータ1の底面図である。FIG. 6 is a bottom view of the personal computer 1.

【図7】パーソナルコンピュータ1の構成を示すブロッ
ク図である。
FIG. 7 is a block diagram showing a configuration of the personal computer 1.

【図8】パーソナルコンピュータ1の機能ブロックを示
す図である。
FIG. 8 is a diagram showing functional blocks of the personal computer 1.

【図9】パーソナルコンピュータ1の機能ブロックを示
す図である。
FIG. 9 is a diagram showing functional blocks of the personal computer 1.

【図10】SAPIを説明する図である。FIG. 10 is a diagram illustrating SAPI.

【図11】UI処理部123の状態遷移図である。11 is a state transition diagram of a UI processing unit 123. FIG.

【図12】音声コマンダウィンドウ151を示す図であ
る。
FIG. 12 is a diagram showing a voice commander window 151.

【図13】エンジン通信部122の状態遷移図である。13 is a state transition diagram of the engine communication unit 122. FIG.

【図14】アプリケーション通信部121の状態遷移図
である。
FIG. 14 is a state transition diagram of the application communication unit 121.

【図15】LCD21に表示される画面を説明する図であ
る。
FIG. 15 is a diagram illustrating a screen displayed on the LCD 21.

【図16】LCD21に表示される画面を説明する図であ
る。
FIG. 16 is a diagram illustrating a screen displayed on the LCD 21.

【図17】LCD21に表示される画面を説明する図であ
る。
FIG. 17 is a diagram illustrating a screen displayed on the LCD 21.

【図18】LCD21に表示される画面を説明する図であ
る。
FIG. 18 is a diagram illustrating a screen displayed on the LCD 21.

【図19】LCD21に表示される画面を説明する図であ
る。
FIG. 19 is a diagram illustrating a screen displayed on the LCD 21.

【図20】LCD21に表示される画面を説明する図であ
る。
FIG. 20 is a diagram illustrating a screen displayed on the LCD 21.

【図21】LCD21に表示される画面を説明する図であ
る。
FIG. 21 is a diagram illustrating a screen displayed on the LCD 21.

【図22】LCD21に表示される画面を説明する図であ
る。
FIG. 22 is a diagram illustrating a screen displayed on the LCD 21.

【図23】LCD21に表示される画面を説明する図であ
る。
FIG. 23 is a diagram illustrating a screen displayed on the LCD 21.

【図24】LCD21に表示される画面を説明する図であ
る。
FIG. 24 is a diagram illustrating a screen displayed on the LCD 21.

【図25】LCD21に表示される画面を説明する図であ
る。
FIG. 25 is a diagram illustrating a screen displayed on the LCD 21.

【図26】LCD21に表示される画面を説明する図であ
る。
FIG. 26 is a diagram illustrating a screen displayed on the LCD 21.

【図27】LCD21に表示される画面を説明する図であ
る。
FIG. 27 is a diagram illustrating a screen displayed on the LCD 21.

【図28】LCD21に表示される画面を説明する図であ
る。
FIG. 28 is a diagram illustrating a screen displayed on the LCD 21.

【図29】LCD21に表示される画面を説明する図であ
る。
FIG. 29 is a diagram illustrating a screen displayed on the LCD 21.

【図30】LCD21に表示される画面を説明する図であ
る。
FIG. 30 is a diagram illustrating a screen displayed on the LCD 21.

【図31】LCD21に表示される画面を説明する図であ
る。
FIG. 31 is a diagram illustrating a screen displayed on the LCD 21.

【図32】LCD21に表示される画面を説明する図であ
る。
FIG. 32 is a diagram illustrating a screen displayed on the LCD 21.

【図33】LCD21に表示される画面を説明する図であ
る。
FIG. 33 is a diagram illustrating a screen displayed on the LCD 21.

【図34】LCD21に表示される画面を説明する図であ
る。
FIG. 34 is a diagram illustrating a screen displayed on LCD 21.

【図35】LCD21に表示される画面を説明する図であ
る。
FIG. 35 is a diagram illustrating a screen displayed on the LCD 21.

【図36】LCD21に表示される画面を説明する図であ
る。
36 is a diagram illustrating a screen displayed on LCD 21. FIG.

【図37】LCD21に表示される画面を説明する図であ
る。
FIG. 37 is a diagram illustrating a screen displayed on the LCD 21.

【図38】LCD21に表示される画面を説明する図であ
る。
FIG. 38 is a diagram illustrating a screen displayed on the LCD 21.

【図39】LCD21に表示される画面を説明する図であ
る。
FIG. 39 is a diagram illustrating a screen displayed on the LCD 21.

【図40】LCD21に表示される画面を説明する図であ
る。
40 is a diagram illustrating a screen displayed on LCD 21. FIG.

【図41】LCD21に表示される画面を説明する図であ
る。
FIG. 41 is a diagram illustrating a screen displayed on LCD 21.

【図42】LCD21に表示される画面を説明する図であ
る。
FIG. 42 is a diagram illustrating a screen displayed on LCD 21.

【図43】LCD21に表示される画面を説明する図であ
る。
FIG. 43 is a diagram illustrating a screen displayed on LCD 21.

【図44】LCD21に表示される画面を説明する図であ
る。
FIG. 44 is a diagram illustrating a screen displayed on LCD.

【図45】静止画像の撮像の処理を説明するフローチャ
ートである。
FIG. 45 is a flowchart illustrating a process of capturing a still image.

【図46】音声によるコマンド送信または起動の処理を
説明するフローチャートである。
FIG. 46 is a flowchart illustrating processing for command transmission or activation by voice.

【図47】アプリケーションプログラムの起動またはコ
マンド送信の処理を説明するフローチャートである。
FIG. 47 is a flowchart illustrating processing for starting an application program or transmitting a command.

【図48】電子メールプログラム54Aの起動の処理を
説明するフローチャートである。
FIG. 48 is a flowchart illustrating a process of activating the e-mail program 54A.

【図49】アプリケーションプログラムの起動またはデ
ータの送信の処理を説明するフローチャートである。
FIG. 49 is a flowchart illustrating a process of starting an application program or transmitting data.

【図50】起動またはコマンド送信のときの画像表示の
処理を説明するフローチャートである。
FIG. 50 is a flowchart illustrating a process of displaying an image when starting or transmitting a command.

【図51】音声認識のテストの処理を説明するフローチ
ャートである。
FIG. 51 is a flowchart illustrating a speech recognition test process.

【図52】登録する呼び名のテストの処理を説明するフ
ローチャートである。
FIG. 52 is a flowchart illustrating a test process for a registered name to be registered;

【図53】カテゴリの呼び名のテストの処理を説明する
フローチャートである。
FIG. 53 is a flowchart illustrating a process of testing a category name;

【図54】静止画撮影プログラム103を起動させて、
静止画像を撮像させて、静止画像にコメントを貼付する
までの一連の処理を説明するフローチャートである。
FIG. 54: Activating the still image shooting program 103
9 is a flowchart illustrating a series of processing from capturing a still image to attaching a comment to the still image.

【図55】静止画撮影プログラム103を起動させて、
静止画像を撮像させて、静止画像にコメントを貼付する
までの一連の処理を説明するフローチャートである。
FIG. 55 activates the still image shooting program 103,
9 is a flowchart illustrating a series of processing from capturing a still image to attaching a comment to the still image.

【符号の説明】[Explanation of symbols]

1 パーソナルコンピュータ, 4 キーボード, 1
0 シャッタボタン,21 LCD, 23 CCDビデオカ
メラ, 24 マイクロフォン, 52 CPU, 59
ROM, 54 RAM, 84A 電子メールプログラ
ム, 86 前押しスイッチ, 88 ドライブ, 9
2 インターネット, 95 磁気ディスク, 96
光ディスク, 97 光磁気ディスク, 98 半導体
メモリ,101 音声認識エンジン, 102 音声コ
マンダ, 103 静止画撮影プログラム, 104
静止画閲覧プログラム, 111 読み仮名辞書データ
ベース, 112 エンジン用認識単語・文法データベ
ース, 113 ランチャ設定データベース, 114
辞書設定データベース, 115 認識単語データベ
ース, 121 アプリケーション通信部, 122
エンジン通信部,123 UI処理部, 124 音声
ランチャ制御部, 125 ユーザ辞書制御部, 12
6 認識テスト処理部
1 personal computer, 4 keyboard, 1
0 shutter button, 21 LCD, 23 CCD video camera, 24 microphone, 52 CPU, 59
ROM, 54 RAM, 84A E-mail program, 86 Front switch, 88 drive, 9
2 Internet, 95 Magnetic disk, 96
Optical disk, 97 magneto-optical disk, 98 semiconductor memory, 101 voice recognition engine, 102 voice commander, 103 still image photographing program, 104
Still image browsing program, 111 reading kana dictionary database, 112 recognition word / grammar database for engine, 113 launcher setting database, 114
Dictionary setting database, 115 recognized word database, 121 application communication unit, 122
Engine communication unit, 123 UI processing unit, 124 voice launcher control unit, 125 user dictionary control unit, 12
6 Recognition test processing unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 米倉 修二 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 藤村 聡 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 笹井 崇司 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 藤澤 直樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大井 純司 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5D015 KK01 KK03  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Shuji Yonekura 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Satoshi Fujimura 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Takashi Sasai 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Inside (72) Inventor Naoki Fujisawa 7-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony (72) Inventor Junji Oi 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F-term (reference) 5D015 KK01 KK03

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 音声を認識して、前記音声に対応する単
語を生成する生成手段と、 前記単語に対応させて、所定のプログラムのコマンドを
記憶する記憶手段と、 前記プログラムに、前記生成手段により生成された前記
単語に対応する前記コマンドを送信する送信手段とを含
むことを特徴とする情報処理装置。
A generating means for recognizing a voice and generating a word corresponding to the voice; a storing means for storing a command of a predetermined program in association with the word; Transmitting means for transmitting the command corresponding to the word generated by the command.
【請求項2】 動作しているプログラムの中から前記プ
ログラムを選択する選択手段を更に含み、 前記送信手段は、前記選択手段により選択された前記プ
ログラムに前記コマンドを送信することを特徴とする請
求項1に記載の情報処理装置。
2. The apparatus according to claim 1, further comprising a selection unit that selects the program from operating programs, wherein the transmission unit transmits the command to the program selected by the selection unit. Item 2. The information processing device according to item 1.
【請求項3】 音声を認識して、前記音声に対応する単
語を生成する生成ステップと、 前記単語に対応させて、所定のプログラムのコマンドを
記憶する記憶ステップと、 前記プログラムに、前記生成ステップの処理で生成され
た前記単語に対応する前記コマンドを送信する送信ステ
ップとを含むことを特徴とする情報処理方法。
A generating step of recognizing a voice and generating a word corresponding to the voice; a storing step of storing a command of a predetermined program in association with the word; A transmitting step of transmitting the command corresponding to the word generated in the processing of (a).
【請求項4】 音声を認識して、前記音声に対応する単
語を生成する生成ステップと、 前記単語に対応させて、所定のプログラムのコマンドを
記憶する記憶ステップと、 前記プログラムに、前記生成ステップの処理で生成され
た前記単語に対応する前記コマンドを送信する送信ステ
ップとからなることを特徴とするプログラムを情報処理
装置に実行させるプログラム格納媒体。
4. A generating step of recognizing a voice and generating a word corresponding to the voice; a storing step of storing a command of a predetermined program in association with the word; A transmission step of transmitting the command corresponding to the word generated in the process of (b).
JP25067599A 1999-09-03 1999-09-03 Device and method for information processing and program storage medium Withdrawn JP2001075773A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25067599A JP2001075773A (en) 1999-09-03 1999-09-03 Device and method for information processing and program storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25067599A JP2001075773A (en) 1999-09-03 1999-09-03 Device and method for information processing and program storage medium

Publications (1)

Publication Number Publication Date
JP2001075773A true JP2001075773A (en) 2001-03-23

Family

ID=17211384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25067599A Withdrawn JP2001075773A (en) 1999-09-03 1999-09-03 Device and method for information processing and program storage medium

Country Status (1)

Country Link
JP (1) JP2001075773A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8327066B2 (en) 2008-09-30 2012-12-04 Samsung Electronics Co., Ltd. Method of managing a solid state drive, associated systems and implementations

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8327066B2 (en) 2008-09-30 2012-12-04 Samsung Electronics Co., Ltd. Method of managing a solid state drive, associated systems and implementations
US8904088B2 (en) 2008-09-30 2014-12-02 Samsung Electronics Co., Ltd. Method of managing a solid state drive, associated systems and implementations
US9542199B2 (en) 2008-09-30 2017-01-10 Samsung Electronics Co., Ltd. Method of managing a solid state drive, associated systems and implementations

Similar Documents

Publication Publication Date Title
JP4200607B2 (en) Information processing apparatus and method, and program storage medium
JP4320487B2 (en) Information processing apparatus and method, and program storage medium
US11868680B2 (en) Electronic device and method for generating short cut of quick command
US10917369B2 (en) Information processing apparatus, information processing system, and information processing method
US10686951B2 (en) Methods and systems for accessing printing and scanning functions of a multi-function printer through natural language text or voice messages
CN111095399A (en) Voice user interface shortcuts for assistant applications
US20070022372A1 (en) Multimodal note taking, annotation, and gaming
EP3660661A1 (en) Information processing system, method of processing information and carrier means
EP1081615A2 (en) Picture information transmission apparatus and method
JP2005327258A (en) Web service application based optical character recognition system and method
JP2000035896A (en) Digital data transfer device
JP2007066092A (en) Information processor, network device, control method of them, computer program, and computer readable storage medium
US11036441B1 (en) System and method for creation and invocation of predefined print settings via speech input
JP4200608B2 (en) Information processing apparatus and method, and program storage medium
WO2022213943A1 (en) Message sending method, message sending apparatus, electronic device, and storage medium
JP2001075591A (en) Information processor and method and program storage medium
JP2001216131A (en) Information processor, its method and program storage medium
JP2001075773A (en) Device and method for information processing and program storage medium
JP4513192B2 (en) Information processing apparatus and method, and program recording medium
JP2001075775A (en) Information processor, its method and program storage medium
JP4320488B2 (en) Information processing apparatus and method, and program storage medium
JP2001216128A (en) Information processor, information processing method and program storage medium
JP2001216059A (en) Device and method for processing information and program storage medium
CN113207042B (en) Media asset playing method and display equipment
JP2001216061A (en) Device and method for processing information and program storage medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107