JP2001071289A - Device and method for information processing and program storing medium - Google Patents

Device and method for information processing and program storing medium

Info

Publication number
JP2001071289A
JP2001071289A JP24956899A JP24956899A JP2001071289A JP 2001071289 A JP2001071289 A JP 2001071289A JP 24956899 A JP24956899 A JP 24956899A JP 24956899 A JP24956899 A JP 24956899A JP 2001071289 A JP2001071289 A JP 2001071289A
Authority
JP
Japan
Prior art keywords
command
life object
input
electronic pet
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP24956899A
Other languages
Japanese (ja)
Inventor
Kiyonobu Kojima
清信 小島
Yasuhiko Kato
靖彦 加藤
Shuji Yonekura
修二 米倉
Satoshi Fujimura
聡 藤村
Takashi Sasai
崇司 笹井
Naoki Fujisawa
直樹 藤澤
Junji Oi
純司 大井
Tsunenori Noma
恒毅 野間
Naohiro Yokoo
直弘 横尾
Futoshi Goto
太 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP24956899A priority Critical patent/JP2001071289A/en
Publication of JP2001071289A publication Critical patent/JP2001071289A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To issue an instruction for a robot and an electric pet with the same operation. SOLUTION: A personal computer 1 displays an electronic pet, to provide an instruction and provide an instruction for a robot 3 as well. An instruction issued while the electronic pet is displayed on the personal computer 1 is directed to the electronic pet, an instruction issued while the electronic pet is covered with a cap, and is not visible is directed to the robot 3. A user can see the displayed state to recognize whether his instruction to be issued will be directed to the electronic pet or to the robot 3, and provide a necessary instruction as an audio signal for the personal computer 1. If an instruction corresponding to the result for analyzing the audio signal is directed to the robot 3, a signal corresponding to the analyzed result is transmitted to the robot 3. If the instruction is directed to the electronic pet, the display is changed according to the instruction.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は情報処理装置および
方法、並びにプログラム格納媒体に関し、特に、電子ペ
ットとロボットに対して、同一の操作により指示が出
せ、また、その指示は音声により行え、さらに、電子ペ
ットに対しての指示か、ロボットに対しての指示かをユ
ーザが認識できるようにする情報処理装置および方法、
並びにプログラム格納媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and method, and a program storage medium. Information processing apparatus and method for allowing a user to recognize whether an instruction to an electronic pet or an instruction to a robot,
And a program storage medium.

【0002】[0002]

【従来の技術】犬などを模写して作られたロボットのペ
ットや、仮想空間内で飼育される電子ペットと称される
ペットなどが普及しつつある。ロボット型のペットは、
付属のリモートコントローラなどで操作されたり、音声
を認識することにより動作するようにされている。ま
た、電子ペットは、表示されたメニューの中から所望の
指示が選択されることにより操作される。
2. Description of the Related Art Robot pets made by copying dogs and the like and pets called electronic pets bred in a virtual space are becoming widespread. Robot-type pets
It is operated by an attached remote controller or the like, and operates by recognizing voice. The electronic pet is operated by selecting a desired instruction from the displayed menu.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、ロボッ
ト型のペットにおいて、リモートコントローラを用いて
操作する場合、リモートコントローラの操作を覚えなく
てはならないといった課題があり、また、音声を認識す
ることにより動作するものの場合、遠くから呼びかけた
りしても、その音声を認識しない、近くから呼びかけた
としても、認識率が悪いといった課題があった。
However, when operating a robot-type pet using a remote controller, there is a problem that the operation of the remote controller must be remembered. However, there is a problem that the voice is not recognized even if called from a distance, and the recognition rate is poor even if called from a nearby place.

【0004】電子ペットの場合、パーソナルコンピュー
タなどのディスプレイ上に表示され、そのディスプレイ
上の同一画面上に表示されているメニューの中から、ユ
ーザは、電子ペットに対して指示を与えるため、ペット
としての親近感がわきづらいといった課題があった。ま
た、電子ペットとロボットに対し、同一の操作により指
示を与えるといった場合、電子ペットに対して与えた指
示なのに、実行したのはロボットであったり、逆に、ロ
ボットに対して与えた指示なのに、実行したのは電子ペ
ットであったりといった、不都合が発生するといった課
題もあった。
In the case of an electronic pet, a user displays an electronic pet from a menu displayed on a display such as a personal computer and displayed on the same screen on the display. There was a problem that the intimacy was difficult to understand. Also, when giving an instruction to the electronic pet and the robot by the same operation, the instruction given to the electronic pet is executed by the robot, or conversely, the instruction given to the robot is There was also a problem that inconvenience occurred, such as execution of an electronic pet.

【0005】本発明はこのような状況に鑑みてなされた
ものであり、電子ペットとロボットに対して、同一の操
作により指示が出せ、また、その指示は音声により行
え、さらに、電子ペットに対しての指示か、ロボットに
対しての指示かを認識できるようにすることにより、ユ
ーザが、ロボットに対しても電子ペットに対してもペッ
トとして親近感をもてるようにするとともに、使い勝手
の良いユーザインタフェースを提供することを目的とす
る。
The present invention has been made in view of such a situation, and an instruction can be issued to an electronic pet and a robot by the same operation, and the instruction can be given by voice. By allowing the user to recognize whether the instruction is for the robot or for the electronic pet, the user can be familiar with the robot and the electronic pet as well as being easy to use. The purpose is to provide a user interface.

【0006】[0006]

【課題を解決するための手段】請求項1に記載の情報処
理装置は、仮想空間において飼育される仮想生命オブジ
ェクトに対して、または、現実空間において飼育される
疑似生命オブジェクトに対して、所定の動作をさせるコ
マンドを入力する入力手段と、入力手段により入力され
るコマンドが、仮想生命オブジェクトに対するものであ
るか、疑似生命オブジェクトに対するものであるかを切
り換える切り換え手段と、入力手段により入力されたコ
マンドが、仮想生命オブジェクトに対するものである場
合、コマンドに対応する仮想生命オブジェクトの表示を
制御する表示制御手段と、入力手段により入力されたコ
マンドが、疑似生命オブジェクトに対するものである場
合、コマンドに対応する信号を疑似生命オブジェクトに
対して送信する送信手段とを含むことを特徴とする。
According to a first aspect of the present invention, an information processing apparatus according to the first aspect of the present invention is provided for a virtual life object bred in a virtual space or a pseudo life object bred in a real space. Input means for inputting a command for operation, switching means for switching whether the command input by the input means is for a virtual life object or for a pseudo life object, and a command input by the input means Is for a virtual life object, the display control means for controlling the display of the virtual life object corresponding to the command, and when the command input by the input means is for a pseudo life object, it corresponds to the command. A signal that sends a signal to a simulated life object Characterized in that it comprises a means.

【0007】前記入力手段は、音声信号でコマンドを入
力するようにすることができる。
[0007] The input means can input a command by a voice signal.

【0008】前記送信手段により送信される信号は、音
階信号であるようにすることができる。
[0008] The signal transmitted by the transmitting means may be a scale signal.

【0009】前記仮想生命オブジェクトおよび前記疑似
生命オブジェクトの名称は、ユーザにより付けられるよ
うにすることができる。
[0009] The names of the virtual life object and the pseudo life object can be given by a user.

【0010】請求項5に記載の情報処理方法は、仮想空
間において飼育される仮想生命オブジェクトに対して、
または、現実空間において飼育される疑似生命オブジェ
クトに対して、所定の動作をさせるコマンドを入力する
入力ステップと、入力ステップの処理で入力されるコマ
ンドが、仮想生命オブジェクトに対するものであるか、
疑似生命オブジェクトに対するものであるかを切り換え
る切り換えステップと、入力ステップの処理で入力され
たコマンドが、仮想生命オブジェクトに対するものであ
る場合、コマンドに対応する仮想生命オブジェクトの表
示を制御する表示制御ステップと、入力ステップの処理
で入力されたコマンドが、疑似生命オブジェクトに対す
るものである場合、コマンドに対応する信号を疑似生命
オブジェクトに対して送信する送信ステップとを含むこ
とを特徴とする。
[0010] The information processing method according to claim 5, wherein the virtual life object bred in the virtual space is
Alternatively, an input step of inputting a command for performing a predetermined operation on a pseudo-life object bred in a real space, and the command input in the processing of the input step is for a virtual life object,
A switching step of switching whether the command is for a pseudo life object, and a display control step for controlling display of a virtual life object corresponding to the command when the command input in the processing of the input step is for a virtual life object. And transmitting the signal corresponding to the command to the pseudo-life object if the command input in the processing of the input step is for the pseudo-life object.

【0011】請求項6に記載のプログラム格納媒体のプ
ログラムは、仮想空間において飼育される仮想生命オブ
ジェクトに対して、または、現実空間において飼育され
る疑似生命オブジェクトに対して、所定の動作をさせる
コマンドを入力する入力ステップと、入力ステップの処
理で入力されるコマンドが、仮想生命オブジェクトに対
するものであるか、疑似生命オブジェクトに対するもの
であるかを切り換える切り換えステップと、入力ステッ
プの処理で入力されたコマンドが、仮想生命オブジェク
トに対するものである場合、コマンドに対応する仮想生
命オブジェクトの表示を制御する表示制御ステップと、
入力ステップの処理で入力されたコマンドが、疑似生命
オブジェクトに対するものである場合、コマンドに対応
する信号を疑似生命オブジェクトに対して送信する際の
制御を行う送信制御ステップとからなることを特徴とす
る。
According to a sixth aspect of the present invention, a program for executing a predetermined operation on a virtual life object bred in a virtual space or a pseudo life object bred in a real space is provided. Input step, a switching step of switching whether a command input in the processing of the input step is for a virtual life object or a pseudo life object, and a command input in the processing of the input step. Is a virtual life object, a display control step of controlling the display of the virtual life object corresponding to the command,
When the command input in the processing of the input step is for a pseudo-life object, a transmission control step for performing control when transmitting a signal corresponding to the command to the pseudo-life object is provided. .

【0012】請求項1に記載の情報処理装置、請求項5
に記載の情報処理方法、請求項6に記載のプログラム格
納媒体においては、入力されるコマンドが、仮想生命オ
ブジェクトに対するものであるか、疑似生命オブジェク
トに対するものであるかが切り換えられ、入力されたコ
マンドが、仮想生命オブジェクトに対するものである場
合、コマンドに対応する仮想生命オブジェクトの表示が
制御され、入力されたコマンドが、疑似生命オブジェク
トに対するものである場合、コマンドに対応する信号が
疑似生命オブジェクトに対して送信される。
An information processing apparatus according to claim 1,
In the information processing method according to the above, the command to be input is switched between a command for a virtual life object and a command for a pseudo life object, and the input command is When the command is for a virtual life object, the display of the virtual life object corresponding to the command is controlled. When the input command is for the pseudo life object, the signal corresponding to the command is transmitted to the pseudo life object. Sent.

【0013】[0013]

【発明の実施の形態】図1は、本発明を適用した情報処
理システムの一実施の形態の構成を示す図である。パー
ソナルコンピュータ1は、後述する電子ペットやロボッ
ト3の動作を制御する。リモートコマンダ2は、ロボッ
ト3を制御する際に用いられる。
FIG. 1 is a diagram showing a configuration of an embodiment of an information processing system to which the present invention is applied. The personal computer 1 controls operations of an electronic pet and the robot 3 described later. The remote commander 2 is used when controlling the robot 3.

【0014】図2は、パーソナルコンピュータ1の内部
構成を示すブロック図である。パーソナルコンピュータ
1のCPU(Central Processing Unit)11は、ROM(Rea
d Only Memory)12に記憶されているプログラムに従
って各種の処理を実行する。RAM(Random Access Memor
y)13には、CPU11が各種の処理を実行する上におい
て必要なデータやプログラムなどが適宜記憶される。入
出力インタフェース14は、キーボード15やマウス1
6から入力された信号をCPU11に出力する。また、入
出力インタフェース14には、ハードディスクなどから
構成される記憶部17も接続されており、そこにデータ
やプログラムなどが適宜記録、再生される。
FIG. 2 is a block diagram showing the internal configuration of the personal computer 1. The CPU (Central Processing Unit) 11 of the personal computer 1 has a ROM (Rea
d Only Memory) 12 executes various processes according to the program stored in the memory. RAM (Random Access Memor
y) 13 stores data and programs necessary for the CPU 11 to execute various processes as appropriate. The input / output interface 14 includes a keyboard 15 and a mouse 1
The signal input from 6 is output to the CPU 11. The input / output interface 14 is also connected to a storage unit 17 composed of a hard disk or the like, in which data and programs are recorded and reproduced as appropriate.

【0015】入出力インタフェース14には、また、表
示デバイスとしてのディスプレイ18が接続されている
とともに、通信部19も接続され、他の装置と電波、
光、赤外線などにより通信を行うことが可能である。さ
らに、入出力インタフェース14には、音声を取り込む
マイクロホン20、画像を取り込むビデオカメラ21、
および音声を発するスピーカ22が接続されている。ド
ライブ23も、入出力インタフェース14と接続され、
フロッピー(登録商標)ディスク(不図示)などとデー
タの授受を行う。内部バス24は、これらの各部を相互
に接続する。
A display 18 as a display device is connected to the input / output interface 14, and a communication unit 19 is also connected thereto.
Communication can be performed by light, infrared light, or the like. Further, the input / output interface 14 includes a microphone 20 for capturing audio, a video camera 21 for capturing images,
And a speaker 22 for emitting sound. The drive 23 is also connected to the input / output interface 14,
Data is exchanged with a floppy (registered trademark) disk (not shown). The internal bus 24 connects these components to each other.

【0016】図3は、パーソナルコンピュータ1の外観
を表す図である。図3に示したパーソナルコンピュータ
1は、俗に言われるノート型パソコンであり、そのノー
ト型パソコンを開いた状態を表している。ディスプレイ
18の上部には、マイクロホン20とビデオカメラ21
が設けられている。このビデオカメラ21は、ディスプ
レイ18に対して180度、回動可能に取り付けられて
いる。また、キーボード15の上部には、スピーカ22
が設けられている。
FIG. 3 is a diagram showing the appearance of the personal computer 1. The personal computer 1 shown in FIG. 3 is a so-called notebook personal computer, and shows a state in which the notebook personal computer is opened. A microphone 20 and a video camera 21 are provided above the display 18.
Is provided. The video camera 21 is rotatably attached to the display 18 by 180 degrees. A speaker 22 is provided above the keyboard 15.
Is provided.

【0017】図4は、リモートコマンダ2の内部構成を
示す図である。キー41は、主に、音階を示す複数のキ
ーから構成されている。スピーカ42は、キー41によ
り入力された音階に対応する音を発する。CPU43は、R
OM44に記憶されているプログラム、データに基づき、
例えば、操作されたキー41を解析し、その解析された
音階に基づく音を、スピーカ42により発せさせる。RA
M45は、適宜必要なデータの書き込みや読み出しが行
われる。内部バス46は、これらの各部を相互に接続す
る。
FIG. 4 is a diagram showing the internal configuration of the remote commander 2. The key 41 mainly includes a plurality of keys indicating a scale. The speaker 42 emits a sound corresponding to the scale input by the key 41. CPU 43
Based on the program and data stored in OM44,
For example, the operated key 41 is analyzed, and the speaker 42 emits a sound based on the analyzed scale. RA
In M45, necessary data writing and reading are performed as needed. The internal bus 46 connects these components to each other.

【0018】図5は、ロボット3の内部構成を示す図で
ある。ロボット3のCPU61は、ROM62に記憶されてい
るプログラムに従って各種の処理を実行する。RAM63
には、CPU61が各種の処理を実行する上において必要
なデータやプログラムなどが適宜記憶される。入出力イ
ンタフェース64には、目などの役割を果たす複数のセ
ンサ65が接続されており、それらから入力された信号
をCPU61に出力する。また、入出力インタフェース6
4には、ハードディスクなどから構成される記憶部66
も接続されており、そこにデータ、プログラムなどを記
録、再生することができる。
FIG. 5 is a diagram showing the internal configuration of the robot 3. The CPU 61 of the robot 3 executes various processes according to a program stored in the ROM 62. RAM63
The CPU 61 appropriately stores data, programs, and the like necessary for the CPU 61 to execute various processes. The input / output interface 64 is connected to a plurality of sensors 65 serving as eyes and the like, and outputs signals input thereto to the CPU 61. The input / output interface 6
4 includes a storage unit 66 composed of a hard disk or the like.
Is also connected, and data and programs can be recorded and reproduced there.

【0019】入出力インタフェース64は、また、通信
部67とも接続され、通信部67は、パーソナルコンピ
ュータ1やリモートコントローラ3と電波、光、赤外線
などにより通信を行う。さらに、入出力インタフェース
64には、音声を取り込むマイクロホン68、音声を発
するスピーカ69が接続されている。モータ70も入出
力インターフェース64に接続され、CPU61の指示に
より、ロボット3の腕や足に相当する運動部71を動作
させる。内部バス72は、これらの各部を相互に接続す
る。
The input / output interface 64 is also connected to a communication section 67, which communicates with the personal computer 1 and the remote controller 3 by radio waves, light, infrared rays, and the like. Further, to the input / output interface 64, a microphone 68 for taking in sound and a speaker 69 for emitting sound are connected. The motor 70 is also connected to the input / output interface 64, and operates the movement unit 71 corresponding to the arm or foot of the robot 3 according to an instruction from the CPU 61. The internal bus 72 connects these components to each other.

【0020】ここで、リモートコマンダ2によりロボッ
ト3を制御する場合を説明する。ロボット3のROM62
には、例えば、図6に示すように、ロボット3のモータ
70の動作を制御することにより、ロボット3自体を制
御するロボット制御部81と、マイクロホン69により
取り込まれた音声を解析する音階検出部82とが記憶さ
れている。
Here, a case where the robot 3 is controlled by the remote commander 2 will be described. ROM 3 of robot 3
For example, as shown in FIG. 6, a robot control unit 81 that controls the robot 3 itself by controlling the operation of the motor 70 of the robot 3 and a scale detection unit that analyzes the voice captured by the microphone 69 82 are stored.

【0021】図7のフローチャートを参照してロボット
3の制御について説明する。ロボット3は、リモートコ
マンダ2により(ユーザにより)制御することも可能で
あると共に、その制御とは独立して、自分自身で動作を
決定し、動作すること(内部イベントと称する)も可能
である。そこで、ステップS1において、CPU61は、
内部イベントが発生したか否か、換言すれば、外部から
の制御とは独立して、内部的に動作が指示されたか否か
を判断する。この内部イベントの発生は、図8のフロー
チャートの処理に従って、発生される。
The control of the robot 3 will be described with reference to the flowchart of FIG. The robot 3 can be controlled by the remote commander 2 (by the user), and independently of the control, can determine its own operation and operate (referred to as an internal event). . Therefore, in step S1, the CPU 61
It is determined whether or not an internal event has occurred, in other words, whether or not an operation has been commanded internally, independently of external control. The generation of this internal event is generated according to the processing of the flowchart of FIG.

【0022】ステップS11において、所定の時間が経
過したか否かが判断される。CPU61は、外部または内
部からの指示により動作をした時点から、所定の時間を
カウントすることにより、所定の時間が経過したか否か
を判断する。所定の時間が経過したと判断されるまで、
ステップS11の処理が繰り返され、所定の時間が経過
したと判断されると、ステップS12に進む。ステップ
S12において、乱数が発生される。そして、ステップ
S13において、ステップS12において発生された乱
数に対応するイベントがイベントリストから抽出され
る。
In step S11, it is determined whether a predetermined time has elapsed. The CPU 61 determines whether or not a predetermined time has elapsed by counting a predetermined time from the time when the operation is performed according to an instruction from the outside or the inside. Until it is determined that the predetermined time has elapsed,
The process of step S11 is repeated, and when it is determined that the predetermined time has elapsed, the process proceeds to step S12. In step S12, a random number is generated. Then, in step S13, an event corresponding to the random number generated in step S12 is extracted from the event list.

【0023】イベントリストとは、例えば、次の表1に
示すように、コマンドの内容(動作内容)、乱数、およ
び音階がそれぞれ対応付けられたリストである。なお、
音階とは、リモートコマンダ2により発せられたコマン
ドとしての音階を示す。また、次の表1は、一部であ
り、他のコマンドを追加したりすることも可能である。
The event list is, for example, a list in which command contents (operation contents), random numbers, and musical scales are associated with each other as shown in Table 1 below. In addition,
The musical scale indicates a musical scale as a command issued by the remote commander 2. The following Table 1 is a part, and other commands can be added.

【0024】 なお、表1における音階は、アルファベットで示し、
C、D、E、F、G、A、Bは、それぞれ、ド、レ、
ミ、ファ、ソ、ラ、シを表し、#(シャープ)は半音階
上げることを示している。
[0024] The scales in Table 1 are indicated by alphabets.
C, D, E, F, G, A, B are de, les,
Represents mi, fa, so, la, si, and # (sharp) indicates increasing the chromatic scale.

【0025】ステップS13において、発生された乱数
に対応するコマンドが抽出される。このように抽出され
たコマンドに対応する処理が、ステップS2(図7)に
おいて、ロボット制御部81により実行される。
In step S13, a command corresponding to the generated random number is extracted. The processing corresponding to the command thus extracted is executed by the robot control unit 81 in step S2 (FIG. 7).

【0026】一方、ステップS1において、内部イベン
トは発生していないと判断された場合、ステップS3に
進む。ステップS3において、音階検出部82は、音声
信号をマイクロホン68により受信したか否かを判断す
る。ステップS3において、音声信号を受信したと判断
された場合は、ステップS4に進み、音声信号を受信し
てはいないと判断された場合は、ステップS1に戻り、
それ以降の処理が繰り返される。
On the other hand, if it is determined in step S1 that no internal event has occurred, the process proceeds to step S3. In step S3, the scale detecting section 82 determines whether or not the audio signal has been received by the microphone 68. If it is determined in step S3 that an audio signal has been received, the process proceeds to step S4. If it is determined that an audio signal has not been received, the process returns to step S1,
Subsequent processing is repeated.

【0027】ステップS4において、音階検出部82
は、受信した音声信号から音階を検出する。そして、ス
テップS5において、検出した音階は、音階コマンドで
あるか否かが判断される。ステップS3乃至S5の処理
を換言すると、ロボット3のマイクロホン68は、リモ
ートコマンダ2から送信された音階コマンドの他にも、
さまざまな音を取り込んでしまう。そこで、取り込んだ
音(音声)から、音階コマンドのみを抽出する処理が必
要となる。また、ユーザは、音声コマンドを構成するキ
ー41を操作したとは限らず、間違ったキー41を操作
した場合も考えられ、音階コマンドであるか否かを判断
する処理も必要となる。
In step S4, the scale detecting section 82
Detects the scale from the received audio signal. Then, in step S5, it is determined whether the detected scale is a scale command. In other words, the microphone 68 of the robot 3 is not limited to the scale command transmitted from the remote commander 2,
It takes in various sounds. Therefore, it is necessary to perform a process of extracting only the scale command from the captured sound (voice). In addition, the user does not always operate the key 41 constituting the voice command, but may operate the wrong key 41, and a process of determining whether or not the command is a scale command is required.

【0028】ステップS5において、音階コマンドであ
ると判断された場合は、ステップS6に進み、音階コマ
ンドではないと判断された場合は、ステップS1に戻
り、それ以降の処理が繰り返される。ステップS6にお
いて、検出された音階コマンドに対応するコマンドが、
上記した表1から抽出され、その抽出されたコマンドに
対応する処理が実行される。このように、ロボット3
は、内部的に発生したイベントを実行すると共に、外部
的に発生されたイベントも実行する。ユーザは、内部的
に発生されたイベントに対応する処理を見て、ロボット
3が、まるで生きているかのような感覚を得ることが可
能であり、外部的に発生されたイベント、即ち、ユーザ
により発生されたイベントに対応する処理が実行される
ことにより、ロボット3と一緒に遊んでいるという感覚
を得ることができる。
If it is determined in step S5 that the command is a scale command, the process proceeds to step S6. If it is determined that the command is not a scale command, the process returns to step S1 and the subsequent processes are repeated. In step S6, a command corresponding to the detected scale command is:
Processing extracted from the above-described Table 1 and corresponding to the extracted command is executed. Thus, robot 3
Executes an internally generated event and also executes an externally generated event. The user can obtain a feeling as if the robot 3 is alive by seeing the process corresponding to the internally generated event, and the event generated externally, that is, by the user, By executing the processing corresponding to the generated event, it is possible to obtain a feeling of playing with the robot 3.

【0029】外部的なイベントを発生させるリモートコ
マンダ2の動作について、図9のフローチャートを参照
して説明する。ステップS21において、リモートコマ
ンダ2のCPU43は、キー41からの入力が有りか否か
を判断する。ステップS21の処理は、キー41からの
入力があったと判断されるまで繰り返し行われる。
The operation of the remote commander 2 for generating an external event will be described with reference to the flowchart of FIG. In step S21, the CPU 43 of the remote commander 2 determines whether there is an input from the key 41. The process of step S21 is repeated until it is determined that an input has been made from the key 41.

【0030】ステップS21において、キー41からの
入力があったと判断された場合、ステップS22に進
み、入力されたキー41に対応する音階コマンドが、ス
ピーカ42から発せられる。このようにして発せられた
音階コマンドは、ロボット3のマイクロホン68に受信
されることにより、上述したような処理が、ロボット3
により実行される。
If it is determined in step S21 that an input has been made from the key 41, the process proceeds to step S22, where a scale command corresponding to the input key 41 is issued from the speaker 42. The scale command issued in this manner is received by the microphone 68 of the robot 3 so that the above-described processing is performed by the robot 3
Is executed by

【0031】上述したように、ロボット3は、リモート
コマンド2により制御されるとともに、パーソナルコン
ピュータ1により制御することも可能である。パーソナ
ルコンピュータ1の記憶部17には、ロボット3を制御
するためのもの、音声認識するためのもの、電子ペット
を制御するためのものなど、複数のアプリケーションが
記憶されている。それらのアプリケーションが立ち上が
った場合の機能ブロック図を図10に示す。なお、電子
ペットとは、パーソナルコンピュータ1の仮想空間で飼
育されているペットのことである。
As described above, the robot 3 can be controlled by the remote command 2 and also by the personal computer 1. The storage unit 17 of the personal computer 1 stores a plurality of applications, such as one for controlling the robot 3, one for voice recognition, and one for controlling an electronic pet. FIG. 10 shows a functional block diagram when these applications are started. The electronic pet is a pet bred in the virtual space of the personal computer 1.

【0032】電子ペット制御部101は、電子ペットの
動作を制御(ディスプレイ18上に表示されている電子
ペットの表示を制御)する。音声コマンダ102は、音
声認識エンジン103からの認識結果に従った処理を行
う。音声認識エンジン103は、予め登録された認識単
語や文法をエンジン用認識単語・文法104から読み込
み、ユーザがマイクロホン20から入力した音声を、読
み込んだ単語や文法と照らし合わせて認識し、音声コマ
ンダ102に認識結果を出力する。
The electronic pet control unit 101 controls the operation of the electronic pet (controls the display of the electronic pet displayed on the display 18). The voice commander 102 performs a process according to the recognition result from the voice recognition engine 103. The speech recognition engine 103 reads a recognition word or grammar registered in advance from the recognition word / grammar 104 for the engine, recognizes a voice input by the user from the microphone 20 against the read word or grammar, and recognizes a voice commander 102. The recognition result is output to

【0033】例えば、ユーザがマイクロホン20から、
「電子ペット制御部の立ち上げ」と入力した場合、音声
認識エンジン103は、エンジン用認識単語・文法10
4から読み込んだ単語と文法と照らし合わし、「電子ペ
ット制御部の立ち上げ」と入力されたと認識する。音声
コマンド102は、その認識結果を受け取り、その受け
取ったコマンドに対応する処理として、電子ペット制御
部101を立ち上げる。このように、音声コマンダ10
2が立ち上がっている状態において、ユーザは、電子ペ
ット制御部101などの所望のアプリケーションを、音
声信号を入力することにより立ち上げる(起動させる)
ことができる。
For example, when the user uses the microphone 20
When the user inputs "startup of the electronic pet control unit", the speech recognition engine 103 outputs the engine recognition word / grammar 10
The word read from step 4 is compared with the grammar to recognize that "startup of the electronic pet control unit" has been input. The voice command 102 receives the recognition result, and starts up the electronic pet control unit 101 as a process corresponding to the received command. Thus, the voice commander 10
In a state where 2 is started, the user starts (starts) a desired application such as the electronic pet control unit 101 by inputting an audio signal.
be able to.

【0034】ここではまず、電子ペット制御部101や
音声コマンド102のアプリケーションが立ち上がる前
の状態として、パーソナルコンピュータ1の電源がオン
にされ、所定のオペレーションシステムが立ち上がった
時からの処理を説明する。図11は、所定のオペレーシ
ョンシステムが立ち上がった状態でのディスプレイ18
上の表示例を示している。
Here, first, as a state before the application of the electronic pet control unit 101 and the voice command 102 is started, a process from when the personal computer 1 is turned on and a predetermined operation system is started will be described. FIG. 11 shows the display 18 in a state where a predetermined operation system has been started.
The above display example is shown.

【0035】ディスプレイ18上には、4個のアイコン
1乃至I4とカーソル111が表示されている。このよ
うな状態において、ユーザがマウス16を用いてカーソ
ル111を操作し、音声コマンダ102に対応するアイ
コンI1をクリックしたとする。このような処理によ
り、音声コマンダ102が立ち上がると、図12に示し
たように、ディスプレイ18上に、音声コマンダ用UI
(ユーザインタフェース)121が表示される。
On the display 18, four icons I 1 to I 4 and a cursor 111 are displayed. In this state, the user operates the cursor 111 using the mouse 16, and clicks the icon I 1 corresponding to the voice commander 102. When the voice commander 102 starts up by such processing, the voice commander UI is displayed on the display 18 as shown in FIG.
(User Interface) 121 is displayed.

【0036】音声コマンダ用UI121は、マイクロホ
ン20から入力された音声を認識した時の認識結果を表
示する認識結果表示部122と、音声入力を行うことが
可能な状態であるか否かを表示する認識状態表示部12
3とから構成されている。
The voice commander UI 121 displays a recognition result display section 122 for displaying a recognition result when the voice input from the microphone 20 is recognized, and indicates whether or not a voice input is possible. Recognition status display section 12
And 3.

【0037】図13は、音声コマンダ102の動作につ
いて説明するフローチャートである。ステップS31に
おいて、音声コマンダ102に対応するアイコン(いま
の場合アイコンI1)が操作されたか否かが判断され、
操作されたと判断されると、上述したような音声コマン
ダ用UI121がディスプレイ18上に表示されると共
に、ステップS32に進む。
FIG. 13 is a flowchart for explaining the operation of the voice commander 102. In step S31, it is determined whether or not the icon corresponding to the voice commander 102 (icon I 1 in this case) has been operated.
If it is determined that the operation has been performed, the voice commander UI 121 as described above is displayed on the display 18, and the process proceeds to step S32.

【0038】ステップS32において、コントロール
(Ctrl)キーが操作されたか否かが判断される。本実施
の形態においては、キーボード15の所定のキーとして
コントロールキーが操作されている間に、ユーザがマイ
クロホン20に向かって話したことが、ユーザからの指
示(コマンド)として処理される。従って、コントロー
ルキーが操作されるまで、音声コマンダ102は、待機
状態である。
In step S32, it is determined whether the control (Ctrl) key has been operated. In the present embodiment, the fact that the user speaks into the microphone 20 while the control key is being operated as the predetermined key of the keyboard 15 is processed as an instruction (command) from the user. Therefore, the voice commander 102 is in a standby state until the control key is operated.

【0039】ステップS32において、コントロールキ
ーが操作されたと判断された場合、ステップS33に進
み、音声コマンダ102は、音声認識エンジン103に
対して音声認識の要求を出す。ここで、音声認識エンジ
ン103の動作について、図14のフローチャートを参
照して説明する。
If it is determined in step S32 that the control key has been operated, the flow advances to step S33, and the voice commander 102 issues a voice recognition request to the voice recognition engine 103. Here, the operation of the speech recognition engine 103 will be described with reference to the flowchart in FIG.

【0040】音声認識エンジン103は、ステップS5
1において、音声コマンダ102から音声認識の要求が
来たか否かを判断する。音声コマンダ102から音声認
識の要求が来たと判断されるまで、ステップS51の処
理は繰り返され、音声認識の要求が来たと判断される
と、ステップS52に進む。ステップS52において、
マイクロホン20より入力されたユーザの音声信号を取
り込み、エンジン用認識単語・文法104から得られる
単語と文法に当てはめて、取り込んだ音声信号を解析す
る。
The voice recognition engine 103 proceeds to step S5
In step 1, it is determined whether a voice recognition request has been received from the voice commander 102. The process of step S51 is repeated until it is determined that a voice recognition request has been received from the voice commander 102. If it is determined that a voice recognition request has been received, the process proceeds to step S52. In step S52,
The voice signal of the user input from the microphone 20 is fetched, applied to the word and grammar obtained from the engine recognition word / grammar 104, and the fetched voice signal is analyzed.

【0041】解析された音声認識の結果は、ステップS
53において、音声コマンダ102に対して、テキスト
データとして転送される。音声コマンダ102は、この
ようにして転送された認識結果を受信したか否かを、ス
テップS34(図13)において判断する。ステップS
34において、音声認識結果を取得できなかったと判断
された場合、ステップS35に進み、認識不可のメッセ
ージを音声コマンダ用UI121に表示させる。その表
示は、例えば、音声コマンダ用UI121の認識結果表
示部122に”???”といったものである。
The result of the analyzed speech recognition is determined in step S
At 53, it is transferred to the voice commander 102 as text data. The voice commander 102 determines in step S34 (FIG. 13) whether or not the recognition result thus transferred has been received. Step S
If it is determined that the voice recognition result could not be acquired in step S34, the process proceeds to step S35, and a message that cannot be recognized is displayed on the voice commander UI 121. The display is, for example, "???" on the recognition result display section 122 of the voice commander UI 121.

【0042】ステップS35の処理が終了されると、ス
テップS32の処理に戻り、それ以降の処理が繰り返さ
れる。一方、ステップS34において、音声認識エンジ
ン103から、音声認識結果としてのテキストデータを
取得したと判断された場合、ステップS36に進み。ス
テップS36において、取得されたテキストデータに基
づくテキストが、音声コマンダ用UI121の認識結果
表示部122に表示される。
When the process in step S35 is completed, the process returns to step S32, and the subsequent processes are repeated. On the other hand, if it is determined in step S34 that text data as a speech recognition result has been obtained from the speech recognition engine 103, the process proceeds to step S36. In step S36, a text based on the acquired text data is displayed on the recognition result display unit 122 of the voice commander UI 121.

【0043】ユーザは、認識結果表示部122に表示さ
れたテキストを見て、そのテキストが、入力した音声信
号と同じものである場合、コントロールキーの操作を停
止する(押下していたコントロールキーから手を離す)
ことにより、入力した音声信号に対応する処理を実行す
ることを、パーソナルコンピュータ1に対して指示す
る。逆に、認識結果表示部122に表示されたテキスト
が、入力した音声信号と異なる場合、または、同じもの
であるが、指示したいこととは異なる場合、コントロー
ルキーを操作し続けながら、シフト(Shift)キーを操
作することにより、入力した音声信号に対応する処理の
実行をキャンセルすることができる。
The user looks at the text displayed on the recognition result display section 122, and if the text is the same as the input voice signal, stops operating the control key (from the pressed control key). Release the hand)
This instructs the personal computer 1 to execute a process corresponding to the input audio signal. Conversely, if the text displayed on the recognition result display unit 122 is different from the input voice signal, or if the text is the same but different from what is desired to be instructed, shift (Shift) By operating the key, the execution of the processing corresponding to the input audio signal can be canceled.

【0044】このような処理が行われるため、音声コマ
ンダ102は、ステップS37において、コントロール
キーへの操作が停止されたか否かを判断する。ステップ
S37において、コントロールキーへの操作が停止され
たと判断された場合、ステップS38に進み、認識結果
に対応するアプリケーションに転送される。例えば、認
識結果が「電子ペット制御部」であった場合、電子ペッ
ト制御部101に認識結果が転送され、電子ペット制御
部101は、その認識結果に対応する処理として起動す
る。複数のアプリケーションが起動されている場合、ア
クティブにされているアプリケーションに認識結果が転
送される。ステップS38の転送処理が終了されると、
ステップS32に戻り、それ以降の処理が繰り返され
る。
Since such processing is performed, the voice commander 102 determines in step S37 whether or not the operation on the control key has been stopped. If it is determined in step S37 that the operation on the control key has been stopped, the process proceeds to step S38, where the operation is transferred to the application corresponding to the recognition result. For example, when the recognition result is “electronic pet control unit”, the recognition result is transferred to the electronic pet control unit 101, and the electronic pet control unit 101 starts up as a process corresponding to the recognition result. When a plurality of applications are activated, the recognition result is transferred to the activated application. When the transfer processing in step S38 is completed,
Returning to step S32, the subsequent processing is repeated.

【0045】一方、ステップS37において、コントロ
ールキーへの操作が停止されてはいないと判断された場
合、ステップS39に進み、コントロールキーに加えて
シフトキーが操作されたか否かが判断される。ステップ
S39において、コントロールキーに加えてシフトキー
が操作されたと判断された場合は、ステップS40に進
み、コントロールキーに加えてシフトキーは操作されて
いないと判断された場合は、換言すれば、コントロール
キーのみが操作され続けていると判断された場合は、ス
テップS33に戻り、それ以降の処理が繰り返される。
On the other hand, if it is determined in step S37 that the operation on the control key has not been stopped, the flow advances to step S39 to determine whether the shift key has been operated in addition to the control key. If it is determined in step S39 that the shift key has been operated in addition to the control key, the process proceeds to step S40. If it is determined that the shift key has not been operated in addition to the control key, in other words, only the control key has been operated. If it is determined that is continuously operated, the process returns to step S33, and the subsequent processes are repeated.

【0046】ステップS40において、入力された音声
信号の認識結果がキャンセルされる。即ち、認識結果表
示部122に表示されていたテキストが消去され、新た
な音声信号の入力待ちの状態となる。従って、ステップ
S33に戻り、それ以降の処理が繰り返される。
In step S40, the recognition result of the input voice signal is canceled. That is, the text displayed on the recognition result display unit 122 is erased, and the apparatus enters a state of waiting for input of a new audio signal. Therefore, the process returns to step S33, and the subsequent processes are repeated.

【0047】次に、パーソナルコンピュータ1による電
子ペット及びロボット3の制御について、図15乃至図
17のフローチャートを参照して説明する。ステップS
61において、電子ペット制御部101の起動が指示さ
れたか否かが判断される。電子ペット制御部101の起
動を指示する方法としては、音声コマンダ102が起動
されている状態においては、上述したように、「電子ペ
ット制御部」と音声認識させることにより行わせても良
いし、図11または図12に示した状態において、電子
ペット制御部101に対応するアイコンをクリックする
ことにより行なわせても良い。なお、以下の説明におい
て、音声コマンダ102は、電子ペット制御部101が
起動される前に、起動されているとして説明する。
Next, control of the electronic pet and the robot 3 by the personal computer 1 will be described with reference to the flowcharts of FIGS. Step S
At 61, it is determined whether or not activation of the electronic pet control unit 101 has been instructed. As a method of instructing activation of the electronic pet control unit 101, when the voice commander 102 is activated, as described above, it may be performed by performing voice recognition as “electronic pet control unit”, In the state shown in FIG. 11 or 12, the electronic pet control unit 101 may be clicked on by clicking the icon. In the following description, it is assumed that the voice commander 102 has been activated before the electronic pet control unit 101 is activated.

【0048】電子ペット制御部101は、電子ペット制
御部101の起動が指示されたと判断するまで、ステッ
プS61の処理を繰り返し、起動が指示されるとステッ
プS62に進む。ステップS62において、電子ペット
制御部101が起動されることにより、電子ペットが電
子ペット表示ウィンドウに表示される。電子ペットおよ
び電子ペット表示ウィンドウの表示例を、図18に示
す。
The electronic pet control unit 101 repeats the process of step S61 until it is determined that the activation of the electronic pet control unit 101 has been instructed. When the activation is instructed, the process proceeds to step S62. In step S62, the electronic pet is displayed in the electronic pet display window by activating the electronic pet control unit 101. FIG. 18 shows a display example of the electronic pet and the electronic pet display window.

【0049】電子ペット表示ウィンドウ131には、円
が表示されており、その円内に電子ペット132が表示
されている。この電子ペット132は、ロボット3を形
取ったものである。勿論、ロボット3とは全く関係ない
形のペットとして表示しても良い。電子ペット表示ウィ
ンドウ131内の円の上部には、この電子ペット制御部
101の処理を終了させる際に操作される終了ボタン1
33、電子ペット134に対して何かしらの指示を出す
ときのメニューを表示させる際に操作されるメニューボ
タン134、および電子ペット132を見えなくしてし
まうように蓋で被ってしまう際に操作される蓋ボタン1
35が設けられている。
A circle is displayed in the electronic pet display window 131, and the electronic pet 132 is displayed within the circle. The electronic pet 132 is a model of the robot 3. Of course, the pet may be displayed as a pet that is completely unrelated to the robot 3. At the top of the circle in the electronic pet display window 131, an end button 1 operated when ending the processing of the electronic pet control unit 101
33, a menu button 134 that is operated when displaying a menu for giving any instruction to the electronic pet 134, and a lid that is operated when the electronic pet 132 is covered with a lid so as to make it invisible Button 1
35 are provided.

【0050】ステップS62において、図18に示した
ウィンドウがディスプレイ上に表示されると、ステップ
S63に進む。ステップS63において、内部イベント
が発生したか否かが判断される。電子ペット132も、
ロボット3と同じように、ユーザからの指示(外部的な
指示)により動作するが、その動作とは別に、自分自身
(内部的な指示)でも動作する。従って、ステップS6
3における処理は、ロボット3においても行われる処理
と同様であり、図8のフローチャートを参照して(図7
のステップS1の処理として)既に説明したので、その
説明は省略する。
When the window shown in FIG. 18 is displayed on the display in step S62, the process proceeds to step S63. In step S63, it is determined whether an internal event has occurred. The electronic pet 132,
Like the robot 3, it operates according to an instruction from the user (external instruction), but also operates by itself (internal instruction) separately from the operation. Therefore, step S6
3 is the same as the processing performed in the robot 3, and with reference to the flowchart of FIG.
(Step S1) has already been described, and the description thereof is omitted.

【0051】また、ロボット3と同様な動作を行うた
め、電子ペット制御部101は、上記した表1のリスト
を保持している。ステップS63において、内部イベン
トが発生したと判断された場合、ステップS64に進
む。ステップS64における処理は、基本的に、図7の
ステップS2の処理としてロボット3により行われる処
理と同様であるが、電子ペット132は、ディスプレイ
18上に表示されている仮想空間内でのペットなので、
その表示が制御されることにより、内部イベントに対応
する動作が実行される。
In order to perform the same operation as the robot 3, the electronic pet control unit 101 holds the list shown in Table 1 described above. If it is determined in step S63 that an internal event has occurred, the process proceeds to step S64. The process in step S64 is basically the same as the process performed by the robot 3 as the process in step S2 in FIG. 7, except that the electronic pet 132 is a pet in the virtual space displayed on the display 18. ,
By controlling the display, an operation corresponding to the internal event is executed.

【0052】一方、ステップS63において、内部イベ
ントは発生していないと判断された場合、ステップS6
5に進む。ステップS65において、メニューボタン1
34が操作されたか否かが判断される。ステップS65
において、メニューボタン134が操作されたと判断さ
れた場合、ステップS71(図16)に進む。ステップ
S71において、メニューがディスプレイ18上に表示
される。図19は、メニューが表示された際の、ディス
プレイ18の表示例を示す図である。
On the other hand, if it is determined in step S63 that no internal event has occurred, the process proceeds to step S6.
Go to 5. In step S65, the menu button 1
It is determined whether 34 has been operated. Step S65
If it is determined that the menu button 134 has been operated, the process proceeds to step S71 (FIG. 16). In step S71, a menu is displayed on the display 18. FIG. 19 is a diagram illustrating a display example of the display 18 when the menu is displayed.

【0053】メニュー141は、電子ペット表示ウィン
ドウ131の隣、または重なる位置に表示される。メニ
ュー141には、電子ペット132や、ロボット3に実
行させたいコマンドが表示されているコマンド表示部1
43と、そのコマンド表示部143内のコマンドが選択
され、その選択されたコマンドで決定する場合に操作さ
れる決定ボタン142が設けられている。また、コマン
ド表示部143の右側には、表示されきれていないコマ
ンドを表示させる際に操作されるスクロールバーが設け
られている。
The menu 141 is displayed next to the electronic pet display window 131 or at an overlapping position. The menu 141 includes a command display unit 1 on which electronic pets 132 and commands to be executed by the robot 3 are displayed.
43, and a decision button 142 which is operated when a command in the command display section 143 is selected and determined by the selected command. On the right side of the command display unit 143, a scroll bar operated to display a command that is not completely displayed is provided.

【0054】ユーザは、例えば、電子ペット132に実
行させたい動作が、後ろに進ませたい場合、カーソル1
11を、コマンド表示部143内の”後退”というコマ
ンドに合わせる。カーソル111が合わせられたコマン
ドは、文字が反転されて表示される。ユーザは、その反
転表示されているコマンドで良ければ、決定ボタン14
2を操作することにより、そのコマンドを電子ペット1
32に対して指示することができる。
For example, when the user wants the electronic pet 132 to perform an operation to move backward,
11 is matched with the command “retreat” in the command display section 143. The command to which the cursor 111 is set is displayed with its characters inverted. If the user is satisfied with the highlighted command, the enter button 14
By operating 2, the command is transmitted to the electronic pet 1.
32.

【0055】ステップS71において、上述したような
メニュー141がディスプレイ18上に表示されたら、
ステップS72に進み、メニュー141内のコマンド
が、上述したような処理により、選択されたか否かが判
断される。ステップS72において、コマンドが選択さ
れたと判断された場合、ステップS73に進み、その選
択されたコマンドに対応する動作が、電子ペット132
により行われる。上述したように、電子ペット132
は、仮想区間内で飼育されている、ディスプレイ18上
に表示されているペットなので、電子ペット制御部10
1は、選択されたコマンドに対応する動作を、電子ペッ
ト132がしているような表示がされるように、その表
示を制御する。
In step S71, when the menu 141 as described above is displayed on the display 18,
Proceeding to step S72, it is determined whether the command in the menu 141 has been selected by the above-described processing. If it is determined in step S72 that the command has been selected, the process proceeds to step S73, and the operation corresponding to the selected command is performed by the electronic pet 132.
It is performed by As described above, the electronic pet 132
Is a pet bred in the virtual section and displayed on the display 18, so the electronic pet control unit 10
1 controls the display corresponding to the selected command so that the electronic pet 132 performs an operation corresponding to the selected command.

【0056】一方、ステップS72において、メニュー
内のコマンドが選択されてはいないと判断された場合、
ステップS74に進み、電子ペット制御部101は、音
声コマンダ102よりテキストデータの転送を受けたか
否かを判断する。音声コマンダ102が起動されている
状態においては、メニュー141から所望のコマンドを
選択しても良いが、音声コマンダ102によりコマンド
を入力しても良い。音声コマンダ102による指示の仕
方(音声コマンダ12の動作)は、既に説明したので、
その説明は省略する。
On the other hand, if it is determined in step S72 that a command in the menu has not been selected,
Proceeding to step S74, the electronic pet control unit 101 determines whether text data has been transferred from the voice commander 102. While the voice commander 102 is activated, a desired command may be selected from the menu 141, or a command may be input by the voice commander 102. The method of instruction by the voice commander 102 (the operation of the voice commander 12) has already been described.
The description is omitted.

【0057】ステップS74において、電子ペット制御
部101が、音声コマンダ102からテキストデータの
転送を受けたと判断した場合、ステップS75に進み、
その転送されてきたテキストデータは、コマンドを構成
するか否かを判断する。コマンドは、一部を上記した表
1に示したリスト内にあるものであり、例えば、”後
退”という意味を示すテキストデータである場合は、コ
マンドを構成すると判断されるが、”バック”という意
味を示すテキストデータである場合は、コマンドを構成
しないと判断される。勿論、リストに無いテキストデー
タは、コマンドを構成しないと判断される。
In step S74, when the electronic pet control unit 101 determines that the text data has been transferred from the voice commander 102, the process proceeds to step S75.
It is determined whether the transferred text data forms a command. The command is partially included in the list shown in Table 1 above. For example, if the command is text data indicating “retreat”, it is determined that the command is configured, but the command is referred to as “back”. If the text data indicates a meaning, it is determined that the command is not configured. Of course, text data not in the list is determined not to constitute a command.

【0058】ステップS75において、転送されたテキ
ストデータがコマンドを構成すると判断された場合、ス
テップS73に進み、既に上述したように、そのコマン
ドに対応する表示処理が行われ、ステップS72に戻
り、それ以降の処理が繰り返される。一方、ステップS
75において、テキストデータは、コマンドを構成しな
いと判断された場合、ステップS73の処理を省略し
て、ステップS72に戻り、それ以降の処理が繰り返さ
れる。
If it is determined in step S75 that the transferred text data constitutes a command, the flow advances to step S73 to perform the display processing corresponding to the command as described above, and the flow returns to step S72. Subsequent processing is repeated. On the other hand, step S
If it is determined in 75 that the text data does not form a command, the process of step S73 is omitted, the process returns to step S72, and the subsequent processes are repeated.

【0059】一方、ステップS74において、電子ペッ
ト制御部101が、音声コマンド102からテキストデ
ータの転送を受けていないと判断した場合、ステップS
76に進み、蓋ボタン135が操作されたか否かを判断
する。蓋ボタン135が操作されたと判断された場合、
ステップS77に進み、電子ペット表示ウィンドウ13
1に、蓋を被せた表示を行う。蓋が被せられた電子ペッ
ト表示ウィンドウ131の表示例を、図20に示す。図
20に示した表示例においては、電子ペット表示ウィン
ドウ131に蓋151が被された為に、電子ペット13
2が見えなくなっている。
On the other hand, if the electronic pet control unit 101 determines in step S74 that the text data has not been transferred from the voice command 102, the process proceeds to step S74.
Proceeding to 76, it is determined whether the lid button 135 has been operated. If it is determined that the lid button 135 has been operated,
Proceeding to step S77, the electronic pet display window 13
1 is displayed with a lid. FIG. 20 shows a display example of the electronic pet display window 131 with the lid covered. In the display example shown in FIG. 20, since the cover 151 is covered on the electronic pet display window 131, the electronic pet 13
2 is no longer visible.

【0060】このように、電子ペット132が見えなく
なるように蓋151が被された場合、メニュー141か
ら選択されるコマンドや、音声コマンダ102を用いて
入力されるコマンドは、電子ペット132に対してでは
なく、ロボット3に対して出されるコマンドになる。こ
のような表示が行われることにより、ユーザは、視覚的
に、いま、コマンドを出したら、電子ペット132に対
してか、ロボット3に対してかを認識することができ
る。
As described above, when the cover 151 is covered so that the electronic pet 132 cannot be seen, commands selected from the menu 141 and commands input using the voice commander 102 are transmitted to the electronic pet 132. Instead, the command is issued to the robot 3. By performing such a display, the user can visually recognize whether the electronic pet 132 or the robot 3 is issued when a command is issued.

【0061】ステップS77において、電子ペット表示
ウィンドウ131に蓋151が被された状態になった
ら、ステップS81(図17)に進み、それ以降の処理
が行われる。上述したように、蓋151が被された状態
のときに出されるコマンドは、ロボット3に対してであ
り、蓋151が被されていない状態のときに出されるコ
マンドは、電子ペット132に対してであるということ
以外は、基本的に同じであるので、ステップS81乃至
S87(図17)の処理は、ステップS72乃至S78
(図16)の処理と同様であるので、その説明は省略す
る。
When the electronic pet display window 131 is covered with the lid 151 in step S77, the process proceeds to step S81 (FIG. 17), and the subsequent processing is performed. As described above, the command issued when the cover 151 is covered is to the robot 3, and the command issued when the cover 151 is not covered is to the electronic pet 132. Are basically the same, except that the processing in steps S81 to S87 (FIG. 17) is performed in steps S72 to S78.
Since the processing is the same as that of FIG. 16, the description is omitted.

【0062】ただし、ステップS82において行われる
処理は、ロボット3に対して行われる処理であるので、
コマンドに対応する音階コマンドが出力される。即ち、
電子ペット制御部101は、蓋151が被されてる状態
では、ロボット3の制御部として働き、ステップS81
において選択されたコマンド、又は、ステップS83,
S84の処理において出されたコマンドは、音階コマン
ドに変換されて、スピーカ22からロボット3に対して
発せされる。コマンドを音階コマンドに変換する処理
は、表1のリストに従って行われる。
However, since the process performed in step S82 is a process performed on the robot 3,
A scale command corresponding to the command is output. That is,
When the lid 151 is covered, the electronic pet control unit 101 functions as a control unit of the robot 3 and performs step S81.
Or the command selected in step S83, or
The command issued in the process of S84 is converted into a musical scale command and issued from the speaker 22 to the robot 3. The process of converting a command into a scale command is performed according to the list in Table 1.

【0063】このように、ユーザが、コマンドを出すと
いう動作をした場合、蓋151が被さっているか、いな
いかにより、そのコマンドが出された(指示対象)が異
なる。このようにすることにより、ユーザは、蓋151
が被さっているか否かを見ることにより、指示対象を認
識できるばかりでなく、電子ペット132とロボット3
に対して、同時にコマンドが出されるといった不都合を
解消することができる。
As described above, when the user performs an operation of issuing a command, the command issued (instruction target) differs depending on whether the cover 151 is covered or not. By doing so, the user can use the lid 151.
By checking whether or not the electronic pet 132 is covered, not only can the pointing target be recognized, but also the electronic pet 132 and the robot 3
However, the inconvenience that a command is issued at the same time can be solved.

【0064】図17のフローチャートの説明に戻り、ス
テップS85において、蓋ボタン135が操作されては
いないと判断された場合、ステップS87に進み、終了
ボタン133が操作されたか否かが判断される。ステッ
プS87において、終了ボタン133は操作されていな
いと判断された場合は、ステップS81に戻り、それ以
降の処理が繰り返され、終了ボタン133が操作された
と判断された場合は、ステップS69(図15)に進
む。
Returning to the description of the flowchart of FIG. 17, when it is determined in step S85 that the lid button 135 has not been operated, the process proceeds to step S87, and it is determined whether the end button 133 has been operated. If it is determined in step S87 that the end button 133 has not been operated, the process returns to step S81, and the subsequent processing is repeated. If it is determined that the end button 133 has been operated, step S69 (FIG. 15) Proceed to).

【0065】また、ステップS65において、メニュー
ボタン134が操作されてはいないと判断され、ステッ
プS66において、蓋ボタン135が操作されてはいな
いと判断され、さらに、ステップS68において、終了
ボタン133が操作されたと判断された場合と、ステッ
プS76(図16)において、蓋ボタン135は操作さ
れていないと判断され、ステップS78において、終了
ボタン133が操作されたと判断された場合において
も、ステップS69の処理に来る。
In step S65, it is determined that the menu button 134 has not been operated, in step S66 it is determined that the lid button 135 has not been operated, and in step S68, the end button 133 has been operated. If it is determined that the operation has been performed, and if it is determined in step S76 (FIG. 16) that the lid button 135 has not been operated, and if it has been determined in step S78 that the end button 133 has been operated, the process of step S69 is performed. I come to.

【0066】ステップS69において、終了処理が実行
される。終了処理としては、電子ペット表示ウィンドウ
131と、メニュー141が閉じられる。
In step S69, an end process is executed. As the end processing, the electronic pet display window 131 and the menu 141 are closed.

【0067】図15のステップS66において、電子ペ
ット表示ウィンドウ131が表示された状態で、蓋ボタ
ン135が操作されたと判断された場合、ステップS6
7に進み、電子ペット表示ウィンドウ131に蓋151
が被された表示とされ、さらに、メニュー141が表示
される。メニュー141が表示されると、ステップS8
1に進み、それ以降の処理が実行される。
If it is determined in step S66 in FIG. 15 that the lid button 135 has been operated while the electronic pet display window 131 is displayed, the process proceeds to step S6.
7 and the cover 151 is displayed on the electronic pet display window 131.
Is displayed, and a menu 141 is displayed. When the menu 141 is displayed, step S8
The processing proceeds to 1 and the subsequent processing is executed.

【0068】このように、メニュー141が表示されて
いない状態で、蓋ボタン135が操作された場合、蓋1
51を被らせると共に、メニュー141を表示させるよ
うにしても良いし、表示させなくても良い。表示させな
い場合は、蓋ボタン135が操作されるとは別に、ユー
ザによりメニューボタン134の操作が必要となる。ま
た、メニュー141が表示されなくても、音声コマンダ
102により指示を出すことは可能なので、メニュー1
41を常に表示させる必要もない。
As described above, when the cover button 135 is operated in a state where the menu 141 is not displayed, the cover 1
The menu 141 may or may not be displayed together with the cover 51. If not displayed, the user must operate the menu button 134 separately from the operation of the lid button 135. Further, even if the menu 141 is not displayed, it is possible to give an instruction by the voice commander 102.
It is not necessary to always display 41.

【0069】上述した実施の形態においては、音声コマ
ンダ102は、ユーザの指示により起動されるようにし
たが、パーソナルコンピュータ1の電源がオンにされ、
所定のオペレーションシステムが起動される時に、音声
コマンダ102も起動されるようにしても良い。
In the above-described embodiment, the voice commander 102 is activated by a user's instruction. However, when the personal computer 1 is turned on,
When a predetermined operation system is started, the voice commander 102 may be started.

【0070】メニュー141に、電子ペット132およ
びロボット3の名前を設定するためのウィンドウを開く
為のボタンを設けるようにしても良い。そのようなボタ
ンが設けられ、操作された場合、名前を設定する為のウ
ィンドウが開かれ、ユーザは、電子ペット132とロボ
ット3に対して、好きな名前を付けることができる。こ
の際、電子ペット132とロボット3に、同じ名前を付
けられるようにしても良いし、異なる名前が付けられる
ようにしても良い。さらに、パーソナルコンピュータ1
を複数のユーザが共有して使う場合、ユーザ毎に異なる
名前を付けることも可能である。
The menu 141 may be provided with a button for opening a window for setting the names of the electronic pet 132 and the robot 3. When such a button is provided and operated, a window for setting a name is opened, and the user can give a desired name to the electronic pet 132 and the robot 3. At this time, the electronic pet 132 and the robot 3 may be given the same name, or may be given different names. Furthermore, the personal computer 1
When a plurality of users share and use, a different name can be assigned to each user.

【0071】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウエアに組み込まれているコン
ピュータ、または、各種のプログラムをインストールす
ることで、各種の機能を実行することが可能な、例え
ば、汎用のパーソナルコンピュータなどに、プログラム
格納媒体からインストールされる。
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software can execute various functions by installing a computer built into dedicated hardware or installing various programs. It is installed from a program storage medium into a possible general-purpose personal computer or the like.

【0072】コンピュータにインストールされ、コンピ
ュータによって実行可能な状態とされるプログラムを格
納するプログラム格納媒体は、図21に示すように磁気
ディスク201(フロッピディスクを含む)、光磁気デ
ィスク202(CD-ROM(Compact Disk-Read Only Memor
y),DVD(Digital Versatile Disk)を含む)、光磁気
ディスク203(MD (Mini-Disk)を含む)、もしくは
半導体メモリ204などよりなるパッケージメディア、
または、プログラムが一時的若しくは永続的に格納され
るROM12や記憶部17を構成するハードディスクなど
により構成される。プログラム格納媒体へのプログラム
格納媒体へのプログラムの格納は、必要に応じてルー
タ、モデムなどのインタフェースを介して、ローカルエ
リアネットワーク、インターネット、デジタル衛星放送
といった有線または無線の通信媒体を利用して行われ
る。
As shown in FIG. 21, a program storage medium for storing a program installed in a computer and made executable by the computer includes a magnetic disk 201 (including a floppy disk) and a magneto-optical disk 202 (CD-ROM). (Compact Disk-Read Only Memor
y), DVD (including Digital Versatile Disk), magneto-optical disk 203 (including MD (Mini-Disk)), or package media including semiconductor memory 204,
Alternatively, it is configured by a ROM 12 in which a program is temporarily or permanently stored, a hard disk configuring the storage unit 17, or the like. The program is stored in the program storage medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via an interface such as a router or a modem as necessary. Will be

【0073】なお、本明細書において、媒体により提供
されるプログラムを記述するステップは、記載された順
序に従って、時系列的に行われる処理は勿論、必ずしも
時系列的に処理されなくとも、並列的あるいは個別に実
行される処理をも含むものである。
In this specification, the steps of describing a program provided by a medium may be performed in a chronological order according to the described order. Alternatively, it also includes individually executed processing.

【0074】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
In this specification, the system is
It represents the entire device composed of a plurality of devices.

【0075】[0075]

【発明の効果】以上の如く、請求項1に記載の情報処理
装置、請求項5に記載の情報処理方法、請求項6に記載
のプログラム格納媒体によれば、入力されるコマンド
が、仮想生命オブジェクトに対するものであるか、疑似
生命オブジェクトに対するものであるかを切り換え、入
力されたコマンドが、仮想生命オブジェクトに対するも
のである場合、コマンドに対応する仮想生命オブジェク
トの表示を制御し、入力されたコマンドが、疑似生命オ
ブジェクトに対するものである場合、コマンドに対応す
る信号を疑似生命オブジェクトに対して送信するように
したので、仮想生命オブジェクトと疑似生命オブジェク
トに、同一の操作で指示が出せ、もって使い勝手の良い
ユーザインタフェースが提供されることが可能となる。
As described above, according to the information processing apparatus according to the first aspect, the information processing method according to the fifth aspect, and the program storage medium according to the sixth aspect, a command to be input is a virtual life command. Switches between an object and a pseudo-life object. If the input command is for a virtual life object, the display of the virtual life object corresponding to the command is controlled, and the input command is However, when the object is for a pseudo-life object, a signal corresponding to the command is transmitted to the pseudo-life object, so that an instruction can be issued to the virtual life object and the pseudo-life object by the same operation, thereby improving usability. A good user interface can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した情報処理システムの一実施の
形態の構成を示す図である。
FIG. 1 is a diagram showing the configuration of an embodiment of an information processing system to which the present invention has been applied.

【図2】パーソナルコンピュータ1の内部構成を示す図
である。
FIG. 2 is a diagram showing an internal configuration of the personal computer 1.

【図3】パーソナルコンピュータ1の外観を示す図であ
る。
FIG. 3 is a diagram showing an appearance of the personal computer 1.

【図4】リモートコマンダ2の内部構成を示す図であ
る。
FIG. 4 is a diagram showing an internal configuration of a remote commander 2.

【図5】ロボット3の内部構成を示す図である。FIG. 5 is a diagram showing an internal configuration of the robot 3;

【図6】ROM62に記憶されているアプリケーションを
説明する図である。
FIG. 6 is a diagram illustrating an application stored in a ROM 62.

【図7】ロボット3の制御動作を説明するフローチャー
トである。
FIG. 7 is a flowchart illustrating a control operation of the robot 3.

【図8】内部イベント発生処理を説明するフローチャー
トである。
FIG. 8 is a flowchart illustrating an internal event generation process.

【図9】リモートコマンダ2の動作を説明するフローチ
ャートである。
FIG. 9 is a flowchart illustrating the operation of the remote commander 2.

【図10】パーソナルコンピュータ1の機能を示すブロ
ック図である。
FIG. 10 is a block diagram illustrating functions of the personal computer 1.

【図11】ディスプレイ18上の表示例を示す図であ
る。
FIG. 11 is a diagram showing a display example on a display 18;

【図12】音声コマンダ用UIが表示された状態を説明
する図である。
FIG. 12 is a diagram illustrating a state in which a voice commander UI is displayed.

【図13】音声コマンダの処理を説明するフローチャー
トである。
FIG. 13 is a flowchart illustrating processing of a voice commander.

【図14】音声認識エンジンの処理を説明するフローチ
ャートである。
FIG. 14 is a flowchart illustrating processing of a speech recognition engine.

【図15】電子ペット及びロボットの制御処理を説明す
るフローチャートである。
FIG. 15 is a flowchart illustrating a control process of the electronic pet and the robot.

【図16】図15のフローチャートの続きを示すフロー
チャートである。
FIG. 16 is a flowchart showing a continuation of the flowchart of FIG. 15;

【図17】図16のフローチャートの続きを示すフロー
チャートである。
FIG. 17 is a flowchart showing a continuation of the flowchart of FIG. 16;

【図18】ディスプレイ18上の表示例を示す図であ
る。
18 is a diagram showing a display example on the display 18. FIG.

【図19】ディスプレイ18上の表示例を示す図であ
る。
19 is a diagram showing a display example on the display 18. FIG.

【図20】ディスプレイ18上の表示例を示す図であ
る。
20 is a diagram illustrating a display example on the display 18. FIG.

【図21】媒体について説明する図である。FIG. 21 is a diagram illustrating a medium.

【符号の説明】[Explanation of symbols]

1 パーソナルコンピュータ, 2 リモートコマン
ダ, 3 ロボット,11 CPU, 12 ROM, 13
RAM, 14 入出力インタフェース, 15 キー
ボード, 16 マウス, 17 記憶部, 18 デ
ィスプレイ,19 通信部, 20 マイクロホン,
21 ビデオカメラ, 22 スピーカ, 23 ドラ
イブ, 41 キー, 42 スピーカ, 68 マイ
クロホン, 69 スピーカ, 70 モータ, 71
運動部, 81 ロボット制御部, 82 音階検出
部, 101 電子ペット制御部, 102 音声コマ
ンダ, 103 音声認識エンジン, 104 エンジ
ン用認識単語・文法,111 カーソル, 121 音
声コマンダ用UI, 131 電子ペット表示ウィンド
ウ, 132 電子ペット, 133 終了ボタン,
134 メニューボタン, 135 蓋ボタン, 14
1 メニュー, 151 蓋
1 personal computer, 2 remote commander, 3 robot, 11 CPU, 12 ROM, 13
RAM, 14 input / output interface, 15 keyboard, 16 mouse, 17 storage unit, 18 display, 19 communication unit, 20 microphone,
21 video camera, 22 speakers, 23 drives, 41 keys, 42 speakers, 68 microphones, 69 speakers, 70 motors, 71
Exercise unit, 81 Robot control unit, 82 Scale detection unit, 101 Electronic pet control unit, 102 Voice commander, 103 Voice recognition engine, 104 Recognition word / grammar for engine, 111 cursor, 121 UI for voice commander, 131 Electronic pet display window , 132 electronic pet, 133 end button,
134 Menu button, 135 Lid button, 14
1 menu, 151 lid

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 3/16 340 G06F 3/16 340Z G10L 15/00 G10L 3/00 551H (72)発明者 米倉 修二 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 藤村 聡 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 笹井 崇司 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 藤澤 直樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大井 純司 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 野間 恒毅 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 横尾 直弘 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 後藤 太 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 AA14 BA06 CA02 DA05 DA23 DK02 EF29 3F059 AA00 BB06 BC06 DA08 DB02 DD08 DD11 DD18 FA03 FC14 5D015 AA06 KK01 LL05 5E501 AA02 AA17 AC15 AC16 BA02 BA05 CA02 CA08 CB02 CB09 CB15 CC02 EA05 EA11 EA21 EB01 FA04 FA05 FA13 FA14 FA32 FB28 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 3/16 340 G06F 3/16 340Z G10L 15/00 G10L 3/00 551H (72) Inventor Shuji Yonekura Tokyo 6-7-35 Kita-Shinagawa, Shinagawa-ku, Sony Corporation (72) Inventor Satoshi Fujimura 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Takashi Sasai Shinagawa, Tokyo 6-7-35 Kita-Shinagawa-ku Sony Corporation (72) Inventor Naoki Fujisawa 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Junji Oi Kita Shinagawa-ku, Tokyo 6-35 Shinagawa, Sony Corporation (72) Inventor Tsuneki Noma 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor, Nao Yokoo 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sonny Corporation (72) Inventor Futa 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sonny Corporation F-term (reference) 2C150 AA14 BA06 CA02 DA05 DA23 DK02 EF29 3F059 AA00 BB06 BC06 DA08 DB02 DD08 DD11 DD18 FA03 FC14 5D015 AA06 KK01 LL05 5E501 AA02 AA17 AC15 AC16 BA02 BA05 CA02 CA08 CB02 CB09 CB15 CC02 EA05 EA11 EA21 EB01 FA04 FA05 FB01

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 仮想空間において飼育される仮想生命オ
ブジェクトに対して、または、現実空間において飼育さ
れる疑似生命オブジェクトに対して、所定の動作をさせ
るコマンドを入力する入力手段と、 前記入力手段により入力されるコマンドが、前記仮想生
命オブジェクトに対するものであるか、前記疑似生命オ
ブジェクトに対するものであるかを切り換える切り換え
手段と、 前記入力手段により入力された前記コマンドが、前記仮
想生命オブジェクトに対するものである場合、前記コマ
ンドに対応する前記仮想生命オブジェクトの表示を制御
する表示制御手段と、 前記入力手段により入力された前記コマンドが、前記疑
似生命オブジェクトに対するものである場合、前記コマ
ンドに対応する信号を前記疑似生命オブジェクトに対し
て送信する送信手段とを含むことを特徴とする情報処理
装置。
1. An input unit for inputting a command for performing a predetermined operation with respect to a virtual life object bred in a virtual space or a pseudo life object bred in a real space, and Switching means for switching whether the input command is for the virtual life object or the pseudo life object, and wherein the command input by the input means is for the virtual life object In the case, the display control means for controlling the display of the virtual life object corresponding to the command, If the command input by the input means is for the pseudo life object, the signal corresponding to the command is Send to simulated life object An information processing apparatus comprising:
【請求項2】 前記入力手段は、音声信号で前記コマン
ドを入力することを特徴とする請求項1に記載の情報処
理装置。
2. The information processing apparatus according to claim 1, wherein the input unit inputs the command by a voice signal.
【請求項3】 前記送信手段により送信される前記信号
は、音階信号であることを特徴とする請求項1に記載の
情報処理装置。
3. The information processing apparatus according to claim 1, wherein the signal transmitted by the transmitting unit is a scale signal.
【請求項4】 前記仮想生命オブジェクトおよび前記疑
似生命オブジェクトの名称は、ユーザにより付けられる
ことを特徴とする請求項1に記載の情報処理装置。
4. The information processing apparatus according to claim 1, wherein the names of the virtual life object and the pseudo life object are given by a user.
【請求項5】 仮想空間において飼育される仮想生命オ
ブジェクトに対して、または、現実空間において飼育さ
れる疑似生命オブジェクトに対して、所定の動作をさせ
るコマンドを入力する入力ステップと、 前記入力ステップの処理で入力されるコマンドが、前記
仮想生命オブジェクトに対するものであるか、前記疑似
生命オブジェクトに対するものであるかを切り換える切
り換えステップと、 前記入力ステップの処理で入力された前記コマンドが、
前記仮想生命オブジェクトに対するものである場合、前
記コマンドに対応する前記仮想生命オブジェクトの表示
を制御する表示制御ステップと、 前記入力ステップの処理で入力された前記コマンドが、
前記疑似生命オブジェクトに対するものである場合、前
記コマンドに対応する信号を前記疑似生命オブジェクト
に対して送信する送信ステップとを含むことを特徴とす
る情報処理方法。
5. An input step of inputting a command for performing a predetermined operation on a virtual life object bred in a virtual space or on a pseudo life object bred in a real space; A command input in the process, the switching step to switch between the virtual life object or the pseudo life object, the command input in the processing of the input step,
When the command is for the virtual life object, a display control step of controlling display of the virtual life object corresponding to the command; and the command input in the processing of the input step,
And transmitting a signal corresponding to the command to the pseudo-life object if the command is for the pseudo-life object.
【請求項6】 仮想空間において飼育される仮想生命オ
ブジェクトに対して、または、現実空間において飼育さ
れる疑似生命オブジェクトに対して、所定の動作をさせ
るコマンドを入力する入力ステップと、 前記入力ステップの処理で入力されるコマンドが、前記
仮想生命オブジェクトに対するものであるか、前記疑似
生命オブジェクトに対するものであるかを切り換える切
り換えステップと、 前記入力ステップの処理で入力された前記コマンドが、
前記仮想生命オブジェクトに対するものである場合、前
記コマンドに対応する前記仮想生命オブジェクトの表示
を制御する表示制御ステップと、 前記入力ステップの処理で入力された前記コマンドが、
前記疑似生命オブジェクトに対するものである場合、前
記コマンドに対応する信号を前記疑似生命オブジェクト
に対して送信する際の制御を行う送信制御ステップとか
らなることを特徴とするプログラムを情報処理装置に実
行させるプログラム格納媒体。
6. An input step of inputting a command for performing a predetermined operation with respect to a virtual life object bred in a virtual space or a pseudo life object bred in a real space; A command input in the process, the switching step to switch between the virtual life object or the pseudo life object, the command input in the processing of the input step,
When the command is for the virtual life object, a display control step of controlling display of the virtual life object corresponding to the command; and the command input in the processing of the input step,
And transmitting a signal corresponding to the command to the pseudo-life object if the signal is for the pseudo-life object, and causing the information processing apparatus to execute the program. Program storage medium.
JP24956899A 1999-09-03 1999-09-03 Device and method for information processing and program storing medium Withdrawn JP2001071289A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24956899A JP2001071289A (en) 1999-09-03 1999-09-03 Device and method for information processing and program storing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24956899A JP2001071289A (en) 1999-09-03 1999-09-03 Device and method for information processing and program storing medium

Publications (1)

Publication Number Publication Date
JP2001071289A true JP2001071289A (en) 2001-03-21

Family

ID=17194947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24956899A Withdrawn JP2001071289A (en) 1999-09-03 1999-09-03 Device and method for information processing and program storing medium

Country Status (1)

Country Link
JP (1) JP2001071289A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015122084A (en) * 2009-02-20 2015-07-02 ボイスボックス テクノロジーズ, インク.Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in natural language voice services environment
CN104820405A (en) * 2015-04-28 2015-08-05 深圳市大疆创新科技有限公司 Information device and robot using same
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US9406078B2 (en) 2007-02-06 2016-08-02 Voicebox Technologies Corporation System and method for delivering targeted advertisements and/or providing natural language processing based on advertisements
US9620113B2 (en) 2007-12-11 2017-04-11 Voicebox Technologies Corporation System and method for providing a natural language voice user interface
US9626703B2 (en) 2014-09-16 2017-04-18 Voicebox Technologies Corporation Voice commerce
WO2017068559A1 (en) * 2015-10-23 2017-04-27 シャープ株式会社 Robot and program
US9747896B2 (en) 2014-10-15 2017-08-29 Voicebox Technologies Corporation System and method for providing follow-up responses to prior natural language inputs of a user
US9898459B2 (en) 2014-09-16 2018-02-20 Voicebox Technologies Corporation Integration of domain information into state transitions of a finite state transducer for natural language processing
US10297249B2 (en) 2006-10-16 2019-05-21 Vb Assets, Llc System and method for a cooperative conversational voice user interface
US10331784B2 (en) 2016-07-29 2019-06-25 Voicebox Technologies Corporation System and method of disambiguating natural language processing requests
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US10614799B2 (en) 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11222626B2 (en) 2006-10-16 2022-01-11 Vb Assets, Llc System and method for a cooperative conversational voice user interface
US10510341B1 (en) 2006-10-16 2019-12-17 Vb Assets, Llc System and method for a cooperative conversational voice user interface
US10297249B2 (en) 2006-10-16 2019-05-21 Vb Assets, Llc System and method for a cooperative conversational voice user interface
US10755699B2 (en) 2006-10-16 2020-08-25 Vb Assets, Llc System and method for a cooperative conversational voice user interface
US10515628B2 (en) 2006-10-16 2019-12-24 Vb Assets, Llc System and method for a cooperative conversational voice user interface
US9406078B2 (en) 2007-02-06 2016-08-02 Voicebox Technologies Corporation System and method for delivering targeted advertisements and/or providing natural language processing based on advertisements
US11080758B2 (en) 2007-02-06 2021-08-03 Vb Assets, Llc System and method for delivering targeted advertisements and/or providing natural language processing based on advertisements
US10134060B2 (en) 2007-02-06 2018-11-20 Vb Assets, Llc System and method for delivering targeted advertisements and/or providing natural language processing based on advertisements
US10347248B2 (en) 2007-12-11 2019-07-09 Voicebox Technologies Corporation System and method for providing in-vehicle services via a natural language voice user interface
US9620113B2 (en) 2007-12-11 2017-04-11 Voicebox Technologies Corporation System and method for providing a natural language voice user interface
US10089984B2 (en) 2008-05-27 2018-10-02 Vb Assets, Llc System and method for an integrated, multi-modal, multi-device natural language voice services environment
US10553216B2 (en) 2008-05-27 2020-02-04 Oracle International Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US9711143B2 (en) 2008-05-27 2017-07-18 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US9953649B2 (en) 2009-02-20 2018-04-24 Voicebox Technologies Corporation System and method for processing multi-modal device interactions in a natural language voice services environment
US10553213B2 (en) 2009-02-20 2020-02-04 Oracle International Corporation System and method for processing multi-modal device interactions in a natural language voice services environment
JP2015122084A (en) * 2009-02-20 2015-07-02 ボイスボックス テクノロジーズ, インク.Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in natural language voice services environment
US9570070B2 (en) 2009-02-20 2017-02-14 Voicebox Technologies Corporation System and method for processing multi-modal device interactions in a natural language voice services environment
US10216725B2 (en) 2014-09-16 2019-02-26 Voicebox Technologies Corporation Integration of domain information into state transitions of a finite state transducer for natural language processing
US10430863B2 (en) 2014-09-16 2019-10-01 Vb Assets, Llc Voice commerce
US9898459B2 (en) 2014-09-16 2018-02-20 Voicebox Technologies Corporation Integration of domain information into state transitions of a finite state transducer for natural language processing
US9626703B2 (en) 2014-09-16 2017-04-18 Voicebox Technologies Corporation Voice commerce
US11087385B2 (en) 2014-09-16 2021-08-10 Vb Assets, Llc Voice commerce
US10229673B2 (en) 2014-10-15 2019-03-12 Voicebox Technologies Corporation System and method for providing follow-up responses to prior natural language inputs of a user
US9747896B2 (en) 2014-10-15 2017-08-29 Voicebox Technologies Corporation System and method for providing follow-up responses to prior natural language inputs of a user
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US10614799B2 (en) 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
CN104820405A (en) * 2015-04-28 2015-08-05 深圳市大疆创新科技有限公司 Information device and robot using same
WO2017068559A1 (en) * 2015-10-23 2017-04-27 シャープ株式会社 Robot and program
US10331784B2 (en) 2016-07-29 2019-06-25 Voicebox Technologies Corporation System and method of disambiguating natural language processing requests

Similar Documents

Publication Publication Date Title
US10825456B2 (en) Method and apparatus for performing preset operation mode using voice recognition
KR102667413B1 (en) Method and Apparatus for Executing Application based on Voice Command
US10146318B2 (en) Techniques for using gesture recognition to effectuate character selection
KR100457509B1 (en) Communication terminal controlled through a touch screen and a voice recognition and instruction executing method thereof
US6718307B1 (en) Speech input device with attention span
JP6850805B2 (en) Automatic execution of user interaction on computing devices
KR101992676B1 (en) Method and apparatus for voice recognition using video recognition
US20220382505A1 (en) Method, apparatus, and computer-readable medium for desktop sharing over a web socket connection in a networked collaboration workspace
US7827232B2 (en) Record button on a computer system
RU2355045C2 (en) Sequential multimodal input
JP4006338B2 (en) Information processing apparatus and method, and program
JP2001071289A (en) Device and method for information processing and program storing medium
WO2013102892A1 (en) A system and method for generating personalized sensor-based activation of software
KR20140000189A (en) Humanoid robot equipped with a natural dialogue interface, method for controlling the robot and corresponding program
JP6920398B2 (en) Continuous conversation function in artificial intelligence equipment
KR20200102413A (en) Method, apparatus and computer-readable medium for implementation of a universal hardware-software interface
JP4781186B2 (en) User interface presentation apparatus and method
JP2002259113A (en) Voice macro processor, its method, computer program, and recording medium with its program recorded
JP2000250587A (en) Voice recognition device and voice recognizing and translating device
KR20210018353A (en) A method, apparatus, and computer readable medium for sharing a desktop via a web socket connection within a networked collaboration workspace.
JP4528384B2 (en) Display device for graphical user interface for voice input
WO2000068932A1 (en) Control device and method therefor, information processing device and method therefor, and medium
JPS60146327A (en) Computer conversation method
JP2001096481A (en) Information processing device and method, and program storing media
KR20030010279A (en) Computer system with speech recognition function and method of controlling the same

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107