JP2001071289A - Device and method for information processing and program storing medium - Google Patents

Device and method for information processing and program storing medium

Info

Publication number
JP2001071289A
JP2001071289A JP24956899A JP24956899A JP2001071289A JP 2001071289 A JP2001071289 A JP 2001071289A JP 24956899 A JP24956899 A JP 24956899A JP 24956899 A JP24956899 A JP 24956899A JP 2001071289 A JP2001071289 A JP 2001071289A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
command
step
input
object
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP24956899A
Other languages
Japanese (ja)
Inventor
Satoshi Fujimura
Naoki Fujisawa
Futoshi Goto
Yasuhiko Kato
Kiyonobu Kojima
Tsunenori Noma
Junji Oi
Takashi Sasai
Naohiro Yokoo
Shuji Yonekura
靖彦 加藤
純司 大井
清信 小島
太 後藤
直弘 横尾
崇司 笹井
修二 米倉
聡 藤村
直樹 藤澤
恒毅 野間
Original Assignee
Sony Corp
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PROBLEM TO BE SOLVED: To issue an instruction for a robot and an electric pet with the same operation. SOLUTION: A personal computer 1 displays an electronic pet, to provide an instruction and provide an instruction for a robot 3 as well. An instruction issued while the electronic pet is displayed on the personal computer 1 is directed to the electronic pet, an instruction issued while the electronic pet is covered with a cap, and is not visible is directed to the robot 3. A user can see the displayed state to recognize whether his instruction to be issued will be directed to the electronic pet or to the robot 3, and provide a necessary instruction as an audio signal for the personal computer 1. If an instruction corresponding to the result for analyzing the audio signal is directed to the robot 3, a signal corresponding to the analyzed result is transmitted to the robot 3. If the instruction is directed to the electronic pet, the display is changed according to the instruction.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は情報処理装置および方法、並びにプログラム格納媒体に関し、特に、電子ペットとロボットに対して、同一の操作により指示が出せ、また、その指示は音声により行え、さらに、電子ペットに対しての指示か、ロボットに対しての指示かをユーザが認識できるようにする情報処理装置および方法、 The present invention is an information processing apparatus and method BACKGROUND OF THE INVENTION, and a program storage medium, in particular, the electronic pet and the robot, put out an instruction of the same operation, also, the instruction is carried out by voice, further , or instructions to the electronic pet, the information processing apparatus and method to recognize a user instruction or a to the robot,
並びにプログラム格納媒体に関する。 And a program storage medium.

【0002】 [0002]

【従来の技術】犬などを模写して作られたロボットのペットや、仮想空間内で飼育される電子ペットと称されるペットなどが普及しつつある。 And Background of the Invention of the robot made to replicate such as a dog pet, such as electronic pet called pet, which is housed in the virtual space are becoming popular. ロボット型のペットは、 Robotic pets,
付属のリモートコントローラなどで操作されたり、音声を認識することにより動作するようにされている。 Or it is operated like the supplied remote controller is adapted to operate by recognizing speech. また、電子ペットは、表示されたメニューの中から所望の指示が選択されることにより操作される。 The electronic pet is operated by the desired instruction is selected from the displayed menu.

【0003】 [0003]

【発明が解決しようとする課題】しかしながら、ロボット型のペットにおいて、リモートコントローラを用いて操作する場合、リモートコントローラの操作を覚えなくてはならないといった課題があり、また、音声を認識することにより動作するものの場合、遠くから呼びかけたりしても、その音声を認識しない、近くから呼びかけたとしても、認識率が悪いといった課題があった。 [SUMMARY OF THE INVENTION However, in the robotic pets, when operating with the remote controller, to remember an operation of the remote controller has a problem it not, also operates by recognizing speech in the case of those that, even if the or calling from far away, does not recognize the voice, even called from nearby, the recognition rate there is a problem such as bad.

【0004】電子ペットの場合、パーソナルコンピュータなどのディスプレイ上に表示され、そのディスプレイ上の同一画面上に表示されているメニューの中から、ユーザは、電子ペットに対して指示を与えるため、ペットとしての親近感がわきづらいといった課題があった。 [0004] When the electronic pet, displayed on a display such as a personal computer, from the menu displayed on the same screen on the display, the user, to give an instruction to the electronic pet, as pets there is a problem such as the hard side of affinity. また、電子ペットとロボットに対し、同一の操作により指示を与えるといった場合、電子ペットに対して与えた指示なのに、実行したのはロボットであったり、逆に、ロボットに対して与えた指示なのに、実行したのは電子ペットであったりといった、不都合が発生するといった課題もあった。 Further, with respect to the electronic pet and the robot, when such gives an indication of the same operation, although instructions given to the electronic pet, or a robot for executing, on the contrary, although instructions given to the robot, was executed in such or an electronic pet, there was also a problem inconvenience occurs.

【0005】本発明はこのような状況に鑑みてなされたものであり、電子ペットとロボットに対して、同一の操作により指示が出せ、また、その指示は音声により行え、さらに、電子ペットに対しての指示か、ロボットに対しての指示かを認識できるようにすることにより、ユーザが、ロボットに対しても電子ペットに対してもペットとして親近感をもてるようにするとともに、使い勝手の良いユーザインタフェースを提供することを目的とする。 [0005] The present invention has been made in view of such circumstances, the electronic pet and the robot, put out an instruction of the same operation, also, the instruction is carried out by voice, further to the electronic pet indication of Te, by allowing recognize the instruction of the robot, the user, as well as to Moteru a sense of intimacy as pets to the electronic pets to the robot, a user-friendly and to provide a user interface.

【0006】 [0006]

【課題を解決するための手段】請求項1に記載の情報処理装置は、仮想空間において飼育される仮想生命オブジェクトに対して、または、現実空間において飼育される疑似生命オブジェクトに対して、所定の動作をさせるコマンドを入力する入力手段と、入力手段により入力されるコマンドが、仮想生命オブジェクトに対するものであるか、疑似生命オブジェクトに対するものであるかを切り換える切り換え手段と、入力手段により入力されたコマンドが、仮想生命オブジェクトに対するものである場合、コマンドに対応する仮想生命オブジェクトの表示を制御する表示制御手段と、入力手段により入力されたコマンドが、疑似生命オブジェクトに対するものである場合、コマンドに対応する信号を疑似生命オブジェクトに対して送信する送 SUMMARY OF THE INVENTION The information processing apparatus according to claim 1, to the virtual living object to be housed in the virtual space, or, with respect to pseudo-life objects that are housed in the real space, a predetermined input means for inputting a command to the operation command inputted by the input means, whether is for virtual living object, a switching means for switching whether is for pseudo-life objects, is input by the input means commands but if is for virtual living object, a display control unit for controlling the display of the virtual life object corresponding to the command, is input by the input means commands, when is for the pseudo-living object, corresponding to the command send to send a signal to the pseudo-life objects 手段とを含むことを特徴とする。 Characterized in that it comprises a means.

【0007】前記入力手段は、音声信号でコマンドを入力するようにすることができる。 [0007] The input means may be adapted to enter the command in the voice signal.

【0008】前記送信手段により送信される信号は、音階信号であるようにすることができる。 [0008] signal transmitted by the transmitting means, it is possible to be a scale signal.

【0009】前記仮想生命オブジェクトおよび前記疑似生命オブジェクトの名称は、ユーザにより付けられるようにすることができる。 [0009] The virtual living object and the name of the pseudo life objects can be so attached by the user.

【0010】請求項5に記載の情報処理方法は、仮想空間において飼育される仮想生命オブジェクトに対して、 [0010] The information processing method according to claim 5, to the virtual living object to be housed in a virtual space,
または、現実空間において飼育される疑似生命オブジェクトに対して、所定の動作をさせるコマンドを入力する入力ステップと、入力ステップの処理で入力されるコマンドが、仮想生命オブジェクトに対するものであるか、 Or, with respect to pseudo-life objects that are housed in the real space, or an input step of inputting a command to a predetermined operation, a command is input by the processing of the input step is for virtual living object,
疑似生命オブジェクトに対するものであるかを切り換える切り換えステップと、入力ステップの処理で入力されたコマンドが、仮想生命オブジェクトに対するものである場合、コマンドに対応する仮想生命オブジェクトの表示を制御する表示制御ステップと、入力ステップの処理で入力されたコマンドが、疑似生命オブジェクトに対するものである場合、コマンドに対応する信号を疑似生命オブジェクトに対して送信する送信ステップとを含むことを特徴とする。 A switching step of switching what is for pseudo-life objects, is input by the processing of the input step command, if is for virtual living object, and a display control step of controlling the display of the virtual life object corresponding to the command , it entered in the processing of the input step command, when is for the pseudo-living object, characterized in that it comprises a transmission step of transmitting a signal corresponding to the command to the pseudo-life objects.

【0011】請求項6に記載のプログラム格納媒体のプログラムは、仮想空間において飼育される仮想生命オブジェクトに対して、または、現実空間において飼育される疑似生命オブジェクトに対して、所定の動作をさせるコマンドを入力する入力ステップと、入力ステップの処理で入力されるコマンドが、仮想生命オブジェクトに対するものであるか、疑似生命オブジェクトに対するものであるかを切り換える切り換えステップと、入力ステップの処理で入力されたコマンドが、仮想生命オブジェクトに対するものである場合、コマンドに対応する仮想生命オブジェクトの表示を制御する表示制御ステップと、 [0011] command program in the program storage medium according to claim 6, to the virtual living object to be housed in the virtual space, or, with respect to pseudo-life objects that are housed in the real space, to a predetermined operation an input step of inputting, commands are entered in the processing of the input step, whether is for virtual living object, a switching step of switching what is for pseudo-life objects, is input by the processing of the input step command but if is for virtual living object, and a display control step of controlling the display of the virtual life object corresponding to the command,
入力ステップの処理で入力されたコマンドが、疑似生命オブジェクトに対するものである場合、コマンドに対応する信号を疑似生命オブジェクトに対して送信する際の制御を行う送信制御ステップとからなることを特徴とする。 Commands entered in the processing of the input step, if is for pseudo-life object, characterized by comprising the transmission control step for controlling the time of transmitting a signal corresponding to the command to the pseudo life objects .

【0012】請求項1に記載の情報処理装置、請求項5 [0012] The information processing apparatus according to claim 1, claim 5
に記載の情報処理方法、請求項6に記載のプログラム格納媒体においては、入力されるコマンドが、仮想生命オブジェクトに対するものであるか、疑似生命オブジェクトに対するものであるかが切り換えられ、入力されたコマンドが、仮想生命オブジェクトに対するものである場合、コマンドに対応する仮想生命オブジェクトの表示が制御され、入力されたコマンドが、疑似生命オブジェクトに対するものである場合、コマンドに対応する信号が疑似生命オブジェクトに対して送信される。 Command information processing method, wherein in a program storage medium of claim 6, a command to be input is, whether is for virtual living object, or is for the pseudo-living object is switched, input to but if is for virtual living object, display of the virtual life object corresponding to the command is controlled and the input command, when is for the pseudo-living object, a signal corresponding to the command relative to the pseudo-life objects It sent Te.

【0013】 [0013]

【発明の実施の形態】図1は、本発明を適用した情報処理システムの一実施の形態の構成を示す図である。 Figure 1 DETAILED DESCRIPTION OF THE INVENTION is a diagram showing the configuration of an embodiment of an information processing system according to the present invention. パーソナルコンピュータ1は、後述する電子ペットやロボット3の動作を制御する。 The personal computer 1 controls the operation of the electronic pet and a robot 3 which will be described later. リモートコマンダ2は、ロボット3を制御する際に用いられる。 Remote commander 2 is used in controlling the robot 3.

【0014】図2は、パーソナルコンピュータ1の内部構成を示すブロック図である。 [0014] Figure 2 is a block diagram showing the internal configuration of the personal computer 1. パーソナルコンピュータ1のCPU(Central Processing Unit)11は、ROM(Rea The personal computer 1 of the CPU (Central Processing Unit) 11 is, ROM (Rea
d Only Memory)12に記憶されているプログラムに従って各種の処理を実行する。 It executes various processes in accordance with d Only Memory) 12 in the stored program. RAM(Random Access Memor RAM (Random Access Memor
y)13には、CPU11が各種の処理を実行する上において必要なデータやプログラムなどが適宜記憶される。 The y) 13, CPU 11 and data and programs required for executing various processes are suitably stored. 入出力インタフェース14は、キーボード15やマウス1 Input and output interface 14, keyboard 15 and mouse 1
6から入力された信号をCPU11に出力する。 The signal input from 6 to output to the CPU 11. また、入出力インタフェース14には、ハードディスクなどから構成される記憶部17も接続されており、そこにデータやプログラムなどが適宜記録、再生される。 Further, the input-output interface 14, etc. it is also connected a storage unit 17 from the hard disk, etc. therein data and programs are appropriately recorded and reproduced.

【0015】入出力インタフェース14には、また、表示デバイスとしてのディスプレイ18が接続されているとともに、通信部19も接続され、他の装置と電波、 The output interface 14 also with a display 18 is connected as a display device, the communication unit 19 is also connected, the other devices and radio wave,
光、赤外線などにより通信を行うことが可能である。 Light, it is possible to perform communication by infrared rays. さらに、入出力インタフェース14には、音声を取り込むマイクロホン20、画像を取り込むビデオカメラ21、 Furthermore, the input-output interface 14 captures the voice microphone 20, a video camera 21 for capturing an image,
および音声を発するスピーカ22が接続されている。 And a speaker 22 for emitting sound is connected. ドライブ23も、入出力インタフェース14と接続され、 Drive 23 is also connected to the input-output interface 14,
フロッピー(登録商標)ディスク(不図示)などとデータの授受を行う。 Floppy performing (registered trademark) disk (not shown) such as a data exchange. 内部バス24は、これらの各部を相互に接続する。 Internal bus 24 connects these units to each other.

【0016】図3は、パーソナルコンピュータ1の外観を表す図である。 [0016] Figure 3 is a diagram illustrating an appearance of a personal computer 1. 図3に示したパーソナルコンピュータ1は、俗に言われるノート型パソコンであり、そのノート型パソコンを開いた状態を表している。 Personal computer 1 shown in FIG. 3 is a laptop computer that is popularly referred to represents a state in which opened the notebook computer. ディスプレイ18の上部には、マイクロホン20とビデオカメラ21 The top of the display 18, microphone 20 and video camera 21
が設けられている。 It is provided. このビデオカメラ21は、ディスプレイ18に対して180度、回動可能に取り付けられている。 The video camera 21 is 180 degrees relative to the display 18 is mounted rotatably. また、キーボード15の上部には、スピーカ22 Also, the top of the keyboard 15, speaker 22
が設けられている。 It is provided.

【0017】図4は、リモートコマンダ2の内部構成を示す図である。 [0017] FIG. 4 is a diagram showing the internal configuration of the remote commander 2. キー41は、主に、音階を示す複数のキーから構成されている。 Key 41 is mainly formed of a plurality of keys indicating the musical scale. スピーカ42は、キー41により入力された音階に対応する音を発する。 Speaker 42 emits a sound corresponding to the musical scale input by key 41. CPU43は、R CPU43 is, R
OM44に記憶されているプログラム、データに基づき、 Program stored in OM44, based on the data,
例えば、操作されたキー41を解析し、その解析された音階に基づく音を、スピーカ42により発せさせる。 For example, to analyze the key 41 is operated, a sound based on the analyzed scale, causing emitted by the speaker 42. RA RA
M45は、適宜必要なデータの書き込みや読み出しが行われる。 M45 is appropriate necessary data writing or reading is performed. 内部バス46は、これらの各部を相互に接続する。 Internal bus 46 connects these units to each other.

【0018】図5は、ロボット3の内部構成を示す図である。 [0018] FIG. 5 is a diagram showing the internal configuration of the robot 3. ロボット3のCPU61は、ROM62に記憶されているプログラムに従って各種の処理を実行する。 CPU61 of the robot 3 executes various processes according to a program stored in the ROM 62. RAM63 RAM63
には、CPU61が各種の処理を実行する上において必要なデータやプログラムなどが適宜記憶される。 , The data and programs required on CPU61 executes various processes are suitably stored. 入出力インタフェース64には、目などの役割を果たす複数のセンサ65が接続されており、それらから入力された信号をCPU61に出力する。 Output interface 64 is connected to serve a plurality of sensors 65, such as the eye, it outputs a signal input from them CPU 61. また、入出力インタフェース6 In addition, input and output interface 6
4には、ハードディスクなどから構成される記憶部66 The 4 and a hard disk storage 66
も接続されており、そこにデータ、プログラムなどを記録、再生することができる。 It is also connected, thereto the recording data, programs and the like, can be reproduced.

【0019】入出力インタフェース64は、また、通信部67とも接続され、通信部67は、パーソナルコンピュータ1やリモートコントローラ3と電波、光、赤外線などにより通信を行う。 The output interface 64 is also being both communication unit 67 connected to the communication unit 67, the personal computer 1 and the remote controller 3 and the radio wave, light, communication using infrared rays performed. さらに、入出力インタフェース64には、音声を取り込むマイクロホン68、音声を発するスピーカ69が接続されている。 Furthermore, the input-output interface 64, a microphone 68 for capturing sound, speaker 69 for emitting sound is connected. モータ70も入出力インターフェース64に接続され、CPU61の指示により、ロボット3の腕や足に相当する運動部71を動作させる。 Motor 70 is also connected to the output interface 64, an instruction CPU 61, operates the moving portion 71 corresponding to the arms and legs of the robot 3. 内部バス72は、これらの各部を相互に接続する。 Internal bus 72 connects these units to each other.

【0020】ここで、リモートコマンダ2によりロボット3を制御する場合を説明する。 [0020] Here, a case of controlling the robot 3 by the remote commander 2. ロボット3のROM62 Robot 3 of ROM62
には、例えば、図6に示すように、ロボット3のモータ70の動作を制御することにより、ロボット3自体を制御するロボット制御部81と、マイクロホン69により取り込まれた音声を解析する音階検出部82とが記憶されている。 The, for example, as shown in FIG. 6, by controlling the operation of the motor 70 of the robot 3, a robot controller 81 for controlling the robot 3 itself, scale detecting unit for analyzing the audio captured by the microphone 69 82 and are stored.

【0021】図7のフローチャートを参照してロボット3の制御について説明する。 [0021] with reference to the flowchart of FIG. 7 will be described control of the robot 3. ロボット3は、リモートコマンダ2により(ユーザにより)制御することも可能であると共に、その制御とは独立して、自分自身で動作を決定し、動作すること(内部イベントと称する)も可能である。 Robot 3, together can also be controlled by the remote commander 2 (by the user), independent of its control determines the operation on its own, (referred to as internal event) operation to it is also possible . そこで、ステップS1において、CPU61は、 Therefore, in step S1, the CPU 61,
内部イベントが発生したか否か、換言すれば、外部からの制御とは独立して、内部的に動作が指示されたか否かを判断する。 Whether an internal event occurs, in other words, independently of the external control determines whether internally operation is instructed. この内部イベントの発生は、図8のフローチャートの処理に従って、発生される。 Generation of this internal event, in accordance with the processing of the flowchart of FIG. 8, is generated.

【0022】ステップS11において、所定の時間が経過したか否かが判断される。 [0022] In step S11, whether a predetermined time has elapsed. CPU61は、外部または内部からの指示により動作をした時点から、所定の時間をカウントすることにより、所定の時間が経過したか否かを判断する。 CPU61 is from the point of the operation by an instruction from the outside or the inside, by counting a predetermined time, determines whether a predetermined time has elapsed. 所定の時間が経過したと判断されるまで、 Until a predetermined time is judged to have elapsed,
ステップS11の処理が繰り返され、所定の時間が経過したと判断されると、ステップS12に進む。 Step S11 is repeated, a predetermined time is judged to have elapsed, the process proceeds to step S12. ステップS12において、乱数が発生される。 In step S12, a random number is generated. そして、ステップS13において、ステップS12において発生された乱数に対応するイベントがイベントリストから抽出される。 Then, in step S13, the event corresponding to the generated random number in step S12 is extracted from the event list.

【0023】イベントリストとは、例えば、次の表1に示すように、コマンドの内容(動作内容)、乱数、および音階がそれぞれ対応付けられたリストである。 [0023] The event list, for example, as shown in the following Table 1, the contents of the command (operation contents), a random number, and scale is a list associated respectively. なお、 It should be noted that,
音階とは、リモートコマンダ2により発せられたコマンドとしての音階を示す。 The scale shows the scale of the command issued by the remote commander 2. また、次の表1は、一部であり、他のコマンドを追加したりすることも可能である。 Further, Table 1 below is a part, it is also possible to add other commands.

【0024】 [0024] なお、表1における音階は、アルファベットで示し、 Incidentally, the scale in Table 1, indicated by alphabet,
C、D、E、F、G、A、Bは、それぞれ、ド、レ、 C, D, E, F, G, A, B, respectively, de, Re,
ミ、ファ、ソ、ラ、シを表し、#(シャープ)は半音階上げることを示している。 Represents Mi, fa, the Soviet Union, La, the city, # (Sharp) shows that the increase chromatic scale.

【0025】ステップS13において、発生された乱数に対応するコマンドが抽出される。 [0025] In step S13, a command corresponding to the generated random number is extracted. このように抽出されたコマンドに対応する処理が、ステップS2(図7)において、ロボット制御部81により実行される。 Processing corresponding to the thus extracted command, in step S2 (Fig. 7) is executed by the robot control unit 81.

【0026】一方、ステップS1において、内部イベントは発生していないと判断された場合、ステップS3に進む。 On the other hand, in step S1, if the internal event was determined not to have occurred, the process proceeds to step S3. ステップS3において、音階検出部82は、音声信号をマイクロホン68により受信したか否かを判断する。 In step S3, the scale detector 82 determines whether or not received by the microphone 68 the audio signal. ステップS3において、音声信号を受信したと判断された場合は、ステップS4に進み、音声信号を受信してはいないと判断された場合は、ステップS1に戻り、 In step S3, if it is determined that it has received the audio signal, the process proceeds to step S4, if it is determined that not receives the audio signal, the process returns to step S1,
それ以降の処理が繰り返される。 And the subsequent processing is repeated.

【0027】ステップS4において、音階検出部82 [0027] In step S4, the scale detector 82
は、受信した音声信号から音階を検出する。 Detects the musical scale from the audio signal received. そして、ステップS5において、検出した音階は、音階コマンドであるか否かが判断される。 Then, in step S5, scale was detected, whether the scale command is determined. ステップS3乃至S5の処理を換言すると、ロボット3のマイクロホン68は、リモートコマンダ2から送信された音階コマンドの他にも、 In other words the processing in steps S3 to S5, the microphone 68 of the robot 3, in addition to the scale command transmitted from the remote commander 2,
さまざまな音を取り込んでしまう。 It will incorporate a variety of sound. そこで、取り込んだ音(音声)から、音階コマンドのみを抽出する処理が必要となる。 So, from the captured sound (voice), it is necessary processing to extract only the scale command. また、ユーザは、音声コマンドを構成するキー41を操作したとは限らず、間違ったキー41を操作した場合も考えられ、音階コマンドであるか否かを判断する処理も必要となる。 The user is not limited to that operating the key 41 constituting a voice command, also considered the case of operating the wrong key 41, it is also necessary processing to determine whether the scale command.

【0028】ステップS5において、音階コマンドであると判断された場合は、ステップS6に進み、音階コマンドではないと判断された場合は、ステップS1に戻り、それ以降の処理が繰り返される。 [0028] In step S5, if it is determined that the scale command, the process proceeds to step S6, if it is determined not to be the scale command, it returns to step S1, and the subsequent processing is repeated. ステップS6において、検出された音階コマンドに対応するコマンドが、 In step S6, a command corresponding to the detected scale commands,
上記した表1から抽出され、その抽出されたコマンドに対応する処理が実行される。 Is extracted from Table 1 described above, processing is executed corresponding to the extracted command. このように、ロボット3 In this way, the robot 3
は、内部的に発生したイベントを実行すると共に、外部的に発生されたイベントも実行する。 Serves to perform an internally generated event, also performs externally generated events. ユーザは、内部的に発生されたイベントに対応する処理を見て、ロボット3が、まるで生きているかのような感覚を得ることが可能であり、外部的に発生されたイベント、即ち、ユーザにより発生されたイベントに対応する処理が実行されることにより、ロボット3と一緒に遊んでいるという感覚を得ることができる。 The user views the process corresponding to the internally generated event, the robot 3, it is possible to obtain a feeling as if he lived, externally generated events, i.e., the user by processing corresponding to the generated event is executed, it is possible to obtain the feeling of playing with the robot 3.

【0029】外部的なイベントを発生させるリモートコマンダ2の動作について、図9のフローチャートを参照して説明する。 [0029] For external operation of the remote commander 2 for generating an event, with reference to the flowchart of FIG. ステップS21において、リモートコマンダ2のCPU43は、キー41からの入力が有りか否かを判断する。 In step S21, CPU 43 of the remote commander 2 determines whether there is an input from the key 41. ステップS21の処理は、キー41からの入力があったと判断されるまで繰り返し行われる。 Step S21 is repeated until it is determined that there is an input from the key 41.

【0030】ステップS21において、キー41からの入力があったと判断された場合、ステップS22に進み、入力されたキー41に対応する音階コマンドが、スピーカ42から発せられる。 [0030] In step S21, if it is determined that there is an input from the key 41, the process proceeds to step S22, scale command corresponding to the key 41 is input, it is emitted from the speaker 42. このようにして発せられた音階コマンドは、ロボット3のマイクロホン68に受信されることにより、上述したような処理が、ロボット3 Scale command emitted in this way, by being received in the microphone 68 of the robot 3, the processing as described above, the robot 3
により実行される。 It is executed by.

【0031】上述したように、ロボット3は、リモートコマンド2により制御されるとともに、パーソナルコンピュータ1により制御することも可能である。 [0031] As described above, the robot 3, while being controlled by a remote command 2, can be controlled by the personal computer 1. パーソナルコンピュータ1の記憶部17には、ロボット3を制御するためのもの、音声認識するためのもの、電子ペットを制御するためのものなど、複数のアプリケーションが記憶されている。 The personal computer 1 of the storage unit 17, for controlling the robot 3, for the purpose of speech recognition, such as those for controlling the electronic pet, a plurality of applications are stored. それらのアプリケーションが立ち上がった場合の機能ブロック図を図10に示す。 The functional block diagram in the case where those applications has risen shown in FIG. 10. なお、電子ペットとは、パーソナルコンピュータ1の仮想空間で飼育されているペットのことである。 Note that the electronic pet is that pets that are kept in the virtual space of the personal computer 1.

【0032】電子ペット制御部101は、電子ペットの動作を制御(ディスプレイ18上に表示されている電子ペットの表示を制御)する。 The electronic pet control unit 101 controls the operation of the electronic pet (controls the display of the electronic pet displayed on the display 18). 音声コマンダ102は、音声認識エンジン103からの認識結果に従った処理を行う。 Voice commander 102 performs processing in accordance with the recognition result from the speech recognition engine 103. 音声認識エンジン103は、予め登録された認識単語や文法をエンジン用認識単語・文法104から読み込み、ユーザがマイクロホン20から入力した音声を、読み込んだ単語や文法と照らし合わせて認識し、音声コマンダ102に認識結果を出力する。 Speech recognition engine 103 reads the recognition word and grammar which is registered in advance from the engine for recognition word-grammar 104, speech input by the user from the microphone 20, recognized against the loaded words and grammar, the voice commander 102 and it outputs the recognition result to.

【0033】例えば、ユーザがマイクロホン20から、 [0033] For example, a user from the microphone 20,
「電子ペット制御部の立ち上げ」と入力した場合、音声認識エンジン103は、エンジン用認識単語・文法10 If you enter the "launch of the electronic pet control unit", the speech recognition engine 103, recognizes the words and grammar 10 for engine
4から読み込んだ単語と文法と照らし合わし、「電子ペット制御部の立ち上げ」と入力されたと認識する。 Awashi against the read words and grammar from 4, recognizes that it has received a "start-up of the electronic pet control unit". 音声コマンド102は、その認識結果を受け取り、その受け取ったコマンドに対応する処理として、電子ペット制御部101を立ち上げる。 Voice command 102 receives the recognition result, a process corresponding to the received command, raises the electronic pet control unit 101. このように、音声コマンダ10 In this way, the voice commander 10
2が立ち上がっている状態において、ユーザは、電子ペット制御部101などの所望のアプリケーションを、音声信号を入力することにより立ち上げる(起動させる) In a state where 2 is up, the user, a desired application, such as an electronic pet control unit 101, start up (activate) by inputting a sound signal
ことができる。 be able to.

【0034】ここではまず、電子ペット制御部101や音声コマンド102のアプリケーションが立ち上がる前の状態として、パーソナルコンピュータ1の電源がオンにされ、所定のオペレーションシステムが立ち上がった時からの処理を説明する。 [0034] Here, first, a state before the application rises the electronic pet control unit 101 and the voice command 102, the power of the personal computer 1 is turned on, the processing from when the rise of the predetermined operating system. 図11は、所定のオペレーションシステムが立ち上がった状態でのディスプレイ18 11, a display 18 in a state in which rises a predetermined operating system
上の表示例を示している。 It shows a display example of the above.

【0035】ディスプレイ18上には、4個のアイコンI 1乃至I 4とカーソル111が表示されている。 [0035] On the display 18, the four icons I 1 to I 4 and the cursor 111 are displayed. このような状態において、ユーザがマウス16を用いてカーソル111を操作し、音声コマンダ102に対応するアイコンI 1をクリックしたとする。 In this state, the user operates the cursor 111 using the mouse 16, and clicks the icon I 1 corresponding to the voice commander 102. このような処理により、音声コマンダ102が立ち上がると、図12に示したように、ディスプレイ18上に、音声コマンダ用UI By such processing, the voice commander 102 rises, as shown in FIG. 12, on the display 18, UI for the voice commander
(ユーザインタフェース)121が表示される。 (User Interface) 121 is displayed.

【0036】音声コマンダ用UI121は、マイクロホン20から入力された音声を認識した時の認識結果を表示する認識結果表示部122と、音声入力を行うことが可能な状態であるか否かを表示する認識状態表示部12 [0036] For voice commander UI121 displays a recognition result display unit 122 for displaying the recognition results when recognizing the voice input from the microphone 20, whether or not the state capable of performing voice input recognition state display unit 12
3とから構成されている。 And a 3.

【0037】図13は、音声コマンダ102の動作について説明するフローチャートである。 [0037] FIG. 13 is a flowchart for explaining the operation of the voice commander 102. ステップS31において、音声コマンダ102に対応するアイコン(いまの場合アイコンI 1 )が操作されたか否かが判断され、 In step S31, whether it is determined icon corresponding to the voice commander 102 (in this icon I 1) is operated,
操作されたと判断されると、上述したような音声コマンダ用UI121がディスプレイ18上に表示されると共に、ステップS32に進む。 If it is determined that the engineered, with voice commander described above UI121 is displayed on the display 18, the process proceeds to step S32.

【0038】ステップS32において、コントロール(Ctrl)キーが操作されたか否かが判断される。 [0038] In step S32, whether the control (Ctrl) key is operated or not. 本実施の形態においては、キーボード15の所定のキーとしてコントロールキーが操作されている間に、ユーザがマイクロホン20に向かって話したことが、ユーザからの指示(コマンド)として処理される。 In the present embodiment, while the control key is operated as a predetermined key of the keyboard 15, that the user has spoken into the microphone 20 is processed as an instruction from the user (command). 従って、コントロールキーが操作されるまで、音声コマンダ102は、待機状態である。 Accordingly, until the control key is operated, the voice commander 102 is in the standby state.

【0039】ステップS32において、コントロールキーが操作されたと判断された場合、ステップS33に進み、音声コマンダ102は、音声認識エンジン103に対して音声認識の要求を出す。 [0039] In step S32, if it is determined that the control key has been operated, the process proceeds to step S33, the voice commander 102 issues a request for speech recognition on the speech recognition engine 103. ここで、音声認識エンジン103の動作について、図14のフローチャートを参照して説明する。 Here, the operation of the speech recognition engine 103 will be described with reference to the flowchart of FIG. 14.

【0040】音声認識エンジン103は、ステップS5 The speech recognition engine 103, step S5
1において、音声コマンダ102から音声認識の要求が来たか否かを判断する。 In 1, it determines whether or not a request for speech recognition from voice commander 102. 音声コマンダ102から音声認識の要求が来たと判断されるまで、ステップS51の処理は繰り返され、音声認識の要求が来たと判断されると、ステップS52に進む。 From the voice commander 102 to request voice recognition is determined to come, the process of step S51 is repeated, if it is determined that the request of the voice recognition came, the process proceeds to step S52. ステップS52において、 In the step S52,
マイクロホン20より入力されたユーザの音声信号を取り込み、エンジン用認識単語・文法104から得られる単語と文法に当てはめて、取り込んだ音声信号を解析する。 It captures audio signal of the user input from the microphone 20, by fitting the words and grammar derived from the engine for recognition word-grammar 104 analyzes the audio signal captured.

【0041】解析された音声認識の結果は、ステップS [0041] As a result of the speech recognition has been analyzed, the step S
53において、音声コマンダ102に対して、テキストデータとして転送される。 In 53, the voice commander 102, is transferred as text data. 音声コマンダ102は、このようにして転送された認識結果を受信したか否かを、ステップS34(図13)において判断する。 Voice commander 102, whether or not it has received this way, the recognition result which has been transferred, it is determined in step S34 (FIG. 13). ステップS Step S
34において、音声認識結果を取得できなかったと判断された場合、ステップS35に進み、認識不可のメッセージを音声コマンダ用UI121に表示させる。 In 34, if it is determined that it could not acquire the speech recognition result, the process proceeds to step S35, and displays the unrecognized messages to voice commander for UI 121. その表示は、例えば、音声コマンダ用UI121の認識結果表示部122に”???”といったものである。 The indication, for example, those such as "???" in the recognition result display unit 122 of the voice commander for UI 121.

【0042】ステップS35の処理が終了されると、ステップS32の処理に戻り、それ以降の処理が繰り返される。 [0042] When the processing in step S35 is ended, the process returns to step S32, and the subsequent processing is repeated. 一方、ステップS34において、音声認識エンジン103から、音声認識結果としてのテキストデータを取得したと判断された場合、ステップS36に進み。 On the other hand, in step S34, if the speech recognition engine 103, it is determined that the acquired text data as a speech recognition result, the process proceeds to step S36. ステップS36において、取得されたテキストデータに基づくテキストが、音声コマンダ用UI121の認識結果表示部122に表示される。 In step S36, the text based on the acquired text data is displayed on the recognition result display unit 122 of the voice commander for UI 121.

【0043】ユーザは、認識結果表示部122に表示されたテキストを見て、そのテキストが、入力した音声信号と同じものである場合、コントロールキーの操作を停止する(押下していたコントロールキーから手を離す) The user sees the displayed recognition result display section 122 text, that text, if the same as the input audio signal, the control key that has been to stop the operation of the control key (presses Release the hand)
ことにより、入力した音声信号に対応する処理を実行することを、パーソナルコンピュータ1に対して指示する。 It makes that executes processing corresponding to the input audio signal, instructs the personal computer 1. 逆に、認識結果表示部122に表示されたテキストが、入力した音声信号と異なる場合、または、同じものであるが、指示したいこととは異なる場合、コントロールキーを操作し続けながら、シフト(Shift)キーを操作することにより、入力した音声信号に対応する処理の実行をキャンセルすることができる。 Conversely, it displayed on the recognition result display unit 122 the text is different from the input audio signal, or, but the same, differ from the fact to be instructed, while continuing to operate the control key, shift (Shift ) by operating the keys, it is possible to cancel the execution of the processing corresponding to the input audio signal.

【0044】このような処理が行われるため、音声コマンダ102は、ステップS37において、コントロールキーへの操作が停止されたか否かを判断する。 [0044] Since such processing is performed, the voice commander 102, in step S37, it is determined whether or not the operation of the control key has been stopped. ステップS37において、コントロールキーへの操作が停止されたと判断された場合、ステップS38に進み、認識結果に対応するアプリケーションに転送される。 In step S37, if the operation to the control key is determined to have been stopped, the process proceeds to step S38, the are transferred to the corresponding application to the recognition result. 例えば、認識結果が「電子ペット制御部」であった場合、電子ペット制御部101に認識結果が転送され、電子ペット制御部101は、その認識結果に対応する処理として起動する。 For example, if the recognition result is "the electronic pet control unit", the recognition result to the electronic pet control unit 101 is transferred, the electronic pet control unit 101 starts a process corresponding to the recognition result. 複数のアプリケーションが起動されている場合、アクティブにされているアプリケーションに認識結果が転送される。 When multiple applications are running, the recognition result is transferred to the application that is active. ステップS38の転送処理が終了されると、 When the transfer processing in step S38 is ended,
ステップS32に戻り、それ以降の処理が繰り返される。 Returning to step S32, and the subsequent processing is repeated.

【0045】一方、ステップS37において、コントロールキーへの操作が停止されてはいないと判断された場合、ステップS39に進み、コントロールキーに加えてシフトキーが操作されたか否かが判断される。 On the other hand, in step S37, if the operation to the control key is determined to not been stopped, the process proceeds to step S39, whether the shift key in addition to the control key has been operated or not. ステップS39において、コントロールキーに加えてシフトキーが操作されたと判断された場合は、ステップS40に進み、コントロールキーに加えてシフトキーは操作されていないと判断された場合は、換言すれば、コントロールキーのみが操作され続けていると判断された場合は、ステップS33に戻り、それ以降の処理が繰り返される。 In step S39, if it is determined that the shift key in addition to the control key is operated, the process proceeds to step S40, if the shift key in addition to the control key is determined not to be operated, in other words, the control key only If is it is determined that continues to be operated, the flow returns to step S33, and the subsequent processing is repeated.

【0046】ステップS40において、入力された音声信号の認識結果がキャンセルされる。 [0046] In step S40, the recognition result of the input audio signal is canceled. 即ち、認識結果表示部122に表示されていたテキストが消去され、新たな音声信号の入力待ちの状態となる。 That is, the recognition result display unit 122 the text that was displayed is erased, a state of waiting for input of a new audio signal. 従って、ステップS33に戻り、それ以降の処理が繰り返される。 Therefore, the process returns to step S33, and the subsequent processing is repeated.

【0047】次に、パーソナルコンピュータ1による電子ペット及びロボット3の制御について、図15乃至図17のフローチャートを参照して説明する。 Next, the control of the electronic pet and the robot 3 by the personal computer 1 will be described with reference to the flowchart of FIGS. 15 to 17. ステップS Step S
61において、電子ペット制御部101の起動が指示されたか否かが判断される。 In 61, activation of the electronic pet control unit 101 whether an instruction is determined. 電子ペット制御部101の起動を指示する方法としては、音声コマンダ102が起動されている状態においては、上述したように、「電子ペット制御部」と音声認識させることにより行わせても良いし、図11または図12に示した状態において、電子ペット制御部101に対応するアイコンをクリックすることにより行なわせても良い。 Electronic pet as a method of instructing the activation of the control unit 101, in a state where the voice commander 102 is activated, as described above, may also be effected by speech recognition as "electronic pet controller" in the state shown in FIG. 11 or 12, it may be done by clicking on the icon corresponding to the electronic pet control unit 101. なお、以下の説明において、音声コマンダ102は、電子ペット制御部101が起動される前に、起動されているとして説明する。 In the following description, the voice commander 102, before the electronic pet control unit 101 is activated is described as being activated.

【0048】電子ペット制御部101は、電子ペット制御部101の起動が指示されたと判断するまで、ステップS61の処理を繰り返し、起動が指示されるとステップS62に進む。 The electronic pet control unit 101 until it is determined that the activation of the electronic pet control unit 101 is instructed to repeat the processing of step S61, when the start is instructed proceeds to step S62. ステップS62において、電子ペット制御部101が起動されることにより、電子ペットが電子ペット表示ウィンドウに表示される。 In step S62, by the electronic pet control unit 101 is activated, the electronic pet is displayed on the electronic pet display window. 電子ペットおよび電子ペット表示ウィンドウの表示例を、図18に示す。 A display example of an electronic pet and the electronic pet displayed window, shown in Figure 18.

【0049】電子ペット表示ウィンドウ131には、円が表示されており、その円内に電子ペット132が表示されている。 [0049] electronic pet display window 131, circles are displayed, electronic pet 132 is displayed within the circle. この電子ペット132は、ロボット3を形取ったものである。 This electronic pet 132 is one that took the form of the robot 3. 勿論、ロボット3とは全く関係ない形のペットとして表示しても良い。 Of course, it may be displayed as the shape of nothing to do with the robot 3 Pet. 電子ペット表示ウィンドウ131内の円の上部には、この電子ペット制御部101の処理を終了させる際に操作される終了ボタン1 The top of the circle of the electronic pet display window 131, end button 1 is operated when the process is terminated in this electronic pet control section 101
33、電子ペット134に対して何かしらの指示を出すときのメニューを表示させる際に操作されるメニューボタン134、および電子ペット132を見えなくしてしまうように蓋で被ってしまう際に操作される蓋ボタン1 33, the lid is operated to thereby suffered by the lid as will be invisible menu button 134 and the electronic pet 132 is operated to display the menu when issuing some kind of indication to the electronic pet 134 button 1
35が設けられている。 35 is provided.

【0050】ステップS62において、図18に示したウィンドウがディスプレイ上に表示されると、ステップS63に進む。 [0050] In step S62, the window shown in FIG. 18 is displayed on the display, the process proceeds to Step S63. ステップS63において、内部イベントが発生したか否かが判断される。 In step S63, whether the internal event has occurred is determined. 電子ペット132も、 Electronic pet 132,
ロボット3と同じように、ユーザからの指示(外部的な指示)により動作するが、その動作とは別に、自分自身(内部的な指示)でも動作する。 As with the robot 3, it operates by an instruction from the user (external indications), and its operation separately, also works itself (internal instructions). 従って、ステップS6 Thus, step S6
3における処理は、ロボット3においても行われる処理と同様であり、図8のフローチャートを参照して(図7 Processing at 3 is the same as the process is also performed in the robot 3, with reference to the flowchart of FIG. 8 (FIG. 7
のステップS1の処理として)既に説明したので、その説明は省略する。 Having described as a process of step S1) already, the description thereof is omitted.

【0051】また、ロボット3と同様な動作を行うため、電子ペット制御部101は、上記した表1のリストを保持している。 [0051] Further, for performing similar to robot 3 operation, the electronic pet control unit 101 holds a list of Table 1 described above. ステップS63において、内部イベントが発生したと判断された場合、ステップS64に進む。 In step S63, if the internal event is determined to have occurred, the process proceeds to step S64. ステップS64における処理は、基本的に、図7のステップS2の処理としてロボット3により行われる処理と同様であるが、電子ペット132は、ディスプレイ18上に表示されている仮想空間内でのペットなので、 Processing in step S64 is basically the same as the process performed by the robot 3 as processing of step S2 of FIG. 7, the electronic pet 132, the pet in the virtual space displayed on the display 18 ,
その表示が制御されることにより、内部イベントに対応する動作が実行される。 By the display is controlled, the operation corresponding to the internal event is executed.

【0052】一方、ステップS63において、内部イベントは発生していないと判断された場合、ステップS6 [0052] On the other hand, in step S63, if the internal event was determined to not occurred, step S6
5に進む。 Proceed to 5. ステップS65において、メニューボタン1 In step S65, the menu button 1
34が操作されたか否かが判断される。 34 whether has been operated or not. ステップS65 Step S65
において、メニューボタン134が操作されたと判断された場合、ステップS71(図16)に進む。 In the case where it is determined that the menu button 134 has been operated, the process proceeds to step S71 (FIG. 16). ステップS71において、メニューがディスプレイ18上に表示される。 In step S71, the menu is displayed on the display 18. 図19は、メニューが表示された際の、ディスプレイ18の表示例を示す図である。 19, when the menu is displayed, a diagram illustrating a display example of the display 18.

【0053】メニュー141は、電子ペット表示ウィンドウ131の隣、または重なる位置に表示される。 [0053] menu 141 is displayed next to the electronic pet display window 131 or overlap position,. メニュー141には、電子ペット132や、ロボット3に実行させたいコマンドが表示されているコマンド表示部1 The menu 141, the electronic pet 132 and a command display unit 1 a command to be executed in the robot 3 is displayed
43と、そのコマンド表示部143内のコマンドが選択され、その選択されたコマンドで決定する場合に操作される決定ボタン142が設けられている。 43, the command in the command display section 143 is selected, the determination button 142 is provided which is operated when determined by the selected command. また、コマンド表示部143の右側には、表示されきれていないコマンドを表示させる際に操作されるスクロールバーが設けられている。 On the right side of the command display unit 143, a scroll bar is provided which is operated when displaying a command that is not fully displayed.

【0054】ユーザは、例えば、電子ペット132に実行させたい動作が、後ろに進ませたい場合、カーソル1 [0054] If the user is, for example, that the operation to be executed in the electronic pet 132, you want to proceed to the back, the cursor 1
11を、コマンド表示部143内の”後退”というコマンドに合わせる。 11, match the command "retreat" in the command display unit 143. カーソル111が合わせられたコマンドは、文字が反転されて表示される。 Command the cursor 111 has been combined, the character is displayed inverted. ユーザは、その反転表示されているコマンドで良ければ、決定ボタン14 The user, if you are happy with the command that is the highlighted, the enter button 14
2を操作することにより、そのコマンドを電子ペット1 By manipulating the 2, the electronic pet 1 the command
32に対して指示することができる。 It can be instructed to 32.

【0055】ステップS71において、上述したようなメニュー141がディスプレイ18上に表示されたら、 [0055] In step S71, When the menu 141 as described above is displayed on the display 18,
ステップS72に進み、メニュー141内のコマンドが、上述したような処理により、選択されたか否かが判断される。 Proceeds to step S72, the command in the menu 141, the processing described above, whether the selection is determined. ステップS72において、コマンドが選択されたと判断された場合、ステップS73に進み、その選択されたコマンドに対応する動作が、電子ペット132 In step S72, the case where it is determined that the command has been selected, the process proceeds to step S73, the operation corresponding to the selected command, the electronic pet 132
により行われる。 It is carried out by. 上述したように、電子ペット132 As described above, the electronic pet 132
は、仮想区間内で飼育されている、ディスプレイ18上に表示されているペットなので、電子ペット制御部10 It is housed in the virtual section, because pets are displayed on the display 18, the electronic pet control unit 10
1は、選択されたコマンドに対応する動作を、電子ペット132がしているような表示がされるように、その表示を制御する。 1, an operation corresponding to the selected command, so that the display is as in the electronic pet 132, to control the display.

【0056】一方、ステップS72において、メニュー内のコマンドが選択されてはいないと判断された場合、 Meanwhile, in step S72, the case where it is determined that not been selected command in the menu,
ステップS74に進み、電子ペット制御部101は、音声コマンダ102よりテキストデータの転送を受けたか否かを判断する。 Proceeds to step S74, the electronic pet control unit 101 determines whether it has received a transfer of text data from the voice commander 102. 音声コマンダ102が起動されている状態においては、メニュー141から所望のコマンドを選択しても良いが、音声コマンダ102によりコマンドを入力しても良い。 In a state in which the voice commander 102 is started, it may be selected a desired command from the menu 141, but the voice commander 102 may input commands. 音声コマンダ102による指示の仕方(音声コマンダ12の動作)は、既に説明したので、 How instruction by voice commander 102 (operating in the voice commander 12), has already been described,
その説明は省略する。 And a description thereof will be omitted.

【0057】ステップS74において、電子ペット制御部101が、音声コマンダ102からテキストデータの転送を受けたと判断した場合、ステップS75に進み、 [0057] In step S74, the case where the electronic pet control unit 101 determines from the voice commander 102 that received the transfer of text data, the process proceeds to step S75, the
その転送されてきたテキストデータは、コマンドを構成するか否かを判断する。 Text data which has the transferred determines whether to configure the command. コマンドは、一部を上記した表1に示したリスト内にあるものであり、例えば、”後退”という意味を示すテキストデータである場合は、コマンドを構成すると判断されるが、”バック”という意味を示すテキストデータである場合は、コマンドを構成しないと判断される。 Command, which is a part in the list shown in Table 1 described above, for example, when a text data indicating the meaning of "retraction" is being determined to constitute a command, called "back" the meaning is text data showing a is determined not to constitute a command. 勿論、リストに無いテキストデータは、コマンドを構成しないと判断される。 Of course, there is no text data to the list, it is determined that does not constitute a command.

【0058】ステップS75において、転送されたテキストデータがコマンドを構成すると判断された場合、ステップS73に進み、既に上述したように、そのコマンドに対応する表示処理が行われ、ステップS72に戻り、それ以降の処理が繰り返される。 [0058] In step S75, the case where the transferred text data is determined to constitute the command, the process proceeds to step S73, as already described above, the display process is performed corresponding to the command, the process returns to step S72, the it the subsequent process is repeated. 一方、ステップS On the other hand, step S
75において、テキストデータは、コマンドを構成しないと判断された場合、ステップS73の処理を省略して、ステップS72に戻り、それ以降の処理が繰り返される。 In 75, the text data, if it is determined not to constitute a command, by omitting the processing in step S73, returns to step S72, and the subsequent processing is repeated.

【0059】一方、ステップS74において、電子ペット制御部101が、音声コマンド102からテキストデータの転送を受けていないと判断した場合、ステップS Meanwhile, in step S74, the case where the electronic pet control unit 101 determines that not received the transfer of text data from the voice command 102, step S
76に進み、蓋ボタン135が操作されたか否かを判断する。 It proceeds to 76 and determines whether lid button 135 has been operated. 蓋ボタン135が操作されたと判断された場合、 If it is determined that the lid button 135 is operated,
ステップS77に進み、電子ペット表示ウィンドウ13 The process proceeds to step S77, the electronic pet display window 13
1に、蓋を被せた表示を行う。 To 1, and the display was covered with a lid. 蓋が被せられた電子ペット表示ウィンドウ131の表示例を、図20に示す。 A display example of the electronic pet display window 131 the lid is placed over, shown in Figure 20. 図20に示した表示例においては、電子ペット表示ウィンドウ131に蓋151が被された為に、電子ペット13 In the display example shown in FIG. 20, in order to cover 151 Kabusare the electronic pet display window 131, the electronic pet 13
2が見えなくなっている。 2 is no longer visible.

【0060】このように、電子ペット132が見えなくなるように蓋151が被された場合、メニュー141から選択されるコマンドや、音声コマンダ102を用いて入力されるコマンドは、電子ペット132に対してではなく、ロボット3に対して出されるコマンドになる。 [0060] Thus, if the electronic pet 132 the lid 151 so that it no longer looked Kabusare, and commands to be selected from the menu 141, a command input using the voice commander 102, the electronic pet 132 rather, the commands issued to the robot 3. このような表示が行われることにより、ユーザは、視覚的に、いま、コマンドを出したら、電子ペット132に対してか、ロボット3に対してかを認識することができる。 By such display is performed, the user can visually, now, when issuing the command, whether the electronic pet 132 can recognize whether the robot 3.

【0061】ステップS77において、電子ペット表示ウィンドウ131に蓋151が被された状態になったら、ステップS81(図17)に進み、それ以降の処理が行われる。 [0061] In step S77, the When confirming the lid 151 to the electronic pet display window 131 is Kabusare, the process proceeds to step S81 (FIG. 17), and the subsequent processing is performed. 上述したように、蓋151が被された状態のときに出されるコマンドは、ロボット3に対してであり、蓋151が被されていない状態のときに出されるコマンドは、電子ペット132に対してであるということ以外は、基本的に同じであるので、ステップS81乃至S87(図17)の処理は、ステップS72乃至S78 As described above, commands issued in a state in which the lid 151 is Kabusare is in the robot 3, commands issued in a state that does not cover 151 is Kabusare, to the electronic pet 132 except that it is basically the same, the processing of steps S81 to S87 (FIG. 17), steps S72 to S78
(図16)の処理と同様であるので、その説明は省略する。 It is similar to the processing (FIG. 16), and a description thereof will be omitted.

【0062】ただし、ステップS82において行われる処理は、ロボット3に対して行われる処理であるので、 [0062] However, the processing performed in step S82, the since the processing performed on the robot 3,
コマンドに対応する音階コマンドが出力される。 Scale corresponding to a command command is output. 即ち、 In other words,
電子ペット制御部101は、蓋151が被されてる状態では、ロボット3の制御部として働き、ステップS81 Electronic pet control unit 101, in the state in which the lid 151 is Kabusare serves as a control unit of the robot 3, Step S81
において選択されたコマンド、又は、ステップS83, Selected command in, or step S83, the
S84の処理において出されたコマンドは、音階コマンドに変換されて、スピーカ22からロボット3に対して発せされる。 Command issued in the process of S84 is converted to the scale command is issued to the robot 3 from the speaker 22. コマンドを音階コマンドに変換する処理は、表1のリストに従って行われる。 Process of converting the command into scale command is carried out according to the list in Table 1.

【0063】このように、ユーザが、コマンドを出すという動作をした場合、蓋151が被さっているか、いないかにより、そのコマンドが出された(指示対象)が異なる。 [0063] Thus, the user, when the operation of issuing a command, or the lid 151 is overlaying, by or not, the command is issued (instruction target) is different. このようにすることにより、ユーザは、蓋151 By doing so, the user, the lid 151
が被さっているか否かを見ることにより、指示対象を認識できるばかりでなく、電子ペット132とロボット3 By looking at whether or not is overlaying, not only can recognize the instruction target, electronic pet 132 and the robot 3
に対して、同時にコマンドが出されるといった不都合を解消することができる。 Respect, it is possible to eliminate a disadvantage such command is issued at the same time.

【0064】図17のフローチャートの説明に戻り、ステップS85において、蓋ボタン135が操作されてはいないと判断された場合、ステップS87に進み、終了ボタン133が操作されたか否かが判断される。 [0064] Returning to the flowchart of FIG. 17, in step S85, the case where the cover button 135 is determined to not been operated, the process proceeds to step S87, whether the end button 133 is operated is determined. ステップS87において、終了ボタン133は操作されていないと判断された場合は、ステップS81に戻り、それ以降の処理が繰り返され、終了ボタン133が操作されたと判断された場合は、ステップS69(図15)に進む。 In step S87, if the end button 133 is judged not to be operated, the process returns to step S81, the subsequent processing is repeated, if it is determined that the end button 133 has been operated, step S69 (FIG. 15 proceed to).

【0065】また、ステップS65において、メニューボタン134が操作されてはいないと判断され、ステップS66において、蓋ボタン135が操作されてはいないと判断され、さらに、ステップS68において、終了ボタン133が操作されたと判断された場合と、ステップS76(図16)において、蓋ボタン135は操作されていないと判断され、ステップS78において、終了ボタン133が操作されたと判断された場合においても、ステップS69の処理に来る。 [0065] Further, in step S65, it is determined that the menu button 134 is not operated, in step S66, the lid button 135 is operated is determined not further in step S68, the end button 133 is operated and if it is determined to have been, in step S76 (FIG. 16), the cover button 135 is judged not to be operated, in step S78, even when it is determined that the end button 133 has been operated, the process of step S69 I come to.

【0066】ステップS69において、終了処理が実行される。 [0066] In the step S69, the end processing is executed. 終了処理としては、電子ペット表示ウィンドウ131と、メニュー141が閉じられる。 The termination processing, the electronic pet display window 131, the menu 141 is closed.

【0067】図15のステップS66において、電子ペット表示ウィンドウ131が表示された状態で、蓋ボタン135が操作されたと判断された場合、ステップS6 [0067] In step S66 of FIG. 15, in a state where the electronic pet display window 131 is displayed, if it is determined that the lid button 135 has been operated, step S6
7に進み、電子ペット表示ウィンドウ131に蓋151 Proceed to 7, the lid 151 to the electronic pet display window 131
が被された表示とされ、さらに、メニュー141が表示される。 It is a display that has Kabusare further displays a menu 141. メニュー141が表示されると、ステップS8 When the menu 141 is displayed, step S8
1に進み、それ以降の処理が実行される。 It proceeds to 1, and the subsequent processing is executed.

【0068】このように、メニュー141が表示されていない状態で、蓋ボタン135が操作された場合、蓋1 [0068] Thus, in a state that has not been displayed menu 141, when the lid button 135 is operated, the lid 1
51を被らせると共に、メニュー141を表示させるようにしても良いし、表示させなくても良い。 51 causes suffer, it may be displayed a menu 141 may not be displayed. 表示させない場合は、蓋ボタン135が操作されるとは別に、ユーザによりメニューボタン134の操作が必要となる。 If not displayed, the lid button 135 is operated separately, it is necessary to operation of the menu button 134 by the user. また、メニュー141が表示されなくても、音声コマンダ102により指示を出すことは可能なので、メニュー1 Moreover, even if it is not a menu 141, so possible to issue an instruction by voice commander 102, menu 1
41を常に表示させる必要もない。 Not even always necessary to display the 41.

【0069】上述した実施の形態においては、音声コマンダ102は、ユーザの指示により起動されるようにしたが、パーソナルコンピュータ1の電源がオンにされ、 [0069] In the embodiment described above, the voice commander 102 has been to be started by an instruction of the user, the power of the personal computer 1 is turned on,
所定のオペレーションシステムが起動される時に、音声コマンダ102も起動されるようにしても良い。 When a predetermined operating system is activated, the voice commander 102 may also be configured to be activated.

【0070】メニュー141に、電子ペット132およびロボット3の名前を設定するためのウィンドウを開く為のボタンを設けるようにしても良い。 [0070] in the menu 141, it may be provided with a button for opening the window for setting the name of the electronic pet 132 and the robot 3. そのようなボタンが設けられ、操作された場合、名前を設定する為のウィンドウが開かれ、ユーザは、電子ペット132とロボット3に対して、好きな名前を付けることができる。 Such a button is provided, when operated, the window for setting the name is opened, the user, the electronic pet 132 and the robot 3, it is possible to give a favorite name. この際、電子ペット132とロボット3に、同じ名前を付けられるようにしても良いし、異なる名前が付けられるようにしても良い。 At this time, the electronic pet 132 and the robot 3, may also be used with the same name, it may be be named differently. さらに、パーソナルコンピュータ1 In addition, the personal computer 1
を複数のユーザが共有して使う場合、ユーザ毎に異なる名前を付けることも可能である。 If you use multiple users to share, it is also possible to assign a different name for each user.

【0071】上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。 [0071] A series of processes described above can be executed by hardware, it may otherwise be executed by software. 一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、プログラム格納媒体からインストールされる。 When the series of processes is executed by software, a program constituting the software is installed into a computer embedded in dedicated hardware, or by installing various programs, you can execute various functions possible, for example, a general-purpose personal computer, by installing various programs.

【0072】コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図21に示すように磁気ディスク201(フロッピディスクを含む)、光磁気ディスク202(CD-ROM(Compact Disk-Read Only Memor [0072] installed on the computer, the program storage medium for storing a program that is executable by the computer (including a floppy disk) a magnetic disk 201 as shown in FIG. 21, a magneto-optical disk 202 (CD-ROM (Compact Disk-Read Only Memor
y),DVD(Digital Versatile Disk)を含む)、光磁気ディスク203(MD (Mini-Disk)を含む)、もしくは半導体メモリ204などよりなるパッケージメディア、 y), DVD (including Digital Versatile Disk)), magneto-optical disk 203 (MD (Mini-Disk)), or semiconductor memory 204 package medium such as,
または、プログラムが一時的若しくは永続的に格納されるROM12や記憶部17を構成するハードディスクなどにより構成される。 Or the program is configured of a hard disk constituting the ROM12 and the storage unit 17 to be stored temporarily or permanently. プログラム格納媒体へのプログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった有線または無線の通信媒体を利用して行われる。 The programs can be stored on the program storage medium into a program storage medium, a router if necessary, via an interface, such as a modem, using a local area network, the Internet, a wired or wireless communication medium such as digital satellite broadcasting line divide.

【0073】なお、本明細書において、媒体により提供されるプログラムを記述するステップは、記載された順序に従って、時系列的に行われる処理は勿論、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 [0073] In this specification, steps describing the program provided by the medium, according to the described order, chronological order, of course the processes performed, without being processed in a time series, parallel Alternatively but also the processing operations to be performed separately.

【0074】また、本明細書において、システムとは、 [0074] In the present specification, the system,
複数の装置により構成される装置全体を表すものである。 It is used to represent an entire apparatus composed of a plurality of devices.

【0075】 [0075]

【発明の効果】以上の如く、請求項1に記載の情報処理装置、請求項5に記載の情報処理方法、請求項6に記載のプログラム格納媒体によれば、入力されるコマンドが、仮想生命オブジェクトに対するものであるか、疑似生命オブジェクトに対するものであるかを切り換え、入力されたコマンドが、仮想生命オブジェクトに対するものである場合、コマンドに対応する仮想生命オブジェクトの表示を制御し、入力されたコマンドが、疑似生命オブジェクトに対するものである場合、コマンドに対応する信号を疑似生命オブジェクトに対して送信するようにしたので、仮想生命オブジェクトと疑似生命オブジェクトに、同一の操作で指示が出せ、もって使い勝手の良いユーザインタフェースが提供されることが可能となる。 As above, according to the present invention, an information processing apparatus according to claim 1, information processing method according to claim 5, according to the program storage medium of claim 6, the command input, virtual life or it is for an object, switched or is for pseudo-life object, the entered command and is for virtual living object controls the display of the virtual creature object corresponding to the command, the input command but if is for pseudo-life objects. Thus transmits a signal corresponding to the command to the pseudo-life objects, virtual life object and pseudo life objects, put out indicated by the same operation, with and usability it is possible to better user interface is provided.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明を適用した情報処理システムの一実施の形態の構成を示す図である。 1 is a diagram showing the configuration of an embodiment of an information processing system according to the present invention.

【図2】パーソナルコンピュータ1の内部構成を示す図である。 2 is a diagram showing the internal configuration of the personal computer 1.

【図3】パーソナルコンピュータ1の外観を示す図である。 3 is a diagram showing an appearance of the personal computer 1.

【図4】リモートコマンダ2の内部構成を示す図である。 4 is a diagram showing the internal configuration of the remote commander 2.

【図5】ロボット3の内部構成を示す図である。 5 is a diagram showing the internal configuration of the robot 3.

【図6】ROM62に記憶されているアプリケーションを説明する図である。 6 is a diagram illustrating an application stored in ROM 62.

【図7】ロボット3の制御動作を説明するフローチャートである。 7 is a flowchart illustrating a control operation of the robot 3.

【図8】内部イベント発生処理を説明するフローチャートである。 8 is a flowchart illustrating an internal event generation process.

【図9】リモートコマンダ2の動作を説明するフローチャートである。 9 is a flowchart for explaining the operation of the remote commander 2.

【図10】パーソナルコンピュータ1の機能を示すブロック図である。 10 is a block diagram showing the functions of the personal computer 1.

【図11】ディスプレイ18上の表示例を示す図である。 11 is a diagram showing a display example on the display 18.

【図12】音声コマンダ用UIが表示された状態を説明する図である。 12 is a diagram for explaining a state in which audio commander UI is displayed.

【図13】音声コマンダの処理を説明するフローチャートである。 13 is a flowchart for explaining the processing of the voice commander.

【図14】音声認識エンジンの処理を説明するフローチャートである。 14 is a flowchart for explaining the processing of the speech recognition engine.

【図15】電子ペット及びロボットの制御処理を説明するフローチャートである。 15 is a flowchart illustrating a control process of the electronic pet and the robot.

【図16】図15のフローチャートの続きを示すフローチャートである。 16 is a flowchart showing a continuation of the flowchart of FIG. 15.

【図17】図16のフローチャートの続きを示すフローチャートである。 17 is a flowchart showing a continuation of the flowchart of FIG. 16.

【図18】ディスプレイ18上の表示例を示す図である。 18 is a diagram showing a display example on the display 18.

【図19】ディスプレイ18上の表示例を示す図である。 19 is a diagram showing a display example on the display 18.

【図20】ディスプレイ18上の表示例を示す図である。 20 is a diagram showing a display example on the display 18.

【図21】媒体について説明する図である。 21 is a diagram for explaining media.

【符号の説明】 DESCRIPTION OF SYMBOLS

1 パーソナルコンピュータ, 2 リモートコマンダ, 3 ロボット,11 CPU, 12 ROM, 13 1 personal computer, 2 remote commander, 3 robots, 11 CPU, 12 ROM, 13
RAM, 14 入出力インタフェース, 15 キーボード, 16 マウス, 17 記憶部, 18 ディスプレイ,19 通信部, 20 マイクロホン, RAM, 14 input and output interface, 15 keyboard, 16 mouse, 17 storage unit, 18 display, 19 a communication unit, 20 microphone,
21 ビデオカメラ, 22 スピーカ, 23 ドライブ, 41 キー, 42 スピーカ, 68 マイクロホン, 69 スピーカ, 70 モータ, 71 21 video cameras, 22 speaker, 23 drive, 41 key, 42 a speaker, 68 a microphone, 69 a speaker, 70 a motor, 71
運動部, 81 ロボット制御部, 82 音階検出部, 101 電子ペット制御部, 102 音声コマンダ, 103 音声認識エンジン, 104 エンジン用認識単語・文法,111 カーソル, 121 音声コマンダ用UI, 131 電子ペット表示ウィンドウ, 132 電子ペット, 133 終了ボタン, Athletic, 81 robot controller, 82 scale detecting unit, 101 electronic pet control unit, 102 audio commander, 103 speech recognition engine, 104 engine for recognition word-grammar, 111 cursors, 121 UI voice commander, 131 electronic pet display window , 132 electronic pet, 133 end button,
134 メニューボタン, 135 蓋ボタン, 14 134 menu button, 135 lid button, 14
1 メニュー, 151 蓋 1 menu, 151 lid

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl. 7識別記号 FI テーマコート゛(参考) G06F 3/16 340 G06F 3/16 340Z G10L 15/00 G10L 3/00 551H (72)発明者 米倉 修二 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 藤村 聡 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 笹井 崇司 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 藤澤 直樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大井 純司 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 野間 恒毅 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 横尾 直 ────────────────────────────────────────────────── ─── of the front page continued (51) Int.Cl. 7 identification mark FI theme Court Bu (reference) G06F 3/16 340 G06F 3/16 340Z G10L 15/00 G10L 3/00 551H (72) inventor Shuji Yonekura Tokyo Shinagawa-ku Kita 6-chome No. 7 No. 35 Sony over within Co., Ltd. (72) inventor Satoshi Fujimura Tokyo, Shinagawa-ku, Kita 6-chome No. 7 No. 35 Sony over within Co., Ltd. (72) inventor Sasai Takashi Shinagawa Ward, Kita 6-chome No. 7 No. 35 Sony over within Co., Ltd. (72) inventor Naoki Fujisawa Tokyo, Shinagawa-ku, Kita 6-chome No. 7 No. 35 Sony over within Co., Ltd. (72) inventor Jun Tsukasa Shinagawa-ku, Tokyo Oi North Shinagawa 6-chome No. 7 No. 35 Sony over within Co., Ltd. (72) inventor Noma HisashiAtsushi Shinagawa-ku, Tokyo Kita 6-chome No. 7 No. 35 Sony over within Co., Ltd. (72) inventor Tadashi Yokoo 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 後藤 太 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 AA14 BA06 CA02 DA05 DA23 DK02 EF29 3F059 AA00 BB06 BC06 DA08 DB02 DD08 DD11 DD18 FA03 FC14 5D015 AA06 KK01 LL05 5E501 AA02 AA17 AC15 AC16 BA02 BA05 CA02 CA08 CB02 CB09 CB15 CC02 EA05 EA11 EA21 EB01 FA04 FA05 FA13 FA14 FA32 FB28 Shinagawa-ku, Tokyo Kita 6-chome No. 7 No. 35 Sony over within Co., Ltd. (72) inventor Futoshi Goto, Shinagawa-ku, Tokyo Kita 6-chome No. 7 No. 35 Sony over Co., Ltd. in the F-term (reference) 2C150 AA14 BA06 CA02 DA05 DA23 DK02 EF29 3F059 AA00 BB06 BC06 DA08 DB02 DD08 DD11 DD18 FA03 FC14 5D015 AA06 KK01 LL05 5E501 AA02 AA17 AC15 AC16 BA02 BA05 CA02 CA08 CB02 CB09 CB15 CC02 EA05 EA11 EA21 EB01 FA04 FA05 FA13 FA14 FA32 FB28

Claims (6)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 仮想空間において飼育される仮想生命オブジェクトに対して、または、現実空間において飼育される疑似生命オブジェクトに対して、所定の動作をさせるコマンドを入力する入力手段と、 前記入力手段により入力されるコマンドが、前記仮想生命オブジェクトに対するものであるか、前記疑似生命オブジェクトに対するものであるかを切り換える切り換え手段と、 前記入力手段により入力された前記コマンドが、前記仮想生命オブジェクトに対するものである場合、前記コマンドに対応する前記仮想生命オブジェクトの表示を制御する表示制御手段と、 前記入力手段により入力された前記コマンドが、前記疑似生命オブジェクトに対するものである場合、前記コマンドに対応する信号を前記疑似生命オブジェクトに対して送信 Respect 1. A virtual living object to be housed in the virtual space, or, with respect to pseudo-life objects that are housed in the real space, an input means for inputting a command to a predetermined operation by said input means command to be input, the or is for virtual living object, a switching means for switching at either directed against the pseudo life object, said command inputted by said input means, is for the virtual creature object If a display control means for controlling the display of the virtual creature object corresponding to said command, said command inputted by said input means, when is for the pseudo life object, a signal corresponding to said command the sent to the pseudo-life objects する送信手段とを含むことを特徴とする情報処理装置。 The information processing apparatus characterized by comprising a transmitting means for.
  2. 【請求項2】 前記入力手段は、音声信号で前記コマンドを入力することを特徴とする請求項1に記載の情報処理装置。 Wherein said input means, information processing apparatus according to claim 1, characterized in that inputting the command voice signal.
  3. 【請求項3】 前記送信手段により送信される前記信号は、音階信号であることを特徴とする請求項1に記載の情報処理装置。 The signal transmitted by wherein the transmitting means, the information processing apparatus according to claim 1, characterized in that the scale signal.
  4. 【請求項4】 前記仮想生命オブジェクトおよび前記疑似生命オブジェクトの名称は、ユーザにより付けられることを特徴とする請求項1に記載の情報処理装置。 Wherein the name of the virtual living object and the pseudo life objects, an information processing apparatus according to claim 1, characterized in that it is applied by the user.
  5. 【請求項5】 仮想空間において飼育される仮想生命オブジェクトに対して、または、現実空間において飼育される疑似生命オブジェクトに対して、所定の動作をさせるコマンドを入力する入力ステップと、 前記入力ステップの処理で入力されるコマンドが、前記仮想生命オブジェクトに対するものであるか、前記疑似生命オブジェクトに対するものであるかを切り換える切り換えステップと、 前記入力ステップの処理で入力された前記コマンドが、 Relative 5. A virtual living object to be housed in the virtual space, or, with respect to pseudo-life objects that are housed in the real space, an input step of inputting a command to a predetermined operation, the input step command input in the process, or is for the virtual living object, a switching step of switching what is for the pseudo life object, said command input in the processing of said input step,
    前記仮想生命オブジェクトに対するものである場合、前記コマンドに対応する前記仮想生命オブジェクトの表示を制御する表示制御ステップと、 前記入力ステップの処理で入力された前記コマンドが、 The case is for virtual living object, and a display control step for controlling the display of the virtual creature object corresponding to said command, said command input in the processing of said input step,
    前記疑似生命オブジェクトに対するものである場合、前記コマンドに対応する信号を前記疑似生命オブジェクトに対して送信する送信ステップとを含むことを特徴とする情報処理方法。 If it is for the pseudo life object, an information processing method characterized by comprising a transmission step of transmitting a signal corresponding to the command to the pseudo life objects.
  6. 【請求項6】 仮想空間において飼育される仮想生命オブジェクトに対して、または、現実空間において飼育される疑似生命オブジェクトに対して、所定の動作をさせるコマンドを入力する入力ステップと、 前記入力ステップの処理で入力されるコマンドが、前記仮想生命オブジェクトに対するものであるか、前記疑似生命オブジェクトに対するものであるかを切り換える切り換えステップと、 前記入力ステップの処理で入力された前記コマンドが、 Against 6. virtual living object to be housed in the virtual space, or, with respect to pseudo-life objects that are housed in the real space, an input step of inputting a command to a predetermined operation, the input step command input in the process, or is for the virtual living object, a switching step of switching what is for the pseudo life object, said command input in the processing of said input step,
    前記仮想生命オブジェクトに対するものである場合、前記コマンドに対応する前記仮想生命オブジェクトの表示を制御する表示制御ステップと、 前記入力ステップの処理で入力された前記コマンドが、 The case is for virtual living object, and a display control step for controlling the display of the virtual creature object corresponding to said command, said command input in the processing of said input step,
    前記疑似生命オブジェクトに対するものである場合、前記コマンドに対応する信号を前記疑似生命オブジェクトに対して送信する際の制御を行う送信制御ステップとからなることを特徴とするプログラムを情報処理装置に実行させるプログラム格納媒体。 If the is for pseudo-life objects, to execute a program characterized by comprising a transmission control step for controlling the time of transmitting a signal corresponding to the command to the pseudo life object in the information processing apparatus program storage medium.
JP24956899A 1999-09-03 1999-09-03 Device and method for information processing and program storing medium Withdrawn JP2001071289A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24956899A JP2001071289A (en) 1999-09-03 1999-09-03 Device and method for information processing and program storing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24956899A JP2001071289A (en) 1999-09-03 1999-09-03 Device and method for information processing and program storing medium

Publications (1)

Publication Number Publication Date
JP2001071289A true true JP2001071289A (en) 2001-03-21

Family

ID=17194947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24956899A Withdrawn JP2001071289A (en) 1999-09-03 1999-09-03 Device and method for information processing and program storing medium

Country Status (1)

Country Link
JP (1) JP2001071289A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015122084A (en) * 2009-02-20 2015-07-02 ボイスボックス テクノロジーズ,インク.Voicebox Technologies,Inc. System and method for processing multi-modal device interactions in natural language voice services environment
CN104820405A (en) * 2015-04-28 2015-08-05 深圳市大疆创新科技有限公司 Information device and robot using same
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US9406078B2 (en) 2007-02-06 2016-08-02 Voicebox Technologies Corporation System and method for delivering targeted advertisements and/or providing natural language processing based on advertisements
US9620113B2 (en) 2007-12-11 2017-04-11 Voicebox Technologies Corporation System and method for providing a natural language voice user interface
US9626703B2 (en) 2014-09-16 2017-04-18 Voicebox Technologies Corporation Voice commerce
WO2017068559A1 (en) * 2015-10-23 2017-04-27 シャープ株式会社 Robot and program
US9747896B2 (en) 2014-10-15 2017-08-29 Voicebox Technologies Corporation System and method for providing follow-up responses to prior natural language inputs of a user
US9898459B2 (en) 2014-09-16 2018-02-20 Voicebox Technologies Corporation Integration of domain information into state transitions of a finite state transducer for natural language processing

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9406078B2 (en) 2007-02-06 2016-08-02 Voicebox Technologies Corporation System and method for delivering targeted advertisements and/or providing natural language processing based on advertisements
US9620113B2 (en) 2007-12-11 2017-04-11 Voicebox Technologies Corporation System and method for providing a natural language voice user interface
US9711143B2 (en) 2008-05-27 2017-07-18 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US10089984B2 (en) 2008-05-27 2018-10-02 Vb Assets, Llc System and method for an integrated, multi-modal, multi-device natural language voice services environment
US9953649B2 (en) 2009-02-20 2018-04-24 Voicebox Technologies Corporation System and method for processing multi-modal device interactions in a natural language voice services environment
US9570070B2 (en) 2009-02-20 2017-02-14 Voicebox Technologies Corporation System and method for processing multi-modal device interactions in a natural language voice services environment
JP2015122084A (en) * 2009-02-20 2015-07-02 ボイスボックス テクノロジーズ,インク.Voicebox Technologies,Inc. System and method for processing multi-modal device interactions in natural language voice services environment
US9898459B2 (en) 2014-09-16 2018-02-20 Voicebox Technologies Corporation Integration of domain information into state transitions of a finite state transducer for natural language processing
US9626703B2 (en) 2014-09-16 2017-04-18 Voicebox Technologies Corporation Voice commerce
US9747896B2 (en) 2014-10-15 2017-08-29 Voicebox Technologies Corporation System and method for providing follow-up responses to prior natural language inputs of a user
CN104820405A (en) * 2015-04-28 2015-08-05 深圳市大疆创新科技有限公司 Information device and robot using same
WO2017068559A1 (en) * 2015-10-23 2017-04-27 シャープ株式会社 Robot and program

Similar Documents

Publication Publication Date Title
US6727830B2 (en) Time based hardware button for application launch
US5818800A (en) Voice recording device having portable and local modes of operation
US7822507B2 (en) Input device and inputting method
US7665019B2 (en) Method for recording and replaying operations in a computer environment using initial conditions
US5801687A (en) Authoring tool comprising nested state machines for use in a computer system
US6718307B1 (en) Speech input device with attention span
US20120289290A1 (en) Transferring objects between application windows displayed on mobile terminal
US20100162176A1 (en) Reduced complexity user interface
US20060213754A1 (en) Method and system for computer application program task switching via a single hardware button
US6356867B1 (en) Script development systems and methods useful therefor
US20050104854A1 (en) Multi-mode computer pointer
US6424357B1 (en) Voice input system and method of using same
US20060092866A1 (en) Apparatus and method for processing information using wireless communication terminal
US20120110518A1 (en) Translation of directional input to gesture
US6499015B2 (en) Voice interaction method for a computer graphical user interface
US20140019905A1 (en) Method and apparatus for controlling application by handwriting image recognition
US20040225502A1 (en) Record button on a computer system
US7480619B1 (en) Integration manager and natural interaction processor
US7277947B1 (en) System and method for supporting ongoing activities and relocating the ongoing activities from one terminal to another terminal
JP2003233452A (en) Gesture command input device
JP2003157131A (en) Input method, display method, media information composite display method, input device, media information composite display device, input program, media information composite display program, and recording medium where those programs are recorded
JP2002120174A (en) Authoring system, authoring method and storage medium
JPH10222337A (en) Computer system
US20060117267A1 (en) System and method for property-based focus navigation in a user interface
CN101930282A (en) Mobile terminal and mobile terminal-based input method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107