WO2001058649A1 - Systeme robotique, dispositif robotise et procede de controle d'un tel systeme et dispositif et procede de traitement de donnees - Google Patents
Systeme robotique, dispositif robotise et procede de controle d'un tel systeme et dispositif et procede de traitement de donnees Download PDFInfo
- Publication number
- WO2001058649A1 WO2001058649A1 PCT/JP2001/001037 JP0101037W WO0158649A1 WO 2001058649 A1 WO2001058649 A1 WO 2001058649A1 JP 0101037 W JP0101037 W JP 0101037W WO 0158649 A1 WO0158649 A1 WO 0158649A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- robot
- information
- action
- control data
- behavior
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
Definitions
- Robot system Description Robot system, robot apparatus and control method thereof, and information processing apparatus and method
- the present invention relates to a robot system, a robot apparatus, a control method thereof, and an information processing apparatus and a method, and is preferably applied to, for example, a robot system for controlling expression behavior of a pet robot or customizing control data of a pet mouth bot. It is something. Background art
- Such a pet mouth pot has an appearance resembling a dog or a cat bred as a pet in an ordinary household, and acts autonomously in response to a command from a user or surrounding conditions.
- action is defined and used as one or a set of a series of actions. Therefore, some “actions” are composed of only one action, while others are composed of a series of actions.
- control data such as a control program and control parameters that define the behavior and operation of the pet robot can be freely customized according to the user's situation, living environment, or the behavior history of the pet robot itself. If possible, it is possible to construct a petropot that matches the situation of the user and the living environment, etc., and it is thought that the user's attachment to the pet robot can be improved by that amount, and the entertainment property of the pet robot can be improved. Disclosure of the invention
- the present invention has been made in view of the above points, and is intended to propose a robot system, a robot apparatus and a control method thereof, and an information processing apparatus and a method capable of improving the entertainment property of a pet robot. is there.
- a robot system is designed to exhibit an action corresponding to a robot based on information distributed by information distribution means.
- the robot can behave in response to the information distributed by the information distribution means, and thus a robot system that can improve the entertainability of the robot can be realized.
- the robot in the robot system, based on the information distributed by the information distributing means, the robot is prohibited from expressing the corresponding action among the actions that can be expressed, or prohibiting the robot from expressing the action. Canceled.
- this robot system it is possible to control the robot's expression behavior based on the information distributed from the information distribution means, and thus to realize a robot system that can improve the entertainability of the robot. .
- a recognition unit for recognizing predetermined information to be distributed and a management unit for managing the behavior expression of the robot device are provided, and the management unit is configured to perform the operation based on the recognition result by the recognition unit.
- actions were taken to respond to the information.
- the robot device counters the information distributed by the information distribution means.
- a recognition means for recognizing information to be distributed and a management means for managing the expression of the behavior of the robot apparatus are provided, and the management means is configured based on the information recognized by the recognition means.
- the robot device is prohibited from expressing the corresponding action among the actions that can be expressed, or the prohibition on the occurrence of the action is lifted. As a result, this robot device can control the expression behavior based on the information distributed from the information distribution means, and thus can realize a robot device capable of improving the entertainment.
- a first step of distributing predetermined information and a second step of causing the robot apparatus to perform a corresponding action based on the information are provided.
- the robot device can be caused to react in response to the information distributed by the information distributing means, and thus the robot device can improve the entertainability of the robot device.
- An apparatus control method can be realized.
- the first step of distributing the predetermined information and prohibiting the robot device from expressing the corresponding action among the actions that can be expressed by the robot device based on the information are prohibited.
- a second step to lift the prohibition on the manifestation of the action is possible.
- the control data for generating the action by the robot is corrected by the correction means for the robot and the user of the robot, and the control data corrected by the correction means A transmission means for transmitting to the robot is provided.
- FIG. 1 is a perspective view showing the configuration of the pet robot according to the present embodiment.
- FIG. 2 is a block diagram showing the internal configuration of the pet robot.
- FIG. 3 is a block diagram for explaining a process related to the action generation of the controller.
- FIG. 4 is a conceptual diagram for explaining a stochastic automaton.
- FIG. 5 is a block diagram showing a robot system according to the present embodiment.
- FIG. 6 is a block diagram showing a schematic configuration of the server.
- FIG. 7 is a schematic diagram for explaining the special code.
- FIG. 8 is a flowchart showing the procedure for controlling the expression behavior.
- FIG. 9 is a conceptual diagram serving to explain the content data database.
- FIG. 10 is a flowchart showing a data download procedure.
- FIG. 11 is a schematic diagram showing a GUI screen displayed on a display of a personal terminal.
- FIG. 12 is a schematic diagram showing a GUI screen displayed on the display of the personal terminal.
- FIG. 13 is a schematic diagram showing a GUI screen displayed on a display of a personal terminal.
- Figure 14 is a flowchart showing the procedure of purchase, customization, and registration contents change. You.
- FIG. 15 is a schematic diagram showing a GUI screen displayed on a display of a personal terminal.
- FIG. 16 is a schematic diagram showing a GUI screen displayed on the display of the personal terminal.
- FIG. 17 is a schematic diagram showing a GUI screen displayed on the display of the personal terminal.
- FIG. 18 is a flowchart showing the action history data registration procedure.
- FIG. 19 is a schematic diagram showing a GUI screen displayed on the display of the personal terminal.
- FIG. 20 is a flowchart showing a customization and download procedure.
- FIG. 21 is a schematic diagram showing a GUI screen displayed on a display of a personal terminal.
- FIG. 22 is a schematic diagram showing a GUI screen displayed on the display of the personal terminal.
- FIG. 23 is a flowchart showing a promotion processing procedure. BEST MODE FOR CARRYING OUT THE INVENTION
- reference numeral 1 denotes a pet robot as a whole according to the present embodiment, which has an external shape resembling a dog or a cat bred in a general household as a whole. That is, in the pet mouth pot 1, the leg units 3A to 3D are connected to the front, rear, left and right of the body unit 2, respectively, and the front and rear ends of the body unit 2 respectively. The head unit 4 and the tail unit 5 are connected to each other.
- a controller 10 for controlling the movement of the body, a battery 11 as a power source of the pet robot 1, and an internal sensor section 14 including a battery sensor 12 and a heat sensor 13 are housed therein.
- the head unit 4 also includes an external sensor consisting of a microphone 15 corresponding to the “ears” of the pet robot 1, a CCD (Charge Coupled Device) camera 16 corresponding to the “eyes”, and a touch sensor 17. A part 18 and a speaker 19 corresponding to a “mouth” are arranged at predetermined positions.
- an external sensor consisting of a microphone 15 corresponding to the “ears” of the pet robot 1, a CCD (Charge Coupled Device) camera 16 corresponding to the “eyes”, and a touch sensor 17.
- a part 18 and a speaker 19 corresponding to a “mouth” are arranged at predetermined positions.
- each leg butt 3A-3D, the connecting parts of each leg butt 3A-3D and the torso butt 2, the head unit 4 and the torso Actuators 20 ⁇ to 20 n each having a number of degrees of freedom are provided at the connection portion of the unit 2 and at the base of the tail 5A of the tail unit 5, respectively.
- the microphone 15 of the external sensor section 18 is used to give a command sound such as “walk”, “down” or “follow the pole” and various other sounds given as a musical scale by a user via a sound commander (not shown). And sends the obtained audio signal S 1 A to the controller 10. Further, the CCD camera 16 takes an image of the surroundings and sends out the obtained image signal S 1 B to the controller 10.
- the touch sensor 17 is provided on the upper part of the head unit 4 as clearly seen in FIG. 1, and detects a pressure received by a physical action such as “stroke” or “hit” from the user. The detection result is sent to the controller 10 as a pressure detection signal S 1 C.
- the battery sensor 12 of the internal sensor unit 14 detects the remaining energy of the battery 11 and sends the detection result to the controller 10 as the remaining battery 4 detection signal S2A.
- the heat sensor 13 detects the temperature inside the pet robot 1 and sends the detection result to the controller 10 as a temperature detection signal S 2 B.
- the controller 10 includes an audio signal S 1 A, an image signal S 1 B, a pressure detection signal S 1 C, etc. (hereinafter collectively referred to as an external information signal S 1) provided from the external sensor section 18, Battery level signal S 2 A and temperature Based on the degree detection signal S 2 B etc. (hereinafter collectively referred to as the internal information signal S 2), determine the external and internal states, whether or not there is a command from the user and whether or not there is any action from the user . '
- the controller 10 determines an action to be continued based on the result of the determination and control data previously stored in the memory 10A and including V control programs and various control parameters, and based on the determination result. by driving this by sending a drive signal S 4 i ⁇ S 4 n the required Akuchiyueta 2 0 i ⁇ 2 O n, or to shake the head Yunitto 4 above under the right and left, tail tail portion Yuyutto 5 5 A can be moved, and each leg unit 3A to 3D can be driven to walk.
- the controller 10 generates the audio signal S3 as necessary and gives it to the speed force 19 to output the audio based on the audio signal S3 to the outside, or the pet robot 1
- the LED Light Emitting Diode (not shown) arranged at the position of the "eye" of the item blinks in a predetermined pattern.
- the pet robot 1 is capable of acting autonomously in response to external and internal conditions, commands and actions from the user, and the like.
- a state recognition unit 30 for recognizing a state and an emotion based on a recognition result of the state recognition unit 30 are obtained.
- the emotions that determine the state of the instinct ⁇ The instinct model unit 31 and the recognition result of the state recognition unit 30 and the emotions ⁇
- the following actions based on the emotions held in the instinct model unit 31 and the state of the instinct An action determining unit 32 for determining, an action generating unit 33 for actually causing the pet robot 1 to express an action based on a determination result of the action determining unit 32, and a learning control unit 3 4 for controlling learning as described later.
- the state recognition unit 30 receives the external information signal S1 supplied from the external sensor unit 18 and the internal information signal S2 supplied from the internal sensor unit 14, and based on these inputs, is hit. Recognizes the specific external state and internal state, such as ⁇ stroke '', ⁇ pole detected '', ⁇ battery level is low '', ⁇ internal temperature is high '', etc., and recognizes the recognition result.
- the emotion is output as D1 to the instinct model unit 31 and the action determination unit 32.
- the emotion and instinct model unit 31 calculates the emotion of the pet pot 1 based on the recognition information D1 given from the state recognition unit 30 and the decision action information D3 given from the action decision unit 32 as described later. And determine the state of the instinct.
- the instinct model section 31 includes a total of six parameters that express the strength of each of the emotions “joy”, “sadness”, “surprise”, “fear”, “disgust”, and “anger”. It has an emotion model to hold, and an instinct model to hold a total of four parameters each representing the strength of each of “appetite”, “love desire”, “search desire”, and “exercise desire”.
- the emotion and instinct model unit 31 periodically responds to the emotion model and the instinct model based on the recognition information D 1 given from the state recognition unit 30 and the decision action information D 3 given from the action decision unit 32. Update the value of the information or desire parameter. In addition, when the value of any emotion or desire parameter exceeds a preset value for the emotion or desire as a result of such update processing, the emotion / instinct model unit 31 recognizes this. Emotion ⁇ Output to the action decision unit 32 as instinct information D 2.
- the action decision unit 32 stores the recognition information D1 given from the state recognition unit 30 and the emotion given from the emotion / instinct model unit 31.
- the instinct information D2 and the memory 1OA (FIG. 2) are stored in advance. The following action is determined based on the action model as the control parameter thus determined, and the determined result is output to the emotion / instinct model section 31 and the action generation section 33 as determined action information D3.
- the action determining unit 32 uses one node (state) NOD as shown in FIG. 4 as a method for determining the next action.
- NODE Same as NODE n or Any other node NODE.
- NODE Each node NODE transitions to NODE n .
- Arc connecting NO DE n An algorithm called a probabilistic automaton that is determined stochastically based on the transition probabilities P 1 to P n +1 set for each is used.
- each node NODE is used as an action model.
- ⁇ NOD En Other nodes per n NODE. It stores data of a table (hereinafter referred to as a state transition table) that describes the conditions for transitioning to NODE n , the transition destination for each condition, and the transition probability.
- the behavior determining unit 32 stores the memory 10 A when the recognition information D 1 is given from the state recognizing unit 30 or when the emotion / instinct information D 2 is given from the emotion / instinct model unit 31.
- the current node NODE stored in.
- the next action is determined stochastically using the state transition table of ⁇ NODE n , and the result of determination is sent to the emotion, instinct model section 31 and action generation section 33 as determined action information D3. I have.
- the action generation unit 33 includes motion data, which is a control parameter for each operation for causing the pet robot 1 to perform various operations, sound data, which is a control parameter for each sound for causing the pet robot to output various sounds,
- the memory 1 OA has action data, which is a control parameter for each action, for causing various actions consisting of a set of actions to be performed.
- the action determining section 32 When the action determining section 32 receives the determined action information D3, the action generating section 33 reads the corresponding motion data, sound data, or action data from the memory 10A, and reads the read motion data, sound data, or or to drive it by sending a drive signal S 4 1 to S 4 n the required Akuchiyueta 20 ⁇ 20 n (Fig. 2) based on the behavior data, the speaker 1 9 generates a sound signal S 3 (FIG. 2) Send to or blink the LED at the "eye" position. In this way, the action generation unit 33 causes the petropot 1 to execute the action determined by the action determination unit 32.
- the state recognition unit 30 detects the touch sensor 17 of the external information signal S 1 (see FIG. 2). ), The learning control unit 34 is notified of the fact that “stroke” or “hit” has been recognized based on the pressure detection signal S 1 C (FIG. 2).
- the learning control unit 3 4 based on the determined behavior information D 3 given from the action determining unit 3 2 stores a current ⁇ Pi past behavior of the pet robot 1. Then, when the recognition result indicating that the pet robot 1 has been "stroked" during the behavior of the pet robot 1 is given as the recognition information D1 from the state recognition unit 30, the learning control unit 34 determines this. Notify Part 32.
- the action determining unit 32 determines the corresponding node NODE NODEn of the action model stored in the memory 1 OA (the node NO 0 £ 1 at that time before the transition to ⁇ [00 £ 11 Node 1 ⁇ 00 £ 1 ⁇ 1 ⁇ 00 £ 11 ) transition probabilities corresponding to the currently occurring actions in the state transition table Is reduced by a predetermined amount, and each other corresponding transition probability P Pn in the state transition table is increased by an amount corresponding to the reduced amount.
- the learning control unit 34 Notify decision part 32.
- action determining unit 3 2 On the basis of this notification, corresponding to the previous node NODE i Noden a transition to a node nodeI NO DE n when the node NODE 1 ⁇ NODE n (the corresponding stored in the memory 1 OA
- the transition probability Pi Pn corresponding to the action occurring at that time in the state transition table is increased by a predetermined amount, and the other corresponding transition probabilities in the state transition table by the amount corresponding to the added amount are added. Decrease P i Pn + i, respectively.
- the transition probability P i to P n + i corresponding to the action is reduced when the user is “hit”, and the action becomes difficult to be expressed. Since the behavior is likely to be manifested by an increase in the transition probability Pi Pn corresponding to the robot, the behavior of the pet robot 1 is changed as if the real animal changes its behavior pattern by the owner's action. Behavior patterns Can be changed.
- the controller 10 can make the pet robot 1 act autonomously while changing (learning) the action pattern according to the action of the user.
- Fig. 5 shows the expression behavior control service that controls the expression behavior of Pet Robot 1 using television broadcasting, and the behavior generation control data (described later) for Pet Robot 1 to express new behavior.
- a customization service that customizes (corrects) the control data of the pet mouth pot 1 based on the user's personal information and living environment and / or the behavior history of the pet robot 1.
- 1 shows a robot system 40 made as described above.
- a broadcasting device (not shown) installed in the broadcasting station 41, the pet robot 1, a television receiver 42 installed in the user's home of the pet robot 1, and a personal device owned by the user It consists of personal terminals 43 A to 43 D, which are computers, and servers 45 installed by service providers 44.
- the personal terminals 43A to 43C are connected to the Internet provider 49 through a satellite communication line 46, a cable television line 47 or a telephone line 48, etc., and the Internet provider and the Internet. It is connected to the server 45 via 50 in order.
- the personal terminal 43D is directly connected to the server 45 through a general public line 51 such as a public telephone line. These personal terminals 43A to 43D can transmit and receive necessary data to and from the server 45 via the Internet 50 or the general public line 51, respectively.
- Each of the personal terminals 4 3 A to 4 3 D can be electrically connected to the slot 1 via a cable 52 or the like. It is designed to be able to relay communications between the controllers 10 (Fig. 2).
- the server 44 performs various processes when the service provider 44 provides services such as the above-described expression behavior control service, behavior generation control data providing service, and customization service.
- WWW World Wide Web
- GUI Graphic User Interface
- FIG. 7 shows the schematic configuration of 45.
- the server 45 includes a LAN (Local Area Network) card 60 having an interface circuit for the Internet 50 and an interface circuit for the general public line 51.
- a modem 61 as a CPU
- a CPU 62 for controlling the entire server 45 a memory 63 as a work memory of the CPU 62, and various programs and data for the server 45 to perform various processes as described below are recorded.
- a hard disk device 64 for recording necessary data is recorded.
- the CPU 62 transmits data and commands supplied from the personal terminals 43 A to 43 D accessed via the Internet 50 or the general public line 51 via the LAN card 60 or the modem 61.
- the data is taken into the CPU 62, and a predetermined process is executed based on the data or command and the program stored in the hard disk device 64.
- the CPU 62 based on the processing result, transmits screen data of various GUI screens, other data, programs, and commands, for example, via the LAN card 60 or the modem 61, as described below.
- the data is sent to terminals 43A to 43D.
- the robot system 40 broadcasts, for example, a black-and-white or color two-dimensional bar code as shown in FIG.
- the pet robot 1 can be made to perform an action corresponding to the special code on the spot.
- the broadcast station 41 transmits image data and / or audio of the special code 80 having a predetermined shape according to the expression behavior control procedure RT1 shown in FIG.
- the special code 80 is displayed at one corner of the display screen 81 of the television receiver 42 as shown in FIG. 7 by superimposing the data on the video data of the television program or television commercial and broadcasting the data, as shown in FIG.
- the command is emitted from the television receiver 42 (step SP 1).
- the controller 10 (FIG. 2) of the pet robot 1 converts the special code 80 into an image signal S 1 B (FIG. 2) from the CCD camera 16 (FIG. 2) and an audio signal from the microphone 15. If detected based on S 1 A, the shape and scale command of the special code 80 are recognized (step SP 2), and the code number associated with the shape and scale command is detected based on the recognition result (step SP 2). SP 3).
- the memory 10A of the pet robot 1 stores in advance each shape and scale command of a plurality of types of special codes 80 with unique code numbers (hereinafter referred to as special code numbers). ) And stored as a database (this database is referred to as a special code database hereinafter).
- each motion data, each sound data, and each action data as control data for the action generation described above for the action generation unit 33 in FIG.
- action generation control data D 10 are referred to as action generation control data D 10
- a content database 84 stored in the memory 10A.
- the corresponding actions and such expression possibility flag 83 is controlled for generating action has become impossible expression data D 1 0, the transition probability P 1 ⁇ P n + 1 corresponding to the behavior in behavior model (Fig. 4 ) Is set to ⁇ 0 '' in advance, and the expression possibility flag 83 is set to non-expression in advance, so that the transition probability Pi Pn is not assigned even by the above-mentioned ⁇ learning '', and as a result, expression is prohibited. Is what it is.
- the controller 10 of the pet mouth pot 1 sends a signal to the television receiver 42 based on the image signal S 1 B (FIG. 2) from the CCD camera 16 (FIG. 2) and the audio signal S 1 A from the microphone 15.
- the image signal S 1 B (FIG. 2) from the CCD camera 16 (FIG. 2)
- the audio signal S 1 A from the microphone 15.
- a special code 8 ⁇ displayed on (Fig. 5) or emitted from the television receiver 42 is detected, the shape and scale of the special code 80 are recognized, and the special code database is searched based on the recognition result. Then, the code number (special code number 82) of the special code is detected (step SP3).
- the controller 10 searches the content database 84 based on the detection result to detect the expression possibility flag 83 associated with the special code number 82, and the expression possibility flag 83 is expressed. It is determined whether or not it is possible (whether the expression availability flag 83 is set) or not (step SP4).
- the controller 10 reads the corresponding action generation control data D 10 from the content database 84, and based on the action generation control data D 10. Drive the required actuator SOS On (Fig. 2), generate the audio signal S3 (Fig. 2) and send it to the speaker 19 (Fig. 2), or at the position of the "eye”. Light the provided LED (step SP 6).
- the robot system 40 is displayed on the television receiver 42. Based on the special code 80 shown and / or emitted from the television receiver 42, a corresponding action can be expressed in the pet robot 1.
- step SP 4 the controller 10 of the Petrobot 1 changes the expression enable / disable flag 83 to enabled (the expression enable / disable flag 83 To stand).
- the controller 10 changes the transition probability P Pn corresponding to the action in the action model to a predetermined value from 0 [%] force, and the other transition probability Pi Pn corresponding to the parentheses. Is changed so as to decrease by a predetermined amount (step SP5).
- controller 1 0 reads control data D 1 0 for the corresponding behavioral raw formed from the content database 84, drives the necessary Akuchiyueta 20 i ⁇ 2 O n (FIG. 2) based on the behavior generation control data D 10 Or generates an audio signal S 3 (FIG. 2) and sends it to the speaker 19 (FIG. 2), or emits an LED provided at the position of the “eye” (step SP 6). ).
- the pet robot 1 can express this behavior thereafter.
- the robot system 40 based on the special code 80 displayed on the television receiver 42 or emitted from the television receiver 42, the corresponding expression whose expression has been prohibited until then is On the other hand, while the behavior is expressed, the pet mouth bot 1 can freely express this behavior.
- the action generation control data D 10 for the pet robot 1 to generate the action is stored in the memory 1. If it does not exist within 0 A, the action generation control data D 10 can be downloaded to the pet robot 1 according to the user's request according to the download processing procedure RT 2 shown in FIG. 10. It has been made.
- the robot system 40 for example, when providing the behavior generation control data D10 of a new behavior to a user, the robot system 40 operates in the same manner as step SP1 of the expression behavior control procedure RT1 (FIG. 7) described above.
- the special code 80 composed of a two-dimensional barcode or a scale command associated with this action is displayed on the display screen 81 of the television receiver 42 and / or the sound is emitted from the television receiver 42.
- the special code 80 is a spare special code that is not initially associated with any of the action generation control data D 10 stored in the memory 10 A of the pet robot 1. is there.
- the controller 10 of the pet robot 1 sends a signal to the television receiver 4 based on the image signal S 1 B (FIG. 2) from the CCD camera 16 (FIG. 2) and the audio signal S 1 A from the microphone 15.
- the special code 80 displayed on and / or output from the television receiver 42 is detected, the shape and scale of the special code 80 are recognized (step SP11), and the recognition result and the special The special code number 82 of the special code is searched based on the code database.
- the special code database has a plurality of types of such special special codes 80 that do not correspond to any of the action generation control data stored in the memory 10A at the initial stage. Is stored in association with the special code number 82.
- the special processing is performed by the search processing.
- the special code number 82 of code 80 is detected (step SP12).
- the special code number 82 is stored in a predetermined area of the memory 10A (hereinafter, referred to as a special code number storage area) under the control of the controller 10.
- a user who wants to download the behavior generation control data D10 of the new behavior described above to his or her own robot 1 can use the pet robot 1 with a personal terminal 4 3A using a Capenole 5 2 (FIG. 5) or the like. Connect to ⁇ 4 3D, then this personal terminal 4 3 A ⁇ Connect 43D to server 45 (step SPI 3).
- the GUI screen 90 as shown in FIG. 11 is displayed on the displays of the personal terminals 43A to 43D.
- a message such as "Connect the robot to the network. Are you sure?"
- the Yes button 91A and No button 91B are displayed at the initial stage.
- the CPU 62 of the server 45 obtains the special code number 82 from the pet robot 1 in this way, the CPU 62 diagnoses what action can be remembered based on the obtained special code number 82.
- the remembered behavior is a new behavior associated with the special code number 82 read from the memory 10A of the pet robot 1.
- the CPU 62 When the diagnostic process is completed, the CPU 62 will return a message based on the diagnostic process such as "The process has been completed. You can learn two new movements and three sounds. Do you want to preview?" And the No button 92 B is displayed on the GUI screen 90.
- this GUI screen 10 ⁇ is the action that the pet robot 1 can remember at this time.
- the 3D image image 101 of the pet robot 1 is a preview field on the left side of the screen. Displayed in 102.
- buttons 103 A to 103 C on which the names of actions that can remember unit 1 are described are displayed, and play buttons 104 A and stop buttons 104 B are displayed below them. .
- the user clicks a desired button 103 A to 103 C and then clicks a play button 104 A to display a corresponding motion in a three-dimensional image 100. 1 or output the corresponding sound from the speed of the personal terminal 4 3 A to 4 3 D.
- the stop button 104 B By clicking the stop button 104 B, the 3D image 1 The movement of 01 and the voice output from the personal terminals 43A to 43D can be stopped.
- the three-dimensional image 1001 is rotated correspondingly. It can be rotated in the direction (arrows al to a4), and the first to fourth rotation buttons 105 A to 105 D.
- Zoom-in button 106 A displayed on the right side of D or 106 A or zoom-art button 1 By pressing the 06B, the three-dimensional image 101 can be sequentially enlarged or reduced.
- the user can change the behavior of the pet robot. It is determined whether or not 1 is to be memorized. If it is not to be memorized, the user clicks on the NO button 107B at the lower right of the screen. As a result, in this case, the processing for the action generation control data providing service ends. On the other hand, if you want to remember the action, click the YES button 107 A at the lower right of the screen. As a result, in this case, a GUI screen 110 as shown in FIG. 13 is displayed on the displays of the personal terminals 43A to 43D.
- a message such as "Download data to the pet mouth pot. Are you sure?" And a Yes button 1 1A and a No button 1 1B are initially displayed. Is displayed. And then no button 1 1 1 Click B to end the process for the action generation control data providing service.
- the CPU 62 performs the action generation control of the action in which the pet mouth pot 1 can be remembered from the action generation control data D 10 of various actions (including new actions) stored in the hard disk device 64 in advance. Data D ⁇ 0 is found (step S ⁇ 15). Then, the CPU 62 causes the pet robot 1 to download the behavior generation control data D10 (step SP16).
- the controller 10 of the pet robot 1 obtains the action generation control data D10 in this manner, the controller 10 associates the action generation control data D10 with the corresponding special code number 82 and associates the content with the content.
- the expression enable / disable flag 83 corresponding to the special code number 82 in the content database 84 is set to enable the expression (step SP17).
- step SP 18 When such downloading is completed, the connection between the server 45 and the personal terminals 43 # to 43 D is terminated. Thereafter, according to the type of the action generation control data D 10 downloaded to the pet robot 1 at this time, The corresponding sponsor company or user is billed (step SP 18).
- the robot system 40 provides the user with the action generation control data D10, which is control data for generating a new action action, based on the action generation control data D10. It has been made possible to express the new behavior in the Tropot'1.
- the user transmits the control data of the pet robot 1 to his / her own situation (age, gender, occupation, language used, etc.) and living environment (user's room size, room floor material, etc.).
- the control data can be customized according to the situation and environment of the user after purchase, or the control data of the pet robot 1 can be customized according to the action history of the pet robot 1. It has been made possible to do so.
- the user who intends to receive such a customization service firstly follows the purchase, customization, and registration content change procedure RT3 shown in FIG.
- the image data and the voice data of the user's own voice obtained using the tape recorder or the like are stored in the personal terminals 43A to 43D (step SP20), and thereafter the personal terminal 43A ⁇ 43D is connected to the server 45 (step SP21).
- the image data and the audio data are data used when the pet robot 1 recognizes the user with images and voices.
- the control data of the pet robot 1 is customized as described later, the control data It is incorporated as part of that.
- GUI screens 120 as shown in FIG. 15 are displayed on the displays of the personal terminals 43A to 43D. Then, the user can use the GUI screen 120 to purchase new control data of the pet robot 1, customize the current control data of the pet robot 1, or use the registered information ( (User information and living environment information described later) can be selected.
- the registered information (User information and living environment information described later) can be selected.
- FIG. 16 (A) and FIG. 16 (B) The GUI screens 122A and 122B shown on the screen are displayed on the displays of the personal terminals 43A to 43D.
- the user can use the GUI screens 122A and 122B to obtain information about the user himself, such as age, gender, occupation, family structure, language used, and time of day (hereinafter referred to as user information).
- Information about the user's living environment such as the room environment of the user, the size of the room, the floor material, and the lighting style (hereinafter referred to as the living environment). (Referred to as information) can be sequentially input in the alternative method (step SP22).
- the personal terminals 43A to 43D are displayed as shown in Fig. 17 A GUI screen 130 will be displayed.
- Step SP 23 an image of the user's face based on the image data and a waveform of the user's voice based on the audio data are displayed in the face display field 13 1 A and the voice in the GUI screen 130. Displayed in the waveform display column 1 3 1 B.
- the user confirms that the face displayed in the face display field 13 A on the GUI screen 130 and the voice output through the speaker of the personal terminal 13 B are his own. After doing this, click the Yes button 1 3 3 A at the bottom of the screen if you like.
- the user information and living environment information entered using the GUI screens 122A and 122B shown in FIGS. 16A and 16B and the user's face uploaded to the server 45 are displayed. and the image data and the voice sound data is stored is a database based on the control of the CPU 6 2 servers' 4 5 in the hard disk device 6 4 (Sutetsu flop SP 2 4).
- control data of Petlot 1 is customized according to the customization and download procedure RT5 shown in FIG. It is sold to the user (step SP 25), which will be described later.
- the GUI screen 120 in FIG. 15 if the user wants to receive a service for customizing the current control data of the pet robot 1, the user clicks the second button 1 2 1 B.
- predetermined GUI screens are displayed on the displays of the personal terminals 43A to 43D. Then, the user inputs his / her user ID using this GUI screen (step SP26), and then selects a customization service.
- the image data of the user's face and the voice data of the voice stored in the personal terminals 43A to 43D are uploaded (step SP23), and the personal terminals 43A to 43D are uploaded.
- the GUI screen 130 shown in Fig. 17 is displayed on the display of ⁇ 43D and the user clicks on the Yes button 133A on this GUI screen 130, the image data and audio data are A database is created together with the registered user information and living environment information and stored in the hard disk drive 64 (step SP24).
- Step SP25 the control data of the pet robot 1 of the user is customized according to the customization and download procedure RT5 shown in FIG. (Step SP25) This will be described later.
- the third button 121 when the user information and living environment information of the user registered in advance are to be changed, the third button 121
- a GUI screen (not shown) for inputting the above-mentioned user ID is displayed on the displays of the personal terminals 43A to 43D. Then, the user inputs his / her user ID using this GUI screen (step SP26), and then selects to change the registered contents.
- the user information and living environment information registered for the user are displayed on the displays of the personal terminals 43A to 43D.
- the user After correcting the necessary parts of the displayed user information and living environment information
- Step SP27 click the end button in this screen.
- step SP24 the image data of the user's face and the audio data of the voice stored in the personal terminals 43A to 43D are uploaded (step SP24), and the personal terminal
- the GUI screen 130 shown in Fig. 17 is displayed on the display of the terminal 4 3 A to 4 3 D, and when the user clicks the Yes button 13 A on this GUI screen 13
- the data and voice data are stored in the hard disk device 64 as a database together with the user information and living environment information of the user registered in advance (step SP 24). Thereafter, the processing of the server 45 ends (step SP 28).
- the pet robot can calculate the average number of steps per day
- the action history data indicating the action history of the pet robot 1 such as the cumulative frequency of the number of times “hit” and “stroke” is stored in the memory 1OA.
- the action history data is sequentially updated according to the action of the pet robot 1. .
- various data relating to the pet robot 1 such as the serial number and the manufacturing date and time of the pet robot 1 are stored in advance.
- the data such as the serial number of the pet mouth bot 1 and the date and time of manufacture, and the action history data will be referred to as personal data.
- the pet robot 1 is connected to the server 45 via the personal terminals 43A to 43D in accordance with the action history data registration procedure RT4 shown in FIG.
- a GUI screen 140 as shown in FIG. 19 is displayed on the displays of the personal terminals 43A to 43D. And in this GUI screen 140, A message such as "Upload personal data. Are you sure?" And Yes button 14 1 A and No button 14 1 B are displayed.
- the hard disk device 64 of the server 45 stores detailed information such as personal data of each registered robot 1 in a database (hereinafter, referred to as a pet information database). ing.
- a pet information database a database
- the CPU 62 of the server 45 searches for the owner (user) of the pet robot 1 based on the personal data and the pet information database (step SP 3 2).
- the GUI screen 140 (Fig. 19) displays a message such as "Upload the action history data and register it on the server. Are you sure?" And a Yes button 1442A and No Buttons 1 4 2 B are displayed.
- the user clicks the Yes button 142A of the Yes button 142A and the No button 142B. To do.
- the action history data of the pet robot 1 uploaded as described above is stored under the control of the CPU 62 of the server 45 as image data of the face of the user of the pet robot 1 and voice data.
- a database is created in association with the voice data, user information and living environment information, and stored in the hard disk drive 64 (step SP33) o
- control data of the pet robot 1 is customized based on the image data of the user's face, voice voice data, user information and living environment information registered as described above, and the action history data of the pet robot 1.
- the procedure for downloading this to the robot 1 will be described.
- the user desiring such a service first connects his / her own slot 1 to the server 45 via the personal terminals 43A to 43D according to the customization and download procedure RT5 shown in FIG. Yes (step SP40).
- the GUI screen 15 ⁇ as shown in FIG. 21 is displayed on the displays of the personal terminals 43A to 43D. And on this GUI screen 150,
- a message such as "Upload personal data. Are you sure?" And the Yes button 15 1 A and No button 15 1 B are displayed.
- step SP41 If the user can upload the personal data of the pet robot 1 to the server 45, the user presses the Yes button 15A of the Yes button 15A and the No button 15B. The personal data held in the memory 10A of the pet port 1 is uploaded to the server 45 (step SP41).
- the CPU 62 of the server 45 searches the pet information database described above based on the uploaded personal data, and detects the owner (user) of the pet robot 1 (step). SP 42 2).
- a Yes button 15 2 A and a No button 15 2 B are displayed with a message such as "Start customization. Are you sure?"
- a GUI screen 160 as shown in FIG. 22 can be displayed on the displays of the personal terminals 43 A to 43 D.
- the GUI screen 160 is used to select the control data of the pet robot 1 according to the user's personality, the user's lifestyle, and the action history of the pet robot 1 according to the condition.
- the first to third buttons 16 1 A to 16 1 C are displayed corresponding to these three conditions, respectively.
- the GUI screen 160 displays the first and second buttons when the user purchases new control data of the pet robot 1 or when the action history data of the pet robot 1 is not registered in advance. Only 16 A and 16 IB are displayed, and the third button Tan 16 1 C is not displayed.
- the user can select desired conditions using the GUI screen 160.
- the first Click button 16 1 A (step SP43).
- the CPU 62 of the server 45 makes it easy for the user to express an action that would be preferred by the age, for example, according to the age of the user. Processing such as changing the behavior model or setting the language to be recognized in speech recognition to the language used by the user is performed (step SP44).
- the CPU 62 of the server 45 based on the living environment information of the user stored in the hard disk device 64, for example, when the user's room is small, sets the behavior model so that the robot 1 does not walk too much. Then, processing such as changing the control parameters or editing the corresponding control parameters so that the user walks according to the floor material in the room is performed (step SP45).
- the CPU 62 of the server 45 based on the action history data of the pet robot 1 stored in the hard disk drive 64, the CPU 62 of the server 45, for example, if the average number of steps per day of the pet robot 1 is small, the room If the pet robot is judged to be narrow, the behavior model is changed so that the pet mouth pot 1 does not walk too much, or if the cumulative frequency of the number of times “hit” and “stroke” is small, the pet robot 1 user is not interested in the robot 1 In order to make it easier for the pet robot 1 to respond when it is “hitted” or “stroked” (step SP46).
- the CPU 62 thereafter uses the control data obtained by such processing (step SP 46, step SP 47 or step SP 48) to finally execute software for down-loading to the petro pot 1. It is created (step SP47), and then downloaded to the pet robot 1 via the personal terminals 43A to 43D (step SP48).
- the CPU 62 thereafter performs a billing process such as debiting the fee for such a customization service from the user's account (step SP49), and thereafter ends this customization service.
- control data of the pet robot 1 can be customized and downloaded to the pet robot 1 based on the situation of the user, the living environment of the user, or the action history of the pet robot 1. It has been done.
- a function for performing a promotion (sales) for a user who has registered user information, living environment information, and the like is mounted on the server 45.
- the CPU 62 of the server 45 performs processing for the promotion according to the promotion processing procedure shown in FIG.
- step SP50 when the promotion condition is set or input (step SP50), the CPU 62 sets the user information, the living environment information, and the like for each registered user stored in the hard disk device 64.
- the action history data of the robot 1 is searched (step SP51), and a user who meets the condition is selected (step SP52).
- the CPU 62 sends out a direct mail (DM) to each of the users thus selected (step SP53).
- Server 4 in this way 5 is designed to promote a user who meets the set or entered promotion conditions.
- the special code 80 is television-broadcasted, and the pet robot 1 that sees or hears the special code expresses a corresponding action or a new action that has not been expressed before. Began to take action. Therefore, in the robot system 40, the pet robot 1 can exhibit an action according to a television program or a television commercial, or cause the pet robot 1 to exhibit a new action. Can be improved.
- the action associated with the television program or the commercial can be performed. It can be expressed.
- television programs such as animation or drama
- fixed sounds should be incorporated as various music (theme song, joy music, sad music) and other special sound effects according to the story.
- a behavior in which the user and the emotion are synchronized can be expressed.
- a special code 80 associated with the newly created action is broadcasted on a television, and the petropod 1 who has seen or heard the special code 80 has the code number (special code) of the special code 80.
- the code number 82) is stored, and the corresponding action generation control data D10 is downloaded from the server 45 to the pet robot 1 based on the special code number 82.
- the control data of the pet robot 1 can be customized based on the situation of the user, the living environment, or the action history of the pet robot 1, thereby improving the user's attachment to the robot 1. It can be done.
- the pet robot 1 can exhibit an action according to a television program or a television commercial or a new action, thereby improving the fun as an entertainment robot.
- a robot system capable of improving the entertainment property of the pet robot 1.
- the special robot 80 that broadcasts the special code 80 associated with the newly created action by television and sees or listens to the special code 80 corresponds to the special code number 8 of the special code 80. 2 is stored, and the corresponding action generation control data D10 can be downloaded from the server 45 to the petropot 1 based on the special code number 82.
- the action that appeals to the special code 80 with the pet mouth bot 1 to advertise the product it is possible to realize a robot system that can improve the entertaining property of the petro pot 1 .
- control data of the pet robot 1 can be customized based on the situation of the user, the living environment, or the action history of the pet robot 1, so that the attachment of the user to the pet robot 1 can be achieved. It is possible to realize a robot system that can improve the mind and thus improve the entertainability of the pet robot 1.
- the special code 80 including a two-dimensional barcode is applied as the specific light information to be displayed on the television receiver 42 during the expression behavior control service.
- the present invention is not limited to this, and as the form of the special code 80, various other forms can be widely applied. For example, in addition to a specific shape, a flash of a specific color or a specific wavelength can be widely applied.
- the specific light information may be inserted as in the above-described embodiment or in a television program image or a commercial image.
- the special code 80 composed of a musical scale command is applied as specific sound information to be emitted from the television receiver 42 during the manifestation action control service.
- the present invention is not limited to this, and as the form of the special code 80, various other forms can be widely applied.
- specific music, voice that cannot be heard by a person or voice of a specific person All sounds, such as sounds of a specific wavelength such as, or words (including fixed words such as "good morning robot” and "good night robot") can be widely applied.
- specific sound information may be inserted as in the above-described embodiment or in a television program image or a commercial image.
- a scale command is used as specific sound information, it can be used in either an absolute scale or a relative scale based on the first sound.
- control data D10 itself may be transmitted.
- the broadcasting device and the television in the broadcasting station 41 serve as information distribution means for distributing special light and / or sound information (in the present embodiment, the special code 80) at the time of the expression behavior control service.
- the television receiver 42 is applied (information such as the special code 80 is distributed using television broadcasting), the present invention is not limited to this.
- Distribute the special code 80 using a network such as the Internet or the Internet, or a portable (removable) recording medium such as a magnetic tape or CD (Compact Disc). You may do it.
- a server 45 as a storage means for storing the action generation control data D 10 during the expression action control service is constructed as shown in FIG.
- the present invention is not limited to this, and various other configurations can be widely applied.
- the controller 10 inside the pet robot 1 is applied as a management means for managing the expression of the behavior of the pet robot 1, but the present invention is not limited to this.
- the management means may be provided separately from the pet robot 1.
- the management unit that manages the expression behavior of the pet robot 1 and the recognition unit that recognizes the predetermined information to be distributed are configured by the same controller 10.
- the present invention is not limited to this, and these may be provided separately.
- the expression behavior control service is controlled only so that the behavior of the pet robot 1 whose expression has been prohibited until then can be expressed, but the present invention is not limited to this.
- the present invention is not limited to this.
- the pet robot 1 may be configured to prohibit the expression of the behavior that can be expressed until then.
- the behavior generation control data D 10 is downloaded to the pet robot 1 at the time of the behavior generation control data provision service, but the present invention is not limited to this.
- the pet mouth pot 1 is constructed so that the action generation control data D 10 is stored and held in an external memory, and the action generation control data D 10 provided from the server 45 is replaced by a pet robot.
- the information may be taken out from 1 and downloaded to the external memory loaded in the personal terminals 43A to 43D.
- the behavior generation control data D 10 is downloaded to the pet robot 1 at the time of the behavior generation control data provision service, but the present invention is not limited to this.
- a service provider 4 4 is required
- the action generation control data D10 may be recorded on a recording medium and provided to the user by mail or the like.
- the pet robot 1 is configured to move by loading a memory or the like in which various control data is stored, the memory or the like is naturally included in the recording medium.
- the transmission means for transmitting the control data corrected by the above to the robot is configured by the same one server 45, the present invention is not limited to this.
- control data of the pet robot 1 is modified according to the user's situation or living environment or the behavior history of the pet robot 1 during the customization service has been described.
- the present invention is not limited to this, and the control data may be modified according to other conditions.
- the present invention is applicable to personal terminals such as pet robots, mouth pots of other toys, servers, personal computers, and the like.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Robotics (AREA)
- Manipulator (AREA)
- Toys (AREA)
Description
明 細 書 ロボットシステム、 ロボット装置及びその制御方法、 並びに情報処理装置及び方 法 技術分野
本発明はロボットシステム、 ロボット装置及ぴその制御方法、 並びに情報処理 装置及ぴ方法に関し、 例えばぺットロボットの発現行動を制御したり、 ペット口 ボットの制御データをカスタマイズするロボットシステムに適用して好適なもの である。 背景技術
近年、 本願特許出願人により 4足歩行型のペットロボットが開発され、 商品化 されている。 かかるペット口ポットは、 一般家庭でペットとして飼育される犬や 猫に似せた外観形状を有しユーザからの指令や周囲の状況などに応じて自律的に 行動するものである。
なお以下においては、 「行動」 を、 1又は一連の複数の動作の集合と定義して 用いるものとする。 従って 「行動」 の中には、 1つの動作だけにより構成される ものと、 一連の複数の動作により構成されるものとがある。
ところでかかるぺ少トロボットにおいて、 例えばテレビジョン番組やテレビジ ョンコマーシャルに影響を受けて行動するかのごとく、 テレビジョン番組ゃテレ ビジョンコマーシャル又は特定の音に反応して行動 (例えば歌に合わせてダンス するなど) したり、 その後それまで発現しなかった行動を発現するようになった りさせることができれば、 エンタテイメントロボットとしての面白みを向上させ て、 そのェンタティメント性を向上させ得るものと考えられる。
またこのようにすることができれば、 かかる機能を利用して、 テレビジョンコ マーシャルを見たり、 その音を聞いたぺットロポットにその商品宣伝を行わせる
ようなこともでき、 その有効性を向上させ得るものと考えられる。
さらに例えばかかるぺットロボットの行動や動作を規定する制御プログラム及 ぴ制御パラメータ等の制御データを、 ユーザの状況や、 生活環境又はぺットロボ ット自身の行動履歴等に応じて自在にカスタマイズすることができれば、 ユーザ の状況及ぴ生活環境等にマッチングしたぺットロポットを構築でき、 その分ぺッ トロボットに対するユーザの愛着心を向上させて、 ぺットロボットのェンタティ メント性を向上させ得るものと考えられる。 発明の開示
本発明は以上の点を考慮してなされたもので、 ぺットロボットのェンタティメ ント性を向上させ得るロボットシステム、 ロボット装置及びその制御方法、 並び に情報処理装置及ぴ方法を提案しようとするものである。
かかる課題を解決するため本発明においては、 ロボットシステムにおいて、 情 報配信手段により配信された情報に基づいて、 ロボットに対応する行動を発現さ せるようにした。 この結果このロボットシステムでは、 情報配信手段により配信 された情報に反応させてロボットを行動させることができ、 かくしてロボットの ェンタティンメイント性を向上させ得るロボットシステムを実現できる。
また本発明においては、 ロボットシステムにおいて、 情報配信手段により配信 された情報に基づいて、 ロボットが発現可能な行動のうちの対応する行動を発現 するのを禁止し、 又は当該行動の発現の禁止を解除するようにした。 この結果こ のロボットシステムでは、 情報配信手段から配信される情報に基づいて、 ロボッ トの発現行動を制御することができ、 かくしてロボットのェンタティンメイント 性を向上させ得るロボットシステムを実現できる。
さらに本発明においては、 口ポット装置において、 配信される所定情報を認識 する認識手段と、 ロボット装置の行動発現を管理する管理手段とを設け、 管理手 段が、 認識手段による認識結果に基づいて、 情報に応じた行動を発現させるよう にした。 この結果このロボット装置は、 情報配信手段により配信された情報に反
応して行動することができ、 かくしてェンタティンメイント性を向上させ得る口 ポット装置を実現できる。
さらに本発明においては、 ロボット装置において、 配信される情報を認識する 認識手段と、 ロボット装置の行動の発現を管理する管理手段とを設け、 管理手段 が、 認識手段により認識された情報に基づいて、 ロボット装置が発現可能な行動 のうちの対応する行動を発現するのを禁止し、 又は当該行動の発現の禁止を解除 するようにした。 この結果このロボット装置は、 情報配信手段から配信される情 報に基づいて、 発現行動を制御することができ、 かくしてェンタティンメイント を向上させ得るロボ.ット装置を実現できる。
さらに本発明においては、 ロボット装置の制御方法において、 所定情報を配信 する第 1のステップと、 当該情報に基づいて、 対応する行動をロボット装置に発 現させる第 2のステップとを設けるようにした。 この結果このロボット装置の制 御方法によれば、 情報配信手段により配信された情報に反応させてロボット装置 を行動させることができ、 かくしてロボット装置のェンタティンメイント性を向 上させ得るロボット装置の制御方法を実現できる。
さらに本発明においては、 ロボット装置の制御方法において、 所定情報を配信 する第 1のステップと、 当該情報に基づいて、 ロボット装置が発現可能な行動の うちの対応する行動を発現するのを禁止し、 又は当該行動の発現の禁止を解除す る第 2のステップとを設けるようにした。 この結果このロボット装置の制御方法 によれば、 情報配信手段から配信される情報に基づいてロボット装置の発現行動 を制御することができ、 かくしてロポット装置のェンタティンメイント性を向上 させ得る口ポット装置の制御方法を実現できる。
さらに本発明においては、 情報処理装置において、 ロボットが行動を生成する ための制御データを、 ロボット及ぴ又は当該ロボットのユーザに合わせて修正す る修正手段と、 修正手段により修正された制御データをロボットに送信する送信 手段とを設けるようにした。 この結果この情報処理装置によれば、 ロボットの行 動を自在に変更することができ、 かくしてロポットのェンタティンメイント性を
向上させ得る情報処理装置を実現できる。
さらに本発明においては、 情報処理方法において、 ロボットが行動を生成する ための制御データを、 ロボット及び又は当該ロボットのユーザに合わせて修正す る第 1のステップと、 修正手段により修正された制御データをロポットに送信す る第 2のステップとを設けるようにした。 この結果この情報処理方法によれば、 ロボットの行動を自在に変更することができ、 かくしてロボットのェンタティン メイント性を向上させ得る情報処理方法を実現できる。 図面の簡単な説明
図 1は、 本実施の形態によるぺットロボットの構成を示す斜視図である。 図 2は、 ぺットロボットの内部構成を示すプロック図である。
図 3は、 コントローラの行動生成に関する処理の説明に供するブロック図であ る。
図 4は、 確率オートマトンの説明に供する概念図である。
図 5は、 本実施の形態によるロボットシステムを示すブロック図である。 図 6は、 サーバの概略構成を示すブロック図である。
図 7は、 特殊コードの説明に供する略線図である。
図 8は、 発現行動制御手順を示すフローチャートである。
図 9は、 コンテンツデータデータベースの説明に供する概念図である。
図 1 0は、 データダウンロード手順を示すフローチャートである。
図 1 1は、 個人端末のディスプレイに表示される G U I画面を示す略線図であ る。
図 1 2は、 個人端末のディスプレイに表示される G U I画面を示す略線図であ る。
図 1 3は、 個人端末のディスプレイに表示される G U I画面を示す略線図であ る。
図 1 4は、 購入■カスタマイズ ·登録内容変更手順を示すフローチャートであ
る。
図 1 5は、 個人端末のディスプレイに表示される G U I画面を示す略線図であ る。
図 1 6は、 個人端末のディスプレイに表示される G U I画面を示す略線図であ る。
図 1 7は、 個人端末のディスプレイに表示される G U I画面を示す略線図であ る。
図 1 8は、 行動履歴データ登録手順を示すフローチャートである。
図 1 9は、 個人端末のディスプレイに表示される G U I画面を示す略線図であ る。
図 2 0は、 カスタマイズ及びダウンロード手順を示すフローチャートである。 図 2 1は、 個人端末のディスプレイに表示される G U I画面を示す略線図であ る。
図 2 2は、 個人端末のディスプレイに表示される G U I画面を示す略線図であ る。
図 2 3は、 プロモーション処理手順を示すフローチャートである。 発明を実施するための最良の形態
以下図面について、 本発明の一実施の形態を詳述する。
( 1 ) ペットロボット 1の構成
( 1一 1 ) ペットロボット 1の概略構成
図 1において、 1は全体として本実施の形態によるペットロボットを示し、 全 体として一般家庭で飼育される犬や猫に似せた外部形状を有している。 すなわち ペット口ポット 1においては、 胴体部ュニット 2の前後左右にそれぞれ脚部ュニ ット 3 A〜 3 Dが連結されると共に、 胴体部ュエツト 2の前端部及ぴ後端部にそ れぞれ頭部ュ-ット 4及ぴ尻尾部ュニット 5が連結されて構成されている。 この場合胴体部ユニット 2には、 図 2に示すように、 このペットロボット 1全
体の動作を制御するコントローラ 1 0と、 このぺットロボット 1の動力源として のバッテリ 1 1と、 バッテリセンサ 1 2及び熱センサ 1 3からなる内部センサ部 1 4とが収納されている。
また頭部ユニット 4には、 このペットロボット 1の 「耳」 に相当するマイクロ ホン 1 5、 「目」 に相当する CCD (Ch a r g e Co u l e d D e v i c e) カメラ 1 6及びタツチセンサ 1 7からなる外部センサ部 1 8と、 「口 」 に相当するスピーカ 1 9となどがそれぞれ所定位置に配置されている。
さらに各脚部ュュット 3 A〜3 Dの膝関節部分や、 各脚部ュ-ット 3 A〜3 D 及ぴ胴体部ュ-ット 2の各連結部分、 頭部ュニット 4及ぴ胴体部ュニット 2の連 結部分、 並びに尻尾部ユニット 5における尻尾 5 Aの根元部分などには、 それぞ れ自由度数分のァクチユエータ 20丄〜 20 nが配設されている。
そして外部センサ部 1 8のマイクロホン 1 5は、 ユーザから図示しないサゥン ドコマンダを介して音階として与えられる 「歩け」 、 「伏せ」 又は 「ポールを追 いかけろ」 などの指令音や他の種々の音を集音し、 得られた音声信号 S 1 Aをコ ントローラ 1 0に送出する。 また CCDカメラ 1 6は、 周囲を撮像し、 得られた 画像信号 S 1 Bをコントローラ 1 0に送出する。
さらにタツチセンサ 1 7は、 図 1において明らかなように、 頭部ユニット 4の 上部に設けられており、 ユーザからの 「撫でる」 や 「叩く」 といった物理的な働 きかけにより受けた圧力を検出し、 検出結果を圧力検出信号 S 1 Cとしてコント ローラ 1 0に送出する。
また内部センサ部 14のパッテリセンサ 1 2は、 バッテリ 1 1のエネルギー残 量を検出し、 検出結果をバッテリ残 4検出信号 S 2Aとしてコントローラ 1 0に 送出する。 また熱センサ 1 3は、 ペットロボット 1内部の温度を検出し、 検出結 果を温度検出信号 S 2 Bとしてコントローラ 1 0に送出する。
コントローラ 1 0は、 外部センサ部 1 8から与えられる音声信号 S 1 A、 画像 信号 S 1 B及び圧力検出信号 S 1 C等 (以下、 これらをまとめて外部情報信号 S 1と呼ぶ) と、 内部センサ部 14から与えられるバッテリ残量信号 S 2 A及び温
度検出信号 S 2 B等 (以下、 これらをまとめて内部情報信号 S 2と呼ぶ) とに基 づいて、 外部及ぴ内部の状態や、 ユーザからの指令及ぴ働きかけの有無などを判 断する。 '
そしてコントローラ 1 0は、 この判断結果と、 予めメモリ 1 0 Aに格納されて Vヽる制御プロダラム及ぴ各種制御パラメータからなる制御データとに基づいて続 く行動を決定し、決定結果に基づいて必要なァクチユエータ 2 0 i〜2 O nに駆動 信号 S 4 i〜S 4 nを送出してこれを駆動させることにより、頭部ュニット 4を上 下左右に振らせたり、 尻尾部ュュット 5の尻尾 5 Aを動かせたり、 各脚部ュニッ ト 3 A〜 3 Dを駆動して歩行させるなどの行動を行わせる。
またこの際コントローラ 1 0は、 必要に応じて音声信号 S 3を生成してこれを スピー力 1 9に与えることにより当該音声信号 S 3に基づく音声を外部に出力さ せたり、 当該ペットロボット 1の 「目」 の位置に配置された図示しない L E D ( L i g h t E m i t t i n g D i o d e ) を所定パターンで点滅させる。 このようにしてこのペットロボット 1においては、 外部及び内部の状態や、 ュ 一ザからの指令及び働きかけなどに応じて自律的に行動することができるように なされている。
( 1 — 2 ) コントローラ 1 0の処理
ここでこのようなぺットロボット 1の行動生成に関するコントローラ 1 0の処 理について説明する。
図 3に示すように、 ペットロボット 1の行動生成に関するコントローラ 1 0の 処理内容を機能的に分類すると、 状態を認識する状態認識部 3 0と、 状態認識部 3 0の認識結果に基づいて感情及ぴ本能の状態を決定する感情 ·本能モデル部 3 1と、 状態認識部 3 0の認識結果並びに感情 ·本能モデル部 3 1に保持された感 情及ぴ本能の状態に基づいて続く行動を決定する行動決定部 3 2と、 行動決定部 3 2の決定結果に基づいて実際にぺットロボット 1に行動を発現させる行動生成 部 3 3と、 後述のような学習を制御する学習制御部 3 4とに分けることができる
この場合状態認識部 3 0は、 外部センサ部 1 8から与えられる外部情報信号 S 1及び内部センサ部 1 4から与えられる内部情報信号 S 2を入力し、 これらに基 づいて 「叩かれた」 、 「撫でられた」 、 「ポールを検出した」 、 「バッテリ残量 が少なくなつた」 、 「内部温度が高くなつた」 等の特定の外部状態及び内部状態 を認識し、 認識結果を認識情報 D 1として感情 ·本能モデル部 3 1及ぴ行動決定 部 3 2に出力する。
感情 ·本能モデル部 3 1は、 状態認識部 3 0から与えられる認識情報 D 1と、 後述のように行動決定部 3 2から与えられる決定行動情報 D 3とに基づいてぺッ トロポット 1の感情及び本能の状態を決定する。
すなわち感情 .本能モデル部 3 1は、 「喜び」 、 「悲しみ」 、 「驚き」 、 「恐 怖」 、 「嫌悪」 及び 「怒り」 の各情動の強さをそれぞれ表す合計 6つのパラメ一 タを保持する感情モデルと、 「食欲」 、 「愛情欲」 、 「探索欲」 及び 「運動欲」 の各欲求の強さをそれぞれ表す合計 4つのパラメータとを保持する本能モデルと を有している。
そして感情 ·本能モデル部 3 1は、 状態認識部 3 0から与えられる認識情報 D 1及び行動決定部 3 2から与えられる決定行動情報 D 3などに基づいて周期的に 感情モデルや本能モデルの対応する情報又は欲求のパラメータの値を更新する。 また感情 ·本能モデル部 3 1は、 このような更新処理の結果としていずれかの情 動又は欲求のパラメータの値がその情動又は欲求に対して予め設定された値を越 えたときに、 これを感情 ·本能情報 D 2として行動決定部 3 2に出力する。 行動決定部 3 2は、 状態認識部 3 0から与えられる認識情報 D 1と、 感情 ·本 能モデル部 3 1から与えられる感情 .本能情報 D 2と、 メモリ 1 O A (図 2 ) に 予め格納された制御パラメータとしての行動モデルとに基づいて続く行動を決定 し、 決定結果を決定行動情報 D 3として感情 ·本能モデル部 3 1及び行動生成部 3 3に出力する。
なおこの実施の形態の場合、 行動決定部 3 2は、 次の行動を決定する手法とし て、 図 4に示すような 1つのノード (状態) N O D 。〜 N O D E nから同じ又は
他のどのノード NODE。〜NODEnに遷移するかを各ノード NODE。〜NO DEn間を接続するアーク
に対してそれぞれ設定された遷移 確率 P1〜Pn + 1に基づいて確率的に決定する確率オートマトンと呼ばれるアル ゴリズムを用いる。
すなわちメモリ 1 0 Aには、 行動モデルとして、 各ノード NODE。〜NOD Enごとの他のノード NODE。〜NODEnに遷移するための条件、 各条件に対 する遷移先及びその遷移確率が記述された表 (以下、 これを状態遷移表と呼ぶ) のデータが格納されている。
そして行動決定部 3 2は、 状態認識部 30から認識情報 D 1が与えられたとき や、 感情 ·本能モデル部 3 1から感情 '本能情報 D 2が与えられたときなどに、 メモリ 1 0 Aに格納されているそのときのノード NODE。〜NODEnの状態 遷移表を利用して次の行動を確率的に決定し、 決定結果を決定行動情報 D 3とし て感情,本能モデル部 31及び行動生成部 3 3に送出するようになされている。 行動生成部 33は、 ペットロボット 1に各種動作を行わせるための各動作ごと の制御パラメータであるモーションデータと、 ぺットロボットに各種音声を出力 させるための各音声ごとの制御パラメータであるサゥンドデータ、 一連の動作の 集合でなる各種行動を行わせるための各行動ごとの制御パラメータである行動デ 一タとをメモリ 1 OA内に有している。
そして行動生成部 33は、 行動決定部 3 2から決定行動情報 D 3が与えられる と、 対応するモーションデータ、 サウンドデータ又は行動データをメモリ 1 0 A から読み出し、 当該読み出したモーションデータ、 サウンドデータ又は行動デー タに基づいて必要なァクチユエータ 20 〜 20 n (図 2) に駆動信号 S 41〜S 4nを送出してこれを駆動させたり、 音声信号 S 3を生成してスピーカ 1 9 (図 2) に送出したり、 又は 「目」 の位置の LEDを点滅させる。 このようにして行 動生成部 3 3は、 行動決定部 32により決定された行動をぺットロポット 1に実 行させる。
一方、 状態認識部 30は、 外部情報信号 S 1のうちのタツチセンサ 1 7 (図 2
) から与えられる圧力検出信号 S 1 C (図 2) に基づいて、 「撫でられた」や 「叩 かれた」 ことを認識すると、 これを学習制御部 34に通知する。
このとき学習制御部 34は、 行動決定部 3 2から与えられる決定行動情報 D 3 に基づいて、 ペットロボット 1の現在及ぴ過去の行動を記憶している。 そして学 習制御部 34は、 ペットロボット 1が行動を発現中に 「撫でられた」 との認識結 果が状態認識部 30から認識情報 D 1として与えられた場合には、 これを行動決 定部 32に通知する。
かくして行動決定部 3 2は、 この通知に基づいて、 メモリ 1 OAに格納されて いる行動モデルの対応するノード NODE NODEn (そのときのノード NO 0£1〜^[00£11に遷移する前のノード1^00£1〜1^00£11に相当)の状態遷 移表におけるそのとき発現している行動に対応する遷移確率
を所定 量だけ減少させる一方、 この減少量に応じた量だけ当該状態遷移表における対応 する他の各遷移確率 P Pn をそれぞれ增加させる。
これに対して学習制御部 34は、 ぺットロボット 1が行動を発現中に 「撫でら れた」 との認識結果が状態認識部 30から認識情報 D 1として与えられた場合に は、 これを行動決定部 3 2に通知する。
かくして行動決定部 3 2は、 この通知に基づいて、 メモリ 1 OAに格納されて いる対応するノード NODE1〜NODEn (そのときのノード NODEi NO DEnに遷移する前のノード NODE i NODEnに相当) の状態遷移表におけ るそのとき発現している行動に対応する遷移確率 Pi Pn を所定量だけ增加 させる一方、 この增加量に応じた量だけ当該状態遷移表における対応する他の各 遷移確率 P i Pn+iをそれぞれ減少させる。
そしてこのような制御によって、 「叩かれた」 ときにはその行動に対応する遷 移確率 P i〜 P n + iが減少することにより当該行動が発現され難くなり、 「撫でら れた」ときにはその行動に対応する遷移確率 Pi Pn が増加することにより当 該行動が発現され易くなることから、 あたかも本物の動物が飼い主の嫫けによつ て行動パターンを変化させてゆくかのごとくぺットロボット 1の行動パターンを
変化させることがきる。
このようにしてコントローラ 1 0においては、 ユーザからの働きかけに応じて 行動パターンを変化 (学習) させながらペットロボット 1を自律的に行動させ得 るようになされている。
( 2 ) 本実施の形態によるロボットシステム 4 0の構成
( 2— 1 ) 口ポットシステム 4 0の構成
ここで図 5は、 テレビジョン放送を利用してかかるぺットロポット 1の発現行 動を制御する発現行動制御サービスや、 ぺットロボット 1が新たな行動を発現す るための後述する行動生成用制御データを提供する行動生成用制御サービス、 及 ぴユーザの個人情報や生活環境及び又はぺットロボット 1の行動履歴等に基づい てペット口ポット 1の制御データをカスタマイズ (修正) するカスタマイズサー ビスなどを行い得るようになされたロボットシステム 4 0を示すものである。 かかるロボットシステム 4 0においては、 放送局 4 1に設置された図示しない 放送機器と、 ペットロボット 1と、 ペットロボット 1のユーザ宅に設置されたテ レビジョン受像機 4 2と、 ユーザが所有するパーソナルコンピュータでなる個人 端末 4 3 A〜4 3 Dと、 サービス業者 4 4が設置したサーバ 4 5となどから構成 されている。
この場合個人端末 4 3 A〜4 3 Cは、 衛星通信回線 4 6、 ケーブルテレビジョ ン回線 4 7又は電話回線 4 8等を通じてィンターネットプロバイダ 4 9と接続さ れると共に、 当該インターネットプロバイダ及びインターネット 5 0を順次介し てサーバ 4 5と接続されている。 また個人端末 4 3 Dは、 公衆電話回線等の一般 公衆回線 5 1を通じてサーバ 4 5と直接に接続されている。 そしてこれら個人端 末 4 3 A〜4 3 Dは、 それぞれィンターネット 5 0又は一般公衆回線 5 1を介し てサーバ 4 5と間で必要なデータを送受信することができるようになされている さらに各個人端末 4 3 A〜4 3 Dは、 ケーブル 5 2等を介してぺットロポット 1と電気的に接続することができ、 サーバ 4 4及ぴぺットロポット 1のコント口
ーラ 1 0 (図 2) 間の通信を中継することができるようになされている。
一方、 サーバ 44は、 サービス業者 44が上述のような発現行動制御サービス 、 行動生成用制御データ提供サービス及びカスタマイズサービスなどのサービス を提供する際の各種処理を行う WWW (Wo r l d W i d e We b) サーバ であり、 インターネット 50又は一般公衆回線 5 1を介してアクセスしてきた個 人端末 43 A〜43 Dに対して後述のような各種 GU I (G r a h i c a l U s e r I n t e r f a c e) 画面の画面データや必要な画像データを送出し て、 これら画面データや画像データに基づく GU I画面や画像を対応する個人端 末 43 A〜43 Dのディスプレイに表示させることができるようになされている なおこのサ一バ 4 5の概略構成を図 7に示す。 この図 7からも明らかなように 、 サーバ 45は、 インターネット 50用のインターフェース回路を内蔵する L A N (L o c a l A r e a Ne t wo r k) カード 60と、 一般公衆回線 5 1 用のィンターフェース回路'としてのモデム 6 1と、 サーバ 45全体の制御を司る CPU62と、 CPU 62のワークメモリとしてのメモリ 63と、 サーバ 45が 後述のような各種処理を行うための各種プログラム及びデータが記録されると共 に必要なデータを記録しておくためのハードディスク装置 64とから構成されて いる。
この場合 C PU 6 2は、 ィンターネット 50又は一般公衆回線 51を介してァ クセスしてきた個人端末 43 A〜43 Dから供給されるデータやコマンドを LA Nカード 60又はモデム 6 1を介して C PU 62に取り込み、 当該データやコマ ンドと、 ハードディスク装置 64に格納されているプログラムとに基づいて所定 の処理を実行する。
また CPU 6 2は、 この処理結果に基づいて、 例えば後述のような各種 GU I 画面の画面データや、 他のデータ、 プログラム及ぴコマンドなどを LANカード 60又はモデム 6 1を介して対応する個人端末 43 A〜43 Dに送出するように なされている。
(2-2) 発現行動制御サービス
次にこのロボットシステム 40による発現行動制御サービス、 行動生成用制御 データ提供サービス及びカスタマイズサービスについて説明する。
まず発現行動制御サービスについて説明する。 このロボットシステム 40では 、例えば図 8に示すような白黒又はカラーの 2次元バーコード及び又は例えば「ド ミソドミソドミソ」 等の特定音階コマンドでなる特殊コード 80をテレビジョン 放送し、 これを見たり聞いたりしたぺットロボット 1に当該特殊コードに応じた 行動をその場で行わせることができるようになされている。
すなわちこのロボットシステム 40において、 かかるサービスを提供する場合 には、 図 8に示す発現行動制御手順 RT1に従って、 まず放送局 41 (図 5) が 、 所定形状の特殊コード 80の画像データ及ぴ又は音声データをテレビジョン番 組やテレビジョンコマーシャルの映像データに重畳して放送することにより、 図 7のようにこの特殊コード 80をテレビジョン受像機 42の表示画面 81の片隅 に表示させたり、 かかる音階コマンドをテレビジョン受像機 4 2から放音させる (ステップ S P 1 ) 。
一方、 ペットロボット 1のコントローラ 1 0 (図 2) は、 この特殊コード 80 を CCDカメラ 1 6 (図 2) からの画像信号 S 1 B (図 2) 及ぴ又はマイクロホ ン 1 5からの音声信号 S 1 Aに基づいて検出すると、 当該特殊コード 80の形状 や音階コマンドを認識し (ステップ S P 2) 、 この認識結果に基づいてその形状 や音階コマンドと対応付けられたコード番号を検出する (ステップ S P 3) 。 すなわちこのロボットシステム 40の場合、 ぺットロボット 1のメモリ 1 0 A には、 予め複数種類の特殊コード 80の各形状及ぴ又は音階コマンドがそれぞれ 固有のコード番号 (以下、 これを特殊コード番号と呼ぶ) と対応付けられてデー タベース化 (以下、 このデータベースを特殊コードデータベースと呼ぶ) されて 格納されている。
また図 3における行動生成部 3 3について上述した行動生成のための制御デー タである各モーションデータ、 各サウンドデータ及び各行動データ (以下、 適宜
これらを行動生成用制御データ D 1 0と呼ぶ) は、 図 9に示すように、 それぞれ 異なる特殊コード番号 82及びその行動を発現しても良いか否かを表す発現可否 フラグ 83と対応付けられてデータベース化 (以下、 このデータベースをコンテ ンッデータベース 84と呼ぶ) されてメモリ 1 0 Aに格納されている。
因に、 かかる発現可否フラグ 83が発現不可となっている行動生成用制御デー タ D 1 0と対応する行動は、 行動モデルにおけるその行動に対応する遷移確率 P 1〜Pn+1 (図 4) が予め 「0」 に設定され、 かつ発現可否フラグ 83が予め発現 不可に設定されていために上述の 「学習」 によっても遷移確率 Pi Pn が振り 分けられず、 この結果として発現が禁止されているものである。
そしてペット口ポット 1のコントローラ 1 0は、 CCDカメラ 1 6 (図 2) 力 らの画像信号 S 1 B (図 2) やマイクロホン 1 5からの音声信号 S 1 Aに基づい てテレビジョン受像機 42 (図 5 ) に表示され及び又はテレビジョン受像機 4 2 から放音された特殊コード 8◦を検出すると、 その特殊コード 80の形状や音階 を認識し、 認識結果に基づいて特殊コードデータベースを検索することにより、 当該特殊コードのコード番号 (特殊コード番号 8 2) を検出する (ステップ S P 3) 。
またコントローラ 1 0は、 この検出結果に基づいてコンテンツデータベース 8 4を検索することにより、 その特殊コード番号 8 2と対応付けられた発現可否フ ラグ 83を検出すると共に、 当該発現可否フラグ 83が発現可能になっているか (発現可否フラグ 83が立っているか) 否かを判断する (ステップ S P 4) 。 そしてコントローラ 1 0は、 この発現可否フラグ 83が発現可能になっている 場合には、 コンテンツデータベース 84から対応する行動生成用制御データ D 1 0を読み出し、 当該行動生成用制御データ D 1 0に基づいて必要なァクチユエ一 タ S O S On (図 2) を駆動したり、 音声信号 S 3 (図 2) を生成してこれを スピーカ 1 9 (図 2) に送出したり、 又は 「目」 の位置に設けられた LEDを発 光させたりする (ステップ S P 6) 。
このようにしてこのロボットシステム 40では、 テレビジョン受像機 4 2に表
示され及び又はテレビジョン受像機 42から放音された特殊コード 80に基づい て、 対応する行動をぺットロボット 1に発現させることができるようになされて いる。
—方、 ぺットロ'ボット 1のコントローラ 1 0は、 ステップ S P 4において発現 可否フラグ 83が発現不可となっている場合には、 当該発現可否フラグ 8 3を発 現可能に変更 (発現可否フラグ 83を立たせる) する。
またコントローラ 1 0は、 これと共に行動モデルにおけるその行動に対応する 遷移確率 P Pn を 0 〔%〕 力 ら予め設定された値に変更し、 かっこれに伴つ て対応する他の遷移確率 Pi Pn を所定量ずつ下げるように変更する(ステツ プ S P 5) 。
さらにコントローラ 1 0は、 コンテンツデータベース 84から対応する行動生 成用制御データ D 1 0を読み出し、 当該行動生成用制御データ D 10に基づいて 必要なァクチユエータ 20 i〜2 On (図 2) を駆動したり、 音声信号 S 3 (図 2 ) を生成してこれをスピーカ 1 9 (図 2) に送出したり、 又は 「目」 の位置に設 けられた LEDを発光させたりする (ステップ S P 6) 。
かくしてぺットロボット 1は、 この後この行動を発現できるようになる。 このようにしてこのロボットシステム 40では、 テレビジョン受像機 4 2に表 示され及ぴ又はテレビジョン受像機 42から放音された特殊コード 80に基づい て、 それまで発現が禁止されていた対応する行動発現する一方、 この後ペット口 ボット 1にこの行動を自在に発現させ得るようになされている。
(2-3) 行動生成用制御データ提供サービス
一方、 このロボットシステム 40では、 例えば新規作成された行動をぺットロ ボット 1に行わせる場合などのように、 ペットロボット 1がその行動を生成する ための行動生成用制御データ D 1 0をメモリ 1 0 A内に有していない場合には、 図 1 0に示すダウンロート処理手順 RT 2に従って、 ユーザの希望に応じてその 行動生成用制御データ D 1 0をぺットロボット 1にダウンロードすることができ るようになされている。
実際上、 このロボットシステム 4 0では、 例えば新たな行動の行動生成用制御 データ D 1 0をユーザに提供する場合、 上述した発現行動制御手順 R T 1 (図 7 ) のステップ S P 1と同様にして、 この行動と対応付けられた 2次元バーコード や音階コマンドでなる特殊コード 8 0をテレビジョン受像機 4 2の表示画面 8 1 に表示及び又はテレビジョン受像機 4 2から放音させる。
この場合、 この特殊コード 8 0は、 初期時においてペットロボット 1のメモリ 1 0 Aに格納される各行動生成用制御データ D 1 0のうちのいずれにも対応付け られていない予備の特殊コードである。
この結果ペットロボット 1のコントローラ 1 0は、 C C Dカメラ 1 6 (図 2 ) からの画像信号 S 1 B (図 2 ) やマイクロホン 1 5からの音声信号 S 1 Aに基づ いてテレビジョン受像機 4 2に表示され及び又はテレビジョン受像機 4 2から出 力された特殊コード 8 0を検出すると、 その特殊コード 8 0の形状や音階を認識 し (ステップ S P 1 1 ) 、 認識結果及び上述の特殊コードデータベースに基づい て当該特殊コードの特殊コード番号 8 2を検索する。
このとき特殊コードデータベースには、 初期時にメモリ 1 0 Aに格納されてい る各行動生成用制御データのいずれにも対応していない、 複数種類のかかる予備 の特殊コード 8 0の各形状がそれぞれ固有の特殊コード番号 8 2と対応付けられ て格納されている。
かくして上述のようにテレビジョン受像機 4 2の表示画面 8 1に特殊コード 8 0が表示され及び又はテレビジョン受像機 4 2から特殊コード 8 0が放音された 場合、 かかる検索処理によってこの特殊コード 8 0の特殊コード番号 8 2が検出 される (ステップ S P 1 2 ) 。 そしてこの特殊コード番号 8 2がコントローラ 1 0の制御のもとに、 メモリ 1 0 Aの所定領域 (以下、 これを特殊コード番号記憶 領域と呼ぶ) 内に格納される。
一方、 上述の新たな行動の行動生成用制御データ D 1 0を自己のぺットロボッ ト 1にダウンロードしたいユーザは、 そのペットロボット 1をケープノレ 5 2 (図 5 ) 等を用いて個人端末 4 3 A〜 4 3 Dに接続し、 この後この個人端末 4 3 A〜
43 Dをサーバ 4 5に接続する (ステップ S P I 3) 。
このときこの個人端末 43 A〜43 Dのディスプレイには、 図 1 1に示すよう な GU I画面 90が表示される。 この場合この GU I画面 90では、初期時、 「ぺ ットロボットをネットワーク接続してください。 よろしいですか?」 といったメ ッセージと、 はいボタン 9 1 A及ぴいいえボタン 9 1 Bとが表示される。
そしてこの状態においてユーザがはいボタン 9 1 Aをクリックすると、 サーバ 45の CPU62 (図 6) の制御のもとに、 ペット口ポット 1のメモリ 1 0 Aの 特殊コ一ド番号記憶領域内に格納されている特殊コード番号がサーバ 45にアツ プロードされる (ステップ S P 14) 。
そしてサーバ 4 5の CPU62は、 このようにしてそのぺットロボット 1力 ら 特殊コード番号 8 2を取得すると、 当該取得した特殊コード番号 82に基づいて どのような行動を覚えられるかを診断する。 なおこの覚えられる行動とは、 ぺッ トロボット 1のメモリ 1 0 Aから読み出した特殊コード番号 8 2と対応付けられ た新たな行動のことある。
そして CPU6 2は、 この診断処理が終了すると、 「処理終了しました。 新た に 2つの動きと 3つの音を覚えられます。 プレビューしますか。 」 といった診断 処理に基づくメッセージと、 はいボタン 92 A及びいいえボタン 92 Bとを GU I画面 90に表示させる。
そしてユーザがいいえボタン 9 2 Bをクリックすると、 この行動生成用制御デ ータ提供サービスに関する処理が終了する。 これに対してユーザがはいポタン 9 2 Aをクリックすると、 今度は図 1 1に示すような GU I画面 1 00がその個人 端末 43 A〜43 Dのディスプレイに表示される。
ここでこの GU I画面 1 0◦は、 このときぺットロボット 1が覚えられる行動
-、 が実際にどのような行動 ( 「動き」 や 「音」 ) であるかを確認するためのシ ュ レーシヨン画面であり、 ペットロボット 1の 3次元イメージ画像 10 1が画面左 側のプレビュー欄 1 02に表示される。
またこの GU I画面 1 00では、 プレビュー欄 1 02の右側にそのぺットロボ
ット 1が覚えられる行動の名前が記述されたボタン 1 0 3 A〜 1 0 3 Cが表示さ れると共に、 その下側にプレイボタン 1 0 4 A及びストップボタン 1 0 4 Bが表 示される。
そしてこの G U I画面 1 0 0では、 ユーザが所望するボタン 1 0 3 A〜l 0 3 Cをクリックした後プレイボタン 1 0 4 Aをクリックすることによって、 対応す る動きを 3次元イメージ画像 1 0 1に行わせたり、 個人端末 4 3 A〜4 3 Dのス ピー力から対応する音を出力させることができ、 ストップボタン 1 0 4 Bをクリ ックすることによって、 当該 3次元イメージ画像 1 0 1の動きや個人端末 4 3 A 〜4 3 Dからの音声出力を停止させることができるようになされている。
さらにこの G U I画面 1 0 0では、 画面右下に表示された第 1〜第 4の回転ボ タン 1 0 5 A〜l 0 5 Dをクリックすることによって 3次元イメージ画像 1 0 1 を対応する回転方向 (矢印 a l〜a 4 ) に回転させることができ、 第 1〜第 4の 回転ボタン 1 0 5 A〜1 0 5 Dの右側に表示されたズームインボタン 1 0 6 A又 はズームァゥトボタン 1 0 6 Bを押圧操作することによって当該 3次元イメージ 画像 1 0 1を順次拡大表示又は順次縮小表示させることができるようになされて いる。
かくしてユーザは、 この G U I画面 1 0 0に表示された 3次元イメージ画像 1 0 1の動きや、 個人端末 4 3 A〜4 3 Dのスピーカから出力される音声に基づい て、 その行動をペットロボット 1に覚えさせるか否かを判断し、 覚えさせない場 合には画面右下の N Oポタン 1 0 7 Bをタリックするようにする。 この結果この 場合には、 行動生成用制御データ提供サービスについての処理が終了する。 これに対してその行動を覚えさせる場合には、 画面右下の Y E Sボタン 1 0 7 Aをクリックするようにする。 この結果この ¾合には、 その個人端末 4 3 A〜4 3 Dのディスプレイに図 1 3に示すような G U I画面 1 1 0が表示される。 ここでこの G U I画面 1 1 0では、 初期時、 「ペット口ポットにデータをダウ ンロードします。 よろしいですか?」 といったメッセージと、 はいボタン 1 1 1 A及ぴいいえボタン 1 1 1 Bとが表示される。 そしてこのときいいえボタン 1 1
1 Bをクリックすると、 行動生成用制御データ提供サービスについての処理が終 了する。
これに対してはいボタン 1 1 1 Aをクリックすると、 サーバ 45の CPU62 の制御のもとに、 対応する行動生成制御データ D 10の検索及ぴダウンロードが 行われる。
すなわち CPU 6 2は、 ハードディスク装置 64に予め格納されている各種行 動 (新たな行動も含む) の行動生成制御データ D 1 0の中からそのときペット口 ポット 1が覚えられる行動の行動生成制御データ D ί 0を探し出す (ステップ S Ρ 1 5) 。 そして C PU 6 2は、 この行動生成用制御データ D 1 0をペットロボ ット 1にダウンロードさせる (ステップ S P 1 6) 。
なおぺットロボット 1のコントローラ 1 0は、 このようにして行動生成用制御 データ D 1 0を取得すると、 この行動生成用制御データ D 1 0を対応する特殊コ ード番号 82とを対応付けてコンテンツデータベース 84 (図 9) に登録すると 共に、 コンテンツデータベース 84におけるこの特殊コード番号 82と対応する 発現可否フラグ 83を発現可能に設定する (ステップ S P 1 7) 。
またこのようなダウンロードが終了すると、 サーバ 45及びその個人端末 43 Α〜43 Dの接続が終了され、 この後このときぺットロボット 1にダウンロード した行動生成用制御データ D 1 0の種類に応じて、 対応するスポンサ企業やユー ザに対する課金処理が行われる (ステップ S P 1 8) 。
このようにしてこのロボットシステム 40では、 新たな行動の行動生成のため の制御データである行動生成用制御データ D 10をユーザに提供し、 当該行動生 成用制御データ D 1 0に基づいてぺットロポット' 1にその新たな行動を発現させ 得ることができるようになされている。
(2-4) カスタマイズサービス
次にカスタマイズサービスについて説明する。 このロボットシステム 40では 、 ユーザが、 ペットロボット 1の制御データを、 自己の状況 (年齢、 性別、 職業 及ぴ使用言語等) や、 生活環境 (ユーザの部屋の広さや、 部屋の床素材等) に応
じてカスタマイズして購入することができたり、 購入後にこの制御データをユー ザの状況や環境に応じてカスタマイズしたり、 又はぺットロボット 1の行動履歴 に応じてそのぺットロボット 1の制御データをカスタマイズすることができるよ うになされている。
すなわちこのロボットシステム 4 0において、 かかるカスタマイズサービスを 受けようとするユーザは、 図 1 4に示す購入 ·カスタマイズ ·登録内容変更手順 R T 3に従って、 まずビデオカメラ等を用いて得られた自己の顔の画像データと 、 テ一プレコーダ等を用いて得られた自己の声の音声データとを個人端末 4 3 A 〜 4 3 D内に保存し (ステップ S P 2 0 ) 、 この後その個人端末 4 3 A〜 4 3 D をサーバ 4 5に接続するようにする (ステップ S P 2 1 ) 。
なおこの画像データ及び音声データは、 ぺットロボット 1がユーザを画像や声 により認識する際に使用されるデータであり、 後述のようにぺットロボット 1の 制御データをカスタマイズする際に、 当該制御データにその一部として組み込ま れる。
このときその個人端末 4 3 A〜 4 3 Dのディスプレイには、 図 1 5に示すよう な G U I画面 1 2 0が表示される。 そしてユーザは、 この G U I画面 1 2 0を用 いて、 ペットロボット 1の制御データを新規購入する力、、 ペットロボット 1の現 在の制御データをカスタマイズする力、 又は予め登録している登録情報 (後述す るユーザ情報及び生活環境情報) を変更するかを選択することができる。
そしてぺットロボット 1の制御データを新規購入する場合にはこの GU I画面 1 2 0の第 1のボタン 1 2 1 Aをクリックすれば良く、このとき例えば図 1 6 (A ) 及ぴ (B ) に示すような G U I画面 1 2 2 A、 1 2 2 Bがその個人端末 4 3 A 〜 4 3 Dのディスプレイに表示される。
かくしてユーザは、 この G U I画面 1 2 2 A、 1 2 2 Bを用いて年齢や、 性別 、 職業、 家族構成、 使用言語及び生活時間帯などの当該ユーザ自身に関する情報 (以下、 これをユーザ情報と呼ぶ) と、 当該ユーザの部屋環境、 部屋の広さ、 床 素材及ぴ照明形態などのユーザの生活環境に関する情報 (以下、 これを生活環境
情報と呼ぶ) とを択一方式で順次入力することができる (ステップ S P 2 2 ) 。 そしてユーザがこれら全ての質問に答えることにより登録に必要な全てのユー ザ情報及ぴ生活環境情報の入力が終了すると、 その個人端末 4 3 A〜 4 3 Dのデ イスプレイに図 1 7に示すような G U I画面 1 3 0が表示される。
またこのときサーバ 4 5の C P U 6 2の制御のもとに、 その個人端末 4 3 A〜 4 3 Dが保存しているユーザの顔の画像データ及ぴユーザの声の音声データがァ ップロードされ (ステップ S P 2 3 ) 、 当該画像データに基づくユーザの顔の画 像と、 当該音声データに基づくユーザの声の波形とがそれぞれこの G U I画面 1 3 0内の顔表示欄 1 3 1 A及び音声波形表示欄 1 3 1 Bに表示される。
なおこの G U I画面 1 3 0では、 音声波形表示欄 1 3 1 Bの下側に表示された プレイボタン 1 3 2 Aをクリックすることによって、 サーバ 4 5にアップロード された音声データに基づく音声 (ユーザの声) をその個人端末 4 3 A〜 4 3 Dの スピーカを介して出力させることができ、 またストップボタン 1 3 2 Bをクリツ クすることによって、 これを停止させることができる。
かくしてユーザは、 この G U I画面 1 3 0の顔表示欄 1 3 1 Aに表示された顔 と、 個人端末 1 3 1 Bのスピーカを介して出力される声とが自己のものであるこ とを確認した後、 良ければ画面下側のはいボタン 1 3 3 Aをクリックするように する。
この結果、 図 1 6 (A) 及び (B ) に示す G U I画面 1 2 2 A、 1 2 2 Bを用 いて入力されたユーザ情報及び生活環境情報と、 サーバ 4 5にアップロードされ たユーザの顔の画像データ及び声の音声データとがサーバ '4 5の C P U 6 2の制 御のもとにデータベース化されてハードディスク装置 6 4に格納される (ステツ プ S P 2 4 ) 。
なおこの後、 このようにして登録されたユーザ情報、 生活環境情報、 画像デー タ及び音声データに基づいてぺットロポット 1の制御データが図 2 0に示すカス タマイズ及びダウンロード手順 R T 5に従ってカスタマイズされてそのユーザに 販売される (ステップ S P 2 5 ) わけであるが、 これについては後述する。
一方、 図 1 5の GU I画面 1 20において、 ペットロボット 1の現在の制御デ ータをカスタマイズするサービスを受けたい場合には、 第 2のボタン 1 2 1 Bを クリックするようにする。
この結果その個人端末 43 A〜43 Dのディスプレイに所定の GU I画面 (図 示せず) が表示される。 そしてユーザは、 この GU I画面を用いて自己のユーザ I Dを入力した後 (ステップ S P 26) 、 カスタマイズサービスを選択するよう にする。
かくしてこのとき上述と同様にして、 その個人端末 43 A〜43 Dが保存して いるユーザの顔の画像データ及ぴ声の音声データがアップロードされて (ステツ プ S P 23) 、 その個人端末 43 A〜 43 Dのディスプレイに図 1 7に示す GU I画面 1 30が表示されると共に、 この後ユーザがこの GU I画面 1 30のはい ポタン 1 33 Aをクリックすると、 これら画像データ及び音声データが予め登録 されているそのユーザのユーザ情報及び生活環境情報と共にデータベース化され てハードディスク装置 64に格納される (ステップ S P 24) 。
なおこの後、 このようにして登録された画像データ、 音声データ、 ユーザ情報 及び生活環境情報に基づいて、 そのユーザのぺットロボット 1の制御データが図 20に示すカスタマイズ及びダウンロード手順 RT 5に従ってカスタマイズされ る (ステップ S P 25) わけであるが、 これについては後述する。
これに対して図 1 5の GU I画面 1 20において、 予め登録されているそのュ 一ザのユーザ情報及ぴ生活環境情報を変更したい場合には、 第 3のポタン 1 21
Cをクリックするようにする。
この結果その個人端末 43 A〜43 Dのディスプレイに上述のユーザ I Dを入 力するための図示しない GU I画面が表示される。 そしてユーザは、 この GU I 画面を用いて自己のユーザ I Dを入力した後 (ステップ S P 26) 、 登録内容の 変更を選択するようにする。
このときその個人端末 43 A〜43 Dのディスプレイには、 そのユーザについ ての登録されているュ一ザ情報及び生活環境情報が表示される。 かくしてユーザ
は、 この表示されたユーザ情報及び生活環境情報のうちの必要箇所を修正した後
(ステップ S P 2 7 ) 、 この画面内の終了ボタンをクリックする。
かくしてこのとき上述と同様にして、 その個人端末 4 3 A〜4 3 Dが保存して いるユーザの顔の画像データ及ぴ声の音声データがアップロードされて (ステツ プ S P 2 4 ) 、 その個人端末 4 3 A〜4 3 Dのディスプレイに図 1 7に示す G U I画面 1 3 0が表示されると共に、 この後ユーザがこの G U I画面 1 3 0のはい ポタン 1 3 3 Aをクリックすると、 これら画像データ及び音声データが予め登録 されているそのユーザのユーザ情報及び生活環境情報と共にデータベース化され てハードディスク装置 6 4に格納される (ステップ S P 2 4 ) 。 そしてこの後サ ーバ 4 5の処理が終了する (ステップ S P 2 8 ) 。
次にぺットロボット 1の内部に保持された当該ぺットロボット 1の行動履歴デ ータをサーバ 4 5に登録する手順について説明する。
このロボットシステム 1では、 ぺットロボットが 1日当たりの平均歩数や、 ュ
—ザに 「叩かれた」 及ぴ 「撫でられた」 回数の累積度数などの当該ペットロボッ ト 1の行動の履歴を表す行動履歴データがメモリ 1 O Aに保存される。 そしてこ の行動履歴データは、 ぺットロボット 1の行動に応じて順次更新される。.
またぺットロボット 1のメモリ 1 O Aには、 このような行動履歴データの他に
、 当該ぺットロボット 1のシリアル番号及び製造日時などのぺットロボット 1に 関する各種データも予め格納されている。 なお以下においては、 これらペット口 ボット 1のシリアル番号及ぴ製造日時などのデータと、 行動履歴データとを合わ せてパーソナルデータと呼ぶ。
そしてぺットロポット 1の行動履歴データをサーバ 4 5に登録したいユーザは
、 0 1 8に示す行動履歴データ登録手順 R T 4に従って、 まずそのペットロボッ ト 1を、 個人端末 4 3 A〜4 3 Dを介してサーバ 4 5に接続する (ステップ S P
3 0 ) o
このときその個人端末 4 3 A〜4 3 Dのディスプレイには、 図 1 9に示すよう な G U I画面 1 4 0が表示される。 そしてこの G U I画面 1 4 0では、 初期時、
「パーソナルデータをアップロードします。 よろしいですか。 」 といったメッセ ージと、 はいボタン 1 4 1 A及ぴいいえボタン 1 4 1 Bとが表示される。
そしてユーザは、 これらはいボタン 1 4 1 A及びいいえボタン 1 4 1 Bのうち のはいボタン 1 4 1 Aをクリックすることによって、 ペットロボット 1のメモリ 1 0 Aに保持されたパーソナルデータをサーバ 4 5にアップロードすることがで きる (ステップ S P 3 1 ) 。
このときサーバ 4 5のハードディスク装置 6 4には、 登録された各ぺットロボ ット 1のパーソナルデータ等の詳細情報がデータベース (以下、 これをぺット情 報データベースと呼ぶ) 化されて格納されている。 かくしてサーバ 4 5の C P U 6 2は、'ペットロボット 1のパーソナルデータをアップロードすると、 当該パー ソナルデータ及びぺット情報データベースに基づいて、 そのぺットロボット 1の オーナ (ユーザ) を検索する (ステップ S P 3 2 ) 。
さらにこの後 G U I画面 1 4 0 (図 1 9 ) には、 「行動履歴データをアップ口 ードし、 サーバに登録します。 よろしいですか?」 といったメッセージと、 はい ボタン 1 4 2 A及びいいえボタン 1 4 2 Bとが表示される。 かくしてユーザは、 そのぺットロボット 1の行動履歴データをサーバ 4 5に登録する場合には、 これ らはいポタン 1 4 2 A及びいいえポタン 1 4 2 Bのうちのはいポタン 1 4 2 Aを クリックするようにする。
この結果、 上述のようにァップロードされたそのぺットロボット 1の行動履歴 データが、 サーバ 4 5の C P U 6 2の制御のもとに、 当該ペットロボット 1のュ 一ザの顔の画像データ、 声の音声データ、 ユーザ情報及び生活環境情報と対応付 けてデータベース化されてハードディスク装置 6 4に格納される (ステップ S P 3 3 ) o
次に上述のようにして登録されたユーザの顔の画像データ、 声の音声データ、 ユーザ情報及び生活環境情報や、 ぺットロボット 1の行動履歴データに基づいて ペットロボット 1の制御データをカスタマイズし、 これをぺットロボット 1にダ ゥンロードする手順について説明する。
かかるサービスを希望するユーザは、 図 2 0に示すカスタマイズ及ぴダウン口 ―ド手順 R T 5に従って、 まず自己のぺットロポット 1を個人端末 4 3 A〜4 3 Dを際してサーバ 4 5に接続する (ステップ S P 4 0 ) 。
このときその個人端末 4 3 A〜4 3 Dのディスプレイには、 図 2 1に示すよう な G U I画面 1 5◦が表示される。 そしてこの G U I画面 1 5 0では、 初期時、
「パーソナルデータをアップロードします。 よろしいですか。 」 といったメッセ ージと、 はいボタン 1 5 1 A及ぴいいえボタン 1 5 1 Bが表示される。
そしてユーザは、 ぺットロボット 1のパーソナルデータをサーバ 4 5にアップ ロードしても良い場合には、 これらはいボタン 1 5 1 A及ぴいいえポタン 1 5 1 Bのうちのはいボタン 1 5 1 Aをクリックすれば良く、 この結果そのぺットロポ ット 1のメモリ 1 0 Aに保持されているパーソナルデータがサーバ 4 5にアップ ロードされる (ステップ S P 4 1 ) 。
このときサーバ 4 5の C P U 6 2は、 このアップロードされたパーソナルデー タに基づいて、 上述のペット情報データベースを検索し、 そのペットロボット 1 のオーナ (ユーザ) が誰であるかを検出する (ステップ S P 4 2 ) 。
またこの G U I画面 1 5 0では、 この後 「カスタマイズを開始します。 よろし いですか。 」 といったメッセージと共にはいポタン 1 5 2 A及ぴいいえボタン 1 5 2 Bが表示されるが、 このうちのはいポタン 1 5 2 Aをクリックすることによ り個人端末 4 3 A~ 4 3 Dのディスプレイに図 2 2に示すような G U I画面 1 6 0を表示させることができる。
ここでこの G U I画面 1 6 0は、 ペットロボット 1の制御データをユーザの個 性、 ユーザのライフスタイル及ぴそのぺットロボット 1の行動履歴のうちのどの 条件に応じてカスタマイズするかを選択するための画面であり、 これら 3つの条 件にそれぞれ対応させて第 1〜第 3のボタン 1 6 1 A〜l 6 1 Cが表示される。 なおこの G U I画面 1 6 0では、 ユーザがぺットロボット 1の制御データを新 規購入する場合や、 ぺットロボット 1の行動履歴データが予め登録されていない 場合には、 第 1及ぴ第 2のポタン 1 6 1 A、 1 6 I Bのみが表示され、 第 3のボ
タン 1 6 1 Cは表示されない。
かくしてユーザは、 この G U I画面 1 6 0を用いて所望する条件を選択するこ とができ、 例えばぺットロボット 1の制御データを自己の個性に応じてカスタマ ィズさせたい場合には、 第 1のボタン 1 6 1 Aをクリックするようにする (ステ ップ S P 4 3 ) 。
このときサーバ 4 5の C P U 6 2は、 ハードディスク装置 6 4に格納されてい るそのユーザのユーザ情報に基づいて、 例えばユーザの年齢に応じてその年齢に 好まれるであろう行動を発現しやすいように行動モデルを変更したり、 音声認識 する際の認識対象とする言語をユーザの使用言語に設定するなどの処理を行う (ステップ S P 4 4 ) 。
また G U I画面 1 6 0において、 ペット口ボット 1の制御データをユーザのラ ィフスタイルに応じてカスタマイズさせたいときには、 第 2のボタン 1 6 1 Bを クリックするようにする。
このときサーバ 4 5の C P U 6 2は、 ハードディスク装置 6 4に格納されてい るそのユーザの生活環境情報に基づいて、 例えばユーザの部屋が狭い場合にはぺ ットロポット 1が余り歩かないように行動モデルを変更したり、 ユーザの部屋の 床素材に応じた歩き方をするように対応する制御パラメータを編集するなどの処 理を行う (ステップ S P 4 5 ) 。
さらに G U I画面 1 6 0において、 ぺットロボット 1の制御データを当該ぺッ トロボット 1の行動履歴に応じてカスタマイズさせたいときには、 第 3のボタン 1 6 1 Cをクリックするようにする。
このときサーバ 4 5の C P U 6 2は、 ハードディスク装置 6 4に格納されてい るそのぺットロボット 1の行動履歴データに基づいて、 例えばぺットロボット 1 の 1日当たりの平均歩数が少ない場合には、 部屋が狭いと判断して、 当該ペット 口ポット 1が余り歩かないように行動モデルを変更したり、 「叩かれた」及ぴ「撫 でられた」 回数の累積度数が少ない場合には、 そのペットロボット 1のユーザが 当該ぺットロボット 1にあまりかまっていないと判断して、 ユーザに関心を持た
れやすくするように 「叩かれた」 及び 「撫でられた」 ときのペットロボット 1の 反応を派手にするなどの処理を行う (ステップ S P 46) 。 ' そして CPU 6 2は、 この後このような処理 (ステップ S P 46、 ステップ S P 47又はステップ S P 48) により得られた制御データを用いて最終的にぺッ トロポット 1にダウン口一ドするソフトウェアを作成し (ステップ S P 47) 、 この後これを個人端末 43 A〜43 Dを介してぺットロボット 1にダウンロード する (ステップ S P 48) 。
さらに C PU 6 2は、 この後このようなカスタマイズサービスの料金をそのュ 一ザの口座から引き落とすなどの課金処理を行い (ステップ S P 49) 、 この後 このカスタマイズサービスを終了する。
このようにしてこのロボットシステム 40では、 ペットロボット 1の制御デー タを、 ユーザの状況、 ユーザの生活環境又はペットロボット 1の行動履歴に基づ いてカスタマイズしてぺットロボット 1にダウンロードすることができるように なされている。
次にサーバ 45に搭載されたプロモーション機能について説明する。 このロボ ットシステム 40では、 ユーザ情報や生活環境情報等を登録したユーザに対して プロモーション (営業) を行う機能がサーバ 45に搭載されている。
そしてサーバ 4 5の CPU 62は、 プロモーションモードが選択されると、 図 23に示すプロモーション処理手順に従って、 かかるプロモーションについての 処理を行うようになされている。
実際上、 CPU 62は、 プロモーションモード時、 プロモーション条件が設定 又は入力される'と (ステップ S P 50) 、 ハードディスク装置 64に格納されて いる登録された各ユーザについてのユーザ情報、 生活環境情報及ぴぺットロボッ ト 1の行動履歴データを検索し (ステップ S P 5 1) 、 かかる条件に該当するュ 一ザを選別する (ステップ S P 52) 。
そして CPU 6 2は、 この後このようにして選別した各ユーザに対してダイレ クトメール (DM) を発送する (ステップ S P 53) 。 このようにしてサーバ 4
5は、 設定又は入力されたプロモーション条件に該当するユーザに対するプロモ ーションを行うようになされている。
( 3 ) 本実施の形態の動作及び効果
以上の構成において、 このロボットシステム 4 0では、 特殊コード 8 0をテレ ビジョン放送し、 これを見たり聞いたりしたぺットロボット 1が対応する行動を 発現したり、 又はそれまで発現しなかった新たな行動を発現するようになる。 従ってこのロボットシステム 4 0では、 ペットロボット 1にテレビジョン番組 やテレビジョンコマーシャルに応じた行動を発現させたり、 又は新たな行動を発 現させるようにすることができるため、 エンタテイメントロボットとしての面白 みを向上させることができる。
実際上、 例えばアニメ又はドラマ等のテレビジョン番組やコマーシャルのテー マソング又は音をぺットロポット 1に登録し、 これを認識させるようにすること により、 そのテレビジョン番組やコマーシャルに対応付けられた行動を発現させ ることができる。 また例えばアニメ又はドラマ等のテレビジョン番組においては 、 その物語に合わせた各種音楽 (主人公登場のテーマソング、 喜びの音楽、 悲し みの音楽) や他の特殊効果音として定型の音が組み込まれることが多いが、 これ をぺットロボット 1に登録し、 認識させるようにすることにより、 ユーザと感情 を同期させた行動を発現させることなどもできる。
またこのロボットシステム 4 0では、 新規作成された行動と対応付けられた特 殊コード 8 0をテレビジョン放送し、 これを見たり聞いたりしたぺットロポット 1が当該特殊コード 8 0のコード番号 (特殊コード番号 8 2 ) を記憶し、 当該特 殊コード番号 8 2に基づいて対応する行動生成用制御データ D 1 0をサーバ 4 5 からそのぺットロボット 1にダウンロードする。
従ってこのロボットシステム 4 0では、 ペットロボット 1に順次新たな行動を 覚えさせることができることに加えて、 例えばスポンサ企業の商品をユーザにァ ピールするような行動を特殊コード 8 0と対応付けておくことでペット口ポット 1に当該商品の宣伝を行わせることができる。
さらにこのロポットシステム 4 0では、 ぺットロボット 1の制御データをユー ザの状況や、 生活環境又はぺットロポット 1の行動履歴に基づいてカスタマイズ することができるため、 ぺットロボット 1に対するユーザの愛着心を向上させる ことができる。
以上の構成によれば、 ペットロボット 1にテレビジョン番組やテレビジヨンコ マーシャルに応じた行動を発現させたり、 又は新たな行動を発現させるようにし たことにより、 エンタテインメントロボットとしての面白みを向上させることが でき、 かくしてぺットロボット 1のェンタティメント性を向上させ得るロボット システムを実現できる。
また以上の構成によれば、 新規作成された行動と対応付けられた特殊コード 8 0をテレビジョン放送し、 これを見たり聞いたりしたぺットロボット 1が当該特 殊コード 8 0の特殊コード番号 8 2を記憶し、 当該特殊コード番号 8 2に基づい て対応する行動生成用制御データ D 1 0をサーバ 4 5からそのぺットロポット 1 にダウンロードできるようにしたことにより、 例えばスポンサ企業の商品をユー ザにアピールするような行動を特殊コード 8 0と対応付けておくことでペット口 ボット 1に当該商品の宣伝を行わせることができ、 かくしてぺットロポット 1の ェンタティメント性を向上させ得るロボットシステムを実現できる。
さらに以上の構成によれば、 ペットロボット 1の制御データをユーザの状況や 、 生活環境又はぺットロボット 1の行動履歴に基づいてカスタマイズすることが できるようにしたことにより、 ぺットロボット 1に対するユーザの愛着心を向上 させることができ、 かくしてぺットロボット 1のェンタティメント性を向上させ 得るロボットシステムを実現できる。
( 4 ) 他の実施の形態
なお上述の実施の形態においては、 発現行動制御サービス時にテレビジョン 受像機 4 2に表示させる特定光情報として、 2次元バーコードでなる特殊コード 8 0を適用するようにした場合について述べたが、 本発明はこれに限らず、 特殊 コード 8 0の形態としては、 この他種々の形態を広く適用することができ、 例え
ば特定形状以外にも特定色彩又は特定波長の閃光などを広く適用することができ る。 なおこの場合においては、 当然、 上述の実施の形態のように又はテレビジョ ン番組画像やコマーシャル画像中にかかる特定光情報を揷入するようにしても良 い。
また上述の実施の形態においては、 発現行動制御サービス時にテレビジョン受 像機 4 2から放音させる特定音情報として、 音階コマンドでなる特殊コード 8 0 を適用するようにした場合について述べたが、 本発明はこれに限らず、 特殊コー ド 8 0の形態としては、 この他種々の形態を広く適用することができ、 例えば音 階以外にも特定音楽や、 人が聞き取れない若しくは特定人の声等の特定波長の音 、 又は言葉 (例えば 「おはようロボット」 、 「おやすみロボット」 などの定型の 言葉を含む) などの全ての音を広く適用することができる。 なおこの場合におい ては、 上述の実施の形態のように又はテレビジョン番組画像やコマーシャル画像 中にかかる特定音情報を揷入するようにしても良い。 また特定音情報として音階 コマンドを用いる場合には、 絶対音階及び最初の音を基準とした相対音階のどち らでも利用することができる。
さらに上述の実施の形態においては、 発現行動制御サービス時に特殊コード 8 0を配信するようにした場合について述べたが、 本発明はこれに限らず、 例えば 行動生成用制御データ提供サービス時には行動生成用制御データ D 1 0自体を配 信するようにしても良い。
さらに上述の実施の形態においては、 発現行動制御サービス時に特殊光及び又 は音情報 (本実施の形態においては、 特殊コード 8 0 ) を配信する情報配信手段 として放送局 4 1における放送機器及びテレビジョン受像機 4 2を適用 (特殊コ ード 8 0等の情報をテレビジョン放送を利用して配信) するようにした場合につ いて述べたが、 本発明はこれに限らず、 例えばラジオ放送やインターネッ ト等の ネットワーク、 又は磁気テープや C D ( C o m a c t D i s c ) 等の可搬型 (リムーバブル) の記録媒体を利用して特殊コード 8 0を配信 (販売及ぴ無償提 供も含む) するようにしても良い。
さらに上述の実施の形態においては、 発現行動制御サービス時に行動生成用制 御データ D 1 0を記憶保持しておく記憶手段としてのサーバ 4 5を図 6のように 構築するようにした場合について述べたが、 本発明はこれに限らず、 この他種々 の構成を広く適用することができる。
さらに上述の実施の形態においては、 ペットロボット 1の行動の発現を管理す る管理手段としてぺットロポット 1内部のコントローラ 1 0を適用するようにし た場合について述べたが、 本発明はこれに限らず、 当該管理手段をペットロボッ ト 1と別体に設けるようにしても良い。
さらに上述の実施の形態においては、 ペットロボット 1の発現行動を管理する 管理手段と、 配信される所定情報を認識する認識手段とを同じコントローラ 1 0 により構成するようにした場合について述べたが、 本発明はこれに限らず、 これ らを別体に設けるようにしても良い。
さらに上述の実施の形態においては、 発現行動制御サービス時には、 それまで 発現が禁止されていたぺットロボット 1の行動を発現できるようにのみ制御する ようにした場合について述べたが、 本発明はこれに限らず、 例えばこれとは逆に ペットロボット 1それまで発現できた行動の発現を禁止するようにできるように しても良い。
さらに上述の実施の形態においては、 行動生成用制御データ提供サービス時、 行動生成用制御データ D 1 0をペットロボット 1にダウンロードするようにした 場合について述べたが、 本発明はこれに限らず、 例えばかかる行動生成用制御デ ータ D 1 0を外部メモリに記憶保持するようにペット口ポット 1を構築し、 サー バ 4 5から提供される行動生成用制御データ D 1 0を、 ぺットロボッ小 1から取 り出されて個人端末 4 3 A〜4 3 Dに装填された外部メモリにダウンロードでき るようにしても良い。
さらに上述の実施の形態においては、 行動生成用制御データ提供サービス時、 行動生成用制御データ D 1 0をペットロボット 1にダウンロードするようにした 場合について述べたが、 本発明はこれに限らず、 例えばサービス業者 4 4が必要
な行動生成用制御データ D 1 0を記録媒体に記録して郵送等によりユーザに提供 するようにしても良い。 この場合において、 例えばペットロボット 1が各種制御 データが格納されたメモリ等を装填することによって動くような構成である場合 には、 当然に当該メモリ等もかかる記録媒体に含まれる。
さらに上述の実施の形態においては、 カスタマイズサービス時、 ペットロボッ ト 1が行動を生成するための制御データを、 ぺットロポット 1及び又はぺットロ ボット 1のユーザに合わせて修正する修正手段と、 修正手段により修正された制 御データをロボットに送信する送信手段とを同じ 1つのサーバ 4 5により構成す るようにした場合について述べたが、 本発明はこれに限らず、 これらを別のサー バ等により構成するようにしても良く、 さらにはネットワークを介してダウン口 一ドし、 又は C D— R OM等のリムーバブルメディアの形態で無償又は有償で提 供されたかかるプログラムをインストールした個人端末 4 3 Aから 4 3 Dにより 構成するようにしても良い。
さらに上述の実施の形態においては、 カスタマイズサービス時、 ペットロボッ ト 1の制御データを、 ユーザの状況若しくは生活環境又はぺットロポット 1の行 動履歴に応じて修正するようにした場合について述べたが、 本発明はこれに限ら ず、 これ以外の条件に応じて制御データを修正するようにしても良い。 産業上の利用可能性
本発明は、 ペットロボット、 他の玩具等の口ポット、 サーバ、 パーソナルコン ピュータ等の個人端末に適用することができる。
Claims
1 . 所定情報を配信する情報配信手段と、
ロボットの行動の発現を管理する管理手段と
を具え、
上記管理手段は、
上記情報配信手段により配信された上記情報に基づいて、 上記ロボットに対応 する上記行動を発現させる
ことを特徴とするロボットシステム。
2 . 上記情報配信手段は、
テレビジョン放送を利用して上記情報を配信することにより、 当該情報に応じ た特定光及び又は音情報をテレビジョン受像機に表示及び又は放音させ、 上記管理手段は、
上記テレビジョン受像機に表示され及び又は当該テレビジョン受像機から放音 された上記特殊光及び又は音情報を認識する認識手段を有し、
上記認識手段の認識結果に基づいて、 上記ロボットに対応する上記行動を発現 させる
ことを特徴とする請求の範囲第 1項に記載のロボット
3 . 上記ロボットと別体に設けられ、 上記口ポットが上記行動を生成するための 所定の制御データを記憶保持する記憶手段を具え、
上記記憶手段は、
要求に応じて、 上記情報配信手段により配信された上記情報に対応する上記制 御データを上記管理手段に送信し、
上記管理手段は、
上記記憶手段から与えられる上記制御データに基づいて、 上記情報配信手段に
より配信された上記情報に応じた上記行動を上記口ポットに発現させる ことを特徴とする請求の範囲第 1項に記載の口ボッ
4 . 上記管理手段は、 上記口ポットに設けられ、
上記記憶手段は、 ネットワークを介して上記制御データを上記管理手段に送信 する
ことを特徴とする請求の範囲第 3項に記載のロボットシステム。
5 . 所定情報を配信する情報配信手段と、
ロボットの行動を管理する管理手段と
を具え、
上記管理手段は、
上記情報配信手段により配信された上記情報に基づいて、 上記ロボットが発現 可能な上記行動のうちの対応する上記行動を発現するのを禁止し、 又は当該行動 の発現の禁止を解除する
ことを特徴とするロボットシステム。.
6 . 上記情報配信手段は、
テレビジョン放送を利用して上記情報を配信することにより、 当該情報に応じ た特定光及び又は音情報をテレビジョン受像機に表示又は放音させ、
上記管理手段は、
上記テレビジョン受像機に表示及ぴ又は当該テレビジョン受像機から放音され た上記特殊光及び又は音情報を認識する認識手段と、
上記認識手段の認識結果に基づいて、 上記ロボットが対応する上記行動を発現 するのを禁止し、 又は当該行動の発現の禁止を解除する行動発現規制手段とを具 える
ことを特徴とする請求の範囲第 5項に記載のロボット
7 . 配信される所定情報を認識する認識手段と、
自己の行動の発現を管理する管理手段と
を具え、
上記管理手段は、
上記認識手段による認識結果に基づいて、 上記情報に応じた上記行動を発現さ せる
ことを特徴とするロボット装置。
8 . テレビジョン放送を利用して上記情報が配信されることにより、 当該情報に 応じた特定光及ぴ又は音情報マークがテレビジョン受像機に表示及ぴ又は当該テ レビジョン受像機から放音され、
上記認識手段は、
上記テレビジョン受像機に表示及び又は当該テレビジョン受像機から放音され た上記特定光及び又は音情報を認識し、
上記管理手段は、 .
上記認識手段の認識結果に基づいて、 上記ロボットに対応する上記行動を発現 させる
ことを特徴とする請求の範囲第 7項に記載の口ボット装置。
9 . 配信される情報を認識する認識手段と、 · 自己の行動の発現を管理する管理手段と
を具え、
上記管理手段は、
上記認識手段により認識された上記情報に基づいて、 上記ロボット装置が発現 可能な上記行動のうちの対応する上記行動を発現するのを禁止し、 又は当該行動 の発現の禁止を解除する
ことを特徴とするロボット装置。
1 0 . テレビジョン放送を利用して上記情報が配信されることにより、 当該情報 に応じた特定光及び又は音情報がテレビジョン受像機に表示及ぴ又は当該テレビ ジョン受像機から放音され、
上記認識手段は、
上記テレビジョン受像機に表示及び又は当該テレビジョン受像機から放音され た上記特定光及び又は音情報を認識し、
上記管理手段は、
上記認識手段の認識結果に基づいて、 対応する上記行動の発現を禁止し、 又は 当該行動の発現の禁止を解除する
ことを特徴とする請求の範囲第 9項に記載の口ポット装置。
1 1 . 所定情報を配信する第 1のステップと、
当該情報に基づいて、 対応する行動をロボット装置に発現させる第 2のステツ プと
を具えることを特徴とするロボット装置の制御方法。
1 2 . 上記第 1のステップでは、
テレビジョン放送を利用して上記情報を配信することにより、 当該情報に応じ た特定光及び又は音情報をテレビジョン受像機に表示及び又は当該テレビジョン 受像機から放音させ、 '
上記第 2のステップでは、
上記テレビジョン受像機に表示及び又は当該テレビジョン受像機から放音され た上記特定光及び又は音情報を認識し、
当該認識結果に基づいて、 上記ロボット装置に対応する上記行動を発現させる ことを特徴とする請求の範囲第 1 1項に記載のロボット装置の制御方法。
1 3 . 上記第 2のステップでは、
上記情報に応じた上記行動を発現するための制御データを上記ロボット装置が 有していないときには、 当該制御データを上記ロボット装置に供給し、
当該供給された上記制御データに基づいて、 上記情報に応じた上記行動を上記 ロボット装置に発現させる
ことを特徴とする請求の範囲第 1 1項に記載のロボット装置の制御方法。
1 4 . 上記第 2のステップでは、
上記制御データをネットワークを介して上記ロボット装置に供給する ことを特徴とする請求の範囲第 1 3項に記載のロボット装置の制御方法。 .
1 5 . 所定情報を配信する第 1のステップと、
当該情報に基づいて、 ロボット装置が発現可能な行動のうちの対応する上記行 動を発現するのを禁止し、 又は当該行動の発現を解除する第 2のステップと を具えることを特徴とするロボット装置の制御方法。
1 6 . 上記第 1のステップでは、
テレビジョン放送を利用して上記情報を配信することにより、 当該情報に応じ た特定光及び又は音情報をテレビジョン受像機に表示及び又は当該テレビジョン 受像機から放音させ、
上記第 2のステップでは、
上記テレビジョン受像機に表示及ぴ又は当該テレビジョン受像機から放音され た上記特定光及び又は音情報を認識し、
認識結果に基づいて、 上記ロボット装置が対応する上記行動を発現するのを禁 止し、 又は当該行動の発現の禁止を解除する
ことを特徴とする請求の範囲第 1 5項に記載のロボット装置の制御方法。
1 7 . ロボットが行動を生成するための制御データを、 上記ロボット及ぴ又は当 該ロボットのユーザに合わせて修正する修正手段と、
上記修正手段により修正された上記制御データを上記ロボットに送信する送信 手段と
を具えることを特徴とする情報処理装置。
1 8 . 上記修正手段は、
上記ユーザの状況若しくは生活環境又は上記ロポットの行動履歴に基づいて上 記制御データを修正する
ことを特徴とする請求の範囲第 1 7項に記載の情報処理装置。
1 9 . 上記口ポットから上記制御データを読み出す読出し手段を具え、
上記修正手段は、
上記読出し手段により上記ロポットから読み出された上記制御データを、 上記 ロボット及ぴ又は当該ロボットのユーザに合わせて修正する
ことを特徴とする請求の範囲第 1 7項に記載の情報処理装置。
2 0 . 上記読出し手段は、
ネットワークを介して上記ロボットから上記制御データを読み出す
ことを特徴とする請求の範囲第 1 9項に記載の情報処理装置。
2 1 . ロボットが行動を生成するための制御データを、 上記ロボット及ぴ又は当 該ロボットのユーザに合わせて修正する第 1のステップと、
上記修正手段により修正された上記制御データを上記ロボットに送信する第 2 を具えることを特徴とする情報処理方法。
2 2 . 上記第 1のステップでは、
上記ユーザの状況若しくは生活環境又は上記ロボットの行動履歴に基づいて上 記制御データを修正する
ことを特徴とする請求の範囲第 2 1項に記載の情報処理方法。
2 3 . 上記第 1のステップでは、
ロボットから上記制御データを読み出し、
当該読み出した制御データを、 上記ロボット及ぴ又は当該ロボットのユーザに 合わせて修正する
ことを特徴とする請求の範囲第 2 1項に記載の情報処理方法。
2 4 . 上記第 1のステップでは、
ネットワークを介して上記ロボットから上記制御データを読み出す
ことを特徴とする請求の範囲第 2 3項に記載の情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/958,712 US6684127B2 (en) | 2000-02-14 | 2001-02-14 | Method of controlling behaviors of pet robots |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000039809 | 2000-02-14 | ||
JP2000-39809 | 2000-02-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2001058649A1 true WO2001058649A1 (fr) | 2001-08-16 |
Family
ID=18563315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2001/001037 WO2001058649A1 (fr) | 2000-02-14 | 2001-02-14 | Systeme robotique, dispositif robotise et procede de controle d'un tel systeme et dispositif et procede de traitement de donnees |
Country Status (2)
Country | Link |
---|---|
US (1) | US6684127B2 (ja) |
WO (1) | WO2001058649A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12122039B2 (en) | 2017-12-22 | 2024-10-22 | Sony Corporation | Information processing device and information processing method |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002127059A (ja) * | 2000-10-20 | 2002-05-08 | Sony Corp | 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体 |
JP2002239960A (ja) * | 2001-02-21 | 2002-08-28 | Sony Corp | ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置 |
JP2002283261A (ja) * | 2001-03-27 | 2002-10-03 | Sony Corp | ロボット装置及びその制御方法、並びに記憶媒体 |
JP2003205483A (ja) * | 2001-11-07 | 2003-07-22 | Sony Corp | ロボットシステム及びロボット装置の制御方法 |
JP2004001162A (ja) * | 2002-03-28 | 2004-01-08 | Fuji Photo Film Co Ltd | ペットロボット充電システム、受取装置、ロボット、及びロボットシステム |
JP3870257B2 (ja) * | 2002-05-02 | 2007-01-17 | 独立行政法人 宇宙航空研究開発機構 | オフセット回転関節を有するロボット |
US20040002790A1 (en) * | 2002-06-28 | 2004-01-01 | Paul Senn | Sensitive devices and sensitive applications |
US7452268B2 (en) * | 2002-08-07 | 2008-11-18 | Sony Computer Entertainment America Inc. | System and method for modifying actions of a group of characters via group interactions |
US20040029625A1 (en) * | 2002-08-07 | 2004-02-12 | Ed Annunziata | Group behavioral modification using external stimuli |
US10086511B2 (en) | 2003-11-10 | 2018-10-02 | Brooks Automation, Inc. | Semiconductor manufacturing systems |
US20060250401A1 (en) * | 2005-05-06 | 2006-11-09 | Patrick Pannese | Systems and methods for generating 3D simulations |
US20070269297A1 (en) | 2003-11-10 | 2007-11-22 | Meulen Peter V D | Semiconductor wafer handling and transport |
US7458763B2 (en) | 2003-11-10 | 2008-12-02 | Blueshift Technologies, Inc. | Mid-entry load lock for semiconductor handling system |
JP2005148789A (ja) * | 2003-11-11 | 2005-06-09 | Fanuc Ltd | 音声入力によるロボット教示プログラム編集装置 |
US8000837B2 (en) | 2004-10-05 | 2011-08-16 | J&L Group International, Llc | Programmable load forming system, components thereof, and methods of use |
US7247783B2 (en) * | 2005-01-22 | 2007-07-24 | Richard Grossman | Cooperative musical instrument |
JP4729345B2 (ja) * | 2005-05-30 | 2011-07-20 | 博明 山口 | 移動機構、移動機構用部材及び該移動機構の制御方法 |
KR100866212B1 (ko) * | 2007-02-08 | 2008-10-30 | 삼성전자주식회사 | 유전자 로봇 플랫폼 및 유전자 로봇 행동 발현 방법 |
US8909370B2 (en) * | 2007-05-08 | 2014-12-09 | Massachusetts Institute Of Technology | Interactive systems employing robotic companions |
US8353767B1 (en) * | 2007-07-13 | 2013-01-15 | Ganz | System and method for a virtual character in a virtual world to interact with a user |
US9126116B2 (en) | 2007-09-05 | 2015-09-08 | Sony Computer Entertainment America Llc | Ranking of user-generated game play advice |
US9108108B2 (en) * | 2007-09-05 | 2015-08-18 | Sony Computer Entertainment America Llc | Real-time, contextual display of ranked, user-generated game play advice |
CN101406760A (zh) * | 2007-10-12 | 2009-04-15 | 鹏智科技(深圳)有限公司 | 人形互动玩具 |
CN101411946B (zh) * | 2007-10-19 | 2012-03-28 | 鸿富锦精密工业(深圳)有限公司 | 玩具恐龙 |
KR101053875B1 (ko) * | 2008-07-14 | 2011-08-03 | 삼성전자주식회사 | 휴대 단말기와 동기화된 로봇의 이벤트 실행 방법 및 그시스템 |
US8414350B2 (en) * | 2008-08-18 | 2013-04-09 | Rehco, Llc | Figure with controlled motorized movements |
US20100181943A1 (en) * | 2009-01-22 | 2010-07-22 | Phan Charlie D | Sensor-model synchronized action system |
US8574020B2 (en) * | 2009-09-29 | 2013-11-05 | Gary W. Smith | Animated interactive figure and system |
WO2012172721A1 (ja) | 2011-06-14 | 2012-12-20 | パナソニック株式会社 | ロボット装置、ロボット制御方法、及びロボット制御プログラム |
US9833707B2 (en) | 2012-10-29 | 2017-12-05 | Sony Interactive Entertainment Inc. | Ambient light control and calibration via a console |
US20140288704A1 (en) * | 2013-03-14 | 2014-09-25 | Hanson Robokind And Intelligent Bots, Llc | System and Method for Controlling Behavior of a Robotic Character |
CN106537369A (zh) * | 2014-07-25 | 2017-03-22 | 索尼公司 | 控制装置、控制方法、信息处理装置、信息处理方法以及程序 |
US10366689B2 (en) * | 2014-10-29 | 2019-07-30 | Kyocera Corporation | Communication robot |
US20170050320A1 (en) * | 2015-08-18 | 2017-02-23 | Behzad Nejat | Novel robotic device with a configurable behavior image |
US20190176049A1 (en) * | 2016-06-30 | 2019-06-13 | Sony Corporation | Information processing apparatus, information processing method, and program |
CN109526208B (zh) | 2016-07-11 | 2021-02-02 | Groove X 株式会社 | 活动量受控制的行为自主型机器人 |
US10561942B2 (en) | 2017-05-15 | 2020-02-18 | Sony Interactive Entertainment America Llc | Metronome for competitive gaming headset |
US10128914B1 (en) | 2017-09-06 | 2018-11-13 | Sony Interactive Entertainment LLC | Smart tags with multiple interactions |
CN107583291B (zh) * | 2017-09-29 | 2023-05-02 | 深圳希格玛和芯微电子有限公司 | 玩具互动方法、装置及玩具 |
US20190111565A1 (en) * | 2017-10-17 | 2019-04-18 | True Systems, LLC | Robot trainer |
US11439346B2 (en) * | 2019-01-03 | 2022-09-13 | Jacob T. Boyle | Robotic device for assisting individuals with a mental illness |
KR20200093922A (ko) | 2019-01-29 | 2020-08-06 | 삼성전자주식회사 | 전자 장치의 외부 전자 장치를 제어하는 방법, 전자 장치 및 저장 매체 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05329272A (ja) * | 1992-05-29 | 1993-12-14 | Victor Co Of Japan Ltd | 演奏動作玩具 |
JPH07194851A (ja) * | 1993-12-28 | 1995-08-01 | Victor Co Of Japan Ltd | デモンストレーション装置 |
WO1996004635A1 (en) * | 1994-07-29 | 1996-02-15 | Seiko Communications Holding N.V. | Education and entertainment device with dynamic configuration and operation |
JPH1158274A (ja) * | 1997-08-22 | 1999-03-02 | Sony Corp | ロボット装置の制御システム及びロボット装置の制御方法 |
JP2001009169A (ja) * | 1999-06-30 | 2001-01-16 | Interrobot Inc | 身体的音声反応玩具 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4657104A (en) * | 1983-07-23 | 1987-04-14 | Cybermation, Inc. | Concentric shaft mobile base for robots and the like |
US5742738A (en) * | 1988-05-20 | 1998-04-21 | John R. Koza | Simultaneous evolution of the architecture of a multi-part program to solve a problem using architecture altering operations |
US5983161A (en) * | 1993-08-11 | 1999-11-09 | Lemelson; Jerome H. | GPS vehicle collision avoidance warning and control system and method |
CA2202353C (en) | 1994-10-11 | 2007-08-14 | Michael C. Park | Delivery of data including preloaded advertising data |
US5963712A (en) * | 1996-07-08 | 1999-10-05 | Sony Corporation | Selectively configurable robot apparatus |
JP3765356B2 (ja) * | 1997-12-22 | 2006-04-12 | ソニー株式会社 | ロボツト装置 |
-
2001
- 2001-02-14 US US09/958,712 patent/US6684127B2/en not_active Expired - Fee Related
- 2001-02-14 WO PCT/JP2001/001037 patent/WO2001058649A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05329272A (ja) * | 1992-05-29 | 1993-12-14 | Victor Co Of Japan Ltd | 演奏動作玩具 |
JPH07194851A (ja) * | 1993-12-28 | 1995-08-01 | Victor Co Of Japan Ltd | デモンストレーション装置 |
WO1996004635A1 (en) * | 1994-07-29 | 1996-02-15 | Seiko Communications Holding N.V. | Education and entertainment device with dynamic configuration and operation |
JPH1158274A (ja) * | 1997-08-22 | 1999-03-02 | Sony Corp | ロボット装置の制御システム及びロボット装置の制御方法 |
JP2001009169A (ja) * | 1999-06-30 | 2001-01-16 | Interrobot Inc | 身体的音声反応玩具 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12122039B2 (en) | 2017-12-22 | 2024-10-22 | Sony Corporation | Information processing device and information processing method |
Also Published As
Publication number | Publication date |
---|---|
US20020138175A1 (en) | 2002-09-26 |
US6684127B2 (en) | 2004-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2001058649A1 (fr) | Systeme robotique, dispositif robotise et procede de controle d'un tel systeme et dispositif et procede de traitement de donnees | |
US7219064B2 (en) | Legged robot, legged robot behavior control method, and storage medium | |
US7139642B2 (en) | Robot system and robot apparatus control method | |
US7069113B2 (en) | Automatic apparatus, information server, robotic apparatus and commercial transaction method for performing an action based on information | |
KR101257896B1 (ko) | 스마트 서비스 로봇 운영 시스템 및 방법 | |
US7890446B2 (en) | Software robot apparatus | |
JP2001310283A (ja) | ロボットシステム、ロボット装置及びその制御方法、並びに情報処理装置及び方法 | |
EP2322258B1 (en) | System and method for playsets using tracked objects and corresponding virtual worlds | |
US6983231B2 (en) | Information processing device and method, data holding device, and program | |
WO2001012285A9 (en) | Networked toys | |
WO2001048689A1 (fr) | Systeme de transmission d'informations, procede de transmission d'informations, robot, support d'enregistrement d'informations, systeme de vente en ligne, procede de vente en ligne et serveur de vente | |
JP2002153672A (ja) | 生活用品を利用した玩具の学習/成長システム及びその方法 | |
WO2008044325A1 (fr) | Système de fourniture d'informations | |
US20070128978A1 (en) | Toy, data transmission method, and data transmission system | |
JP2001250045A (ja) | 購入システム及び方法、受注装置及び方法、データ販売代行システム、データ販売装置及び方法並びにコンピュータプログラム | |
JP2001222624A (ja) | 情報提供システム、情報提供方法、部品情報提供装置及び部品情報提供方法 | |
US20020059153A1 (en) | Toy learning apparatus using cyber community and performance method thereof | |
JP2001142862A (ja) | 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム | |
JP2001191274A (ja) | データ保持装置、ロボット装置、変更装置及び変更方法 | |
JP2019063216A (ja) | 玩具システム及び玩具 | |
JP2001222520A (ja) | 情報処理装置及び方法 | |
TW592777B (en) | A toy robot, a system for controlling such a toy robot and a method of constructing such a toy robot | |
JP4483351B2 (ja) | 情報提供システム、及び情報提供装置 | |
JP2001222518A (ja) | 情報処理装置及び方法並びにデータ保持装置 | |
JP2003016203A (ja) | 動作プログラム作成システム、動作プログラム作成方法及び動作プログラム販売システム、動作プログラム販売方法及び動作プログラム販売サーバ装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AK | Designated states |
Kind code of ref document: A1 Designated state(s): CA US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 09958712 Country of ref document: US |