WO2001049461A1 - Edit device, edit method, and recorded medium - Google Patents

Edit device, edit method, and recorded medium Download PDF

Info

Publication number
WO2001049461A1
WO2001049461A1 PCT/JP2000/009417 JP0009417W WO0149461A1 WO 2001049461 A1 WO2001049461 A1 WO 2001049461A1 JP 0009417 W JP0009417 W JP 0009417W WO 0149461 A1 WO0149461 A1 WO 0149461A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
editing
growth
behavior
robot
Prior art date
Application number
PCT/JP2000/009417
Other languages
French (fr)
Japanese (ja)
Inventor
Kyoko Furumura
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US09/914,453 priority Critical patent/US7063591B2/en
Priority to KR1020017010991A priority patent/KR20010102425A/en
Publication of WO2001049461A1 publication Critical patent/WO2001049461A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39151Use intention inference, observe behaviour of other robots for their intention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39254Behaviour controller, robot have feelings, learns behaviour

Definitions

  • the present invention relates to an editing device, an editing method, and a recording medium, and is suitably applied to, for example, an editing device, an editing method, and a recording medium for editing a growth model and / or a behavior model of a pet robot.
  • a four-legged walking robot has been proposed and developed by the applicant of the present invention, which performs actions in response to commands from the user and the surrounding environment.
  • a pet robot has a shape similar to a dog or cat bred in a general household, and acts autonomously in response to a command from a user or the surrounding environment.
  • a set of actions is defined and used as actions.
  • this pet robot is equipped with a function to grow like a real dog or cat, giving the user a sense of closeness and satisfaction, and improving the amusement of the pet robot. Proposed by the applicant (Japanese Patent Application No. 11-1299276).
  • the level of difficulty and complexity of the action and movement that appears (hereinafter referred to as the growth level) is set in stages. For example, if the user has completed “growing up” or the period until the next “growth” is long, the user may become tired of getting used to the behavior and movement of the pet robot. Was.
  • an editing device includes a display unit that visually displays the behavior model of a robot device that acts according to a predetermined behavior model, and edits the visually displayed behavior model in response to a user operation.
  • An edit processing means for processing is provided.
  • the behavior model of the robot device is edited to be unique to the user, and the robot device is allowed to perform the behavior unique to the user, thereby providing the user with unique characteristics different from other robot devices. Therefore, it is possible to effectively prevent the robot device from getting tired of the action, and thus it is possible to realize an editing device capable of further improving the amusement property.
  • a display means for visually displaying the growth model of the robot apparatus which grows according to the predetermined growth model, and an editing processing for editing the visually displayed growth model in response to a user operation Means are provided.
  • the growth model of the robot device is edited to be unique to the user, and the robot device is allowed to grow unique to the user and to have a unique user characteristic different from other robot devices. Therefore, it is possible to effectively prevent the growth of the robot apparatus from getting tired, and thus to realize an editing apparatus that can further improve the amusement property.
  • a first step of visually displaying the behavior model of the robot device acting according to a predetermined behavior model, and editing the visually displayed behavior model according to a user operation And a second step to do this.
  • the behavior model of the robot device is edited to be unique to the user, and the robot device is caused to perform the behavior unique to the user, so that the robot device has unique features different from those of other robot devices. Therefore, it is possible to effectively prevent the behavior of the robot apparatus from getting tired, and thus to realize an editing method that can further improve the amusement property.
  • the growth model of the robotic device is edited to be unique to the user, and the robotic device is made to grow unique to the user, and is provided with a unique user characteristic different from other robotic devices. Therefore, it is possible to effectively prevent the growth of the robot device from getting tired, and thus it is possible to realize an editing method capable of further improving the amusement property.
  • an editing step includes a display step of visually displaying the behavior model of a robot apparatus that behaves according to a predetermined behavior model, and an editing step of editing the visually displayed behavior model in response to a user operation.
  • the program for processing is stored in the recording medium.
  • the behavior model of the robot device is edited to be unique to the user, and the robot device performs the behavior unique to the user, and communicates with other robot devices.
  • an editing process including a display step of visually displaying the growth model of the robot device that grows according to a predetermined growth model, and an editing step of editing the growth model that is visually displayed according to a user operation.
  • the program for performing is now stored in the recording medium.
  • the program stored in this recording medium edits the growth model of the robot device to be unique to the user, and allows the robot device to perform the growth unique to the user, and is different from other robot devices. Since it is possible to provide the features, it is possible to effectively prevent the growth of the robot apparatus from getting tired, and thus it is possible to realize a recording medium that can further improve the amusement property.
  • FIG. 1 is a perspective view showing an external configuration of a pet robot.
  • FIG. 2 is a block diagram showing a circuit configuration of the pet robot.
  • Figure 3 is a conceptual diagram showing a growth model.
  • FIG. 4 is a block diagram for explaining the processing of the controller.
  • FIG. 5 is a conceptual diagram for explaining data processing in the emotion / instinct model unit.
  • FIG. 6 is a conceptual diagram showing a stochastic automaton.
  • FIG. 7 is a conceptual diagram showing a state transition table.
  • FIG. 8 is a conceptual diagram provided for explanation in a directed graph.
  • FIG. 9 is a conceptual diagram showing a first growth element list and a first growth element counter table.
  • FIG. 10 is a conceptual diagram showing a second growth element list and a second growth element counter table.
  • FIG. 11 is a block diagram showing the configuration of the editing device according to the present embodiment.
  • FIG. 12 is a conceptual diagram showing a growth model editing screen.
  • FIG. 13 is a conceptual diagram showing an action model editing screen.
  • FIG. 14 is a flowchart showing the editing processing procedure. BEST MODE FOR CARRYING OUT THE INVENTION
  • reference numeral 1 denotes a pet robot as a whole, and leg units 3A to 3D are connected to the front, rear, left and right of the body unit 2, respectively, and the front and rear ends of the body unit 2 are respectively provided.
  • the head unit 4 and the tail unit 5 are connected to each other.
  • the body unit 2 includes a controller 10 for controlling the operation of the pet robot 1 as a whole, a battery 11 as a power source of the pet robot 1, and a battery sensor 1 2 And an internal sensor unit 15 including a heat sensor 13 and an acceleration sensor 14.
  • the head unit 4 also includes an external microphone comprising a microphone 16 corresponding to the “ears” of the pet robot 1, a CCD (Charge Coupled Dev ice) camera 17 corresponding to the “eyes”, and a touch sensor 18.
  • a sensor section 19, a speaker 20 corresponding to a "mouth”, and the like are arranged at predetermined positions.
  • the joints of the leg units 3A to 3D, the connecting portions of the leg units 3A to 3D and the body unit 2, the connecting portions of the head unit 4 and the body unit 2 and the like in the connecting portion of the tail part Yunitto 5 and the body portion Yunitto 2, their respective Akuchiyueta 2 1 i ⁇ 2 l n are disposed.
  • the microphone 16 of the external sensor unit 19 collects command sounds such as “walk”, “down” or “follow the ball” given by the user via a sound commander (not shown) as a musical scale.
  • the transmitted audio signal S 1 A is sent to the controller 10.
  • the CCD camera 17 captures an image of the surroundings, and sends the obtained image signal S 1 B to the controller 10.
  • the touch sensor 18 is provided on the upper part of the head unit 4 and detects the pressure received by a physical action such as “stroke” or “hit” from the user. The detection result is sent to the controller 10 as a pressure detection signal S 1 C.
  • the battery sensor 12 of the internal sensor section 15 detects the remaining energy of the battery 11 and sends the detection result to the controller 10 as a remaining battery detection signal S2A.
  • the temperature sensor 13 detects the temperature inside the pet robot 1 and sends the detection result to the controller 10 as a temperature detection signal S 2 B.
  • the acceleration sensor 14 detects acceleration in three axis directions (Z axis direction, Y axis direction and Z axis direction), and sends the detection result to the controller 10 as an acceleration detection signal S 2 C.
  • the controller 10 includes an audio signal S 1 A, an image signal S 1 B, a pressure detection signal S 1 C, and the like (hereinafter collectively referred to as an external information signal S 1) provided from the external sensor unit 19, Based on the remaining battery signal S 2 A, temperature detection signal S 2 B, acceleration detection signal S 2 C, etc. provided from the sensor unit 15 (hereinafter, these are collectively referred to as an internal information signal S 2), And the internal state, and the presence or absence of commands and actions from the user.
  • an external information signal S 1 A an audio signal S 1 A, an image signal S 1 B, a pressure detection signal S 1 C, and the like
  • an internal information signal S 2 Based on the remaining battery signal S 2 A, temperature detection signal S 2 B, acceleration detection signal S 2 C, etc. provided from the sensor unit 15 (hereinafter, these are collectively referred to as an internal information signal S 2), And the internal state, and the presence or absence of commands and actions from the user.
  • the controller 1 0 includes a result of the determination, determines a subsequent action based on the control program stored in advance in the memory 1 OA, required Akuchiyue Ichita 21 on the basis of the determination result, to 2 l n
  • the head unit 4 can be swung up, down, left and right, the tail unit 5A of the tail unit 5 can be moved, and each leg unit 3A to 3D can be driven to walk. Perform actions and actions.
  • the controller 10 generates an audio signal S3 as necessary and gives it to the speaker 20, thereby outputting an audio based on the audio signal S3 to the outside,
  • the LED Light Emitting Diode (not shown) placed at the position of the eye is turned off.
  • the pet robot 1 acts autonomously according to the external and internal conditions, the command from the user, the presence or absence of the action from the user, and the like. It has been made possible.
  • the real animal grows in accordance with the history of operation input such as commands from the user and commands using the sound commander, as well as the history of his / her own actions and actions. They change their behavior and behavior as if they were.
  • the pet robot 1 is provided with four "growth stages” as growth processes: “childhood”, “childhood”, “adolescence”, and “adult”. I have.
  • the memory 10A of the controller 10 stores four items of “walking state”, “motion”, “action” and “sound” for each of these “growth stages”.
  • An action and action model including various control parameters, control programs, and the like that are the basis of the action and action are stored in advance.
  • the controller 10 follows the behavior and behavior model of “childhood”. For example, for “walking state”, the stride length is reduced and the “walking” is performed. Is a simple movement such as simply walking, standing, or sleeping, and a monotonous action such as repeating the same action. to, and as a like to "small short” cries reduce the amplification factor of the audio signal S 3 for "sound”, controls each Akuchiyueta 2 1 i ⁇ 2 l n and audio output.
  • the controller 10 includes a command input using a sound commander, a sensor input via the touch sensor 18 corresponding to “stroke” and “hitting”, and a determined number of successful actions and actions. Participates in reinforcement learning, sensor input via the touch sensor 18 that does not correspond to “stroke” or “hit”, and predetermined “growth” such as predetermined actions and actions such as “playing with a ball” For multiple elements (hereinafter referred to as growth elements), their occurrence is constantly monitored and counted. Then, the controller 10 determines each growth request based on the cumulative frequency of these growth factors.
  • the behavior and behavior model to be used is lower than that of the “childhood” behavior and behavior model. Change to “childhood” behavior and behavior model with high growth level. Then, the controller 10 follows the behavioral and behavioral model of the “childhood” and, for example, in the “walking state”, increases the rotation frequency of each actuator 21, to 21 respondents, etc. Refer to the previous action for "action” so that the movement becomes “slightly sophisticated and complicated” by increasing the number of movements, such as walking with “repression”.
  • the action has “a little purpose”, and for “sound”, extend the length of the audio signal and increase the amplification rate. as a longer large “bark, it controls the audio output from the Akuchiyueta 2 1 ⁇ 2 l n and the speaker 2 0.
  • the controller 10 sets the behavior and behavior model each time the total experience value of the growth factor exceeds the threshold value set in advance corresponding to "adolescent" or “adult”, respectively. sequentially changed more actions and behavior model of high growth level “adolescence” or “adulthood”, the action and operation each according to the model Akuchi Yue Ichita 2 1, to 2 l n rotational speed and the speaker 2 0 gradually raising the length and the amplification factor of the audio signal S 3 to give, each Akuchiyueta 2 1 in performing one operation, to vary the like rotational amount of to 2 l n.
  • the pet robot 1 has an increased “growth stage” (that is, changes from “childhood” to “childhood”, “childhood” to “adolescence”, and “adolescence” to “adulthood”).
  • “walking state” power S “toddler” to “steady walking”
  • motion from “simple” to “advanced / complex”
  • action from “monotone” to "action with purpose”
  • the "sound” changes gradually from “small and short” to "long and big”.
  • a behavior and behavior model of “childhood” is a behavior and behavior model (Ch ild 1) that performs a behavior and behavior of a rough and fast character, and the movement is smoother than this.
  • a behavior and behavior model (Child 2) that performs behaviors and behaviors with a slow “unfriendly” character is provided.
  • a behavior and behavior model of “adolescent” a behavior and behavior model (Young 1) that performs behavior and behavior of an “irritated” personality that is rougher and faster than the “rough” personality of “boyhood”.
  • a behavior and behavior model Young 2 that performs behaviors and movements with a “normal” character that is slower and smoother than this.
  • a behavior and behavior model (Young 3) that performs behaviors and behaviors with the character “
  • the behavior and behavior model of "adult” is “aggressive”, in which the movement is slower and faster than the "irritable” character of "adolescence", and it is difficult to perform the operation in response to commands from the user.
  • Behavior and behavior model (Ad u1t1) that performs personal behavior and behavior, and “slightly violent” personal behavior that is smoother and slower than this and that is easy to perform in response to commands from the user
  • the behavior model (Adult 2) the behavior that is smoother and slower, the amount of action is smaller, and always performs the action in accordance with the command from the user.
  • the behavior model (Adult 3) which is even slower, has a smaller amount of action, and always performs actions in response to commands from the user.
  • the controller 1 ⁇ selects one behavior and behavior model from among the behaviors and behavior models in the next “growth stage” based on the cumulative frequency of each growth factor.
  • the behavior and behavior model to be used It has been changed to an operation model.
  • the next “growth stage” action and behavior model that can transition from the current “growth stage” behavior and behavior model is determined. Only the transition between the behavior and the behavior model connected by the arrow in 3 can be performed. Therefore, for example, if the behavior and behavior model (C hild 1) that performs “violent” behavior and behavior in “childhood” is selected, “believable” behavior and It is not possible to make a transition to the action and action model (Young 3) that perform the action.
  • the state recognition mechanism unit 30 Functionally classifying the processing contents of the controller 10, as shown in FIG. 4, the state recognition mechanism unit 30 that recognizes the external and internal states, and the emotion based on the recognition result of the state recognition mechanism unit 30, And the emotions that determine the state of the instinct.
  • the action determination mechanism unit that determines the subsequent actions and actions based on the output of the instinct model unit 31. 3 2, an attitude transition mechanism 3 3 that makes a series of motion plans of the pet robot 1 for performing the action and action determined by the action determination mechanism 3 2, and an attitude transition mechanism 3 3 3 Actuator 2 1 based on the operation plan! 2 n can be divided into a control mechanism section 34 for controlling the growth and a personality of the petro-pot 1.
  • the state recognition mechanism section 30 recognizes a specific state based on the external information signal S 1 provided from the external sensor section 19 (FIG. 2) and the internal information signal S 2 provided from the internal sensor section 15. Then, the recognition result is notified as state recognition information S10 to the emotion / instinct model unit 31 and the action determination mechanism unit 32.
  • the state recognition mechanism section 30 constantly monitors the audio signal S 1 A provided from the microphone 16 (FIG. 2) of the external sensor section 19 and as a spectrum of the audio signal S 1 A.
  • the command is recognized and given. The result is notified to the emotion and instinct model section 31 and the action decision mechanism section 32.
  • the state recognition mechanism section 30 constantly monitors the image signal S 1 B provided from the CCD camera 17 (FIG. 2), and includes, for example, “a red circle” or “red circle” in an image based on the image signal S 1 B. When a plane that is perpendicular to the ground and higher than a predetermined height is detected, it recognizes that there is a ball and that there is a wall, and recognizes the recognition result as an emotional instinct model unit 31 and an action decision mechanism unit 3 Notify 2.
  • the state recognition mechanism section 30 constantly monitors the pressure detection signal S 1 C provided from the touch sensor 18 (FIG. 2), and based on the pressure detection signal S 1 C, a signal having a predetermined threshold or more and a short time (for example, when a pressure of less than 2 seconds is detected, it is recognized as “hit” (scored), and when a pressure of less than a predetermined threshold and for a long time (for example, 2 seconds or more) is detected, “stroke” (Praised) "and notifies the recognition result to the emotional instinct model unit 31 and the action decision mechanism unit 32.
  • the state recognition mechanism section 30 constantly monitors the acceleration detection signal S 2 C given from the acceleration sensor 14 (FIG. 2) of the internal sensor section 15, and for example, based on the acceleration signal S 2 C, When an acceleration equal to or higher than the set level is detected, it is recognized that "a large impact has been received". On the other hand, when an acceleration more than the gravitational acceleration is detected, "it has fallen (from a desk or the like)". Recognize and feel these recognition results Inform the instinct model 31 and the action decision mechanism 32.
  • the state recognition mechanism section 30 constantly monitors the temperature detection signal S 2 B provided from the temperature sensor 13 (FIG. 2), and when a temperature equal to or higher than a predetermined value is detected based on the temperature detection signal S 2 B, The internal temperature has risen, "and the recognition result is notified to the emotion / instinct model unit 31 and the action determination mechanism unit 32.
  • emotions and instinct model section 31 are provided corresponding to the six emotions of "joy,””sadness,””surprise,””fear,””disgust,” and “anger.”
  • Emotion unit 40 as a model of emotions, which corresponds to a basic emotion group 40 composed of 40A to 40F, and four desires of "appetite", “love”, “search” and "exercise”.
  • the basic unit 4 1 consisting of the desire unit 4 1 A to 4 ID as the required unit model and the emotion unit 40 A to 40 F and each unit 4 1 A to 41 D And the intensity increase / decrease functions 42 A to 42 H provided.
  • Each emotion unit 40 A to 40 F expresses the degree of the corresponding emotion by, for example, the intensity up to the 0 to 100 level, and the intensity is obtained from the corresponding intensity increase / decrease function 42 A to 42 F. Based on the given intensity information S11A to S11F, the shape is changed every moment.
  • Each of the desire units 41 A to 41 D represents the degree of the corresponding desire by the intensity from the 0 to 100 level, similarly to the emotion unit 40 A to 40 F, and the intensity corresponds to the intensity.
  • Intensity increasing / decreasing function The intensity increasing / decreasing function is changed every moment based on intensity information S12G to S12F given from 42G to 42K.
  • the emotion and instinct model 31 determines the state of emotion by combining the intensity of these emotion units 40A to 40F, and instinct by combining the intensity of these desire units 41A to 41D. Is determined, and the determined emotion and instinct state are output to the action determining mechanism 32 as emotion / instinct state information S12.
  • the intensity increase / decrease functions 42A to 42G include the state recognition information S10 provided from the state recognition mechanism 30 and the current or past behavior of the pet robot 1 itself provided from the behavior determination mechanism 32 described later. Based on the action information S 13 to be represented, the intensity of each emotion unit 40 A to 40 F and each desire unit 41 A to 41 D is increased or decreased as described above in accordance with preset parameters. It is a function that generates and outputs intensity information S11A to S11G.
  • the parameters of the intensity increase / decrease functions 42 A to 42 G are set to the respective behavior and behavior models (Baby 1, Child 1, Chi 1 d 2, Young 1 to Young 3, Ad
  • the pet robot 1 can have a character such as “irritable” or “calm”.
  • the action decision mechanism 3 2 corresponds to each action and action model (Baby 1, Chi i d 1, Chi i d 2, Young 1 to Young 3, Adult to Ad u 1 t 4), respectively.
  • a plurality of behavior models are stored in the memory 1 OA.
  • the behavior determination mechanism 32 includes state recognition information 10 provided from the state recognition mechanism 30, the emotion units 40A to 40F and the desire units 41A to 4E of the emotion and instinct model unit 31.
  • the next action or action is determined based on the 1D strength and the corresponding action model, and the determination result is output to the attitude transition mechanism section 33 and the growth control mechanism section 35 as action determination information S 14. .
  • the action determination mechanism part 3 2 as a method to determine the next action and motion, one node, as shown in FIG. 6 (state) ND A. From connecting the same or any other node ND A0 ⁇ ND A ⁇ each node or transition to ND A0 to ND An Aku AR A. ⁇ Transition probabilities P set for AR An respectively. Using an algorithm called probability Otomaton determining probabilistically based on to P n.
  • each node ND A as an action model in memory 1 OA.
  • ⁇ ND An Each state transition table 50 as shown in FIG. 7 is stored, and the action determining mechanism 32 determines the next action or operation based on the state transition table 50.
  • ND An input events (recognition results) as transition conditions are listed in order of priority in the “input event” line, and further conditions for that transition condition correspond to the “data name” and “data range” lines. Described in the column.
  • the “ball” of the ball given together with the recognition result is given. If the recognition result is given as “SIZE”, “0 to 1 000 range (0, 1 000)” or “OB STACLE”, the recognition result is given.
  • the “distance (DI STANCE)” and “range of 0 to 100 (0, 100)” to the obstacle given along with is the condition for transition to another node.
  • the emotions that the action determination mechanism unit periodically refers to are the emotion units 40A to 40F of the instinct model unit 31 and the emotion units 40A to 40D of the desire units 41A to 41D.
  • the emotional unit 40 A to 40 F of “JOY”, “SUP RISE” or “SUDNE SS” has a strength of “100 to 100”. If it is in the range (50, 100) ", it can transition to another node.
  • ⁇ ND An The node names that can be transitioned from ND An are listed, and all other conditions that can be transitioned when all the conditions described in each row of ⁇ input event name '', ⁇ data value '' and ⁇ data range '' are met.
  • the transition probabilities of the nodes ND A0 to ND An are described in the row of “output action” in the column of “transition probabilities to other nodes”. Note that the sum of the transition probabilities of each row in the column of “transition probability to another node” is 100 [%].
  • node NODE 100 for example, “ball is detected (BALL)”, and the “SIZE” force S of the ball is “range from 0 to 1 000 (0, 1 000)”. If the recognition result is given, it is possible to transit to “node NODE 12 (node 1 20)” with a probability of “30 [%]”, and then the action or action of “ACT I ON 1” is output. Will be done.
  • ⁇ ND An is configured to connect several.
  • the action determination mechanism section 32 stores the memory 10.
  • the next action or action (the action or action described in the row of “output action”) is stochastically determined using the state transition table 50 of ND An , and the determination result is set as action command information S 14. and to output to the attitude transition mechanism part 3 3 and the growth control mechanism unit 35.
  • the posture transition mechanism section 33 When given the action determination information S14 from the action determination mechanism section 32, the posture transition mechanism section 33 performs a series of robot 1 operations for performing actions and actions based on the action determination information S14. And outputs the operation command information S15 based on the operation plan to the control mechanism unit.
  • each node ND B by Unape Ttorobotto 1 can take attitude shown in FIG. To ND B2 , and the transitionable node ND B.
  • Directed Aku AR B representing the operation between ⁇ ND B2.
  • Self-action operation to complete between ⁇ ND B2 arc AR C.
  • a directed graph expressed as ⁇ AR C2 is used.
  • the memory 10A stores in a database the starting point posture and the ending posture of all the motions that can be expressed by the pet port bot 1 that are the basis of such a directed graph (hereinafter referred to as network definition).
  • the data is stored in the posture transition mechanism section 33 based on this network definition file.
  • And posture transition mechanism unit 3 3 "set up” from the action determining mechanism unit 3 2, "walk”, “white your hands”, “Yusure the head”, the action command such as "moving the tail” is the action command Given as information S14, using the corresponding directed graph, a node associated with a specified posture or a specified operation from the current node while following the direction of a directed arc is associated.
  • the control mechanism section searches for a path leading to a directed arc or a self-operating arc, and generates an operation command for sequentially performing an operation associated with each directed arc on the searched path as operation command information S15. Outputs one after the other to 3 and 4.
  • the posture transition mechanism 33 changes the posture of the pet robot 1 based on the directed graph for the whole body according to the motion command. Return to one of the basic positions of “stand”, “sit”, “down”, and “station”, which is the position on the charging stand (not shown) for charging the battery 11 (FIG. 2).
  • the operation command information S15 is output so as to change the posture of the head, the leg, or the tail using the directed graph of the corresponding head, leg, or tail.
  • the control mechanism section 34 generates a control signal S 16 based on the operation command information S 15 given from the attitude transition mechanism section 33, and based on the control signal S 16, each actuator 2 1 i by controlling the driving of the to 2 l n, to perform the behavioral and operation specified in Bae Ttorobotto 1.
  • state recognition information S20 Various states recognized based on the external information signal S1 and the internal information signal S2 from the state recognition mechanism section 30 are supplied to the growth control mechanism section 35 as state recognition information S20.
  • the various states include, in addition to the specific states notified to the emotion / instinct model section 31 and the behavior determination mechanism section 32 as described above, for example, There is an input via the touch sensor 18 to an extent that does not correspond to “touch”.
  • the growth control mechanism section 35 includes the above-described growth element to be used as a reference element when raising the “growth stage” of various states based on the state recognition information S2 ° given from the state recognition mechanism section 30.
  • a list such as that shown in Fig. 9 (A) described collectively (hereinafter referred to as the first growth factor list) 7 OA, and Fig. 9 (B) for counting the cumulative frequency of these growth factors, respectively.
  • Such a counter table (hereinafter referred to as a first growth element counter table) 70 B is provided in the memory 10 A.
  • the growth control mechanism section 35 determines whether or not the state obtained based on the state recognition information S20 is a growth element. Judgment is made based on the growth element list 7 OA of the above, and if the state is a growth element, the corresponding count value (experience value) in the first growth element counter table 70 B is increased by one.
  • the growth control mechanism section 35 should be a reference element when raising the “growth stage” among the actions obtained based on the action command information S 14 given from the action determination mechanism section 32 as described above.
  • a counter table (hereinafter, referred to as a second growth element counter table) 71 B as shown in FIG. 10B is provided in the memory 10A.
  • the growth control mechanism section 35 determines whether the action or action obtained based on the action command information S14 is a growth element. Judgment is made based on the second growth factor list 71A, and if the action is a growth factor, one corresponding count value (experience value) in the second growth factor counter table 71B is determined. increase.
  • the first and second growth element counters are increased.
  • the count value of the counter for judging whether or not to grow or not (hereinafter referred to as the total growth experience value counter) is increased by one. It is determined whether or not a count value set in advance as the end condition of the “step” has been reached.
  • the growth control mechanism unit 35 changes the behavior and the operation model to the next “ Which action and behavior model in the ⁇ growth stage '' should be changed is determined based on each count value in the first and second growth factor counter tables 70 B and 71 B, and the determination result is changed command information S As 22, it notifies the emotion and instinct model section 31, the action determination mechanism section 32 and the posture transition mechanism section 33.
  • the emotion and instinct model unit 31 specifies the parameters of the intensity increase / decrease functions 42A to 42G described above with reference to FIG. Change to model value.
  • the action determining mechanism 32 changes the action model to be used to the specified action and action model based on the change command information S22.
  • the posture transition mechanism section 33 selects one of the directed arcs and self-operation arcs from the directed arcs and self-operation arcs corresponding to a plurality of behavior and operation models. When the arc must be selected, change the setting so that the directed arc of the specified action and behavior model / self-action arc is selected.
  • the behavioral and behavioral models are the emotions corresponding to the "character” in the "growth stage” .
  • the growth control mechanism section 35 controls “growth” according to the history of operation inputs such as commands from the user and commands using the sound commander, and the behavior and operation history of the user.
  • reference numeral 100 denotes an editing device according to the present embodiment, which includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (R and om Accessory). (Memory) 103, display processing circuit 104, media unit 105, interface circuit 106 and SCS I (Small Computer)
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Accessory
  • display processing circuit 104 display processing circuit 104
  • media unit 105 media unit
  • interface circuit 106 interface circuit 106
  • SCS I Small Computer
  • An interface unit 107 is configured by connecting the interface circuit 107 via the CPU bus 108, and an operation unit 1 including a keyboard mouse and the like via the interface circuit 107. 09, and to the hard disk drive 110 via the SCSI interface circuit 107.
  • the display processing circuit 104 is connected to the monitor 111, and the media unit 105 is inserted into a semiconductor memory, for example, a memory stick 112, so that the media unit 111 is inserted.
  • Information is written to and read from the inserted memory stick 1 12 by a driver (not shown) in 05.
  • the CPU 101 reads out the application program stored in the ROM 102 to the RAM 103, reads out the image data in the ROM 102 based on the application program, and displays this in the display processing circuit 1.
  • the video signal S100 By giving the video signal S100 to the monitor 111 via the 04, an initial screen (not shown) based on the image data is displayed on a display unit (not shown) of the monitor 111.
  • the CPU 101 In response to the initial screen displayed on the display unit of the monitor 111, the CPU 101 operates the media unit 1 corresponding to the memory stick 112 by the user.
  • various information D100 of the robot 1 set in advance is read from the memory stick 111, and corresponding image data is read from the ROM 102 based on the information.
  • the following ⁇ ⁇ based on the image data A GUI (Graphical User Interface) screen for editing the program of the growth and / or behavior model of the robot 1 is displayed on the display unit of the monitor 111.
  • the CPU 101 responds to the command S 101 supplied from the operation unit 109 via the interface circuit 106 by the user.
  • the screen operated based on this, and the numbers and characters input from the operation unit 109 via the interface circuit 106 are displayed on the display unit of the monitor 111 via the display processing circuit 104. Is superimposed on the GUI screen displayed.
  • the CPU 101 sequentially edits the growth model and the behavior model of the pet robot 1 according to the operation of the user, and then obtains the edited result as edited data D 101, and the SCS I interface.
  • a backup is made to the hard disk device 110 via the circuit 107, and the edited data D101 is stored in the inserted memory stick 112 via the driver of the media unit 105.
  • the editing device 100 can execute the program of the growth and / or behavior model of the robot 1 preset on the memory stick 112 inserted in the media unit 105 according to the user's preference. So that they can be edited.
  • the growth model edit screen GU 1 which is a graph as shown in Fig. 12, is a set stored in the memory stick 1 1 2
  • various editing items PA 1 to PA 5 in the item display area GU 1 B include commands given by the user to the pet robot 1 (FIG. 1) and icons I corresponding to the behavior of the pet robot 1 itself.
  • a ⁇ I 1 5, icon I 2 is made to correspond to the behavior and operation pet robot 1 performs contrast
  • ⁇ I 2 s and icons I ⁇ I 3 made to correspond to the part for forming the growth model and a 5, consisting of pet icons to correspond to the emotion of the robot 1 and instinct I 4 i ⁇ I 4 6 and I 5 1 ⁇ I 5 4 like.
  • the “growth stage” of the pet robot 1 transitions to the “adolescent” behavior model C 1, and “ By performing the action of “play with ball” 50 times, the “growth stage” of the pet robot 1 can be edited so as to transition to the “adolescent” behavior model C 2, and the “boyhood” behavior model B 2
  • the “growth stage” of the pet robot 1 is shifted to the behavior model C 2 of “adolescent” and the “loud sound” is When heard 0 times, the pet robot 1 can be edited so that the "growth stage” of the pet robot 1 is shifted to the behavior model C3 of "adolescence”.
  • the growth model editing screen GU 1 displayed on the monitor 111 is operated by the user, so that the pet robot 1
  • the growth model program can be edited according to the user's preference.
  • the behavior model editing screen GU2 which is a graph displayed on the display unit of the monitor 111, has a memory, as shown in FIG. A part of the behavior model A selected by the user from the behavior model A, Bl, B2, and C1 to C3 of the robot 1 stored in the stick 1 1 2 is displayed.
  • Multiple editing items PA1, PA2, PA3B for editing a part of the behavior model of the editorial area GU2A which is almost the same as the item display area GU1B described above. , 4 and? It consists of an item display area GU 2 B consisting of A 5.
  • the editing item PA3B is an icon I3B corresponding to a part for forming the behavior model A selected by the user. , ⁇ I 3 B 5 etc. Then, the behavior model of the editing area GU 2 A on the behavior model editing screen GU 2 is operated by using a desired icon of the item display area GU 2 B selected by the user.
  • the node moves forward in the direction indicated by the directed arc AR C1A1 with a transition probability of 50%, and the relay node PAR, to move, after this "give voice", the flow proceeds in the direction indicated by the directed arc AR C1A2 taking action, via a relay node PAR 2 caused a "stand” action, to proceed in the direction shown by the directed arc AR C1A3
  • the behavior of the self- moving arc AR C1A indicated by a dashed line consisting of these directed arcs AR C1A1 to AR C1A3 can be edited.
  • the robot moves in the direction indicated by the directed arc AR C1B1 to the relay node PAR 3 and then “ walk "taking action proceed in the direction indicated by a directed arc AR C1B2, via a relay node PAR 4 to take action to" kick the pole ", by proceeding in the direction indicated by the Yes Koaichiku AR C1B3, these
  • the behavior of the self- moving arc AR C1B shown by the dashed line consisting of the directed arcs AR C1B1 to AR C1B3 can be edited. You.
  • these icons are selectively moved from the item display area GU2B to a desired part in the behavior model of the edit area GU2A by a so-called drag-and-drop operation by the user. Has been made.
  • each icon can be selected any number of times.
  • the editing apparatus 100 by operating the action model editing screen GU 2 displayed on the monitor 111 by the user, the program of the action model of the pet robot 1 can be changed according to the user's preference. Can be edited
  • the CPU 101 of the editing apparatus 100 grows and grows the above-described robot 1 according to the editing processing procedure RT1 shown in FIG.
  • the program of the behavior model is edited.
  • the CPU 101 starts the editing processing procedure RT1 in step SP0, and in the following step SP1, inserts a “Memory Stick” into the display section of the monitor 111. Please display a message saying "Please" as an initial screen (not shown).
  • the CPU 101 proceeds to the next step SP2, and when the user inserts the memory stick 112 into the media unit 105 of the editing device 100, the CPU 101 pre-starts from the memory stick 112.
  • the various types of information D100 of the set robot 1 are read, and the corresponding image data is read from the ROM 102 based on the information, and the growth and behavior model of the robot 1 based on the image data is read.
  • the CPU 101 proceeds to the following step SP 3 and proceeds to the next step SP 4 when the user selects to edit the growth model on the growth model editing screen GU 1 displayed on the monitor 111.
  • the growth model is edited and the user selects a desired behavior model from the growth model editing screen GU1 in step SP3
  • the screen displayed on the monitor 1 1 1 is changed to the selected behavior model.
  • the screen is switched to the corresponding behavior model editing screen GU2, and the process proceeds to the next step SP4, where the selected behavior model is edited.
  • step SP4 the CPU 101 responds to the user operating the growth model editing screen GU1 or GU2 displayed on the monitor 111 via the operation unit 109. Edit the growth or behavior model of the pet robot 1 corresponding to the growth model edit screen GU1 or GU2.
  • the CPU 101 proceeds to the subsequent step SP5, determines whether or not to end the editing of the growth or behavior model of the pet robot 1 corresponding to the growth model editing screen GU1 or GU2, and If an instruction to edit another growth or behavior model of the pet robot 1 is given as a command S101, a negative result is obtained, the process returns to step SP3, and the growth model editing screen GU is displayed again on the monitor 111. Display 1 to let the user select the desired growth or behavior model.
  • step SP5 when the user gives an instruction to complete the growth of the pet robot 1 and edit the behavior model as the command S101, a positive result is obtained, and the process proceeds to the next step SP6.
  • step SP6 the CPU 101 backs up the edited result as edited data D101 to the hard disk device 110 via the SCS I interface circuit 107. And proceed to step SP 7
  • the edited data D101 is stored in the inserted Memory Stick 112 via the driver of the media unit 105.
  • step SP7 when the CPU 101 finishes storing the edited data D101 on the memory stick 112 in step SP7, the CPU 101 proceeds to step SP8, and says, "Remove the memory stick," on the monitor 111. Message (not shown) is displayed, and when the user removes the memory stick 112 from the media unit 105 by the user, the process proceeds to the next step SP 9 to end the editing process procedure RT 1 I do.
  • the program for the growth and / or behavior model of the robot 1 preset on the memory stick 112 inserted into the media unit 105 is It can be edited according to the user's preference.
  • the user performs actions such as “hit” and “stroke” performed by the user on the pet robot 1, a command given by the user using the sound commander, and the pet robot 1. editing according to the preference of the user graded the pair Ttorobo' sheet 1 of growth and or behavioral model program in accordance with actions you play with first force s "ball”.
  • the editing device 100 edits the personality of the pet robot 1 to be unique to the user, and causes the pet robot 1 to grow and behave in a manner unique to the user, so that the user is different from other pet robots. It can be provided with unique features, thus making it harder for the user to get tired and giving the user a greater sense of intimacy and satisfaction.
  • the robot 1 can be provided with a unique feature of the user. Can make the user hard to get tired of and give the user a more intimate and satisfying feeling. An editing device 100 that can significantly improve the performance can be realized.
  • the present invention is applied to the editing device 100 that edits the behavior and behavior model of the pet robot 1.
  • the present invention is not limited to this.
  • the present invention is applied to a normal personal computer using a recording medium on which an application program for editing the behavior and behavior model of the robot 1 in such an editing device 100 is recorded.
  • the behavior and behavior model of the pet robot 1 and the like may be edited, and can be widely applied to various other editing devices.
  • a case has been described in which the object of editing of the present invention is applied to the growth and behavior model of a quadruped walking type robot 1 configured as shown in FIG.
  • the present invention is not limited to this, and can be widely applied to robot devices having various other configurations. It can also be applied to characters moving on a monitor screen in computer graphics.
  • the actions and or motion generating means for generating a behavior and motion model behavior and operation based on the controller 1 0, ⁇ Kuchiyueta 2 1, to 2 l n, the speaker 2
  • the present invention is not limited to this, and various other structures depending on the form of the robot mounting to which the present invention is applied.
  • the case has been described where the personality and the growth level are changed based on both the input history from the outside and the own action and operation history.
  • the present invention is not limited to this.
  • the present invention is not limited to this, and it is possible to detect the state of the growth element, The value of the control parameter may be changed successively each time the action or action is performed, so that the "growth" is performed steplessly.
  • the pet robot 1 is allowed to “grow” in four stages of “childhood”, “childhood”, “adolescence”, and “adult”.
  • the present invention is not limited to this, and the number of “growth stages” may be set to a number other than four.
  • a history such as a contact input via the touch sensor 18, an image captured by the CCD camera 17, and a command sound input using a sound commander is applied as an external input history.
  • the present invention is not limited to this, and an input history from the outside in addition to or in addition to these may be applied.
  • the present invention can be applied to, for example, an editing device for editing a growth model or an action model of a pet robot.

Abstract

When the user of a robot contacts with the robot in the same way, the behavior and growth of the robot are similar, causing the user to easily tire. The conventional problem is solved. An edit device and method of the invention is for displaying a predetermined behavior model of a robot according to which the robot behaves and for editing the displayed behavior model through a user's operation. Another edit device and method of the invention is for displaying a predetermined growth model of a robot according to which the robot grows and for editing the displayed growth model through a user's operation.

Description

明 細 書 編集装置、 編集方法及び記録媒体 技術分野  Description Editing device, editing method and recording medium
本発明は編集装置、 編集方法及び記録媒体に関し、 例えばぺットロボットの成 長モデル及び又は行動モデルを編集する編集装置、 編集方法及び記録媒体に適用 して好適なものである。 背景技術  The present invention relates to an editing device, an editing method, and a recording medium, and is suitably applied to, for example, an editing device, an editing method, and a recording medium for editing a growth model and / or a behavior model of a pet robot. Background art
近年、 ユーザからの指令や周囲の環境に応じて行動を行う 4足歩行型のぺット ロボットが本願特許出願人から提案及ぴ開発されている。 かかるぺットロボット は、 一般家庭において飼育される犬や猫に似た形状を有し、 ユーザからの指令や 周囲の環境に応じて自律的に行動するものである。 なお以下においては、 動作の 集合を行動と定義して使用するものとする。  In recent years, a four-legged walking robot has been proposed and developed by the applicant of the present invention, which performs actions in response to commands from the user and the surrounding environment. Such a pet robot has a shape similar to a dog or cat bred in a general household, and acts autonomously in response to a command from a user or the surrounding environment. In the following, a set of actions is defined and used as actions.
またかかるペットロボットに対して、 本物の犬や猫のように 「成長」 する機能 を搭載し、 ユーザに親近感や満足感を与え、 ペットロボットとしてのアミユーズ メント性を向上させることなども本願特許出願人により提案されている (特願平 1 1— 1 2 9 2 7 6号) 。  Also, this pet robot is equipped with a function to grow like a real dog or cat, giving the user a sense of closeness and satisfaction, and improving the amusement of the pet robot. Proposed by the applicant (Japanese Patent Application No. 11-1299276).
しかしながら特願平 1 1— 1 2 9 2 7 6号に開示されたぺットロボットにおい ては、 発現する行動及び動作の難易度や煩雑さなどのレベル (以下、 これを成長 レベルと呼ぶ) を段階的に上げてゆくだけであるため、 例えば 「成長」 し終えた 場合や次の 「成長」 までの期間が長い場合には、 ユーザがペットロボットの行動 や動作に慣れて飽きてしまう問題があった。  However, in the pet robot disclosed in Japanese Patent Application No. 11-1299276, the level of difficulty and complexity of the action and movement that appears (hereinafter referred to as the growth level) is set in stages. For example, if the user has completed “growing up” or the period until the next “growth” is long, the user may become tired of getting used to the behavior and movement of the pet robot. Was.
またかかるペットロボットは、 予め決められたプログラムによって、 その行動 及び動作を決定しているため、 例えば同様の成長段階にある複数台のぺッ トロボ ットに対してユーザから与える指令や周囲の環境が同じ場合には、 当該各ぺット ロボットの行動及び動作は、 同じものになってしまい、 ユーザ特有の行動及び動 作を行うぺットロポットに育てるのが困難であった。 In addition, since such a pet robot determines its behavior and action by a predetermined program, for example, a command given by a user to a plurality of petrobots at the same growth stage and the surrounding environment are determined. If are the same, each such unit The behaviors and actions of the robot became the same, and it was difficult to bring up robots that perform user-specific actions and actions.
従ってかかるぺットロボットにおいて、 かかる問題点を解決することができれ ば、 ュ一ザに飽きを感じさせるのを防止して、 より一層のアミューズメント性の 向上を図れるものと考えられる。 発明の開示  Therefore, in such a pet robot, if such a problem could be solved, it would be possible to prevent the user from getting tired and to further improve the amusement performance. Disclosure of the invention
本発明は以上の点を考慮してなされたもので、 ァミューズメント性を格段と向 上させ得る編集装置、 編集方法及びその媒体を提案しようとするものである。 かかる課題を解決するため本発明においては、 編集装置において、 所定の行動 モデルに従って行動するロボット装置の当該行動モデルを可視表示する表示手段 と、 ユーザ操作に応じて、 可視表示された行動モデルを編集処理する編集処理手 段とを設けるようにした。  The present invention has been made in view of the above points, and an object of the present invention is to propose an editing apparatus, an editing method, and a medium that can significantly improve amusement. In order to solve this problem, in the present invention, an editing device includes a display unit that visually displays the behavior model of a robot device that acts according to a predetermined behavior model, and edits the visually displayed behavior model in response to a user operation. An edit processing means for processing is provided.
この結果この編集装置では、 ロボット装置の行動モデルをユーザ特有のものに 編集し、 当該ロボット装置に、 そのユーザ特有の行動をさせて他のロボット装置 とは異なるユーザ独自の特徴を具備することができるため、 ロボット装置の行動 が飽きられるのを有効に防止することができ、 かく してアミューズメント性をよ り一層向上させ得る編集装置を実現できる。  As a result, in this editing device, the behavior model of the robot device is edited to be unique to the user, and the robot device is allowed to perform the behavior unique to the user, thereby providing the user with unique characteristics different from other robot devices. Therefore, it is possible to effectively prevent the robot device from getting tired of the action, and thus it is possible to realize an editing device capable of further improving the amusement property.
また本発明においては、 編集装置において、 所定の成長モデルに従って成長す るロボット装置の当該成長モデルを可視表示する表示手段と、 ユーザ操作に応じ て、 可視表示された成長モデルを編集処理する編集処理手段とを設けるようにし た。  Further, in the present invention, in the editing apparatus, a display means for visually displaying the growth model of the robot apparatus which grows according to the predetermined growth model, and an editing processing for editing the visually displayed growth model in response to a user operation Means are provided.
この結果この編集装置では、 ロボット装置の成長モデルをユーザ特有のものに 編集し、 当該ロボット装置に、 そのユーザ特有の成長をさせて他のロボット装置 とは異なるユーザ独自の特徴を具備することができるため、 ロボット装置の成長 が飽きられるのを有効に防止することができ、 かく してアミューズメント性をよ り一層向上させ得る編集装置を実現できる。 さらに本発明においては、 編集方法において、 所定の行動モデルに従って行動 するロボッ ト装置の当該行動モデルを可視表示する第 1のステップと、 ユーザ操 作に応じて、 可視表示された行動モデルを編集処理する第 2のステップとを設け るよつにした。 As a result, in this editing device, the growth model of the robot device is edited to be unique to the user, and the robot device is allowed to grow unique to the user and to have a unique user characteristic different from other robot devices. Therefore, it is possible to effectively prevent the growth of the robot apparatus from getting tired, and thus to realize an editing apparatus that can further improve the amusement property. Further, in the present invention, in the editing method, a first step of visually displaying the behavior model of the robot device acting according to a predetermined behavior model, and editing the visually displayed behavior model according to a user operation And a second step to do this.
この結果この編集方法では、 ロボッ ト装置の行動モデルをユーザ特有のものに 編集し、 当該ロボッ ト装置に、 そのユーザ特有の行動をさせて他のロボッ ト装置 とは異なるユーザ独自の特徴を具備することができるため、 ロボット装置の行動 が飽きられるのを有効に防止することができ、 かく してァミューズメント性をよ り一層向上させ得る編集方法を実現できる。  As a result, in this editing method, the behavior model of the robot device is edited to be unique to the user, and the robot device is caused to perform the behavior unique to the user, so that the robot device has unique features different from those of other robot devices. Therefore, it is possible to effectively prevent the behavior of the robot apparatus from getting tired, and thus to realize an editing method that can further improve the amusement property.
さらに本発明においては、 編集方法において、 所定の成長モデルに従って成長 するロボッ ト装置の当該成長モデルを可視表示する第 1のステップと、 ユーザ操 作に応じて、 可視表示された成長モデルを編集処理する第 2のステップとを設け るようにした。  Further, in the present invention, in the editing method, a first step of visually displaying the growth model of the robot apparatus that grows according to the predetermined growth model, and editing the growth model that is visually displayed according to a user operation And a second step to do so.
この結果この編集方法では、 ロボット装置の成長モデルをユーザ特有のものに 編集し、 当該ロボット装置に、 そのユーザ特有の成長をさせて他のロボッ ト装置 とは異なるユーザ独自の特徴を具備することができるため、 ロボッ ト装置の成長 が飽きられるのを有効に防止することができ、 かく してアミューズメント性をよ り一層向上させ得る編集方法を実現できる。  As a result, in this editing method, the growth model of the robotic device is edited to be unique to the user, and the robotic device is made to grow unique to the user, and is provided with a unique user characteristic different from other robotic devices. Therefore, it is possible to effectively prevent the growth of the robot device from getting tired, and thus it is possible to realize an editing method capable of further improving the amusement property.
さらに本発明においては、 所定の行動モデルに従って行動するロボッ ト装置の 当該行動モデルを可視表示する表示ステップと、 ユーザ操作に応じて、 可視表示 された行動モデルを編集処理する編集ステップとを有する編集処理を行うための プログラムを記録媒体に格納するようにした。  Further, in the present invention, an editing step includes a display step of visually displaying the behavior model of a robot apparatus that behaves according to a predetermined behavior model, and an editing step of editing the visually displayed behavior model in response to a user operation. The program for processing is stored in the recording medium.
この結果この記録媒体に格納されたプログラムでは、 ロボッ ト装置の行動モデ ルをュ一ザ特有のものに編集し、 当該ロボッ ト装置に、 そのユーザ特有の行動を させて他のロボッ ト装置とは異なるュ一ザ独自の特徴を具備することができるた め、 ロボッ ト装置の行動が飽きられるのを有効に防止することができ、 かく して アミユーズメント性をより一層向上させ得る記録媒体を実現できる。 さらに本発明においては、 所定の成長モデルに従って成長するロボット装置の 当該成長モデルを可視表示する表示ステップと、 ユーザ操作に応じて、 可視表示 された成長モデルを編集処理する編集ステップとを有する編集処理を行うための プログラムを記録媒体に格納するようにした。 As a result, in the program stored in the recording medium, the behavior model of the robot device is edited to be unique to the user, and the robot device performs the behavior unique to the user, and communicates with other robot devices. Can have unique features of different users, so that the behavior of the robot device can be effectively prevented from getting tired, and thus a recording medium that can further improve the amusement property. Can be realized. Further, in the present invention, an editing process including a display step of visually displaying the growth model of the robot device that grows according to a predetermined growth model, and an editing step of editing the growth model that is visually displayed according to a user operation. The program for performing is now stored in the recording medium.
この結果この記録媒体に格納されたプログラムでは、 ロボット装置の成長モデ ルをユーザ特有のものに編集し、 当該ロボット装置に、 そのユーザ特有の成長を させて他のロボット装置とは異なるユーザ独自の特徴を具備することができるた め、 ロボット装置の成長が飽きられるのを有効に防止することができ、 かくして ァミューズメント性をより一層向上させ得る記録媒体を実現できる。 図面の簡単な説明  As a result, the program stored in this recording medium edits the growth model of the robot device to be unique to the user, and allows the robot device to perform the growth unique to the user, and is different from other robot devices. Since it is possible to provide the features, it is possible to effectively prevent the growth of the robot apparatus from getting tired, and thus it is possible to realize a recording medium that can further improve the amusement property. BRIEF DESCRIPTION OF THE FIGURES
図 1は、 ペットロボットの外観構成を示す斜視図である。  FIG. 1 is a perspective view showing an external configuration of a pet robot.
図 2は、 ぺットロボットの回路構成を示すブロック図である。  FIG. 2 is a block diagram showing a circuit configuration of the pet robot.
図 3は、 成長モデルを示す概念図である。  Figure 3 is a conceptual diagram showing a growth model.
図 4は、 コントロ一ラの処理の説明に供するブロック図である。  FIG. 4 is a block diagram for explaining the processing of the controller.
図 5は、 感情 ·本能モデル部におけるデータ処理の説明に供する概念図である 図 6は、 確率オートマトンを示す概念図である。  FIG. 5 is a conceptual diagram for explaining data processing in the emotion / instinct model unit. FIG. 6 is a conceptual diagram showing a stochastic automaton.
図 7は、 状態遷移表を示す概念図である。  FIG. 7 is a conceptual diagram showing a state transition table.
図 8は、 有向グラフに説明に供する概念図である。  FIG. 8 is a conceptual diagram provided for explanation in a directed graph.
図 9は、 第 1の成長要素リスト及び第 1の成長要素カウンタテーブルを示す概 念図である。  FIG. 9 is a conceptual diagram showing a first growth element list and a first growth element counter table.
図 1 0は、 第 2の成長要素リスト及び第 2の成長要素カウンタテーブルを示す 概念図である。  FIG. 10 is a conceptual diagram showing a second growth element list and a second growth element counter table.
図 1 1は、 本実施の形態による編集装置の構成を示すブロック図である。 図 1 2は、 成長モデル編集画面を示す概念図である。  FIG. 11 is a block diagram showing the configuration of the editing device according to the present embodiment. FIG. 12 is a conceptual diagram showing a growth model editing screen.
図 1 3は、 行動モデル編集画面を示す概念図である。 図 1 4は、 編集処理手順を示すフローチャートである。 発明を実施するための最良の形態 FIG. 13 is a conceptual diagram showing an action model editing screen. FIG. 14 is a flowchart showing the editing processing procedure. BEST MODE FOR CARRYING OUT THE INVENTION
以下図面について、 本発明の一実施の形態を詳述する。  Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
( 1 ) ペッ トロボットの構成  (1) Pet robot configuration
(1 - 1) ペットロボットの概略構成  (1-1) Schematic configuration of pet robot
図 1において、 1は全体としてペットロボットを示し、 胴体部ユニット 2の前 後左右にそれぞれ脚部ュニット 3 A〜3 Dが連結されると共に、 胴体部ュニット 2の前端部及び後端部にそれぞれ頭部ュニット 4及び尻尾部ュニット 5が連結さ れることにより構成されている。  In FIG. 1, reference numeral 1 denotes a pet robot as a whole, and leg units 3A to 3D are connected to the front, rear, left and right of the body unit 2, respectively, and the front and rear ends of the body unit 2 are respectively provided. The head unit 4 and the tail unit 5 are connected to each other.
この場合胴体部ユニット 2には、 図 2に示すように、 このペットロボット 1全 体の動作を制御するコントローラ 1 0と、 このぺットロボット 1の動力源として のバッテリ 1 1と、 バッテリセンサ 1 2、 熱センサ 1 3及び加速度センサ 1 4等 からなる内部センサ部 1 5とが収納されている。  In this case, as shown in FIG. 2, the body unit 2 includes a controller 10 for controlling the operation of the pet robot 1 as a whole, a battery 11 as a power source of the pet robot 1, and a battery sensor 1 2 And an internal sensor unit 15 including a heat sensor 13 and an acceleration sensor 14.
また頭部ユニット 4には、 このペットロボット 1の 「耳」 に相当するマイクロ ホン 1 6、 「目」 に相当する CCD (C h a r g e C o u p l e d D ev i c e) カメラ 1 7及びタツチセンサ 1 8からなる外部センサ部 1 9と、 「口 」 に相当するスピーカ 20となどがそれぞれ所定位置に配設されている。  The head unit 4 also includes an external microphone comprising a microphone 16 corresponding to the “ears” of the pet robot 1, a CCD (Charge Coupled Dev ice) camera 17 corresponding to the “eyes”, and a touch sensor 18. A sensor section 19, a speaker 20 corresponding to a "mouth", and the like are arranged at predetermined positions.
さらに各脚部ュニット 3 A〜3 Dの関節部分や、 各脚部ュニット 3 A〜3 D及 び胴体部ュ-ット 2の各連結部分、 頭部ュニット 4及び胴体部ュニット 2の連結 部分、 並びに尻尾部ュニット 5及び胴体部ュニット 2の連結部分などには、 それ ぞれァクチユエータ 2 1 i 〜 2 ln が配設されている。 In addition, the joints of the leg units 3A to 3D, the connecting portions of the leg units 3A to 3D and the body unit 2, the connecting portions of the head unit 4 and the body unit 2 and the like in the connecting portion of the tail part Yunitto 5 and the body portion Yunitto 2, their respective Akuchiyueta 2 1 i ~ 2 l n are disposed.
そして外部センサ部 1 9のマイクロホン 1 6は、 ユーザから図示しないサゥン ドコマンダを介して音階として与えられる 「歩け」 、 「伏せ」 又は 「ボールを追 いかけろ」 などの指令音を集音し、 得られた音声信号 S 1 Aをコントローラ 1 0 に送出する。 また CCDカメラ 1 7は、 周囲の状況を撮像し、 得られた画像信号 S 1 Bをコント口一ラ 1 0に送出する。 さらにタツチセンサ 1 8は、 図 1において明らかなように、 頭部ュニット 4の 上部に設けられており、 ユーザからの 「撫でる」 や 「叩く」 といった物理的な働 きかけにより受けた圧力を検出し、 検出結果を圧力検出信号 S 1 Cとしてコント ローラ 1 0に送出する。 The microphone 16 of the external sensor unit 19 collects command sounds such as “walk”, “down” or “follow the ball” given by the user via a sound commander (not shown) as a musical scale. The transmitted audio signal S 1 A is sent to the controller 10. Further, the CCD camera 17 captures an image of the surroundings, and sends the obtained image signal S 1 B to the controller 10. Further, as clearly shown in FIG. 1, the touch sensor 18 is provided on the upper part of the head unit 4 and detects the pressure received by a physical action such as “stroke” or “hit” from the user. The detection result is sent to the controller 10 as a pressure detection signal S 1 C.
また内部センサ部 1 5のバッテリセンサ 1 2は、 ノ ッテリ 1 1のエネルギー残 量を検出し、 検出結果をバッテリ残量検出信号 S 2Aとしてコントローラ 1 0に 送出する。 また温度センサ 1 3は、 ペットロボット 1内部の温度を検出し、 検出 結果を温度検出信号 S 2 Bとしてコント口一ラ 1 0に送出する。 さらに加速度セ ンサ 1 4は、 3軸方向 (Z軸方向、 Y軸方向及び Z軸方向) の加速度を検出し、 検出結果を加速度検出信号 S 2 Cとしてコントローラ 1 0に送出する。  Further, the battery sensor 12 of the internal sensor section 15 detects the remaining energy of the battery 11 and sends the detection result to the controller 10 as a remaining battery detection signal S2A. The temperature sensor 13 detects the temperature inside the pet robot 1 and sends the detection result to the controller 10 as a temperature detection signal S 2 B. Further, the acceleration sensor 14 detects acceleration in three axis directions (Z axis direction, Y axis direction and Z axis direction), and sends the detection result to the controller 10 as an acceleration detection signal S 2 C.
コントローラ 1 0は、 外部センサ部 1 9から与えられる音声信号 S 1 A、 画像 信号 S 1 B及び圧力検出信号 S 1 C等 (以下、 これらをまとめて外部情報信号 S 1と呼ぶ) と、 内部センサ部 1 5から与えられるバッテリ残量信号 S 2 A、 温度 検出信号 S 2 B及び加速度検出信号 S 2 C等 (以下、 これらをまとめて内部情報 信号 S 2と呼ぶ) とに基づいて、 外部及び内部の状態や、 ユーザからの指令及び 働きかけの有無などを判断する。  The controller 10 includes an audio signal S 1 A, an image signal S 1 B, a pressure detection signal S 1 C, and the like (hereinafter collectively referred to as an external information signal S 1) provided from the external sensor unit 19, Based on the remaining battery signal S 2 A, temperature detection signal S 2 B, acceleration detection signal S 2 C, etc. provided from the sensor unit 15 (hereinafter, these are collectively referred to as an internal information signal S 2), And the internal state, and the presence or absence of commands and actions from the user.
そしてコントローラ 1 0は、 この判断結果と、 予めメモリ 1 OAに格納されて いる制御プログラムとに基づいて続く行動を決定し、 当該決定結果に基づいて必 要なァクチユエ一タ 21 , 〜2 ln を駆動させることにより、 頭部ュニット 4を 上下左右に振らせたり、 尻尾部ユニット 5の尻尾 5 Aを動かせたり、 各脚部ュニ ット 3 A〜3 Dを駆動して歩行させるなどの行動や動作を行わせる。 Then, the controller 1 0 includes a result of the determination, determines a subsequent action based on the control program stored in advance in the memory 1 OA, required Akuchiyue Ichita 21 on the basis of the determination result, to 2 l n By driving the unit, the head unit 4 can be swung up, down, left and right, the tail unit 5A of the tail unit 5 can be moved, and each leg unit 3A to 3D can be driven to walk. Perform actions and actions.
またこの際コントローラ 1 0は、 必要に応じて音声信号 S 3を生成してこれを スピーカ 20に与えることにより、 当該音声信号 S 3に基づく音声を外部に出力 させたり、 このペットロボット 1の 「目」 の位置に配設された図示しない L ED (L i g h t Em i t t i n g D i o d e) を点、滅させる。  Also, at this time, the controller 10 generates an audio signal S3 as necessary and gives it to the speaker 20, thereby outputting an audio based on the audio signal S3 to the outside, The LED (Light Emitting Diode) (not shown) placed at the position of the eye is turned off.
このようにしてこのペットロボット 1においては、 外部及び内部の状態や、 ュ 一ザからの指令及びュ一ザからの働きかけの有無などに応じて自律的に行動する ことができるようになされている。 In this way, the pet robot 1 acts autonomously according to the external and internal conditions, the command from the user, the presence or absence of the action from the user, and the like. It has been made possible.
( 1 - 2 ) ペット口ポッ ト 1の成長モデル  (1-2) Growth model of Pet Mouth Pot 1
次にこのぺットロボット 1に搭載された成長機能について説明する。  Next, the growth function mounted on the pet robot 1 will be described.
このぺッ トロボッ ト 1の場合、 ユーザからの働きかけやサゥンドコマンダを用 いた指令などの操作入力の履歴と、 自己の行動及ぴ動作履歴とに応じて、 あたか も本物の動物が 「成長」 するかのごとく行動や動作を変化させるようになされて いる。  In the case of this robot 1, the real animal grows in accordance with the history of operation input such as commands from the user and commands using the sound commander, as well as the history of his / her own actions and actions. They change their behavior and behavior as if they were.
すなわちこのペットロボット 1には、 図 3に示すように、 成長過程として 「幼 年期」 、 「少年期」 、 「青年期」 及び 「成人期」 の 4つの 「成長段階」 が設けら れている。 そしてコントローラ 1 0のメモリ 1 0 Aには、 これら各 「成長段階」 ごとに、 「歩行状態」 、 「モーション (動き) 」 、 「行動」 及び 「サウンド (鳴 き声) 」 の 4つの項目に関する行動及び動作の基礎となる各種制御パラメータ及 び制御プログラム等からなる行動及び動作モデルが予め格納されている。  That is, as shown in Fig. 3, the pet robot 1 is provided with four "growth stages" as growth processes: "childhood", "childhood", "adolescence", and "adult". I have. The memory 10A of the controller 10 stores four items of “walking state”, “motion”, “action” and “sound” for each of these “growth stages”. An action and action model including various control parameters, control programs, and the like that are the basis of the action and action are stored in advance.
そしてコントローラ 1 0は、 初期時には 「幼年期」 の行動及び動作モデルに従 つて、 例えば 「歩行状態」 については歩幅を小さくするなどして 「よちよち歩き 」 となるように、 「モ一シヨン」 については単に 「歩く」 、 「立つ」 、 「寝る」 程度の 「単純」 な動きとなるように、 「行動」 については同じ行動を繰り返し行 うようにするなどして 「単調」 な行動となるように、 また 「サウンド」 について は音声信号 S 3の増幅率を低下させるなどして 「小さく短い」 鳴き声となるよう に、 各ァクチユエータ 2 1 i 〜2 l n 及び音声出力を制御する。 Initially, the controller 10 follows the behavior and behavior model of “childhood”. For example, for “walking state”, the stride length is reduced and the “walking” is performed. Is a simple movement such as simply walking, standing, or sleeping, and a monotonous action such as repeating the same action. to, and as a like to "small short" cries reduce the amplification factor of the audio signal S 3 for "sound", controls each Akuchiyueta 2 1 i ~2 l n and audio output.
またこの際コントローラ 1 0は、 サウンドコマンダを用いた指令入力と、 「撫 でる」 及び 「叩く」 に該当するタツチセンサ 1 8を介してセンサ入力及び決めら れた行動及び動作の成功回数などでなる強化学習と、 「撫でる」 及び 「叩く」 に 該当しないタツチセンサ 1 8を介してのセンサ入力と、 「ボールで遊ぶ」 などの 所定の行動及び動作となどの予め決められた 「成長」 に関与する複数の要素 (以 下、 これを成長要素と呼ぶ) について、 その発生を常時監視してカウントする。 そしてコントローラ 1 0は、 これら成長要素の累積度数に基づいて、 各成長要 素の累積度数の合計値 (以下、 これを成長要素の総合経験値と呼ぶ) が予め設定 された閾値を越えると、 使用する行動及び動作モデルを 「幼年期」 の行動及び動 作モデルよりも成長レベルが高い 「少年期」 の行動及び動作モデルに変更する。 そしてコントローラ 1 0は、 この後この 「少年期」 の行動及び動作モデルに従 つて、 例えば 「歩行状態」 については各ァクチユエータ 2 1 , 〜2 1„ の回転度 数を速くするなどして 「少しはしつかり」 と歩くように、 「モーション」 につい ては動きの数を増加させるなどして 「少しは高度かつ複雑」 な動きとなるように 、 「行動」 については前の行動を参照して次の行動を決定するようにするなどし て 「少しは目的」 をもった行動となるように、 また 「サウンド」 については音声 信号の長さを延ばしかつ増幅率を上げるなどして 「少しは長く大きい」 鳴き声と なるように、 各ァクチユエータ 2 1 〜 2 l n やスピーカ 2 0からの音声出力を 制御する。 At this time, the controller 10 includes a command input using a sound commander, a sensor input via the touch sensor 18 corresponding to “stroke” and “hitting”, and a determined number of successful actions and actions. Participates in reinforcement learning, sensor input via the touch sensor 18 that does not correspond to “stroke” or “hit”, and predetermined “growth” such as predetermined actions and actions such as “playing with a ball” For multiple elements (hereinafter referred to as growth elements), their occurrence is constantly monitored and counted. Then, the controller 10 determines each growth request based on the cumulative frequency of these growth factors. When the total value of the cumulative frequencies of the elements (hereinafter referred to as the total experience value of the growth factor) exceeds a preset threshold, the behavior and behavior model to be used is lower than that of the “childhood” behavior and behavior model. Change to “childhood” behavior and behavior model with high growth level. Then, the controller 10 follows the behavioral and behavioral model of the “childhood” and, for example, in the “walking state”, increases the rotation frequency of each actuator 21, to 21 „, etc. Refer to the previous action for "action" so that the movement becomes "slightly sophisticated and complicated" by increasing the number of movements, such as walking with "repression". In order to determine the next action, etc., the action has “a little purpose”, and for “sound”, extend the length of the audio signal and increase the amplification rate. as a longer large "bark, it controls the audio output from the Akuchiyueta 2 1 ~ 2 l n and the speaker 2 0.
さらにコントローラ 1 0は、 この後これと同様にして、 成長要素の総合経験値 が 「青年期」 や 「成人期」 にそれぞれ対応させて予め設定された各閾値を越える ごとに、 行動及び動作モデルをより成長レベルの高い 「青年期」 又は 「成人期」 の行動及び動作モデルに順次変更し、 当該行動及び動作モデルに従って各ァクチ ユエ一タ 2 1 , 〜2 l n の回転速度やスピーカ 2 0に与える音声信号 S 3の長さ や増幅率を徐々に上げたり、 1つの動作を行う際の各ァクチユエータ 2 1 , 〜2 l n の回転量などを変化させる。 In the same manner, the controller 10 sets the behavior and behavior model each time the total experience value of the growth factor exceeds the threshold value set in advance corresponding to "adolescent" or "adult", respectively. sequentially changed more actions and behavior model of high growth level "adolescence" or "adulthood", the action and operation each according to the model Akuchi Yue Ichita 2 1, to 2 l n rotational speed and the speaker 2 0 gradually raising the length and the amplification factor of the audio signal S 3 to give, each Akuchiyueta 2 1 in performing one operation, to vary the like rotational amount of to 2 l n.
この結果ペットロボット 1は、 「成長段階」 が上がる (すなわち 「幼年期」 か ら 「少年期」 、 「少年期」 から 「青年期」 、 「青年期」 から 「成人期」 に変化す る) に従って、 「歩行状態」 力 S 「よちよち歩き」 から 「しっかりした歩き」 に、 「モーション」 が 「単純」 から 「高度 ·複雑」 に、 「行動」 が 「単調」 から 「目 的をもって行動」 に、 かつ 「サウンド」 が 「小さく短い」 から 「長く大きい」 に 段階的に変化する。  As a result, the pet robot 1 has an increased “growth stage” (that is, changes from “childhood” to “childhood”, “childhood” to “adolescence”, and “adolescence” to “adulthood”). According to the following, "walking state" power S "toddler" to "steady walking", "motion" from "simple" to "advanced / complex", and "action" from "monotone" to "action with purpose" And the "sound" changes gradually from "small and short" to "long and big".
このようにしてこのぺッ トロボッ ト 1においては、 外部からの入力ゃ自己の行 動及び動作の履歴に応じて、 「幼年期」 、 「少年期」 、 「青年期」 及び 「成人期 」 の 4段階で 「成長」 するようになされている。 In this way, in the robot 1, the input from the outside, “childhood”, “childhood”, “adolescence” and “adult It grows in four stages.
なおこの場合、 図 3から明らかなように、 「少年期」 、 「青年期」 及び 「成人 期」 の各 「成長段階」 について、 それぞれ複数の行動及び動作モデルが用意され ている。  In this case, as apparent from FIG. 3, a plurality of behavioral and behavioral models are prepared for each of the “growth stages” of “childhood”, “adolescence” and “adulthood”.
実際上、 例えば 「少年期」 の行動及び動作モデルとして、 動きが雑で速い 「荒 々しい」 性格の行動及び動作を行う行動及び動作モデル (Ch i l d 1 ) と、 これよりも動きが滑らかで遅い 「おっとり」 とした性格の行動及び動作を行う行 動及び動作モデル (Ch i l d 2) とが設けられている。  In practice, for example, a behavior and behavior model of “childhood” is a behavior and behavior model (Ch ild 1) that performs a behavior and behavior of a rough and fast character, and the movement is smoother than this. A behavior and behavior model (Child 2) that performs behaviors and behaviors with a slow “unfriendly” character is provided.
また 「青年期」 の行動及び動作モデルとして、 「少年期」 の 「荒々しい」 性格 よりもより動きが雑で速い 「いらいら」 した性格の行動及び動作を行う行動及び 動作モデル (Yo u n g 1) と、 これよりも動きが遅くかつ滑らかな 「普通」 の性格の行動及び動作を行う行動及び動作モデル (Y o u n g 2) と、 これよ りも一層動きが遅く、 かつ行動量が少ない 「おっとり」 とした性格の行動及び動 作を行う行動及び動作モデル (Y o u n g 3) とが設けられている。  In addition, as a behavior and behavior model of “adolescent”, a behavior and behavior model (Young 1) that performs behavior and behavior of an “irritated” personality that is rougher and faster than the “rough” personality of “boyhood”. ) And a behavior and behavior model (Young 2) that performs behaviors and movements with a “normal” character that is slower and smoother than this. A behavior and behavior model (Young 3) that performs behaviors and behaviors with the character “
さらに 「成人期」 の行動及び動作モデルとして、 それぞれ 「青年期」 の 「いら いら」 した性格よりも動きが雑で速く、 かつユーザからの指令に応じた動作を行 い難い 「攻撃的」 な性格の行動及び動作を行う行動及び動作モデル (Ad u 1 t 1) と、 これよりも動きが滑らかで遅く、 かつユーザからの指令に応じた動作を 行い易い 「少し荒々しい」 性格の行動及び動作モデル (Ad u l t 2) と、 こ れよりも動きが滑らかで遅く、 行動量が少なく、 かつユーザからの指令に応じた 動作を必ず行う 「少しおとなしい」 性格の行動及び動作を行う行動及び動作モデ ル (Ad u l t 3) と、 これよりもさらに一層動きが遅く、 行動量が少なく、 かつュ一ザからの指令に応じた動作を必ず行う 「おとなしい」 性格の行動及び動 作を行う行動及び動作モデル (Ad u 1 t 4) とが設けられている。  In addition, the behavior and behavior model of "adult" is "aggressive", in which the movement is slower and faster than the "irritable" character of "adolescence", and it is difficult to perform the operation in response to commands from the user. Behavior and behavior model (Ad u1t1) that performs personal behavior and behavior, and “slightly violent” personal behavior that is smoother and slower than this and that is easy to perform in response to commands from the user And the behavior model (Adult 2), the behavior that is smoother and slower, the amount of action is smaller, and always performs the action in accordance with the command from the user. The behavior model (Adult 3), which is even slower, has a smaller amount of action, and always performs actions in response to commands from the user. And operation Model (Ad u 1 t 4).
そしてコントローラ 1 ◦は、 「成長段階」 を上げる際、 各成長要素の累積度数 に基づいて次の 「成長段階」 内の各行動及び動作モデルのなかから 1つの行動及 び動作モデルを選択して、 使用する行動及び動作モデルを当該選択した行動及び 動作モデルに変更するようになされている。 Then, when raising the “growth stage”, the controller 1 ◦ selects one behavior and behavior model from among the behaviors and behavior models in the next “growth stage” based on the cumulative frequency of each growth factor. The behavior and behavior model to be used It has been changed to an operation model.
この場合 「少年期」 以降では、 次の 「成長段階」 に移る際、 現在の 「成長段階 」 の行動及び動作モデルから遷移できる次の 「成長段階」 の行動及び動作モデル は決まっており、 図 3において矢印で結ばれた行動及び動作モデル間の遷移しか できない。 従って例えば 「少年期」 において 「荒々しい」 行動及び動作を行う行 動及び動作モデル (C h i l d 1 ) が選択されている場合には、 「青年期」 に おいて 「おっとり」 とした行動及び動作を行う行動及び動作モデル (Y o u n g 3 ) に遷移することができない。  In this case, after the childhood, when moving to the next “growth stage”, the next “growth stage” action and behavior model that can transition from the current “growth stage” behavior and behavior model is determined. Only the transition between the behavior and the behavior model connected by the arrow in 3 can be performed. Therefore, for example, if the behavior and behavior model (C hild 1) that performs “violent” behavior and behavior in “childhood” is selected, “believable” behavior and It is not possible to make a transition to the action and action model (Young 3) that perform the action.
このようにこのぺットロボット 1においては、 あたかも本物の動物が飼い主の 飼育の仕方等によって性格を形成してゆくかのごとく、 ユーザからの働きかけ及 び指令の入力履歴や自己の行動及び動作履歴に応じて、 「成長」 に伴って 「性格 」 をも変化させるようになされている。  In this way, in this pet robot 1, as if a real animal forms its character according to the owner's breeding method, etc., the input from the user, the input history of the command, the own action and the operation history are obtained. Correspondingly, "personality" changes with "growth."
( 2 ) コントローラ 1 0の処理  (2) Processing of controller 10
次にこのぺットロボット 1におけるコントローラ 1 0の具体的な処理について 説明する。  Next, a specific process of the controller 10 in the pet robot 1 will be described.
コントローラ 1 0の処理内容を機能的に分類すると、 図 4に示すように、 外部 及び内部の状態を認識する状態認識機構部 3 0と、 状態認識機構部 3 0の認識結 果に基づいて感情及び本能の状態を決定する感情 ·本能モデル部 3 1と、 状態認 識機構部 3 0の認識結果及び感情 ·本能モデル部 3 1の出力に基づいて続く行動 や動作を決定する行動決定機構部 3 2と、 行動決定機構部 3 2により決定された 行動や動作を行うためのぺットロボット 1の一連の動作計画を立てる姿勢遷移機 構部 3 3と、 姿勢遷移機構部 3 3により立てられた動作計画に基づいてァクチュ エータ 2 1!〜 2 1 nを制御する制御機構部 3 4と、 このぺットロポット 1の 「成 長」 及び 「性格」 を制御する成長制御機構部 3 5とに分けることができる。 Functionally classifying the processing contents of the controller 10, as shown in FIG. 4, the state recognition mechanism unit 30 that recognizes the external and internal states, and the emotion based on the recognition result of the state recognition mechanism unit 30, And the emotions that determine the state of the instinct.The instinct model unit 31 and the recognition results and emotions of the state recognition mechanism unit 30.The action determination mechanism unit that determines the subsequent actions and actions based on the output of the instinct model unit 31. 3 2, an attitude transition mechanism 3 3 that makes a series of motion plans of the pet robot 1 for performing the action and action determined by the action determination mechanism 3 2, and an attitude transition mechanism 3 3 Actuator 2 1 based on the operation plan! 2 n can be divided into a control mechanism section 34 for controlling the growth and a personality of the petro-pot 1.
以下、 これら状態認識機構部 3 0、 感情 ·本能モデル部 3 1、 行動決定機構部 3 2、 姿勢遷移機構部 3 3、 制御機構部 3 4及び成長制御機構部 3 5について詳 細に説明する。 ( 2 - 1 ) 状態認識機構部 3 0の処理 Hereinafter, the state recognition mechanism section 30, the emotion / instinct model section 31, the action determination mechanism section 32, the posture transition mechanism section 33, the control mechanism section 34, and the growth control mechanism section 35 will be described in detail. . (2-1) Processing of state recognition mechanism section 30
状態認識機構部 3 0は、 外部センサ部 1 9 (図 2 ) から与えられる外部情報信 号 S 1 と、 内部センサ部 1 5から与えられる内部情報信号 S 2とに基づいて特定 の状態を認識し、 認識結果を状態認識情報 S 1 0として感情 ·本能モデル部 3 1 及び行動決定機構部 3 2に通知する。  The state recognition mechanism section 30 recognizes a specific state based on the external information signal S 1 provided from the external sensor section 19 (FIG. 2) and the internal information signal S 2 provided from the internal sensor section 15. Then, the recognition result is notified as state recognition information S10 to the emotion / instinct model unit 31 and the action determination mechanism unit 32.
実際上、 状態認識機構部 3 0は、 外部センサ部 1 9のマイクロホン 1 6 (図 2 ) から与えられる音声信号 S 1 Aを常時監視し、 当該音声信号 S 1 Aのスぺク ト ラムとして 「歩け」 、 「伏せ」 、 「ボールを追いかけろ」 などの指令に応じてサ ゥンドコマンダから出力される指令音と同じ音階のスぺク トラムを検出したとき にその指令が与えられたと認識し、 認識結果を感情 ·本能モデル部 3 1及び行動 決定機構部 3 2に通知する。  In practice, the state recognition mechanism section 30 constantly monitors the audio signal S 1 A provided from the microphone 16 (FIG. 2) of the external sensor section 19 and as a spectrum of the audio signal S 1 A. When a spectrum with the same scale as the command sound output from the sound commander in response to a command such as "walk", "down" or "chase the ball" is detected, the command is recognized and given. The result is notified to the emotion and instinct model section 31 and the action decision mechanism section 32.
また状態認識機構部 3 0は、 C C Dカメラ 1 7 (図 2 ) から与えられる画像信 号 S 1 Bを常時監視し、 当該画像信号 S 1 Bに基づく画像内に例えば 「赤い丸い もの」 や 「地面に対して垂直かつ所定高さ以上の平面」 を検出したときには 「ボ —ルがある」 、 「壁がある」 と認識し、 認識結果を感情 ·本能モデル部 3 1及び 行動決定機構部 3 2に通知する。  Further, the state recognition mechanism section 30 constantly monitors the image signal S 1 B provided from the CCD camera 17 (FIG. 2), and includes, for example, “a red circle” or “red circle” in an image based on the image signal S 1 B. When a plane that is perpendicular to the ground and higher than a predetermined height is detected, it recognizes that there is a ball and that there is a wall, and recognizes the recognition result as an emotional instinct model unit 31 and an action decision mechanism unit 3 Notify 2.
さらに状態認識機構部 3 0は、 タツチセンサ 1 8 (図 2 ) から与えられる圧力 検出信号 S 1 Cを常時監視し、 当該圧力検出信号 S 1 Cに基づいて所定の閾値以 上のかつ短時間 (例えば 2秒未満) の圧力を検出したときには 「叩かれた (叱ら れた) 」 と認識し、 所定の閾値未満のかつ長時間 (例えば 2秒以上) の圧力を検 出したときには 「撫でられた (誉められた) 」 と認識し、 認識結果を感情 .本能 モデル部 3 1及び行動決定機構部 3 2に通知する。  Further, the state recognition mechanism section 30 constantly monitors the pressure detection signal S 1 C provided from the touch sensor 18 (FIG. 2), and based on the pressure detection signal S 1 C, a signal having a predetermined threshold or more and a short time ( For example, when a pressure of less than 2 seconds is detected, it is recognized as “hit” (scored), and when a pressure of less than a predetermined threshold and for a long time (for example, 2 seconds or more) is detected, “stroke” (Praised) "and notifies the recognition result to the emotional instinct model unit 31 and the action decision mechanism unit 32.
一方、 状態認識機構部 3 0は、 内部センサ部 1 5の加速度センサ 1 4 (図 2 ) から与えられる加速度検出信号 S 2 Cを常時監視し、 当該加速度信号 S 2 Cに基 づいて例えば予め設定された所定レベル以上の加速度を検出したときには 「大き な衝撃を受けた」 と認識する一方、 これよりもさらに大きい重力加速度程度の加 速度を検出したときには 「 (机等から) 落ちた」 と認識し、 これら認識結果を感 情 ·本能モデル 3 1及び行動決定機構部 3 2に通知する。 On the other hand, the state recognition mechanism section 30 constantly monitors the acceleration detection signal S 2 C given from the acceleration sensor 14 (FIG. 2) of the internal sensor section 15, and for example, based on the acceleration signal S 2 C, When an acceleration equal to or higher than the set level is detected, it is recognized that "a large impact has been received". On the other hand, when an acceleration more than the gravitational acceleration is detected, "it has fallen (from a desk or the like)". Recognize and feel these recognition results Inform the instinct model 31 and the action decision mechanism 32.
また状態認識機構部 3 0は、 温度センサ 1 3 (図 2 ) から与えられる温度検出 信号 S 2 Bを常時監視し、 当該温度検出信号 S 2 Bに基づいて所定以上の温度を 検出したときには 「内部温度が上昇した」 と認識し、 認識結果を感情 ·本能モデ ル部 3 1及び行動決定機構部 3 2に通知する。  Further, the state recognition mechanism section 30 constantly monitors the temperature detection signal S 2 B provided from the temperature sensor 13 (FIG. 2), and when a temperature equal to or higher than a predetermined value is detected based on the temperature detection signal S 2 B, The internal temperature has risen, "and the recognition result is notified to the emotion / instinct model unit 31 and the action determination mechanism unit 32.
( 2 - 2 ) 感情 '本能モデル部 3 1の処理  (2-2) Emotions' Instinct Model Section 3 1 Processing
感情 ·本能モデル部 3 1は、 図 5に示すように、 「喜び」 、 「悲しみ」 、 「驚 き」 、 「恐怖」 、 「嫌悪」 及び 「怒り」 の 6つの情動にそれぞれ対応させて設け られた感情モデルとしての情動ュニット 4 0 A〜4 0 Fからなる基本情動群 4 0 と、 「食欲」 、 「愛情欲」 、 「探索欲」 及び 「運動欲」 の 4つの欲求にそれぞれ 対応させて設けられた欲求モデルとしての欲求ュニット 4 1 A〜4 I Dからなる 基本欲求群 4 1と、 各情動ュニット 4 0 A〜4 0 F及ぴ各欲求ュニット 4 1 A〜 4 1 Dにそれぞれ対応して設けられた強度増減関数 4 2 A〜4 2 Hとを有してい る。 As shown in Fig. 5, emotions and instinct model section 31 are provided corresponding to the six emotions of "joy,""sadness,""surprise,""fear,""disgust," and "anger." Emotion unit 40 as a model of emotions, which corresponds to a basic emotion group 40 composed of 40A to 40F, and four desires of "appetite", "love", "search" and "exercise". The basic unit 4 1 consisting of the desire unit 4 1 A to 4 ID as the required unit model and the emotion unit 40 A to 40 F and each unit 4 1 A to 41 D And the intensity increase / decrease functions 42 A to 42 H provided.
そして各情動ュニット 4 0 A〜4 0 Fは、 対応する情動の度合いを例えば 0〜 1 0 0 レベルまでの強度によってそれぞれ表し、 当該強度を対応する強度増減関 数 4 2 A〜4 2 Fから与えられる強度情報 S 1 1 A〜S 1 1 Fに基づいて時々刻 々と変ィ匕させる。  Each emotion unit 40 A to 40 F expresses the degree of the corresponding emotion by, for example, the intensity up to the 0 to 100 level, and the intensity is obtained from the corresponding intensity increase / decrease function 42 A to 42 F. Based on the given intensity information S11A to S11F, the shape is changed every moment.
また各欲求ュニット 4 1 A〜4 1 Dは、 情動ュニット 4 0 A〜4 0 Fと同様に 、 対応する欲求の度合いを 0〜 1 0 0 レベルまでの強度によってそれぞれ表し、 当該強度を対応する強度増減関数 4 2 G〜4 2 Kから与えられる強度情報 S 1 2 G〜S 1 2 Fに基づいて時々刻々と変化させる。  Each of the desire units 41 A to 41 D represents the degree of the corresponding desire by the intensity from the 0 to 100 level, similarly to the emotion unit 40 A to 40 F, and the intensity corresponds to the intensity. Intensity increasing / decreasing function The intensity increasing / decreasing function is changed every moment based on intensity information S12G to S12F given from 42G to 42K.
そして感情 ·本能モデル 3 1は、 これら情動ュニット 4 0 A〜4 0 Fの強度を 組み合わせることより感情の状態を決定すると共に、 これら欲求ュニット 4 1 A 〜4 1 Dの強度を組み合わせることにより本能の状態を決定し、 当該決定した感 情及び本能の状態を感情 ·本能状態情報 S 1 2として行動決定機構部 3 2に出力 する。 なお強度増減関数 42A〜4 2Gは、 状態認識機構部 30から与えられる状態 認識情報 S 1 0と、 後述の行動決定機構部 3 2から与えられるぺットロボット 1 自身の現在又は過去の行動の内容を表す行動情報 S 1 3とに基づき、 予め設定さ れているパラメータに応じて上述のように各情動ュニット 40 A〜40 F及び各 欲求ュニット 4 1 A〜4 1 Dの強度を増減させるための強度情報 S 1 1 A〜S 1 1 Gを生成して出力するような関数である。 The emotion and instinct model 31 determines the state of emotion by combining the intensity of these emotion units 40A to 40F, and instinct by combining the intensity of these desire units 41A to 41D. Is determined, and the determined emotion and instinct state are output to the action determining mechanism 32 as emotion / instinct state information S12. The intensity increase / decrease functions 42A to 42G include the state recognition information S10 provided from the state recognition mechanism 30 and the current or past behavior of the pet robot 1 itself provided from the behavior determination mechanism 32 described later. Based on the action information S 13 to be represented, the intensity of each emotion unit 40 A to 40 F and each desire unit 41 A to 41 D is increased or decreased as described above in accordance with preset parameters. It is a function that generates and outputs intensity information S11A to S11G.
かくしてぺットロボット 1においては、 これら強度増減関数 4 2 A〜4 2 Gの パラメータを各行動及び動作モデル (B a b y 1、 Ch i l d 1 , C h i 1 d 2、 Yo u n g 1 ~Y o u n g 3、 Ad u l t 1 ~ A d u 1 t 4 ) ごとに異なる値に設定することによって、 ペットロボット 1に 「いらいら」 や 「 おとなしい」 のような性格をもたせることができるようになされている。  Thus, in the robot 1, the parameters of the intensity increase / decrease functions 42 A to 42 G are set to the respective behavior and behavior models (Baby 1, Child 1, Chi 1 d 2, Young 1 to Young 3, Ad By setting different values for each of the ult 1 to A du 1 t 4), the pet robot 1 can have a character such as “irritable” or “calm”.
(2-3) 行動決定機構部 3 2の処理  (2-3) Processing of action decision mechanism 32
行動決定機構部 3 2は、 各行動及び動作モデル (B a b y 1 , Ch i I d 1、 Ch i I d 2、 Yo u n g 1〜 Y o u n g 3、 Ad u l t l〜Ad u 1 t 4) にそれぞれ対応させて、 複数の行動モデルをメモリ 1 OA内に有し ている。  The action decision mechanism 3 2 corresponds to each action and action model (Baby 1, Chi i d 1, Chi i d 2, Young 1 to Young 3, Adult to Ad u 1 t 4), respectively. Thus, a plurality of behavior models are stored in the memory 1 OA.
そして行動決定機構部 3 2は、 状態認識機構部 30から与えられる状態認識情 報 1 0と、 感情 ·本能モデル部 3 1の各情動ュニッ ト 40A〜40 F及び各欲求 ュニット 4 1 A〜4 1 Dの強度と、 対応する行動モデルとに基づいて次の行動や 動作を決定し、 決定結果を行動決定情報 S 1 4として姿勢遷移機構部 3 3及び成 長制御機構部 3 5に出力する。  The behavior determination mechanism 32 includes state recognition information 10 provided from the state recognition mechanism 30, the emotion units 40A to 40F and the desire units 41A to 4E of the emotion and instinct model unit 31. The next action or action is determined based on the 1D strength and the corresponding action model, and the determination result is output to the attitude transition mechanism section 33 and the growth control mechanism section 35 as action determination information S 14. .
この場合、 行動決定機構部 3 2は、 次の行動や動作を決定する手法として、 図 6に示すような 1つのノード (状態) NDA。から同じ又は他のどのノード NDA0 〜NDに遷移するかを各ノードNDA0〜NDAn間を接続するァークARA。〜AR Anに対してそれぞれ設定された遷移確率 P。〜Pnに基づいて確率的に決定する確 率ォートマトンと呼ばれるアルゴリズムを用いる。 In this case, the action determination mechanism part 3 2, as a method to determine the next action and motion, one node, as shown in FIG. 6 (state) ND A. From connecting the same or any other node ND A0 ~ND Aπ each node or transition to ND A0 to ND An Aku AR A. ~ Transition probabilities P set for AR An respectively. Using an algorithm called probability Otomaton determining probabilistically based on to P n.
より具体的には、 メモリ 1 OAには行動モデルとして、 各ノード NDA。〜NDAn ごとの図 7に示すような状態遷移表 50が格納されており、 行動決定機構部 3 2 がこれに状態遷移表 50に基づいて次の行動や動作を決定するようになされてい る。 More specifically, each node ND A as an action model in memory 1 OA. ~ ND An Each state transition table 50 as shown in FIG. 7 is stored, and the action determining mechanism 32 determines the next action or operation based on the state transition table 50.
ここで状態遷移表 50においては、そのノード NDA。〜NDAnにおいて遷移条件 とする入力イベント (認識結果) が 「入力イベント」 の行に優先順に列記され、 その遷移条件についてのさらなる条件が 「データ名」 及び 「データ範囲」 の行に おける対応する列に記述されている。 Here in the state transition table 50, the node ND A. In ND An , input events (recognition results) as transition conditions are listed in order of priority in the “input event” line, and further conditions for that transition condition correspond to the “data name” and “data range” lines. Described in the column.
従って図 7の状態遷移表 50で定義されたノード ND 1 00では、 「ボールを 検出した (BAL L) 」 という認識結果が与えられた場合に、 当該認識結果と共 に与えられるそのボールの 「大きさ (S I Z E) 」 「0力 ら 1 000の範囲 (0 , 1 000) 」 であることや、 「障害物を検出 (OB STACLE) 」 という認 識結果が与えられた場合に、当該認識結果と共に与えられるその障害物までの「距 離 (D I STANCE) 」 「0から 1 00の範囲 (0, 1 00) 」 であること が他のノードに遷移するための条件となっている。  Therefore, in the node ND 100 defined in the state transition table 50 of FIG. 7, when a recognition result of “ball detected (BAL L)” is given, the “ball” of the ball given together with the recognition result is given. If the recognition result is given as “SIZE”, “0 to 1 000 range (0, 1 000)” or “OB STACLE”, the recognition result is given. The “distance (DI STANCE)” and “range of 0 to 100 (0, 100)” to the obstacle given along with is the condition for transition to another node.
またこのノード ND1()。では、 認識結果の入力がない場合においても、 行動決定 機構部が周期的に参照する感情 '本能モデル部 3 1の各情動ュニット 40A〜4 0 F及び各欲求ユニット 4 1 A〜4 1 Dの強度のうち、 「喜び(J OY) 」 、 「驚 き (SUP R I S E) 」 又は 「悲しみ (SUDNE S S) 」 のいずれかの情動ュ ニット 40 A〜40 Fの強度が 「50力 ら 1 00の範囲 (50, 1 00) 」 であ るときには他のノードに遷移することができる。 Also this node ND 1 () . Then, even when there is no input of the recognition result, the emotions that the action determination mechanism unit periodically refers to are the emotion units 40A to 40F of the instinct model unit 31 and the emotion units 40A to 40D of the desire units 41A to 41D. Among the strengths, the emotional unit 40 A to 40 F of “JOY”, “SUP RISE” or “SUDNE SS” has a strength of “100 to 100”. If it is in the range (50, 100) ", it can transition to another node.
また状態遷移表 50では、 「他のノードへの遷移確率」 の欄における 「遷移先 ノード」の列にそのノード NDA。〜NDAnから遷移できるノード名が列記されると 共に、 「入力イベント名」 、 「データ値」 及び 「データの範囲」 の各行に記述さ れた全ての条件が揃つたときに遷移できる他の各ノード N DA0〜 N DAnへの遷移 確率が 「他のノードへの遷移確率」 の欄における 「出力行動」 の行に記述される 。なお「他のノードへの遷移確率」の欄における各行の遷移確率の和は 1 00 〔% 〕 となっている。 従ってこの例のノード NODE 1 00では、 例えば 「ボールを検出 (BAL L ) 」 し、 そのボールの 「大きさ (S I Z E) 」 力 S 「0から 1 000の範囲 (0, 1 000) 」 であるという認識結果が与えられた場合には、 「30 〔%〕 」 の確 率で 「ノード NODE12。 (n o d e 1 20) 」 に遷移でき、 そのとき 「ACT I ON 1」 の行動や動作が出力されることとなる。 Also in the state transition table 50, columns that node ND A of "transition destination node" in the column of "probability of transition to another node". ~ ND An The node names that can be transitioned from ND An are listed, and all other conditions that can be transitioned when all the conditions described in each row of `` input event name '', `` data value '' and `` data range '' are met The transition probabilities of the nodes ND A0 to ND An are described in the row of “output action” in the column of “transition probabilities to other nodes”. Note that the sum of the transition probabilities of each row in the column of “transition probability to another node” is 100 [%]. Therefore, in the node NODE 100 in this example, for example, “ball is detected (BALL)”, and the “SIZE” force S of the ball is “range from 0 to 1 000 (0, 1 000)”. If the recognition result is given, it is possible to transit to “node NODE 12 (node 1 20)” with a probability of “30 [%]”, and then the action or action of “ACT I ON 1” is output. Will be done.
そして各行動モデルは、 それぞれこのような状態遷移表 50として記述された ノード NDA。〜NDAnがいくつも繋がるようにして構成されている。 And each behavior model, the node ND A, which is described as such a state transition table 50, respectively. ~ ND An is configured to connect several.
かく して行動決定機構部 3 2は、 状態認識機構部 30から状態認識情報 S 1 0 が与えられたときや、 最後に行動を発現してから一定時間が経過したときなどに 、 メモリ 1 0 Aに格納されている対応する行動モデルのうちの対応するノ一ド N DA。〜NDAnの状態遷移表 50を利用して次の行動や動作 ( 「出力行動」 の行に 記述された行動や動作) を確率的に決定し、 決定結果を行動指令情報 S 1 4とし て姿勢遷移機構部 3 3及び成長制御機構部3 5に出力するようになされている。 (2-4) 姿勢遷移機構部 3 3の処理 Thus, when the state recognition information S 10 is given from the state recognition mechanism 30 or when a certain period of time has passed since the last appearance of the action, the action determination mechanism section 32 stores the memory 10. The corresponding node ND A of the corresponding behavior model stored in A. Next, the next action or action (the action or action described in the row of “output action”) is stochastically determined using the state transition table 50 of ND An , and the determination result is set as action command information S 14. and to output to the attitude transition mechanism part 3 3 and the growth control mechanism unit 35. (2-4) Posture transition mechanism 3 3 Processing
姿勢遷移機構部 3 3は、 行動決定機構部 3 2から行動決定情報 S 1 4が与えら れると、 当該行動決定情報 S 1 4に基づく行動や動作を行うためのぺッ トロボッ ト 1の一連の動作計画を立て、 当該動作計画に基づく動作指令情報 S 1 5を制御 機構部 34に出力する。  When given the action determination information S14 from the action determination mechanism section 32, the posture transition mechanism section 33 performs a series of robot 1 operations for performing actions and actions based on the action determination information S14. And outputs the operation command information S15 based on the operation plan to the control mechanism unit.
この場合姿勢遷移機構部 3 3は、 動作計画を立てる手法として、 図 8に示すよ うなぺットロボット 1がとり得る姿勢をそれぞれノード NDB。〜NDB2とし、遷移 可能なノード N DB。〜 N DB2間を動作を表す有向ァーク A RB。〜 A RB2で結び、 力 つ 1つのノード NDB。〜NDB2間で完結する動作を自己動作アーク ARC。〜ARC2 として表現する有向グラフを用いる。 In this case the posture transition mechanism unit 3 3, as a method to make a motion plan, each node ND B by Unape Ttorobotto 1 can take attitude shown in FIG. To ND B2 , and the transitionable node ND B. Directed Aku AR B representing the operation between ~ ND B2. ~ One node ND B tied with AR B2 . Self-action operation to complete between ~ND B2 arc AR C. A directed graph expressed as ~ AR C2 is used.
このためメモリ 1 0 Aには、 このような有向グラフの元となる、 当該ペッ ト口 ボッ ト 1が発現できる全ての動作の始点姿勢及び終了姿勢をデータベース化した ファイル (以下、 これをネッ トワーク定義ファイルと呼ぶ) のデータが格納され ており、 姿勢遷移機構部 3 3は、 このネッ トワーク定義ファイルに基づいて、 全 身用、 頭部用、 脚部用及び尻尾部用の各有向グラフ (図示せず) をそれぞれ生成 する。 For this reason, the memory 10A stores in a database the starting point posture and the ending posture of all the motions that can be expressed by the pet port bot 1 that are the basis of such a directed graph (hereinafter referred to as network definition). The data is stored in the posture transition mechanism section 33 based on this network definition file. Generate directed graphs (not shown) for the body, head, legs, and tail.
そして姿勢遷移機構部 3 3は、 行動決定機構部 3 2から 「立て」 、 「歩け」 、 「お手をしろ」 、 「頭を揺すれ」 、 「尻尾を動かせ」 などの行動指令が行動指令 情報 S 1 4として与えられると、 対応する有向グラフを用いて、 有向アークの向 きに従いながら現在のノードから指定された姿勢が対応付けられたノード又は指 定された動作が対応付けられた有向アーク若しくは自己動作アークに至る経路を 探索し、 当該探索した経路上の各有向アークにそれぞれ対応付けられた動作を順 次行わせるような動作指令を動作指令情報 S 1 5として制御機構部 3 4に次々と 出力する。 And posture transition mechanism unit 3 3, "set up" from the action determining mechanism unit 3 2, "walk", "white your hands", "Yusure the head", the action command such as "moving the tail" is the action command Given as information S14, using the corresponding directed graph, a node associated with a specified posture or a specified operation from the current node while following the direction of a directed arc is associated. The control mechanism section searches for a path leading to a directed arc or a self-operating arc, and generates an operation command for sequentially performing an operation associated with each directed arc on the searched path as operation command information S15. Outputs one after the other to 3 and 4.
また姿勢遷移機構部 3 3は、 頭部、 脚部又は尻尾部に対する行動指令が与えら れた場合には、 全身用の有向グラフに基づいてぺットロボット 1の姿勢を当該行 動命令に応じた 「立つ」 、 「すわる」 、 「伏せる」 及び 「バッテリ 1 1 (図 2 ) を充電するための図示しない充電台上の姿勢である 「ステーション」 のうちのい ずれかの基本姿勢に戻し、 この後対応する頭部、 脚部又は尻尾部の有向グラフを 用いて頭部、 脚部又は尻尾部の姿勢を遷移させるように動作指令情報 S 1 5を出 力する。  In addition, when an action command is given to the head, legs, or tail, the posture transition mechanism 33 changes the posture of the pet robot 1 based on the directed graph for the whole body according to the motion command. Return to one of the basic positions of “stand”, “sit”, “down”, and “station”, which is the position on the charging stand (not shown) for charging the battery 11 (FIG. 2). The operation command information S15 is output so as to change the posture of the head, the leg, or the tail using the directed graph of the corresponding head, leg, or tail.
( 2 - 5 ) 制御機構部 3 4の処理  (2-5) Processing of control mechanism section 3 4
制御機構部 3 4は、 姿勢遷移機構部 3 3から与えられる動作指令情報 S 1 5に 基づいて制御信号 S 1 6を生成し、 当該制御信号 S 1 6に基づいて各ァクチユエ ータ 2 1 i 〜2 l n を駆動制御することにより、 ぺットロボット 1に指定された 行動や動作を行わせる。 The control mechanism section 34 generates a control signal S 16 based on the operation command information S 15 given from the attitude transition mechanism section 33, and based on the control signal S 16, each actuator 2 1 i by controlling the driving of the to 2 l n, to perform the behavioral and operation specified in Bae Ttorobotto 1.
( 2 - 6 ) 成長制御機構部 3 5の処理  (2-6) Processing of growth control mechanism 35
成長制御機構部 3 5には、 状態認識機構部 3 0から外部情報信号 S 1及び内部 情報信号 S 2に基づいて認識された各種状態が状態認識情報 S 2 0として供給さ れる。 なおこの各種状態としては、 上述のように感情 ·本能モデル部 3 1及び行 動決定機構部 3 2に通知される特定の状態の他に、 例えば 「撫でられた」 や 「叩 かれた」 に該当しない程度のタツチセンサ 1 8を介して入力などがある。 Various states recognized based on the external information signal S1 and the internal information signal S2 from the state recognition mechanism section 30 are supplied to the growth control mechanism section 35 as state recognition information S20. The various states include, in addition to the specific states notified to the emotion / instinct model section 31 and the behavior determination mechanism section 32 as described above, for example, There is an input via the touch sensor 18 to an extent that does not correspond to “touch”.
また成長制御機構部 3 5は、 状態認識機構部 3 0から与えられる状態認識情報 S 2◦に基づく各種状態のうちの 「成長段階」 を上げる際の参考要素とすべき上 述の成長要素をまとめて記述した図 9 ( A) に示すようなリスト (以下、 これを 第 1の成長要素リストと呼ぶ) 7 O Aと、 これら成長要素の累積度数をそれぞれ カウントするための図 9 ( B ) のようなカウンタテ一ブル (以下、 これを第 1の 成長要素カウンタテーブルと呼ぶ) 7 0 Bとをメモリ 1 0 A内に有している。 そして成長制御機構部 3 5は、 状態認識機構部 3 0から状態認識情報 2 0が与 えられると、 当該状態認識情報 S 2 0に基づき得られる状態が成長要素であるか 否かを第 1の成長要素リスト 7 O Aに基づいて判断し、 当該状態が成長要素であ る場合には第 1の成長要素カウンタテーブル 7 0 B内の対応するカウント値 (経 験値) を 1つ増加させる。  In addition, the growth control mechanism section 35 includes the above-described growth element to be used as a reference element when raising the “growth stage” of various states based on the state recognition information S2 ° given from the state recognition mechanism section 30. A list such as that shown in Fig. 9 (A) described collectively (hereinafter referred to as the first growth factor list) 7 OA, and Fig. 9 (B) for counting the cumulative frequency of these growth factors, respectively. Such a counter table (hereinafter referred to as a first growth element counter table) 70 B is provided in the memory 10 A. Then, when given the state recognition information 20 from the state recognition mechanism section 30, the growth control mechanism section 35 determines whether or not the state obtained based on the state recognition information S20 is a growth element. Judgment is made based on the growth element list 7 OA of the above, and if the state is a growth element, the corresponding count value (experience value) in the first growth element counter table 70 B is increased by one.
また成長制御機構部 3 5は、 上述のように行動決定機構部 3 2から与えられる 行動指令情報 S 1 4に基づき得られる行動のうち、 「成長段階」 を上げる際の参 考要素とすべき上述の成長要素をまとめて記述した図 1 0 ( A) に示すようなリ スト (以下、 これを第 2の成長要素リストと呼ぶ) 7 1 Aと、 これら成長要素の 累積度数をそれぞれカウントするための図 1 0 ( B ) に示すようなカウンタテー ブル (以下、 これを第 2の成長要素カウンタテ一ブルと呼ぶ) 7 1 Bとをメモリ 1 0 A内に有している。  In addition, the growth control mechanism section 35 should be a reference element when raising the “growth stage” among the actions obtained based on the action command information S 14 given from the action determination mechanism section 32 as described above. A list as shown in Fig. 10 (A), which summarizes the above-mentioned growth factors (hereinafter referred to as a second growth factor list) 7 1 A, and counts the cumulative frequency of these growth factors A counter table (hereinafter, referred to as a second growth element counter table) 71 B as shown in FIG. 10B is provided in the memory 10A.
そして成長制御機構部 3 5は、 行動決定機構部 3 2から行動指令情報 S 1 4が 与えられると、 当該行動指令情報 S 1 4に基づき得られる行動や動作が成長要素 であるか否かを第 2の成長要素リス ト 7 1 Aに基づいて判断し、 当該行動が成長 要素である場合には第 2の成長要素カウンタテーブル 7 1 B内の対応するカウン ト値 (経験値) を 1つ増加させる。  Then, when given the action command information S14 from the action determination mechanism section 32, the growth control mechanism section 35 determines whether the action or action obtained based on the action command information S14 is a growth element. Judgment is made based on the second growth factor list 71A, and if the action is a growth factor, one corresponding count value (experience value) in the second growth factor counter table 71B is determined. increase.
さらに成長制御機構部 3 5は、 上述のように第 1又は第 2の成長要素力ゥンタ テーブル 7 0 B、 7 1 B内のカウント値を増加させたときには、 第 1及び第 2の 成長要素カウンタテーブル 7 0 B、 7 I Bとは別に用意した 「成長段階」 を上げ るか否かを判定するためのカウンタ (以下、 これを成長総合経験値カウンタと呼 ぶ) のカウント値を 1つ増加させ、 この後当該成長総合経験値カウンタのカウン ト値が現在の 「成長段階」 の終了条件として予め設定されたカウント値に達した か否かを判断する。 Furthermore, as described above, when the count value in the first or second growth element counter table 70B or 71B is increased, the first and second growth element counters are increased. Increase the "growth stage" prepared separately from tables 70B and 7IB The count value of the counter for judging whether or not to grow or not (hereinafter referred to as the total growth experience value counter) is increased by one. It is determined whether or not a count value set in advance as the end condition of the “step” has been reached.
そして成長制御機構部 3 5は、 成長総合経験値カウンタのカウント値が現在の 「成長段階」 の終了条件として予め設定されたカウント値に達した場合には、 行 動及び動作モデルを次の 「成長段階」 内のどの行動及び動作モデルに変更するか を第 1及び第 2の成長要素カウンタテーブル 7 0 B、 7 1 B内の各カウント値に 基づいて決定し、 決定結果を変更指令情報 S 2 2として感情 ·本能モデル部 3 1 、 行動決定機構部 3 2及び姿勢遷移機構部 3 3に通知する。  Then, when the count value of the total growth experience value counter reaches the count value set in advance as the end condition of the current “growth stage”, the growth control mechanism unit 35 changes the behavior and the operation model to the next “ Which action and behavior model in the `` growth stage '' should be changed is determined based on each count value in the first and second growth factor counter tables 70 B and 71 B, and the determination result is changed command information S As 22, it notifies the emotion and instinct model section 31, the action determination mechanism section 32 and the posture transition mechanism section 33.
この結果、 感情 ·本能モデル部 3 1は、 この変更指令情報 S 2 2に基づいて、 図 5について上述した各強度増減関数 4 2 A〜4 2 Gのパラメータをそれぞれ指 定された行動及び動作モデルの値に変更する。 また行動決定機構部 3 2は、 変更 指令情報 S 2 2に基づいて、 使用する行動モデルを指定された行動及び動作モデ ルのものに変更する。 さらに姿勢遷移機構部 3 3は、 変更指令情報 S 2 2に基づ いて、 この後複数の行動及び動作モデルに対応した有向アークや自己動作アーク の中からいずれかの有向アークや自己動作アークを選択しなければならないよう なときに、 指定された行動及び動作モデルの有向ァ一クゃ自己動作ァークを選択 するように、 設定を変更する。  As a result, based on the change command information S22, the emotion and instinct model unit 31 specifies the parameters of the intensity increase / decrease functions 42A to 42G described above with reference to FIG. Change to model value. The action determining mechanism 32 changes the action model to be used to the specified action and action model based on the change command information S22. Further, based on the change command information S22, the posture transition mechanism section 33 then selects one of the directed arcs and self-operation arcs from the directed arcs and self-operation arcs corresponding to a plurality of behavior and operation models. When the arc must be selected, change the setting so that the directed arc of the specified action and behavior model / self-action arc is selected.
なおこのことからも分かるように、 行動及び動作モデルとは、 その 「成長段階 」 におけるその 「性格」 に対応した感情 ·本能モデル部 3 1における各強度増減 関数 4 2 A〜4 2 Gのパラメータ値と、 行動決定機構部 3 2における行動モデル と、 姿勢遷移機構部 3 3における有向アークや自己動作アークとなどからなるも のである。  As can be seen from this, the behavioral and behavioral models are the emotions corresponding to the "character" in the "growth stage" .The parameters of the intensity increase / decrease functions in the instinct model part 31 1 4 2 A to 4 2 G It consists of a value, an action model in the action determination mechanism section 32, a directed arc and a self-action arc in the attitude transition mechanism section 33, and the like.
このようにして成長制御機構部 3 5は、 ユーザからの働きかけやサウンドコマ ンダを用いた指令などの操作入力の履歴と、 自己の行動及び動作履歴とに応じて 、 「成長」 を制御する。 (3) 本実施の形態による編集装置 In this way, the growth control mechanism section 35 controls “growth” according to the history of operation inputs such as commands from the user and commands using the sound commander, and the behavior and operation history of the user. (3) Editing device according to the present embodiment
(3 - 1) 編集装置の構成  (3-1) Configuration of editing device
図 1 1において、 1 00は本実施の形態による編集装置を示し、 CPU ( C e n t r a l P r o c e s s i n g Un i t) 1 0 1、 ROM (R e a d On l y Memo r y) 1 02, RAM (R a n d om A c c e s s Me mo r y) 1 03、 表示処理回路 1 04、 メディアュニッ ト部 1 0 5、 イン ターフェ一ス回路 1 06及び S CS I (Sma l l C omp u t e r  In FIG. 11, reference numeral 100 denotes an editing device according to the present embodiment, which includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (R and om Accessory). (Memory) 103, display processing circuit 104, media unit 105, interface circuit 106 and SCS I (Small Computer)
S y s t em I n t e r f a c e) ィンターフェ一ス回路 1 0 7が CPUバス 1 08を介して接続されることにより構成されており、 インターフェース回路 1 0 7を介してキーボ一ドゃマウス等からなる操作部 1 09と接続され、 S C S I インターフェース回路 1 0 7を介してハードディスク装置 1 1 0と接続されてい る。  An interface unit 107 is configured by connecting the interface circuit 107 via the CPU bus 108, and an operation unit 1 including a keyboard mouse and the like via the interface circuit 107. 09, and to the hard disk drive 110 via the SCSI interface circuit 107.
また表示処理回路 1 04は、 モニタ 1 1 1 と接続されると共に、 メディアュニ ット部 1 05は、 半導体メモリである例えばメモリ一スティック 1 1 2が揷入さ れることにより、 当該メディアュニッ ト部 1 05内の図示しないドライバによつ て、 挿入されたメモリ一スティック 1 1 2に情報を書き込んだり、 読み出したり できるようになされている。  Further, the display processing circuit 104 is connected to the monitor 111, and the media unit 105 is inserted into a semiconductor memory, for example, a memory stick 112, so that the media unit 111 is inserted. Information is written to and read from the inserted memory stick 1 12 by a driver (not shown) in 05.
この場合 C PU 1 0 1は、 ROM 1 0 2に格納されたアプリケ一ションプログ ラムを RAM 1 03に読み出し、 当該アプリケーションプログラムに基づき RO Ml 02内の画像データを読み出し、 これを表示処理回路 1 04を介して映像信 号 S 1 00としてモニタ 1 1 1に与えることにより、 当該画像データに基づく初 期画面 (図示せず) をモニタ 1 1 1の図示しない表示部に表示させる。  In this case, the CPU 101 reads out the application program stored in the ROM 102 to the RAM 103, reads out the image data in the ROM 102 based on the application program, and displays this in the display processing circuit 1. By giving the video signal S100 to the monitor 111 via the 04, an initial screen (not shown) based on the image data is displayed on a display unit (not shown) of the monitor 111.
そして C PU 1 0 1は、 このモニタ 1 1 1の表示部に表示させた初期画面に応 じて、 ユーザによりメモリ一スティック 1 1 2が対応するメディアュニッ ト部 1 In response to the initial screen displayed on the display unit of the monitor 111, the CPU 101 operates the media unit 1 corresponding to the memory stick 112 by the user.
05に揷入されると、 当該メモリ一スティック 1 1 2に予め設定されている例え ばぺットロボット 1の各種情報 D 1 00を読み出すと共に、 これに基づいて対応 する画像データを ROM 1 02から読み出し、 当該画像データに基づく後述のぺ ッ トロボッ ト 1の成長及び又は行動モデルのプログラムを編集するための GU I (G r a p h i c a l U s e r I n t e r f a c e) 画面をモニタ 1 1 1の 表示部に表示させる。 When 05 is entered, for example, various information D100 of the robot 1 set in advance is read from the memory stick 111, and corresponding image data is read from the ROM 102 based on the information. The following 後 述 based on the image data A GUI (Graphical User Interface) screen for editing the program of the growth and / or behavior model of the robot 1 is displayed on the display unit of the monitor 111.
また CPU 1 0 1は、 このようにモニタ 1 1 1に GU I画面を表示させている 状態において、 ユーザによって操作部 1 09からインタ一フェース回路 1 06を 介して与えられるコマンド S 1 0 1に基づき操作される画面や、 当該操作部 1 0 9からインターフエ一ス回路 1 06を介して入力される数字及び文字等を表示処 理回路 1 04を介してモニタ 1 1 1の表示部に表示されている GU I画面に重畳 させて表示させる。  Further, in the state where the GUI screen is displayed on the monitor 111 as described above, the CPU 101 responds to the command S 101 supplied from the operation unit 109 via the interface circuit 106 by the user. The screen operated based on this, and the numbers and characters input from the operation unit 109 via the interface circuit 106 are displayed on the display unit of the monitor 111 via the display processing circuit 104. Is superimposed on the GUI screen displayed.
そして C PU 1 0 1は、 ペッ トロボッ ト 1の成長モデル及び行動モデルをユー ザの操作に応じて順次編集した後、 得られる編集結果を編集データ D 1 0 1 とし て S CS Iインタ一フェース回路 1 0 7を介してハードディスク装置 1 1 0にバ ックアップを取ると共に、 この編集データ D 1 0 1をメディアュニッ ト部 1 0 5 のドライバを介して、 挿入されているメモリースティック 1 1 2に記憶させる。 このようにしてこの編集装置 1 00は、 メディアュニッ ト部 1 05に挿入され るメモリースティック 1 1 2に予め設定されているぺッ トロボッ ト 1の成長及び 又は行動モデルのプログラムを、 ユーザの嗜好に応じて、 編集することができる ようになされている。  Then, the CPU 101 sequentially edits the growth model and the behavior model of the pet robot 1 according to the operation of the user, and then obtains the edited result as edited data D 101, and the SCS I interface. A backup is made to the hard disk device 110 via the circuit 107, and the edited data D101 is stored in the inserted memory stick 112 via the driver of the media unit 105. . In this way, the editing device 100 can execute the program of the growth and / or behavior model of the robot 1 preset on the memory stick 112 inserted in the media unit 105 according to the user's preference. So that they can be edited.
(3— 2) モニタ 1 1 1に表示される GU I画面の構成  (3-2) Configuration of GUI screen displayed on monitor 1 1 1
実際上モニタ 1 1 1の表示部に表示される GU I画面のうち、 図 1 2に示すよ うなグラフでなる成長モデル編集画面 GU 1は、 メモリースティック 1 1 2に記 憶されているぺッ トロボット 1の 「幼年期」 の行動モデル (行動モデル A) 、 「少 年期」 の行動モデル (行動モデル B l、 B 2) 及び 「青年期」 の行動モデル (行 動モデル C l、 C 2、 C 3) 等からなる成長モデルを表示するための成長モデル 表示エリア GU 1 Aと、 当該成長モデル表示エリア GU 1 Aの成長モデルを編集 するための複数種類の編集アイテム P A 1、 PA 2、 PA3 A、 PA 4及び PA 5からなるアイテム表示ェリア GU 1 Bとにより構成されている。 またこのアイテム表示エリア G U 1 Bの各種編集アイテム P A 1〜P A 5は、 それぞれペットロボット 1 (図 1 ) に対してユーザが与える指令や、 当該ペット ロボット 1の自己の行動に対応させたアイコン I 1! 〜 I 1 5 と、 これに対して ペットロボット 1が行う行動及び動作に対応させたアイコン I 2 , 〜 I 2 s と、 この成長モデルを形成するためのパーツに対応させたアイコン I 〜 I 3 A5 と、 ペットロボット 1の感情及び本能に対応させたアイコン I 4 i 〜 I 4 6 及び I 5 1 〜 I 5 4 等からなる。 Actually, among the GUI screens displayed on the display unit of the monitor 1 1 1, the growth model edit screen GU 1, which is a graph as shown in Fig. 12, is a set stored in the memory stick 1 1 2 Robot 1's “childhood” behavior model (behavior model A), “childhood” behavior model (behavior model Bl, B2), and “adolescent” behavior model (behavior model Cl, C2 , C 3), etc., a growth model display area GU 1 A for displaying a growth model, and a plurality of types of editing items PA 1, PA 2, and so on for editing the growth model of the growth model display area GU 1 A. It consists of an item display area GU1B consisting of PA3A, PA4 and PA5. In addition, various editing items PA 1 to PA 5 in the item display area GU 1 B include commands given by the user to the pet robot 1 (FIG. 1) and icons I corresponding to the behavior of the pet robot 1 itself. 1! A ~ I 1 5, icon I 2 is made to correspond to the behavior and operation pet robot 1 performs contrast, ~ I 2 s and icons I ~ I 3 made to correspond to the part for forming the growth model and a 5, consisting of pet icons to correspond to the emotion of the robot 1 and instinct I 4 i ~ I 4 6 and I 5 1 ~ I 5 4 like.
そしてこの成長モデル編集画面 G U 1における成長モデル表示ェリア G U 1 A の成長モデルを、 ユーザによって選択されるアイテム表示ェリア G U 1 Bのうち の所望するアイコンを用いて操作されることにより、 例えば 「幼児期」 の行動モ デル Aにおいてぺットロボット 1の 「喜び」 の感情が 1 0 0 〔%〕 に達すると、 当該ぺットロボット 1の 「成長段階」 を 「少年期」 の行動モデル B 1に遷移し、 By operating the growth model of the growth model display area GU 1 A on the growth model editing screen GU 1 using a desired icon of the item display area GU 1 B selected by the user, for example, “Infant” When the emotion of “joy” of the pet robot 1 reaches 100% in the behavior model A of the “period”, the “growth stage” of the pet robot 1 is changed to the behavior model B 1 of the “childhood”. ,
「怒り」 の感情が 1 0 0 〔%〕 に達すると、 当該ぺットロボット 1の 「成長段階 」 を 「少年期」 の行動モデル B 2に遷移し、 「食欲」 の本能が 1 0 0 〔%〕 に達 すると、 当該ペットロボット 1の 「成長段階」 を中継ノード (口印) を介し、 こ こで 「好きな色」 を 5 0回見ると、 「少年期」 の行動モデル B 2に遷移するよう に編集できる。 When the emotion of “anger” reaches 100 [%], the “growth stage” of the pet robot 1 transitions to the behavior model B 2 of “childhood”, and the instinct of “appetite” becomes 100 [%]. ), The “growth stage” of the pet robot 1 is viewed through the relay node (mouth) and the “favorite color” is viewed 50 times, and a transition is made to the behavior model B 2 of “childhood” You can edit it to
また 「少年期」 の行動モデル B 1においてぺットロボット 1が 「歩く」 の行動 を 5 0回行うと、 ペットロボット 1の 「成長段階」 を 「青年期」 の行動モデル C 1に遷移し、 「ボールで遊ぶ」 の行動を 5 0回行うと、 当該ペットロボット 1の 「成長段階」 を 「青年期」 の行動モデル C 2に遷移するように編集できると共に 、 「少年期」 の行動モデル B 2においてペットロボット 1が 「ポー/レで遊ぶ」 の 行動を 5 0回行うと、 当該ペットロボット 1の 「成長段階」 を 「青年期」 の行動 モデル C 2に遷移し、 「大きな音」 を 5 0回聞くと、 当該ペットロボット 1の 「 成長段階」 を 「青年期」 の行動モデル C 3に遷移するように編集できる。  When the pet robot 1 performs “walking” 50 times in the “boyhood” behavior model B 1, the “growth stage” of the pet robot 1 transitions to the “adolescent” behavior model C 1, and “ By performing the action of “play with ball” 50 times, the “growth stage” of the pet robot 1 can be edited so as to transition to the “adolescent” behavior model C 2, and the “boyhood” behavior model B 2 When the pet robot 1 performs the action of “playing with po / le” 50 times, the “growth stage” of the pet robot 1 is shifted to the behavior model C 2 of “adolescent” and the “loud sound” is When heard 0 times, the pet robot 1 can be edited so that the "growth stage" of the pet robot 1 is shifted to the behavior model C3 of "adolescence".
このようにしてこの編集装置 1 0 0では、 モニタ 1 1 1に表示される成長モデ ル編集画面 G U 1をユーザによって操作されることにより、 ペットロボット 1の 成長モデルのプログラムをユーザの嗜好に応じて編集できるようになされている またモニタ 1 1 1の表示部に表示されるグラフでなる行動モデル編集画面 GU 2は、 図 1 3に示すように、 メモリ一スティック 1 1 2に記憶されているぺット ロボット 1の行動モデノレ A、 B l、 B 2、 C 1〜C 3の中からユーザによって選 択された行動モデル Aの一部が表示される編集ェリア GU 2 Aと、 上述のアイテ ム表示ェリア GU 1 Bとほぼ同様の編集ェリア GU 2 Aの行動モデルの一部を編 集するための複数種類の編集アイテム P A 1、 PA 2、 PA3 B、 4及び? A 5からなるアイテム表示ェリア GU 2 Bとにより構成されている。 In this way, in the editing device 100, the growth model editing screen GU 1 displayed on the monitor 111 is operated by the user, so that the pet robot 1 The growth model program can be edited according to the user's preference. The behavior model editing screen GU2, which is a graph displayed on the display unit of the monitor 111, has a memory, as shown in FIG. A part of the behavior model A selected by the user from the behavior model A, Bl, B2, and C1 to C3 of the robot 1 stored in the stick 1 1 2 is displayed. Multiple editing items PA1, PA2, PA3B for editing a part of the behavior model of the editorial area GU2A, which is almost the same as the item display area GU1B described above. , 4 and? It consists of an item display area GU 2 B consisting of A 5.
またこのアイテム表示ェリア GU 2 Bの各種編集アイテム P A 1〜P A 5のう ち編集アイテム PA 3 Bは、 ユーザによって選択された行動モデル Aを形成する ためのパーツにそれぞれ対応させたアイコン I 3 B, 〜 I 3 B5 等からなる。 そしてこの行動モデル編集画面 GU 2における編集ェリア GU 2 Aの行動モデ ルを、 ユーザによって選択されるアイテム表示ェリア GU 2 Bのうちの所望する アイコンを用いて操作されることにより、 例えば行動モデル Aのノ一ド NDC1に おいてペットロボッ ト 1が 「大きな音」 を聞くと 50 〔%〕 の遷移確率で有向ァ ーク ARC1A1で示す方向に進んで中継ノード (口印) PAR, に移り、 この後 「声 を出す」行動を起こして有向アーク A RC1A2で示す方向に進み、 中継ノード PAR 2を介して 「立つ」 行動を起こし、 有向アーク ARC1A3で示す方向に進むことによ り、 これら有向アーク ARC1A1〜ARC1A3でなる破線で囲んで示す自己動作アーク ARC1A の行動を編集することができる。 In addition, among the various editing items PA1 to PA5 of the item display area GU2B, the editing item PA3B is an icon I3B corresponding to a part for forming the behavior model A selected by the user. , ~ I 3 B 5 etc. Then, the behavior model of the editing area GU 2 A on the behavior model editing screen GU 2 is operated by using a desired icon of the item display area GU 2 B selected by the user. When the pet robot 1 hears a “loud sound” in the node ND C1 , the node moves forward in the direction indicated by the directed arc AR C1A1 with a transition probability of 50%, and the relay node PAR, to move, after this "give voice", the flow proceeds in the direction indicated by the directed arc AR C1A2 taking action, via a relay node PAR 2 caused a "stand" action, to proceed in the direction shown by the directed arc AR C1A3 Thereby , the behavior of the self- moving arc AR C1A indicated by a dashed line consisting of these directed arcs AR C1A1 to AR C1A3 can be edited.
また行動モデノレ Aのノード NDC1においてぺットロボット 1から 50 〔 c m〕 以内の位置に 「ボール」 が存在すると、 有向アーク A RC1B1で示す方向に進んで中 継ノード PAR3に移り、 この後 「歩く」 行動を起こして有向アーク A RC1B2で示 す方向に進み、 中継ノード PAR4 を介して 「ポールをける」 行動を起こし、 有 向ァ一ク ARC1B3で示す方向に進むことにより、 これら有向アーク ARC1B1〜AR C1B3でなる破線で囲んで示す自己動作アーク ARC1B の行動を編集することができ る。 Also, if a “ball” exists within 50 cm from the pet robot 1 at the node ND C1 of the behavioral model A, the robot moves in the direction indicated by the directed arc AR C1B1 to the relay node PAR 3 and then “ walk "taking action proceed in the direction indicated by a directed arc AR C1B2, via a relay node PAR 4 to take action to" kick the pole ", by proceeding in the direction indicated by the Yes Koaichiku AR C1B3, these The behavior of the self- moving arc AR C1B shown by the dashed line consisting of the directed arcs AR C1B1 to AR C1B3 can be edited. You.
同様にして行動モデル Aのノード NDC1においてぺッ トロボット 1力 S 「大きな 音」 を聞くと 50 〔%〕 の遷移確率で有向アーク A RC21で示す方向に進んで中継 ノード PAR5を介して 「すわる」 行動を起こし、 ノード NDC2に遷移し、 行動モ デル Aのノ一ド NDC1においてペッ トロボット 1の 「食欲」 の本能が 50 〔%〕 に達すると、 ノード NDC3に遷移するように編集することができる。 Via the relay node PAR 5 proceeds in the direction indicated by the directed arc AR C21 transition probability Similarly hear behavior model A node ND C1 Nioitepe' preparative robot 1 force S "loud sound" of the 50 [%] `` Sit down '' and transition to node ND C2 , and when the instinct of “Appetite” of pet robot 1 reaches 50 [%] in node ND C1 of behavior model A, transition to node ND C3 You can edit it to
因みにこのときこれら各アイコンは、 ユーザによるいわゆるドラックアンドド 口ップ操作によって、 アイテム表示ェリア GU 2 Bから編集ェリア GU 2 Aの行 動モデルのうちの所望する部位へ選択的に移動されるようになされている。 この とき各アイコンは、 何回でも選択することができる。  Incidentally, at this time, these icons are selectively moved from the item display area GU2B to a desired part in the behavior model of the edit area GU2A by a so-called drag-and-drop operation by the user. Has been made. At this time, each icon can be selected any number of times.
このようにしてこの編集装置 1 00では、 モニタ 1 1 1に表示される行動モデ ル編集画面 GU 2をユーザによって操作されることにより、 ペッ トロボッ ト 1の 行動モデルのプログラムをユーザの嗜好に応じて編集できるようになされている  In this way, in the editing apparatus 100, by operating the action model editing screen GU 2 displayed on the monitor 111 by the user, the program of the action model of the pet robot 1 can be changed according to the user's preference. Can be edited
(3 - 3) C PU 1 0 1の編集処理手順 (3-3) Editing procedure of CPU 101
ここで実際上編集装置 1 00の C PU 1 0 1は、 ユーザによって電源が立ち上 げられると、 図 1 2に示す編集処理手順 RT 1に従って上述のようなぺッ トロボ ット 1の成長及び又は行動モデルのプログラムの編集処理を実行する。  Here, in practice, when the power is turned on by the user, the CPU 101 of the editing apparatus 100 grows and grows the above-described robot 1 according to the editing processing procedure RT1 shown in FIG. Alternatively, the program of the behavior model is edited.
すなわち CPU 1 0 1は、 ユーザにより電源が立ち上げられると、 この編集処 理手順 RT 1をステップ S P 0において開始し、 続くステップ S P 1において、 モニタ 1 1 1の表示部に 「メモリースティックを差し込んで下さい」 と言う旨の メッセージを初期画面 (図示せず) として表示させる。  That is, when the power is turned on by the user, the CPU 101 starts the editing processing procedure RT1 in step SP0, and in the following step SP1, inserts a “Memory Stick” into the display section of the monitor 111. Please display a message saying "Please" as an initial screen (not shown).
この後 C PU 1 0 1は、 次のステップ S P 2に進んでユーザによりメモリース ティック 1 1 2が編集装置 1 00のメディアュニッ ト部 1 05に挿入されると、 このメモリースティック 1 1 2力 ら予め設定されているぺットロボッ ト 1の各種 情報 D 1 00を読み出すと共に、 これに基づいて対応する画像データを ROM 1 02から読み出し、 当該画像データに基づくぺッ トロボッ ト 1の成長及び行動モ デルを編集するための成長モデル編集画面 GU 1、 GU 2 (図 1 2、 図 1 3) を モニタ 1 1 1の表示部に表示させる。 Thereafter, the CPU 101 proceeds to the next step SP2, and when the user inserts the memory stick 112 into the media unit 105 of the editing device 100, the CPU 101 pre-starts from the memory stick 112. The various types of information D100 of the set robot 1 are read, and the corresponding image data is read from the ROM 102 based on the information, and the growth and behavior model of the robot 1 based on the image data is read. Display the growth model edit screens GU 1 and GU 2 (Figures 1 and 2) for editing Dell on the monitor 1 1 1 display unit.
そして C PU 1 0 1は、 続くステップ S P 3に進んでモニタ 1 1 1に表示され ている成長モデル編集画面 GU 1においてユーザが成長モデルの編集を選択する 場合、 次のステップ S P 4に進んで当該成長モデルの編集を実行し、 ステップ S P 3においてユーザが成長モデル編集画面 GU 1の中から所望する行動モデルを 選択すると、 モニタ 1 1 1に表示されている画面を当該選択された行動モデルに 対応する行動モデル編集画面 GU 2に切り換え、 次のステップ S P 4に進んで当 該選択された行動モデルの編集を実行する。  Then, the CPU 101 proceeds to the following step SP 3 and proceeds to the next step SP 4 when the user selects to edit the growth model on the growth model editing screen GU 1 displayed on the monitor 111. When the growth model is edited and the user selects a desired behavior model from the growth model editing screen GU1 in step SP3, the screen displayed on the monitor 1 1 1 is changed to the selected behavior model. The screen is switched to the corresponding behavior model editing screen GU2, and the process proceeds to the next step SP4, where the selected behavior model is edited.
このステップ S P 4において C PU 1 0 1は、 モニタ 1 1 1に表示されている 成長モデル編集画面 GU 1又は GU 2を、 ユーザにより操作部 1 0 9を介して操 作されることに応じて当該成長モデル編集画面 GU 1又は GU 2に対応するぺッ トロボット 1の成長又は行動モデルを編集する。  In step SP4, the CPU 101 responds to the user operating the growth model editing screen GU1 or GU2 displayed on the monitor 111 via the operation unit 109. Edit the growth or behavior model of the pet robot 1 corresponding to the growth model edit screen GU1 or GU2.
そして CPU 1 0 1は、 続くステップ S P 5に進み、 この成長モデル編集画面 GU 1又は GU 2に対応するぺットロボット 1の成長又は行動モデルの編集を終 了するか否か判断し、 ユーザから当該ぺットロボット 1の他の成長又は行動モデ ルの編集を行う指示がコマンド S 1 0 1 として与えられることにより否定結果を 得ると、 ステップ S P 3に戻り、 モニタ 1 1 1に再び成長モデル編集画面 GU 1 を表示させて、 ユーザに所望する成長又は行動モデルを選択させる。  Then, the CPU 101 proceeds to the subsequent step SP5, determines whether or not to end the editing of the growth or behavior model of the pet robot 1 corresponding to the growth model editing screen GU1 or GU2, and If an instruction to edit another growth or behavior model of the pet robot 1 is given as a command S101, a negative result is obtained, the process returns to step SP3, and the growth model editing screen GU is displayed again on the monitor 111. Display 1 to let the user select the desired growth or behavior model.
この後 C PU 1 0 1は、 上述と同様に以下のステップ S P 4及び S P 5を実行 し、 ステップ S P 5において肯定結果を得るまでこのステップ S P 3— S P 4— S P 5 - S P 3のループを繰り返し、 やがてステップ S P 5においてユーザから ぺットロボット 1の成長及び行動モデルの編集を完了する指示がコマンド S 1 0 1 として与えられることにより肯定結果を得ると、 次のステップ S P 6に進む。 このステップ S P 6において C PU 1 0 1は、 このようにして編集された編集 結果を編集データ D 1 0 1 として S CS Iインターフエ一ス回路 1 0 7を介して ハードディスク装置 1 1 0にバックアップを取り、 ステップ S P 7に進んで当該 編集データ D 1 0 1をメディアユニット部 1 0 5のドライバを介して、 揷入され ているメモリースティック 1 1 2に記憶させる。 Thereafter, the CPU 101 executes the following steps SP 4 and SP 5 in the same manner as described above, and loops the steps SP 3—SP 4—SP 5—SP 3 until a positive result is obtained in step SP 5. Repeatedly, in step SP5, when the user gives an instruction to complete the growth of the pet robot 1 and edit the behavior model as the command S101, a positive result is obtained, and the process proceeds to the next step SP6. In step SP6, the CPU 101 backs up the edited result as edited data D101 to the hard disk device 110 via the SCS I interface circuit 107. And proceed to step SP 7 The edited data D101 is stored in the inserted Memory Stick 112 via the driver of the media unit 105.
そして C P U 1 0 1は、 このステップ S P 7においてメモリースティック 1 1 2に編集データ D 1 0 1を記憶させ終えるとステップ S P 8に進み、 モニタ 1 1 1に 「メモリースティックを取り出して下さレ、」 と言う旨のメッセージ (図示せ ず) を表示させ、 ュ一ザによってメモリ一スティック 1 1 2がメディアユニット 部 1 0 5から取り出されると、 次のステップ S P 9に進んでこの編集処理手順 R T 1を終了する。  Then, when the CPU 101 finishes storing the edited data D101 on the memory stick 112 in step SP7, the CPU 101 proceeds to step SP8, and says, "Remove the memory stick," on the monitor 111. Message (not shown) is displayed, and when the user removes the memory stick 112 from the media unit 105 by the user, the process proceeds to the next step SP 9 to end the editing process procedure RT 1 I do.
このようにしてこの編集処理手順 R T 1では、 メディアュニット部 1 0 5に挿 入されるメモリースティック 1 1 2に予め設定されているぺッ トロボッ ト 1の成 長及び又は行動モデルのプログラムを、 ユーザの嗜好に応じて、 編集することが できる。  In this way, in the editing processing procedure RT1, the program for the growth and / or behavior model of the robot 1 preset on the memory stick 112 inserted into the media unit 105 is It can be edited according to the user's preference.
( 4 ) 本実施の形態の動作及び効果  (4) Operation and effect of this embodiment
以上の構成において、 この編集装置 1 0 0では、 ペットロボット 1に対してュ 一ザが行う 「叩く」 や 「撫でる」 などの働きかけや、 ユーザがサウンドコマンダ を用いて与える指令及ぴ当該ペットロボット 1力 s 「ボール」 を用いて遊んだりす る行動に従って段階的に変化する当該ぺットロボッ ト 1の成長及び又は行動モデ ルのプログラムをユーザの嗜好に応じて編集する。 In the above configuration, in the editing device 100, the user performs actions such as “hit” and “stroke” performed by the user on the pet robot 1, a command given by the user using the sound commander, and the pet robot 1. editing according to the preference of the user graded the pair Ttorobo' sheet 1 of growth and or behavioral model program in accordance with actions you play with first force s "ball".
従ってこの編集装置 1 0 0では、 ペッ トロボッ ト 1の性格をユーザ特有のもの に編集し、 当該ぺッ トロボット 1に、 そのユーザ特有の成長及び行動をさせて他 のぺットロボットとは異なるユーザ独自の特徴を具備することができ、 かく して ユーザを飽き難くさせてより一層の親近感や満足感をュ一ザに与えることができ る。  Therefore, the editing device 100 edits the personality of the pet robot 1 to be unique to the user, and causes the pet robot 1 to grow and behave in a manner unique to the user, so that the user is different from other pet robots. It can be provided with unique features, thus making it harder for the user to get tired and giving the user a greater sense of intimacy and satisfaction.
以上の構成によれば、 ユーザの嗜好に応じてぺッ トロボッ ト 1の成長及び又は 行動モデルのプログラムを編集するようにしたことにより、 当該ぺットロボッ ト 1にユーザ独自の特徴を具備することができるため、 ユーザを飽き難く させてよ り一層の親近感や満足感をユーザに与えることができ、 かく してアミユーズメン ト性を格段と向上させ得る編集装置 1 0 0を実現できる。 According to the above configuration, by editing the program of the growth and / or behavior model of the robot 1 according to the user's preference, the robot 1 can be provided with a unique feature of the user. Can make the user hard to get tired of and give the user a more intimate and satisfying feeling. An editing device 100 that can significantly improve the performance can be realized.
( 5 ) 他の実施の形態  (5) Other embodiments
なお上述の実施の形態においては、 本発明をぺッ トロボット 1の行動及び動作 モデルを編集する編集装置 1 0 0に適用するようにした場合について述べたが、 本発明はこれに限らず、 例えばこのような編集装置 1 0 0におけるぺッ トロボッ ト 1の行動及び動作モデルの編集を行うアプリケーションプログラムが記録され た記録媒体を用いた通常のパーソナルコンピュータに適用し、 当該パーソナルコ ンピュータによって、 当該ぺットロボット 1等の行動及び動作モデルの編集を行 うようにしても良く、 この他種々の編集装置に広く適用することができる。 また上述の実施の形態においては、 本発明の編集対象を図 1のように構成され た 4足歩行型のぺッ トロボット 1の成長及び行動モデルに適用するようにした場 合について述べたが、 本発明はこれに限らず、 この他種々の構成のロボッ ト装置 に広く適用することができる。 またコンピュータグラフィックスでモニタ画面上 で動くキャラクタ等にも適用することができる。  Note that, in the above-described embodiment, a case has been described in which the present invention is applied to the editing device 100 that edits the behavior and behavior model of the pet robot 1. However, the present invention is not limited to this. For example, the present invention is applied to a normal personal computer using a recording medium on which an application program for editing the behavior and behavior model of the robot 1 in such an editing device 100 is recorded. The behavior and behavior model of the pet robot 1 and the like may be edited, and can be widely applied to various other editing devices. In the above-described embodiment, a case has been described in which the object of editing of the present invention is applied to the growth and behavior model of a quadruped walking type robot 1 configured as shown in FIG. However, the present invention is not limited to this, and can be widely applied to robot devices having various other configurations. It can also be applied to characters moving on a monitor screen in computer graphics.
この場合において、 上述の実施の形態においては、 行動及び動作モデルに基づ いて行動や動作を生成する行動及び又は動作生成手段を、 コントローラ 1 0、 ァ クチユエータ 2 1 , 〜2 l n 、 スピーカ 2 0及び 「目」 の位置の L E Dなどによ り構成するようにした場合について述べたが、 本発明はこれに限らず、 本発明を 適用するロボット装匱の形態に応じてこの他種々の構成を適用することができる さらに上述の実施の形態においては、 外部からの入力履歴と、 自己の行動及び 動作履歴との両方に基づいて性格や成長レベルを変更するようにした場合につい て述べたが、 本発明はこれに限らず、 外部からの入力履歴と自己の行動及び動作 履歴とのいずれか一方にのみ基づいて、 又は外部からの入力履歴と自己の行動及 び動作履歴以外の要素を加味して、 「成長」 以外のタイミングでぺットロボッ ト 1の性格や成長レベルを変更するようにしても良い。 さらにまた自己の行動履歴 及び動作履歴のいずれか一方に基づいて性格や成長レベルを変更するようにして も良い。 In this case, in the embodiment described above, the actions and or motion generating means for generating a behavior and motion model behavior and operation based on the controller 1 0, § Kuchiyueta 2 1, to 2 l n, the speaker 2 Although the description has been given of the case where the light emitting device is configured by the LED at the position of 0 and the position of the “eye”, the present invention is not limited to this, and various other structures depending on the form of the robot mounting to which the present invention is applied. Furthermore, in the above-described embodiment, the case has been described where the personality and the growth level are changed based on both the input history from the outside and the own action and operation history. However, the present invention is not limited to this. Based on only one of the external input history and its own behavior and operation history, or based on the external input history and its own behavior and operation history, By taking into account the original, it is also possible to change the character and growth level Bae Ttorobo' door 1 at the timing other than "growth". Furthermore, personality and growth level are changed based on either one's own action history and action history. Is also good.
さらに上述の実施の形態においては、 ペッ トロボット 1を段階的に 「成長」 さ せるようにした場合について述べたが、 本発明はこれに限らず、 成長要素の状態 を検出したり、 成長要素の行動又は動作を行うごとに制御パラメ一タの値を順次 変更するようにして無段階的に 「成長」 させるようにしても良い。  Further, in the above-described embodiment, the case where the pet robot 1 is made to “grow” stepwise has been described. However, the present invention is not limited to this, and it is possible to detect the state of the growth element, The value of the control parameter may be changed successively each time the action or action is performed, so that the "growth" is performed steplessly.
さらに上述の実施の形態においては、 ペッ トロボット 1を 「幼年期」 、 「少年 期」 、 「青年期」 及び 「成人期」 の 4段階で 「成長」 させるようにした場合につ いて述べたが、 本発明はこれに限らず、 「成長段階」 の数を 4以外の数に設定す るようにしても良い。  Further, in the above-described embodiment, a case has been described where the pet robot 1 is allowed to “grow” in four stages of “childhood”, “childhood”, “adolescence”, and “adult”. However, the present invention is not limited to this, and the number of “growth stages” may be set to a number other than four.
さらに上述の実施の形態においては、 外部からの入力履歴としてタツチセンサ 1 8を介しての接触入力や、 C C Dカメラ 1 7による撮像及びサウンドコマンダ を用いての指令音入力などの履歴を適用するようにした場合について述べたが、 本発明はこれに限らず、 これらに加えて又はこれら以外の外部からの入力履歴を 適用するようにしても良い。  Further, in the above-described embodiment, a history such as a contact input via the touch sensor 18, an image captured by the CCD camera 17, and a command sound input using a sound commander is applied as an external input history. However, the present invention is not limited to this, and an input history from the outside in addition to or in addition to these may be applied.
さらに上述の実施の形態においては、 「少年期」 以降の各 「成長段階」 にそれ ぞれ複数の行動及び動作モデルを用意するようにした場合について述べたが、 本 発明はこれに限らず、 各 「成長段階」 に 1つの行動及び動作モデルしか用意しな いようにしても良レ、。  Furthermore, in the above-described embodiment, a case has been described in which a plurality of behavior and behavior models are prepared for each of the “growth stages” after the “childhood”. However, the present invention is not limited to this. It is good to prepare only one behavior and behavior model for each “growth stage”.
さらに上述の実施の形態においては、 「成長」 に伴って変更される項目を 「歩 行状態」 、 「モーション」 、 「行動」 及び 「サウンド」 の 4つにするようにした 場合について述べたが、 本発明はこれに限らず、 「成長」 に伴ってこれ以外の項 目を変更するようにしても良い。 産業上の利用の可能性  Further, in the above-described embodiment, a case has been described in which four items of “walking state”, “motion”, “action”, and “sound” are changed according to “growth”. However, the present invention is not limited to this, and other items may be changed with “growth”. Industrial applicability
本発明は、 例えばぺッ トロボッ トの成長モデルや行動モデルを編集する編集装 置に適用できる。  INDUSTRIAL APPLICABILITY The present invention can be applied to, for example, an editing device for editing a growth model or an action model of a pet robot.

Claims

請 求 の 範 囲 The scope of the claims
1 . 所定の行動モデルに従って行動するロボッ ト装置の当該行動モデルを可視表 示する表示手段と、 1. Display means for visually displaying the behavior model of a robot device acting according to a predetermined behavior model,
ュ一ザ操作に応じて、 可視表示された上記行動モデルを編集処理する編集処理 手段と  Editing processing means for editing the action model visually displayed in response to a user operation;
を具えることを特徴とする編集装置。  An editing device comprising:
2 . 上記表示手段は、 2. The above display means
上記ロボット装置の上記行動モデルをグラフとして可視表示する  Visually display the behavior model of the robot device as a graph
ことを特徴とする請求の範囲第 1項に記載の編集装置。  3. The editing device according to claim 1, wherein
3 . 所定の成長モデルに従って成長するロボッ ト装置の当該成長モデルを可視表 示する表示手段と、 3. display means for visually displaying the growth model of the robot device growing according to a predetermined growth model;
ユーザ操作に応じて、 可視表示された上記成長モデルを編集処理する編集処理 手段と  Editing processing means for editing the growth model visually displayed in response to a user operation;
を具えることを特徴とする編集装置。  An editing device comprising:
4 . 上記表示手段は、 4. The above display means
上記ロボッ ト装置の上記成長モデルをグラフとして可視表示する  Visually display the growth model of the robot device as a graph
ことを特徴とする請求の範囲第 3項に記載の編集装置。  4. The editing device according to claim 3, wherein:
5 . 所定の行動モデルに従って行動するロボッ ト装置の当該行動モデルを可視表 示する第 1のステップと、 5. a first step of visually displaying the behavior model of the robot device acting in accordance with the predetermined behavior model;
ユーザ操作に応じて、 可視表示された上記行動モデルを編集処理する第 2のス テツプと  A second step for editing the above-mentioned behavior model displayed in response to a user operation;
を具えることを特徴とする編集方法。 Editing method characterized by comprising.
6 . 上記第 1のステップでは、 6. In the first step above,
上記ロボット装置の上記行動モデルをグラフとして可視表示する  Visually display the behavior model of the robot device as a graph
ことを特徴とする請求の範囲第 5項に記載の編集方法。  6. The editing method according to claim 5, wherein:
7 . 所定の成長モデルに従って成長するロボット装置の当該成長モデルを可視表 示する第 1のステップと、 7. a first step of visually displaying the growth model of the robotic device growing according to the predetermined growth model;
ュ一ザ操作に応じて、 可視表示された上記成長モデルを編集処理する第 2のス テツプと  A second step of editing and processing the visible growth model in response to a user operation.
を具えることを特徴とする編集方法。  Editing method characterized by comprising.
8 . 上記第 1のステップでは、 8. In the first step above,
上記ロボット装置の上記成長モデルをグラフとして可視表示する  Visually display the growth model of the robot device as a graph
ことを特徴とする請求の範囲第 7項に記載の編集方法。  8. The editing method according to claim 7, wherein:
9 . 所定の行動モデルに従って行動するロボット装置の当該行動モデルを可視表 示する表示ステップと、 9. A display step of visually displaying the behavior model of the robot device acting according to the predetermined behavior model;
ユーザ操作に応じて、 可視表示された上記行動モデルを編集処理する編集ステ ップとを有する編集処理を行うためのプログラムが格納された  A program for performing an editing process including an editing step of performing an editing process on the behavior model visually displayed in accordance with a user operation is stored.
ことを特徴とする記録媒体。  A recording medium characterized by the above-mentioned.
1 0 . 上記表示ステップでは、 1 0. In the above display step,
上記ロボット装置の上記行動モデルをグラフとして可視表示する  Visually display the behavior model of the robot device as a graph
ことを特徴とする請求の範囲第 9項に記載の記録媒体。  10. The recording medium according to claim 9, wherein:
1 1 . 所定の成長モデルに従って成長するロボット装置の当該成長モデルを可視 表示する表示ステップと、 1 1. a display step of visually displaying the growth model of the robot apparatus growing according to a predetermined growth model;
ユーザ操作に応じて、 可視表示された上記成長モデルを編集処理する編集ステ ップとを有する編集処理を行うためのプログラムが格納された ことを特徴とする記録媒体。 An editing step for editing the visible growth model in response to a user operation. A recording medium storing a program for performing an editing process having a step.
1 2 . 上記表示ステップでは、 1 2. In the above display step,
上記ロボット装置の上記成長モデルをグラフとして可視表示する ことを特徴とする請求の範囲第 1 1項に記載の記録媒体。  12. The recording medium according to claim 11, wherein the growth model of the robot device is visually displayed as a graph.
PCT/JP2000/009417 1999-12-29 2000-12-28 Edit device, edit method, and recorded medium WO2001049461A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US09/914,453 US7063591B2 (en) 1999-12-29 2000-12-28 Edit device, edit method, and recorded medium
KR1020017010991A KR20010102425A (en) 1999-12-29 2000-12-28 Edit device, edit method, and recorded medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP37725799A JP2001191281A (en) 1999-12-29 1999-12-29 Editing device, editing method, and storage medium
JP11/377257 1999-12-29

Publications (1)

Publication Number Publication Date
WO2001049461A1 true WO2001049461A1 (en) 2001-07-12

Family

ID=18508521

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/009417 WO2001049461A1 (en) 1999-12-29 2000-12-28 Edit device, edit method, and recorded medium

Country Status (6)

Country Link
US (1) US7063591B2 (en)
JP (1) JP2001191281A (en)
KR (1) KR20010102425A (en)
CN (1) CN1124191C (en)
TW (1) TW544614B (en)
WO (1) WO2001049461A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7187998B2 (en) 2003-02-17 2007-03-06 Matsushita Electric Industrial Co., Ltd. Article handling system and method and article management system and method

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6456234B1 (en) 2000-06-07 2002-09-24 William J. Johnson System and method for proactive content delivery by situation location
US8060389B2 (en) 2000-06-07 2011-11-15 Apple Inc. System and method for anonymous location based services
CN1392826A (en) * 2000-10-05 2003-01-22 索尼公司 Robot apparatus and its control method
EP1575687A2 (en) * 2002-12-19 2005-09-21 Koninklijke Philips Electronics N.V. System and method for controlling a robot
JP4473849B2 (en) * 2003-06-02 2010-06-02 パナソニック株式会社 Article handling system and article handling server
CN100436082C (en) * 2003-08-12 2008-11-26 株式会社国际电气通信基础技术研究所 Communication robot control system
JP2006198017A (en) * 2005-01-18 2006-08-03 Sega Toys:Kk Robot toy
JP4652357B2 (en) * 2007-02-27 2011-03-16 日本電信電話株式会社 Media editing server device, media editing system, and media editing program
GB2448883A (en) * 2007-04-30 2008-11-05 Sony Comp Entertainment Europe Interactive toy and entertainment device
KR20090065212A (en) * 2007-12-17 2009-06-22 한국전자통신연구원 Robot chatting system and method
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
CN101653660A (en) * 2008-08-22 2010-02-24 鸿富锦精密工业(深圳)有限公司 Type biological device for automatically doing actions in storytelling and method thereof
US20100100038A1 (en) * 2008-10-15 2010-04-22 Symbios Medical Products, Llc Electronic flow control
TWI416295B (en) * 2010-05-28 2013-11-21 Compal Communications Inc Machine action editing system and method thereof
US8924011B2 (en) * 2012-04-03 2014-12-30 Knu-Industry Cooperation Foundation Intelligent robot apparatus responsive to environmental change and method of controlling and reconfiguring intelligent robot apparatus
JP5978027B2 (en) * 2012-06-28 2016-08-24 本田技研工業株式会社 Mobile robot controller
JP7186058B2 (en) * 2018-10-16 2022-12-08 東京瓦斯株式会社 Robot matching system and program
EP3791718A4 (en) * 2019-05-24 2022-04-06 Ohta Seiki Co., Ltd. Wild animal repelling device
JP7070529B2 (en) 2019-10-31 2022-05-18 カシオ計算機株式会社 Equipment control device, equipment control method and program
KR102295836B1 (en) * 2020-11-20 2021-08-31 오로라월드 주식회사 Apparatus And System for Growth Type Smart Toy

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08194517A (en) * 1995-01-13 1996-07-30 Nippon Telegr & Teleph Corp <Ntt> Teaching device and teaching data preparing method
JPH09269812A (en) * 1996-03-29 1997-10-14 Minolta Co Ltd Operation instruction compiling device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4923428A (en) * 1988-05-05 1990-05-08 Cal R & D, Inc. Interactive talking toy
US6012961A (en) * 1997-05-14 2000-01-11 Design Lab, Llc Electronic toy including a reprogrammable data storage device
IL121642A0 (en) * 1997-08-27 1998-02-08 Creator Ltd Interactive talking toy
JP2000254360A (en) * 1999-03-11 2000-09-19 Toybox:Kk Interactive toy
JP3212578B2 (en) * 1999-06-30 2001-09-25 インタロボット株式会社 Physical voice reaction toy
US6565407B1 (en) * 2000-02-02 2003-05-20 Mattel, Inc. Talking doll having head movement responsive to external sound

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08194517A (en) * 1995-01-13 1996-07-30 Nippon Telegr & Teleph Corp <Ntt> Teaching device and teaching data preparing method
JPH09269812A (en) * 1996-03-29 1997-10-14 Minolta Co Ltd Operation instruction compiling device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7187998B2 (en) 2003-02-17 2007-03-06 Matsushita Electric Industrial Co., Ltd. Article handling system and method and article management system and method
US7209803B2 (en) 2003-02-17 2007-04-24 Matsushita Electric Industrial Co., Ltd. Article handling system and method and article management system and method
US7187999B2 (en) 2003-06-02 2007-03-06 Matsushita Electric Industrial Co., Ltd. Article handling system and method and article management system and method
US7191035B2 (en) 2003-06-02 2007-03-13 Matsushita Electric Industrial Co., Ltd. Article handling system and method and article management system and method
US7206668B2 (en) 2003-06-02 2007-04-17 Matsushita Electric Industrial Co., Ltd. Article handling system and method and article management system and method

Also Published As

Publication number Publication date
US20020137425A1 (en) 2002-09-26
US7063591B2 (en) 2006-06-20
JP2001191281A (en) 2001-07-17
CN1124191C (en) 2003-10-15
KR20010102425A (en) 2001-11-15
CN1339997A (en) 2002-03-13
TW544614B (en) 2003-08-01

Similar Documents

Publication Publication Date Title
WO2001049461A1 (en) Edit device, edit method, and recorded medium
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
JP4696361B2 (en) Robot apparatus and operation control method
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
WO2000067961A1 (en) Robot device and method for controlling the same
WO2000068879A1 (en) Robot device, its control method, and recorded medium
JPH10289006A (en) Method for controlling object to be controlled using artificial emotion
JP2002049385A (en) Voice synthesizer, pseudofeeling expressing device and voice synthesizing method
JP2001025984A (en) Robot device, its control method and recording medium
JP2004298975A (en) Robot device and obstacle searching method
WO2002030629A1 (en) Robot apparatus, information display system, and information display method
JP2003340760A (en) Robot device and robot control method, recording medium and program
JP2001157982A (en) Robot device and control method thereof
JP2004130428A (en) Robot device, action control method for robot device, recording medium and program
JP2001157980A (en) Robot device, and control method thereof
JP2001157979A (en) Robot device, and control method thereof
JP2002178282A (en) Robot device and its control method
JP2001154707A (en) Robot device and its controlling method
JP2001157981A (en) Robot device and control method thereof
JP4419035B2 (en) Robot apparatus and control method thereof
JP2003208161A (en) Robot apparatus and method of controlling the same
JP2003136439A (en) Robot device, and method and program for controlling gait of robot device
JP2001191274A (en) Data holding device, robot device, modification device and modification method
JP2003071762A (en) Robot device, robot control method, recording medium, and program
JP2003136451A (en) Robot device and control method thereof

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00803905.4

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

WWE Wipo information: entry into national phase

Ref document number: 09914453

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020017010991

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1020017010991

Country of ref document: KR

WWW Wipo information: withdrawn in national office

Ref document number: 1020017010991

Country of ref document: KR