WO2000043167A1 - Robot device and motion control method - Google Patents

Robot device and motion control method Download PDF

Info

Publication number
WO2000043167A1
WO2000043167A1 PCT/JP2000/000263 JP0000263W WO0043167A1 WO 2000043167 A1 WO2000043167 A1 WO 2000043167A1 JP 0000263 W JP0000263 W JP 0000263W WO 0043167 A1 WO0043167 A1 WO 0043167A1
Authority
WO
WIPO (PCT)
Prior art keywords
posture
information
model
robot device
emotion
Prior art date
Application number
PCT/JP2000/000263
Other languages
French (fr)
Japanese (ja)
Inventor
Makoto Inoue
Taku Yokoyama
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US09/646,506 priority Critical patent/US6442450B1/en
Priority to JP2000594613A priority patent/JP4696361B2/en
Priority to EP00900846A priority patent/EP1088629A4/en
Priority to KR1020007010417A priority patent/KR100721694B1/en
Publication of WO2000043167A1 publication Critical patent/WO2000043167A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Definitions

  • the present invention relates to a robot device and an operation control method, and is suitably applied to, for example, a robot device that operates like a quadruped.
  • a quadruped walking robot apparatus that operates in response to a command from a user or the surrounding environment, an articulated robot, or an animation using a character that moves by computer graphics.
  • a robot device or animation hereinafter collectively referred to as a robot device, etc. performs a series of operations based on a command from a user.
  • a so-called petrobot which is a robotic device that resembles a quadruped like a dog, takes a prone posture when the user receives a command to prone. Whenever the user presents his hand in front of his / her mouth, he or she will “hand”.
  • conventional robot devices only perform predetermined operations based on commands from the user and the environment.
  • the conventional robot device does not operate autonomously like a real animal, and therefore, operates as close to a real animal as possible and autonomously. It was not possible to satisfy the user's request to obtain a robot device or the like that determines the action.
  • the robot device and the like execute a target posture and a target operation via a predetermined posture and motion, but during the transition to the target posture and motion, Preparing a plurality of postures and movements to be executed leads to enrichment of movement expressions of robot devices and the like.
  • the posture or movement to be passed is optimally selected and is set as the purpose. It can be said that it is preferable to be able to make a transition to a posture and motion that is appropriate. Disclosure of the invention
  • the present invention has been made in view of the above-described circumstances, and has as its object to propose a robot apparatus and an operation control method for autonomously performing a natural operation.
  • the present invention has been made in view of the above-described circumstances, and provides a robot device and an operation control method that enable enrichment of expressions and optimize postures and operations during transition.
  • the purpose is.
  • the robot device according to the present invention is a robot device that performs an operation according to supplied input information, has a model caused by the operation, and changes the model based on the input information.
  • Model change means for determining the action by the operation.
  • a robot device having such a configuration has a model caused by an action, and determines the action by changing the model based on input information. For example, if the model is an emotion model or an instinct model, robot The robot will act autonomously based on the emotions and instinct of the smart device itself.
  • an operation control method is an operation control method for operating according to supplied input information, and determines an operation by changing a model caused by the operation based on the input information.
  • Such a motion control method determines a motion by changing a model based on input information. For example, if the model is an emotion model or an instinct model, the robot device can change the state of its own emotion or instinct. Based on this, they will behave autonomously.
  • the robot device is a robot device that performs an operation in accordance with supplied input information, and a current operation in accordance with a history of sequentially supplied input information and a next operation to be supplied.
  • An operation determining means for determining a next operation following the current operation based on the input information is provided.
  • a robot device having such a configuration determines a current operation according to a history of input information sequentially supplied and a next operation following the current operation based on input information supplied next.
  • the robot device acts autonomously based on its own emotions and instinct.
  • the operation control method according to the present invention is an operation control method for operating according to supplied input information, wherein the current operation according to the history of sequentially supplied input information and the next supplied input Based on the information, determine the next action following the current action.
  • Such an operation control method determines a current operation according to a history of input information sequentially supplied and a next operation following the current operation based on input information supplied next.
  • the robot device autonomously acts based on its own emotions and instinct.
  • the robot apparatus according to the present invention includes: a graph storage unit configured to hold a graph in which the posture and the motion are registered, the graph being configured by connecting the posture and the motion of transitioning the posture. The path from the posture to the target posture or the target movement is searched on the graph based on the action command information, and is operated based on the search result. Control means for transitioning to a posture or a target movement.
  • the robot apparatus having such a configuration is based on a graph in which the posture and the motion stored in the graph storage means are registered, and the graph is formed by connecting the posture and the motion for changing the posture. Then, the posture changes to the target posture or the target posture designated by the action command information. Specifically, the robot device searches for a path from the current posture to the target posture or the target movement on the graph based on the action command information by the control means. To make a transition from the current posture to the target posture or the target motion.
  • the motion control method according to the present invention is configured such that a posture from a current posture to a target posture or a target movement is registered based on the behavior command information, and the posture and the above-described movement are registered.
  • a search is performed on a graph formed by connecting the position and the operation to change the posture, and the operation is performed based on the search result, thereby transiting from the current posture to the target posture or the target operation.
  • the motion control method is based on a posture and a registered motion, which are formed by connecting the posture and the motion for changing the posture, to the target indicated by the action command information.
  • Figure A transition is made to a force or a target posture.
  • FIG. 1 is a perspective view showing an embodiment of a robot device according to the present invention.
  • FIG. 2 is a block diagram showing a circuit configuration of the mouth bot device.
  • FIG. 3 is a schematic diagram illustrating data processing in the controller.
  • FIG. 4 is a schematic diagram illustrating data processing by the emotion / instinct model unit.
  • FIG. 5 is a schematic diagram illustrating data processing by the emotion / instinct model unit.
  • FIG. 6 is a schematic diagram illustrating data processing by the emotion / instinct model unit.
  • Figure 7 is a state transition diagram of the finite automaton in the action decision mechanism.
  • FIG. 8 is a block diagram illustrating a configuration of an action determining mechanism unit and the like used for describing generation of action command information.
  • FIG. 9 is a diagram used to explain a case where a state is determined by probability.
  • FIG. 10 is a diagram showing a table in which the relationship between the transition probability and the state to be transitioned is described.
  • FIG. 11 is a diagram showing a graph of a posture transition in the posture transition mechanism unit.
  • FIG. 12 is a diagram showing a specific example of a graph of a posture transition.
  • Fig. 13 shows the transition to a temporary transition when the current posture cannot be grasped. -This is a state transition diagram used to explain that the vehicle is provided with a tall posture and that it is possible to return from a fall.
  • FIG. 14 is a diagram used to explain a route search using distance as an index.
  • FIG. 15 is a diagram used to explain a case where a route search is performed by classification.
  • FIG. 16 is a diagram used to explain a route search when a distance is specifically set.
  • FIG. 17 is a top view of the robot device used to explain the case where the walking direction is used as a parameter.
  • Figure 18 is a diagram showing the parameters and the contents of the operation.
  • FIG. 19 is a diagram used to explain a case where another operation is synchronized with an operation during transition between postures.
  • FIG. 20 is a diagram used to explain a case where a similar operation is performed in different postures.
  • FIG. 21 is a perspective view showing a robot device.
  • FIGS. 22A and 22B are views used to explain the case where the basic posture is adopted and the posture is changed between the whole and the part.
  • Fig. 23 is a diagram used to explain the case where the current posture is the whole and the target motion is in the part, and the target motion is executed after temporarily transitioning to the basic posture.
  • Fig. 24 is a diagram used to explain the case where the target posture is executed after the transition to the basic posture once when the current posture is in the part and the target motion is in the whole.
  • FIGS. 25A and B are diagrams used to explain the insertion process of the command. It is.
  • FIG. 26 is a diagram showing a command storage unit that can store commands corresponding to the whole and each component.
  • FIG. 27 is a diagram used to explain an example of a processing mode by a command storage unit that can store commands corresponding to the whole and each component.
  • FIG. 28 is a block diagram illustrating an operation route search unit that performs a route search.
  • FIG. 29 is a flowchart showing a series of processing until an operation is executed by a command.
  • FIG. 30 is a diagram used to explain that a plurality of directional arcs are passed from the current posture to the target operation on the graph of the head.
  • FIG. 31 is another example to which the present invention is applied, and is a diagram showing a character moving with computer graphics.
  • FIG. 32 is a perspective view showing another embodiment of the robot apparatus according to the present invention. BEST MODE FOR CARRYING OUT THE INVENTION
  • the robot apparatus 1 is entirely configured, and includes a head 2 corresponding to a head, a main body 3 corresponding to a body, and feet 4A, 4B, 4 corresponding to feet. It is composed of C, 4D and a tail 5 corresponding to the tail.
  • the robot device 1 has a head 2, Acts like a real quadruped by moving the feet 4A-4D and the tail 5.
  • the head 2 has an image recognition unit 10 that is equivalent to the eye and captures an image, for example, a CCD (Charge Coupled Device) camera, a microphone 11 that corresponds to the ear and collects voice, and a mouth.
  • the speakers 1 and 2 that emit sound are respectively mounted at predetermined positions.
  • the head 2 has a remote controller receiving unit 13 for receiving a command transmitted from a user via a remote controller (not shown) and a head for detecting that the user's hand or the like has come into contact.
  • a touch sensor 14 and an LED (Light Emitter Diode) 15 as a light emitting means are mounted.
  • a battery 21 is attached to the body 3 at a position corresponding to the belly, and an electronic circuit (not shown) for controlling the operation of the entire robot device 1 and the like are housed inside the battery 21.
  • the actuators 23 A to 23 N are connected to each other, and are driven based on control of an electronic circuit housed in the main body 3. In this way, the robot apparatus 1 drives the actuators 23 A to 23 N to swing the head 2 up and down, left and right, swing the tail 5, and swing the feet 4 A to Move 4D to walk or run to make it move like a real quadruped.
  • the robot device 1 configured as described above will be described later in detail, but has, for example, the following features in outline.
  • first posture first posture
  • second posture the robot device does not directly transition from the first posture to the second posture, but in advance. The transition follows the prepared posture.
  • the robot device 1 includes a head, a foot, and a tail, and can independently manage the posture of each of these parts. Therefore, for example, the head and the foot can be independently controlled in posture. In addition, the entire posture, including the head, feet, and tail, can be managed separately from the parts.
  • parameters for indicating details of the operation can be passed to the operation instruction of the robot device 1.
  • the robot device 1 has the above features, and many features including such features will be described below.
  • the circuit configuration of the robot device 1 is, for example, as shown in FIG.
  • the head 2 is composed of a command receiving unit 30 consisting of a microphone 11 and a remote controller receiving unit 13, an external sensor 31 consisting of an image recognizing unit 10 and a touch sensor 14, a speaker 12 and an LED 15 And.
  • the main unit 3 has a battery 21 and a controller 32 for controlling the operation of the robot device 1 as a whole, and a battery sensor 33 for detecting the remaining amount of the battery 21.
  • an internal sensor 35 comprising a heat sensor 34 for detecting heat generated inside the robot device 1.
  • actuators 23A to 23N are provided at predetermined positions of the robot device 1, respectively. You.
  • the command receiving unit 30 is for receiving a command given by the user to the robot device 1, for example, a command such as “walk”, “down”, “follow the ball”, and the like. 3 and a microphone 11.
  • the remote controller receiving section 13 receives a desired command input by a user operating a remote controller (not shown). For example, transmission of commands from the remote controller is performed by infrared light.
  • the remote controller receiving section 13 receives the infrared light, generates a received signal S 1 A, and sends it to the controller 32.
  • the remote controller is not limited to the case where the remote control is performed by infrared light, and may be such that a command is given to the robot device 1 by a musical scale.
  • the robot device 1 performs, for example, a process according to the scale from the remote controller input from the microphone 11.
  • the microphone 11 collects the voice uttered by the user, generates a voice signal S 1 B, and sends this to the controller 32.
  • the command receiving unit 30 generates a command signal S1 composed of the received signal S1A and the audio signal S1B according to the command given to the mouth-bot device 1 from the user in this way, and sends this to the controller 32. To supply.
  • the touch sensor 14 of the external sensor 31 is used to detect a user's action on the mouth pot device 1, for example, an action such as "stroke” or "slap".
  • a user's action on the mouth pot device 1 for example, an action such as "stroke” or "slap”.
  • a contact detection signal S 2 A corresponding to the action is generated and sent to the controller 32 (the image recognition unit 10 of the external sensor 31 As a result of identifying the environment around the mouth robot 1, information on the surrounding environment such as “dark” or “there is a favorite toy” or other information such as “other robot is running”
  • the image recognition unit 10 sends an image signal S 2 B obtained as a result of capturing a surrounding image to the controller 32.
  • the external sensor 31 generates an external information signal S2, which is a contact detection signal S2A and an image signal S2B, according to the external information given from outside the robot apparatus 1 as described above.
  • the internal sensor 35 is for detecting the internal state of the robot apparatus 1 itself, for example, an internal state such as "hungry” or "heated", which means that the battery capacity has decreased. It is composed of a battery sensor 33 and a heat sensor 34.
  • the battery sensor 33 detects the remaining amount of the battery 21 that supplies power to each circuit of the robot device 1.
  • the battery sensor 33 sends a battery capacity detection signal S 3 A, which is a result of the detection, to the controller 32.
  • the heat sensor 34 is for detecting heat inside the robot device 1.
  • the heat sensor 34 sends a heat detection signal S 3 B, which is the detection result, to the controller 32.
  • the internal sensor 35 generates an internal information signal S3 including a battery capacity detection signal S3A and a heat detection signal S3B according to the information inside the robot device 1 as described above, and outputs the signal to the controller. 3 Send to 2.
  • the controller 32 includes a command signal S 1 supplied from the command receiving section 30, an external information signal S 2 supplied from the external sensor 31, and an internal information signal S supplied from the internal sensor 35. 3 to generate control signals S5A to S5N for driving each of the actuators 23A to 23N, which are respectively transmitted to the actuators 23A to 23N.
  • the robot device 1 is operated by sending and driving.
  • the controller 32 generates the audio signal S10 and the light emission signal S11 for output to the outside as necessary, and outputs the audio signal S10 to the outside via the speaker 12 as necessary. Or by sending a light emission signal S11 to the LED 15 to produce a desired light emission output (for example, blinking or changing a color) to inform a user of necessary information. .
  • a desired light emission output for example, blinking or changing a color
  • the user can be informed of his / her own emotion by emitting light.
  • an image display unit for displaying an image may be provided instead of the LED 15. This allows the user to be informed of necessary information, such as emotions, by displaying a desired image.
  • the controller 32 includes a command signal S 1 supplied from the command receiving unit 30, an external information signal S 2 supplied from the external sensor 31, and an internal information signal S 2 supplied from the internal sensor 35. 3 is subjected to data processing in software based on a program stored in a predetermined storage area in advance, and a control signal S 5 obtained as a result is supplied to the actuator 23.
  • the operation of the actuator 23 is expressed as the operation of the robot device 1, and the present invention aims at realizing such an expression.
  • the controller 32 includes an emotion / instinct model section 40 as an emotion instinct model changing means and an action determining mechanism as an action determining means.
  • Section 41 and an attitude transition mechanism section 4 2 as attitude transition means and a control mechanism section 4 3 .
  • the command signal S 1, the external information signal S 2, and the internal information signal S 3 are supplied from the outside. Is input to the emotion ⁇ instinct model section 40 and the action decision mechanism section 41. In outline, it works as follows.
  • Instinct model section 40 determines the state of feelings and instinct based on command signal S 1, external information signal S 2 and internal information signal S 3. Then, in addition to the command signal S 1, the external information signal S 2, and the internal information signal S 3 in the action determination mechanism section 41, based on the emotion obtained by the instinct model section 40 and the instinct state information S 10, The action (behavior) is determined, and a posture transition plan for transitioning to the next motion (behavior) determined by the behavior determination mechanism 41 in the subsequent stage transition mechanism 42 is made. The information on the action (action) determined by the action determination mechanism section 41 is fed back to the emotion. Instinct model section 40, and the emotion / instinct model section 40 refers to the determined action (action). It is also used to determine the state of emotions and instinct. In other words, the emotion and instinct model unit 40 determines the instinct and emotion by also referring to the action (action) result.
  • the control mechanism section 43 controls each operation section based on the posture transition information S18 sent from the posture transition mechanism section 42 based on the posture transition plan, and after the posture is actually changed, The next action (action) determined by the action decision mechanism 41 is actually executed.
  • the robot device 1 has the controller 3 2 as described above. Based on emotions and instincts, the next action (action) is determined, a transition plan is made to a posture that can perform such action (action), and the posture is transitioned based on the transition plan. After that, the action (action) determined based on such emotion and instinct is actually executed.
  • the controller 32 each component of the controller 32 will be described.
  • the emotions' instinct model section 40 is roughly divided into an emotion group 50 that constitutes an emotion model and an instinct model prepared as a model having different attributes from the emotion model.
  • the desire group 5 1 is provided.
  • the emotion model is a model configured by an emotion parameter having a certain value, and for expressing an emotion defined in the robot device through an operation according to the value of the emotion parameter.
  • the value of the emotion parameter fluctuates mainly based on external input signals (external factors) such as “hit” and “angry” detected by sensors such as a pressure sensor and a visual sensor.
  • emotion parameters may also change based on internal input signals (internal factors) such as the remaining battery power and internal temperature.
  • the instinct model is composed of instinct parameters having a certain value, and is a model for expressing the instinct (desire) specified in the robot device through an operation corresponding to the value of the instinct parameter.
  • the values of the instinct parameters fluctuate mainly based on internal input signals such as “I want to exercise” based on the action history or “I want to charge (hungry)” based on the battery level. Needless to say, the instinct parameters also change based on external input signals (external factors), like the emotion parameters. You may do it.
  • emotion model and instinct model are composed of multiple types of models each having the same attribute. That is, the emotion group 50 has the emotion units 50 A to 50 F as independent emotion models having the same attribute, and the desire group 51 has the desire unit as an independent desire model having the same attribute. It has 5 1 A to 5 IDs.
  • the emotion group 50 is an emotion unit 50 A showing the emotion of "joy”, an emotion unit 50 B showing the emotion of "sadness", and an emotion unit showing the emotion of "anger”. 50 C, an emotion unit 50 D showing an emotion of “surprise”, an emotion unit 50 E showing an emotion of “fear”, and an emotion unit 50 F showing an emotion of “disgust”.
  • the desire group 51 includes a desire unit for movement instincts 51 A, a desire unit for love instincts 51 B, a desire unit for love inst i nct. , A desire unit 51 C indicating the desire of “Recharge Inst inct” and a desire unit 51 D indicating the desire of “Search Inst Inct”.
  • the emotion unit 50 A to 50 F expresses the degree of emotion by, for example, an intensity (emotion parameter) from 0 to 100 level, and is supplied with a command signal S 1, an external information signal S 2, and an internal signal. Based on the information signal S3, the intensity of the emotion is changed every moment.
  • the emotional instinct model section 40 expresses the emotional state of the robot device 1 by combining the intensity of the emotional unit 5 OA to 50 D, which changes every moment, and expresses the temporal change of the emotion. Modeling.
  • desired emotion units are mutually influenced to change the intensity.
  • mutual suppression of emotional units They combine in a forcible or mutually stimulating manner so that they interact with each other and change in intensity.
  • the user is praised by mutually suppressing the emotion unit 5OA of "joy” and the emotion unit 50B of "sadness".
  • the input information S1 to S3 that increases the intensity of the emotion unit 5A of "joy” and the intensity of the emotion unit 50B of "sadness” is supplied.
  • the intensity of the emotional unit of sadness 5 OB decreases as the intensity of the emotional unit 5 OA of “joy” increases.
  • the intensity of the sadness emotion unit 50B increases and the emotional unit 5 of joyfulness increases. Decrease 0 A intensity.
  • the emotion unit 50 OB of “sadness” and the emotion unit 50 C of “anger” are reciprocally coupled to each other, so that when the user is hit, the emotion unit 50 of “anger” 50 In addition to increasing the intensity of C, the emotional unit of “sadness” 50 Even if input information S1 to S3 that changes the intensity of B is not supplied, the emotional unit of “anger” G.
  • the intensity of the sadness emotion unit 50B increases as the intensity of the 50C increases.
  • the intensity of the sadness emotion unit 50B increases, and the anger emotion unit 5B increases. Increase the intensity of 0 C.
  • the desired emotion units are influenced by each other to change the intensity, so that the combined emotion units have the same effect.
  • the intensity of one emotion unit is changed, the intensity of the other emotion unit changes accordingly, and the mouth-bot device 1 having a natural emotion is realized.
  • the desire units 51 A to 51 D express the degree of desire in the same way as the emotion unit 50 A to 50 F, for example, by the intensity (instinct parameter) from the 0 to 100 level, respectively.
  • the intensity of the desire is changed every moment.
  • the instinct model unit 40 expresses the state of the instinct of the robot device 1 by combining the intensity of the desire unit 51 A to 51 D that changes from moment to moment, and expresses the instinct time. It models change.
  • desired desire units interact with each other to change the intensity.
  • the desire units are connected to each other in a mutually repressive or mutually stimulating manner, so that they influence each other to change the intensity.
  • the intensity of one desire unit is changed among the combined desire units, the intensity of the other desire unit changes accordingly, and the robot device 1 having a natural instinct is provided. Is achieved.
  • the unit is influenced by each other between the emotion group 50 and the desire group 51, and the intensity is changed.
  • the change in the intensity of the desire unit 51 A of “love affection” 51 and the desire unit 51 C of the “appetite” is caused by the emotion unit 51 of “sadness” of the emotion group 50.
  • the emotional unit of 50B and “anger” affects the intensity of 50C, and the desire unit of “appetite” 51
  • the intensity of 51C changes the intensity of “sadness”.
  • anger emotional unit 50 C change in intensity Seems to affect.
  • the emotion and instinct model section 40 receives the input information S:! ⁇ S 3. Consisting of the command signal S 1, the external information signal S 2, and the internal information signal S 3.
  • the emotion units 50 A to 50 F and the desire units due to the interaction between the emotion units in the desire group 51 and the interaction between the units between the emotion group 50 and the desire group 51.
  • the intensity of 51 A to 51 D is changed respectively.
  • the emotion's instinct model section 40 determines the state of the emotion by combining the intensity of the changed emotion unit 50A to 50F, and the changed desire unit 51A to 51D.
  • the state of the instinct is determined by combining the intensities of the instinct, and the determined emotion and the state of the instinct are sent to the action determination mechanism section 41 as emotion / instinct state information S10.
  • the emotion / instinct model section 40 is supplied with behavior information S12 indicating the current or past behavior of the robot apparatus 1 itself from the behavior determination mechanism section 41 at a later stage. For example, when the action of the walking is determined by the action determining mechanism section 41 described later, the action information S12 is supplied as information indicating that "walking for a long time".
  • the behavior information S12 indicates Different emotions and instinct state information S10 can be generated according to the behavior of the robot device 1. Specifically, the behavior information S12 to be fed back is referred to in determining the state of emotions and behaviors by the following configuration.
  • the emotion and instinct model section 40 includes action information S12 indicating the action of the robot device 1 and input information S1 to S0 before the emotion units 50A to 50C.
  • the intensity increasing / decreasing means 55 A to 55 C for generating intensity information S 14 A to S 14 C for increasing / decreasing the intensity of each emotion unit 50 A to 50 C based on S 3 are respectively provided.
  • Intensity increasing / decreasing means Increase / decrease the intensity of each emotion unit 50 A to 50 C according to the intensity information S 14 A to S 14 C output from 55 A to 55 C . For example, if the emotions and instinct model section 40 rub the head when greeting the user, the behavior information S12 indicating that the user greeted the user and the input information S1 ⁇ that the user could pat the head.
  • the intensity increasing / decreasing means 55 A is a function or a table that generates intensity information S 14 A to S 14 C based on the behavior information S 12 and the input information S:! To S 3. It is configured.
  • the emotion and instinct model unit 40 includes the intensity increasing / decreasing means 55 A to 55 C, and includes not only the input information S 1 to S 3 but also the current or past mouth.
  • the intensity increasing / decreasing means 55 A to 55 C includes not only the input information S 1 to S 3 but also the current or past mouth.
  • the emotional unit of “joy” 5 O A can be avoided from causing unnatural emotions that increase the intensity of AA.
  • emotion By the way, emotion
  • each of the desire units 5 based on the supplied input information S1 to S3 and action information S12.
  • the intensity of 1 A to 51 C is increased or decreased, respectively.
  • the emotion unit 50 A to 50 C for “joy”, “sadness” and “anger” is provided with intensity increasing / decreasing means 55 A to 55 C. did.
  • the present invention is not limited to this, and it goes without saying that the intensity units 5 OD to 50 F of the other “surprise”, “fear” and “disgust” may be provided with intensity increasing / decreasing means. .
  • the intensity increasing / decreasing means 55 A to 55 C receive the intensity information S 1 according to the preset parameters. Since 4 A to S 14 C are generated and output, by setting the parameter to a different value for each robot device 1, for example, a robot device with an angry robot or a bright robot device Thus, the robot device can have individuality.
  • the action determining mechanism 41 determines the next action (action) based on various information. As shown in FIG. 3, the action determining mechanism 41 includes a command signal S 1, an external information signal S 2, and an internal information signal S 3. Based on input information S14 consisting of instinct state information S10 and action information S12, the next action (action) is determined, and the content of the determined action (action) is set as an action command. The information is sent to the attitude transition mechanism section 42 as information S16.
  • the action determining mechanism unit 41 represents the history of the input information S 14 supplied in the past as an operating state (hereinafter, this is referred to as a state). By transitioning the state to another state based on the input information S 14 and the state at that time, a probability finite automaton 5 having a finite number of states that determines the next operation It uses an algorithm called 7.
  • the action determining mechanism unit 41 changes the state each time the input information S 14 is supplied, and determines the action according to the changed state, so that only the current input information S 14 is provided. Instead, the operation can be determined with reference to the past input information S14.
  • the behavior determining mechanism unit 41 detects that a predetermined trigger has occurred, it changes the current state to the next state.
  • Trigger One specific example is, for example, that the time during which the action of the current state is being executed has reached a certain value, or that specific input information S 14 has been input, or sent from the emotional instinct model section 40.
  • the behavior determination mechanism unit 41 includes the emotion unit 50 A to 50 F and the desire unit 51 A to which the emotions and instinct state information S 10 supplied from the emotion and instinct model unit 40 indicate.
  • a transition destination state is selected based on whether or not the intensity of a desired unit exceeds a predetermined threshold value among the intensity of 51D.
  • the behavior determining mechanism unit 41 detects, for example, that the palm has been put out in front of the eyes based on the supplied external information signal S2, and based on the emotion / instinct state information S10.
  • the intensity of the emotion unit 50 C of “anger” is equal to or less than a predetermined threshold, and “not hungry” based on the internal information signal S 3, that is, when the battery voltage is equal to or higher than the predetermined threshold.
  • it detects that there is something it generates action command information S16 for performing the operation of the "front” in response to the palm being put out in front of the eyes, and sends this to the posture transition mechanism section 42. Send out.
  • the behavior determination mechanism unit 41 for example, has a palm presented in front of the eyes, the intensity of the emotion unit 50C of "anger” is equal to or lower than a predetermined threshold value, and the "hungry” In other words, when it is detected that the battery voltage is lower than the predetermined threshold value, a message such as “palm palms” is displayed.
  • the action command information S 16 for performing the various operations is generated and sent to the posture transition mechanism section 42.
  • the behavior determining mechanism unit 41 detects that the palm is put in front of the eyes and the intensity of the emotion unit 50 C of “anger” is equal to or higher than a predetermined threshold value
  • the behavior determining mechanism unit 41 determines that Not generated, that is, regardless of whether the battery voltage is equal to or higher than a predetermined threshold, action instruction information S16 for performing an operation such as "turning to the side” is generated, and this is generated. It is sent to the posture transition mechanism section 42.
  • the action determining mechanism unit 41 determines the next action based on the input information S14. For example, as shown in FIG. , “Action 2”, “Action 3”, “Action 4”, • ⁇ For example, “Action 1” is composed of the action of kicking the ball, “Action 2” is composed of the action of expressing emotion, “Action 3” is composed of the action of autonomous search, and “Action 4”. “” Consists of actions to avoid obstacles, “action n” consists of actions to indicate that the battery level is low, and so on.
  • the selection (decision) of the action is specifically made by the selection module 44 as shown in FIG. Then, the selection module 44 outputs the selection result to the posture transition mechanism section 42 as the action command information S 16, and outputs the emotion / instinct model section 40 or the line as the action information S 12. It is output to the motion determination mechanism section 41. For example, the selection module 44 sets a flag for the decided action, and outputs the information as the action information S 12 and the action command information S 16 to the action decision mechanism 41 and the posture transition mechanism 42. are doing.
  • the emotion's instinct model unit 40 changes the state of the emotion and the instinct based on the behavior information S12 in addition to the same input information S1 to S3.
  • the emotion 'instinct model unit 40 can generate different emotion. Instinct state information S10 even if the same input information S1 to S3 is given.
  • the action determination mechanism section 41 “action 1”, “action 2”, “action 3”, “action 4”,... You can keep it.
  • the group ID indicates the same information in the behavior of the same category.For example, when the behavior of “kicking a ball” has a plurality of behaviors, There is such a relationship that the same group ID is assigned. By assigning the same category ID to the same category of behavior, behaviors of the same category can be processed as a group.
  • the same group ID is issued regardless of which action is selected in the same category. Is done. Then, the group ID attached to the selected action is sent to the emotion / instinct model unit 40, and the emotion / instinct model unit 40 determines the state of emotions and instinct based on the group ID. Will be able to decide.
  • the behavior determination mechanism unit 41 includes an emotion unit 50 A to 50 F and a desire unit 51 A to 5 F indicated by the emotion and instinct state information S 10 supplied from the emotion and instinct model unit 40.
  • the parameters of the action performed in the transition destination state such as the speed of walking, the magnitude and speed of the movement when moving the limbs, the sound when making a sound
  • the height and size of the action are determined, and action command information S 16 corresponding to the parameter of the action is generated and sent to the posture transition mechanism section 42.
  • the controller 32 when the controller 32 receives the external information signal S2 indicating that "the head has been stroked", the controller 32 sends the emotion "Instinct model section 40" and the emotion “Instinct state information S10" Is generated, and the emotion's instinct state information S10 is supplied to the action determining mechanism 41. In this state, the external information signal S2 indicating that "the hand is in front of the eyes” is supplied. Then, based on the above-mentioned emotion of “happy” in the instinctive state information S 10 and the external information signal S 2 of “hand is in front of the eyes”, the behavior determining mechanism 41 1 Action instruction information S 1 6 Is generated and transmitted to the posture transition mechanism section 42.
  • the transition destination of the operation state is determined by a certain probability in the probability finite automaton 57. For example, when there is an input from the outside, it is assumed that the input makes a transition to a certain operation state (action state) with a probability of 20% (transition probability). Specifically, as shown in FIG. 9, the state ST10 of "I'm going" transitions to the state ST11 of "Hashishiteru,” and the state ST12 of "Sleeping". When it is possible, the transition probability to the state of “going down” to ST 11 is assumed, the transition probability to the state of “sleeping” to ST 12 is taken to be P 2, and such a probability is assumed. The transition destination is determined based on this. As a technique for determining the transition destination based on the probability, there is a technique disclosed in Japanese Patent Application Laid-Open No. 9-1114514.
  • the robot device 1 holds information on the probability of transition to a certain state as a table.
  • An example is a table as shown in FIG.
  • the table shown in Fig. 10 includes the node name indicating the current action state, the name of the input event, the data name of the input event (hereinafter referred to as the input event), and the input event. It consists of information such as the range of the data and the transition probability to a certain state.
  • the transition probability to a certain state is determined according to the input event, and the state of the transition destination is determined based on the transition probability.
  • the node name indicating the current action state is It indicates the behavior state of the robot device 1 and indicates what kind of behavior is currently being executed.
  • the input event is information input to the robot device 1, and this table is organized by such input events.
  • the input event name "BA LL” indicates that the input event found the ball
  • "PAT” indicates that it was hit lightly
  • "HIT” indicates that it was hit.
  • Good means finding a moving object
  • "OBS TAC LE” means finding an obstacle.
  • the data range of an input event refers to the range of such data when such an input event requires parameters, and the data name of the input event specifies when such parameter names are used. I have. In other words, if the input event is "BALL", the data name refers to the size of the ball "SIZE”, and the data range is such that the size range is 0 to 100 Say. Similarly, input event S
  • the data name means the distance "DISTANCE”, and the data range means that such a distance range is from 0 to 1 ⁇ 0.
  • the transition probability to a certain state is assigned to a plurality of states that can be selected according to the properties of the input event. In other words, the status that can be selected in one input event
  • the transition probabilities are assigned to each arc so that the total of the transition probabilities assigned to the arcs is 100%. More specifically, in the case of “BAL L” input events, “AC TION l”, “ACT I ON 3”, The total of the transition probabilities 30%, 20%, and ⁇ 'is set to 100%.
  • node and arc are generally defined in a so-called probability finite automaton, and “node” is a state (in this example, an action state), and “arc” Is a directed line connecting nodes with a certain probability (in this example, a transition operation).
  • the state of the transition destination is selected by referring to the input event, the range of data acquired in the input event, and the transition probability using the table including the above information as follows.
  • the robot device 1 finds a ball (when the input event is “BALL”) and the size of the ball is 0 to 100, the current state of the node ( Node) Transitions from 3 to node 1 20 with a probability of 30%. At the time of that transition
  • the arc labeled "ACTION” is selected, and the action or expression corresponding to "ACTION1" is performed.
  • the arc with “ACT I ON 3” is selected,
  • ACTION and ACT I ⁇ N 3 include, for example, actions such as “barking” and “kicking the ball”. Meanwhile, the ball If the size of is more than 1 000, there is no probability that “node 120” or “node 500” will be selected as the transition destination.
  • the robot apparatus 1 finds an obstacle (when the input event is “OB S TACLE”) and the distance to the obstacle is 0 to 100, the robot 1 moves backward.
  • the node (state) force of all “nodel 00 0” is selected with a probability of S 100%.
  • the arc with “MOVE—BACK:” is selected, and “MOVE—BACK” is executed.
  • a state (node) or an arc can be selected, that is, an action model can be determined by using a table or the like based on probability. In this way, by determining the state of the transition destination in consideration of the probability, it is possible to prevent the transition destination from being always selected as the same. That is, the expression of the behavior of the robot device 1 can be enriched.
  • the state selection as described above that is, the determination of the behavior model
  • an action model is determined by changing the transition probability between the states based on the state of the emotion model. Specifically, it is as follows.
  • the transition to the state as described above is determined by probability.
  • the state of the emotion model for example, level
  • the transition probability is changed according to the state of the emotion model.
  • the behavior model is determined based on the emotion model, and as a result, the behavior model is influenced by the state of the emotion model. Specifically, this is explained using the table shown in FIG. I will tell.
  • “JOY (joy)”, “SUR PRISE (surprise)” and “S ADNE SS (sadness)” can be used to determine the transition probability regardless of the input.
  • the transition probability can be determined, for example, even when there is no external input.
  • the emotion model is referred to in determining the transition probability.
  • the reference may be referred to as "J ⁇ Y ( “SUR PRISE (surprise)”, “S ADNE SS (sadness)”, “JOY (joy)”, “SURPRISE (surprise)”, “S AD NESS (surprise)” In the order of "sadness”).
  • the actual level will be referred to. This allows, for example,
  • the actual level of "SADNE SS (sadness)" is 6 °, since the data range is 0 to 50, the actual level of the next "JOY (joy)" will be Will be referenced. For example, if the actual level of “JOY”, whose data range is 0 to 50, is 20, the arc labeled “ACT I ON 2” is 3 The arc with “MOVE-BACKJ” is selected with a probability of 0% and transitions to a predetermined state with a probability of 60%.
  • the behavior model can be determined based on the state of the emotion model.
  • the expression of the robot device 1 can be enriched by the behavior model being affected by the state of the emotion model.
  • the action command information S16 is determined by the action determining mechanism unit 41 by the various means described above.
  • the posture transition mechanism unit 42 is a part that generates information for transitioning to a target posture and a target operation. Specifically, as shown in FIG. 3, the posture transition mechanism unit 42 determines the next posture or the next posture from the current posture or action based on the action command information S16 supplied from the action determination mechanism unit 41. Generates posture transition information S 18 for transitioning to a motion (target posture or target motion) and sends it to the control mechanism 43. Put out.
  • the postures that can transition from the current posture to the next are the physical shape of the robot device 1 such as the shape, weight, and connection state of each part, such as the shape of the body, hands and feet, and the direction and angle at which the joint bends.
  • the posture transition information S 18 is determined by such a mechanism of the actuators 23 A to 23 N, and is information for transition in consideration of such a situation.
  • the control mechanism 43 actually operates the robot device 1 based on the posture transition information S18 sent from the posture transition mechanism 42.
  • the posture transition mechanism unit 42 pre-registers the posture in which the robot device 1 can transition and the operation at the time of the transition, and holds, for example, as a graph, and is supplied from the behavior determination mechanism unit 41.
  • the obtained action command information S 16 is sent to the control mechanism 43 as posture transition information S 18.
  • the control mechanism section 43 operates in accordance with the posture transition information S18 to make a transition to a target posture or a target operation.
  • the processing performed by the posture transition mechanism section 42 will be described in detail.
  • the robot device 1 may not be able to directly transition to the posture according to the content of the command (the action command information S16). That is, the posture of the mouth bot device 1 is classified into a posture that can directly transit from the current posture, and a posture that cannot be transited directly, and is possible through a certain motion or posture. is there.
  • a four-legged robot device 1 can directly transition from a lying down state to a lying down state by throwing out a large limb, but cannot directly transition to a standing posture, and A two-step movement is required, in which the body is pulled down near the torso, becomes prone, and then rises. There are also postures that cannot be safely executed. For example, The four-legged robot device 1 may fall if the banzai is tried with both front legs raised while standing.
  • the robot device 1 may lose balance and fall over. is there.
  • the attitude transition mechanism section 42 transfers the action command information S16 as it is. While the information is sent to the control mechanism section 43 as the information S 18, if it indicates a posture that cannot be directly transited, the posture (a behavior command information It generates posture transition information S 18 that makes a transition to the posture indicated by S 16) and sends it to the control mechanism 43. Thereby, the robot device 1 can avoid a situation in which the robot cannot forcibly execute an untransitionable posture or fall. Alternatively, preparing multiple movements before transitioning to the target posture or movement leads to enrichment of expression.
  • the posture transition mechanism unit 42 is a graph in which the posture and the movement that the robot device 1 can take are registered, and is a graph configured by connecting the posture and the operation of transitioning this posture. , And a path from the current posture to the target posture or the target movement is searched on the graph based on the action command information S16 as the command information, and the search result is obtained. Based on the current posture and the goal To a desired posture or a target movement.
  • the posture transition mechanism section 42 is configured to register in advance the postures that the robot device 1 can assume and to record between the two possible postures. Based on the action command information S 16 output from the determination mechanism section 41, a transition is made to a target posture or motion.
  • the posture transition mechanism unit 42 uses an algorithm called a directed graph 60 as shown in FIG. 11 as the graph as described above.
  • a node indicating the posture that the robot device 1 can take a directed arc (moving arc) connecting between two transitionable postures (nodes), and, in some cases, one node From one node to another node, that is, a self-operation arc indicating an operation that completes the operation within one node.
  • the posture transition mechanism 42 includes a node that is information indicating the posture (stationary posture) of the robot device 1, a directed arc that is information indicating the operation of the robot device 1, and a self-directed information.
  • a directional graph 60 composed of motion arcs is held, the posture is grasped as point information, and the motion information is grasped as directional line information.
  • a plurality of directed arcs and self-moving arcs may be joined between transitable nodes (postures).
  • Self-acting arcs may be coupled.
  • a plan for posture transition is made.
  • a search for a target node (a node specified by a command) or a target arc (an arc specified by a command) from such a current posture is referred to as a route search.
  • the target arc may be a directed arc or a self-acting arc.
  • the case where the self-operation arc becomes the target arc is the case where the self-operation is targeted (instructed), and, for example, the case where a predetermined trick (operation) is instructed.
  • the posture transition mechanism section 42 is used to calculate the target posture obtained by the route search.
  • a control command (posture transition information S 18) for transition is sent to the control mechanism unit 4 in the subsequent stage. Output to 3.
  • a directed arc a 9 exists at the node ND 5 indicating the posture of “sit down”, and a direct transition is possible, whereby the posture transition mechanism unit 42
  • the posture transition information S 18 having the content “smile” is given to the control mechanism 43.
  • the posture transition mechanism unit 42 changes from “turn off”. Since it is not possible to make a direct transition to “walk”, the posture is determined by searching for a route from node ND 2 indicating the posture of “disable” to node ND 4 indicating the posture of “araku”. Make a transition plan.
  • the posture transition mechanism section 42 outputs posture transition information S 18 having the content “vertical”, and thereafter, the posture transition information S 18 having the content “walk”. Is output to the control mechanism 43.
  • the node ND 3 indicating the posture indicating the posture of "nai One” or paste the self-action arc showing the operation of "the dance”, or paste the self-action arc showing the operation of "the Banzai” to the node ND 5 indicating the posture of "sit", or "I
  • a self-operation arc indicating the operation of “snoring” is attached to the node ND indicating the posture of “sledding”.
  • the robot device 1 is generally configured so as to know the current posture.
  • the current attitude is lost.
  • the user cannot grasp the current posture of the robot device 1 when the robot is held by a user or the like, when the user falls down, or when the power is turned on.
  • such an undefined posture when the current posture cannot be grasped.
  • the so-called departure attitude cannot be specified, and it is possible to make a posture transition plan up to the target attitude or motion. Will not be able to.
  • a node indicating a neutral (neutral) attitude is provided as a node, and when the current attitude is unknown, the node is transitioned to the neutral attitude, and an attitude transition plan is made. That is, for example, when the current posture is unknown, as shown in FIG. 13, the neutral position is transitioned to the node ND nt and then transitions to the node ND indicating the posture of “touching”. 3, so as to transit to a node indicating a basic position such as node ND, indicating the node ND 5, or the posture of "Nesobe One in which" indicating the posture of "sitting". Then, after transitioning to such a basic posture, an original posture transition plan is established.
  • the basic postures that transit from the neutral posture have been described as “standing”, “sit”, and “nesobetsu”, but are not limited thereto. It goes without saying that the attitude may be other than the one being performed.
  • the transition from the undefined posture to the neutral posture (node) is specifically performed by driving the operation unit (for example, an actuator) at a low torque or a low speed.
  • the burden on the servo can be reduced, and for example, it is possible to prevent the operating section from operating and damage to the operating section as in normal operation.
  • the tail 5 normally performs a swinging motion, but when such a movement of the tail 5 is performed at the time of transition to the neutral posture (node), the robot device is moved. This is because the tail part 5 may be damaged when the subject 1 is sleeping in an undefined posture.
  • the robot device can detect the fall and transition from the fall state to the node indicating the basic posture as described above.
  • the robot device 1 is provided with an acceleration sensor, and detects that the robot device 1 has fallen.
  • the robot device 1 detects that the robot device 1 has fallen over by the acceleration sensor, the robot device 1 performs a predetermined operation for returning from the fall, and then transitions to the node indicating the basic posture as described above. .
  • the robot device 1 is also configured to grasp the falling direction.
  • the acceleration sensor can detect the falling direction in four directions: front, rear, left and right. As a result, the robot device can perform a fall return operation according to the fall direction, and can quickly transition to a basic posture.
  • a predetermined expression may be output. For example, as a predetermined expression, an action of flapping a foot by a self-operation arc a> t is performed. This makes it possible to represent a state in which the robot device 1 is straddling and struggling.
  • a posture transition plan should be made using the index of when the distance between the current node and the target node is reduced, that is, the so-called shortest distance search that searches the route as the shortest distance.
  • the shortest distance search is performed using the concept of distance for the directed arc (arrow) connecting the node ( ⁇ ) and the node ( ⁇ ).
  • a route search method there is the theory of the path search of Dijkstra. Distance can be replaced with concepts such as weighting and time, as described later.
  • Figure 14 shows the result of connecting nodes that can transition by a directed arc with a distance force S “1”.
  • the shortest path from the current attitude (node) to the target node can be selected.
  • the distance of the first route is “1 2”
  • the distance of the second route is “10”
  • the distance of the path is “15” and the distance of the fourth path is “18”
  • the distance to the target posture Make a posture transition plan.
  • the method for searching the shortest distance is not limited to such a method.
  • the shortest distance route to the target node is selected as one route from the results of searching a plurality of routes.
  • a route that can transition from the current node to the target node is searched as much as possible, and a plurality of routes are obtained.
  • the shortest route is specified using the distance as an index.
  • the shortest distance route search is not limited to searching for the shortest distance route by such a method, and when the shortest distance route to the target node is detected, the route search is performed. It is also possible to end the processing of.
  • nodes are searched one after another by gradually increasing the distance as a search index from the current posture, and a node at the shortest distance (a node that is not a target node) is determined each time.
  • the shortest distance route search process is terminated.
  • the route search process ends.
  • the shortest-distance route can be searched without searching for all routes existing to the target node.
  • the load on the CPU or the like for performing such a search process can be reduced. Therefore, the shortest route to the target node can be detected without searching for all routes, so that the burden of searching the entire network can be eliminated. Even if the network for constructing such a graph becomes large, it becomes possible to search for a route with a reduced burden.
  • nodes are roughly classified (clustered) based on their actions or postures, and a rough search (preliminary search) based on the classification is performed first. After that, you may make an advanced search. For example, when assuming the posture of “right front limb”, first select an area of the category “hit the ball” as the route search range, and then search for a path only in that area.
  • association between the rough classification and the constituents that is, the association between "hitting the ball” and “right front stake.”
  • ID information when designing such a system. It is done by putting.
  • the target is described as the posture (node). Force; the target can be an operation, that is, a directed arc or a self-operation arc.
  • the target arc is a self-operating arc, for example, an operation of causing the foot 4 to flap.
  • the weight assigned to the directed arc or the operation time of the directed arc can be referred to.
  • the operation time (execution time) of a directed arc is as follows.
  • the weight or distance given to the directed arc is defined as the difficulty of operation. Good. For example, low difficulty is set as short distance.
  • one of the directed arcs can be the default. By setting one of the directed arcs as the default, usually, the default directed arc is selected, and when instructed, another non-default directed arc is selected. It can also be done.
  • the probability of selection can be varied for each directed arc. That is, for example, a different probability is assigned to each arc.
  • various actions are selected even for transitions between the same nodes due to variations due to probabilities, and a series of actions can be varied. For example, when transitioning from a sitting position to a standing position, the probability is that the sitting leg will extend backward and then stand up with four legs, or the front leg will extend forward and stand up. By selecting with, it is possible to bring about an unpredictable effect until playback is started (until it is actually executed).
  • the distance or weight of each directed arc is set to m ,, m 2 , m 3 ⁇
  • the probability P i of assigning a distance or a weight to a directed arc with mi can be expressed by equation (1).
  • a directional arc having a large weight has a low probability of being selected as a passing path
  • a directional arc having a small weight has a high probability of being selected as a passing path
  • the route search can be limited to only the routes within a predetermined range. This makes it possible to search for an optimal route in a shorter time.
  • arcs directed arcs or self-acting arcs
  • graphs can be registered in the graph as follows.
  • a plurality of execution modes can be considered for an action such as “walking”.
  • the operations such as walking in the 0 ° direction, walking in the 30 ° direction, and walking in the 60 ° direction are a plurality of execution modes for “walking”.
  • To have a plurality of execution modes for such the same operation that is, increase the parameters for the same operation This leads to a richer expression of the robot device 1.
  • Such an operation is made possible by providing a plurality of arcs having different parameters.
  • “walk” is one path, and the walking direction is a parameter.
  • a command of “walking” is given, and a walking direction is separately given as a parameter at that time, so that “walking” is executed in the direction of the given parameter when a motion is reproduced.
  • a walking direction is separately given as a parameter at that time, so that “walking” is executed in the direction of the given parameter when a motion is reproduced.
  • the graphs are still simple, and the network resources that have been constructed can be used effectively.
  • the motion command information S 16 is added with information on the motion parameters as additional information. For example, the walking direction is added. Such parameters are attached to the posture transition information S 16 and sent to the control mechanism 43.
  • a parameter is assigned to the self-operation arc.
  • the present invention is not limited to this, and a parameter can be assigned to a directed arc. This allows "walking" between nodes Operation itself is the same, but it is the parameter
  • the instruction form can be simplified by executing a “walking” motion and giving “3 times” information as a parameter as the number of repetitions. This allows you, for example, to walk three steps
  • the information of "one-step walk” is output to the control mechanism 43, and by instructing "3" as its parameter, the user is allowed to walk three steps, or by instructing "7" as a parameter. It is possible to make the user walk only seven steps, or to continue walking until another instruction is given to the foot by specifying "1-1" as a parameter.
  • the self-operation arcs connected to each node may overlap. For example, as shown in FIG. 20, there is a case where an angry operation is performed at each of the node in the sleeping posture, the node in the sitting posture, and the node in the standing posture.
  • the action named “angry” is defined as a self-motion arc from a sleeping posture to a sleeping posture, a self-motion arc from a sitting posture to a sitting posture, and an anger that becomes a self-moving arc from a standing posture to a standing posture.
  • the action that expresses it is possible to search for the closest “angry” action (self-motion arc) by searching for the shortest path, simply by giving the instruction “angry”.
  • the path to the shortest executable action among the targeted actions (self-action function) is established as a posture transition plan.
  • the angry character is connected as the self-operation arc of the sleeping posture node.
  • an operation for example, an operation that scratches the ground and rubs while lying down Will be done.
  • the shortest distance search is performed to determine the optimal posture (the shortest distance). (A posture in which the position is in a different position), thereby enabling the higher-level control means to execute the specified operation without always having to know the state or operation of each unit. That is, for example, when a command to “get angry” is issued, the higher-level control means (posture transition mechanism section 42) only needs to know the current node, and the actual node, such as “get angry while lying down”, is used. By simply searching for the “angry” self-motion arc without searching, it is possible to make a posture transition plan up to angry motion in the shortest sleeping posture.
  • the robot apparatus 1 can operate each component separately. That is, the command for each component can be executed.
  • the robot device (whole) 1 are roughly divided into a head 2, a foot 4, and a tail 5.
  • the tail part 5 and the head part 2 can be operated individually. In other words, since resources do not compete, they can be operated individually.
  • the entire robot device 1 and the head 2 cannot be operated separately. That is, They cannot be operated individually because of resource conflicts. For example, while the entire operation in which the content of the command includes the motion of the head 2 is being executed, the content of the command for the head 2 cannot be executed. For example, it is possible to shake the tail 5 while shaking the head 2, but it is impossible to shake the head 2 while performing a trick using the whole body (whole). is there.
  • Table 1 shows a combination of a case where resources compete and a case where resources do not compete with the action command information S16 sent from the behavior determining mechanism unit 41.
  • the processing in the case where such a command is issued will be described below. Due to resource conflicts, when one command is executed first, for example, when the operation of the entire head 1 is completed and then the instruction for the head 2 is executed, the operation of the entire head 1 is reached. The movement of the head 2 starts from the last posture. However, the final posture after the entire operation 1 is not necessarily a posture suitable for starting the operation such as shaking the head 2. In the case where the final posture after the operation of the whole 1 is not appropriate for the start of the operation of the head 2, that is, the posture before and after the transition by different commands becomes discontinuous, When the movement of the head 2 starts, the head 2 may show a sudden movement, which may result in an unnatural movement.
  • the problem is that the target posture (or motion) from the current posture (or motion) extends over the entire mouth robot device 1 and each component, and is constructed to control the entire robot device 1.
  • Network consisting of connected nodes and arcs, and a network consisting of nodes and arcs constructed to control each component of the robot device 1.
  • the unnatural movement of the robot device 1 due to the discontinuity of the posture before and after the transition is performed by making a posture transition plan so as to smoothly connect the transition operations on the graph.
  • a posture transition plan so as to smoothly connect the transition operations on the graph.
  • this problem has been solved by introducing a basic posture shared on the graphs of the whole and constituent parts, and making a posture transition plan.
  • the network information for use in the posture transition plan of the robot device 1 is shown in Fig. 22A.
  • the entire network information (Darafu) and the network information of each component (Graph) ) The case where the whole is configured as a hierarchical structure will be described below.
  • the information used in the posture transition plan which consists of the information (graph) of the entire network and the information (graph) of the network of each component, is represented by the posture transition mechanism shown in FIG. It is built in part 42.
  • the basic posture is a posture that is temporarily changed in order to change the state between the entire operation and the operation of each component, and the basic posture is, for example, as shown in FIG. 22B. , Sitting posture. In the case where the basic posture is the sitting posture, the procedure to smoothly connect the transition motions is explained.
  • the optimal directed arc a is selected from the state of the basic posture ND hb , and the path to the target head 2 movement (self- moving arc) a 2 is determined.
  • the current attitude ND a in the entire graph From basic posture N The search for the path to Dab and the path from the state of the basic posture NDhb in the graph of the head to the target operation a is performed by the shortest distance search as described above.
  • a transition path selection (posture transition plan) that smoothly connects the motion between the whole and each component part is made in the graph of the head and the whole force. Then, the control mechanism unit 43 outputs the posture transition information S19 to the control mechanism unit 43 based on the posture transition plan.
  • the head 2 has the posture ND h in the graph of the head.
  • the following describes a case where the foot 4 is recognized as the posture ND ⁇ 0 in the foot graph and the entire motion a 4 is executed as a target.
  • the posture of the head 2 is the current posture ND h . Directed arc a to transition from basic posture ND ab to a. Select Also, on the foot graph, the posture of the foot 4 is defined as the current posture ND f .
  • the tail 5 is assumed to be in the basic posture. When each component is in the basic posture in this way, it is also grasped as the basic posture on the entire graph.
  • the operation may be performed at the same time as the operation of the other components when transiting to, or the operation of each component may be executed with a restriction. For example, you can do it at a certain time.
  • a command is given for the operation of the whole 1 while performing the trick using the head 2, since the trick is performed for the head 2, the basic Since the transition to posture ND hl) is not possible, first, when the feet 4 are first placed in the basic posture ND fb , and then the head 2 that has completed the trick is transitioned to the basic posture ND hb , As it was.
  • each component can be operated in consideration of the balance of the posture of the whole 1 and the like. For example, if the head 2 and the foot 4 are moved at the same time, or if the head 2 is initially in the basic posture ND hb , the balance is lost and the vehicle falls down. First, the foot 4 is set to the basic posture ND fb , and then the head 2 is changed to the basic posture ND hb .
  • the motion can be connected smoothly by making a posture transition plan that makes a transition to the basic posture once.
  • resources at unused parts they can be used for other purposes.
  • head 2 can be tracked by a moving ball.
  • the basic position is not limited to one.
  • a plurality of postures such as a sitting posture and a sleeping posture can be set as the basic posture. This enables the transition from the entire operation to the operation of each component, or the operation of each component to the entire operation with the shortest operation. Transition to the shortest distance (shortest time). Setting a plurality of basic postures in this way leads to enrichment of the expression of the robot device 1.
  • the determination of the posture and movement transition path in the posture transition mechanism section 42 as described above is performed by the action command information S 1 from the action determination mechanism section 41.
  • the action determining mechanism section 41 transmits the action determining instruction information S 16 normally without any restriction.
  • An example of the command storage unit is a buffer.
  • the command sent from the action decision mechanism 41 is not executable at the present time, for example, while performing a trick (predetermined operation), such a command is sent.
  • the command will be stored in the buffer.
  • a newly sent command D is newly added to the buffer as a list.
  • the oldest instruction is usually fetched from the buffer and a path search is performed. For example, when commands are accumulated as shown in Fig. 25A, the oldest command A is executed first.
  • commands are accumulated in the buffer, and force commands that are executed sequentially from the old command are inserted (inserted), or commands are canceled. You can also perform a list operation to cancel (cancel).
  • the command D is inserted into the already stored command group.
  • the route search for the command D can be executed in preference to the commands A, B, and C waiting for execution.
  • the buffer can have a plurality of command storage areas corresponding to the entire robot apparatus 1 and each component.
  • the operation commands for the whole and each component are accumulated as shown in FIG.
  • the following operations can be performed by providing the areas for storing the commands corresponding to the whole and each component.
  • Synchronization information for synchronizing and reproducing movements of different components for example, a head and a foot
  • the information stored in the command storage areas of the head 2 and the foot 4 is appended with information on the order in which playback is started, and the information in the same order is used as synchronization information. For example, assign information to be played fifth.
  • the list operation allows you to cancel the planning of a series of operations before or during execution, or to interrupt a high-priority command in the early order afterward. Can be assembled.
  • the search of the optimal path to the target posture or the movement and the determination of the posture transition plan made based on the action command information S16 sent from the action determination mechanism unit 41 are as follows, for example. This is realized by the posture transition mechanism section 42 including the motion path search device 60 as shown in FIG.
  • the operation route search unit 60 includes a command holding unit 61, a route search unit 62, and a graph storage unit 63.
  • a command for the whole or each component is given to the motion path search unit 60 from the action determination mechanism unit 41.
  • a target posture or a motion part for example, a head
  • a current command and a past command A list operation command for a series of commands issued in the above or information on characteristics of the command itself is attached to the action command information S16.
  • the attached information is referred to as attached information.
  • the list operation instruction for the current instruction and a series of instructions issued in the past includes, for example, the newly generated instruction described with reference to FIG. Instruction to insert at the beginning.
  • the characteristic information of the command itself (hereinafter referred to as command characteristic information) is the parameter of the walking direction described in FIG. This is a parameter of the command described above, for example, a parameter such as “three steps” if the operation is “walk forward”, or information for synchronizing another operation described in FIG.
  • the command storage unit 61 stores the action command information S16 sent from the action determination mechanism unit 41 as described above, and is, for example, a buffer. When there is information attached to the action command information S16, the command storage unit 61 performs a process based on the content of the attached information. For example, if the attached information includes an instruction to insert a command as list operation information, the command storage unit 61 waits for the action command information S16 that has just arrived according to the content of the command. The operation to insert it at the beginning of the command sequence is also performed.
  • the command storage unit 61 also stores it together with the command.
  • the command storage unit 61 keeps track of which command is currently being executed and which command is waiting for which turn. To achieve this, for example, instructions are stored in order.
  • the command storage unit 61 has four storage areas corresponding to, for example, the whole 1, the head 2, the feet 4, and the tail 5. Then, the command storage unit 61 operates the head 2 if the command to operate the head 2 is being executed, the command to operate the entire head cannot be executed, or the command to operate the head 2 and the foot 4 It is possible to make a judgment that the command can be issued regardless of the command. In other words, it is possible to perform a process for preventing the output of a command in which the resources of the whole and each component conflict with each other, and to solve the so-called resource conflict.
  • commands are issued across different parts. For example, if commands are sent in the following order: 1 for the whole, 4 for the feet, 2 for the head, and 1 for the whole, the commands for the entire 1 in the command storage unit 6 1 Save as the second command, save the command for foot 4 as the second command, save the command for head 2 as the third command, I remember the order.
  • the command storage unit 61 first sends the first command of the entire command 1 to the route search unit 62, and as soon as the content of the command has been reproduced, the command command of the second command for the foot 4 is transmitted.
  • the third command of the head 2 is sent, and when each component finishes reproducing the contents of the command, the fourth command of the fourth command is sent to the route search unit 62.
  • the route search unit 62 starts the so-called route search as described above according to the command sent from the command storage unit 61.
  • a draf is stored corresponding to each of the parts similar to those classified in the command storage unit 61. That is, a graph corresponding to each of the whole 1, the head 2, the foot 4, and the tail 5 as shown in FIG. 22A is stored.
  • the route searching unit 62 determines, based on the graphs stored in the graph storage unit 63, the optimal route to the target posture or operation, which is the content of the command, as described above in the distance or distance. Search using the weights etc. as an index and make a posture transition plan.
  • the route search unit 62 sends the posture transition information S 18 to the control mechanism unit 43 until the target posture or the motion is executed based on the posture transition plan acquired by the route search. .
  • the attitude transition mechanism section 42 searches for the optimal path to the attitude or motion targeted by the command. Make a posture transition plan, In accordance with the posture transition plan, posture transition information S 18 is output to the control mechanism 43.
  • control mechanism section 43 generates a control signal S5 for driving the actuator 23 based on the posture transition information S18, and sends it to the actuator 23 to transmit the control signal S5 to the actuator 23.
  • the robot device 1 is made to perform a desired operation.
  • control mechanism unit 43 notifies the end of the operation performed based on the posture transition information S 18 until the target posture or the operation is reached.
  • the route search unit 62 (Reproduction result) is returned to the route search unit 62.
  • the route search unit 62 that has received the end notification notifies the graph storage unit 63 of the end of the operation.
  • the graph storage unit 63 updates information on the graph. That is, for example, if the posture transition information S 18 is to cause the foot 2 to perform a transition operation from the sitting posture state to the sitting posture state, the graph storage unit 63 that has received the end notification The graph position of the node of the foot 2 corresponding to the posture state is moved to the graph position of the sitting posture.
  • the route search unit 62 further executes “flapping a foot”. It is sent to the control mechanism section 43 as the posture transition information S 18, and the control mechanism section 43 generates control information for flapping the foot 4 based on the posture transition information S 18, Is sent to the actuator 23 to cause the foot 4 to flutter. After reproducing the desired operation, the control mechanism unit 43 sends the end notification to the route search unit 62 again.
  • the graph storage section 63 informs the graph storage section 63 that the action of flapping the foot section 4 has been completed. However, in the case of a self-moving arc, the information on the graph does not need to be updated, and the current posture of the foot 4 has advanced to the sitting posture. Since the posture of the foot is the same as the posture before the start, the graph storage unit 63 does not change the current posture position of the foot 4.
  • the route search unit 62 notifies the command storage unit 61 that the reproduction of the target posture or motion has ended.
  • the command storage unit 61 since the target posture or operation has been successfully completed, that is, since the content of the command has been successfully executed, the command is deleted. For example, if the target action is to flap the foot as described above, the command is deleted from the command storage area of the foot 4.
  • the action determining mechanism 41, the motion path searching section 60, and the control mechanism section 43 exchange information, whereby the action determining mechanism 41, the motion path searching section 60, and the control mechanism section. 43 basic functions have been realized.
  • FIG. 29 shows a route search performed by the motion route search unit 60 based on the command (behavior command information S 16) generated by the action determination mechanism unit 41, and a result based on the route search result. It shows a series of processing procedures for the operations to be performed.
  • step SP1 a command is given from the action determination mechanism unit 41 to the operation route search unit 60, and in the following step SP2, the command storage unit 61 of the operation route search unit 60 outputs the command. To the group of directives.
  • a tail command is added. Also, If the command has instruction information to insert it as a list operation, the command is inserted into the command sequence accordingly.
  • the command storage unit 61 determines whether there is a command that can be started.
  • the command storage unit 61 stores the command for the whole as the first command (the command currently being reproduced), and the stored commands for the head as the second and third commands. If the command for the foot is recognized as the fourth command, and the command accumulated for the tail 5 is recognized as the command for the No. 5 and No. 6 commands, the entire command is recognized. If the first command is executed, it is determined that there is no command that can be started.
  • step SP4 If there is no command that can be started, the process proceeds to step SP4. If there is a command that can be started, the process proceeds to step SP5. At the time of proceeding to step SP3, while the entire robot apparatus 1 is operating, it is not possible to execute a command for each component, so the procedure proceeds to step SP4. If the operation has been completed at the time of proceeding to step SP3, the process proceeds to step SP5. In step SP4, a predetermined time is waited. For example, after elapse of 0.1 second, it is determined again in step SP3 whether or not there is a command that can be started.
  • step SP3 At the same time as the second flight command for the head, the fourth command for the foot, and the fifth command for the tail become grasped.
  • the third command for the head is recognized as a command that can be started as soon as the execution of the second command for the head is completed, and the sixth command for the tail is the head command. As soon as the execution of the fifth command for the department is completed, it will be recognized as a command that can be started.
  • step SP4 when there is no command that can be started immediately in step SP3, the process proceeds to step SP4 and waits for a predetermined time to elapse, thereby waiting until a predetermined operation is completed in the whole or each component. With the right timing, the next command can be executed.
  • step SP5 based on the contents of the next command sent from the command storage unit 61, the route search unit 62 displays a graph corresponding to the command stored in the graph storage unit 63 on the graph. It is determined whether or not a motion path from the current posture to the target posture can be found.
  • a path that can reach from the current posture (state) to the target state or movement on the graph of the head Determine if there is.
  • a path is found when there is a path (arc) to the target state or operation of the command, and as shown in Fig. 30, a plurality of directional points that can reach the target posture from the current posture.
  • Arc a. , A, and the route is not found when the path to the indicated state or operation does not exist.
  • step SP6 if the transition path from the current posture to the target posture cannot be found, the process proceeds to step SP6. Proceed to SP7. If a transition path to the target posture (or motion) is found, the path (arc) a k (k is an integer up to n including 0) is stored, and this is the posture transition plan. Information.
  • the command storage unit 61 deletes the command from the list, assuming that no operation path was found. As described above, when the operation path is not found, by deleting the command, the subsequent command can be retrieved. After erasing such a command, again in step SP3, the command storage unit 61 determines whether or not there is a command that can be started.
  • step SP8 it is determined whether or not i is equal to or less than n.
  • step SP10 If i is less than or equal to n, the process proceeds to step SP10, and if i is greater than n, the process proceeds to step SP9.
  • step SP 10 the control mechanism section 43 reproduces the arc a i based on the posture transition information S 18 sent from the route search section 62. For example, as shown in Fig. 30, if you are in the current posture (initial posture), the first directed arc a. Works.
  • step SP11 the route search unit 62 receives the notification of the end of the operation, and in step SP12, the graph storage unit 63 updates the position of the posture on the graph.
  • step SP9 the command storage unit 61 deletes the command that has just ended from the stored commands. Then, returning to step SP3, the command storage unit 61 determines again whether there is a command that can be started. If the target posture or motion extends over the whole and each component, at steps SP5 and SP6, as described with reference to FIGS. The optimal route is searched on the corresponding graph, and the processing corresponding to that is performed in the processing after step SP7. That is, the transition to the basic posture is performed, and the contents of the directed arc up to the target posture or operation are executed.
  • the commands are stored in the command storage unit 61 as described above. Since the components of the mouth bot 1 do not compete for resources, simultaneous operations are performed based on such commands. It becomes possible. For this reason, in the processing procedure (flow) as described above, the flow for each component also exists, and a plurality of flows may be executed simultaneously. Therefore, for example, when the flow for the entire command is being processed, the flow goes to the wait state without performing the flow for the command for each component.
  • the emotion and instinct model section 40 of the controller 32 changes the emotion and instinct of the robot device 1 based on the supplied input information S1 to S3.
  • the robot device can act autonomously based on its own emotions and the state of the instinct.
  • a command from a user is input via the command receiving unit 30 including the remote controller receiving unit 13 and the microphone 11.
  • the present invention is not limited to this.
  • a computer may be connected to the robot device 1 and a user's command may be input via the connected computer.
  • Emotional units 50 A to 50 F that show emotions such as ⁇ sadness, '' ⁇ sadness, '' ⁇ anger, '' etc., and a desire unity 51, which shows the desires such as ⁇ exercise desire, '' ⁇ love affection, '' etc.
  • a desire unit indicating an emotion of ⁇ loneliness '' is used as an emotion unit. It is also possible to add a desire unit indicating the desire of “sleep desire” to the desire unit 51, and to use the emotion unit of various types and combinations in addition to the desire unit. You may decide to determine your emotions and your instinct.
  • robot device 1 has an emotion model and an instinct model.
  • the present invention is not limited to this, and has only an emotion model or only an instinct model. Other models may be used to determine the behavior of the animal.
  • the next action is determined based on the command signal S1, the external information signal S2, the internal information signal S3, the emotion / instinct state information S10, and the action information S12.
  • the present invention is not limited to this, and the command signal S1, the external information signal S2, the internal information signal S3, the emotion and the instinct state information S10, and the behavior information
  • the next action may be determined based on a part of the information of S12.
  • a finite automaton 57 a case has been described in which the next action is determined using an algorithm called a finite automaton 57.
  • the present invention is not limited to this. It is called a stochastic finite automaton in which multiple states are selected as transition destination candidates based on the state at that time, and the transition destination state among the selected multiple states is randomly determined by random numbers. You may decide to use a certain algorithm to determine the action.
  • the action command information S 16 when the action command information S 16 indicates a posture to which a direct transition can be made, the action command information S 16 is directly used as the posture transition information S 18 by the control mechanism unit 43. On the other hand, if it indicates a posture in which direct transition is not possible, it generates posture transition information S18 that transitions to a target posture after transitioning to another transitable posture and generates a control mechanism unit. Although the case where the command is sent to 43 has been described, the present invention is not limited to this. On the other hand, if the action command information S 16 is sent to the position 3, indicating that the posture cannot be directly transited, the action command information S 16 may be rejected.
  • the present invention is not limited to this, and for example, a robot device used in the entertainment field such as a game or an exhibition.
  • the present invention can be applied to various other robot apparatuses. As shown in Fig. 31, a character that moves with computer graphics, for example, an animation using a character composed of multiple joints, etc. It can also be applied.
  • the appearance of the robot device 1 to which the present invention is applied is not limited to the configuration shown in FIG. 1, and has a configuration more similar to a real dog as shown in FIG. 32. It can be a humanoid humanoid robot.
  • a robot device is a robot device that performs an operation according to supplied input information, has a model caused by the operation, and determines an operation by changing the model based on the input information.
  • the robot device can autonomously act based on the state of the robot device itself, such as emotions and instinct, by changing the model based on the input information and determining the operation.
  • an operation control method is an operation control method for operating in accordance with input information supplied, wherein the operation is determined by changing a model caused by the operation based on the input information. For example, it is possible to cause the robot device to autonomously act on the basis of its own emotions and instinct.
  • the robot device is a robot device that performs an operation in accordance with supplied input information, and a current operation in accordance with a history of sequentially supplied input information and a next operation to be supplied.
  • operation determining means for determining the next operation following the current operation based on the input information
  • the current operation according to the history of the input information sequentially supplied and the input to be supplied next
  • autonomous operation is performed based on the state of the robot device itself, such as emotions and instinct. You can act.
  • the operation control method according to the present invention is an operation control method for operating according to supplied input information, wherein the current operation according to the history of sequentially supplied input information and the next supplied input By determining the next operation following the current operation based on the information, it is possible to cause the robot device to act autonomously, for example, based on its own emotions and instinct.
  • the robot apparatus includes: a graph storage unit configured to store a graph in which the posture and the motion are registered, the graph being configured by connecting the posture and the motion of transitioning the posture.
  • the path from the posture to the target posture or the target movement is searched on the graph based on the action command information, and is operated based on the search result.
  • control means for transitioning to a desired posture or a target movement whereby the control means can determine a path from the current posture to the target posture or the target movement based on the action command information.
  • the motion control method according to the present invention is configured such that a posture and a path from a current posture to a target posture or a target movement are registered based on the action command information, and the posture and the movement are registered.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Feedback Control In General (AREA)

Abstract

A robot device capable of natural, autonomous motion, which has motion-induced emotional instinct models and is provided with a control means (32) for determining its motion by changing an emotional instinct model based on elements of input information (S1 to S3), whereby an autonomous action based on an emotional instinct condition of the robot device (1) itself can be permitted to implement a robot device capable of making natural motion autonomously.

Description

明細: ロボッ ト装置及び動作制御方法 技術分野  Description: Robot device and operation control method
本発明はロボッ ト装置及び動作制御方法に関し、 例えば四足動物 のよ うに動作するロボッ ト装置に適用して好適なものである。 背景技術  The present invention relates to a robot device and an operation control method, and is suitably applied to, for example, a robot device that operates like a quadruped. Background art
従来、 ユーザからの指令や周囲の環境に応じて動作する四足歩行 型のロボッ ト装置、 多関節ロボッ ト或いはコンピュータグラフィ ッ クスで動くキャラクターを用いたアニメーション等が提案及び開発 されている。 このようなロボッ ト装置或いはアニメーショ ン (以下、 まとめてロボッ ト装置等という。 ) は、 ユーザからの指令に基づい て一連の動作を行う。  Conventionally, there have been proposed and developed a quadruped walking robot apparatus that operates in response to a command from a user or the surrounding environment, an articulated robot, or an animation using a character that moves by computer graphics. Such a robot device or animation (hereinafter collectively referred to as a robot device, etc.) performs a series of operations based on a command from a user.
例えば、 犬のように四足動物によく似た形状からなるロボッ ト装 置であるいわゆるペッ トロボッ トは、 ユーザから 「伏せ」 という命 令を受けると、 伏せの姿勢をとつたり、 自分の口の前にユーザが手 を差し出すと必ず 「おて」 をしたりする。  For example, a so-called petrobot, which is a robotic device that resembles a quadruped like a dog, takes a prone posture when the user receives a command to prone. Whenever the user presents his hand in front of his / her mouth, he or she will “hand”.
ところで、 動物を模したロボッ ト装置等の動作はできるだけ本物 の動物がする動作に近いことが望ましい。  Incidentally, it is desirable that the operation of a robot device or the like imitating an animal be as close as possible to the operation of a real animal.
しかし、 これまでのロボッ ト装置等は、 ユーザからの指令や環境 に基づいて予め決められた動作を行うだけであった。 このように従 来のロボッ ト装置等は本物の動物と同じように自律的に動作を行う ものではないことから、 できるだけ本物の動物に近く、 自律的に行 動を決定するようなロボッ ト装置等を得たいというユーザの要求を 満足させることはできなかった。 However, conventional robot devices only perform predetermined operations based on commands from the user and the environment. As described above, the conventional robot device does not operate autonomously like a real animal, and therefore, operates as close to a real animal as possible and autonomously. It was not possible to satisfy the user's request to obtain a robot device or the like that determines the action.
さらに、 ロボッ ト装置等は、 目標とされる姿勢や目標とされる動 作を所定の姿勢や動作を経由して実行しているが、 目標とされる姿 勢や動作までに遷移する間に実行される姿勢や動作を複数用意して おく ことはロボッ ト装置等の動作表現の豊富化につながる。  In addition, the robot device and the like execute a target posture and a target operation via a predetermined posture and motion, but during the transition to the target posture and motion, Preparing a plurality of postures and movements to be executed leads to enrichment of movement expressions of robot devices and the like.
また、 ロボッ ト装置等が目的とされる姿勢や動作に到達されるま でに経由する姿勢や動作として複数通り用意した場合、 経由する姿 勢や動作が最適に選択されて、 当該目的とされる姿勢や動作に遷移 できることが好ましいといえる。 発明の開示  In addition, if a robot device or the like is provided with a plurality of postures or movements to be passed before reaching the intended posture or operation, the posture or movement to be passed is optimally selected and is set as the purpose. It can be said that it is preferable to be able to make a transition to a posture and motion that is appropriate. Disclosure of the invention
本発明は、 上述の実情に鑑みてなされたものであり、 自然な動作 を自律的に行うロボッ ト装置及び動作制御方法の提案を目的として いる。  The present invention has been made in view of the above-described circumstances, and has as its object to propose a robot apparatus and an operation control method for autonomously performing a natural operation.
また、 本発明は、 上述の実情に鑑みてなされたものであり、 表現 の豊富化を可能にするとともに、 遷移する際の姿勢や動作が最適化 されたロボッ ト装置及び動作制御方法の提供を目的と している。 具体的には、 本発明に係るロボッ ト装置は、 供給される入力情報 に応じた動作を行うロボッ ト装置であって、 動作に起因するモデル を有し、 入力情報に基づいてモデルを変化させることにより動作を 決定するモデル変化手段を備える。  In addition, the present invention has been made in view of the above-described circumstances, and provides a robot device and an operation control method that enable enrichment of expressions and optimize postures and operations during transition. The purpose is. Specifically, the robot device according to the present invention is a robot device that performs an operation according to supplied input information, has a model caused by the operation, and changes the model based on the input information. Model change means for determining the action by the operation.
このような構成を備えるロボッ ト装置は、 動作に起因するモデル を有し、 入力情報に基づいてモデルを変化させて動作を決定するこ とにより、 例えばモデルを感情モデルや本能モデルとすれば、 ロボ ッ ト装置自身の感情や本能等の状態に基づいて自律的に行動するこ とになる。 A robot device having such a configuration has a model caused by an action, and determines the action by changing the model based on input information. For example, if the model is an emotion model or an instinct model, robot The robot will act autonomously based on the emotions and instinct of the smart device itself.
また、 本発明に係る動作制御方法は、 供給される入力情報に応じ て動作させる動作制御方法であって、 入力情報に基づいて動作に起 因するモデルを変化させることにより動作を決定する。  Further, an operation control method according to the present invention is an operation control method for operating according to supplied input information, and determines an operation by changing a model caused by the operation based on the input information.
このような動作制御方法は、 入力情報に基づいてモデルを変化さ せて動作を決定することにより、 例えばモデルを感情モデルや本能 モデルとすれば、 ロボッ ト装置を自身の感情や本能等の状態に基づ いて自律的に行動させることになる。  Such a motion control method determines a motion by changing a model based on input information. For example, if the model is an emotion model or an instinct model, the robot device can change the state of its own emotion or instinct. Based on this, they will behave autonomously.
また、 本発明に係るロボッ ト装置は、 供給される入力情報に応じ た動作を行うロボッ ト装置であって、 順次供給される入力情報の履 歴に応じた現在の動作及び次に供給される入力情報に基づいて、 現 在の動作に続く次の動作を決定する動作決定手段を備える。  Further, the robot device according to the present invention is a robot device that performs an operation in accordance with supplied input information, and a current operation in accordance with a history of sequentially supplied input information and a next operation to be supplied. An operation determining means for determining a next operation following the current operation based on the input information is provided.
このような構成を備えるロボッ ト装置は、 順次供給される入力情 報の履歴に応じた現在の動作及び次に供給される入力情報に基づい て現在の動作に続く次の動作を決定することにより、 ロボッ ト装置 自身の感情や本能等の状態に基づいて自律的に行動する。  A robot device having such a configuration determines a current operation according to a history of input information sequentially supplied and a next operation following the current operation based on input information supplied next. The robot device acts autonomously based on its own emotions and instinct.
また、 本発明に係る動作制御方法は、 供給される入力情報に応じ て動作させる動作制御方法であって、 順次供給される入力情報の履 歴に応じた現在の動作及び次に供給される入力情報に基づいて、 現 在の動作に続く次の動作を決定する。  Also, the operation control method according to the present invention is an operation control method for operating according to supplied input information, wherein the current operation according to the history of sequentially supplied input information and the next supplied input Based on the information, determine the next action following the current action.
このような動作制御方法は、 順次供給される入力情報の履歴に応 じた現在の動作及び次に供給される入力情報に基づいて現在の動作 に続く次の動作を決定することにより、 例えば、 ロボッ ト装置を自 身の感情や本能等の状態に基づいて自律的に行動させる。 また、 本発明に係るロボッ ト装置は、 姿勢及び動作が登録されて いるグラフであって、 姿勢とこの姿勢を遷移させる動作とを結んで 構成されたものを保持するグラフ記憶手段と、 現在の姿勢から目標 とされる姿勢又は目標とされる動作までの経路を、 行動指令情報に 基づいて、 グラフ上において探索して、 その探索結果に基づいて動 作させて、 現在の姿勢から目標とされる姿勢又は目標とされる動作 に遷移させる制御手段とを備える。 Such an operation control method determines a current operation according to a history of input information sequentially supplied and a next operation following the current operation based on input information supplied next. The robot device autonomously acts based on its own emotions and instinct. Further, the robot apparatus according to the present invention includes: a graph storage unit configured to hold a graph in which the posture and the motion are registered, the graph being configured by connecting the posture and the motion of transitioning the posture. The path from the posture to the target posture or the target movement is searched on the graph based on the action command information, and is operated based on the search result. Control means for transitioning to a posture or a target movement.
このような構成を備えるロボッ ト装置は、 グラフ記憶手段に記憶 されている姿勢及び動作が登録されているグラフであって、 姿勢と この姿勢を遷移させる動作とを結んで構成されたものに基づいて、 行動指令情報により指示された目標とされる姿勢又は目標とされる 姿勢まで遷移する。 具体的には、 ロボッ ト装置は、 制御手段により、 現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路 を、 行動指令情報に基づいてグラフ上において探索して、 その探索 結果に基づいて動作させて、 現在の姿勢から目標とされる姿勢又は 目標とされる動作に遷移させる。  The robot apparatus having such a configuration is based on a graph in which the posture and the motion stored in the graph storage means are registered, and the graph is formed by connecting the posture and the motion for changing the posture. Then, the posture changes to the target posture or the target posture designated by the action command information. Specifically, the robot device searches for a path from the current posture to the target posture or the target movement on the graph based on the action command information by the control means. To make a transition from the current posture to the target posture or the target motion.
また、 本発明に係る動作制御方法は、 現在の姿勢から目標とされ る姿勢又は目標とされる動作までの経路を、 行動指令情報に基づい て、 姿勢及び上記動作が登録されて構成され、 姿勢とこの姿勢を遷 移させる動作とを結んで構成されたグラフ上において探索し、 探索 結果に基づいて動作させて、 現在の姿勢から目標とされる姿勢又は 目標とされる動作に遷移させる。  Also, the motion control method according to the present invention is configured such that a posture from a current posture to a target posture or a target movement is registered based on the behavior command information, and the posture and the above-described movement are registered. A search is performed on a graph formed by connecting the position and the operation to change the posture, and the operation is performed based on the search result, thereby transiting from the current posture to the target posture or the target operation.
すなわち、 動作制御方法は、 姿勢及び動作が登録されているダラ フであって、 姿勢とこの姿勢を遷移させる動作とを結んで構成され たものに基づいて、 行動指令情報により指示された目標とされる姿 勢又は目標とされる姿勢まで遷移させる。 図面の簡単な説明 That is, the motion control method is based on a posture and a registered motion, which are formed by connecting the posture and the motion for changing the posture, to the target indicated by the action command information. Figure A transition is made to a force or a target posture. BRIEF DESCRIPTION OF THE FIGURES
図 1は、 本発明によるロボッ ト装置の一実施の形態を示す斜視図 である。  FIG. 1 is a perspective view showing an embodiment of a robot device according to the present invention.
図 2は、 口ボッ ト装置の回路構成を示すブロック図である。 図 3は、 コントローラにおけるデータ処理を示す略線図である。 図 4は、 感情 ·本能モデル部によるデータ処理を示す略線図であ る。  FIG. 2 is a block diagram showing a circuit configuration of the mouth bot device. FIG. 3 is a schematic diagram illustrating data processing in the controller. FIG. 4 is a schematic diagram illustrating data processing by the emotion / instinct model unit.
図 5は、 感情 ·本能モデル部によるデータ処理を示す略線図であ る。  FIG. 5 is a schematic diagram illustrating data processing by the emotion / instinct model unit.
図 6は、 感情 ·本能モデル部によるデータ処理を示す略線図であ る。  FIG. 6 is a schematic diagram illustrating data processing by the emotion / instinct model unit.
図 7は、 行動決定機構部における有限ォートマ トンの状態遷移図 である。  Figure 7 is a state transition diagram of the finite automaton in the action decision mechanism.
図 8は、 行動指令情報の生成について説明するために使用した行 動決定機構部等の構成を示すプロック図である。  FIG. 8 is a block diagram illustrating a configuration of an action determining mechanism unit and the like used for describing generation of action command information.
図 9は、 ステートが確率により決定される場合の説明に使用した 図である。  FIG. 9 is a diagram used to explain a case where a state is determined by probability.
図 1 0は、 遷移確率と遷移されるステートとの関係等が記述され ているテーブルを示す図である。  FIG. 10 is a diagram showing a table in which the relationship between the transition probability and the state to be transitioned is described.
図 1 1は、 姿勢遷移機構部における姿勢遷移のグラフを示す図で める。  FIG. 11 is a diagram showing a graph of a posture transition in the posture transition mechanism unit.
図 1 2は、 姿勢遷移のグラフの具体例を示す図である。  FIG. 12 is a diagram showing a specific example of a graph of a posture transition.
図 1 3は、 現在の姿勢を把握できない場合に一旦遷移させるニュ —トラルの姿勢を備えること、 さらに転倒復帰を可能にすることを 説明するために使用した状態遷移図である。 Fig. 13 shows the transition to a temporary transition when the current posture cannot be grasped. -This is a state transition diagram used to explain that the vehicle is provided with a tall posture and that it is possible to return from a fall.
図 1 4は、 距離を指標と した経路探索を説明するために使用した 図である。  FIG. 14 is a diagram used to explain a route search using distance as an index.
図 1 5は、 分類分けにより経路探索をを行う場合を説明するため に使用した図である。  FIG. 15 is a diagram used to explain a case where a route search is performed by classification.
図 1 6は、 距離を具体的に設定した場合の経路探索を説明するた めに使用した図である。  FIG. 16 is a diagram used to explain a route search when a distance is specifically set.
図 1 7は、 歩行方向をパラメータとする場合を説明するために使 用したロボッ ト装置の上面図である。  FIG. 17 is a top view of the robot device used to explain the case where the walking direction is used as a parameter.
図 1 8は、 パラメータと動作の内容を示す図である。  Figure 18 is a diagram showing the parameters and the contents of the operation.
図 1 9は、 姿勢間を遷移する間の動作に他の動作を同期させる場 合の説明をするために使用した図である。  FIG. 19 is a diagram used to explain a case where another operation is synchronized with an operation during transition between postures.
図 2 0は、 異なる姿勢において同様な動作を実行させる場合の説 明に使用した図である。  FIG. 20 is a diagram used to explain a case where a similar operation is performed in different postures.
図 2 1は、 ロボッ ト装置を示す斜視図である。  FIG. 21 is a perspective view showing a robot device.
図 2 2 A及び Bは、 基本姿勢を取り入れて、 全体と部位との間で 姿勢を遷移させる場合の説明をするために使用した図である。  FIGS. 22A and 22B are views used to explain the case where the basic posture is adopted and the posture is changed between the whole and the part.
図 2 3は、 現在の姿勢が全体にあり、 目標の動作が部位にある場 合において、 基本姿勢に一旦遷移させてから目標とする動作を実行 する場合の説明に使用した図である。  Fig. 23 is a diagram used to explain the case where the current posture is the whole and the target motion is in the part, and the target motion is executed after temporarily transitioning to the basic posture.
図 2 4は、 現在の姿勢が部位にあり、 目標の動作が全体にある場 合において、 基本姿勢に一旦遷移させてから目標とする動作を実行 する場合の説明に使用した図である。  Fig. 24 is a diagram used to explain the case where the target posture is executed after the transition to the basic posture once when the current posture is in the part and the target motion is in the whole.
図 2 5 A及び Bは、 指令の挿入処理を説明するために使用した図 である。 Figures 25A and B are diagrams used to explain the insertion process of the command. It is.
図 2 6は、 全体及び各構成部分に対応した指令を保存可能とする 指令保存部を示す図である。  FIG. 26 is a diagram showing a command storage unit that can store commands corresponding to the whole and each component.
図 2 7は、 全体及び各構成部分に対応した指令を保存可能とす る指令保存部による処理形態の一例を説明するために使用したを図 である。  FIG. 27 is a diagram used to explain an example of a processing mode by a command storage unit that can store commands corresponding to the whole and each component.
図 2 8は、 経路探索をする動作経路探索部を示すプロック図であ る。  FIG. 28 is a block diagram illustrating an operation route search unit that performs a route search.
図 2 9は、 指令により動作が実行されるまでの一連の処理を示す フローチヤ一トである。  FIG. 29 is a flowchart showing a series of processing until an operation is executed by a command.
図 3 0は、 頭のグラフ上において、 現在の姿勢から目標の動作ま で複数の有向アークが経由されることを説明するために使用した図 である。  FIG. 30 is a diagram used to explain that a plurality of directional arcs are passed from the current posture to the target operation on the graph of the head.
図 3 1は、 本発明が適用される他の例であって、 コンピュータグ ラフィ ックスで動くキャラクターを示す図である。  FIG. 31 is another example to which the present invention is applied, and is a diagram showing a character moving with computer graphics.
図 3 2は、 本発明によるロボッ ト装置の他の実施の形態を示す斜 視図である。 発明を実施するための最良の形態  FIG. 32 is a perspective view showing another embodiment of the robot apparatus according to the present invention. BEST MODE FOR CARRYING OUT THE INVENTION
以下、 本発明の実施の形態について図面を用いて詳しく説明する。  Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
( 1 ) ロボッ ト装置の構成  (1) Robot device configuration
図 1に示すように、 ロボッ ト装置 1は全体が構成されており、 頭 に相当する頭部 2と、 胴体に相当する本体部 3と、 足に相当する足 部 4 A , 4 B , 4 C , 4 Dと、 尻尾に相当する尻尾部 5 とを連結さ れて構成されている。 ロボッ ト装置 1は、 本体部 3に対して頭部 2、 足部 4 A〜4 D、 尻尾部 5を動かすことによって本物の四足動物の ように動作する。 As shown in FIG. 1, the robot apparatus 1 is entirely configured, and includes a head 2 corresponding to a head, a main body 3 corresponding to a body, and feet 4A, 4B, 4 corresponding to feet. It is composed of C, 4D and a tail 5 corresponding to the tail. The robot device 1 has a head 2, Acts like a real quadruped by moving the feet 4A-4D and the tail 5.
頭部 2には、 目に相当し、 画像を撮像する例えば C C D (Charge Coupled Device) カメラでなる画像認識部 1 0と、 耳に相当し、 音 声を集音するマイク 1 1 と、 口に相当し、 音声を発するスピーカ 1 2 とがそれぞれ所定位置に取り付けられている。 また、 頭部 2には、 ユーザからリモー トコン トローラ (図示せず) を介して送信される 指令を受信するリモートコントローラ受信部 1 3と、 ユーザの手な どが接触されたことを検出するためのタツチセンサ 1 4 と、 発光手 段でなる L E D (Light Emitt ing Diode) 1 5 とが取り付けられて いる。  The head 2 has an image recognition unit 10 that is equivalent to the eye and captures an image, for example, a CCD (Charge Coupled Device) camera, a microphone 11 that corresponds to the ear and collects voice, and a mouth. Correspondingly, the speakers 1 and 2 that emit sound are respectively mounted at predetermined positions. The head 2 has a remote controller receiving unit 13 for receiving a command transmitted from a user via a remote controller (not shown) and a head for detecting that the user's hand or the like has come into contact. A touch sensor 14 and an LED (Light Emitter Diode) 15 as a light emitting means are mounted.
本体部 3には、 腹に相当する位置にバッテリ 2 1が取り付けられ ると共に、 その内部にロボッ ト装置 1全体の動作を制御するための 電子回路 (図示せず) 等が収納されている。  A battery 21 is attached to the body 3 at a position corresponding to the belly, and an electronic circuit (not shown) for controlling the operation of the entire robot device 1 and the like are housed inside the battery 21.
足部 4 A〜 4 Dの関節部分、 足部 4 A〜 4 Dと本体部 3の連結部 分、 本体部 3 と頭部 2の連結部分、 本体部 3 と尻尾部 5の連結部分 などは、 それぞれのァクチユエ一タ 2 3 A〜 2 3 Nによって連結さ れており、 本体部 3内部に収納される電子回路の制御に基づいて駆 動するようになされている。 このようにロボッ ト装置 1は、 各ァク チユエータ 2 3 A〜2 3 Nを駆動させることにより、 頭部 2を上下 左右に振らせたり、 尻尾部 5を振らせたり、 足部 4 A〜4 Dを動か して歩かせたり走らせたり して、 本物の四足動物のような動作を行 わせる。  The joints of the feet 4A to 4D, the joints of the feet 4A to 4D and the body 3, the joints of the body 3 and the head 2, the joints of the body 3 and the tail 5, etc. The actuators 23 A to 23 N are connected to each other, and are driven based on control of an electronic circuit housed in the main body 3. In this way, the robot apparatus 1 drives the actuators 23 A to 23 N to swing the head 2 up and down, left and right, swing the tail 5, and swing the feet 4 A to Move 4D to walk or run to make it move like a real quadruped.
このように構成されているロボッ ト装置 1は、 後に詳述するが、 概略と して例えば次のような特徴がある。 ロボッ ト装置がある姿勢 (第 1の姿勢) から他の姿勢 (第 2の姿 勢) へ遷移するように指示されたとき、 第 1 の姿勢から第 2の姿勢 に直接に遷移しないで、 予め用意された無理のない姿勢をたどって 遷移する。 The robot device 1 configured as described above will be described later in detail, but has, for example, the following features in outline. When the robot device is instructed to transition from one posture (first posture) to another posture (second posture), the robot device does not directly transition from the first posture to the second posture, but in advance. The transition follows the prepared posture.
また、 ロボッ ト装置 1の姿勢遷移で任意の姿勢に到達したときに 通知を受け取れる。  In addition, when the robot apparatus 1 reaches an arbitrary posture in the posture transition, a notification can be received.
ロボッ ト装置 1は、 頭、 足、 尻尾の部分から構成され、 これらの 各部分の姿勢を独立に管理できる。 従って、 例えば、 頭と足はそれ ぞれ独立に姿勢制御が可能になる。 また、 頭、 足、 尻尾の全てを含 む全体の姿勢を部分とは別に管理できる。  The robot device 1 includes a head, a foot, and a tail, and can independently manage the posture of each of these parts. Therefore, for example, the head and the foot can be independently controlled in posture. In addition, the entire posture, including the head, feet, and tail, can be managed separately from the parts.
また、 ロボッ ト装置 1の動作命令に動作の詳細を示すためのパラ メ一タを渡すことができる。  Also, parameters for indicating details of the operation can be passed to the operation instruction of the robot device 1.
ロボッ ト装置 1には以上のような特徴があり、 以下にこのような 特徴を含めた多くの特徴を説明する。  The robot device 1 has the above features, and many features including such features will be described below.
( 2 ) ロボッ ト装置の回路構成  (2) Circuit configuration of robot device
ロボッ ト装置 1の回路構成は、 例えば図 2に示すよ うな構成とな つている。 頭部 2は、 マイク 1 1及びリモートコントローラ受信部 1 3でなるコマンド受信部 3 0と、 画像認識部 1 0及びタツチセン サ 1 4からなる外部センサ 3 1 と、 スピーカ 1 2と、 L E D 1 5と を有している。 また、 本体部 3は、 バッテリ 2 1を有すると共に、 その内部にロボッ ト装置 1全体の動作を制御するためのコントロー ラ 3 2 と、 バッテリ 2 1の残量を検出するためのバッテリセンサ 3 3及びロボッ ト装置 1内部で発生する熱を検出する熱センサ 3 4で なる内部センサ 3 5とを有している。 さらに、 ロボッ ト装置 1の所 定位置にはァクチユエータ 2 3 A〜 2 3 Nがそれぞれ設けられてい る。 The circuit configuration of the robot device 1 is, for example, as shown in FIG. The head 2 is composed of a command receiving unit 30 consisting of a microphone 11 and a remote controller receiving unit 13, an external sensor 31 consisting of an image recognizing unit 10 and a touch sensor 14, a speaker 12 and an LED 15 And. The main unit 3 has a battery 21 and a controller 32 for controlling the operation of the robot device 1 as a whole, and a battery sensor 33 for detecting the remaining amount of the battery 21. And an internal sensor 35 comprising a heat sensor 34 for detecting heat generated inside the robot device 1. Further, actuators 23A to 23N are provided at predetermined positions of the robot device 1, respectively. You.
コマンド受信部 3 0は、 ユーザからロボッ ト装置 1に与えられる 指令、 例えば 「歩け」 、 「伏せ」 、 「ボールを追いかけろ」 等の指 令を受信するためのものであり、 リモートコントローラ受信部 1 3 及びマイク 1 1によって構成されている。  The command receiving unit 30 is for receiving a command given by the user to the robot device 1, for example, a command such as “walk”, “down”, “follow the ball”, and the like. 3 and a microphone 11.
リモー トコン トローラ受信部 1 3は、 リモー トコン トローラ (図 示せず) がユーザによって操作されて入力された所望の指令を受信 する。 例えば、 リモートコントローラからの指令の送信は、 赤外線 光により行われる。 リモー トコン トローラ受信部 1 3は、 この赤外 線光を受信して受信信号 S 1 Aを生成し、 これをコントローラ 3 2 に送出する。  The remote controller receiving section 13 receives a desired command input by a user operating a remote controller (not shown). For example, transmission of commands from the remote controller is performed by infrared light. The remote controller receiving section 13 receives the infrared light, generates a received signal S 1 A, and sends it to the controller 32.
なお、 リモートコントローラについては、 赤外線光により行う場 合に限定されるものはなく、 音階によってロボッ ト装置 1に命令を 与えるようなものとすることもできる。 この場合には、 ロボッ ト装 置 1は、 例えば、 マイク 1 1から入力されたリモートコン トローラ からの音階に応じた処理を行うようにする。  It should be noted that the remote controller is not limited to the case where the remote control is performed by infrared light, and may be such that a command is given to the robot device 1 by a musical scale. In this case, the robot device 1 performs, for example, a process according to the scale from the remote controller input from the microphone 11.
マイク 1 1は、 ユーザが所望の指令に応じた音声を発すると、 当 該ユーザの発した音声を集音して音声信号 S 1 Bを生成し、 これを コン トローラ 3 2に送出する。  When the user utters a voice according to a desired command, the microphone 11 collects the voice uttered by the user, generates a voice signal S 1 B, and sends this to the controller 32.
コマンド受信部 3 0は、 このようにユーザから口ボッ ト装置 1に 与えられる指令に応じて受信信号 S 1 A及び音声信号 S 1 Bでなる 指令信号 S 1を生成し、 これをコントローラ 3 2に供給する。  The command receiving unit 30 generates a command signal S1 composed of the received signal S1A and the audio signal S1B according to the command given to the mouth-bot device 1 from the user in this way, and sends this to the controller 32. To supply.
外部センサ 3 1のタツチセンサ 1 4は、 ユーザから口ポッ ト装置 1への働きかけ、 例えば 「なでる」 、 「たたく」 等の働きかけを検 出するためのものである。 例えば、 ユーザによりタツチセンサ 1 4 0 263 The touch sensor 14 of the external sensor 31 is used to detect a user's action on the mouth pot device 1, for example, an action such as "stroke" or "slap". For example, the touch sensor 14 0 263
11 が触れられて所望の働きかけがなされると、 その働きかけに応じた 接触検出信号 S 2 Aを生成し、 これをコン トローラ 3 2に送出する ( 外部センサ 3 1の画像認識部 1 0は、 口ボッ ト装置 1の周囲の環 境を識別した結果、 例えば 「暗い」 、 「お気に入りのおもちやがあ る」 等の周囲の環境情報又は例えば 「他のロボッ トが走っている」 等の他のロボッ ト装置の動きを検出するためのものである。 この画 像認識部 1 0は、 周囲の画像を撮影した結果得られる画像信号 S 2 Bを、 コントローラ 3 2に送出する。 When 11 is touched and the desired action is performed, a contact detection signal S 2 A corresponding to the action is generated and sent to the controller 32 ( the image recognition unit 10 of the external sensor 31 As a result of identifying the environment around the mouth robot 1, information on the surrounding environment such as “dark” or “there is a favorite toy” or other information such as “other robot is running” The image recognition unit 10 sends an image signal S 2 B obtained as a result of capturing a surrounding image to the controller 32.
外部センサ 3 1は、 このようにロボッ ト装置 1の外部から与えら れる外部情報に応じて接触検出信号 S 2 A及び画像信号 S 2 Bでな る外部情報信号 S 2を生成し、 これをコントローラ 3 2に送出する。 内部センサ 3 5は、 ロボッ ト装置 1 自身の内部状態、 例えばバッ テリ容量が低下したを意味する 「お腹がすいた」 、 「熱がある」 等 の内部状態を検出するためのものであり、 バッテリセンサ 3 3及び 熱センサ 3 4から構成されている。  The external sensor 31 generates an external information signal S2, which is a contact detection signal S2A and an image signal S2B, according to the external information given from outside the robot apparatus 1 as described above. Send to controller 32. The internal sensor 35 is for detecting the internal state of the robot apparatus 1 itself, for example, an internal state such as "hungry" or "heated", which means that the battery capacity has decreased. It is composed of a battery sensor 33 and a heat sensor 34.
バッテリセンサ 3 3は、 ロボッ ト装置 1の各回路に電源を供給す るバッテリ 2 1の残量を検出するためのものである。 このバッテリ センサ 3 3は、 その検出した結果であるバッテリ容量検出信号 S 3 Aをコン トローラ 3 2に送出する。 熱センサ 3 4は、 ロボッ ト装置 1内部の熱を検出するためのものである。 この熱センサ 3 4は、 そ の検出した結果である熱検出信号 S 3 Bをコントローラ 3 2に送出 する。  The battery sensor 33 detects the remaining amount of the battery 21 that supplies power to each circuit of the robot device 1. The battery sensor 33 sends a battery capacity detection signal S 3 A, which is a result of the detection, to the controller 32. The heat sensor 34 is for detecting heat inside the robot device 1. The heat sensor 34 sends a heat detection signal S 3 B, which is the detection result, to the controller 32.
内部センサ 3 5は、 このようにロボッ ト装置 1の内部の情報に応 じてバッテリ容量検出信号 S 3 A及び熱検出信号 S 3 Bでなる内部 情報信号 S 3を生成し、 これをコン トローラ 3 2に送出する。 コン トローラ 3 2は、 コマンド受信部 3 0から供給される指令信 号 S 1 と、 外部センサ 3 1 から供給される外部情報信号 S 2と、 内 部センサ 3 5から供給される内部情報信号 S 3 とに基づいて、 各ァ クチユエータ 2 3 A〜 2 3 Nを駆動させるための制御信号 S 5 A〜 S 5 Nを生成し、 これらをァクチユエ一タ 2 3 A〜 2 3 Nにそれぞ れ送出して駆動させることにより ロボッ ト装置 1を動作させる。 その際コン トローラ 3 2は、 外部に出力するための音声信号 S 1 0や発光信号 S 1 1を必要に応じて生成し、 このうち音声信号 S 1 0をスピーカ 1 2を介して外部に出力したり、 発光信号 S 1 1を L E D 1 5に送出して所望の発光出力 (例えば、 点滅にする、 色を変 化させる) をすることにより、 ユーザに必要な情報を知らせるよう になされている。 例えば、 発光出力により、 ユーザに自己の感情を 知らせるようにする。 なお、 L E D 1 5に替えて画像を表示する画 像表示部を備えることもできる。 これにより、 所望の画像表示によ り、 ユーザに必要な情報、 例えば感情等を知らせることができる。 The internal sensor 35 generates an internal information signal S3 including a battery capacity detection signal S3A and a heat detection signal S3B according to the information inside the robot device 1 as described above, and outputs the signal to the controller. 3 Send to 2. The controller 32 includes a command signal S 1 supplied from the command receiving section 30, an external information signal S 2 supplied from the external sensor 31, and an internal information signal S supplied from the internal sensor 35. 3 to generate control signals S5A to S5N for driving each of the actuators 23A to 23N, which are respectively transmitted to the actuators 23A to 23N. The robot device 1 is operated by sending and driving. At that time, the controller 32 generates the audio signal S10 and the light emission signal S11 for output to the outside as necessary, and outputs the audio signal S10 to the outside via the speaker 12 as necessary. Or by sending a light emission signal S11 to the LED 15 to produce a desired light emission output (for example, blinking or changing a color) to inform a user of necessary information. . For example, the user can be informed of his / her own emotion by emitting light. Note that an image display unit for displaying an image may be provided instead of the LED 15. This allows the user to be informed of necessary information, such as emotions, by displaying a desired image.
( 3 ) コン トローラにおける処理  (3) Processing in controller
コン トローラ 3 2は、 コマンド受信部 3 0から供給される指令信 号 S 1 と、 外部センサ 3 1から供給される外部情報信号 S 2と、 内 部センサ 3 5から供給される内部情報信号 S 3 とを、 所定の記憶領 域に予め格納されているプログラムに基づいてソフ トウェア的にデ ータ処理を施し、 その結果得られる制御信号 S 5をァクチユエータ 2 3に供給する。  The controller 32 includes a command signal S 1 supplied from the command receiving unit 30, an external information signal S 2 supplied from the external sensor 31, and an internal information signal S 2 supplied from the internal sensor 35. 3 is subjected to data processing in software based on a program stored in a predetermined storage area in advance, and a control signal S 5 obtained as a result is supplied to the actuator 23.
この際のァクチユエータ 2 3の動作がロボッ ト装置 1 の行動と し て表現されることになり、 本発明はそのような表現の豊富化の実現 を目的とするものである。 図 3に示すように、 コントローラ 3 2は、 そのデータ処理の内容 を機能的に分類すると、 感情本能モデル変化手段と しての感情 ·本 能モデル部 4 0と動作決定手段としての行動決定機構部 4 1 と姿勢 遷移手段としての姿勢遷移機構部 4 2 と制御機構部 4 3 とに分けら れ、 外部から供給される指令信号 S 1 と外部情報信号 S 2と内部情 報信号 S 3とを感情 ·本能モデル部 4 0及び行動決定機構部 4 1に 入力する。 概略と しては以下のように機能する。 At this time, the operation of the actuator 23 is expressed as the operation of the robot device 1, and the present invention aims at realizing such an expression. As shown in FIG. 3, when the content of the data processing is functionally classified, the controller 32 includes an emotion / instinct model section 40 as an emotion instinct model changing means and an action determining mechanism as an action determining means. Section 41 and an attitude transition mechanism section 4 2 as attitude transition means and a control mechanism section 4 3 .The command signal S 1, the external information signal S 2, and the internal information signal S 3 are supplied from the outside. Is input to the emotion · instinct model section 40 and the action decision mechanism section 41. In outline, it works as follows.
感情 ·本能モデル部 4 0において指令信号 S 1、 外部情報信号 S 2及び内部情報信号 S 3に基づいて感情や本能の状態を決定する。 そして、 行動決定機構部 4 1において指令信号 S 1、 外部情報信号 S 2及び内部情報信号 S 3に加え感情 ·本能モデル部 4 0により得 た感情 ·本能状態情報 S 1 0に基づいて次の動作 (行動) を決定し、 後段の姿勢遷移機構部 4 2において行動決定機構部 4 1により決定 された次の動作 (行動) に遷移するための姿勢の遷移計画を立てる。 なお、 行動決定機構部 4 1が決定した動作 (行動) の情報は、 感情 .本能モデル部 4 0にフィードバックされて、 感情 ·本能モデル部 4 0では、 決定された動作 (行動) を参照して感情や本能の状態を 決定するようにもなされている。 すなわち、 感情 ·本能モデル部 4 0では、 動作 (行動) 結果をも参照して本能及び感情を決定してい る。  Feelings · Instinct model section 40 determines the state of feelings and instinct based on command signal S 1, external information signal S 2 and internal information signal S 3. Then, in addition to the command signal S 1, the external information signal S 2, and the internal information signal S 3 in the action determination mechanism section 41, based on the emotion obtained by the instinct model section 40 and the instinct state information S 10, The action (behavior) is determined, and a posture transition plan for transitioning to the next motion (behavior) determined by the behavior determination mechanism 41 in the subsequent stage transition mechanism 42 is made. The information on the action (action) determined by the action determination mechanism section 41 is fed back to the emotion. Instinct model section 40, and the emotion / instinct model section 40 refers to the determined action (action). It is also used to determine the state of emotions and instinct. In other words, the emotion and instinct model unit 40 determines the instinct and emotion by also referring to the action (action) result.
制御機構部 4 3では、 姿勢遷移機構部 4 2から姿勢遷移計画に基 づいて送られてく る姿勢遷移情報 S 1 8に基づいて各動作部を制御 し、 実際に姿勢を遷移させてから、 行動決定機構部 4 1にて決定さ れた次の動作 (行動) を実際に実行する。  The control mechanism section 43 controls each operation section based on the posture transition information S18 sent from the posture transition mechanism section 42 based on the posture transition plan, and after the posture is actually changed, The next action (action) determined by the action decision mechanism 41 is actually executed.
すなわち、 ロボッ ト装置 1は、 上述したようなコントローラ 3 2 における機構により、 感情 ·本能に基づいて次の動作 (行動) を決 定して、 そのような動作 (行動) を実行できる姿勢までの遷移計画 を立てて、 その遷移計画に基づいて姿勢を遷移させてから、 そのよ うな感情 ·本能に基づいて決定した動作 (行動) を実際に実行する 以下、 上述のコントローラ 3 2の各構成部について説明する。 In other words, the robot device 1 has the controller 3 2 as described above. Based on emotions and instincts, the next action (action) is determined, a transition plan is made to a posture that can perform such action (action), and the posture is transitioned based on the transition plan. After that, the action (action) determined based on such emotion and instinct is actually executed. Hereinafter, each component of the controller 32 will be described.
( 3— 1 ) 感情 ·本能モデル部における処理  (3-1) Emotions · Processing in the instinct model section
感情 '本能モデル部 4 0は、 図 4に示すように、 大別して、 感情 モデルを構成する情動群 5 0と、 感情モデルとは属性の異なるモデ ルと して用意された本能モデルを構成する欲求群 5 1 とを備えてい る。  As shown in Fig. 4, the emotions' instinct model section 40 is roughly divided into an emotion group 50 that constitutes an emotion model and an instinct model prepared as a model having different attributes from the emotion model. The desire group 5 1 is provided.
ここで、 感情モデルは、 ある値を有する感情パラメータによって 構成され、 ロボッ ト装置に規定された感情を感情パラメータの値に 応じた動作を介して表出させるためのモデルである。 感情パラメ一 タは、 主に、 圧力センサや視覚センサ等のセンサによって検出され た 「叩かれた」 、 「怒られた」 といった外部入力信号 (外的要因) に基づいて、 値が上下する。 むろん、 感情パラメータはバッテリー 残量、 体内温度等の内部入力信号 (内的要因) に基づいても変化す る場合もある。  Here, the emotion model is a model configured by an emotion parameter having a certain value, and for expressing an emotion defined in the robot device through an operation according to the value of the emotion parameter. The value of the emotion parameter fluctuates mainly based on external input signals (external factors) such as “hit” and “angry” detected by sensors such as a pressure sensor and a visual sensor. Of course, emotion parameters may also change based on internal input signals (internal factors) such as the remaining battery power and internal temperature.
また、 本能モデルは、 ある値を有する本能パラメータによって構 成され、 ロボッ ト装置に規定された本能 (欲求) を本能パラメータ の値に応じた動作を介して表出させるためのモデルである。 本能パ ラメータは、 主に、 行動履歴に基づいた 「運動がしたい」 あるいは、 バッテリー残量基づく 「充電がしたい (お腹がすいた) 」 といった 内部入力信号に基づいて、 値が上下する。 むろん、 本能パラメータ も、 感情パラメータ同様、 外部入力信号 (外的要因) に基づいて変 ィ匕してもよい。 The instinct model is composed of instinct parameters having a certain value, and is a model for expressing the instinct (desire) specified in the robot device through an operation corresponding to the value of the instinct parameter. The values of the instinct parameters fluctuate mainly based on internal input signals such as “I want to exercise” based on the action history or “I want to charge (hungry)” based on the battery level. Needless to say, the instinct parameters also change based on external input signals (external factors), like the emotion parameters. You may do it.
これら感情モデル及び本能モデルは、 それぞれ同一属性とされる 複数種類のモデルによって構成されている。 すなわち、 情動群 5 0 が同一属性からなる独立した感情モデルとしての情動ュニッ ト 5 0 A〜 5 0 Fを有し、 欲求群 5 1が同一属性からなる独立した欲求モ デルとしての欲求ュニッ ト 5 1 A〜 5 I Dを有している。  These emotion model and instinct model are composed of multiple types of models each having the same attribute. That is, the emotion group 50 has the emotion units 50 A to 50 F as independent emotion models having the same attribute, and the desire group 51 has the desire unit as an independent desire model having the same attribute. It has 5 1 A to 5 IDs.
情動群 5 0と しては、 「うれしさ」 の感情を示す情動ユニッ ト 5 0 A、 「悲しさ」 の感情を示す情動ユニッ ト 5 0 B、 「怒り」 の感 情を示す情動ユニッ ト 5 0 C、 「驚き」 の感情を示す情動ユニッ ト 5 0 D、 「恐れ」 の感情を示す情動ユニッ ト 5 0 E及び 「嫌悪」 の 感情を示す情動ュニッ ト 5 0 F等が挙げられる。 欲求群 5 1 として は、 「運動欲 (Movement Inst i nct ) 」 の欲求 不す欲求ュニッ ト 5 1 A、 「愛十青欲 ( Love Inst i nct) 」 の欲求を示す欲求ユニッ ト 5 1 B、 「食欲 ( Recharge Inst i nct) 」 の欲求を示す欲求ュニッ ト 5 1 C及び 「好奇心 (Search Inst i nct) 」 の欲求を示す欲求ュニッ ト 5 1 D等が挙げられる。  The emotion group 50 is an emotion unit 50 A showing the emotion of "joy", an emotion unit 50 B showing the emotion of "sadness", and an emotion unit showing the emotion of "anger". 50 C, an emotion unit 50 D showing an emotion of “surprise”, an emotion unit 50 E showing an emotion of “fear”, and an emotion unit 50 F showing an emotion of “disgust”. The desire group 51 includes a desire unit for movement instincts 51 A, a desire unit for love instincts 51 B, a desire unit for love inst i nct. , A desire unit 51 C indicating the desire of “Recharge Inst inct” and a desire unit 51 D indicating the desire of “Search Inst Inct”.
情動ュニッ ト 5 0 A〜 5 0 Fは、 情動の度合いを例えば 0〜 1 0 0 レベルまでの強度 (感情パラメータ) によってそれぞれ表し、 供 給される指令信号 S 1、 外部情報信号 S 2及び内部情報信号 S 3に 基づいて情動の強度をそれぞれ時々刻々と変化させる。 かく して感 情 ·本能モデル部 4 0は、 時々刻々と変化する情動ュニッ ト 5 O A 〜 5 0 Dの強度を組み合わせることによりロボッ ト装置 1の感情の 状態を表現し、 感情の時間変化をモデル化している。  The emotion unit 50 A to 50 F expresses the degree of emotion by, for example, an intensity (emotion parameter) from 0 to 100 level, and is supplied with a command signal S 1, an external information signal S 2, and an internal signal. Based on the information signal S3, the intensity of the emotion is changed every moment. Thus, the emotional instinct model section 40 expresses the emotional state of the robot device 1 by combining the intensity of the emotional unit 5 OA to 50 D, which changes every moment, and expresses the temporal change of the emotion. Modeling.
さらに、 所望の情動ュニッ ト同士が相互に影響し合って強度が変 化するようにもなされている。 例えば、 情動ユニッ ト同士を相互抑 制的又は相互刺激的に結合し、 相互に影響し合って強度が変化する ようにしている。 Further, desired emotion units are mutually influenced to change the intensity. For example, mutual suppression of emotional units They combine in a forcible or mutually stimulating manner so that they interact with each other and change in intensity.
具体的には、 図 5に示すように、 「うれしさ」 の情動ユニッ ト 5 O Aと 「悲しさ」 の情動ユニッ ト 5 0 Bとを相互抑制的に結合する ことにより、 ユーザにほめてもらったときには、 「うれしさ」 の情 動ュニッ ト 5 O Aの強度を大きくすると共に、 その際 「悲しさ」 の 情動ュニッ ト 5 0 Bの強度を変化させるような入力情報 S 1〜S 3 が供給されていなくても、 「うれしさ」 の情動ユニッ ト 5 O Aの強 度が大きくなることに応じて 「悲しさ」 の情動ユニッ ト 5 O Bの強 度を低下させる。 同様に 「悲しさ」 の情動ユニッ ト 5 0 Bの強度が 大きくなると、 当該 「悲しさ」 の情動ュニッ ト 5 0 Bの強度が大き くなることに応じて 「うれしさ」 の情動ユニッ ト 5 0 Aの強度を低 下させる。  More specifically, as shown in Fig. 5, the user is praised by mutually suppressing the emotion unit 5OA of "joy" and the emotion unit 50B of "sadness". In this case, the input information S1 to S3 that increases the intensity of the emotion unit 5A of "joy" and the intensity of the emotion unit 50B of "sadness" is supplied. Even if it is not done, the intensity of the emotional unit of sadness 5 OB decreases as the intensity of the emotional unit 5 OA of “joy” increases. Similarly, as the intensity of the sadness emotion unit 50B increases, the intensity of the sadness emotion unit 50B increases and the emotional unit 5 of joyfulness increases. Decrease 0 A intensity.
また、 「悲しさ」 の情動ユニッ ト 5 O Bと 「怒り」 の情動ュニッ ト 5 0 Cとを相互刺激的に結合することにより、 ユーザに叩かれた ときには、 「怒り」 の情動ユニッ ト 5 0 Cの強度を大きくすると共 に、 その際 「悲しさ」 の情動ユニッ ト 5 0 Bの強度を変化させるよ うな入力情報 S 1〜S 3が供給されていなくても、 「怒り」 の情動 ユニッ ト 5 0 Cの強度が大きくなることに応じて 「悲しさ」 の情動 ユニッ ト 5 0 Bの強度を増大させる。 同様に、 「悲しさ」 の情動ュ ニッ ト 5 0 Bの強度が大きくなると、 当該 「悲しさ」 の情動ュニッ ト 5 0 Bの強度が大きくなることに応じて 「怒り」 の情動ユニッ ト 5 0 Cの強度を増大させる。  In addition, the emotion unit 50 OB of “sadness” and the emotion unit 50 C of “anger” are reciprocally coupled to each other, so that when the user is hit, the emotion unit 50 of “anger” 50 In addition to increasing the intensity of C, the emotional unit of “sadness” 50 Even if input information S1 to S3 that changes the intensity of B is not supplied, the emotional unit of “anger” G. The intensity of the sadness emotion unit 50B increases as the intensity of the 50C increases. Similarly, as the intensity of the sadness emotion unit 50B increases, the intensity of the sadness emotion unit 50B increases, and the anger emotion unit 5B increases. Increase the intensity of 0 C.
このように所望の情動ュニッ ト同士が相互に影響し合って強度が 変化するようにすることにより、 当該結合した情動ュニッ トのうち 一方の情動ュニッ 卜の強度を変化させると、 これに応じて他方の情 動ュニッ 卜の強度が変化することになり、 自然な感情を有する口ボ ッ ト装置 1が実現される。 In this way, the desired emotion units are influenced by each other to change the intensity, so that the combined emotion units have the same effect. When the intensity of one emotion unit is changed, the intensity of the other emotion unit changes accordingly, and the mouth-bot device 1 having a natural emotion is realized.
一方、 欲求ュニッ ト 5 1 A〜 5 1 Dは、 情動ュニッ ト 5 0 A〜 5 0 Fと同様に、 欲求の度合いを例えば 0〜 1 0 0 レベルまでの強度 (本能パラメータ) によってそれぞれ表し、 供給される指令信号 S 1 と外部情報信号 S 2と内部情報信号 S 3 とに基づいて欲求の強度 をそれぞれ時々刻々と変化させる。 かく して感情 ·本能モデル部 4 0は、 時々刻々と変化する欲求ュニッ ト 5 1 A〜 5 1 Dの強度を組 み合わせることによりロボッ ト装置 1の本能の状態を表現し、 本能 の時間変化をモデル化している。  On the other hand, the desire units 51 A to 51 D express the degree of desire in the same way as the emotion unit 50 A to 50 F, for example, by the intensity (instinct parameter) from the 0 to 100 level, respectively. Based on the supplied command signal S 1, external information signal S 2 and internal information signal S 3, the intensity of the desire is changed every moment. Thus, the instinct model unit 40 expresses the state of the instinct of the robot device 1 by combining the intensity of the desire unit 51 A to 51 D that changes from moment to moment, and expresses the instinct time. It models change.
さらに、 情動ユニッ ト同士を結合した場合と同様に、 所望の欲求 ュニッ ト同士が相互に影響し合って強度が変化するようにもなされ ている。 例えば、 欲求ユニッ ト同士を相互抑制的又は相互刺激的に 結合し、 相互に影響し合って強度が変化するようにしている。 これ により、 結合した欲求ュニッ トのうち一方の欲求ュニッ トの強度を 変化させると、 これに応じて他方の欲求ュニッ トの強度が変化する ことになり、 自然な本能を有するロボッ ト装置 1が実現される。 さらに、 情動群 5 0と欲求群 5 1 との間で各ュニッ トが互いに影 響し合い、 その強度を変化させるようにもなされている。 例えば、 欲求群 5 1の 「愛情欲」 の欲求ュニッ ト 5 1 Bや 「食欲」 の欲求ュ ニッ ト 5 1 Cの強度の変化が、 情動群 5 0の 「悲しさ」 の情動ュニ ッ ト 5 0 Bや 「怒り」 の情動ュニッ ト 5 0 Cの強度の変化に影響し たり、 「食欲」 の欲求ユニッ ト 5 1 Cの強度の変化が 「悲しさ」 の 情動ユニッ ト 5 0 Bや 「怒り」 の情動ユニッ ト 5 0 Cの強度の変化 に影響するようにである。 これにより、 「愛情欲」 が満たされるとFurthermore, as in the case where emotion units are connected, desired desire units interact with each other to change the intensity. For example, the desire units are connected to each other in a mutually repressive or mutually stimulating manner, so that they influence each other to change the intensity. As a result, when the intensity of one desire unit is changed among the combined desire units, the intensity of the other desire unit changes accordingly, and the robot device 1 having a natural instinct is provided. Is achieved. Further, the unit is influenced by each other between the emotion group 50 and the desire group 51, and the intensity is changed. For example, the change in the intensity of the desire unit 51 A of “love affection” 51 and the desire unit 51 C of the “appetite” is caused by the emotion unit 51 of “sadness” of the emotion group 50. The emotional unit of 50B and “anger” affects the intensity of 50C, and the desire unit of “appetite” 51 The intensity of 51C changes the intensity of “sadness”. And anger emotional unit 50 C change in intensity Seems to affect. As a result, when the "loving desire" is satisfied
「怒り」 の感情や 「悲しさ」 の感情がおさえられ、 また、 「食欲」 が満たされないと 「怒り」 の感情や 「悲しさ」 の感情が高まるとい つたような状態を表現することができるようになる。 このように、 感情と欲求との相互作用により、 感情と本能とが複雑に影響し合つ た状態を表現することができる。 The emotions of "anger" and "sadness" are suppressed, and if the "appetite" is not satisfied, the feelings of "anger" and "sadness" can be expressed as if they were Become like Thus, the interaction between emotions and desires can express a state in which emotions and instinct interact in a complex manner.
以上述べたように、 感情 ·本能モデル部 4 0は、 指令信号 S 1 と 外部情報信号 S 2 と内部情報信号 S 3 とでなる入力情報 S :!〜 S 3 . 或いは情動群 5 0内及び欲求群 5 1内における情動ュニッ ト同士の 相互作用や情動群 5 0と欲求群 5 1 との間のュニッ ト同士の相互作 用等により情動ュエツ ト 5 0 A〜 5 0 F及び欲求ュニッ ト 5 1 A〜 5 1 Dの強度をそれぞれ変化させる。  As described above, the emotion and instinct model section 40 receives the input information S:! ~ S 3. Consisting of the command signal S 1, the external information signal S 2, and the internal information signal S 3. The emotion units 50 A to 50 F and the desire units due to the interaction between the emotion units in the desire group 51 and the interaction between the units between the emotion group 50 and the desire group 51. The intensity of 51 A to 51 D is changed respectively.
そして、 感情 '本能モデル部 4 0は、 この変化した情動ユニッ ト 5 0 A〜 5 0 Fの強度を組み合わせることにより感情の状態を決定 すると共に、 変化した欲求ュニッ ト 5 1 A〜 5 1 Dの強度を組み合 わせることにより本能の状態を決定し、 当該決定された感情及び本 能の状態を感情 ·本能状態情報 S 1 0と して行動決定機構部 4 1に 送出する。  Then, the emotion's instinct model section 40 determines the state of the emotion by combining the intensity of the changed emotion unit 50A to 50F, and the changed desire unit 51A to 51D. The state of the instinct is determined by combining the intensities of the instinct, and the determined emotion and the state of the instinct are sent to the action determination mechanism section 41 as emotion / instinct state information S10.
また、 感情 ·本能モデル部 4 0には、 後段の行動決定機構部 4 1 からロボッ ト装置 1 自身の現在又は過去の行動の内容を示す行動情 報 S 1 2が供給されている。 例えば、 後述する行動決定機構部 4 1 において歩行の行動が決定された場合には、 「長時間歩いた」 とさ れた情報として行動情報 S 1 2が供給されるといったようにである。  Further, the emotion / instinct model section 40 is supplied with behavior information S12 indicating the current or past behavior of the robot apparatus 1 itself from the behavior determination mechanism section 41 at a later stage. For example, when the action of the walking is determined by the action determining mechanism section 41 described later, the action information S12 is supplied as information indicating that "walking for a long time".
このように行動情報 S 1 2をフィードバックさせることで、 同一 の入力情報 S :!〜 S 3が与えられても、 当該行動情報 S 1 2が示す ロボッ ト装置 1の行動に応じて異なる感情 ·本能状態情報 S 1 0を 生成することができるようになる。 具体的には、 次のような構成に より、 フィードバックされる行動情報 S 1 2が感情や行動の状態の 決定に参照される。 By feeding back the behavior information S12 in this way, even if the same input information S:! ~ S3 is given, the behavior information S12 indicates Different emotions and instinct state information S10 can be generated according to the behavior of the robot device 1. Specifically, the behavior information S12 to be fed back is referred to in determining the state of emotions and behaviors by the following configuration.
図 6に示すように、 感情 ·本能モデル部 4 0は、 各情動ユニッ ト 5 0 A〜 5 0 Cの前段に、 ロボッ ト装置 1の行動を示す行動情報 S 1 2 と入力情報 S 1〜 S 3 とに基づいて各情動ュニッ ト 5 0 A〜 5 0 Cの強度を増減させるための強度情報 S 1 4 A〜S 1 4 Cを生成 する強度増減手段 5 5 A〜 5 5 Cをそれぞれ設け、 当該強度増減手 段 5 5 A〜 5 5 Cから出力される強度情報 S 1 4 A〜 S 1 4 Cに応 じて各情動ュニッ ト 5 0 A〜 5 0 Cの強度をそれぞれ増減させる。 例えば、 感情 ·本能モデル部 4 0は、 ユーザに挨拶をしたときに 頭をなでられれば、 すなわちユーザに挨拶をしたという行動情報 S 1 2と頭をなでられたという入力情報 S 1〜S 3 とが強度増減手段 5 5 Aに与えられると、 「うれしさ」 の情動ユニッ ト 5 0 Aの強度 を増加させる。 一方、 感情 ·本能モデル部 4 0は、 何らかの仕事を 実行中に頭をなでられても、 すなわち仕事を実行中であるという行 動情報 S 1 2と頭をなでられたという入力情報 S 1〜S 3とが強度 増減手段 5 5 Aに与えられても、 「うれしさ」 の情動ユニッ ト 5 0 Aの強度を変化させない。 例えば、 強度増減手段 5 5 Aは、 行動情 報 S 1 2と入力情報 S :!〜 S 3とに基づいて強度情報 S 1 4 A〜S 1 4 Cを生成するような関数やテーブルと して構成されている。 例 えば、 他の強度増減手段 5 5 B , 5 5 Cについても同様である。 このように、 感情 ·本能モデル部 4 0は、 強度増減手段 5 5 A〜 5 5 Cを備えて、 入力情報 S 1〜S 3だけでなく現在又は過去の口 ボッ ト装置 1の行動を示す行動情報 S 1 2も参照しながら各情動ュ ニッ ト 5 0 A〜 5 0 Cの強度を決定することにより、 例えば何らか のタスクを実行中にユーザがいたずらするつもりで頭をなでたとき.As shown in FIG. 6, the emotion and instinct model section 40 includes action information S12 indicating the action of the robot device 1 and input information S1 to S0 before the emotion units 50A to 50C. The intensity increasing / decreasing means 55 A to 55 C for generating intensity information S 14 A to S 14 C for increasing / decreasing the intensity of each emotion unit 50 A to 50 C based on S 3 are respectively provided. Intensity increasing / decreasing means Increase / decrease the intensity of each emotion unit 50 A to 50 C according to the intensity information S 14 A to S 14 C output from 55 A to 55 C . For example, if the emotions and instinct model section 40 rub the head when greeting the user, the behavior information S12 indicating that the user greeted the user and the input information S1 ~ that the user could pat the head. When S 3 is given to the intensity increasing / decreasing means 55 A, the intensity of the emotion unit 50 A of “joy” is increased. On the other hand, the emotion and instinct model section 40 is configured such that even if the user is stroked while performing some kind of work, the behavior information S 12 indicating that he or she is performing work and the input information S Even if 1 to S3 are given to the intensity increasing / decreasing means 55A, the intensity of the emotional unit 50A of "joy" is not changed. For example, the intensity increasing / decreasing means 55 A is a function or a table that generates intensity information S 14 A to S 14 C based on the behavior information S 12 and the input information S:! To S 3. It is configured. For example, the same applies to other strength increasing / decreasing means 55B and 55C. As described above, the emotion and instinct model unit 40 includes the intensity increasing / decreasing means 55 A to 55 C, and includes not only the input information S 1 to S 3 but also the current or past mouth. By determining the intensity of each emotion unit 50 A to 50 C while also referring to the behavior information S 12 indicating the behavior of the bot device 1, for example, the user mischiefs while performing some task When I stroked my head.
「うれしさ」 の情動ュニッ ト 5 O Aの強度を増加させるような不自 然な感情を起こさせることを回避することができる。 因みに、 感情The emotional unit of “joy” 5 O A can be avoided from causing unnatural emotions that increase the intensity of AA. By the way, emotion
•本能モデル部 4 0は、 欲求ュニッ ト 5 1 A〜 5 1 Cの場合も同様 にして、 供給される入力情報 S 1〜 S 3及び行動情報 S 1 2に基づ いて各欲求ュニッ ト 5 1 A〜 5 1 Cの強度をそれぞれ増減させるよ うになされている。 • In the instinct model section 40, similarly, in the case of the desire units 51A to 51C, each of the desire units 5 based on the supplied input information S1 to S3 and action information S12. The intensity of 1 A to 51 C is increased or decreased, respectively.
なお、 本実施の形態では、 「うれしさ」 、 「悲しさ」 及び 「怒 り」 の情動ュニッ ト 5 0 A〜 5 0 Cに強度増減手段 5 5 A〜 5 5 C を備えた例について説明した。 しかし、 これに限定されるものでは なく、 他の 「驚き」 、 「恐れ」 及び 「嫌悪」 の情動ユニッ ト 5 O D 〜 5 0 Fに強度増減手段を備えることもできることはいうまでもな レ、。  In the present embodiment, an example is described in which the emotion unit 50 A to 50 C for “joy”, “sadness” and “anger” is provided with intensity increasing / decreasing means 55 A to 55 C. did. However, the present invention is not limited to this, and it goes without saying that the intensity units 5 OD to 50 F of the other “surprise”, “fear” and “disgust” may be provided with intensity increasing / decreasing means. .
以上述べたように、 強度増減手段 5 5 A〜 5 5 Cは、 入力情報 S 1〜 S 3及び行動情報 S 1 2が入力されると、 予め設定されている パラメータに応じて強度情報 S 1 4 A〜 S 1 4 Cを生成して出力す るので、 当該パラメータをロボッ ト装置 1毎に異なる値に設定する ことにより、 例えば怒りつぼいロボッ ト装置や明るい性格のロボッ ト装置のように、 当該ロボッ ト装置に個性を持たせることができる。  As described above, when the input / output information S 1 to S 3 and the action information S 12 are input, the intensity increasing / decreasing means 55 A to 55 C receive the intensity information S 1 according to the preset parameters. Since 4 A to S 14 C are generated and output, by setting the parameter to a different value for each robot device 1, for example, a robot device with an angry robot or a bright robot device Thus, the robot device can have individuality.
( 3 - 2 ) 行動決定機構部における処理  (3-2) Processing in the action decision mechanism
行動決定機構部 4 1は、 各種情報に基づいて次の動作 (行動) を 決定する部分である。 行動決定機構部 4 1は、 具体的には、 図 3に 示すように、 指令信号 S 1 と外部情報信号 S 2と内部情報信号 S 3 と感情 ·本能状態情報 S 1 0と行動情報 S 1 2とでなる入力情報 S 1 4に基づいて、 次の動作 (行動) を決定し、 当該決定された動作 (行動) の内容を行動指令情報 S 1 6 と して姿勢遷移機構部 4 2に 送出する。 The action determining mechanism 41 determines the next action (action) based on various information. As shown in FIG. 3, the action determining mechanism 41 includes a command signal S 1, an external information signal S 2, and an internal information signal S 3. Based on input information S14 consisting of instinct state information S10 and action information S12, the next action (action) is determined, and the content of the determined action (action) is set as an action command. The information is sent to the attitude transition mechanism section 42 as information S16.
具体的には、 図 7に示すように、 行動決定機構部 4 1は、 過去に 供給された入力情報 S 1 4の履歴を動作状態 (以下、 これをステー トという。 ) で表し、 現在供給された入力情報 S 1 4 とそのときの ステートとに基づいて当該ステートを別のステートに遷移させるこ とにより、 次の動作を決定するような有限個のステー トを有する確 率有限ォートマ トン 5 7と呼ばれるアルゴリズムを用いている。  Specifically, as shown in FIG. 7, the action determining mechanism unit 41 represents the history of the input information S 14 supplied in the past as an operating state (hereinafter, this is referred to as a state). By transitioning the state to another state based on the input information S 14 and the state at that time, a probability finite automaton 5 having a finite number of states that determines the next operation It uses an algorithm called 7.
このように行動決定機構部 4 1は、 入力情報 S 1 4が供給される 毎にステートを遷移させ、 当該遷移したステートに応じて行動を決 定することにより、 現在の入力情報 S 1 4だけでなく過去の入力情 報 S 1 4も参照して動作を決定することができるようになる。  As described above, the action determining mechanism unit 41 changes the state each time the input information S 14 is supplied, and determines the action according to the changed state, so that only the current input information S 14 is provided. Instead, the operation can be determined with reference to the past input information S14.
これにより、 例えば 「ボールを追いかけている」 というステート S T 1において、 「ボールが見えなくなった」 という入力情報 S 1 4が供給されると、 「立っている」 というステート S T 5に遷移す る。 一方で、 「寝ている」 というステート S T 2において、 「起き ろ」 という入力情報 S 1 4が供給されると、 「立っている」 という ステート S T 4に遷移するようになる。 よって、 ステート S T 4及 びステート S T 5は、 行動が同一であっても過去の入力情報 S 1 4 の履歴が異なっていることから、 ステートも異なっていることがわ かる。  As a result, for example, in the state ST 1 of “following the ball”, when the input information S 14 of “the ball has disappeared” is supplied, the state transits to the state ST 5 of “standing”. On the other hand, in the state S T2 of “sleeping”, when the input information S 14 of “get up” is supplied, the state transits to the state ST 4 of “standing”. Therefore, it can be seen that the states ST 4 and ST 5 have different states because the history of the past input information S 14 is different even if the action is the same.
実際上、 行動決定機構部 4 1は、 所定のト リガーがあったことを 検出すると、 現在のステートを次のステートに遷移させる。 トリガ 一の具体例としては、 例えば現在のステートの行動を実行している 時間が一定値に達したこと、 又は特定の入力情報 S 1 4が入力され た、 又は感情 ·本能モデル部 4 0から供給される感情 ·本能状態情 報 S 1 0が示す情動ュニッ ト 5 0 A〜 5 0 F及び欲求ュニッ ト 5 1 A〜 5 1 Dの強度のうち、 所望のュニッ トの強度が所定の閾値を超 えたこと等が挙げられる。 In practice, when the behavior determining mechanism unit 41 detects that a predetermined trigger has occurred, it changes the current state to the next state. Trigger One specific example is, for example, that the time during which the action of the current state is being executed has reached a certain value, or that specific input information S 14 has been input, or sent from the emotional instinct model section 40. The intensity of the desired unit out of the intensity of the emotion unit 50 A to 50 F and the desire unit 51 A to 51 D indicated by the instinct state information S 10 That is, it exceeded.
例えば、 行動決定機構部 4 1は、 感情 ·本能モデル部 4 0から供 給された感情 ·本能状態情報 S 1 0が示す情動ュニッ ト 5 0 A〜 5 0 F及び欲求ュニッ ト 5 1 A〜 5 1 Dの強度のうち、 所望のュニッ トの強度が所定の閾値を超えているか否かに基づいて遷移先のステ ートを選択する。 これにより、 例えば同一の指令信号 S 1が入力さ れても、 情動ュニッ ト 5 0 A〜 5 0 F及び欲求ュニッ ト 5 1 A〜 5 1 Dの強度に応じて異なるステ一トに遷移するようになされている。 したがって、 行動決定機構部 4 1は、 供給される外部情報信号 S 2を基に例えば目の前に手のひらが差し出されたことを検出し、 か つ感情 ·本能状態情報 S 1 0を基に 「怒り」 の情動ユニッ ト 5 0 C の強度が所定の閾値以下であることを検出し、 かつ内部情報信号 S 3を基に 「お腹がすいていない」 、 すなわち電池電圧が所定の閾値 以上であることを検出すると、 目の前に手のひらが差し出されたこ とに応じて 「おて」 の動作を行わせるための行動指令情報 S 1 6を 生成し、 これを姿勢遷移機構部 4 2に送出する。  For example, the behavior determination mechanism unit 41 includes the emotion unit 50 A to 50 F and the desire unit 51 A to which the emotions and instinct state information S 10 supplied from the emotion and instinct model unit 40 indicate. A transition destination state is selected based on whether or not the intensity of a desired unit exceeds a predetermined threshold value among the intensity of 51D. Thereby, for example, even if the same command signal S1 is input, the state transits to different states depending on the intensity of the emotion unit 50A to 50F and the desire unit 51A to 51D. It has been made like that. Therefore, the behavior determining mechanism unit 41 detects, for example, that the palm has been put out in front of the eyes based on the supplied external information signal S2, and based on the emotion / instinct state information S10. It is detected that the intensity of the emotion unit 50 C of “anger” is equal to or less than a predetermined threshold, and “not hungry” based on the internal information signal S 3, that is, when the battery voltage is equal to or higher than the predetermined threshold. When it detects that there is something, it generates action command information S16 for performing the operation of the "front" in response to the palm being put out in front of the eyes, and sends this to the posture transition mechanism section 42. Send out.
また、 行動決定機構部 4 1は、 例えば目の前に手のひらが差し出 され、 かつ 「怒り」 の情動ユニッ ト 5 0 Cの強度が所定の閾値以下 であり、 かつ 「お腹がすいている」 すなわち電池電圧が所定の閾値 未満であることを検出すると、 「手のひらをぺろぺろなめる」 よう な動作を行わせるための行動指令情報 S 1 6を生成し、 これを姿勢 遷移機構部 4 2に送出する。 In addition, the behavior determination mechanism unit 41, for example, has a palm presented in front of the eyes, the intensity of the emotion unit 50C of "anger" is equal to or lower than a predetermined threshold value, and the "hungry" In other words, when it is detected that the battery voltage is lower than the predetermined threshold value, a message such as “palm palms” is displayed. The action command information S 16 for performing the various operations is generated and sent to the posture transition mechanism section 42.
また、 行動決定機構部 4 1は、 例えば目の前に手のひらが差し出 され、 かつ 「怒り」 の情動ユニッ ト 5 0 Cの強度が所定の閾値以上 であることを検出すると、 「お腹がすいていない」 すなわち電池電 圧が所定の閾値以上であるか否かにかかわらず、 「ぶいと横を向 く」 ような動作を行わせるための行動指令情報 S 1 6を生成し、 こ れを姿勢遷移機構部 4 2に送出する。  Further, for example, when the behavior determining mechanism unit 41 detects that the palm is put in front of the eyes and the intensity of the emotion unit 50 C of “anger” is equal to or higher than a predetermined threshold value, the behavior determining mechanism unit 41 determines that Not generated, that is, regardless of whether the battery voltage is equal to or higher than a predetermined threshold, action instruction information S16 for performing an operation such as "turning to the side" is generated, and this is generated. It is sent to the posture transition mechanism section 42.
上述のように行動決定機構部 4 1は、 次の行動を入力情報 S 1 4 に基づいて決定しているが、 例えば図 8に示すように、 決定される 行動の内容を、 「行動 1」 、 「行動 2」 、 「行動 3」 、 「行動 4」 、 • · · 「行動 n」 といった行動内容を示す情報と して複数保持して いる。 例えば、 「行動 1」 はボールを蹴る行動を行う動作内容から なり、 「行動 2」 は感情を表出させる動作内容からなり、 「行動 3」 は自律探索をする動作内容からなり、 「行動 4」 は障害物回避 をするための動作内容からなり、 「行動 n」 はバッテリー残量が少 ないことを知らせるための動作内容からなる、 といったようにであ る。  As described above, the action determining mechanism unit 41 determines the next action based on the input information S14. For example, as shown in FIG. , “Action 2”, “Action 3”, “Action 4”, • ······························································· For example, “Action 1” is composed of the action of kicking the ball, “Action 2” is composed of the action of expressing emotion, “Action 3” is composed of the action of autonomous search, and “Action 4”. “” Consists of actions to avoid obstacles, “action n” consists of actions to indicate that the battery level is low, and so on.
このように予め用意されている行動内容を示す複数の情報の中か ら、 入力情報 S 1 4に基づいて確率有限ォートマトン 5 7による選 択がなされて、 次の行動が決定される。  From the plurality of pieces of information indicating the action content prepared in advance in this way, a selection is made by the probability finite automaton 57 based on the input information S14, and the next action is determined.
行動の選択 (決定) については、 具体的には図 8に示すように、 選択モジュール 4 4によってなされる。 そして、 選択モジュール 4 4は、 その選択結果を、 行動指令情報 S 1 6 と して姿勢遷移機構部 4 2に出力し、 行動情報 S 1 2として感情 ·本能モデル部 4 0や行 動決定機構部 4 1に出力する。 例えば、 選択モジュール 4 4は、 決 定した行動にフラグを立て、 その情報を行動情報 S 1 2や行動指令 情報 S 1 6 と して行動決定機構部 4 1や姿勢遷移機構部 4 2に出力 している。 The selection (decision) of the action is specifically made by the selection module 44 as shown in FIG. Then, the selection module 44 outputs the selection result to the posture transition mechanism section 42 as the action command information S 16, and outputs the emotion / instinct model section 40 or the line as the action information S 12. It is output to the motion determination mechanism section 41. For example, the selection module 44 sets a flag for the decided action, and outputs the information as the action information S 12 and the action command information S 16 to the action decision mechanism 41 and the posture transition mechanism 42. are doing.
行動決定機構部 4 1では、 外部情報等 (指令信号 S 1、 外部情報 信号 S 2 ) S 2 1や内部情報等 (内部情報信号 S 3、 感情 ·本能状 態情報 S 1 0 ) S 2 2に加えて行動情報 S 1 2に基づいて行動を決 定することにより、 前の行動が考慮された次の行動を決定すること ができるようになる。  In the action decision mechanism 41, external information etc. (command signal S1, external information signal S2) S21 and internal information etc. (internal information signal S3, emotion and instinct status information S10) S22 By determining an action based on the action information S12 in addition to the above, it becomes possible to determine the next action taking the previous action into consideration.
また、 感情 '本能モデル部 4 0では、 上述したように、 同一の入 力情報 S 1〜S 3に加えて行動情報 S 1 2に基づいて、 感情及び本 能の状態を変化させる。 これにより、 感情 '本能モデル部 4 0は、 上述したように、 同一の入力情報 S 1〜S 3が与えられても異なる 感情 . 本能状態情報 S 1 0を生成することができるようになる。 なお、 行動決定機構部 4 1の 「行動 1」 、 「行動 2」 、 「行動 3」 、 「行動 4」 、 · · ' 「行動 n」 の動作内容を示す情報にダル —プ I Dを付しておく こともできる。 グループ I Dは、 同一カテゴ リーの行動において同一の情報を示すものであって、 例えば、 「ボ ールを蹴る」 の行動について複数パターンの行動を有している場合 には、 当該複数の行動に同一のグループ I Dが付されるといったよ うな関係にある。 このように同一のカテゴリーの行動に同一のダル ープ I Dを付すことにより、 同一カテゴリーの行動をグループと し て処理できるようになる。  As described above, the emotion's instinct model unit 40 changes the state of the emotion and the instinct based on the behavior information S12 in addition to the same input information S1 to S3. Thus, as described above, the emotion 'instinct model unit 40 can generate different emotion. Instinct state information S10 even if the same input information S1 to S3 is given. It should be noted that the action determination mechanism section 41 “action 1”, “action 2”, “action 3”, “action 4”,... You can keep it. The group ID indicates the same information in the behavior of the same category.For example, when the behavior of “kicking a ball” has a plurality of behaviors, There is such a relationship that the same group ID is assigned. By assigning the same category ID to the same category of behavior, behaviors of the same category can be processed as a group.
例えば、 選択モジュール 4 4における行動の選択では、 同じカテ ゴリ一内ではどの行動が選択されても、 同一のグループ I Dが発行 される。 そして、 当該選択された行動に付されていたグループ I D が感情 ·本能モデル部 4 0に送られることにより、 感情 ·本能モデ ル部 4 0は、 グループ I Dに基づいて、 感情や本能の状態を決定す ることができるようになる。 For example, when selecting an action in the selection module 4 4, the same group ID is issued regardless of which action is selected in the same category. Is done. Then, the group ID attached to the selected action is sent to the emotion / instinct model unit 40, and the emotion / instinct model unit 40 determines the state of emotions and instinct based on the group ID. Will be able to decide.
また、 行動決定機構部 4 1は、 感情 ·本能モデル部 4 0から供給 された感情 ·本能状態情報 S 1 0が示す情動ュニッ ト 5 0 A〜 5 0 F及び欲求ュニッ ト 5 1 A〜 5 1 Dの強度のうち所望のュニッ トの 強度に基づいて、 遷移先のステートで行われる行動のパラメータ、 例えば歩行の速度、 手足を動かす際の動きの大きさや速度、 音を出 す際の音の高さや大きさなどを決定し、 当該行動のパラメータに応 じた行動指令情報 S 1 6を生成して姿勢遷移機構部 4 2に送出する ようになされている。  In addition, the behavior determination mechanism unit 41 includes an emotion unit 50 A to 50 F and a desire unit 51 A to 5 F indicated by the emotion and instinct state information S 10 supplied from the emotion and instinct model unit 40. Based on the intensity of the desired unit, of the 1D intensity, the parameters of the action performed in the transition destination state, such as the speed of walking, the magnitude and speed of the movement when moving the limbs, the sound when making a sound The height and size of the action are determined, and action command information S 16 corresponding to the parameter of the action is generated and sent to the posture transition mechanism section 42.
また、 指令信号 S 1 と外部情報信号 S 2と内部情報信号 S 3とで なる入力情報 S 1〜 S 3は、 感情 ·本能モデル部 4 0及び行動決定 機構部 4 1に入力されるタイ ミングに応じて情報の内容が異なるた め、 感情 ·本能モデル部 4 0と共に行動決定機構部 4 1にも入力さ れるようになされている。  The input information S 1 to S 3, which are the command signal S 1, the external information signal S 2, and the internal information signal S 3, are input to the emotion / instinct model section 40 and the action determination mechanism section 41. Since the content of the information differs depending on the information, the information is input to the action determination mechanism section 41 together with the emotion / instinct model section 40.
例えば、 コントローラ 3 2は、 「頭をなでられた」 という外部情 報信号 S 2が供給されると、 感情 '本能モデル部 4 0によって 「う れしい」 という感情 ·本能状態情報 S 1 0を生成し、 当該感情 '本 能状態情報 S 1 0を行動決定機構部 4 1に供給するが、 この状態に おいて、 「手が目の前にある」 という外部情報信号 S 2が供給され ると、 行動決定機構部 4 1において上述の 「うれしい」 という感情 '本能状態情報 S 1 0と 「手が目の前にある」 という外部情報信号 S 2とに基づいて 「喜んでおてをする」 という行動指令情報 S 1 6 を生成させ、 これを姿勢遷移機構部 4 2に送出させるようになされ ている。 For example, when the controller 32 receives the external information signal S2 indicating that "the head has been stroked", the controller 32 sends the emotion "Instinct model section 40" and the emotion "Instinct state information S10" Is generated, and the emotion's instinct state information S10 is supplied to the action determining mechanism 41. In this state, the external information signal S2 indicating that "the hand is in front of the eyes" is supplied. Then, based on the above-mentioned emotion of “happy” in the instinctive state information S 10 and the external information signal S 2 of “hand is in front of the eyes”, the behavior determining mechanism 41 1 Action instruction information S 1 6 Is generated and transmitted to the posture transition mechanism section 42.
また、 動作状態 (ステート (或いはノードともいう。 ) ) の遷移 先は、 確率有限オー トマ トン 5 7において、 ある確率により決定さ れるようにもしている。 例えば、 外部からの入力があった場合に、 その入力により、 ある動作状態 (行動状態) に 2 0%の確率 (遷移 確率) で遷移するといつたようにである。 具体的には、 図 9に示す ように、 「あるいている」 のステー ト S T 1 0から、 「はしってレ、 る」 のステート S T 1 1や 「寝ている」 のステート S T 1 2に遷移 可能である場合において、 「はしっている」 のステート S T 1 1へ の遷移確率が とされ、 「寝ている」 のステー ト S T 1 2への遷移 確率が P 2とされ、 そのような確率に基づいて遷移先が決定される。 なお、 確率により遷移先を決定する技術と しては、 特開平 9一 1 1 4 5 1 4公開公報に開示されている技術が挙げられる。 The transition destination of the operation state (state (or node)) is determined by a certain probability in the probability finite automaton 57. For example, when there is an input from the outside, it is assumed that the input makes a transition to a certain operation state (action state) with a probability of 20% (transition probability). Specifically, as shown in FIG. 9, the state ST10 of "I'm going" transitions to the state ST11 of "Hashishiteru," and the state ST12 of "Sleeping". When it is possible, the transition probability to the state of “going down” to ST 11 is assumed, the transition probability to the state of “sleeping” to ST 12 is taken to be P 2, and such a probability is assumed. The transition destination is determined based on this. As a technique for determining the transition destination based on the probability, there is a technique disclosed in Japanese Patent Application Laid-Open No. 9-1114514.
また、 ロボッ ト装置 1は、 あるステートに遷移する確率の情報を、 テーブルと して保持している。 例えば、 図 1 0に示すようなテープ ルと してである。 図 1 0に示すテ一ブルは、 現在の行動状態を示す ノード (n o d e ) 名、 入力されたイベン ト名、 入力されたィベン ト (以下、 入力イベン トという。 ) のデータ名、 入力イベン トのデ ータの範囲、 あるステー卜への遷移確率等の情報によって構成され ている。  In addition, the robot device 1 holds information on the probability of transition to a certain state as a table. An example is a table as shown in FIG. The table shown in Fig. 10 includes the node name indicating the current action state, the name of the input event, the data name of the input event (hereinafter referred to as the input event), and the input event. It consists of information such as the range of the data and the transition probability to a certain state.
このようなテーブルにより、 入力されたィベントに応じてあるス テートへの遷移確率が決定され、 その遷移確率に基づいた遷移先の ステー トの決定がなされる。  From such a table, the transition probability to a certain state is determined according to the input event, and the state of the transition destination is determined based on the transition probability.
ここで、 現在の行動状態を示すノード名とは、 このような現在の ロボッ ト装置 1の行動状態 (ステート) を示すもので、 現在どのよ うな行動が実行されているかを示す。 Here, the node name indicating the current action state is It indicates the behavior state of the robot device 1 and indicates what kind of behavior is currently being executed.
また、 入力イベントとは、 ロボッ ト装置 1に入力された情報であ つて、 このテーブルは、 このような入力イベントによって整理され ている。 例えば、 入力イベン ト名の 「BA L L」 は、 入力イベン ト がボールの発見したことをいい、 「PAT」 は、 軽く叩かれたこと を示すことをいい、 「H I T」 は殴られたことをいい、 「ΜΟΤ I ΟΝ」 は動いているものを発見したことをいい、 「O B S TAC L E」 は障害物を見つけたことをいう。  The input event is information input to the robot device 1, and this table is organized by such input events. For example, the input event name "BA LL" indicates that the input event found the ball, "PAT" indicates that it was hit lightly, and "HIT" indicates that it was hit. Good, "ΜΟΤ I ΟΝ" means finding a moving object, "OBS TAC LE" means finding an obstacle.
なお、 テーブルは、 実際には多くの入力イベントによって整理さ れており、 本実施の形態では、 「BAL L」 、 「PAT」 、 「H I T」 、 「MOT I ON」 、 及び 「〇B S TAC L E」 の入カイベン トによりテーブルが整理されている場合について説明する。  Note that the table is actually organized by many input events, and in this embodiment, “BAL L”, “PAT”, “HIT”, “MOT ION”, and “〇BS TAC LE” The case where the table is organized by the input event of "" will be described.
入カイベントのデータの範囲は、 そのような入カイベントがパラ メータを必要する場合のそのようなデータの範囲をいい、 入カイべ ン トのデータ名は、 そのようなパラメータ名をいつている。 すなわ ち、 入力イベントが 「BAL L」 であれば、 データ名はそのボール の大きさ 「S I Z E」 をいい、 データの範囲はそのような大きさの 範囲が 0〜 1 0 0 0であることをいう。 同様に、 入カイベントカ S The data range of an input event refers to the range of such data when such an input event requires parameters, and the data name of the input event specifies when such parameter names are used. I have. In other words, if the input event is "BALL", the data name refers to the size of the ball "SIZE", and the data range is such that the size range is 0 to 100 Say. Similarly, input event S
「 OB S TAC L E」 であれば、 データ名はその距離 「D I S T A NC E」 をいい、 データの範囲はそのような距離の範囲が 0〜 1 ◦ 0であることをいう。 If it is "OBS TACLE", the data name means the distance "DISTANCE", and the data range means that such a distance range is from 0 to 1 ◦ 0.
そして、 あるステー トへの遷移確率は、 入力イベン トの性質に応 じて選択可能とされる複数のステー トについて割り当てられている。 すなわち、 一つの入力イベントにおいて、 選択可能とされるステー トに付された遷移確率の合計が 1 0 0 %になるように各アークに遷 移確率が付されている。 具体的にいえば、 「BAL L」 の入カイべ ントでみた場合、 当該入カイベン トの性質により選択可能とされる 「AC T I ON l」 、 「ACT I ON 3」 、 · · ' に付されている 遷移確率である 3 0%、 2 0 %、 · · ' の合計が、 1 0 0 %になる ようになされている。 The transition probability to a certain state is assigned to a plurality of states that can be selected according to the properties of the input event. In other words, the status that can be selected in one input event The transition probabilities are assigned to each arc so that the total of the transition probabilities assigned to the arcs is 100%. More specifically, in the case of “BAL L” input events, “AC TION l”, “ACT I ON 3”, The total of the transition probabilities 30%, 20%, and · 'is set to 100%.
なお、 ここで 「ノード」 及び 「アーク」 は、 いわゆる確率有限ォ 一トマ トンにおいて一般的に定義されているもので、 「ノード」 は 状態 (本例では、 行動状態) とされ、 「アーク」 は 「ノード」 間を ある確率をもってして結ぶ有向線 (本例では、 遷移動作) とされて いる。  Here, “node” and “arc” are generally defined in a so-called probability finite automaton, and “node” is a state (in this example, an action state), and “arc” Is a directed line connecting nodes with a certain probability (in this example, a transition operation).
以上のような情報からなるテーブルにより、 次のようにして、 入 カイベン ト、 入カイベントにおいて取得されたデータの範囲及び遷 移確率が参照されて、 遷移先のステートが選択される。  The state of the transition destination is selected by referring to the input event, the range of data acquired in the input event, and the transition probability using the table including the above information as follows.
例えば、 ロボッ ト装置 1がボールを発見した場合 (入力イベン ト が 「BAL L」 である場合) において、 そのボールの大きさが 0〜 1 0 0 0であるときには、 現在の状態である n o d e (ノード) 3 から 3 0 %の確率で n o d e 1 2 0へ遷移する。 その遷移の際に For example, when the robot device 1 finds a ball (when the input event is “BALL”) and the size of the ball is 0 to 100, the current state of the node ( Node) Transitions from 3 to node 1 20 with a probability of 30%. At the time of that transition
「AC T I ON l」 が付されたアークが選択され、 「ACT I ON 1」 に対応する動作または表現が実行される。 または、 現在の状態 である n o d e 3カゝら 20 %の確率で n o d e 5 00へ遷移する。 その遷移の際に 「ACT I ON 3」 が付されたアークが選択され、The arc labeled "ACTION" is selected, and the action or expression corresponding to "ACTION1" is performed. Alternatively, there is a transition to the node 500 with a probability of 20% of the current state node 3. At the time of the transition, the arc with “ACT I ON 3” is selected,
「ACT I ON 3」 に対応する動作または表現が実行される。 「A CT I ON l」 、 「ACT I 〇N 3」 としては、 例えば、 「吠え る」 、 「ボールを蹴る」 といった行動が挙げられる。 一方、 ボール の大きさが 1 00 0以上のときには、 「n o d e 1 2 0」 や 「n o d e 5 0 0」 が遷移先として選択される確率はない。 The action or expression corresponding to "ACT I ON 3" is executed. “ACTION” and “ACT I〇N 3” include, for example, actions such as “barking” and “kicking the ball”. Meanwhile, the ball If the size of is more than 1 000, there is no probability that “node 120” or “node 500” will be selected as the transition destination.
また、 ロボッ ト装置 1が障害物を見つけた場合 (入力イベントが 「OB S TAC L E」 である場合) において、 その障害物までの距 離が 0〜 1 0 0であるときには、 後退り行動と しての 「n o d e l 00 0」 のノード (ステ一ト) 力 S 1 0 0 %の確率で選択される。 す なわち、 1 0 0%の確率で 「MOVE— BACK:」 が付されたァー クが選択され、 「MOVE— BACK」 が実行されるようになる。 以上述べたように、 テーブル等を用いて、 確率により、 ステート (ノード) 又はアークの選択、 すなわち行動モデルの決定をするこ とができる。 このように、 確率をも考慮に入れて遷移先のステー ト を決定することにより、 遷移先が常に同じものと して選択されるよ うなことを防止することができるようになる。 すなわち、 ロボッ ト 装置 1の行動の表現の豊富化を可能にする。  When the robot apparatus 1 finds an obstacle (when the input event is “OB S TACLE”) and the distance to the obstacle is 0 to 100, the robot 1 moves backward. The node (state) force of all “nodel 00 0” is selected with a probability of S 100%. In other words, 100% of the time, the arc with “MOVE—BACK:” is selected, and “MOVE—BACK” is executed. As described above, a state (node) or an arc can be selected, that is, an action model can be determined by using a table or the like based on probability. In this way, by determining the state of the transition destination in consideration of the probability, it is possible to prevent the transition destination from being always selected as the same. That is, the expression of the behavior of the robot device 1 can be enriched.
また、 上述のようなステー トの選択、 すなわち行動モデルの決定 については、 感情モデルの状態に基づいてできるようにもなされて いる。 例えば、 上述のステート間の遷移確率を感情モデルの状態に 基づいて変化させることにより、 行動モデルを決定するといったよ うにである。 具体的には、 次のようにである。  In addition, the state selection as described above, that is, the determination of the behavior model, can be performed based on the state of the emotion model. For example, an action model is determined by changing the transition probability between the states based on the state of the emotion model. Specifically, it is as follows.
例えば、 上述したようなステートへの遷移を確率により決定する ことを利用する。 すなわち、 感情モデルの状態 (例えば、 レベル) を参照し、 その感情モデルの状態に応じて遷移確率を変化させる。 これにより、 感情モデルに基づいて行動モデルの決定がなされるよ うになり、 結果として行動モデルが感情モデルの状態に影響される ようになる。 具体的に、 これを、 図 1 0に示すテーブルを用いて説 明する。 For example, it is used that the transition to the state as described above is determined by probability. In other words, the state of the emotion model (for example, level) is referenced, and the transition probability is changed according to the state of the emotion model. As a result, the behavior model is determined based on the emotion model, and as a result, the behavior model is influenced by the state of the emotion model. Specifically, this is explained using the table shown in FIG. I will tell.
例えば、 遷移確率を決定するデータと して、 「J OY (うれし さ) 」 、 「 S UR P R I S E (驚き) 」 や 「 S ADNE S S (悲し さ) 」 を用意する。 この 「 J OY (うれしさ) 」 、 「S UR P R I S E (驚き) 」 や 「S ADNE S S (悲しさ) 」 は、 感情モデルの 情動ユニッ ト 5 O A, 5 0 D , 5 0 Bに対応されるものである。 そ して、 データの範囲は、 例えば、 0〜 5 0とする。 このデータの範 囲は、 上述した情動ユニッ トのレベルに対応される。  For example, as the data for determining the transition probability, "JOY (joy)", "SURPRISSE (surprise)" and "S ADNE SS (sadness)" are prepared. These “JOY”, “SUR PRISE” and “S ADNE SS” are compatible with the emotional model emotion units 5 OA, 50 D and 50 B. Things. The data range is, for example, 0 to 50. The range of this data corresponds to the level of the emotion unit described above.
これにより、 「 J OY (うれしさ) 」 、 「S UR P R I S E (驚 き) 」 や 「 SADNE S S (悲しさ) 」 が所定のレベル、 本実施の 形態では 0〜 5 0にある場合には、 所定のステートへの遷移確率が 決定されることになる。 例えば、 そのデータ範囲が 0〜 5 0である 「 J OY (うれしさ) 」 の実際のレベルが 3 0であれば、 「ACT Ι ΟΝ 1」 、 「ACT I ON 2」 、 「MOVE一 BACK」 、 「A CT I ON4」 が付されたアークが 1 0 %、 1 0 %、 1 0%、 7 0 %の確率で選択され、 所定のステートへ遷移するようになる。  With this, if “JOY (joy)”, “SUR PRISE (surprise)” or “SADNE SS (sadness)” is at a predetermined level, that is, 0 to 50 in the present embodiment, The probability of transition to a given state will be determined. For example, if the actual level of "JOY" is 30, whose data range is from 0 to 50, "ACT Ι ΟΝ 1", "ACT I ON 2", "MOVE BACK" The arcs marked with “ACTION4” are selected with a probability of 10%, 10%, 10%, and 70%, and transition to a predetermined state.
また、 図 1 0に示すように、 「 J OY (うれしさ) 」 、 「S UR P R I S E (驚き) 」 や 「 S ADNE S S (悲しさ) 」 を入カイべ ントに関係なく遷移確率の決定に参照することにより、 すなわちい わゆる空イベント状態において、 これらを参照することにより、 例 えば、 外部から入力がない状態においても、 遷移確率を決定するこ とができる。 これにより、 例えば、 一定時間入力イベントの検出が なされないとき、 遷移確率の決定に感情モデルが参照されるように なる。  In addition, as shown in Fig. 10, “JOY (joy)”, “SUR PRISE (surprise)” and “S ADNE SS (sadness)” can be used to determine the transition probability regardless of the input. By referring to them, that is, in a so-called empty event state, by referring to them, the transition probability can be determined, for example, even when there is no external input. Thus, for example, when an input event is not detected for a certain period of time, the emotion model is referred to in determining the transition probability.
さらに、 このような場合において、 参照を、 「 J〇Y (うれし さ) 」 、 「 S UR P R I S E (驚き) 」 、 「 S ADNE S S (悲し さ) 」 の順番ですることにより、 「 J OY (うれしさ) 」 、 「S U R P R I S E (驚き) 」 、 「 S AD N E S S (悲しさ) 」 の順番で. その実際のレベルが参照されるようになる。 これにより例えば、Further, in such cases, the reference may be referred to as "J〇Y ( "SUR PRISE (surprise)", "S ADNE SS (sadness)", "JOY (joy)", "SURPRISE (surprise)", "S AD NESS (surprise)" In the order of "sadness"). The actual level will be referred to. This allows, for example,
「SADNE S S (悲しさ) 」 の実際のレベルが 6 ◦である場合に は、 そのデータ範囲が 0〜 5 0とされていることから、 次の 「 J O Y (うれしさ) 」 の実際のレベルが参照されることになる。 そして、 例えば、 そのデ一タ範囲が 0〜 5 0である 「 J OY (うれしさ) 」 の実際のレベルが 2 0であるとした場合、 「ACT I ON 2」 が付 されたアークが 3 0 %の確率で、 また、 「MOVE— BACKJ の 付されたアークが 6 0 %の確率で選択され所定のステー卜へ遷移す るようになる。 If the actual level of "SADNE SS (sadness)" is 6 °, since the data range is 0 to 50, the actual level of the next "JOY (joy)" will be Will be referenced. For example, if the actual level of “JOY”, whose data range is 0 to 50, is 20, the arc labeled “ACT I ON 2” is 3 The arc with “MOVE-BACKJ” is selected with a probability of 0% and transitions to a predetermined state with a probability of 60%.
以上のように、 感情モデルの状態に基づいて行動モデルを決定で きるようにもなされている。 このように、 行動モデルが感情モデル の状態に影響されることにより、 ロボッ ト装置 1の表現の豊富化が 可能になる。  As described above, the behavior model can be determined based on the state of the emotion model. Thus, the expression of the robot device 1 can be enriched by the behavior model being affected by the state of the emotion model.
以上述べたような種々の手段により、 行動決定機構部 4 1による 行動指令情報 S 1 6の決定がなされる。  The action command information S16 is determined by the action determining mechanism unit 41 by the various means described above.
(3 - 3) 姿勢遷移機構部における処理  (3-3) Processing in the posture transition mechanism
姿勢遷移機構部 4 2は、 目標とされる姿勢や目標とされる動作に 遷移するための情報を生成する部分である。 具体的には、 姿勢遷移 機構部 4 2は、 図 3に示すように、 行動決定機構部 4 1から供給さ れる行動指令情報 S 1 6に基づいて現在の姿勢又は動作から次の姿 勢又は動作 (目的とされる姿勢又は目的とされる動作) に遷移させ るための姿勢遷移情報 S 1 8を生成し、 これを制御機構部 4 3に送 出する。 例えば、 現在の姿勢から次に遷移可能な姿勢は、 胴体や手 や足の形状、 重さ、 各部の結合状態のようなロボッ ト装置 1の物理 的形状と、 例えば関節が曲がる方向や角度のようなァクチユエータ 2 3 A〜 2 3 Nの機構とによって決定され、 姿勢遷移情報 S 1 8は、 そのようなことが考慮された、 遷移させるための情報とされる。 制御機構部 4 3は、 このように姿勢遷移機構部 4 2から送られて く る姿勢遷移情報 S 1 8に基づいて、 ロボッ ト装置 1を実際に動作 させている。 The posture transition mechanism unit 42 is a part that generates information for transitioning to a target posture and a target operation. Specifically, as shown in FIG. 3, the posture transition mechanism unit 42 determines the next posture or the next posture from the current posture or action based on the action command information S16 supplied from the action determination mechanism unit 41. Generates posture transition information S 18 for transitioning to a motion (target posture or target motion) and sends it to the control mechanism 43. Put out. For example, the postures that can transition from the current posture to the next are the physical shape of the robot device 1 such as the shape, weight, and connection state of each part, such as the shape of the body, hands and feet, and the direction and angle at which the joint bends. The posture transition information S 18 is determined by such a mechanism of the actuators 23 A to 23 N, and is information for transition in consideration of such a situation. The control mechanism 43 actually operates the robot device 1 based on the posture transition information S18 sent from the posture transition mechanism 42.
姿勢遷移機構部 4 2は、 ロボッ ト装置 1が遷移可能な姿勢及ぴ遷 移する際の動作を予め登録しており、 例えばグラフと して保持して おり、 行動決定機構部 4 1から供給された行動指令情報 S 1 6を姿 勢遷移情報 S 1 8として制御機構部 4 3に送出する。 制御機構部 4 3は、 姿勢遷移情報 S 1 8に応じて動作して目標とされる姿勢或い は目標とされる動作に遷移する。 以下、 姿勢遷移機構部 4 2にて行 う処理について詳しく説明する。  The posture transition mechanism unit 42 pre-registers the posture in which the robot device 1 can transition and the operation at the time of the transition, and holds, for example, as a graph, and is supplied from the behavior determination mechanism unit 41. The obtained action command information S 16 is sent to the control mechanism 43 as posture transition information S 18. The control mechanism section 43 operates in accordance with the posture transition information S18 to make a transition to a target posture or a target operation. Hereinafter, the processing performed by the posture transition mechanism section 42 will be described in detail.
例えば、 ロボッ ト装置 1は、 指令 (行動指令情報 S 1 6 ) の内容 にしたがった姿勢に、 直接遷移できない場合がある。 すなわち、 口 ボッ ト装置 1の姿勢は、 現在の姿勢から直接遷移可能な姿勢と、 直 接には遷移できなく、 ある動作や姿勢を経由して可能となる姿勢と、 に分類されるからである。  For example, the robot device 1 may not be able to directly transition to the posture according to the content of the command (the action command information S16). That is, the posture of the mouth bot device 1 is classified into a posture that can directly transit from the current posture, and a posture that cannot be transited directly, and is possible through a certain motion or posture. is there.
例えば、 4本足のロボッ ト装置 1は、 手足を大きく投げ出して寝 転んでいる状態から伏せた状態へ直接遷移することはできるが、 立 つた姿勢へ直接遷移することはできず、 一旦手足を胴体近くに引き 寄せて伏せた姿勢になり、 それから立ちあがるという 2段階の動作 が必要である。 また、 安全に実行できない姿勢も存在する。 例えば、 4本足のロボッ ト装置 1は、 立っている姿勢で両前足を挙げてバン ザィをしょう とすると、 転倒してしまう場合である。 或いは、 現在 の姿勢が寝転び姿勢 (寝姿勢) にある場合において、 指令の内容と して座り姿勢でしかできないような 「足をばたばたさせる」 といつ た内容が送られてとき、 そのまま足をばたばたばたさせる命令を出 してしまう と、 寝姿勢から座り姿勢への遷移と足をばたばたさせる 動作とが実行されてしまうことになり、 ロボッ ト装置 1はバランス を崩して転倒してしまう場合がある。 For example, a four-legged robot device 1 can directly transition from a lying down state to a lying down state by throwing out a large limb, but cannot directly transition to a standing posture, and A two-step movement is required, in which the body is pulled down near the torso, becomes prone, and then rises. There are also postures that cannot be safely executed. For example, The four-legged robot device 1 may fall if the banzai is tried with both front legs raised while standing. Alternatively, if the current posture is lying down (sleeping posture), and the contents of the command are such as “flapping your feet” that can only be done in the sitting posture, If a command to flutter is issued, a transition from a sleeping posture to a sitting posture and an operation to flutter the legs are performed, and the robot device 1 may lose balance and fall over. is there.
したがって、 姿勢遷移機構部 4 2は、 行動决定機構部 4 1から供 給された行動指令情報 S 1 6が直接遷移可能な姿勢を示す場合には、 当該行動指令情報 S 1 6をそのまま姿勢遷移情報 S 1 8 と して制御 機構部 4 3に送出する一方、 直接遷移不可能な姿勢を示す場合には、 遷移可能な他の姿勢や動作を経由して目標とされる姿勢 (行動指令 情報 S 1 6により指示された姿勢) まで遷移させるような姿勢遷移 情報 S 1 8を生成し、 これを制御機構部 4 3に送出する。 これによ り、 ロボッ ト装置 1は、 遷移不可能な姿勢を無理に実行しようとす る事態や転倒するようなことを回避することができる。 或いは、 目 標とされる姿勢或いは動作に遷移するまで複数の動作を用意してお く ことは表現の豊富化に結びつく。  Therefore, when the action command information S16 supplied from the action determination mechanism section 41 indicates an attitude to which a direct transition can be made, the attitude transition mechanism section 42 transfers the action command information S16 as it is. While the information is sent to the control mechanism section 43 as the information S 18, if it indicates a posture that cannot be directly transited, the posture (a behavior command information It generates posture transition information S 18 that makes a transition to the posture indicated by S 16) and sends it to the control mechanism 43. Thereby, the robot device 1 can avoid a situation in which the robot cannot forcibly execute an untransitionable posture or fall. Alternatively, preparing multiple movements before transitioning to the target posture or movement leads to enrichment of expression.
具体的には、 姿勢遷移機構部 4 2は、 ロボッ ト装置 1がと り得る 姿勢及び動作が登録されているグラフであって、 姿勢とこの姿勢を 遷移させる動作とを結んで構成されたグラフを保持して、 現在の姿 勢から目標とされる姿勢又は目標とされる動作までの経路を、 指令 情報とされる行動指令情報 S 1 6に基づいてグラフ上において探索 して、 その探索結果に基づいて動作させて、 現在の姿勢から目標と される姿勢又は目標とされる動作に遷移させる。 すなわち、 姿勢遷 移機構部 4 2は、 ロボッ ト装置 1がと り得る姿勢を予め登録すると 共に、 遷移可能な 2つの姿勢の間を記録しておく ようになされてお り、 このグラフと行動決定機構部 4 1から出力された行動指令情報 S 1 6 とに基づいて目標とされる姿勢或いは動作まで遷移させる。 具体的には、 姿勢遷移機構部 4 2は、 上述のようなグラフと して、 図 1 1に示すような有向グラフ 6 0と呼ばれるアルゴリズムを用い ている。 有向グラフ 6 0では、 ロボッ ト装置 1がと り得る姿勢を示 すノードと、 遷移可能な 2つの姿勢 (ノード) の間を結ぶ有向ァー ク (動作アーク) と、 場合によっては一つのノードから当該一つの ノ一ドに戻る動作のアーク、 すなわち一つのノード内で動作を完結 する動作を示す自己動作アークとが結合されて構成されている。 す なわち、 姿勢遷移機構部 4 2は、 ロボッ ト装置 1の姿勢 (静止姿 勢) を示す情報とされるノードと、 ロボッ ト装置 1の動作を示す情 報とされる有向アーク及び自己動作アークとから構成される有向グ ラフ 6 0を保持し、 姿勢を点の情報と して、 さらに動作の情報を有 向線の情報として把握している。 More specifically, the posture transition mechanism unit 42 is a graph in which the posture and the movement that the robot device 1 can take are registered, and is a graph configured by connecting the posture and the operation of transitioning this posture. , And a path from the current posture to the target posture or the target movement is searched on the graph based on the action command information S16 as the command information, and the search result is obtained. Based on the current posture and the goal To a desired posture or a target movement. In other words, the posture transition mechanism section 42 is configured to register in advance the postures that the robot device 1 can assume and to record between the two possible postures. Based on the action command information S 16 output from the determination mechanism section 41, a transition is made to a target posture or motion. Specifically, the posture transition mechanism unit 42 uses an algorithm called a directed graph 60 as shown in FIG. 11 as the graph as described above. In the directed graph 60, a node indicating the posture that the robot device 1 can take, a directed arc (moving arc) connecting between two transitionable postures (nodes), and, in some cases, one node From one node to another node, that is, a self-operation arc indicating an operation that completes the operation within one node. That is, the posture transition mechanism 42 includes a node that is information indicating the posture (stationary posture) of the robot device 1, a directed arc that is information indicating the operation of the robot device 1, and a self-directed information. A directional graph 60 composed of motion arcs is held, the posture is grasped as point information, and the motion information is grasped as directional line information.
ここで、 有向アークや自己動作アークは複数とされていてもよく、 すなわち、 遷移可能なノード (姿勢) の間に有向アークが複数接合 されてあってもよく、 一つのノードにおいて複数の自己動作アーク が結合されていてもよい。  Here, there may be a plurality of directed arcs and self-moving arcs, that is, a plurality of directed arcs may be joined between transitable nodes (postures). Self-acting arcs may be coupled.
姿勢遷移機構部 4 2は、 行動決定機構部 4 1から行動指令情報 S 1 6が供給されると、 現在の姿勢に対応したノードと、 行動指令情 報 S 1 6が示す次に採るべき姿勢に対応するノードとを結ぶように、 有向アーク aの向きに従いながら現在のノードから次のノードに至 る経路を探索し、 当該探索した経路上にあるノードを順番に記録す ることにより、 姿勢遷移の計画を立てるようになされている。 以下、 このような現在の姿勢から目標とされるノード (指令により指示さ れたノード) 、 或いは目標とされるアーク (指令により指示された アーク) の探索を、 経路探索という。 ここで、 目標とするアークと は、 有向アークであってもよく、 自己動作アークであってもよい。 例えば、 自己動作アークが目標とされるアークとなる場合とは、 自 己動作が目標とされた (指示された) 場合であって、 例えば、 所定 の芸 (動作) が指示された場合等が挙げられる。 When the action command information S 16 is supplied from the action determination mechanism 41, the attitude transition mechanism section 42 and the node corresponding to the current attitude and the next attitude indicated by the action command information S 16 From the current node to the next node while following the direction of the directed arc a so as to connect the node corresponding to By searching for a route to be taken and recording the nodes on the searched route in order, a plan for posture transition is made. Hereinafter, a search for a target node (a node specified by a command) or a target arc (an arc specified by a command) from such a current posture is referred to as a route search. Here, the target arc may be a directed arc or a self-acting arc. For example, the case where the self-operation arc becomes the target arc is the case where the self-operation is targeted (instructed), and, for example, the case where a predetermined trick (operation) is instructed. No.
姿勢遷移機構部 4 2は、 経路探索により得た目標とされる姿勢 The posture transition mechanism section 42 is used to calculate the target posture obtained by the route search.
(ノード) 或いは目標とさえる動作 (有向アーク或いは自己動作ァ ーク) までの姿勢遷移計画に基づいて、 遷移のための制御命令 (姿 勢遷移情報 S 1 8 ) を後段の制御機構部 4 3に出力する。 Based on the posture transition plan up to the (node) or target movement (directed arc or self-movement arc), a control command (posture transition information S 18) for transition is sent to the control mechanism unit 4 in the subsequent stage. Output to 3.
例えば、 図 1 2に示すように、 現在の姿勢が 「ふせる」 という姿 勢を示すノード N D 2にある場合には、 「すわれ」 という行動指令情 報 S 1 6が供給されると、 「ふせる」 の姿勢を示すノード N D 2からFor example, as shown in FIG. 12, if the current posture is at the node ND 2 which shows the posture of “turn off”, when the action command information S 16 of “sail” is supplied, “ From the node ND 2 showing the posture
「すわる」 の姿勢を示すノード N D 5へは有向アーク a 9が存在して おり、 直接遷移が可能であり、 これにより、 姿勢遷移機構部 4 2は、A directed arc a 9 exists at the node ND 5 indicating the posture of “sit down”, and a direct transition is possible, whereby the posture transition mechanism unit 42
「すわれ」 という内容の姿勢遷移情報 S 1 8を制御機構部 4 3に与 える。 The posture transition information S 18 having the content “smile” is given to the control mechanism 43.
また、 姿勢遷移機構部 4 2は、 現在の姿勢が 「ふせる」 という姿 勢を示すノード N D 2にある場合において 「歩け」 という行動指令情 報 S 1 6が供給されると、 「ふせる」 から 「歩く」 まで直接的に遷 移ができないので、 「ふせる」 の姿勢を示すノード N D 2から 「ある く」 の姿勢を示すノード N D 4に至る経路を探索することにより姿勢 遷移計画を立てる。 すなわち、 「ふせる」 の姿勢を示すノード N D 2から有向アーク a 2を経由して、 「たつ」 の姿勢を示すノード N D を選択し、 さらに、 「たつ」 の姿勢を示すノード N D から有向ァ ーク a 3を経由して 「あるく」 の姿勢を示すノード N D 4に至るとい つた姿勢遷移計画を立てる。 このような姿勢遷移計画の結果と して、 姿勢遷移機構部 4 2は、 「たて」 という内容の姿勢遷移情報 S 1 8 を出し、 その後に 「歩け」 という内容の姿勢遷移情報 S 1 8を制御 機構部 4 3に出力する。 In addition, when the current posture is at the node ND 2 indicating the posture of “turn off”, and the action command information S 16 of “walk” is supplied, the posture transition mechanism unit 42 changes from “turn off”. Since it is not possible to make a direct transition to “walk”, the posture is determined by searching for a route from node ND 2 indicating the posture of “disable” to node ND 4 indicating the posture of “araku”. Make a transition plan. That is, through the oriented arc a 2 from the node ND 2 indicating the posture of "lie down", select the node ND indicating the posture of "standing", furthermore, directed from the node ND indicating the posture of "standing" via § over click a 3 make a lead and have ivy posture transition plan to a node ND 4 showing the orientation of the "alk". As a result of such a posture transition plan, the posture transition mechanism section 42 outputs posture transition information S 18 having the content “vertical”, and thereafter, the posture transition information S 18 having the content “walk”. Is output to the control mechanism 43.
なお、 図 1 2に示すようなノ一ドからグラフが構成されている場 合における各ノードへの自己動作アークの貼り付けとしては、 「た つ」 の姿勢を示す姿勢を示すノード N D 3に 「ダンスをする」 の動作 を示す自己動作アークを貼り付けたり、 「すわる」 の姿勢を示すノ ード N D 5に 「バンザィをする」 の動作を示す自己動作アークを貼り 付けたり、 或いは 「ねそべる」 の姿勢を示すノード N D ,に 「いびき をする」 の動作を示す自己動作アークを貼り付けたりすることが挙 げられる。 As the paste self operating arc to each node in the case where the chart from Roh one de, as shown in FIG. 1 2 is configured, the node ND 3 indicating the posture indicating the posture of "nai One" or paste the self-action arc showing the operation of "the dance", or paste the self-action arc showing the operation of "the Banzai" to the node ND 5 indicating the posture of "sit", or "I For example, a self-operation arc indicating the operation of “snoring” is attached to the node ND indicating the posture of “sledding”.
また、 ロボッ ト装置 1は、 通常、 現在どの姿勢にあるかを把握し ているように構成されている。 しかし、 現在の姿勢がわからなくな る場合も生じる。 例えば、 ロボッ ト装置 1は、 ユーザ等に抱きかか えられたり、 転倒時、 或いは電源起動時において、 現在の姿勢を把 握できない。 例えば、 このような現在の姿勢が把握不可能なときの 不定姿勢という。 例えば、 このように現在の姿勢が把握できずに不 定姿勢とされると、 いわゆる出発の姿勢を特定できないことから、 目標とされる姿勢或いは動作までの姿勢遷移計画を立てることがで きなくなる。 In addition, the robot device 1 is generally configured so as to know the current posture. However, there are cases where the current attitude is lost. For example, the user cannot grasp the current posture of the robot device 1 when the robot is held by a user or the like, when the user falls down, or when the power is turned on. For example, such an undefined posture when the current posture cannot be grasped. For example, if the current attitude cannot be ascertained and the attitude is uncertain, the so-called departure attitude cannot be specified, and it is possible to make a posture transition plan up to the target attitude or motion. Will not be able to.
このようなことから、 ノードとしてニュートラル (中立) の姿勢 を示すノードを設け、 現在の姿勢が不明のときにはニュートラルの 姿勢に遷移させて、 姿勢遷移計画を立てるようにしている。 すなわ ち、 例えば、 現在の姿勢が不明のときには、 図 1 3に示すように、 二ユートラルの姿勢をノード N D n tにー且遷移させてから、 「たつ ている」 の姿勢を示すノー ド N D 3、 「すわっている」 の姿勢を示す ノー ド N D 5、 或いは 「ねそべつている」 の姿勢を示すノード N D , といった基本的な姿勢を示すノードに遷移させるようにする。 そし て、 このよ うな基本的な姿勢に遷移させてから、 本来の姿勢遷移計 画を立てる。 For this reason, a node indicating a neutral (neutral) attitude is provided as a node, and when the current attitude is unknown, the node is transitioned to the neutral attitude, and an attitude transition plan is made. That is, for example, when the current posture is unknown, as shown in FIG. 13, the neutral position is transitioned to the node ND nt and then transitions to the node ND indicating the posture of “touching”. 3, so as to transit to a node indicating a basic position such as node ND, indicating the node ND 5, or the posture of "Nesobe One in which" indicating the posture of "sitting". Then, after transitioning to such a basic posture, an original posture transition plan is established.
なお、 本実施の形態では、 ニュー トラルの姿勢から遷移する基本 的な姿勢と して、 「たっている」 、 「すわっている」 、 「ねそべつ ている」 を挙げて説明したがこれに限定されるものではなく他の姿 勢であってもよいことはいうまでもなレ、。  Note that, in the present embodiment, the basic postures that transit from the neutral posture have been described as “standing”, “sit”, and “nesobetsu”, but are not limited thereto. It goes without saying that the attitude may be other than the one being performed.
また、 不定姿勢からニュー トラルの姿勢 (ノード) への遷移につ いては、 具体的には、 低トルクあるは低速度で動作部 (例えばァク チユエータ) を駆動して行うことにする。 これにより、 サーボの負 担を減らして、 さらに例えば、 通常の動作と同様に動作部を動作さ せてしまい動作部が破損していまう といったことを防止することが できる。 例えば、 尻尾部 5は、 通常振り回すような動作をしている のであるが、 そのような尻尾部 5の動作をニュー トラルの姿勢 (ノ ード) への遷移の際に行うと、 ロボッ ト装置 1が不定姿勢として寝 ているような状態にある場合に、 尻尾部 5が破損してしまうような ことがあるからである。 また、 ロボッ ト装置は転倒を把握して、 転倒状態から上述したよ うな基本的な姿勢を示すノードに遷移させることもできる。 例えば、 ロボッ ト装置 1には、 加速度センサが備えられ、 自己が転倒したこ とを検出する。 In addition, the transition from the undefined posture to the neutral posture (node) is specifically performed by driving the operation unit (for example, an actuator) at a low torque or a low speed. As a result, the burden on the servo can be reduced, and for example, it is possible to prevent the operating section from operating and damage to the operating section as in normal operation. For example, the tail 5 normally performs a swinging motion, but when such a movement of the tail 5 is performed at the time of transition to the neutral posture (node), the robot device is moved. This is because the tail part 5 may be damaged when the subject 1 is sleeping in an undefined posture. In addition, the robot device can detect the fall and transition from the fall state to the node indicating the basic posture as described above. For example, the robot device 1 is provided with an acceleration sensor, and detects that the robot device 1 has fallen.
具体的には、 ロボッ ト装置 1は加速度センサにより 自己が転倒し たことを検出すると、 転倒復帰のための所定の動作を行い、 その後、 上述したような基本的な姿勢を示すノードに遷移する。  Specifically, when the robot device 1 detects that the robot device 1 has fallen over by the acceleration sensor, the robot device 1 performs a predetermined operation for returning from the fall, and then transitions to the node indicating the basic posture as described above. .
また、 ロボッ ト装置 1は、 転倒方向について把握するようにも構 成されている。 具体的には、 加速度センサにより、 前後、 左右の 4 方向について転倒方向を把握可能とされている。 これにより、 ロボ ッ ト装置は、 転倒方向に応じた転倒復帰の動作が可能になり、 速や かに基本的な姿勢への遷移が可能になる。  In addition, the robot device 1 is also configured to grasp the falling direction. Specifically, the acceleration sensor can detect the falling direction in four directions: front, rear, left and right. As a result, the robot device can perform a fall return operation according to the fall direction, and can quickly transition to a basic posture.
また、 転倒を検出した際には、 所定の表現を出力するようにして もよい。 例えば、 所定の表現として、 自己動作アーク a > tにより足 をばたばたさせる動作を行う。 これにより、 ロボッ ト装置 1が転ん でもがいている様子を表現することができるようになる。 When a fall is detected, a predetermined expression may be output. For example, as a predetermined expression, an action of flapping a foot by a self-operation arc a> t is performed. This makes it possible to represent a state in which the robot device 1 is straddling and struggling.
さらに、 「ふせる」 のノード N D 2と 「立つ」 のノード N D 3との 間に図示しない複数の有向アークがある場合には、 最適な一の有向 アークを選択して、 「立つ」 のノード N D 3に遷移するような姿勢遷 移計画を立てることもできる。 Furthermore, if there are a plurality of directed arcs (not shown) between the “disabled” node ND 2 and the “standing” node ND 3 , one optimal directed arc is selected and the “standing” An attitude transition plan that transitions to node ND 3 can also be made.
上述したように、 ノードとノードとの間には、 複数の有向アーク が存在し、 また、 一つのノードに複数のノードが有向アークにより 結合されている場合もある。 よって、 現在のノードから目標とされ るノード或いはアーク (有向アーク又は自己動作アーク) を結ぶ経 路については複数存在する。 このようなことから、 現在のノ一ドと目標とするノードとの距離 を短くするといつたことを指標として、 すなわち最短距離として経 路を探索するいわゆる最短距離探索により、 姿勢遷移計画を立てる ようにする。 As described above, a plurality of directed arcs exist between nodes, and a plurality of nodes may be connected to one node by a directed arc. Therefore, there are multiple paths connecting the current node to the target node or arc (directed arc or self-acting arc). For this reason, a posture transition plan should be made using the index of when the distance between the current node and the target node is reduced, that is, the so-called shortest distance search that searches the route as the shortest distance. To
図 1 4に示すように、 ノード (〇印) とノード (〇印) との間を 結ぶ有向アーク (矢印) に距離という概念を用いて、 最短距離探索 を行う。 このような経路探索手法と しては、 ダイキス トラのパスサ ーチの理論等がある。 距離は、 後述するように、 重み付けや、 時間 等といった概念に代替えすることも可能である。 図 1 4には、 距離 力 S 「 1」 の有向アークによって遷移可能なノードを結んだ結果を示 している。  As shown in Fig. 14, the shortest distance search is performed using the concept of distance for the directed arc (arrow) connecting the node (〇) and the node (〇). As such a route search method, there is the theory of the path search of Dijkstra. Distance can be replaced with concepts such as weighting and time, as described later. Figure 14 shows the result of connecting nodes that can transition by a directed arc with a distance force S “1”.
よって、 このような距離を経路探索の指標と して用いることで、 現在の姿勢 (ノード) から目標とするノードへ最短距離の経路を選 択できるようになる。  Therefore, by using such a distance as a route search index, the shortest path from the current attitude (node) to the target node can be selected.
具体的には、 現在のノードから目標とされるノードへの経路が 4 通りある場合において、 第 1の経路の距離が 「 1 2」 、 第 2の経路 の距離が 「 1 0」 、 第 3の経路の距離が 「 1 5」 、 第 4の経路の距 離が 「 1 8」 であるようなときには、 距離が 「 1 0」 の第 2の経路 により遷移してき、 目標とされる姿勢までの姿勢遷移計画を立てる。 最短距離の検索の手法についてはこのような手法によることに限 定されるものではない。  Specifically, when there are four routes from the current node to the target node, the distance of the first route is “1 2”, the distance of the second route is “10”, When the distance of the path is “15” and the distance of the fourth path is “18”, the distance changes along the second path of “10”, and the distance to the target posture Make a posture transition plan. The method for searching the shortest distance is not limited to such a method.
上述の例では、 目標とするノードへの最短距離の経路を、 複数の 経路を探索してその結果の中から一の経路と して選び出している。 換言すれば、 上述の経路探索では、 現在のノードから目標とするノ ―ドに遷移できる経路を可能な限り探索して複数の経路を得て、 そ の中から距離を指標と して最短距離の経路を特定している。 しかし、 最短距離の経路探索では、 このような手法により最短距離の経路を 探索することに限定されるものではなく、 目標とするノードへの最 短距離の経路を検出した時点で、 その経路探索の処理を終了するこ ともできる。 In the above example, the shortest distance route to the target node is selected as one route from the results of searching a plurality of routes. In other words, in the above-described route search, a route that can transition from the current node to the target node is searched as much as possible, and a plurality of routes are obtained. The shortest route is specified using the distance as an index. However, the shortest distance route search is not limited to searching for the shortest distance route by such a method, and when the shortest distance route to the target node is detected, the route search is performed. It is also possible to end the processing of.
例えば、 現在の姿勢から探索指標とする距離を徐々に延ばしてノ ードを次々に探索していき、 その都度最短の距離にあるノード (目 標とされるノードではないノード) を決定して、 最終的に目標とす るノードを検出した時点で当該最短距離の経路探索の処理を終了す るといったようにである。 すなわち例えば 「等高線」 といったよう な概念で考えられるような 「等しい距離」 といった概念を用い、 現 在のノードから距離を延ばしてその 「等しい距離」 上のノードを次 々に検出し、 目標とするノードを最終的に検出できた時点で、 その 経路探索の処理を終了する。 このような経路探索の手法として、 ダ ィキス トラのパスサーチが挙げられる。  For example, nodes are searched one after another by gradually increasing the distance as a search index from the current posture, and a node at the shortest distance (a node that is not a target node) is determined each time. When the target node is finally detected, the shortest distance route search process is terminated. In other words, using the concept such as `` equal distance '' that can be considered in the concept such as `` contour line '', extending the distance from the current node, detecting nodes on the `` equal distance '' one after another and targeting When the node is finally detected, the route search process ends. As a method of such a route search, there is a path search of dixtra.
このような最短距離の経路探索の手法によれば、 目標とするノー ドまでに存在する全ての経路を探索することなく最短距離の経路を 探索することができるので、 最短距離の経路を短時間で検出するこ とができるようになり、 結果と してこのような探索処理を行うため の C P U等の負担を少なくすることができる。 よって、 全ての経路 を探索することなく 目標とするノードまでの最短距離の経路を検出 することができるので、 ネッ トワーク全体を検索することによる負 担をなくすことができるようになり、 例えば、 このようなグラフを 構築するネッ トワークが大規模となる場合でも、 負担を少なく して 経路を探索することができるようになる。 P 63 According to such a shortest-distance route search method, the shortest-distance route can be searched without searching for all routes existing to the target node. As a result, the load on the CPU or the like for performing such a search process can be reduced. Therefore, the shortest route to the target node can be detected without searching for all routes, so that the burden of searching the entire network can be eliminated. Even if the network for constructing such a graph becomes large, it becomes possible to search for a route with a reduced burden. P 63
41 また、 経路探索の手法と しては、 図 1 5に示すように、 ノードを 行動或いは姿勢に基づき大まかに分類分け (クラスタリング) して おき、 最初に分類による大まかな検索 (予備検索) を行い、 その後. 詳細検索をするようにしてもよい。 例えば、 「右前足けり」 という 姿勢をとらせる際に、 経路探索範囲と して最初に 「ボールをける」 という分類のエリアを選択し、 次に、 そのエリアの中のみでパスを 検索する。 41 As a route search method, as shown in Fig. 15, nodes are roughly classified (clustered) based on their actions or postures, and a rough search (preliminary search) based on the classification is performed first. After that, you may make an advanced search. For example, when assuming the posture of “right front limb”, first select an area of the category “hit the ball” as the route search range, and then search for a path only in that area.
例えば、 大まかな分類とそれを構成するものとの関連付け、 すな わち 「ボールをける」 と 「右前足けり」 との関連付けは、 このよう なシステムを設計する際に I D情報等を付しおく ことによりなされ ている。  For example, the association between the rough classification and the constituents, that is, the association between "hitting the ball" and "right front stake," is accompanied by ID information when designing such a system. It is done by putting.
なお、 ノード間には、 当該ノード間の両方向に向かう有向アーク も存在するので、 ー且遷移したノードから戻ってしまうような有向 アークも存在する。 このような場合、 経路探索において何ら制約が なければ、 戻る有向アークを選択してしまい、 元のノードに戻って しまう場合がある。 これを防止するように、 一度通過した (ノー ド) にならないような有向アークを選択するようにすることもでき る。  Note that since there are directional arcs between the nodes in both directions between the nodes, there are directional arcs that return from the transitioned node. In such a case, if there is no restriction in the route search, the returning directed arc may be selected, and the node may return to the original node. To prevent this, it is possible to select a directed arc that does not pass once (node).
また、 目標とするノードにたどり着けることができなかった場合、 最終的な姿勢になれないといった結果を上位の制御手段や下位の制 御手段等に出すようにする。  Also, if the target node cannot be reached, a result such as not being able to achieve the final posture is given to the upper control means or the lower control means.
また、 上述の例では、 目標を姿勢 (ノード) として説明している 力;、 目標を動作すなわち有向アークや自己動作アークとすることも できる。 目標とされるアークが自己動作アークとは、 例えば、 足部 4にばたばたさせる動作をさせること等が挙げられる。 また、 経路探索における指標として、 有向アークに付した重みや 有向アークの動作時間を参照するようにすることもできる。 有向ァ ークに重み付けした場合は例えば次のようになる。 In the above example, the target is described as the posture (node). Force; the target can be an operation, that is, a directed arc or a self-operation arc. The target arc is a self-operating arc, for example, an operation of causing the foot 4 to flap. Further, as an index in the route search, the weight assigned to the directed arc or the operation time of the directed arc can be referred to. When the directed work is weighted, for example, it is as follows.
現在のノードから目標とされるノードへの間の候補となる経路の 途中にある有向アークの重みの総和を算出して、 そのような候補と されている経路毎の総和を比較することにより、 最適な経路 (最小 費用の経路) を選択する。  By calculating the sum of the weights of the directed arcs in the middle of the candidate route from the current node to the target node, and comparing the sum of each such candidate route Choose the best route (least cost route).
また、 有向アークの動作時間 (実行時間) についてみた場合は例 えば次のようになる。  For example, the operation time (execution time) of a directed arc is as follows.
例えば、 現在のノ一ドから目標とするノードへ 2つの有向アーク を経由していく場合において、 動作時間が 1秒と 2秒の 2本の有向 アークを経由した場合には、 遷移時間は 3秒かかる。 よって、 図 1 6に示すようなグラフにおいて、 現在のノード N D ,から目標のノー ド N D 3に遷移しょうとした場合において、 ノード N D 2を経由して 目標とするノード N D 3に遷移する場合と、 有向アーク a 3のみによ り 目標とするノード N D 3に遷移した場合とでは、 動作時間を指標と することにより、 ノード N D 2を経由した方が動作時間が 1秒の有向 アーク a と動作時間が 2秒の有向アーク a 2とを経由しているので、 現在のノード N D ,と目標のノード N D 3とを直接結ぶ動作時間が 5 秒の有向アーク a 4を遷移経路と して選択するよりも、 遷移時間を短 く して目標のノ一ド N D 3に到達することができる。 よって、 動作時 間を指標と してみた場合には、 2つの有向アークを経由した方が最 短時間として目標のノードに到達できる姿勢遷移計画を立てること ができる。 For example, if the current node passes through two directional arcs from the current node to the target node, and if the operation time passes through two directional arcs of 1 second and 2 seconds, the transition time Takes 3 seconds. Therefore, in the graph shown in FIG. 1 6, when an attempt cane transition current node ND from the node ND 3 goals, the case of transition to a node ND 3 of the target via the node ND 2 , oriented arc a 3 in the case where only a transition to a node ND 3 to by Ri goal, by an index operation time, node oriented arc a of ND 2 the operating time those who through one second And the operation time is 2 directional arcs a 2 , the direct arc a 4 , which directly connects the current node ND, and the target node ND 3, has the operation time 5 seconds and the transition path It is possible to reach the target node ND 3 with a shorter transition time than when selecting by hand. Therefore, when using the operation time as an index, it is possible to make a posture transition plan that can reach the target node in the shortest time through two directed arcs.
また、 有向アークに付す重み或いは距離を動作の難易度と しても よい。 例えば、 難易度が低いということを、 距離が短いということ として設定する。 また、 有向アークの 1本をデフォル トとすること もできる。 有向アークの 1本をデフォルトと しておく ことにより、 通常は、 当該デフォルトの有向アークが選択されるようにして、 指 示があった場合に、 デフォルトでない他の有向アークが選択される ようにすることもできる。 Also, the weight or distance given to the directed arc is defined as the difficulty of operation. Good. For example, low difficulty is set as short distance. Also, one of the directed arcs can be the default. By setting one of the directed arcs as the default, usually, the default directed arc is selected, and when instructed, another non-default directed arc is selected. It can also be done.
以上のように、 経路探索のための指標となるものを有向アークに 付加しておく ことにより、 すなわち、 有向アークに動作時間や、 バ ランスの保持が困難な難易度を付加しておく ことにより、 大きい動 作を避けて通るなどして最適な経路を選択した姿勢遷移計画を立て ることができる。 また、 有向アークにエネルギー消費率を付加して おく ことにより、 最適効率の経路を選択した姿勢遷移計画を立てる ことができる。  As described above, by adding an index serving as an index for route search to the directed arc, that is, the operating time and the difficulty of maintaining the balance are added to the directed arc. By doing so, it is possible to make a posture transition plan in which the optimal route is selected, for example, by avoiding large movements. Also, by adding the energy consumption rate to the directed arc, it is possible to make a posture transition plan that selects the path with the optimum efficiency.
また、 ノードとノードとの間には、 複数の有向アークが存在する 場合もあるので、 このような場合には、 選択される確率を有向ァー ク毎に振ることもできる。 すなわち、 例えば異なる確率を各アーク に割り当てる。 これにより、 確率によるばらつきによって、 同じノ 一ド間の遷移でも様々な動作が選択されるようになって、 一連の動 作が変化に富んだものとすることができる。 例えば、 座っている姿 勢から立ちあがる姿勢に遷移させる際に、 座っている足を後ろに伸 ばしてから 4足で立ちあがったり、 前の足を前に伸ばしてから立ち あがる等の動作を確率で選択することで、 どちらの動作で立ちあが るか再生されるまで (実際に実行されるまで) 予測できない効果を もたらすことができる。  In addition, since there may be a plurality of directed arcs between nodes, in such a case, the probability of selection can be varied for each directed arc. That is, for example, a different probability is assigned to each arc. As a result, various actions are selected even for transitions between the same nodes due to variations due to probabilities, and a series of actions can be varied. For example, when transitioning from a sitting position to a standing position, the probability is that the sitting leg will extend backward and then stand up with four legs, or the front leg will extend forward and stand up. By selecting with, it is possible to bring about an unpredictable effect until playback is started (until it is actually executed).
具体的には、 各有向アークの距離又は重みを m ,, m 2 , m 3 ♦ · · として、 その総和 (m1 + m2 + m3+ · · · ) を Mとするとき、 距離 又は重みが m iの有向アークに割り当てる確率 P iは、 ( 1 ) 式とし て表せる。 Specifically, the distance or weight of each directed arc is set to m ,, m 2 , m 3 ♦ When the sum (m 1 + m 2 + m 3 +...) Is M, the probability P i of assigning a distance or a weight to a directed arc with mi can be expressed by equation (1).
M— m i M—m i
P i =  P i =
(M- m i) + (M-m2) + (M— m3) + · · · (M-mi) + (Mm 2 ) + (M- m 3 ) +
- - - ( 1 )  ---(1)
これにより、 重みが大の有向アークは通過経路と して選択される 確率が低く、 重みが小の有向アークは通過経路として選択される確 率が高くなる。  As a result, a directional arc having a large weight has a low probability of being selected as a passing path, and a directional arc having a small weight has a high probability of being selected as a passing path.
また、 経路探索をする領域を限定することもできる。 例えば、 所 定の範囲内の経路のみに限定して経路探索することもできる。 これ により、 より短時間で、 最適な経路を探索することができるように なる。  In addition, it is possible to limit the area in which the route is searched. For example, the route search can be limited to only the routes within a predetermined range. This makes it possible to search for an optimal route in a shorter time.
また、 これに重みを付け等して最適な経路を選択させることによ り、 離れた姿勢間を補間する動作の単調さを回避したり、 危険度の 高い経路を通る確率を減らすことができるようになる。  In addition, by assigning weights to the optimal route, it is possible to avoid the monotonous operation of interpolating between distant postures and to reduce the probability of passing through a route with a high risk. Become like
また、 アーク (有向アーク又は自己動作アーク) については、 以 下のようにグラフに登録することもできる。  Also, arcs (directed arcs or self-acting arcs) can be registered in the graph as follows.
例えば、 「歩く」 といった動作について複数の実行態様が考えら れる。 例えば、 図 1 7に示すように、 0° 方向に歩く、 3 0° 方向 に歩く、 6 0° 方向に歩く といった動作は 「歩く」 について複数の 実行態様となる。 このような同一の動作について複数の実行態様を 持たせること、 すなわち、 同一動作に対するパラメータを多くする ことにより、 ロボッ ト装置 1の表現の豊富化につながる。 このよう な動作は、 そのようなパラメータが異なるアークを複数存在させる ことにより可能になる。 For example, a plurality of execution modes can be considered for an action such as “walking”. For example, as shown in FIG. 17, the operations such as walking in the 0 ° direction, walking in the 30 ° direction, and walking in the 60 ° direction are a plurality of execution modes for “walking”. To have a plurality of execution modes for such the same operation, that is, increase the parameters for the same operation This leads to a richer expression of the robot device 1. Such an operation is made possible by providing a plurality of arcs having different parameters.
一方、 このように、 複数の実行態様に応じてパラメータが異なる アークを複数存在させることは、 ネッ トワークの資源の有効利用と いった面では好ましくない。 すなわち、 0 ° から 9 0 ° まで、 1 ° 毎に異なる方向に歩く動作を実行させよう と した場合、 9 1個のァ ークが必要になるからである。  On the other hand, it is not preferable to have a plurality of arcs having different parameters according to a plurality of execution modes in terms of effective use of network resources. In other words, if an attempt is made to perform a walking operation in a different direction from 0 ° to 90 ° every 1 °, 91 arcs are required.
そこで、 「歩く」 を一つのパスと して、 歩行方向についてはパラ メータにする。 例えば、 自己動作アークにおいて、 「歩く」 を命令 して、 その際にパラメータとして歩行方向を別に与えることにより、 動きを再生するときに、 その与えられたパラメータの方向に、 「歩 く」 を実行することができるようになる。 これにより、 複数の自己 動作アークを必要とせずに、 1個の 「歩く」 の自己動作アークと、 歩行方向のパラメータを有するだけで、 同じ歩行の指示でも細かく 方向を設定して実行させることが可能になる。 これによりシナリオ が多彩になってもなおグラフが簡素で済み、 構築されているネッ ト ワーク資源を有効に使用することができるよ うになる。  Therefore, “walk” is one path, and the walking direction is a parameter. For example, in a self-moving arc, a command of “walking” is given, and a walking direction is separately given as a parameter at that time, so that “walking” is executed in the direction of the given parameter when a motion is reproduced. Will be able to As a result, it is possible to execute the same walking instruction in finer directions even with the same walking instruction only by having a single “walking” self-moving arc and a walking direction parameter without the need for multiple self-moving arcs. Will be possible. As a result, even if the scenarios become diverse, the graphs are still simple, and the network resources that have been constructed can be used effectively.
具体的には、 行動指令情報 S 1 6に付加情報として、 動作のパラ メータの情報を付加して、 例えば、 歩行方向を付加して、 姿勢遷移 機構部 4 2では、 「歩く」 という内容の姿勢遷移情報 S 1 6にその ようなパラメータを添付して、 制御機構部 4 3に送る。  Specifically, the motion command information S 16 is added with information on the motion parameters as additional information. For example, the walking direction is added. Such parameters are attached to the posture transition information S 16 and sent to the control mechanism 43.
なお、 上述の実施の形態では、 自己動作アークにパラメータを付 す場合について説明しているが、 これに限定されず、 有向アークに パラメータを付すこともできる。 これにより、 ノード間に 「歩く」 といった動作そのものは同じであるが、 そのパラメータとされるIn the above-described embodiment, a case is described in which a parameter is assigned to the self-operation arc. However, the present invention is not limited to this, and a parameter can be assigned to a directed arc. This allows "walking" between nodes Operation itself is the same, but it is the parameter
「歩行方向」 が異なる有向アークを複数用意する必要がなくなる。 また、 同じ動作を繰り返す場合には、 繰り返す回数を示す情報を 与えることで、 繰り返しの動作を実行させることができる。 例えば.It is not necessary to prepare a plurality of directed arcs having different “walking directions”. When the same operation is repeated, information indicating the number of repetitions can be given to execute the repeated operation. For example.
「歩く」 動作を実行させておき、 別に繰り返す回数と して 「 3回」 の情報をパラメータとして与えることにより、 命令形態を簡素にす ることができる。 これにより、 例えば、 3歩歩かせるような場合、The instruction form can be simplified by executing a “walking” motion and giving “3 times” information as a parameter as the number of repetitions. This allows you, for example, to walk three steps
「歩け」 といった指示を 3度出したり、 「 3歩歩け」 といった指示 としてではなく、 「歩け」 と 「3回 (3歩) 」 といった指示形態で 実行させることができるようになる。 これにより、 そのような指示 形態からなるアーク、 或いはノードの情報量を少なく して保持する ことができるようになる。 また、 繰り返しの回数を指定できるよう にすることで、 指示を出す回数と指示が伝達されるまでの時間を短 縮することができる。 Instead of issuing an instruction such as "walk" three times or as an instruction such as "walk three steps", it is possible to execute the instruction in the form of instructions such as "walk" and "three times (three steps)". As a result, it becomes possible to reduce the amount of information of the arc or node having such an instruction form and hold it. In addition, by allowing the number of repetitions to be specified, the number of times an instruction is issued and the time until the instruction is transmitted can be reduced.
例えば、 図 1 8に示すように、 一歩ずつ歩く動作の指示と して For example, as shown in Figure 18
「ワンステップウォーク」 の情報を制御機構部 4 3に出力し、 その パラメータとして 「 3」 を指示することにより、 3歩だけ歩く動作 をさせたり、 また、 パラメータとして 「 7」 を指示することにより、 7歩だけ歩く動作をさせたり、 さらに、 パラメータとして 「一 1」 を指示することにより、 足に対して他の指示があるまでずっと歩き 続ける動作をさせたりすることができる。 The information of "one-step walk" is output to the control mechanism 43, and by instructing "3" as its parameter, the user is allowed to walk three steps, or by instructing "7" as a parameter. It is possible to make the user walk only seven steps, or to continue walking until another instruction is given to the foot by specifying "1-1" as a parameter.
また、 繰り返し動作をさせておき、 後で、 制御機構部 4 3に繰り 返し動作の停止命令を与えてやることにより、 上述したように、 同 じ動作を繰り返して実行させることもできる。  In addition, it is possible to repeatedly execute the same operation as described above by performing a repetitive operation and giving a stop instruction for the repetitive operation to the control mechanism unit 43 later.
また、 所定のアークに対してある表現を貼り付けて実行させるこ ともできる。 すなわち、 所定の動作 (アーク) が実行された場合、 その動作に同期させて別の表現とされる動作を実行させることもで きる。 例えば、 図 1 9に示すように、 座り姿勢のノード N D!から立 ち姿勢のノード N D に遷移する際の有向アーク aが設定されている 場合に、 有向アーク aに所定の音声や動作を对応付けしておく こと もできる。 これにより、 座り姿勢から立ち姿勢へ遷移する動作に、 他の動作と して笑っている目の表情や、 " う〜ん" といった音声を 同期して再生することができるようになる。 このように異なる部位 の組合せで、 厚みのある表現が可能になり、 シナリオが豊かになる 効果も生まれる。 It is also possible to paste a certain expression for a given arc and execute it. Can also be. That is, when a predetermined operation (arc) is executed, an operation expressed as another expression can be executed in synchronization with the operation. For example, as shown in Fig. 19, the node ND! If a directed arc a is set when transiting to the node ND in a standing posture from, a predetermined voice or motion can be associated with the directed arc a. This makes it possible to synchronously reproduce the facial expressions of smiling eyes and voices such as "hmmmm" as other motions in the motion of transition from the sitting posture to the standing posture. In this way, the combination of different parts makes it possible to express thickly, and the effect of enriching the scenario is also created.
また、 各ノードに結合されている自己動作アークが重複している 場合がある。 例えば、 図 2 0に示すように、 寝姿勢のノード、 座り 姿勢のノードゃ立ち姿勢のノードそれぞれにおいて怒る動作をする ような場合である。  Also, the self-operation arcs connected to each node may overlap. For example, as shown in FIG. 20, there is a case where an angry operation is performed at each of the node in the sleeping posture, the node in the sitting posture, and the node in the standing posture.
このような場合、 「怒る」 という名前の動作を、 寝姿勢から寝姿 勢への自己動作アーク、 座り姿勢から座り姿勢への自己動作アーク、 立ち姿勢から立ち姿勢への自己動作アークとなる怒りを表現する動 作に命名しておけば、 「怒る」 という指示を与えるだけで、 最短経 路探索により、 一番近い 「怒る」 の動作 (自己動作アーク) を検索 することもできる。 すなわち、 目標とされる動作 (自己動作ァー ク) のうち最短で実行可能な一の動作までの経路を、 姿勢遷移計画 と して立てる。 これにより、 例えば、 現在の姿勢が寝姿勢に一番近 い場合において、 「怒る」 の行動指令情報 S 1 6が送られてきたと き、 寝姿勢のノードの自己動作アークとして結合されている怒る動 作として、 例えば寝た状態でガリガリ と地面をひっかく動作が実行 されるようになる。 In such a case, the action named “angry” is defined as a self-motion arc from a sleeping posture to a sleeping posture, a self-motion arc from a sitting posture to a sitting posture, and an anger that becomes a self-moving arc from a standing posture to a standing posture. By naming the action that expresses, it is possible to search for the closest “angry” action (self-motion arc) by searching for the shortest path, simply by giving the instruction “angry”. In other words, the path to the shortest executable action among the targeted actions (self-action function) is established as a posture transition plan. Thus, for example, when the current posture is closest to the sleeping posture, when the action command information S 16 of “angry” is sent, the angry character is connected as the self-operation arc of the sleeping posture node. As an operation, for example, an operation that scratches the ground and rubs while lying down Will be done.
このように複数のノードにおいて同一の動作を実行する自己動作 アークが存在するような場合において、 そのような所定の動作の指 令がなされた場合、 最短距離探索により最適な姿勢 (最短距離にあ る姿勢) における動作が実行可能になり、 これにより、 上位制御手 段は、 各部の状態或いは動作について常に把握しておく必要なく、 指示された動作を実行させることができるようになる。 すなわち、 例えば、 上位制御手段 (姿勢遷移機構部 4 2 ) は、 「怒る」 と指令 があった場合に、 現在のノードを把握するだけでよく、 実際の 「寝 た状態で怒る」 といったノードを探索することなく、 単に 「怒る」 の自己動作アークを探索するだけで、 最短距離の寝姿勢において怒 る動作までの姿勢遷移計画を立てることができる。  When there is a self-operation arc that performs the same operation at a plurality of nodes as described above, if such a predetermined operation is instructed, the shortest distance search is performed to determine the optimal posture (the shortest distance). (A posture in which the position is in a different position), thereby enabling the higher-level control means to execute the specified operation without always having to know the state or operation of each unit. That is, for example, when a command to “get angry” is issued, the higher-level control means (posture transition mechanism section 42) only needs to know the current node, and the actual node, such as “get angry while lying down”, is used. By simply searching for the “angry” self-motion arc without searching, it is possible to make a posture transition plan up to angry motion in the shortest sleeping posture.
また、 上述したように、 同じ系統の動作を同じ名前で指示した場 合、 予め登録したグラフ上で現在の姿勢から最適な動作を探索して 選択するようにしているので、 例えば 「怒る」 等の抽象的でかつ豊 富なパターンを持つ動作指示が簡潔に指示できるようになる。  In addition, as described above, when the same type of motion is designated by the same name, an optimal motion is searched for and selected from the current posture on a previously registered graph. Operation instructions with abstract and abundant patterns can be specified in a simple manner.
また、 ロボッ ト装置 1は、 各構成部分を別個に動作させることが 可能とされている。 すなわち、 各構成部分それぞれについての指令 を実行させることができる。 ここで、 ロボッ ト装置 (全体) 1のそ のような構成部分として、 図 2 1に示すように、 大別して頭部 2、 足部 4、 尻尾部 5が挙げられる。  Further, the robot apparatus 1 can operate each component separately. That is, the command for each component can be executed. Here, as shown in FIG. 21, such components of the robot device (whole) 1 are roughly divided into a head 2, a foot 4, and a tail 5.
このように構成されているロボッ ト装置 1において、 尻尾部 5 と 頭部 2 とを個別に動作させることができる。 つまり、 リ ソースが競 合しないので個別に動作させることができる。 一方、 ロボッ ト装置 1の全体と頭部 2とを別個に動作させることはできない。 つまり、 リ ソースが競合するので個別に動作させることはできない。 例えば、 指令の内容の中に頭部 2の動作が含まれているような全体の動作が 実行されている間は、 頭部 2についての指令の内容を実行すること はできない。 例えば、 頭部 2を振りながら尻尾部 5を振ることは可 能であり、 全身 (全体) を使った芸をしている最中に頭部 2を振る ことは不可能であるといったようにである。 In the robot device 1 configured as described above, the tail part 5 and the head part 2 can be operated individually. In other words, since resources do not compete, they can be operated individually. On the other hand, the entire robot device 1 and the head 2 cannot be operated separately. That is, They cannot be operated individually because of resource conflicts. For example, while the entire operation in which the content of the command includes the motion of the head 2 is being executed, the content of the command for the head 2 cannot be executed. For example, it is possible to shake the tail 5 while shaking the head 2, but it is impossible to shake the head 2 while performing a trick using the whole body (whole). is there.
表 1には、 行動決定機構部 4 1から送られてく る行動指令情報 S 1 6に、 リ ソースが競合する場合と、 リ ソースが競合しない場合の 組合せを示している。  Table 1 shows a combination of a case where resources compete and a case where resources do not compete with the action command information S16 sent from the behavior determining mechanism unit 41.
Figure imgf000051_0001
Figure imgf000051_0001
このように、 リ ソースが競合するような指令が送られてきた場合、 全体 1の動作についての指令又は頭部 2の動作についての指令のい P 3 In this way, when a command is sent that conflicts with resources, the command for the operation of the whole 1 or the command for the operation of the head 2 P 3
50 ずれか一方を先行して実行しなければならなくなる。 以下に、 その ような指令がなされている場合における処理について説明する。 リ ソースが競合するため、 一方の指令を先行して実行する場合、 例えば、 全体 1の動作を終了させてから、 頭部 2についての命令を 実行するような場合、 全体 1の動作により至った最後の姿勢から頭 部 2の動作が開始されることになる。 しかし、 全体 1の動作後の最 後の姿勢が、 頭部 2を振るといった動作を開始するのにふさわしい 姿勢になっているとは限らない。 全体 1の動作後の最後の姿勢が、 頭部 2の動作開始にふさわしい姿勢になっていない状態で、 すなわ ち、 異なる指令により遷移する前後の姿勢が不連続となるような場 合において、 頭部 2の動作を開始してしまう と、 頭部 2が急激な動 作を示し、 不自然な動作となってしまう場合がある。 この問題は、 現在の姿勢 (或いは動作) から目標とする姿勢 (或いは動作) が口 ボッ ト装置 1の全体と各構成部分にまたいでおり、 ロボッ ト装置 1 の全体を制御するために構築されているノード及びアークからなる ネッ トワーク (グラフ) と、 ロボッ ト装置 1の各構成部分を制御す るために構築されているノ一ド及びアークからなるネッ トワークOne or the other must be performed first. The processing in the case where such a command is issued will be described below. Due to resource conflicts, when one command is executed first, for example, when the operation of the entire head 1 is completed and then the instruction for the head 2 is executed, the operation of the entire head 1 is reached. The movement of the head 2 starts from the last posture. However, the final posture after the entire operation 1 is not necessarily a posture suitable for starting the operation such as shaking the head 2. In the case where the final posture after the operation of the whole 1 is not appropriate for the start of the operation of the head 2, that is, the posture before and after the transition by different commands becomes discontinuous, When the movement of the head 2 starts, the head 2 may show a sudden movement, which may result in an unnatural movement. The problem is that the target posture (or motion) from the current posture (or motion) extends over the entire mouth robot device 1 and each component, and is constructed to control the entire robot device 1. Network (graph) consisting of connected nodes and arcs, and a network consisting of nodes and arcs constructed to control each component of the robot device 1.
(グラフ) とが何らつながりを持たずに別個に構築されている場合 に生じる問題である。 (Graph) is a problem that occurs when they are constructed separately without any connection.
上述のように遷移する前後の姿勢が不連続であることに起因して ロボッ ト装置 1がなす不自然な動きは、 グラフ上において遷移動作 を滑らかにつなげるように姿勢遷移計画を立てることにより、 解消 される。 具体的には、 全体及び構成部分のグラフ上において共有す る基本姿勢を取り入れて、 姿勢遷移計画を立てることによりこれを 解消している。 ロボッ ト装置 1の姿勢遷移計画に使用するためのネッ トワークの 情報を、 図 2 2 Aに示すように、 全体のネッ トワークの情報 (ダラ フ) と、 各構成部分のネッ トワークの情報 (グラフ) とから、 全体 と して階層的構造として構成している場合について以下に説明する。 例えば、 全体のネッ トワークの情報 (グラフ) と、 各構成部分のネ ッ トワークの情報 (グラフ) とからなる姿勢遷移計画に使用する情 報は、 上述の図 8に示すように、 姿勢遷移機構部 4 2内において構 築されている。 As described above, the unnatural movement of the robot device 1 due to the discontinuity of the posture before and after the transition is performed by making a posture transition plan so as to smoothly connect the transition operations on the graph. Will be resolved. Specifically, this problem has been solved by introducing a basic posture shared on the graphs of the whole and constituent parts, and making a posture transition plan. As shown in Fig. 22A, the network information for use in the posture transition plan of the robot device 1 is shown in Fig. 22A. The entire network information (Darafu) and the network information of each component (Graph) ), The case where the whole is configured as a hierarchical structure will be described below. For example, the information used in the posture transition plan, which consists of the information (graph) of the entire network and the information (graph) of the network of each component, is represented by the posture transition mechanism shown in FIG. It is built in part 42.
基本姿勢は、 全体の動作と各構成部分の動作との間で状態を移行 するために一旦遷移される姿勢であって、 基本姿勢と しては、 例え ば、 図 2 2 Bに示すように、 座り姿勢が挙げられる。 基本姿勢を座 り姿勢とした場合について、 遷移動作を滑らかにつなげる手順を説 明する。  The basic posture is a posture that is temporarily changed in order to change the state between the entire operation and the operation of each component, and the basic posture is, for example, as shown in FIG. 22B. , Sitting posture. In the case where the basic posture is the sitting posture, the procedure to smoothly connect the transition motions is explained.
具体的に、 図 2 3に示すように、 現在の姿勢が全体のグラフの姿 勢 N D a 0と して把握され、 目標として頭部の動作 a 2を実行させる場 合について説明する。 Specifically, as shown in FIG. 2 3, current posture is understood as the attitude ND a 0 of the total of the graph will be described When executing the operation a 2 of the head as a target.
全体のグラフ上において、 ロボッ ト装置 1の全体の姿勢を、 現在 の姿勢 N D a。から基本姿勢 N D a bに遷移させる有向アーク a。を選択 する。 ここで、 全体が基本姿勢になる場合には、 頭部、 足部、 及び 尻尾部のグラフ上においても基本姿勢の状態 (ノード) として把握 されることとなる。 Throughout on the graph, the overall attitude of the robot apparatus 1, the current position ND a. Directed arc a to transition from to basic posture ND ab . Select. Here, when the entire body is in the basic posture, it is also grasped as the state (node) of the basic posture on the graph of the head, the feet, and the tail.
頭部のグラフでは、 基本姿勢 N D h bの状態から最適な有向アーク a ,が選択され、 目標とする頭部 2の動作 (自己動作アーク) a 2ま での経路が決定される。 In the graph of the head, the optimal directed arc a, is selected from the state of the basic posture ND hb , and the path to the target head 2 movement (self- moving arc) a 2 is determined.
ここで、 全体のグラフにおける現在の姿勢 N D a。から基本姿勢 N Dabまでの経路や、 頭部のグラフにおける基本姿勢 NDhbの状態か ら目標の動作 a までの経路の探索については、 上述したような最短 距離探索により行う。 Here, the current attitude ND a in the entire graph. From basic posture N The search for the path to Dab and the path from the state of the basic posture NDhb in the graph of the head to the target operation a is performed by the shortest distance search as described above.
このような手順により、 全体と各構成部分との間の動作を滑らか につなげるような遷移経路の選択 (姿勢遷移計画) 力 全体のダラ フと頭部のグラフとにおいてなされる。 そして、 制御機構部 4 3は、 姿勢遷移情報 S 1 9を姿勢遷移計画に基づいて制御機構部 4 3に出 力する。  By such a procedure, a transition path selection (posture transition plan) that smoothly connects the motion between the whole and each component part is made in the graph of the head and the whole force. Then, the control mechanism unit 43 outputs the posture transition information S19 to the control mechanism unit 43 based on the posture transition plan.
上述した例は、 全体の動作から各構成部の動作を滑らかにつなげ る具体例である。 次に、 各構成部分の動作から全体の動作を滑らか につなげる具体例について説明する。 具体的には、 図 24に示すよ うに、 頭部のグラフにおいて頭部 2が姿勢 NDh。として把握され、 足部のグラフにおいて足部 4が姿勢 ND ί0として把握され、 目標と して全体の動作 a 4を実行させる場合について説明する。 The above-described example is a specific example in which the operation of each component is smoothly connected from the entire operation. Next, a specific example in which the entire operation is smoothly connected from the operation of each component will be described. Specifically, as shown in FIG. 24, the head 2 has the posture ND h in the graph of the head. The following describes a case where the foot 4 is recognized as the posture ND 足 0 in the foot graph and the entire motion a 4 is executed as a target.
頭部のグラフ上において、 頭部 2の姿勢を、 現在の姿勢 NDh。か ら基本姿勢 NDa bに遷移させる有向アーク a。を選択する。 また、 足 部のグラフ上において、 足部 4の姿勢を、 現在の姿勢 ND f。から基 本姿勢 ND f bに、 姿勢 ND f ,を経由して遷移させる有向アーク a !, a 2を選択する。 なお、 尻尾部 5についてはもともと基本姿勢にある ものとする。 このように各構成部分が基本姿勢になる場合には、 全 体のグラフ上においても基本姿勢として把握されることになる。 On the graph of the head, the posture of the head 2 is the current posture ND h . Directed arc a to transition from basic posture ND ab to a. Select Also, on the foot graph, the posture of the foot 4 is defined as the current posture ND f . The basic attitude ND fb from oriented arc a for transitioning through orientation ND f, the!, Selects a 2. The tail 5 is assumed to be in the basic posture. When each component is in the basic posture in this way, it is also grasped as the basic posture on the entire graph.
そして、 全体のグラフ上では、 基本姿勢 NDhbの状態から最適な 有向アーク a 3が選択され、 目標とする全体の動作 (自己動作ァー ク) a までの経路が決定される。 And, on the whole graph, the selected optimal oriented arc a 3 from the reference position ND hb, overall operation and target route to (self operation § over click) a is determined.
例えば、 構成部分それぞれにおいての動作については、 基本姿勢 に遷移するときの他の構成部分の動作と同時に実行することでもよ く、 制限を付けて各構成部分の動作を実行するようにすることもで きる。 例えば、 あるタイ ミングにより行うようにすることでもよレ、。 具体的には、 頭部 2を使って芸をしている最中に全体 1 の動作につ いての指令がなされた場合には、 頭部 2については芸を実行してい る最中なので基本姿勢 N D h l)への遷移はできないので、 先ず、 足部 4を先に基本姿勢 N D f bの状態にしてから、 芸を終了した頭部 2を 基本姿勢 N D h bの状態に遷移させるようにするといつたようにであ る。 For example, for the operation of each component, The operation may be performed at the same time as the operation of the other components when transiting to, or the operation of each component may be executed with a restriction. For example, you can do it at a certain time. Specifically, if a command is given for the operation of the whole 1 while performing the trick using the head 2, since the trick is performed for the head 2, the basic Since the transition to posture ND hl) is not possible, first, when the feet 4 are first placed in the basic posture ND fb , and then the head 2 that has completed the trick is transitioned to the basic posture ND hb , As it was.
また、 全体 1の姿勢のバランス等を考慮に入れて、 各構成部分を 動作させるようにすることもできる。 例えば、 頭部 2と足部 4とを 同時に移動してしまうと、 或いは頭部 2を最初に基本姿勢 N D h bの 状態にしてしまう と、 バランスを失って、 転倒してしまうような場 合、 先に足部 4を基本姿勢 N D f bの状態にしてから、 頭部 2を基本 姿勢 N D h bの状態に遷移させるようにする。 In addition, each component can be operated in consideration of the balance of the posture of the whole 1 and the like. For example, if the head 2 and the foot 4 are moved at the same time, or if the head 2 is initially in the basic posture ND hb , the balance is lost and the vehicle falls down. First, the foot 4 is set to the basic posture ND fb , and then the head 2 is changed to the basic posture ND hb .
以上のように一旦基本姿勢に遷移されるような姿勢遷移計画を立 てることにより、 動作を滑らかにつなげることができる。  As described above, the motion can be connected smoothly by making a posture transition plan that makes a transition to the basic posture once.
また、 使用しない部位のリ ソースを開放することで他の目的に使 うことができるようになる。 例えば、 歩いているときに頭部 2のリ ソースを開放することで、 頭部 2を動くボールにトラッキング (追 従) させることができる。  In addition, by releasing resources at unused parts, they can be used for other purposes. For example, by releasing the resources of head 2 while walking, head 2 can be tracked by a moving ball.
なお、 基本姿勢は一つにすることに限定されるものではない。 例 えば、 座り姿勢や寝姿勢等の複数の姿勢を基本姿勢として設定する こともできる。 これにより、 最短の動作により、 全体の動作から各 構成部分の動作への移行、 或いは各構成部分の動作から全体の動作 への移行を、 最短距離 (最短時間) として行うことができる。 また、 このように複数の基本姿勢を設定しておく ことは、 ロボッ ト装置 1 の表現の豊富化につながある。 The basic position is not limited to one. For example, a plurality of postures such as a sitting posture and a sleeping posture can be set as the basic posture. This enables the transition from the entire operation to the operation of each component, or the operation of each component to the entire operation with the shortest operation. Transition to the shortest distance (shortest time). Setting a plurality of basic postures in this way leads to enrichment of the expression of the robot device 1.
また、 上述したような姿勢遷移機構部 4 2における姿勢や動作の 遷移経路の決定等は、 行動決定機構部 4 1からの行動指令情報 S 1 Also, the determination of the posture and movement transition path in the posture transition mechanism section 42 as described above is performed by the action command information S 1 from the action determination mechanism section 41.
6に基づいてなされるものである。 そして、 行動決定機構部 4 1で は、 行動決定指示情報 S 1 6を、 通常、 制限なく姿勢遷移機構部 4This is based on 6. Then, the action determining mechanism section 41 transmits the action determining instruction information S 16 normally without any restriction.
2に送ってくる。 すなわち、 動作が実行されている間にも他の動作 に関する指令は発生し、 姿勢遷移機構部 4 2にはそのようにして発 生した行動指令情報 S 1 6が送られてく る。 これに対応して、 姿勢 遷移制御部 4 2から送られてくる行動指令情報 S 1 6が蓄積される 指令保存部を備えている。 この指令保持部では、 行動決定機構部 4Sent to 2. In other words, commands relating to other operations are generated while the operations are being performed, and the action command information S 16 generated in this manner is sent to the posture transition mechanism section 42. In response to this, a command storage unit is provided for storing the action command information S16 sent from the posture transition control unit 42. In this command holding part, the action decision mechanism part 4
1が生成する行動指令情報 S 1 6を蓄積して、 さらに、 いわゆるリ ス ト操作が可能とされている。 指令保存部と しては例えばバッファ が挙げられる。 By accumulating the action command information S16 generated by 1, a so-called list operation is possible. An example of the command storage unit is a buffer.
これにより、 行動決定機構部 4 1から送られてきた指令が、 現時 点で実行不可能である場合、 例えば芸 (所定の動作) をしている最 中には、 そのような送られてきた指令がバッファに蓄積されること になる。 例えば、 バッファに、 図 2 5 Aに示すように、 新たに送ら れてきた指令 Dが新たにリス トとして加えられる。 そして、 芸を終 了してから、 通常は、 一番古い命令がバッファから取り出されて経 路探索が実行されていく。 例えば、 図 2 5 Aのように指令が蓄積さ れている場合、 一番古い指令 Aが先ず実行される。  As a result, if the command sent from the action decision mechanism 41 is not executable at the present time, for example, while performing a trick (predetermined operation), such a command is sent. The command will be stored in the buffer. For example, as shown in Fig. 25A, a newly sent command D is newly added to the buffer as a list. After completing the trick, the oldest instruction is usually fetched from the buffer and a path search is performed. For example, when commands are accumulated as shown in Fig. 25A, the oldest command A is executed first.
このようにバッファに指令が蓄積されて、 古い指令から順次実行 されていく力 指令を挿入 (インサート) したり、 指令を取り消し (キャンセル) したりするリス ト操作をすることもできる。 In this way, commands are accumulated in the buffer, and force commands that are executed sequentially from the old command are inserted (inserted), or commands are canceled. You can also perform a list operation to cancel (cancel).
指令の挿入では、 図 2 5 Bに示すように、 既に蓄積されている指 令群に指令 Dを揷入する。 これにより、 実行待ちにある指令 A、 B、 Cより優先させて指令 Dについての経路探索を実行させることがで きるようになる。  In inserting a command, as shown in Fig. 25B, the command D is inserted into the already stored command group. As a result, the route search for the command D can be executed in preference to the commands A, B, and C waiting for execution.
また、 指令の取消しでは、 バッファに蓄積されている指令を取り 消す。 これにより、 何らかの理由により不要となった指令を実行さ れないようにすることができる。  When canceling a command, the command stored in the buffer is canceled. As a result, a command that is no longer needed for some reason can be prevented from being executed.
また、 ノ ッファは、 上述したように、 ロボッ ト装置 1の全体と各 構成部分とに対応して、 複数の指令保存領域を有することもできる。 この場合、 全体、 各構成部分毎についての動作の指令が、 図 2 6に 示すように、 蓄積されていく。 このように、 全体と各構成部分とに 対応した指令をそれぞれ保存する領域を備えることにより次のよう な操作が可能になる。  Further, as described above, the buffer can have a plurality of command storage areas corresponding to the entire robot apparatus 1 and each component. In this case, the operation commands for the whole and each component are accumulated as shown in FIG. As described above, the following operations can be performed by providing the areas for storing the commands corresponding to the whole and each component.
異なる構成部分、 例えば頭部と足部との動作を同期して再生させ る同期情報を添付しておく こともできる。 例えば、 図 2 7に示すよ うに、 頭部 2 と足部 4との指令保存領域にそれぞれ保存された指令 に再生を開始する順番の情報を付し、 同期情報として、 同じ順番の 情報、 例えば 5番目に再生開始される情報を割り当てるなどする。  Synchronization information for synchronizing and reproducing movements of different components, for example, a head and a foot, can be attached. For example, as shown in FIG. 27, the information stored in the command storage areas of the head 2 and the foot 4 is appended with information on the order in which playback is started, and the information in the same order is used as synchronization information. For example, assign information to be played fifth.
これにより、 仮にその 2つ前に実行開始されている 3番目の頭部 2の動作が、 一つ前に実行開始された 4番目の足部 4の動作より先 に終了したような場合でも、 頭部 2について 5番目の指令だけ先に 実行開始されないように、 同じ 5番目の情報のついた足部 4の 4番 目の動作の再生が終了を待ってから、 5番目の情報の付いた頭部 2 と足部 4の動作の再生要求を同時に出すことが可能になる。 これに より例えば頭部 2を横に振る動作の開始と、 足部 4を左右に傾ける 動作の開始を同じタイミングで出すことにより、 よりィンパク トの 大きいロボッ ト装置 1の表現が可能になる。 By this, even if the motion of the third head 2 that was started to execute two times before that ended before the operation of the fourth foot 4 that was started just before, Waiting for the 4th motion of foot 4 with the same 5th information to finish playing so that the 5th command is not executed before the 5th command for head 2 It is possible to simultaneously issue a request for reproducing the movement of the head 2 and the foot 4. to this For example, by giving the start of the operation of swinging the head 2 sideways and the start of the operation of tilting the foot 4 right and left at the same timing, it is possible to express the robot device 1 with a greater impact.
また、 リス ト操作により、 実行前や実行中の一連の動作の計画を 途中で中止したり、 優先度の高い指令を後から早い順番に割り込ま せることができるので、 柔軟性に富んだシナリオを組み立てること ができる。  In addition, the list operation allows you to cancel the planning of a series of operations before or during execution, or to interrupt a high-priority command in the early order afterward. Can be assembled.
以上のように行動決定機構部 4 1から送られてきた行動指令情報 S 1 6に基づいてなされる目標とされる姿勢或いは動作までの最適 経路の検索、 及び姿勢遷移計画の決定は、 例えば、 姿勢遷移機構部 4 2が図 2 8に示すような動作経路探索装置 6 0を備えることによ り実現される。  As described above, the search of the optimal path to the target posture or the movement and the determination of the posture transition plan made based on the action command information S16 sent from the action determination mechanism unit 41 are as follows, for example. This is realized by the posture transition mechanism section 42 including the motion path search device 60 as shown in FIG.
動作経路探索部 6 0は、 指令保持部 6 1、 経路探索部 6 2及びグ ラフ保存部 6 3を備えている。  The operation route search unit 60 includes a command holding unit 61, a route search unit 62, and a graph storage unit 63.
行動決定機構部 4 1から全体或いは各構成部分についての指令が この動作経路探索部 6 0に与えられるが、 例えば、 目標の姿勢或い は動作の部位 (例えば頭部) 、 現在の指令と過去に出した一連の指 令に対してのリス ト操作の命令、 或いは指令そのものの特徴の情報 等が行動指令情報 S 1 6に添付されてく る。 以下、 添付されく る情 報を添付情報という。  A command for the whole or each component is given to the motion path search unit 60 from the action determination mechanism unit 41. For example, a target posture or a motion part (for example, a head), a current command and a past command A list operation command for a series of commands issued in the above or information on characteristics of the command itself is attached to the action command information S16. Hereinafter, the attached information is referred to as attached information.
ここで、 現在の指示と過去に出した一連の指示に対してのリス ト 操作の命令とは、 例えば図 2 5 Bを用いて説明した新たに発生した 指令を未実行の指示郡の一番先頭に挿入するための命令である。 ま た、 指令そのものの特徴の情報 (以下、 指令特徴情報という。 ) と は、 図 1 7において説明した歩行方向のパラメータ、 図 1 8におい て説明した指令のパラメータ、 例えば動作が 「前に歩く」 なら 「 3 歩」 といったパラメータ、 或いは図 1 9において説明した別の動作 を同期させるための情報である。 Here, the list operation instruction for the current instruction and a series of instructions issued in the past includes, for example, the newly generated instruction described with reference to FIG. Instruction to insert at the beginning. The characteristic information of the command itself (hereinafter referred to as command characteristic information) is the parameter of the walking direction described in FIG. This is a parameter of the command described above, for example, a parameter such as “three steps” if the operation is “walk forward”, or information for synchronizing another operation described in FIG.
指令保存部 6 1は、 上述したように、 行動決定機構部 4 1から送 られてくる行動指令情報 S 1 6を保存するものであって、 例えば、 バッファである。 指令保存部 6 1は、 行動指令情報 S 1 6に添付'情! ¼ 報がある場合には、 その添付情報の内容に基づいた処理をする。 例 えば、 添付情報にリス ト操作の情報として指令の挿入命令がある場 合、 その内容に応じて、 届いたばかりの行動指令情報 S 1 6を、 指 令保存部 6 1で待ち状態になっている指令列の先頭に挿入する操作 も合わせて行う。  The command storage unit 61 stores the action command information S16 sent from the action determination mechanism unit 41 as described above, and is, for example, a buffer. When there is information attached to the action command information S16, the command storage unit 61 performs a process based on the content of the attached information. For example, if the attached information includes an instruction to insert a command as list operation information, the command storage unit 61 waits for the action command information S16 that has just arrived according to the content of the command. The operation to insert it at the beginning of the command sequence is also performed.
また、 指令保存部 6 1は、 添付情報と して指令特徴情報がある場 合には、 それもその指令と一緒に保存する。  In addition, if there is command characteristic information as attached information, the command storage unit 61 also stores it together with the command.
この指令保存部 6 1は、 現在どの指令が実行中でどの指令が何番 目の順番待ち状態になっているかを把握している。 これを実現する には例えば指令に順番を付けて保存している。  The command storage unit 61 keeps track of which command is currently being executed and which command is waiting for which turn. To achieve this, for example, instructions are stored in order.
また、 指令保存部 6 1は、 上述したように、 例えば全体 1、 頭部 2、 足部 4、 尻尾部 5に対応して 4つ保存領域を持っている。 そし て、 指令保存部 6 1は、 頭部 2を動作させる指令が実行中のときは 全体を動作させる指令が実行できないとか、 頭部 2を動作させてい る指令と、 足部 4を動作させる指令とを関係なく出すことができる とかの判断をくだすこともできる。 すなわち、 全体と各構成部分と のリ ソースが競合するような指令の出力を防止するような処理、 い わゆるリ ソースの競合の解決を行うことができる。  Further, as described above, the command storage unit 61 has four storage areas corresponding to, for example, the whole 1, the head 2, the feet 4, and the tail 5. Then, the command storage unit 61 operates the head 2 if the command to operate the head 2 is being executed, the command to operate the entire head cannot be executed, or the command to operate the head 2 and the foot 4 It is possible to make a judgment that the command can be issued regardless of the command. In other words, it is possible to perform a process for preventing the output of a command in which the resources of the whole and each component conflict with each other, and to solve the so-called resource conflict.
また、 指令保存部 6 1は、 異なる部位間にまたいで指令が出され た順番も覚えており、 例えば全体 1、 足部 4、 頭部 2、 全体 1の順 番で指令が送られてきたときは、 指令保存部 6 1の全体 1について の指令を 1番目と 4番目とになされた指令と して保存し、 足部 4に ついての指令を 2番目になされた指令と して保存し、 頭部 2につい ての指令を 3番目の指令として保存して、 その順番を覚えている。 これにより、 指令保存部 6 1は、 先ず、 1番目になされた全体 1の 指令を経路探索部 6 2に送り、 その指令の内容が再生終了次第、 2 番目になされた足部 4の指令と 3番目になされた頭部 2の指令とを 送り、 各構成部がその指令の内容を再生終了したら、 4番になされ た全体 1の指令を経路探索部 6 2に送る。 In the command storage unit 61, commands are issued across different parts. For example, if commands are sent in the following order: 1 for the whole, 4 for the feet, 2 for the head, and 1 for the whole, the commands for the entire 1 in the command storage unit 6 1 Save as the second command, save the command for foot 4 as the second command, save the command for head 2 as the third command, I remember the order. As a result, the command storage unit 61 first sends the first command of the entire command 1 to the route search unit 62, and as soon as the content of the command has been reproduced, the command command of the second command for the foot 4 is transmitted. The third command of the head 2 is sent, and when each component finishes reproducing the contents of the command, the fourth command of the fourth command is sent to the route search unit 62.
経路探索部 6 2は、 指令保存部 6 1から送られてきた指令により 上述したようないわゆる経路探索を開始する。 グラフ保存部 6 3に は、 指令保存部 6 1で区分されたのと同様の部位毎に対応してダラ フが保存されている。 すなわち、 図 2 2 Aに示したような全体 1 、 頭部 2、 足部 4、 及び尻尾部 5それぞれに対応されるグラフが保存 されている。 経路探索部 6 2は、 このグラフ保存部 6 3に保存され ている各グラフに基づいて、 指令の内容である目標とされる姿勢或 いは動作までの最適経路を、 上述したような距離や重み等を指標と して探索し、 姿勢遷移計画を立てる。  The route search unit 62 starts the so-called route search as described above according to the command sent from the command storage unit 61. In the graph storage unit 63, a draf is stored corresponding to each of the parts similar to those classified in the command storage unit 61. That is, a graph corresponding to each of the whole 1, the head 2, the foot 4, and the tail 5 as shown in FIG. 22A is stored. The route searching unit 62 determines, based on the graphs stored in the graph storage unit 63, the optimal route to the target posture or operation, which is the content of the command, as described above in the distance or distance. Search using the weights etc. as an index and make a posture transition plan.
そして、 経路探索部 6 2は、 経路探索により取得した姿勢遷移計 画に基づいて、 目標の姿勢或いは動作が実行されるまで、 制御機構 部 4 3に姿勢遷移情報 S 1 8を送出していく。  Then, the route search unit 62 sends the posture transition information S 18 to the control mechanism unit 43 until the target posture or the motion is executed based on the posture transition plan acquired by the route search. .
以上のように姿勢遷移機構部 4 2は、 行動決定機構部 4 1から送 られてきた行動指令情報 S 1 6に基づいて、 指令により 目標とされ る姿勢或いは動作までの最適経路を検索をして姿勢遷移計画を立て、 その姿勢遷移計画に従って、 姿勢遷移情報 S 1 8を制御機構部 4 3 に出力する。 As described above, based on the action command information S16 sent from the action determination mechanism section 41, the attitude transition mechanism section 42 searches for the optimal path to the attitude or motion targeted by the command. Make a posture transition plan, In accordance with the posture transition plan, posture transition information S 18 is output to the control mechanism 43.
( 3 - 5 ) 制御機構部における処理  (3-5) Processing in control mechanism
図 3に戻って、 制御機構部 4 3は、 姿勢遷移情報 S 1 8を基にァ クチユエータ 2 3を駆動させるための制御信号 S 5を生成し、 これ をァクチユエータ 2 3に送出して当該ァクチユエータ 2 3を駆動さ せることにより、 ロボッ ト装置 1に所望の動作を行わせるようにな されている。  Returning to FIG. 3, the control mechanism section 43 generates a control signal S5 for driving the actuator 23 based on the posture transition information S18, and sends it to the actuator 23 to transmit the control signal S5 to the actuator 23. By driving 23, the robot device 1 is made to perform a desired operation.
また、 制御機構部 4 3は、 目標とされる姿勢或いは動作に到達す るまで、 姿勢遷移情報 S 1 8に基づいてなされた動作の終了通知 Further, the control mechanism unit 43 notifies the end of the operation performed based on the posture transition information S 18 until the target posture or the operation is reached.
(再生結果) を経路探索部 6 2に返す。 終了通知を受け取った経路 探索部 6 2はグラフ保存部 6 3に対して動作の終了を通知する。 グ ラフ保存部 6 3はグラフ上の情報を更新する。 すなわち例えば、 姿 勢遷移情報 S 1 8が、 足部 2を座り姿勢の状態から座り姿勢の状態 への遷移動作をさせるものであった場合、 終了通知を受けたグラフ 保存部 6 3は、 寝姿勢の状態に対応された足部 2のノードのグラフ 位置を、 座り姿勢のグラフ位置に移動させる。 (Reproduction result) is returned to the route search unit 62. The route search unit 62 that has received the end notification notifies the graph storage unit 63 of the end of the operation. The graph storage unit 63 updates information on the graph. That is, for example, if the posture transition information S 18 is to cause the foot 2 to perform a transition operation from the sitting posture state to the sitting posture state, the graph storage unit 63 that has received the end notification The graph position of the node of the foot 2 corresponding to the posture state is moved to the graph position of the sitting posture.
例えば、 目標とされる動作が、 座り姿勢において 「足をばたばた させる」 (自己動作アーク) というようなものであった場合には、 さらに、 経路探索部 6 2は、 「足をばたばたさせる」 を姿勢遷移情 報 S 1 8 と して制御機構部 4 3に送り、 制御機構部 4 3では姿勢遷 移情報 S 1 8に基づいて、 足部 4をばたばたさせるための制御情報 を生成し、 これをァクチユエータ 2 3に送出して足部 4をばたばた させる動作を実行させる。 制御機構部 4 3は、 所望の動作を再生し たら、 その終了通知を再び経路探索部 6 2に送る。 経路探索部 6 2 T 0263 For example, if the target motion is something like “flapping a foot” (self-moving arc) in a sitting posture, the route search unit 62 further executes “flapping a foot”. It is sent to the control mechanism section 43 as the posture transition information S 18, and the control mechanism section 43 generates control information for flapping the foot 4 based on the posture transition information S 18, Is sent to the actuator 23 to cause the foot 4 to flutter. After reproducing the desired operation, the control mechanism unit 43 sends the end notification to the route search unit 62 again. Route search section 6 2 T 0263
60 は足部 4をばたばたさせる動作が終了したことをグラフ保存部 6 3 に伝える。 しかし、 自己動作アークの場合には、 グラフ上の情報を 更新する必要がないので、 現在の足部 4の姿勢が座り姿勢まで進ん でいるが、 足部 4をばたばたさせた終了姿勢がその動作開始前の姿 勢と同じ足部の座り姿勢なので、 グラフ保存部 6 3は足部 4の現在 の姿勢位置を変更しない。 60 informs the graph storage section 63 that the action of flapping the foot section 4 has been completed. However, in the case of a self-moving arc, the information on the graph does not need to be updated, and the current posture of the foot 4 has advanced to the sitting posture. Since the posture of the foot is the same as the posture before the start, the graph storage unit 63 does not change the current posture position of the foot 4.
一方、 経路探索部 6 2は、 目標とされる姿勢或いは動作の再生が 終了した旨を指令保存部 6 1に通知する。 指令保存部 6 1では、 目 標とされる姿勢或いは動作が無事完了したので、 すなわち、 指令の 内容が無事遂行されたので、 当該指令を消去する。 例えば、 目標と される動作として、 上述したように足をばたばたさせるを与えてい た場合には、 足部 4の指令保存領域からからその指令を消去する。 以上のように、 行動決定機構 4 1、 動作経路探索部 6 0、 及び制 御機構部 4 3が情報を授受することによりそれら行動決定機構 4 1 、 動作経路探索部 6 0、 及び制御機構部 4 3の基本的な機能が実現さ れている。  On the other hand, the route search unit 62 notifies the command storage unit 61 that the reproduction of the target posture or motion has ended. In the command storage unit 61, since the target posture or operation has been successfully completed, that is, since the content of the command has been successfully executed, the command is deleted. For example, if the target action is to flap the foot as described above, the command is deleted from the command storage area of the foot 4. As described above, the action determining mechanism 41, the motion path searching section 60, and the control mechanism section 43 exchange information, whereby the action determining mechanism 41, the motion path searching section 60, and the control mechanism section. 43 basic functions have been realized.
なお、 図 2 9には、 行動決定機構部 4 1にて生成された指令 (行 動指令情報 S 1 6 ) に基づいて行う動作経路探索部 6 0の経路探索、 及び経路探索結果に基づいて行われる動作の一連の処理手順を示し ている。  FIG. 29 shows a route search performed by the motion route search unit 60 based on the command (behavior command information S 16) generated by the action determination mechanism unit 41, and a result based on the route search result. It shows a series of processing procedures for the operations to be performed.
先ず、 ステップ S P 1において、 行動決定機構部 4 1から動作経 路探索部 6 0に指令が与えられ、 続くステップ S P 2において、 動 作経路探索部 6 0の指令保存部 6 1では、 その指令に指令群に加え る。  First, in step SP1, a command is given from the action determination mechanism unit 41 to the operation route search unit 60, and in the following step SP2, the command storage unit 61 of the operation route search unit 60 outputs the command. To the group of directives.
例えば、 図 2 6に示すように、 尻尾部の指令が加えられる。 また、 指令にリス ト操作としてィンサートをする命令情報が付加されてい る場合には、 それに応じて指令が指令列内に挿入される。 For example, as shown in Figure 26, a tail command is added. Also, If the command has instruction information to insert it as a list operation, the command is inserted into the command sequence accordingly.
続くステップ S P 3において、 指令保存部 6 1は、 開始できる指 令があるかどうかを判別する。  In the following step SP3, the command storage unit 61 determines whether there is a command that can be started.
例えば、 指令保存部 6 1力 、 図 2 6に示すように、 全体について の指令を 1番目の指令 (現在再生中の指令) として、 頭部について の蓄積された指令を 2番目と 3番目の指令と して、 足部についての 指令を 4番目の指令として、 そして尻尾部 5について蓄積された指 令を 5番面と 6番面の指令として、 それぞれ把握している場合には、 全体についての 1番目の指令が実行中である場合には、 開始できる 指令がないと判別される。  For example, as shown in FIG. 26, the command storage unit 61 stores the command for the whole as the first command (the command currently being reproduced), and the stored commands for the head as the second and third commands. If the command for the foot is recognized as the fourth command, and the command accumulated for the tail 5 is recognized as the command for the No. 5 and No. 6 commands, the entire command is recognized. If the first command is executed, it is determined that there is no command that can be started.
開始できる指令がない場合には、 ステップ S P 4に進み、 開始で きる指令がある場合には、 ステップ S P 5に進む。 ステップ S P 3 に進んだ時点で、 ロボッ ト装置 1の全体が動作をしている最中では、 各構成部分についての指令を実行することができないので、 ステツ プ S P 4に進むことになり、 一方、 ステップ S P 3に進んだ時点で、 動作が終了している場合には、 ステップ S P 5に進むことになる。 ステップ S P 4では、 所定時間の経過を待つ。 例えば、 0 . 1秒 経過するのを待って、 再び、 ステップ S P 3において、 開始できる 指令があるか否かを判別する。  If there is no command that can be started, the process proceeds to step SP4. If there is a command that can be started, the process proceeds to step SP5. At the time of proceeding to step SP3, while the entire robot apparatus 1 is operating, it is not possible to execute a command for each component, so the procedure proceeds to step SP4. If the operation has been completed at the time of proceeding to step SP3, the process proceeds to step SP5. In step SP4, a predetermined time is waited. For example, after elapse of 0.1 second, it is determined again in step SP3 whether or not there is a command that can be started.
例えば、 ステップ S P 4において 0 . 1秒経過するのを待ったこ とにより、 図 2 6に示す全体について実行中であった指令 ( 1番目 の指令) が終了した場合には、 ステップ S P 3において、 頭部につ いての 2便目の指令、 足部についての 4番目になされた指令、 そし て、 尻尾部についての 5番目の命令が開始できる指令として同時に 把握されるようになる。 For example, if the command (the first command) that was being executed for the whole shown in FIG. 26 ends after waiting for 0.1 seconds to elapse in step SP4, in step SP3, At the same time as the second flight command for the head, the fourth command for the foot, and the fifth command for the tail Become grasped.
なお、 頭部についての 3番目の指令については、 頭部についての 2番目の指令の実行が終了次第、 開始できる指令と して把握され、 また、 尻尾部についての 6番目に指令については、 頭部についての 5番目の指令の実行が終了次第、 開始できる指令として把握される ようになる。  Note that the third command for the head is recognized as a command that can be started as soon as the execution of the second command for the head is completed, and the sixth command for the tail is the head command. As soon as the execution of the fifth command for the department is completed, it will be recognized as a command that can be started.
このように、 ステップ S P 3においてすぐに開始できる指令がな い場合に、 ステップ S P 4に進み、 所定時間経過するのを待つこと により、 全体或いは各構成部分において所定の動作が終了するまで 待ち、 適切なタイ ミングにより次の指令を実行することができるよ うになる。  As described above, when there is no command that can be started immediately in step SP3, the process proceeds to step SP4 and waits for a predetermined time to elapse, thereby waiting until a predetermined operation is completed in the whole or each component. With the right timing, the next command can be executed.
ステップ S P 5では、 経路探索部 6 2が指令保存部 6 1カゝら送ら れてきた次の指令の内容に基づいて、 グラフ保存部 6 3に保存され ているその指令に対応するグラフ上の現在の姿勢から目標の姿勢ま での動作経路が見つかるか否かを判別する。  In step SP5, based on the contents of the next command sent from the command storage unit 61, the route search unit 62 displays a graph corresponding to the command stored in the graph storage unit 63 on the graph. It is determined whether or not a motion path from the current posture to the target posture can be found.
例えば、 頭部 2の動作についての指令である場合には、 図 3 0に 示すように、 頭部のグラフ上において、 現在の姿勢 (状態) から目 標とする状態或いは動作まで到達できる経路があるか否かを判別す る。 経路が見つかる場合とは、 指令の目標とされる状態或いは動作 までパス (アーク) が存在する場合であり、 図 3 0に示すように、 現在の姿勢から目標の姿勢に到達できる複数の有向アーク a。, a , が存在する場合であり、 経路が見つからない場合とは、 指示された 状態或いは動作までのパスが存在しない場合である。  For example, in the case of a command for the movement of the head 2, as shown in FIG. 30, a path that can reach from the current posture (state) to the target state or movement on the graph of the head. Determine if there is. A path is found when there is a path (arc) to the target state or operation of the command, and as shown in Fig. 30, a plurality of directional points that can reach the target posture from the current posture. Arc a. , A, and the route is not found when the path to the indicated state or operation does not exist.
ここで、 現在の姿勢から目標の姿勢までの遷移経路が見つからな い場合には、 ステップ S P 6に進み、 見つかった場合には、 ステツ プ S P 7に進む。 また、 目標の姿勢 (或いは動作) までの遷移経路 が見つかった場合、 その経路 (アーク) a k (kは、 0を含めた nま での整数である。 ) を記憶し、 これが姿勢遷移計画の情報となる。 ステップ S P 6では、 動作経路が見つからなかったと して、 指令 保存部 6 1がその指令をリス トから消去する。 このように動作経路 が見つからなかった場合に当該指令を消去することにより、 後に続 く指令が取り出せるようになる。 このような指令の消去をした後、 再び、 ステップ S P 3において、 指令保存部 6 1は、 開始できる指 令があるか否かを判別する。 Here, if the transition path from the current posture to the target posture cannot be found, the process proceeds to step SP6. Proceed to SP7. If a transition path to the target posture (or motion) is found, the path (arc) a k (k is an integer up to n including 0) is stored, and this is the posture transition plan. Information. In step SP6, the command storage unit 61 deletes the command from the list, assuming that no operation path was found. As described above, when the operation path is not found, by deleting the command, the subsequent command can be retrieved. After erasing such a command, again in step SP3, the command storage unit 61 determines whether or not there is a command that can be started.
ステップ S P 7では、 i = 0を設定する。 その後のステップ S P 8において、 iが n以下か否かについて判別がなされる。 ここで、 i が nである場合とは、 目標とされる姿勢或いは動作が完了したこ とをいう。 すなわち、 n番目のアークが、 目標とされるノードに直 接遷移する有向アーク a n或いは目標とされた自己動作アーク a n となる。 なお、 i = 0である場合には、 少なく ともこのステップ S P 8で、 i が n以下であると確認されることになる。  In step SP7, i = 0 is set. In the subsequent step SP8, it is determined whether or not i is equal to or less than n. Here, the case where i is n means that the target posture or motion has been completed. That is, the n-th arc is a directed arc an that directly transitions to a target node or a targeted self-acting arc an. If i = 0, it is confirmed that i is n or less at least in step SP8.
i が n以下である場合には、 ステップ S P 1 0に進み、 iが nよ り も大きい場合には、 ステップ S P 9に進む。  If i is less than or equal to n, the process proceeds to step SP10, and if i is greater than n, the process proceeds to step SP9.
ステップ S P 1 0では、 制御機構部 4 3は、 経路探索部 6 2から 送られてく る姿勢遷移情報 S 1 8に基づいて、 アーク a iの再生を行 う。 例えば、 図 3 0に示すように、 現在の姿勢 (最初の姿勢) にあ つた場合には、 最初の一つ目の有向アーク a。の動作をする。  In step SP 10, the control mechanism section 43 reproduces the arc a i based on the posture transition information S 18 sent from the route search section 62. For example, as shown in Fig. 30, if you are in the current posture (initial posture), the first directed arc a. Works.
ステップ S P 1 1では、 経路探索部 6 2が動作の終了の通知を受 けて、 ステップ S P 1 2では、 グラフ保存部 6 3がグラフ上の姿勢 の位置を更新させる。 続く、 ステップ S P 1 3において、 次のアークを実行するために、 i を i = i + l とし、 インク リメントする。 続いて、 ステップ S P 8に戻って、 再び i が n以下か否かについて判別がなされる。 In step SP11, the route search unit 62 receives the notification of the end of the operation, and in step SP12, the graph storage unit 63 updates the position of the posture on the graph. In the following step SP13, i is set to i = i + l and incremented to execute the next arc. Subsequently, returning to step SP8, it is determined again whether i is equal to or less than n.
i が nより大きい場合、 すなわち、 目標とされる姿勢までの動作 が実行された場合、 或いは目標とされる動作と してのアーク (有向 アーク又は自己動作アーク) が実行された場合に実行されるステツ プ S P 9において、 指令保存部 6 1は、 保存されている指令から終 了したばかりの指令を消去する。 そして、 ステップ S P 3に戻って、 指令保存部 6 1は再び、 開始できる指令があるかどうかを判別する。 なお、 目標とされる姿勢或いは動作が、 全体と各構成部分にまた いでいるような場合、 ステップ S P 5及びステップ S P 6では、 図 2 3及び図 2 4を用いて説明したように、 それぞれに対応されるグ ラフ上において最適な経路を検索をして、 ステップ S P 7以降の処 理においては、 それに応じた処理を行う。 すなわち、 基本姿勢に遷 移させて、 目標とする姿勢或いは動作までの有向アークの内容を実 行する。  Executes when i is larger than n, that is, when the operation up to the target posture is executed, or when the arc (directed arc or self-operation arc) as the target operation is executed In step SP9, the command storage unit 61 deletes the command that has just ended from the stored commands. Then, returning to step SP3, the command storage unit 61 determines again whether there is a command that can be started. If the target posture or motion extends over the whole and each component, at steps SP5 and SP6, as described with reference to FIGS. The optimal route is searched on the corresponding graph, and the processing corresponding to that is performed in the processing after step SP7. That is, the transition to the basic posture is performed, and the contents of the directed arc up to the target posture or operation are executed.
また、 指令は上述のように指令保存部 6 1に蓄積されていき、 口 ボッ ト装置 1の各構成部分は、 リ ソースが競合しないので、 そのよ うな指令に基づいて同時進行的な動作が可能となる。 このようなこ とから、 上述したような処理手順 (フロー) については、 各構成部 分についてのフローも並存することになり、 同時進行的に複数のフ ローが実行されていく こともある。 よって、 例えば、 全体の指令に ついてのフローが処理されている場合にあっては各構成部分の指令 についてのフローの処理を行わないで、 待ち状態になる。  The commands are stored in the command storage unit 61 as described above. Since the components of the mouth bot 1 do not compete for resources, simultaneous operations are performed based on such commands. It becomes possible. For this reason, in the processing procedure (flow) as described above, the flow for each component also exists, and a plurality of flows may be executed simultaneously. Therefore, for example, when the flow for the entire command is being processed, the flow goes to the wait state without performing the flow for the command for each component.
( 4 ) 動作及び効果 以上の構成において、 コントローラ 3 2の感情 ·本能モデル部 4 0は、 供給される入力情報 S 1〜S 3に基づいて、 ロボッ ト装置 1 の感情及び本能の状態を変化させ、 この感情及び本能の状態の変化 をロボッ ト装置 1の行動に反映させることにより、 自分の感情や本 能の状態に基づいて自律的に行動させる。 (4) Operation and effects In the above configuration, the emotion and instinct model section 40 of the controller 32 changes the emotion and instinct of the robot device 1 based on the supplied input information S1 to S3. By reflecting the change in the state of the robot device 1 on the behavior of the robot device 1, the robot device can act autonomously based on its own emotions and the state of the instinct.
そして、 ノ一ド及びアークを登録したグラフに基づいて多種の姿 勢及び動作を遷移させていく ことにより、 ロボッ ト装置 1による多 彩な表現が可能になる。  Then, by changing various postures and actions based on the graph in which the nodes and arcs are registered, various expressions by the robot device 1 can be realized.
すなわち、 予め登録したグラフを用いることで、 動作の組合せに よる表現のパターンが多く持てるようになる。 また、 現在の姿勢か ら目標とする姿勢或いは動作までの無理のない滑らかな姿勢の遷移 が可能になり、 動きの途中でバランスを不用意に崩してしまうこと もない。  That is, by using a graph registered in advance, it becomes possible to have many patterns of expressions based on combinations of actions. In addition, it is possible to smoothly transition from the current posture to the target posture or movement, and the balance is not inadvertently lost during the movement.
( 5 ) 他の実施の形態  (5) Other embodiments
なお、 上述の実施の形態では、 リモー トコントローラから赤外線 光によって送られてきたユーザの指令を受信するようにした場合に ついて述べたが、 本発明はこれに限らず、 例えば電波や音波によつ て送られてきたユーザの指令を受信するようにしてもよい。  In the above-described embodiment, a case has been described in which a user's command sent from a remote controller by infrared light is received. However, the present invention is not limited to this. Alternatively, the user's command sent may be received.
また、 上述の実施の形態では、 ユーザからの指令をリモートコン トローラ受信部 1 3及びマイク 1 1でなるコマンド受信部 3 0を介 して入力するようにした場合について述べたが、 本発明はこれに限 らず、 例えばロボッ ト装置 1にコンピュータを接続し、 当該接続さ れたコンピュータを介してユーザの指令を入力するようにしてもよ レ、。  Further, in the above-described embodiment, a case has been described in which a command from a user is input via the command receiving unit 30 including the remote controller receiving unit 13 and the microphone 11. However, the present invention is not limited to this. For example, a computer may be connected to the robot device 1 and a user's command may be input via the connected computer.
また、 上述の実施の形態では、 図 4に示したように、 「うれし さ」 、 「悲しさ」 、 「怒り」 等という情動を示す情動ュニッ ト 5 0 A〜 5 0 Fと、 「運動欲」 、 「愛情欲」 等という欲求を示す欲求ュ ニッ ト 5 1 A〜 5 1 Dとを用いて感情及び本能の状態を決定するよ うにした場合について述べたが、 本発明はこれに限らず、 例えば情 動ユニッ トに 「寂しさ」 という情動を示す情動ユニッ トを追加した り、 欲求ュニッ ト 5 1に 「睡眠欲」 という欲求を示す欲求ュニッ ト を追加してもよく、 この他種々の種類や個数の組合せでなる情動ュ ニッ トゃ欲求ュニッ トを使って感情や本能の状態を決定するように してもよレ、。 Further, in the above-described embodiment, as shown in FIG. Emotional units 50 A to 50 F that show emotions such as `` sadness, '' `` sadness, '' `` anger, '' etc., and a desire unity 51, which shows the desires such as `` exercise desire, '' `` love affection, '' etc. The case where the state of emotion and instinct is determined using 51D has been described, but the present invention is not limited to this, and for example, an emotion unit indicating an emotion of `` loneliness '' is used as an emotion unit. It is also possible to add a desire unit indicating the desire of “sleep desire” to the desire unit 51, and to use the emotion unit of various types and combinations in addition to the desire unit. You may decide to determine your emotions and your instinct.
また、 上述の実施の形態では、 ロボッ ト装置 1が感情モデルと本 能モデルとを有している構成について述べたが、 本発明はこれに限 らず、 感情モデルのみ、 或いは本能モデルのみ有した構成とするこ ともでき、 さらに、 動物の行動を決定付けるような他のモデルを有 してもよい。  Further, in the above-described embodiment, a configuration in which robot device 1 has an emotion model and an instinct model has been described. However, the present invention is not limited to this, and has only an emotion model or only an instinct model. Other models may be used to determine the behavior of the animal.
また、 上述の実施の形態では、 指令信号 S 1 と外部情報信号 S 2 と内部情報信号 S 3と感情 ·本能状態情報 S 1 0と行動情報 S 1 2 とに基づいて次の行動を行動決定機構部 4 1によって決定した場合 について述べたが、 本発明はこれに限らず、 指令信号 S 1 と外部情 報信号 S 2 と内部情報信号 S 3と感情 ·本能状態情報 S 1 0と行動 情報 S 1 2とのうち一部の情報に基づいて次の行動を決定するよう にしてもよレ、。  In the above embodiment, the next action is determined based on the command signal S1, the external information signal S2, the internal information signal S3, the emotion / instinct state information S10, and the action information S12. Although the case determined by the mechanism unit 41 has been described, the present invention is not limited to this, and the command signal S1, the external information signal S2, the internal information signal S3, the emotion and the instinct state information S10, and the behavior information The next action may be determined based on a part of the information of S12.
また、 上述の実施の形態では、 有限オー トマ トン 5 7と呼ばれる アルゴリズムを用いて次の行動を決定した場合について述べたが、 本発明はこれに限らず、 ステートの数が有限でないステートマシン と呼ばれるアルゴリズムを用いて行動を決定するようにしてもよく、 この場合、 入力情報 S 1 4が供給される毎に新たにステートを生成 し、 当該生成したステートに応じて行動を決定すればよい。 Further, in the above-described embodiment, the case where the next action is determined using an algorithm called a finite automaton 57 has been described. However, the present invention is not limited to this. Behavior may be determined using an algorithm called, In this case, a new state may be generated each time the input information S14 is supplied, and an action may be determined according to the generated state.
また、 上述の実施の形態では、 有限オートマ トン 5 7 と呼ばれる アルゴリズムを用いて次の行動を決定した場合について述べたが、 本発明はこれに限らず、 現在供給された入力情報 S 1 4 とそのとき のステートとに基づいて複数のステートを遷移先の候補と して選定 し、 当該選定された複数のステートのうち遷移先のステートを乱数 によってランダムに決定するような確率有限ォートマ トンと呼ばれ るアルゴリズムを用いて行動を決定するようにしてもよレ、。  Further, in the above-described embodiment, a case has been described in which the next action is determined using an algorithm called a finite automaton 57. However, the present invention is not limited to this. It is called a stochastic finite automaton in which multiple states are selected as transition destination candidates based on the state at that time, and the transition destination state among the selected multiple states is randomly determined by random numbers. You may decide to use a certain algorithm to determine the action.
また、 上述の実施の形態では、 行動指令情報 S 1 6が直接遷移可 能な姿勢を示す場合には、 当該行動指令情報 S 1 6をそのまま姿勢 遷移情報 S 1 8として制御機構部 4 3に送出する一方、 直接遷移不 可能な姿勢を示す場合には、 遷移可能な他の姿勢に一且遷移した後 に目的の姿勢まで遷移させるような姿勢遷移情報 S 1 8を生成して 制御機構部 4 3に送出した場合について述べたが、 本発明はこれに 限らず、 行動指令情報 S 1 6が直接遷移可能な姿勢を示す場合にの み当該行動指令情報 S 1 6を受け付けて制御機構部 4 3に送出する 一方、 直接遷移不可能な姿勢を示す場合には、 当該行動指令情報 S 1 6を拒否するようにしてもよレ、。  Further, in the above-described embodiment, when the action command information S 16 indicates a posture to which a direct transition can be made, the action command information S 16 is directly used as the posture transition information S 18 by the control mechanism unit 43. On the other hand, if it indicates a posture in which direct transition is not possible, it generates posture transition information S18 that transitions to a target posture after transitioning to another transitable posture and generates a control mechanism unit. Although the case where the command is sent to 43 has been described, the present invention is not limited to this. On the other hand, if the action command information S 16 is sent to the position 3, indicating that the posture cannot be directly transited, the action command information S 16 may be rejected.
また、 上述の実施の形態では、 本発明をロボッ ト装置 1に適用し た場合について述べたが、 本発明はこれに限らず、 例えばゲームや 展示等のェンタティンメ ント分野で用いられるロボッ ト装置のよう に、 他の種々のロボッ ト装置に本発明を適用し得る。 図 3 1に示す ように、 コンピュータグラフィ ックスで動くキャラクター、 例えば 多関節により構成されるキャラクターを用いたアニメーショ ン等に 適用することもできる。 Further, in the above-described embodiment, the case where the present invention is applied to the robot device 1 has been described. However, the present invention is not limited to this, and for example, a robot device used in the entertainment field such as a game or an exhibition. As described above, the present invention can be applied to various other robot apparatuses. As shown in Fig. 31, a character that moves with computer graphics, for example, an animation using a character composed of multiple joints, etc. It can also be applied.
また、 本発明が適用されるロボッ ト装置 1の外観は、 図 1に示す ような構成をとることに限定されず、 図 3 2に示すように、 より現 実の犬に類似の構成とすることも、 人間型のヒユーマノィ ドロボッ トとすることもできる。 産業上の利用可能性  Further, the appearance of the robot device 1 to which the present invention is applied is not limited to the configuration shown in FIG. 1, and has a configuration more similar to a real dog as shown in FIG. 32. It can be a humanoid humanoid robot. Industrial applicability
本発明に係るロボッ ト装置は、 供給される入力情報に応じた動作 を行う ロボッ ト装置であって、 動作に起因するモデルを有し、 入力 情報に基づいてモデルを変化させることにより動作を決定するモデ ル変化手段を備えることにより、 入力情報に基づいてモデルを変化 させて動作を決定することで、 ロボッ ト装置自身の感情や本能等の 状態に基づいて自律的に行動することができる。  A robot device according to the present invention is a robot device that performs an operation according to supplied input information, has a model caused by the operation, and determines an operation by changing the model based on the input information. By providing a model changing means, the robot device can autonomously act based on the state of the robot device itself, such as emotions and instinct, by changing the model based on the input information and determining the operation.
また、 本発明に係る動作制御方法は、 供給される入力情報に応じ て動作させる動作制御方法であって、 入力情報に基づいて動作に起 因するモデルを変化させることにより動作を決定することにより、 例えばロボッ ト装置を自身の感情や本能等の状態に基づいて自律的 に行動させることができる。  Further, an operation control method according to the present invention is an operation control method for operating in accordance with input information supplied, wherein the operation is determined by changing a model caused by the operation based on the input information. For example, it is possible to cause the robot device to autonomously act on the basis of its own emotions and instinct.
また、 本発明に係るロボッ ト装置は、 供給される入力情報に応じ た動作を行うロボッ ト装置であって、 順次供給される入力情報の履 歴に応じた現在の動作及び次に供給される入力情報に基づいて、 現 在の動作に続く次の動作を決定する動作決定手段を備えることによ り、 順次供給される入力情報の履歴に応じた現在の動作及び次に供 給される入力情報に基づいて現在の動作に続く次の動作を決定する ことで、 ロボッ ト装置自身の感情や本能等の状態に基づいて自律的 に行動することができる。 Further, the robot device according to the present invention is a robot device that performs an operation in accordance with supplied input information, and a current operation in accordance with a history of sequentially supplied input information and a next operation to be supplied. By providing operation determining means for determining the next operation following the current operation based on the input information, the current operation according to the history of the input information sequentially supplied and the input to be supplied next By determining the next operation following the current operation based on the information, autonomous operation is performed based on the state of the robot device itself, such as emotions and instinct. You can act.
また、 本発明に係る動作制御方法は、 供給される入力情報に応じ て動作させる動作制御方法であって、 順次供給される入力情報の履 歴に応じた現在の動作及び次に供給される入力情報に基づいて、 現 在の動作に続く次の動作を決定することにより、 例えばロボッ ト装 置を自身の感情や本能等の状態に基づいて自律的に行動させること ができる。  Also, the operation control method according to the present invention is an operation control method for operating according to supplied input information, wherein the current operation according to the history of sequentially supplied input information and the next supplied input By determining the next operation following the current operation based on the information, it is possible to cause the robot device to act autonomously, for example, based on its own emotions and instinct.
また、 本発明に係るロボッ ト装置は、 姿勢及び動作が登録されて いるグラフであって、 姿勢とこの姿勢を遷移させる動作とを結んで 構成されたものを記憶するグラフ記憶手段と、 現在の姿勢から目標 とされる姿勢又は目標とされる動作までの経路を、 行動指令情報に 基づいて、 グラフ上において探索して、 その探索結果に基づいて動 作させて、 現在の姿勢から目標とされる姿勢又は目標とされる動作 に遷移させる制御手段とを備えることにより、 制御手段により、 現 在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、 行動指令情報に基づいてグラフ上において探索して、 その探索結果 に基づいて動作させて、 現在の姿勢から目標とされる姿勢又は目標 とされる動作に遷移させることができる。 これにより ロボッ ト装置 は表現の豊富化が可能になる。  Further, the robot apparatus according to the present invention includes: a graph storage unit configured to store a graph in which the posture and the motion are registered, the graph being configured by connecting the posture and the motion of transitioning the posture. The path from the posture to the target posture or the target movement is searched on the graph based on the action command information, and is operated based on the search result. And control means for transitioning to a desired posture or a target movement, whereby the control means can determine a path from the current posture to the target posture or the target movement based on the action command information. By performing a search on the graph and operating based on the search result, it is possible to make a transition from the current attitude to a target attitude or a target action. This makes it possible for robot units to enrich their expressions.
また、 本発明に係る動作制御方法は、 現在の姿勢から目標とされ る姿勢又は目標とされる動作までの経路を、 行動指令情報に基づい て、 姿勢及び動作が登録されて構成され、 姿勢とこの姿勢を遷移さ せる動作とを結んで構成されたグラフ上において探索し、 探索結果 に基づいて動作させて、 現在の姿勢から目標とされる姿勢又は目標 とされる動作に遷移させることにより、 ロボッ ト装置やコンビユー タグラフィ ッタスで動くキャラクターの表現の豊富化が可能になる。 Further, the motion control method according to the present invention is configured such that a posture and a path from a current posture to a target posture or a target movement are registered based on the action command information, and the posture and the movement are registered. By performing a search on a graph formed by linking this posture and the operation that changes the posture, operating based on the search result, and transitioning from the current posture to the target posture or the target movement, Robot devices and convenience Enrichment of the expression of characters that move by tagography becomes possible.

Claims

請求の範囲 The scope of the claims
1 . 供給される入力情報に応じた動作を行うロボッ ト装置であって、 上記動作に起因するモデルを有し、 上記入力情報に基づいて上記 モデルを変化させることにより上記動作を決定するモデル変化手段 を備えたこと 1. A robot device that performs an operation according to supplied input information, the model device having a model caused by the operation, and determining the operation by changing the model based on the input information. Having means
を特徴とするロボッ ト装置。  A robot device characterized by the following.
2 . 上記モデル変化手段は、 上記モデルとして、 動作に感情を表出 させる感情モデル又は上記感情モデルと属性の異なるモデルとして 動作に本能を表出させる本能モデルを有し、  2. The model change means has, as the model, an emotion model for expressing an emotion in the motion or an instinct model for expressing an instinct in the motion as a model having different attributes from the emotion model.
上記モデル変化手段は、 上記入力情報に基づいて上記感情モデル を変化させることにより上記動作に起因する感情状態を変化させ、 又は上記入力情報に基づいて上記本能モデルを変化させることによ り上記動作に起因する本能状態を変化させること  The model change means changes the emotion state caused by the operation by changing the emotion model based on the input information, or changes the instinct model by changing the instinct model based on the input information. Change the instinct state caused by
を特徴とする請求の範囲第 1項記載のロボッ ト装置。  The robot device according to claim 1, wherein:
3 . 上記モデル変化手段は、 上記モデルとして、 属性の異なる複数 のモデルを併有していること  3. The model change means must have a plurality of models with different attributes as the model.
を特徴とする請求の範囲第 1項記載のロボッ ト装置。  The robot device according to claim 1, wherein:
4 . 上記モデル変化手段は、 第 1の属性のモデルとして動作に感情 を表出させる感情モデルと第 2の属性のモデルとして動作に本能を 表出させる本能モデルとを併有し、  4. The model changing means has an emotion model that expresses an emotion in an action as a model of a first attribute and an instinct model that expresses an instinct in an action as a model of a second attribute,
上記モデル変化手段は、 上記入力情報に基づいて上記感情モデル を変化させることにより上記動作に起因する感情状態を変化させ、 かつ上記入力情報に基づいて上記本能モデルを変化させることによ り上記動作に起因する本能状態を変化させること を特徴とする請求の範囲第 3項記載のロボッ ト装置。 The model changing means changes an emotional state caused by the operation by changing the emotion model based on the input information, and changes the instinct model by changing the instinct model based on the input information. Change the instinct state caused by 4. The robot apparatus according to claim 3, wherein:
5 . 上記モデル変化手段は、 上記モデルと して、 同一属性について 複数種類のモデルを有していること  5. The model changing means has a plurality of types of models with the same attribute as the model.
を特徴とする請求の範囲第 1項記載のロボッ ト装置。  The robot device according to claim 1, wherein:
6 . 上記モデル変化手段は、 上記入力情報に基づいて上記複数種類 のモデルの各レベルを個別に変化させることにより上記動作に起因 する状態を変化させること  6. The model changing means changes a state caused by the operation by individually changing each level of the plurality of types of models based on the input information.
を特徴とする請求の範囲第 5項記載のロボッ ト装置。  6. The robot apparatus according to claim 5, wherein:
7 . 上記モデル変化手段は、 上記属性の異なるモデルそれぞれにつ いて複数種類のモデルを有していること  7. The model changing means has a plurality of types of models for each of the models having the different attributes.
を特徴とする請求の範囲第 3項記載のロボッ ト装置。  4. The robot apparatus according to claim 3, wherein:
8 . 上記モデル変化手段は、 上記入力情報に基づいて上記属性の異 なる複数のモデルの上記複数種類のモデルの各レベルを個別に変化 させることにより上記動作に起因する状態を変化させること を特徴とする請求の範囲第 7項記載のロボッ ト装置。  8. The model changing means changes a state caused by the operation by individually changing each level of the plurality of types of the plurality of models having the different attributes based on the input information. 8. The robot apparatus according to claim 7, wherein:
9 . 上記モデル変化手段は、 上記属性の異なるモデル同士が互いに 影響し合いながら当該モデルそれぞれを変化させること  9. The model changing means is to change the models having different attributes while affecting each other.
を特徴とする請求の範囲第 3項記載のロボッ ト装置。  4. The robot apparatus according to claim 3, wherein:
1 0 . 上記モデル変化手段は、 異なる属性のモデルの間で所望のモ デル同士が影響し合いながら当該モデルを変化させること  10. The above-mentioned model changing means is to change a model having different attributes while desired models influence each other.
を特徴とする請求の範囲第 7項記載のロボッ ト装置。  8. The robot device according to claim 7, wherein:
1 1 . 上記モデル変化手段は、 当該装置の行動に応じて上記モデル を変化させること  1 1. The model changing means changes the model according to the behavior of the device.
を特徴とする請求の範囲第 1項記載の口ボッ ト装置。  2. The mouth bot device according to claim 1, wherein:
1 2 . 上記モデル変化手段は、 当該装置固有に上記モデルを変化さ せること 1 2. The model change means changes the model specific to the device. To make
を特徴とする請求の範囲第 1項記載のロボッ ト装置。  The robot device according to claim 1, wherein:
1 3 . 上記入力情報は、 当該装置にユーザから与えられるユーザ指 令情報でなること  1 3. The input information should be user instruction information given by the user to the device.
を特徴とする請求の範囲第 1項記載の口ボッ ト装置。  2. The mouth bot device according to claim 1, wherein:
1 4 . 上記入力情報は、 当該装置へのユーザからの働きかけの情報 でなること  1 4. The above input information shall be information of the user's approach to the device.
を特徴とする請求の範囲第 1項記載のロボッ ト装置。  The robot device according to claim 1, wherein:
1 5 . 上記入力情報は、 当該装置の周囲の環境の情報でなること を特徴とする請求の範囲第 1項記載のロボッ ト装置。  15. The robot device according to claim 1, wherein the input information is information on an environment around the device.
1 6 . 上記入力情報は、 当該装置の周囲に存在する他のロボッ ト装 置の動きの情報でなること  16. The above input information shall be information on the movement of other robot devices existing around the device.
を特徴とする請求の範囲第 1 5項記載のロボッ ト装置。  The robot device according to claim 15, wherein:
1 7 . 上記入力情報は、 当該装置内部の状態の情報でなること を特徴とする請求の範囲第 1項記載のロボッ ト装置。  17. The robot device according to claim 1, wherein the input information is information on a state inside the device.
1 8 . 上記入力情報は、 当該装置の現在又は過去の行動の情報でな ること  18. The above input information shall be information on current or past actions of the device.
を特徴とする請求の範囲第 1項記載のロボッ ト装置。  The robot device according to claim 1, wherein:
1 9 . 供給される入力情報に応じて動作させる動作制御方法であつ て、  1 9. An operation control method that operates according to the supplied input information,
上記入力情報に基づいて上記動作に起因するモデルを変化させる ことにより上記動作を決定すること  Determining the operation by changing a model caused by the operation based on the input information;
を特徴とする動作制御方法。  An operation control method comprising:
2 0 . 上記モデルが、 動作に感情を表出させる感情モデル又は上記 感情モデルと属性の異なるモデルと して動作に本能を表出させる本 能モデルであって、 20. A book that expresses instinct in motion as an emotion model that expresses emotion in motion or a model with different attributes from the emotion model described above. Noh model
上記入力情報に基づいて上記感情モデルを変化させることにより 上記動作に起因する感情状態を変化させ、 又は上記入力情報に基づ いて上記本能モデルを変化させることにより上記動作に起因する本 能状態を変化させること  By changing the emotion model based on the input information, the emotion state caused by the action is changed, or by changing the instinct model based on the input information, the instinct state caused by the action is changed. Change
を特徴とする請求の範囲第 1 9項記載の動作制御方法。  10. The operation control method according to claim 19, wherein:
2 1 . 上記モデルが、 動作に感情を表出させる感情モデルと第 2の 属性のモデルとして動作に本能を表出させる本能モデルとであって、 上記入力情報に基づいて上記感情モデルを変化させることにより 上記動作に起因する感情状態を変化させ、 かつ上記入力情報に基づ いて上記本能モデルを変化させることにより上記動作に起因する本 能状態を変化させること 2 1. The above-mentioned model is an emotion model that expresses emotion in motion and an instinct model that expresses instinct in motion as a second attribute model, and changes the emotion model based on the input information. Changing the emotional state caused by the above-mentioned action, and changing the instinct state caused by the above-mentioned action by changing the above-mentioned instinct model based on the input information.
を特徴とする請求の範囲第 1 9項記載の動作制御方法。  10. The operation control method according to claim 19, wherein:
2 2 . 供給される入力情報に応じた動作を行うロボッ ト装置であつ て、 2 2. A robot device that performs an operation according to the supplied input information.
順次供給される入力情報の履歴に応じた現在の動作及び次に供給 される上記入力情報に基づいて、 上記現在の動作に続く次の動作を 決定する動作決定手段を備えたこと  Operation determining means for determining the next operation following the current operation based on the current operation according to the history of the input information sequentially supplied and the input information supplied next.
を特徴とするロボッ ト装置。  A robot device characterized by the following.
2 3 . 上記入力情報は、 ユーザから与えられるユーザ指令情報、 ュ 一ザからの働きかけの情報、 周囲の環境の情報、 装置内部の状態の 情報、 現在又は過去の行動の情報、 感情及び/又は本能の状態の情 報、 のうちの全て又は一部を組み合わせてなること 23. The above input information is user command information given by the user, information on the action from the user, information on the surrounding environment, information on the state of the inside of the device, information on current or past actions, emotions and / or Instinct status information, all or some combination of
を特徴とする請求の範囲第 2 2項記載のロボッ ト装置。  The robot device according to claim 22, characterized in that:
2 4 . 上記動作決定手段は、 上記動作の数が有限個でなる有限ォー トマトンを用いて上記次の動作を決定すること 2 4. The above-mentioned operation determining means is a finite form in which the number of the above-mentioned operations is finite. Determining the next action above using a tomato
を特徴とする請求の範囲第 2 2項記載のロボッ ト装置。  The robot device according to claim 22, characterized in that:
2 5 . 上記動作決定手段は、 上記現在の動作及び上記入力情報に基 づいて複数の動作を遷移先の候補と して選定し、 当該選定された複 数の動作のうち所望の動作を乱数によってランダムに決定する確率 有限ォートマトンを用いること  25. The operation determining means selects a plurality of operations as transition destination candidates based on the current operation and the input information, and determines a desired operation among the selected operations as a random number. Probability randomly determined by using finite automata
を特徴とする請求の範囲第 2 2項記載のロボッ ト装置。  The robot device according to claim 22, characterized in that:
2 6 . 上記動作決定手段は、 現在の動作を実行している時間が一定 値に達したこと、 又は特定の入力情報が入力された、 又は当該装置 の感情及び本能の状態を決定する複数種類の感情モデル及び複数種 類の欲求モデルのうち所望の感情モデル又は欲求モデルのレベルが 所定の閾値を超えたことを、 上記現在の動作を上記次の動作に遷移 させる際の条件とすること  26. The above-mentioned operation determining means may be a plurality of types that determine that the time during which the current operation is being executed has reached a certain value, or that specific input information has been input, or the emotion and instinct state of the device. That the level of a desired emotion model or a desire model among a plurality of types of desire models exceeds a predetermined threshold is a condition for transitioning the current operation to the next operation.
を特徴とする請求の範囲第 2 2項記載のロボッ ト装置。  The robot device according to claim 22, characterized in that:
2 7 . 上記動作決定手段は、 感情及び本能の状態を決定する複数種 類の感情モデル及び複数種類の欲求モデルのうち所望の感情モデル 又は欲求モデルのレベルが所定の閾値を超えているか否かに基づい て遷移先の動作を決定すること 27. The motion determining means determines whether the level of a desired emotion model or a desire model among a plurality of kinds of emotion models and a plurality of kinds of desire models for determining the state of emotion and instinct exceeds a predetermined threshold value. Determine the behavior of the transition destination based on
を特徴とする請求の範囲第 2 2項記載のロボッ ト装置。  The robot device according to claim 22, characterized in that:
2 8 . 上記動作決定手段は、 当該装置の感情及び本能の状態を決定 する複数種類の感情モデル及び複数種類の欲求モデルのうち所望の 感情モデル又は欲求モデルのレベルに応じて、 遷移先の動作で行わ れる行動を特徴付けるパラメータを変化させること 2 8. The above-mentioned operation determining means performs a transition destination operation according to a desired emotion model or a desired model level among a plurality of types of emotion models and a plurality of types of desire models for determining the state of the emotion and instinct of the device. Changing the parameters that characterize the actions taken in
を特徴とする請求の範囲第 2 2項記載のロボッ ト装置。  The robot device according to claim 22, characterized in that:
2 9 . 供給される入力情報に応じて動作させる動作制御方法であつ て、 2 9. An operation control method that operates according to the input information supplied hand,
順次供給される入力情報の履歴に応じた現在の動作及び次に供給 される上記入力情報に基づいて、 上記現在の動作に続く次の動作を 決定すること  Determining the next operation following the current operation based on the current operation according to the history of input information sequentially supplied and the input information supplied next.
を特徴とする動作制御方法。  An operation control method comprising:
3 0 . 行動指令情報に基づいて動作させて、 複数の姿勢の間を遷移 するロボッ ト装置であって、  30. A robot device that is operated based on action command information to transition between a plurality of postures,
上記姿勢及び上記動作が登録されているグラフであって、 上記姿 勢と上記姿勢を遷移させる上記動作とを結んで構成されたものを記 憶するグラフ記憶手段と、  Graph storage means for storing a graph in which the posture and the motion are registered, the graph being configured by connecting the posture and the motion for transiting the posture;
現在の姿勢から目標とされる姿勢又は目標とされる動作までの経 路を、 上記行動指令情報に基づいて上記グラフ上において探索して、 その探索結果に基づいて動作させて、 上記現在の姿勢から上記目標 とされる姿勢又は目標とされる動作に遷移させる制御手段と  The path from the current posture to the target posture or the target operation is searched on the graph based on the action command information, and the path is operated based on the search result. Control means for transitioning from the above to the target posture or the target operation.
を備えたことを特徴とするロボッ ト装置。  A robot device comprising:
3 1 . 上記行動指令情報を一時的に記憶する行動指令情報記憶手段 を備え、  3 1. Equipped with action command information storage means for temporarily storing the action command information,
上記制御手段は、 上記行動指令情報記憶手段から順次送られてく る上記行動指令情報に基づいて、 上記現在の姿勢から上記目標とさ れる姿势又は目標とされる動作までの経路を、 上記グラフ上におい て探索すること  The control means, based on the action command information sequentially sent from the action command information storage means, displays a path from the current posture to the target posture or the target operation on the graph. To explore in
を特徴とする請求の範囲第 3 0項記載のロボッ ト装置。  30. The robot device according to claim 30, wherein:
3 2 . 上記行動指令情報には当該行動指令情報についての付加情報 が付加されていること  3 2. Additional information on the action command information must be added to the action command information.
を特徴とする請求の範囲第 3 1項記載のロボッ ト装置。 The robot device according to claim 31, characterized in that:
3 3 . 上記付加情報が、 上記指令操作情報であって、 3 3. The additional information is the command operation information,
上記行動指令情報記憶手段は、 上記指令操作情報に基づいて、 新 たに送られてきた行動指令情報と既に記憶されている行動指令情報 とに対する操作をすること  The action command information storage means performs an operation on newly sent action command information and action command information already stored based on the command operation information.
を特徴とする請求の範囲第 3 2項記載のロボッ ト装置。  33. The robot device according to claim 32, wherein:
3 4 . 上記付加情報が、 動作の内容を細かく指令する細部入力情報 であって、  3 4. The additional information is the detailed input information that commands the details of the operation.
上記制御手段は、 上記細部入力情報に基づいて、 上記目標とされ る動作を細かく制御すること  The control means finely controls the target operation based on the detailed input information.
を特徴とする請求の範囲第 3 2項記載のロボッ ト装置。  33. The robot device according to claim 32, wherein:
3 5 . 上記細部入力情報が、 動作のパラメータの情報であって、 上記制御手段は、 上記目標とされる動作を上記パラメータに従つ て実行させること 35. The detailed input information is information on an operation parameter, and the control means causes the target operation to be executed according to the parameter.
を特徴とする請求の範囲第 3 4項記載のロボッ ト装置。  The robot device according to claim 34, characterized by:
3 6 . 上記細部入力情報が、 動作の繰り返し回数の情報であって、 上記制御手段は、 上記目標とされる動作を、 上記繰り返し回数の 情報に基づいて繰り返して実行させること 36. The detailed input information is information on the number of repetitions of the operation, and the control means is configured to cause the target operation to be repeatedly executed based on the information on the number of repetitions.
を特徴とする請求の範囲第 3 4項記載のロボッ ト装置。  The robot device according to claim 34, characterized by:
3 7 . 上記細部入力情報が、 繰り返し動作であることの情報であつ て、 3 7. The above detailed input information is information of repetitive operation,
上記制御手段は、 繰り返しの終了の情報が入力されるまで、 上記 目標とされる動作を実行させること  The control means may execute the target operation until information on the end of the repetition is input.
を特徴とする請求の範囲第 3 4項記載のロボッ ト装置。  The robot device according to claim 34, characterized by:
3 8 . 上記グラフ上における動作に重みが付されており、 3 8. The actions on the graph are weighted,
上記制御手段は、 上記重みを参照して経路を探索すること を特徴とする請求の範囲第 3 0項記載のロボッ ト装置。 The control means searches for a route with reference to the weight. 30. The robot device according to claim 30, wherein:
3 9 . 上記制御手段は、 上記重みの和が最小値となる経路を探索す ること  39. The control means searches for a route in which the sum of the weights is a minimum value.
を特徴とする請求の範囲第 3 8項記載のロボッ ト装置。  The robot device according to claim 38, wherein:
4 0 . 上記制御手段は、 物理的形状及び機構に応じて経路を探索す ること  40. The above control means searches for a route according to the physical shape and mechanism.
を特徴とする請求の範囲第 3 0項記載のロボッ ト装置。  30. The robot device according to claim 30, wherein:
4 1 . 全体が複数の構成部分からなり、 4 1. The whole is composed of several components,
上記グラフ記憶手段は、 上記全体及び上記構成部分それぞれに対 応させて複数のグラフを記憶し、  The graph storage means stores a plurality of graphs corresponding to the entirety and the constituent parts, respectively.
上記制御手段は、 それぞれのグラフ上において上記全体及び構成 部分についての上記経路を探索して、 それぞれの探索結果に基づい て、 上記全体及び構成部分を動作させること  The control means searches the above-mentioned route for the whole and constituent parts on each graph, and operates the whole and constituent parts based on each search result.
を特徴とする請求の範囲第 3 0項記載のロボッ ト装置。  30. The robot device according to claim 30, wherein:
4 2 . 上記複数のグラフには上記全体及び構成部分が共有する基本 姿勢が登録されており、 4 2. The basic postures shared by the whole and the constituent parts are registered in the graphs.
上記制御手段は、 上記現在の姿勢と上記目標とされる姿勢又は上 記目標とされる動作とが上記全体と上記各構成部分とでまたいでい るときには、 上記現在の姿勢から上記目標とされる姿勢又は上記目 標とされる動作までの経路を、 上記基本姿勢を介して上記グラフ間 において探索すること  When the current posture and the target posture or the above-described target operation cross over the entirety and each of the constituent parts, the control means sets the target from the current posture as the target. Searching for a posture to the target posture or a path to the target movement between the graphs through the basic posture.
を特徴とする請求の範囲第 4 1項記載のロボッ ト装置。  The robot device according to claim 41, characterized in that:
4 3 . 上記行動指令情報には異なる構成部分と動作を同期させるた めの同期情報が付加されており、 4 3. Synchronization information for synchronizing the operation with the different components is added to the action command information,
上記制御手段は、 上記同期情報に基づいて、 異なる構成部分を同 期させて実行させること The control means identifies different components based on the synchronization information. To be executed
を特徴とする請求の範囲第 4 1項記載のロボッ ト装置。  The robot device according to claim 41, characterized in that:
4 4 . 上記制御手段は、 上記現在の姿勢から上記目標とされる姿勢 又は目標とされる動作に遷移させる動作を、 表現を付加して実行さ せること  4 4. The control means is configured to execute an operation of transitioning from the current attitude to the target attitude or the target action, by adding an expression.
を特徴とする請求の範囲第 3 0項記載のロボッ ト装置。  30. The robot device according to claim 30, wherein:
4 5 . 上記グラフ上には、 同一の動作が複数登録されており、 上記制御手段は、 上記行動指令情報により上記複数ある動作が指 令されたときには、 少なく とも現在の姿勢を参照して、 目標とされ る上記複数ある動作のうちの一の動作までの経路を探索すること を特徴とする請求の範囲第 3 0項記載のロボッ ト装置。  45. On the graph, a plurality of the same actions are registered, and the control means refers to at least the current posture when the plurality of actions are instructed by the action command information. 30. The robot device according to claim 30, wherein a route to one of the plurality of target operations is searched for.
4 6 . 上記制御手段は、 目標とされる上記複数ある動作のうち最短 で実行可能な一の動作までの経路を探索すること  4 6. The control means searches for a path to the shortest executable one of the plurality of target operations.
を特徴とする請求の範囲第 4 5項記載のロボッ ト装置。  The robot device according to claim 45, wherein the robot device is characterized in that:
4 7 . 上記グラフには、 中立の姿勢が登録されており、 4 7. The neutral posture is registered in the above graph.
上記制御手段は、 現実の姿勢が不明のときには一旦、 上記中立の 姿勢にしてから上記目標とされる姿勢又は目標とされる動作に遷移 させること  When the actual posture is unknown, the control means temporarily sets the neutral posture and then transitions to the target posture or the target operation.
を特徴とする請求の範囲第 3 0項記載のロボッ ト装置。  30. The robot device according to claim 30, wherein:
4 8 . 上記制御手段は、 通常の遷移のための通常の動作速度よりも 遅い動作により上記中立の姿勢にすること 4 8. The above-mentioned control means shall be in the above-mentioned neutral posture by operation slower than normal operation speed for normal transition.
を特徴とする請求の範囲第 4 7項記載のロボッ ト装置。  The robot device according to claim 47, characterized by comprising:
4 9 . 行動指令情報に基づいて動作させて、 複数の姿勢の間を制御 する動作制御方法であって、 49. An operation control method for controlling between a plurality of postures by operating based on action command information,
現在の姿勢から目標とされる姿勢又は目標とされる動作までの経 路を、 上記行動指令情報に基づいて、 上記姿勢及び上記動作が登録 されて構成され、 上記姿勢と上記姿勢を遷移させる動作とを結んで 構成されたグラフ上において探索し、 The path from the current posture to the target posture or target movement A road is searched for on a graph formed by registering the posture and the motion based on the action command information, and connecting the posture and the motion for changing the posture.
探索結果に基づいて動作させて、 上記現在の姿勢から上記目標と される姿勢又は目標とされる動作に遷移させること  Move based on the search result to transition from the current posture to the target posture or target movement
を特徴とする動作制御方法。  An operation control method comprising:
5 0 . 上記行動指令情報が行動指令情報記憶手段に一時的に記憶さ れるものであって、  50. The action command information is temporarily stored in action command information storage means,
上記行動指令情報記憶手段から順次送られてくる上記行動指令情 報に基づいて、 上記現在の姿勢から上記目標とされる姿勢又は目標 とされる動作までの経路を、 上記グラフ上において探索すること を特徴とする請求の範囲第 4 9項記載の動作制御方法。  Based on the action command information sequentially sent from the action command information storage unit, searching the graph for a path from the current attitude to the target attitude or the target action. The operation control method according to claim 49, wherein:
5 1 . 上記グラフ上における動作に重みが付されており、  5 1. The actions on the graph are weighted,
上記重みを参照して経路を探索すること  Searching a route by referring to the above weights
を特徴とする請求の範囲第 4 9項記載の動作制御方法。  The operation control method according to claim 49, wherein:
5 2 . 複数の姿勢に遷移可能なロボッ ト装置の動作を制御すること を特徴とする請求の範囲第 4 9項記載の動作制御方法。 52. The operation control method according to claim 49, wherein the operation of the robot device capable of transitioning to a plurality of postures is controlled.
5 3 . 上記ロボッ ト装置が、 全体が複数の構成部分からなるロボッ ト装置であって、 5 3. The above-mentioned robot device is a robot device entirely composed of a plurality of components,
上記全体及び上記構成部分それぞれに対応される複数のグラフ上 において、 上記全体及び構成部分についての上記経路を探索して、 それぞれの探索結果に基づいて、 上記全体及び構成部分を動作させ ること  Searching the paths for the whole and the constituent parts on a plurality of graphs respectively corresponding to the whole and the constituent parts, and operating the whole and the constituent parts based on the respective search results;
を特徴とする請求の範囲第 5 2項記載の動作制御方法。  The operation control method according to claim 52, wherein:
PCT/JP2000/000263 1999-01-20 2000-01-20 Robot device and motion control method WO2000043167A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US09/646,506 US6442450B1 (en) 1999-01-20 2000-01-20 Robot device and motion control method
JP2000594613A JP4696361B2 (en) 1999-01-20 2000-01-20 Robot apparatus and operation control method
EP00900846A EP1088629A4 (en) 1999-01-20 2000-01-20 Robot device and motion control method
KR1020007010417A KR100721694B1 (en) 1999-01-20 2000-01-20 Robot device and motion control method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP1229299 1999-01-20
JP11/12292 1999-01-20
JP34137499 1999-11-30
JP11/341374 1999-11-30

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US09/646,506 A-371-Of-International US6442450B1 (en) 1999-01-20 2000-01-20 Robot device and motion control method
US10/196,683 Continuation US20030023348A1 (en) 1999-01-20 2002-07-15 Robot apparatus and motion control method

Publications (1)

Publication Number Publication Date
WO2000043167A1 true WO2000043167A1 (en) 2000-07-27

Family

ID=26347871

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/000263 WO2000043167A1 (en) 1999-01-20 2000-01-20 Robot device and motion control method

Country Status (6)

Country Link
US (4) US6337552B1 (en)
EP (1) EP1088629A4 (en)
JP (3) JP4696361B2 (en)
KR (1) KR100721694B1 (en)
CN (1) CN1246126C (en)
WO (1) WO2000043167A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120181A (en) * 2000-10-11 2002-04-23 Sony Corp Robot device and control method for it
JP2002215673A (en) * 2000-11-17 2002-08-02 Sony Computer Entertainment Inc Information processing program, recording medium recording information processing program, information processor and method
JP2005508761A (en) * 2001-04-06 2005-04-07 ヴァンダービルト ユニバーシティー Robot intelligence architecture
JP2008246607A (en) * 2007-03-29 2008-10-16 Honda Motor Co Ltd Robot, control method of robot and control program of robot
WO2010103399A1 (en) 2009-03-11 2010-09-16 Toyota Jidosha Kabushiki Kaisha Robot apparatus and control method therefor
JP2011056624A (en) * 2009-09-10 2011-03-24 Nara Institute Of Science & Technology Route plan generating device, route plan generating method, robot control device and robot system

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
WO2000066239A1 (en) * 1999-04-30 2000-11-09 Sony Corporation Electronic pet system, network system, robot, and storage medium
DE60036599T2 (en) * 1999-05-10 2008-02-07 Sony Corp. ROBOT DEVICE, CONTROL METHOD AND RECORDING MEDIUM
GB2350696A (en) * 1999-05-28 2000-12-06 Notetry Ltd Visual status indicator for a robotic machine, eg a vacuum cleaner
US6663393B1 (en) * 1999-07-10 2003-12-16 Nabil N. Ghaly Interactive play device and method
US7442107B1 (en) * 1999-11-02 2008-10-28 Sega Toys Ltd. Electronic toy, control method thereof, and storage medium
US20020059386A1 (en) * 2000-08-18 2002-05-16 Lg Electronics Inc. Apparatus and method for operating toys through computer communication
KR20020067694A (en) * 2000-10-11 2002-08-23 소니 가부시끼 가이샤 Robot apparatus and robot apparatus motion control method
TWI236610B (en) * 2000-12-06 2005-07-21 Sony Corp Robotic creature device
DE60029976T2 (en) * 2000-12-12 2007-04-05 Sony France S.A. Automatic system with heterogeneous bodies
WO2002054184A2 (en) 2001-01-04 2002-07-11 Roy-G-Biv Corporation Systems and methods for transmitting motion control data
JP2002304188A (en) * 2001-04-05 2002-10-18 Sony Corp Word string output device and word string output method, and program and recording medium
JP4689107B2 (en) * 2001-08-22 2011-05-25 本田技研工業株式会社 Autonomous robot
US20030045947A1 (en) * 2001-08-30 2003-03-06 The Boeing Company System, method and computer program product for controlling the operation of motion devices by directly implementing electronic simulation information
JP3837479B2 (en) * 2001-09-17 2006-10-25 独立行政法人産業技術総合研究所 Motion signal generation method, apparatus and motion signal generation program for operating body
GB2380847A (en) * 2001-10-10 2003-04-16 Ncr Int Inc Self-service terminal having a personality controller
JP2003133200A (en) * 2001-10-19 2003-05-09 Canon Inc Simulation device and simulation method
US7257630B2 (en) * 2002-01-15 2007-08-14 Mcafee, Inc. System and method for network vulnerability detection and reporting
US7543056B2 (en) * 2002-01-15 2009-06-02 Mcafee, Inc. System and method for network vulnerability detection and reporting
CN100509308C (en) * 2002-03-15 2009-07-08 索尼公司 Robot behavior control system, behavior control method, and robot device
FR2839176A1 (en) * 2002-04-30 2003-10-31 Koninkl Philips Electronics Nv ROBOT ANIMATION SYSTEM COMPRISING A SET OF MOVING PARTS
US7118443B2 (en) 2002-09-27 2006-10-10 Mattel, Inc. Animated multi-persona toy
GB2393803A (en) * 2002-10-01 2004-04-07 Hewlett Packard Co Two mode creature simulaton
US7401057B2 (en) 2002-12-10 2008-07-15 Asset Trust, Inc. Entity centric computer system
US7238079B2 (en) * 2003-01-14 2007-07-03 Disney Enterprise, Inc. Animatronic supported walking system
US7248170B2 (en) * 2003-01-22 2007-07-24 Deome Dennis E Interactive personal security system
DE10302800A1 (en) * 2003-01-24 2004-08-12 Epcos Ag Method of manufacturing a component
JP2004237392A (en) * 2003-02-05 2004-08-26 Sony Corp Robotic device and expression method of robotic device
US8091117B2 (en) * 2003-02-14 2012-01-03 Preventsys, Inc. System and method for interfacing with heterogeneous network data gathering tools
US8027349B2 (en) * 2003-09-25 2011-09-27 Roy-G-Biv Corporation Database event driven motion systems
EP1530138A1 (en) * 2003-11-10 2005-05-11 Robert Bosch Gmbh Generic measurement and calibration interface for development of control software
US20050105769A1 (en) * 2003-11-19 2005-05-19 Sloan Alan D. Toy having image comprehension
US20050234592A1 (en) * 2004-01-15 2005-10-20 Mega Robot, Inc. System and method for reconfiguring an autonomous robot
WO2005087337A1 (en) * 2004-03-12 2005-09-22 Koninklijke Philips Electronics N.V. Electronic device and method of enabling to animate an object
JP4456537B2 (en) * 2004-09-14 2010-04-28 本田技研工業株式会社 Information transmission device
KR100595821B1 (en) * 2004-09-20 2006-07-03 한국과학기술원 Emotion synthesis and management for personal robot
JP2006198017A (en) * 2005-01-18 2006-08-03 Sega Toys:Kk Robot toy
US8713025B2 (en) 2005-03-31 2014-04-29 Square Halt Solutions, Limited Liability Company Complete context search system
US20070016029A1 (en) * 2005-07-15 2007-01-18 General Electric Company Physiology workstation with real-time fluoroscopy and ultrasound imaging
JP4237737B2 (en) * 2005-08-04 2009-03-11 株式会社日本自動車部品総合研究所 Automatic control device for on-vehicle equipment and vehicle equipped with the device
ATE522330T1 (en) 2005-09-30 2011-09-15 Irobot Corp ROBOT SYSTEM WITH WIRELESS COMMUNICATION USING TCP/IP TRANSMISSION
US7894951B2 (en) 2005-10-21 2011-02-22 Deere & Company Systems and methods for switching between autonomous and manual operation of a vehicle
KR100745720B1 (en) * 2005-11-30 2007-08-03 한국전자통신연구원 Apparatus and method for processing emotion using emotional model
KR100746300B1 (en) * 2005-12-28 2007-08-03 엘지전자 주식회사 Method for determining moving direction of robot
KR100850352B1 (en) * 2006-09-26 2008-08-04 한국전자통신연구원 Emotion Expression Apparatus for Intelligence Robot for expressing emotion using status information and Method thereof
US20080274812A1 (en) * 2007-05-02 2008-11-06 Inventec Corporation System of electronic pet capable of reflecting habits of user and method therefor and recording medium
EP2014425B1 (en) * 2007-07-13 2013-02-20 Honda Research Institute Europe GmbH Method and device for controlling a robot
CN101127152B (en) * 2007-09-30 2012-02-01 山东科技大学 Coding signal generator and radio remote control device for robot and animal control
CN101406756A (en) * 2007-10-12 2009-04-15 鹏智科技(深圳)有限公司 Electronic toy for expressing emotion and method for expressing emotion, and luminous unit control device
KR100893758B1 (en) * 2007-10-16 2009-04-20 한국전자통신연구원 System for expressing emotion of robots and method thereof
CN101411946B (en) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 Toy dinosaur
EP2266077A1 (en) * 2008-04-02 2010-12-29 iRobot Corporation Robotics systems
KR101631496B1 (en) * 2008-06-03 2016-06-17 삼성전자주식회사 Robot apparatus and method for registrating contracted commander thereof
CN101596368A (en) * 2008-06-04 2009-12-09 鸿富锦精密工业(深圳)有限公司 Interactive toy system and method thereof
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
CN101653662A (en) * 2008-08-21 2010-02-24 鸿富锦精密工业(深圳)有限公司 Robot
CN101653660A (en) * 2008-08-22 2010-02-24 鸿富锦精密工业(深圳)有限公司 Type biological device for automatically doing actions in storytelling and method thereof
CN101727074B (en) * 2008-10-24 2011-12-21 鸿富锦精密工业(深圳)有限公司 Biology-like device with biological clock and behavior control method thereof
US20100181943A1 (en) * 2009-01-22 2010-07-22 Phan Charlie D Sensor-model synchronized action system
US8539359B2 (en) 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
EP2420045A1 (en) * 2009-04-17 2012-02-22 Koninklijke Philips Electronics N.V. An ambient telephone communication system, a movement member, method, and computer readable medium therefor
US8939840B2 (en) 2009-07-29 2015-01-27 Disney Enterprises, Inc. System and method for playsets using tracked objects and corresponding virtual worlds
KR100968944B1 (en) * 2009-12-14 2010-07-14 (주) 아이알로봇 Apparatus and method for synchronizing robot
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US20120042263A1 (en) 2010-08-10 2012-02-16 Seymour Rapaport Social-topical adaptive networking (stan) system allowing for cooperative inter-coupling with external social networking systems and other content sources
FR2969026B1 (en) * 2010-12-17 2013-02-01 Aldebaran Robotics HUMANOID ROBOT HAVING A MANAGER OF ITS PHYSICAL AND VIRTUAL RESOURCES, METHODS OF USE AND PROGRAMMING
EP2665585B1 (en) * 2011-01-21 2014-10-22 Abb Ag System for commanding a robot
US9431027B2 (en) * 2011-01-26 2016-08-30 Honda Motor Co., Ltd. Synchronized gesture and speech production for humanoid robots using random numbers
US8676937B2 (en) * 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
US8996174B2 (en) 2012-06-21 2015-03-31 Rethink Robotics, Inc. User interfaces for robot training
JP6162736B2 (en) * 2015-03-19 2017-07-12 ファナック株式会社 Robot control system with a function to change the communication quality standard according to the distance between the machine and the portable wireless operation panel
JP6467710B2 (en) * 2015-04-06 2019-02-13 信太郎 本多 A versatile artificial intelligence system that adapts to the environment
EP3332923A4 (en) * 2015-08-04 2019-04-10 Beijing Evolver Robotics Co., Ltd Multi-functional home service robot
KR20170052976A (en) * 2015-11-05 2017-05-15 삼성전자주식회사 Electronic device for performing motion and method for controlling thereof
CN105573490A (en) * 2015-11-12 2016-05-11 于明 Human-computer interaction system, wearing device and method
EP3401750B1 (en) * 2016-01-04 2023-01-11 Zhejiang Libiao Robots Co., Ltd. Method and device for returning robots from site
US10471611B2 (en) 2016-01-15 2019-11-12 Irobot Corporation Autonomous monitoring robot systems
CN107346107A (en) * 2016-05-04 2017-11-14 深圳光启合众科技有限公司 Diversified motion control method and system and the robot with the system
WO2017199566A1 (en) * 2016-05-20 2017-11-23 シャープ株式会社 Information processing device, robot, and control program
DE112017002606B4 (en) * 2016-07-08 2020-06-25 Groove X, Inc. Autonomous robot wearing clothes
JP6571618B2 (en) * 2016-09-08 2019-09-04 ファナック株式会社 Human cooperation robot
CN107813306B (en) * 2016-09-12 2021-10-26 徐州网递智能科技有限公司 Robot and motion control method and device thereof
CN108229640B (en) * 2016-12-22 2021-08-20 山西翼天下智能科技有限公司 Emotion expression method and device and robot
JP6729424B2 (en) 2017-01-30 2020-07-22 富士通株式会社 Equipment, output device, output method, and output program
JP6886334B2 (en) * 2017-04-19 2021-06-16 パナソニック株式会社 Interaction devices, interaction methods, interaction programs and robots
US10250532B2 (en) * 2017-04-28 2019-04-02 Microsoft Technology Licensing, Llc Systems and methods for a personality consistent chat bot
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
US20190111565A1 (en) * 2017-10-17 2019-04-18 True Systems, LLC Robot trainer
CN111565897A (en) * 2018-01-10 2020-08-21 索尼公司 Animal-shaped autonomous moving object, method for operating animal-shaped autonomous moving object, and program
CN110297697B (en) * 2018-03-21 2022-02-18 北京猎户星空科技有限公司 Robot action sequence generation method and device
JP7139643B2 (en) * 2018-03-23 2022-09-21 カシオ計算機株式会社 Robot, robot control method and program
CN108382488A (en) * 2018-04-27 2018-08-10 梧州学院 A kind of Doraemon
JP7298860B2 (en) * 2018-06-25 2023-06-27 Groove X株式会社 Autonomous action type robot assuming a virtual character
US11226408B2 (en) * 2018-07-03 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. Sensor, estimating device, estimating method, and recording medium
CN113727767B (en) 2018-10-17 2023-05-23 派拓艺(深圳)科技有限责任公司 Machine animal splicing model
JP7247560B2 (en) * 2018-12-04 2023-03-29 カシオ計算機株式会社 Robot, robot control method and program
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
KR20200077936A (en) * 2018-12-21 2020-07-01 삼성전자주식회사 Electronic device for providing reaction response based on user status and operating method thereof
JP7437910B2 (en) * 2019-10-29 2024-02-26 株式会社東芝 Control system, control method, robot system, program, and storage medium
CN111846004A (en) * 2020-07-21 2020-10-30 李荣仲 Four-footed robot dog with gravity center adjustment mechanism
US11670156B2 (en) 2020-10-30 2023-06-06 Honda Research Institute Europe Gmbh Interactive reminder companion

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573143A (en) * 1991-05-27 1993-03-26 Shinko Electric Co Ltd Mobile robot system
JPH07104778A (en) * 1993-10-07 1995-04-21 Fuji Xerox Co Ltd Feeling expressing device
JPH0876810A (en) * 1994-09-06 1996-03-22 Nikon Corp Intensified learning method/device
JPH0934698A (en) * 1995-07-20 1997-02-07 Hitachi Ltd Software generating method and software developing and supporting method
JPH09114514A (en) * 1995-10-17 1997-05-02 Sony Corp Method and device for robot control
JPH1027182A (en) * 1996-07-11 1998-01-27 Hitachi Ltd Method and device for retrieving and delivering document
JPH10289006A (en) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd Method for controlling object to be controlled using artificial emotion
EP0898237A2 (en) 1997-08-22 1999-02-24 Sony Corporation Storage medium, robot, information processing device and electronic pet system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
US3888023A (en) * 1974-08-21 1975-06-10 Jardine Ind Inc Physical training robot
JPS6224988A (en) * 1985-07-23 1987-02-02 志井田 孝 Robot having feeling
US5182557A (en) * 1989-09-20 1993-01-26 Semborg Recrob, Corp. Motorized joystick
JPH0612401A (en) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd Emotion simulating device
US6141019A (en) * 1995-10-13 2000-10-31 James B. Roseborough Creature animation and simulation technique
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
US5929585A (en) * 1996-11-19 1999-07-27 Sony Corporation Robot system and its control method
DE69836765T2 (en) * 1997-01-31 2007-10-04 Honda Giken Kogyo K.K. CONTROL UNIT OF A LEGALLY MOVABLE ROBOT
JPH10235019A (en) * 1997-02-27 1998-09-08 Sony Corp Portable life game device and its data management device
JP3273550B2 (en) 1997-05-29 2002-04-08 オムロン株式会社 Automatic answering toy
JP3655054B2 (en) * 1997-06-13 2005-06-02 ヤンマー農機株式会社 Rice transplanter seedling stand configuration
CN1146492C (en) * 1998-06-09 2004-04-21 索尼公司 Robot and method of its attitude control
IT1304014B1 (en) 1998-06-29 2001-03-02 Reale S R L MOLDS FOR THE MANUFACTURE OF ICE GLASSES AND SUPPORTS TO SUPPORT THESE GLASSES DURING USE.
US6151571A (en) * 1999-08-31 2000-11-21 Andersen Consulting System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters
JP3555107B2 (en) * 1999-11-24 2004-08-18 ソニー株式会社 Legged mobile robot and operation control method for legged mobile robot

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573143A (en) * 1991-05-27 1993-03-26 Shinko Electric Co Ltd Mobile robot system
JPH07104778A (en) * 1993-10-07 1995-04-21 Fuji Xerox Co Ltd Feeling expressing device
JPH0876810A (en) * 1994-09-06 1996-03-22 Nikon Corp Intensified learning method/device
JPH0934698A (en) * 1995-07-20 1997-02-07 Hitachi Ltd Software generating method and software developing and supporting method
JPH09114514A (en) * 1995-10-17 1997-05-02 Sony Corp Method and device for robot control
JPH1027182A (en) * 1996-07-11 1998-01-27 Hitachi Ltd Method and device for retrieving and delivering document
JPH10289006A (en) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd Method for controlling object to be controlled using artificial emotion
EP0898237A2 (en) 1997-08-22 1999-02-24 Sony Corporation Storage medium, robot, information processing device and electronic pet system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FUJITA; KITANO: "Developments of an Autonomous Quadruped Robot for Robot Entertainment", AUTONOMOUS ROBOTS, vol. 5, 1998, pages 7 - 18
MASAHIRO FUJITA: "Reconfigurable Physical Agents", PROCEEDINGS OF THE SECOND INTERNATIONAL CONFERENCE ON AUTONOMOUS AGENTS,, 9 May 1998 (1998-05-09), pages 54 - 61, XP002927682 *
OSUMI M. ET AL.: "Pet Robot that has Emotions", OMRON TECHNICS, 128,, vol. 38, no. 4, 1998, pages 428 - 432, XP002927683 *
See also references of EP1088629A4 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120181A (en) * 2000-10-11 2002-04-23 Sony Corp Robot device and control method for it
JP2002215673A (en) * 2000-11-17 2002-08-02 Sony Computer Entertainment Inc Information processing program, recording medium recording information processing program, information processor and method
JP2005508761A (en) * 2001-04-06 2005-04-07 ヴァンダービルト ユニバーシティー Robot intelligence architecture
JP2008246607A (en) * 2007-03-29 2008-10-16 Honda Motor Co Ltd Robot, control method of robot and control program of robot
US8260457B2 (en) 2007-03-29 2012-09-04 Honda Motor Co., Ltd. Robot, control method of robot and control program of robot
WO2010103399A1 (en) 2009-03-11 2010-09-16 Toyota Jidosha Kabushiki Kaisha Robot apparatus and control method therefor
US8818559B2 (en) 2009-03-11 2014-08-26 Toyota Jidosha Kabushiki Kaisha Robot apparatus and control method therefor
JP2011056624A (en) * 2009-09-10 2011-03-24 Nara Institute Of Science & Technology Route plan generating device, route plan generating method, robot control device and robot system

Also Published As

Publication number Publication date
US6442450B1 (en) 2002-08-27
EP1088629A1 (en) 2001-04-04
CN1297393A (en) 2001-05-30
JP2010149276A (en) 2010-07-08
US6337552B1 (en) 2002-01-08
JP4696361B2 (en) 2011-06-08
US20020050802A1 (en) 2002-05-02
KR100721694B1 (en) 2007-05-28
KR20010092244A (en) 2001-10-24
JP2010149277A (en) 2010-07-08
EP1088629A4 (en) 2009-03-18
US20030023348A1 (en) 2003-01-30
US6667593B2 (en) 2003-12-23
CN1246126C (en) 2006-03-22
JP4985805B2 (en) 2012-07-25

Similar Documents

Publication Publication Date Title
JP4696361B2 (en) Robot apparatus and operation control method
US7076334B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
KR20010053481A (en) Robot device and method for controlling the same
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
US6362589B1 (en) Robot apparatus
US7063591B2 (en) Edit device, edit method, and recorded medium
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
JP2004283959A (en) Robot device, method of controlling behavior and program thereof
WO2002030628A1 (en) Robot apparatus and its control method
JP2001212782A (en) Robot device and control method for robot device
JP2004298975A (en) Robot device and obstacle searching method
JP2001157982A (en) Robot device and control method thereof
JP2001157979A (en) Robot device, and control method thereof
JP2001157981A (en) Robot device and control method thereof
JP2005169567A (en) Content reproducing system, content reproducing method and content reproducing device
JP2001154707A (en) Robot device and its controlling method
JP2001191279A (en) Behavior control system, behavior controlling method, and robot device
JP2001157980A (en) Robot device, and control method thereof
JP2003136439A (en) Robot device, and method and program for controlling gait of robot device
JP2001157983A (en) Robot device and character determining method of robot device
JP2002120180A (en) Robot device and control method for it
JP2003159681A (en) Robot device and method for controlling the same
JP2001157984A (en) Robot device and action control method for robot device
JP2001191282A (en) Robot device and its controlling method
JP2001191280A (en) Robot device and its controlling method

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00800371.8

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020007010417

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2000900846

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09646506

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2000900846

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020007010417

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1020007010417

Country of ref document: KR