WO2000068880A1 - Dispositif robot - Google Patents

Dispositif robot Download PDF

Info

Publication number
WO2000068880A1
WO2000068880A1 PCT/JP2000/002991 JP0002991W WO0068880A1 WO 2000068880 A1 WO2000068880 A1 WO 2000068880A1 JP 0002991 W JP0002991 W JP 0002991W WO 0068880 A1 WO0068880 A1 WO 0068880A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion
robot
schematic diagram
leg
pet robot
Prior art date
Application number
PCT/JP2000/002991
Other languages
English (en)
French (fr)
Inventor
Makoto Inoue
Emi Kato
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US09/743,245 priority Critical patent/US6458011B1/en
Priority to JP2000616585A priority patent/JP4518229B2/ja
Publication of WO2000068880A1 publication Critical patent/WO2000068880A1/ja
Priority to US10/255,301 priority patent/US6591923B2/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H29/00Drive mechanisms for toys in general
    • A63H29/24Details or accessories for drive mechanisms, e.g. means for winding-up or starting toy engines
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/006Dolls provided with electrical lighting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/005Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators using batteries, e.g. as a back-up power source
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J7/00Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries
    • H02J7/0042Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries characterised by the mechanical construction
    • H02J7/0044Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries characterised by the mechanical construction specially adapted for holding portable devices containing batteries
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J7/00Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries
    • H02J7/0047Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries with monitoring or indicating devices or circuits
    • H02J7/0048Detection of remaining charge capacity or state of charge [SOC]
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Definitions

  • the present invention relates to a robot device, and is suitably applied to, for example, a four-legged walking type robot.
  • the present invention has been made in view of the above points, and it is an object of the present invention to propose a robot device capable of further improving the entertainment.
  • a driving unit that individually drives each leg, and a driving unit are provided.
  • Control means for controlling the drive wherein the control means When the bot device falls down in the horizontal direction, the legs before and after the lower part of the body are rotated in a direction to open each other, and then each leg is rotated in a direction away from the body. In this way, the drive means is drive-controlled.
  • this robot device since it is possible to fall back and return on its own, it is possible to save the trouble of the user for raising the robot device, improve the creature-likeness, and improve the entertainment property. it can.
  • a driving unit for individually driving each leg
  • a drive control for the driving unit.
  • Control means and when the robot apparatus falls down in the forward direction, the control means rotates each leg on the front side of the torso until it is substantially parallel to the front side of the torso, and then rotates each leg.
  • the driving means is controlled so as to rotate the body in the rearward direction of the body.
  • a four-legged walking type robot apparatus in which legs are connected to the front, rear, left and right of the body, respectively, a driving unit for individually driving each leg, and a control unit for driving and controlling the driving unit.
  • the control means rotates the legs on the rear side of the body in the direction away from the body until the legs are substantially straight when the robot device falls down in the rearward direction.
  • the driving means is controlled so as to rotate each leg in the forward direction of the body.
  • a four-legged walking type robot apparatus in which legs are connected to the front, rear, left and right of the body, respectively, a driving unit for individually driving each leg, and a control unit for driving and controlling the driving unit.
  • the control means spreads each leg radially After that, the driving means is controlled so that each leg is warped upward in the body.
  • each leg and head are provided.
  • the drive means is driven and controlled.
  • FIG. 1 is a perspective view showing the configuration of the robot according to the present embodiment.
  • FIG. 2 is a perspective view showing a configuration of the robot according to the present embodiment.
  • FIG. 3 is a block diagram for explaining the processing of the controller.
  • FIG. 4 is a conceptual diagram for explaining a stochastic automaton.
  • FIG. 5 is a conceptual diagram for explaining the state transition table.
  • FIG. 6 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 7 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 8 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 9 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 10 is a schematic diagram for explaining the motion of a pet robot.
  • FIG. 11 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 12 is a schematic diagram for explaining the motion of a pet robot.
  • FIG. 13 is a schematic diagram used to explain the motion of a petrobot.
  • Fig. 14 is a schematic diagram for explaining a motion of a pet robot.
  • Fig. 15 is a schematic diagram for explaining a motion of a pet robot.
  • Fig. 16 is a schematic diagram of a pet robot.
  • Fig. 17 is a schematic diagram for explaining a pet robot's motion.
  • Fig. 18 is a schematic diagram for explaining a pet robot's motion.
  • FIG. 19 is a schematic diagram for explaining a motion of a pet robot.
  • FIG. 20 is a schematic diagram for explaining a motion of a pet robot.
  • FIG. 22 is a schematic diagram for explaining a pet robot model.
  • FIG. 20 is a schematic diagram for explaining a motion of a pet robot.
  • FIG. 22 is a schematic diagram for explaining a pet robot model.
  • FIG. 23 is a schematic diagram of a pet robot model.
  • Figure 24 is a schematic diagram used for explanation.
  • FIG. 25 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 26 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 28 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 28 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 29 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 30 is a schematic diagram for explaining a motion of a pet robot.
  • FIG. 31 is a schematic diagram for explaining a motion of a pet robot.
  • FIG. 32 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 33 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 34 is a schematic diagram of the pet robot.
  • Fig. 35 is a schematic diagram used to explain the mode.
  • Fig. 35 shows the mode of the pet robot.
  • FIG. 36 is a schematic diagram for explaining a motion of a pet robot.
  • FIG. 37 is a schematic diagram for explaining a motion of a bed robot.
  • Fig. 38 is a schematic diagram for explaining the motion of the pet robot.
  • Fig. 39 is a schematic diagram for explaining the motion of the pet robot.
  • Fig. 40 is the schematic diagram of the pet robot.
  • -It is a schematic diagram for explanation of Chillon.
  • Fig. 41 is a schematic diagram for explaining the motion of a pet robot. ⁇ Fig.
  • FIG. 42 is a schematic diagram for explaining the motion of a pet robot.
  • FIG. 43 is a schematic diagram of the motion of a pet robot.
  • FIG. 4 is a schematic diagram for explaining the motion of the pet robot,
  • FIG. 45 is a schematic diagram for explaining the motion of the pet robot,
  • ⁇ FIG. 47 is a schematic diagram for explaining the motion of the pet robot, and
  • FIG. 48 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 49 is a schematic diagram for explaining the motion of the pet robot.
  • ⁇ FIG. 50 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 51 is a schematic diagram of the betting robot. motion FIG.
  • FIG. 5 is a schematic diagram for explaining the motion of the pet robot
  • FIG. 52 is a schematic diagram for explaining the motion of the pet robot
  • FIG. 4 is a schematic diagram for explaining the motion of the pet robot
  • FIG. 5 5 is a schematic diagram for explaining the motion of the pet robot
  • FIG. 5 6 is a schematic diagram for explaining the motion of the pet robot
  • FIG. 57 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 58 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 59 is a schematic diagram of the pet robot.
  • FIG. 60 is a schematic diagram for explaining the motion of the pet robot
  • FIG. 60 is a schematic diagram for explaining the motion of the pet robot
  • Figure 62 shows the FIG.
  • FIG. 6 is a schematic diagram for explaining the motion of the pet mouth pot
  • FIG. 6 4 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 65 is a schematic diagram for explaining the motion of the pet robot
  • FIG. 66 is a schematic diagram for explaining the motion of the pet robot
  • FIG. 67 is the motion of the pet robot
  • FIG. 68 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 69 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 70 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 71 is a schematic diagram used to explain the motion of a pet robot.
  • FIG. 72 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 65 is a schematic diagram for explaining the motion of the pet robot
  • FIG. 66 is a schematic diagram for explaining the motion of the pet robot
  • FIG. 67 is the motion of the pet robot
  • FIG. 68 is a schematic
  • FIG. 73 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 74 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 75 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 76 is a schematic diagram explaining the motion of the pet robot.
  • FIG. 77 is a schematic diagram used to explain the motion of a pet robot.
  • FIG. 78 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 79 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 80 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 81 is a schematic diagram used to explain the motion of a pet robot.
  • FIG. 82 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 83 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 84 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 85 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 86 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 87 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 88 is a schematic diagram used to explain the motion of the petrobot.
  • FIG. 89 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 90 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 91 is a schematic diagram used to explain the motion of a pet robot.
  • FIG. 92 is a schematic diagram used to explain the motion of the bet robot.
  • FIG. 93 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 94 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 95 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 96 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 97 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 98 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 99 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 100 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 101 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 102 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 100 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 103 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 104 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 105 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 106 is a schematic diagram used to explain the motion of a pet robot.
  • FIG. 107 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 108 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 109 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 110 is a schematic diagram used to explain the motion of a pet robot.
  • FIG. 11 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 112 is a schematic diagram used to explain the motion of a pet robot.
  • FIG. 11 is a schematic diagram used to explain the motion of a pet robot.
  • FIG. 11 is a schematic diagram for explaining the motion of the robot.
  • FIG. 114 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 115 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 116 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 117 is a schematic diagram used to explain the motion of the wet robot.
  • FIG. 118 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 119 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 120 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 121 is a schematic diagram used to explain the motion of the bet robot.
  • FIG. 122 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 114 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 115 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 116
  • FIG. 123 is a schematic diagram for explaining the motion of the petrobot.
  • FIG. 124 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 125 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 126 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 127 is a schematic diagram used to explain the motion of a petrobot.
  • FIG. 128 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 129 is a schematic diagram used to explain the motion of a pet robot.
  • FIG. 130 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 13 1 is a schematic diagram for explaining the motion of a pet robot.
  • FIG. 13 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 13 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 13 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 13 is a schematic diagram
  • FIG. 13 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 136 is a schematic diagram used to explain the motion of a pet robot.
  • FIG. 135 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 136 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 137 is a schematic diagram used to explain the motion of the petrobot.
  • FIG. 138 is a schematic diagram used to explain the motion of the robot.
  • FIG. 139 is a schematic diagram used to explain the motion of a pet robot.
  • FIG. 140 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 141 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 142 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 141 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 144 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 144 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 145 is a schematic diagram used to explain the motion of the petropot.
  • FIG. 146 is a schematic diagram used to explain the motion of a petrobot.
  • FIG. 147 is a schematic diagram used to explain the motion of the pet pot.
  • FIG. 148 is a schematic diagram used to explain the motion of the robot.
  • FIG. 149 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 150 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 51 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 152 is a schematic diagram for explaining the motion of the robot.
  • FIG. 153 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 154 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 155 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 156 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 157 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 158 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 159 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 160 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 161 is a schematic diagram used to explain the motion of the bet robot.
  • FIG. 162 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 161 is a schematic diagram used to explain the motion of the bet robot.
  • FIG. 162 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 163 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 164 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 165 is a schematic diagram used to explain the motion of the robot.
  • FIG. 166 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 167 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 168 is a schematic diagram used to explain the motion of the robot.
  • FIG. 169 is a schematic diagram used to explain the motion of the pet robot.
  • FIG. 170 is a schematic diagram used to explain the motion of the robot.
  • Fig. 171 is a schematic diagram for explaining the motion of the pet robot.
  • Fig. 172 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 171 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 173 is a schematic diagram used to explain the motion of the petropot.
  • FIG. 174 is a schematic diagram for explaining the motion of the pet robot.
  • FIG. 175 is a schematic diagram used to explain the motion of the vector robot.
  • FIG. 176 is a schematic diagram explaining the motion of the pet robot.
  • FIG. 177 is a schematic diagram used to explain the motion of the robot. BEST MODE FOR CARRYING OUT THE INVENTION
  • reference numeral 1 denotes a pet robot according to the present embodiment as a whole, and legs 3A to 3D are connected to the front, rear, left and right of a body 2, and a head 4 is attached to the front end of the body 2. Are connected, and a tail 5 is connected to the rear end of the body 2.
  • the body 2 includes a controller 10 for controlling the operation of the petrobot 1 as a whole, a battery 11 as a power source for the petrobot 1, and a battery.
  • An internal sensor unit 14 including a sensor 11, an angular velocity sensor 12, an acceleration sensor 13, and the like are housed.
  • the head 4 also has a microphone 16 that functions as the “ear” of the pet robot 1, a CCD (Charge Coup led Dev ice) camera 17 that functions as the “eye”, and a camera sensor 18 etc.
  • An external sensor section 19 a speaker 20 functioning as an "mouth”, a member 21 functioning as an apparent "mouth” of the pet robot 1, and an unillustrated functioning as an apparent "eye” of the petrobot 1.
  • An LED (Light Emitting Diode) and the like are arranged at predetermined positions.
  • knee joint mechanism 22A to 22D connecting the thigh 3AX to 3DX and the shin 3AY to 3DY in each leg 3A to 3D, and the legs 3A to 3D and the torso 2 respectively.
  • Each shoulder joint mechanism 23 A to 23 D to be connected a neck joint mechanism 24 that connects the body 2 and the head 4, a jaw joint mechanism 25 that drives the opening and closing of the member 21, the body 2 and the tail the a tail joint mechanism 26 for connecting the parts 5, Akuchiyue Isseki 27 t ⁇ 27 18 of each degree of freedom of minutes required is disposed.
  • the microphone 16 of the external sensor unit 19 collects command sounds such as “walk”, “down” or “follow the ball” given by the user via a sound commander (not shown) as a musical scale.
  • the transmitted audio signal S 1 A is sent to the controller 10.
  • the CCD camera 17 takes an image of the surroundings and sends out the obtained image signal S 1 B to the controller 10.
  • the evening sensor 18 is provided above the head 4 and detects the pressure received by a physical action such as “stroke” or “hit” from the user.
  • the detection result is sent to the controller 10 as a pressure detection signal S 1 C.
  • the battery sensor 12 of the internal sensor unit 15 detects the remaining amount of the battery 11 and sends the detection result to the controller 10 as a remaining battery amount detection signal S 2 A.
  • the angular velocity sensor 13 detects angular velocities in three axes (X-axis, y-axis, and z-axis), sends the detection result to the controller 10 as an angular velocity detection signal S 2 B, and the acceleration sensor 14 Detects acceleration in the axis (X-axis, y-axis, and z-axis) directions and sends the detection result to controller 10 as acceleration detection signal S2C.
  • the controller 10 includes a sound signal S 1 A, an image signal S 1 B, and a pressure detection signal S 1 C (hereinafter, referred to as a signal) supplied from the microphone 16, the CCD camera 17, and the evening sensor 18 of the external sensor unit 19, respectively. These are collectively referred to as an external sensor signal S 1), a remaining battery level detection signal S 2 A, and an angular velocity detection signal respectively supplied from the Pali sensor 12, the angular velocity sensor 13, and the acceleration sensor 14 of the internal sensor section 15. Based on S 2 B and acceleration detection signal S 2 C (hereinafter collectively referred to as internal sensor signal S 2), etc., the situation around and inside petrobot 1 and whether or not there is any action from the user Judge and so on.
  • the controller 1 0 includes a result of the determination, previously memory 1 to determine the subsequent actions based on the control program stored in the OA, the determination result need based for Akuchiyue Isseki 2 7, a to 2 7 n
  • the head 4 can be swung up and down, left and right, the tail 5 can be moved, and each leg 3A to 3D can be driven to walk, etc. Of the action.
  • the controller 10 outputs a sound based on the sound signal S3 to the outside by giving a predetermined sound signal S3 to the speaker 20 as necessary, or as an external "eye”. Flash the LED.
  • the pet robot 1 is capable of acting autonomously based on the situation of the surroundings and the self, the presence / absence of a command from the user, and the presence or absence of an action.
  • each of the shoulder joint mechanisms 23A to 23D has a degree of freedom in a rotational direction about a pitch axis parallel to the arrow y and a roll parallel to the arrow X in FIG. It has a degree of freedom in the direction of rotation about the axis.
  • the neck joint mechanism 24 includes a rotation direction about a roll axis parallel to the arrow X in FIG. 1, a rotation direction about a pitch axis parallel to the arrow y, and an arrow z. It has a degree of freedom in the direction of rotation about one parallel axis, so that the head 2 can be moved within a predetermined range in the front-rear direction, the left-right direction, and the tilt direction. .
  • the tail joint mechanism 26 has a degree of freedom in a rotational direction about a mouth axis parallel to the arrow X and a rotational direction about a butterfly axis parallel to the arrow z. As a result, the tail 5 can be moved within a predetermined range in the front-rear direction and the left-right direction.
  • a state recognition mechanism section 30 for recognizing a state and a state recognition mechanism
  • the emotion and instinct model 31 that determines the emotion and instinct state of this robot 1 based on the recognition result of the unit 30 and the recognition result and emotion of the state recognition unit 30 and the instinct model unit 3 1
  • Action decision mechanism 32 that decides the next action based on the emotions and instinct status of the robot, and action that actually causes the robot 1 to express the action or action based on the decision result of the action decision mechanism 32. It can be divided into the generation mechanism 33.
  • the state recognizing mechanism section 30 determines the surroundings and its own based on the external information signal S1 provided from the external sensor section 19 (FIG. 2) and the internal information signal S2 provided from the internal sensor section 15. It recognizes the situation, whether or not there is an instruction from the user, and whether or not there is any action, and notifies the recognition result to the emotion / instinct model unit 31 and the action determination mechanism unit 32 as state recognition information S10.
  • the state recognition mechanism section 30 constantly monitors, for example, the audio signal 1 A given from the microphone 16 of the external sensor section 19 and performs “walking”, “down”, “chasing the ball”, and the like. When a command sound of the corresponding scale is detected, it is recognized that the command has been given, and the recognition result is notified to the emotion / instinct model unit 31 and the action determination mechanism unit 32.
  • the state recognition mechanism section 30 constantly monitors the image signal S 2 A supplied from the CCD camera 17, and for example, includes a “red round object” or “vertical plane” in an image based on the image signal S 2 A. When is detected, it recognizes that "there is a ball” and “there is a wall”, and notifies the recognition result to the emotion / instinct model unit 31 and the action determination mechanism unit 32.
  • the state recognition mechanism section 30 constantly monitors the pressure detection signal S 1 B provided from the evening sensor 18, and based on the pressure detection signal S 1 B, has a predetermined threshold or more and a short time (for example, less than 2 seconds). ) Is detected as being “hit (scorched)" when the pressure is detected, and a pressure that is less than the predetermined threshold value and for a long time (for example, 2 seconds or more) is detected. In this case, it recognizes that it has been "stroked (praised)” and notifies the recognition result to the emotion / instinct model unit 31 and the action decision mechanism unit 32.
  • the state recognition mechanism section 30 constantly monitors the angular velocity detection signal S 2 B given from the angular velocity sensor 13 of the internal sensor section 12, and based on the angular velocity detection signal S 2 B, the X axis, the y axis and Alternatively, when the angular velocity in the z-axis direction is detected, it is recognized that it has rotated or tilted in that direction, and the recognition result is reported to the emotion, instinct model unit 31 and action determination mechanism unit 32.
  • the state recognition mechanism section 30 constantly monitors the acceleration detection signal S 2 C provided from the acceleration sensor 14, and based on the acceleration detection signal S 2 C, calculates the acceleration in the X-axis, y-axis, and / or z-axis directions. When it is detected, it recognizes that it has moved in that direction, and notifies the emotion / instinct model unit 31 and the action determination mechanism unit 32 of the recognition result.
  • Emotions ⁇ Instinct model section 3 1 expresses the strength of each of the six emotions, “joy”, “sadness”, “surprise”, “fear”, “disgust”, and “anger”. Holding the parame Then, the emotion and instinct model unit 31 converts the parameter values of each of these emotions into various recognition results given as state recognition information S 10 from the state recognition mechanism unit 30 and the action determination mechanism unit as described later. The change is made sequentially based on the action decision information S 13 indicating the determined output action given from 3 2 and the elapsed time. Specifically, the emotion and instinct model unit 31 determines the degree to which the recognition action obtained based on the state recognition information 10 and the output action based on the action determination information S13 act on the emotion (predetermined.
  • the amount of change in the emotion calculated by a predetermined arithmetic expression based on the degree of suppression and stimulation received from other emotions and the elapsed time is ⁇ ⁇ [t].
  • the evening value E [t] a factor representing the ratio to change its emotion in accordance with the recognition result such as k e, the following expression in a predetermined cycle
  • the emotional and instinct model section 31 determines the strength of the desire for each of the four independent needs of “exercise desire”, “affection desire”, “appetite” and “curiosity”. Holds a parade that represents the length. Then, the emotion and instinct model unit 31 sequentially updates the parameter values of the desire based on the recognition result from the state recognition unit 30, the elapsed time, and the notification from the action determination unit 32, respectively. I do. Specifically, the emotion and instinct model unit 31 calculates a predetermined arithmetic expression for “motor desire”, “love desire” and “curiosity” based on the output behavior of the pet robot 1, elapsed time, recognition result, and the like. The variation of the desire calculated by ⁇ I [k], the parameter value of the subtraction in the subtraction is I [k], and the coefficient representing the sensitivity of the desire is k, where
  • I [k + l] I [k] + k, ⁇ I [k] ...
  • emotions and instinct model section 31 sent state recognition mechanism section 30 for “appetite”. Based on the remaining battery level detection signal S 2 A ( Figure 2) given via
  • the emotion and parameter Isseki value of each desire is regulated so as to vary between 0 and 100, respectively, also the coefficient k e, k, values are also each emotion and each It is set individually for each desire.
  • the action determination mechanism unit 32 stores the state recognition information S10 given from the state recognition mechanism unit 30, the parameter values of each emotion and each desire in the emotion and instinct model unit 31, and the memory 1OA in advance. The next action is determined on the basis of the action model and the elapsed time, and the determination result is output to the emotion / instinct model section 31 and the action generation mechanism section 33 as action determination information S12.
  • the action determination mechanism 32 uses one node (state) NOD E as shown in FIG. 4 as a method for determining the next action. From each node NODE to transition to the same or another node NOD Eo to NODE n . Arc ARC connecting between ⁇ NODE n . The transition probability P set for each of ARCARC n . An algorithm called a stochastic automaton that is determined stochastically based on Pn is used.
  • each node NODE is used as an action model in memory 1 OA.
  • a state transition table 40 as shown in FIG. 5 is stored for each of ⁇ NODE n , and the behavior setting mechanism unit 32 determines the next behavior based on the state transition table 40.
  • Input event to transition condition Te ⁇ NODE n odor is "Input Event In the "Data Name” and "Data Range” rows in the corresponding columns.
  • the node NODE 1C defined in the state transition table 40 of FIG.
  • the “size (SI ZE)” of the ball given together with the recognition result is in the range of 0 to 1000 (0, 1000).
  • 1000) or the recognition result“ OBSTACLE ”is given, the“ DI STANCE ”to the obstacle given with the recognition result is“ 0 ”.
  • Being in the range of 1000 (0, 1000) ” is a condition for transitioning to the node itself or another node.
  • the behavioral determination mechanism 32 periodically refers to the emotions. ), “SUPR IS ⁇ ” or “SUDNESS” if the parameter value of the emotion is “range from 50 to 100 (50, 100)”. It can transition to
  • the node NOD E is set in the column of “destination node” in the column of “transition probability to another node”.
  • ⁇ NODE n are listed, and if all the conditions described in the ⁇ input event name '', ⁇ de-night value '' and ⁇ de-night range '' lines are met, Node NOD E.
  • the node NOD E. in the column of transition probabilities to ⁇ NOD E n is "probability of transition to another node" Written in the row of ⁇ NODE n, this time action or motion is output is described in the row of "output behavior".
  • the sum of the transition probabilities of each row in the column “Transition probabilities to other nodes” is 100%.
  • node NODE 10 in this example, if a ball is detected (BALL) and a recognition result indicating that the “size (SI ZE)” of the ball is in the range of 0 to 1000 (0, 10 00) is given, , "30 [%]” with a probability of transitioning to "node NODE 12. (node 120)" 1) will be output.
  • the behavior model is a node NO DE described as such a state transition table 40.
  • ⁇ NODE n are connected to each other.
  • the action determining mechanism 32 is stored in the memory 1OA when the state recognition information S10 is given from the state recognition mechanism 30 or when a certain time has elapsed since the last appearance of the action.
  • the next action or action (the action or action described in the row of “output action”) is stochastically determined using the state transition table 40 of NODE n to NODE n , and the determination result is set as action determination information S12. Emotion ⁇ Output to the instinct model section 31 and the action generation mechanism section 33.
  • the behavior generation mechanism 33 based on the action determination information S 13 supplied from the action determination mechanism part 32, the required Akuchiyue Isseki 2 ⁇ ⁇ ⁇ 27 18 drive signals S 14 (S 14i (FIG. 2) SS 14 18 ), the audio signal S 3 required for the speaker 20 (FIG. 2), and the LED drive signal S 15 to the LED as the “eye”.
  • behavior generation mechanism 33 or to output or to drive the ⁇ click Chiyue Isseki 27i ⁇ 27 18 required for a given state based on the driving signal S 14, the audio based on the audio signal S 3 from the speaker 20
  • the LED blinks with a blinking pattern based on the drive signal 315.
  • the controller 10 causes the robot 1 to act autonomously based on the external and internal situations of the robot 1 and the presence or absence of a user's action.
  • the bot 1 is designed to express the creature-like and robot-like qualities by its motion.
  • the motions include a “fallback motion” that rises when you fall, a “robot motion” that performs a robot-like motion, and a dog-like motion.
  • “Dog motion”, “Ball-adaptive motion” when a ball is found, “Emotional expression motion” to express emotions, “Hima motion” to be performed when free can be divided into types, such as “linguistic motions” that attempt to convey their intentions to others.
  • the robot 1 first extends the left front leg 3A and the right front leg 3B and the left rear leg 3C and the right rear leg 3D as shown in Fig. Then, as shown in FIG. 6B to FIG. 6D, the left front leg 3A and the left rear leg 3C, which have become lower due to the fall, are rotated in directions to open each other.
  • the shin 3AY (FIG. 1) is rotated from the front to the rear so that the left front leg 3A is warped backward, and the left rear leg 3C is moved forward.
  • Rotate the shin 3 CY (Fig. 1) forward from behind so that it is deflected.
  • FIG. 6D the thigh 3AX of the left front leg 3A (FIG. 1) and the thigh 3CY of the left hind leg 3C (FIG. 1) are almost parallel to each other.
  • a and the left rear leg 3C are opened, the left front leg 3A and the left rear leg 3C are rotated outward.
  • FIGS.6E and 6F the petrobot 1 is rotated so that the abdominal surface of the torso part 2 is in contact with the floor as a whole, and as shown in FIG.
  • the pet robot 1 rotates the left front leg 3A and the left rear leg 3C in a direction to close each other, so that the left front leg 3A and the left The rear legs 3C are pulled toward the body 2, respectively, so that a basic standing posture is obtained.
  • the pet robot 1 first rotates the right foreleg 3B and the left foreleg 3A in the opening direction, and the right foreleg 3B and the left foreleg. Rotate 3A around its pitch axis so that the grounding surface, which is the bottom surface of the tip, faces the floor.
  • the right forefoot 3B and the left forefoot 3A are so fixed that the ground contact surfaces of the right forefoot 3B and the left forefoot 3A do not contact the floor surface.
  • the right fore leg 3B and the left fore leg 3A are rotated in a direction to close each other while each being bowed.
  • the pet robot 1 first extends the right front leg 3B and left front leg 3A and the right rear leg 3D and left rear leg 3C as shown in FIG. Then, lift the head 4 (Fig. 2) forward as viewed from the pet robot 1 as shown in Figs. 11B and 11C.
  • FIG. 12A the right rear leg 3D and the left rear leg 3C are opened until they are almost parallel, and the right front leg 3B and the left front leg 3A are on the floor.
  • the right hind leg 3D and the left hind leg 3C are each rotated in the direction of closing each other while being bowed.
  • FIG. 13A when the right hind leg 3D and the left hind leg 3C are closed until they are almost parallel, as shown in FIGS. 13B to 13F, the right hind leg 3D is closed.
  • the right rear leg 3D and the left rear leg 3C are pulled toward the body 2, Then, the right hind leg 3D and the left hind leg 3C, which are bent, are extended, respectively, to obtain a basic “standing” posture and the motion ends.
  • the robot 1 assumes the basic “standing” posture as shown in FIG. 14A by the above-mentioned fall return motion, then, as shown in FIG. 14B, the left front leg 3A (or Move the center of gravity so that the weight is not applied to the right front leg 3B), and then rotate the left front leg 3A (or the right front leg 3B) forward as shown in Fig. 14 (: to Fig. 14F).
  • the shin 3AY (3BY) of the left front leg 3A (or the right front leg 3B) is rotated in the backward direction of the pet robot 1 so that the left front leg 3A (or the right front leg). 3B) and also, the head 4 is rotated by a predetermined angle to the right (or left) as viewed from the robot 1.
  • the robot 1 is rotated several times in the left and right direction, and thereafter, as shown in FIGS. 18B and 18C, the right front leg 3B and the left front leg 3A are connected to each other.
  • the original basic Return to the posture and end this motion.
  • the head 4 can be swung right and left to express a manner as if regaining energy, thereby giving the user an elegant impression.
  • FIG. 19A to FIG. 2OF show the flow of a fall-back motion for returning to fall when the pet robot 1 falls to the right. This fall return motion is similar to the first fall return motion except that the direction is reversed. (3-2) Robot language motion
  • the first robot language motion is expressed when the pet robot 1 is in a basic “sitting” posture.
  • the pet robot 1 is in a state where the right fore leg 3B and the left fore leg 3A are extended in the front direction of the pet robot 1 and the sitting is performed, as shown in FIG. 21B and FIG. 21C.
  • the right front leg 3B and the left front leg 3A are rotated in the opening direction.
  • the right hind leg 3D and the left hind leg 3C are extended forward as shown in FIGS. 21B to 21E, and thereafter, the right hind leg 3D and the left hind leg 3C are extended. These are radially stretched by rotating the robot back in the direction of the bet robot 1.
  • FIG. 21A the pet robot 1 is in a state where the right fore leg 3B and the left fore leg 3A are extended in the front direction of the pet robot 1 and the sitting is performed, as shown in FIG. 21B and FIG. 21C.
  • the right front leg 3B and the left front leg 3A are rotated in the opening direction.
  • the right hind leg 3D and the left hind leg 3C are extended
  • the posture of the robot 1 is such that the right front leg 3B and the left rear leg 3C and the left front leg 3A and the right rear leg 3D form an “X” mark. Becomes At this stage, when the right hind leg 3D and the left hind leg 3C are opened almost in parallel, the right hind leg 3D and the left hind leg 3C are moved 180 degrees around the pitch axis. ] To rotate it. Next, as shown in FIGS.22A to 22E, the right forelimb 3B and the left forelimb 3A, Lift the pet robot 1 upward while warping the right rear leg 3D and the left rear leg 3C, respectively. At the same time, the head 4 is lifted to warp the pet robot 1 backward, and the mouth is opened, and the tail 5 is lifted above the pet robot 1 to warp the entire body.
  • FIGS. 22F to 23D the operation is reversed from that of FIGS. 21F to 22E to return to the original posture as shown in FIG. 23D.
  • the same operation as in FIGS. 21F to 23D is repeated two to three times.
  • the second robot language motion is expressed when the pet robot 1 is in a basic “sitting” posture, as shown in FIG. 25A.
  • the pet robot 1 starts from the “sitting” posture as shown in FIG. 25A, and then proceeds from FIG. 25A to FIG. 27 in the same manner as in FIGS. 21A to 21F of the first robot language motion.
  • an "X" mark is formed by the right front leg 3B and the left rear leg 3C and the left front leg 3A and the right rear leg 3D.
  • the posture to form.
  • FIGS. 27B to 28D a straight line formed by the right foreleg 3B and the left hind leg 3C, and a straight line formed by the left foreleg 3A and the right hind leg 3D.
  • the right fore leg 3B and left hind leg 3C and the left fore leg 3A and right hind leg 3D are alternately arranged on the left and right sides of the pet robot 1, respectively, so as not to change the angle formed by the straight line. Rotate several times at a predetermined angle.
  • the third robot language motion will be described.
  • the pet robot 1 is expressed as performance in response to a command from the user.
  • the petrobot 1 moves the right hind leg 3D and the left hind leg 3C slightly outward as shown in Fig. 31B from the basic "sitting" posture shown in Fig. 31A. Then, as shown in FIG. 31C to FIG. 31F, lift the right rear leg 3D and the left rear leg 3C to positions where the tips are slightly higher than the shoulders.
  • the right hind leg 3D and the left hind leg 3C are sequentially rotated a plurality of times in the opening direction and the closing direction, respectively. Swing leg 3D and left hind leg 3C multiple times.
  • Fig. 34A to Fig. 35C show the fourth robot language motion
  • Fig. 36A to Fig. 37E show the fifth robot language motion
  • Fig. 38A to Fig. 39F shows the sixth robot language motion
  • Figures 4OA to 42E show the seventh robot language motion.
  • This first dog motion is expressed when the pet robot 1 is in a basic “sitting” posture, as shown in FIG. 43A.
  • the robot 1 first moves from the “sitting” position in which the right foreleg 3B and the left foreleg 3A are extended forward as shown in FIG. 43A, and then to the left as shown in FIGS. 43B and 43C. Move the hind leg 3C (or right hind leg 3D) so that it opens slightly outward, and then, as shown in Figure 43D to 43F, the left hind leg 3C (or right hind leg 3D). ).
  • the head 4 is turned so as to face diagonally upward and forward right of the robot 1 (or diagonally upward and forward to the left).
  • This second dog motion is generated when the pet robot 1 is in the “standing” posture, as shown in FIG. 46A.
  • the petrobot 1 has the right hind leg 3D (or the left hind leg 3C). ), And then move the right rear leg 3D (or left rear leg 3C) slightly outward as shown in Fig. 46C-Fig. 47A. Then, lift the right rear leg 3D (or the left rear leg 3C) upward of the petrobot 1. At this time, the knee 3DY (3 CY) of the right hind leg 3D (or the left hind leg 3C) is moved to a point where the thigh 3DX (3 CX) and the shin 3DY (3 CY) are almost at right angles. Bend.
  • FIGS. 48A to 51C show a third dog motion
  • FIGS. 52A to 54A show a fourth dog motion
  • FIGS. 55A to 58A show a fifth dog motion
  • Figures 59A to 61C show the flow of the sixth dog motion, respectively.
  • ball-compatible motion the motion of the robot 1 when the ball is detected
  • This first ball motion is a motion that appears when the robot 1 detects the ball.
  • the center of gravity is moved so that the weight is not applied to the left front leg 3A (or the right front leg 3B), and thereafter, as shown in Figs. 62C to 62F.
  • the pet robot 1 is rotated by a predetermined angle in the backward direction so that the left front leg 3A (or the right front leg 3B) approaches the left rear leg 3C (or the right rear leg 3D).
  • the head 4 was tilted toward the position immediately before the left front leg 3A (or the right front leg 3B). Then, as shown in FIGS.
  • the left front leg 3A (or right front leg 3B) is extended while the left front leg 3A (or right front leg 3B) pulled backward is extended.
  • a motion of kicking the ball can be performed by such a first ball-compatible motion, whereby the motion of the bet robot 1 playing with the ball can be expressed.
  • the posture is lowered by bending the right foreleg 3B and the left foreleg 3A and the right hind leg 3D and the left hind leg 3C, respectively.
  • the head 4 is turned downward by rotating the head 4 in the forward direction of the pet robot 1 .o
  • Fig. 65D and Fig. 65E put the head 4 on the right (or left) While pulling and rotating, the head 4 is then vigorously rotated diagonally forward to the left (or right) side where the ball is located as shown in Figs. 65F to 67B.
  • FIG. 7C and FIG. 67D while bending the head 4 so that it faces the front of the petrobot 1, the bent right fore leg 3B and the left fore leg 3A, Extend the right hind leg 3D and left hind leg 3C to return to the original "standing" posture and end this motion.
  • This third ball-compatible motion is a motion that occurs when the robot 1 detects the ball.
  • the petrobot 1 detects the ball, it walks close to the position immediately after that, and then assumes a basic “standing” posture as shown in FIG. 68A.
  • Fig. 68B the whole body is pulled backward in the robot 1 while bending the right hind leg 3D and the left hind leg 3C to bend their postures.
  • FIG. 68C to FIG. 68F by rotating the head 4 forward after the robot 1, the head 4 is lowered deeply until the top of the head is directed forward.
  • the right fore leg 3B and the left fore leg 3A are rotated backwards of the robot 1 while bending the knees, resulting in a contracted state.
  • the whole body is slightly moved forward of the robot 1 with the right hind leg 3D and the left hind leg 3C being stretched vigorously. Push the ball forward by rotating the head 4 backward.
  • the robot 1 detects the ball, it walks and approaches the ball so that it is located directly in front of the robot 1, and thereafter, the basic “standing” as shown in FIG. Posture.
  • FIGS. 81A to 83B show the eighth ball-compatible motion, respectively.
  • the first emotional expression motion is such that when the robot 1 is sitting with the right hind leg 3D and the left hind leg 3C extended forward, for example, a loud noise is generated around the robot. It is manifested when you do or when an object suddenly appears in front of you.
  • Fig. 84A when the robot 1 sits as shown in Fig. 84A, for example, if a loud sound is suddenly generated in the surroundings or an object suddenly appears in front of the eyes, as shown in Fig. 84B, Raise the right rear leg 3D and the left rear leg 3C momentarily. At the same time, the head is rotated backwards so that the head 4 is momentarily warped, the mouth is opened, and the tail 5 is momentarily raised. Thereafter, as shown in FIG. 84C, the user returns to the original sitting state.
  • This second emotional expression motion occurs when Petrobot 1 expresses the emotion of “anger” .o
  • the robot 1 starts from the basic “standing” posture as shown in Figure 85A, and then moves to the right front leg 3B (or left front leg 3A) as shown in Figure 85B and Figure 85C. After that, move the center of gravity so that the weight is not applied to the robot, and then swing the right front leg 3B (or the left front leg 3A) as a whole in the front-rear direction of the petrobot 1 as shown in Fig. 85D to Fig. 86F.
  • the shin 3BY (3AY) of the right forelimb 3B (or the left forelimb 3A) is swung in the front-rear direction, so that the right forelimb 3B (or the left forelimb 3A) is moved.
  • the floor surface several times.
  • the head 4 is turned downward so as to look at the floor, and among the LEDs that function as “eyes”, the angry red Blink the color LED.
  • This third emotional expression motion is a motion that appears when the pet robot 1 “dislikes” it.
  • the pet robot 1 moves the right fore leg 3B and the left fore leg 3A to the thighs 3BX and 3BX as shown in FIGS. 88B to 88D. Lift until AX is close to horizontal, and rotate head 4 to the right (or left) to the right (or left).
  • the right fore leg 3B bends the knee 3 BY until the contact surface faces forward, and the left fore leg 3A bends the knee 3 AY further deeper.
  • FIG. 91A to FIG. 93A show the fourth emotion expression motion
  • FIG. 94A to FIG. 96A show the fifth emotion expression motion
  • FIG. 97 to FIG. Fig. 99A to Fig. 99C show the seventh emotion expression motion
  • Fig. 100A to Fig. 102A show the eighth emotional expression motion
  • Fig. 103A to Fig. 105E show the ninth emotional expression motion
  • Figure 10 shows the flow of the 10th emotional expression motion.
  • a motion (hereinafter, referred to as a free motion) that the pet robot 1 manifests when a specific recognition result cannot be obtained in the state recognition mechanism 30 (FIG. 3) of the controller 10 (FIG. 2). I do.
  • the first leisure motion is expressed when the pet robot 1 is in a basic “sitting” posture, as shown in FIG. 108A.
  • the pet robot 1 starts from a basic “sitting” posture as shown in FIG. 108A, and as shown in FIG. 108B to FIG. Gently lift A while slightly opening each A outward.
  • the shin 3AY of the right front leg 3B and the left front leg 3A is warped backward.
  • the body of the pet robot 1 is supported by the rear end of the abdominal surface of the body 2 and the right rear leg 3D and the left rear leg 3C.
  • FIG. 109C lift the right front leg 3B and the left front leg 3A until the thighs 3BX and 3AX of the right front leg 3B and the left front leg 3A are substantially horizontal.
  • FIGS. 109D to 1111B the mouth is opened while the head 4 is warped backward.
  • the right fore leg 3B and the left fore leg 3A rotate the right fore leg 3B and the left fore leg 3A downward while returning them in the closing direction.
  • This second leisure motion is when the robot 1 extends the right hind leg 3D and the left hind leg 3C slightly outward and extends forward as shown in Fig. 11A. Motion expressed in
  • the robot 1 first rotates the head 4 so as to draw an arc from the state of FIG. 11A as shown in FIGS. 11B to 11A. At this time, the mouth is open.
  • Fig. 116A to Fig. 119E show the third leisure motion
  • Fig. 1208 to Fig. 124A show the fourth leisure motion
  • Fig. 125A to Fig. 1 The fifth leisure motion at 27 A, the sixth leisure motion at Figure 1228 A to Figure 13 B, the seventh leisure motion at Figure 13 A to Figure 13 A, Figure 13 4 Figures A to 13E show the flow of the eighth leisure motion, respectively.
  • This first language motion is a motion that is generated when the pet robot 1 is in the basic “sitting” posture as shown in FIG.
  • the pet robot 1 is moved from the basic “sitting” posture shown in Figure 13A to the right forefoot 3B and the left forefoot 3A as shown in Figure 13B to Figure 13E.
  • To the shoulder level and then, as shown in Fig. 1337F to Fig. 1338E, move the right fore leg 3B and the left fore leg 3A by their respective tips. Move it down like an arc.
  • Fig. 144A to Fig. 144A show the second language motion
  • Fig. 144A to Fig. 144E show the third language motion
  • Fig. 144A to Fig. 15F to 4th language motion
  • Fig. 15 Figures 8A to 16A show the seventh language motion, respectively.
  • FIGS. Fig. 166A to Fig. 168E show the flow of growth motion
  • Fig. 16 9A to Fig. 17 1F show the flow of the 3rd growth motion
  • Fig. 17 2A to Fig. 17D show the flow of the 4th growth motion
  • Fig. 5 shows the flow of the 5th growth motion
  • the pet robot 1 falls down and returns depending on its motion, and expresses the creature-like and robot-like qualities.
  • the user needs to be able to stand even when the pet robot 1 falls because the motion (movement) causes the robot to fall back and express the creature-like and robot-like qualities.
  • the motion can give the user a feeling of attachment and curiosity, thus realizing a robot 1 that can improve the amiability.
  • the present invention can be applied to a pet robot.

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Description

明 細 書 ロボット装置 技術分野
本発明はロボット装置に関し、 例えば 4脚歩行型のぺットロボッ卜に適用して 好適なものである。 背景技術
近年、 本願出願人により 4脚歩行型のペットロボットが開発されている。 かか るペットロボットは、 周囲の環境や、 ユーザからの働きかけなどに応じて自律的 に行動を行するものである。
ところでかかるぺットロボッ卜において、 転倒したときにも自らの力によって 起き上がることができるようにすることができれば、 かかるぺットロボットを起 こすためのユーザの手間を省略させると共に、 生物らしさを向上させてエンター -ティメント性を向上させ得るものと考えられる。
またかかるペットロボットにおいて、 その動きによって愛らしさや、 面白みな どを表現することができれば、 ペットロボットに対するユーザの愛着心及び好奇 心を向上させて、 エンターティメント性をより一層向上させ得るものと考えられ る。 発明の開示
本発明は以上の点を考慮してなされたもので、 エンターティメント性をより一 層向上させ得るロボット装置を提案しょうとするものである。
かかる課題を解決するため本発明においては、 胴体部の前後左右にそれぞれ脚 部が連結された 4脚歩行型のロボット装置において、 各脚部をそれぞれ個別に駆 動する駆動手段と、 駆動手段を駆動制御する制御手段とを設け、 制御手段は、 口 ボット装置が横方向に転倒したときに、 胴体部の下側に位置する前後の各脚部を 互いに開く方向にそれぞれ回転させた後、 当該各脚部を胴体部から離反する方向 にそれぞれ回転させるように駆動手段を駆動制御するようにした。 この結果この ロボット装置によれば、 自力で転倒復帰することができるため、 かかるロボッ ト 装置を起こすためのユーザの手間を省略させると共に生物らしさを向上させて、 エンターティメント性を向上させることができる。
また本発明においては、 胴体部の前後左右にそれぞれ脚部が連結された 4脚歩 行型のロボット装置において、 各脚部をそれそれ個別に駆動する駆動手段と、 駆 動手段を駆動制御する制御手段とを設け、 制御手段が、 ロボット装置が前方向に 転倒したときに、 胴体部の前側の各脚部を当該胴体部の前側においてほぼ平行と なるまでそれぞれ回転させた後、 当該各脚部を胴体部の後方向に回転させるよう に駆動手段を駆動制御するようにした。 この結果このロボット装置によれば、 自 力で転倒復帰することができるため、 かかるロボット装置を起こすためのユーザ の手間を省略させると共に生物らしさを向上させて、 エンターテイメント性を向 上させることができる。
さらに本発明においては、 胴体部の前後左右にそれぞれ脚部が連結された 4脚 歩行型のロボット装置において、 各脚部をそれぞれ個別に駆動する駆動手段と、 駆動手段を駆動制御する制御手段とを設け、 制御手段が、 ロボット装置が後方向 に転倒したときに、 胴体部の後側の各脚部を当該各脚部がほぼ直線状になるまで 胴体部から離反する方向にそれぞれ回転させた後、 当該各脚部を胴体部の前方向 に回転させるように駆動手段を駆動制御するようにした。 この結果このロボット 装置によれば、 自力で転倒復帰することができるため、 かかるロボット装置を起 こすためのユーザの手間を省略させると共に生物らしさを向上させて、 エンター ティメント性を向上させることができる。
さらに本発明においては、 胴体部の前後左右にそれぞれ脚部が連結された 4脚 歩行型のロボット装置において、 各脚部をそれぞれ個別に駆動する駆動手段と、 駆動手段を駆動制御する制御手段とを設け、 制御手段が、 各脚部を放射状に広げ させた後、 各脚部を胴体部の上方向に反らせるように駆動手段を駆動制御するよ うにした。 この結果このロボット装置では、 かかるモーションによってロボッ ト らしさを表現することができ、 かくしてエンターティメント性を向上させること ができる。
さらに本発明においては、 胴体部の前後左右にそれぞれ脚部が連結されると共 に、 胴体部の前部に頭部が配設された 4脚歩行型のロボット装置において、 各脚 部及び頭部をそれぞれ個別に駆動する駆動手段と、 駆動手段を駆動制御する制御 手段とを設け、 制御手段が、 胴体部における一方の脚部の先端部が頭部の後部に おいて上下動するように駆動手段を駆動制御するようにした。 この結果このロボ ット装置では、 かかるモーションによってあたかも後頭部を搔いているかのよう な仕種を表現することができ、 生物らしさをアピールして、 エンターテイメント 性を向上させることができる。 図面の簡単な説明
図 1は、 本実施の形態によるぺッ トロボッ卜の構成を示す斜視図である。
図 2は、 本実施の形態によるぺッ トロボッ卜の構成を示す斜視図である。
図 3は、 コントローラの処理の説明に供するプロック図である。
図 4は、 確率オートマトンの説明に供する概念図である。
図 5は、 状態遷移表の説明に供する概念図である。
図 6は、 ぺットロボッ卜のモーションの説明に供する略線図である。
図 7は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。
図 8は、 ぺットロボットのモ一ションの説明に供する略線図である。
図 9は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。
図 1 0は、 ぺットロボッ卜のモーションの説明に供する略線図である。
図 1 1は、 ペットロボットのモーションの説明に供する略線図である。
図 1 2は、 ぺットロボヅ卜のモーションの説明に供する略線図である。
図 1 3は、 ぺヅトロボッ卜のモーションの説明に供する略線図である。 図 1 4は、 ペットロボットのモ- シヨンの説明に供する略線図である 図 1 5は、 ペットロボットのモ- シヨンの説明に供する略線図である 図 1 6は、 ペットロボッ トのモ- シヨンの説明に供する略線図である 図 1 7は、 ペットロボッ 卜のモ- シヨンの説明に供する略線図である 図 1 8は、 ペットロボッ 卜のモ- シヨンの説明に供する略線図である 図 1 9は、 ペッ トロボットのモ- シヨンの説明に供する略線図である 図 2 0は、 ペットロボッ卜のモ- シヨンの説明に供する略線図である 図 2 1は、 ペットロボッ卜のモ' シヨンの説明に供する略線図である 図 2 2は、 ペットロボッ 卜のモ- シヨンの説明に供する略線図である 図 2 3は、 ペットロボッ卜のモ- シヨンの説明に供する略線図である 図 2 4は、 ペットロボッ 卜のモ- シヨンの説明に供する略線図である 図 2 5は、 ペットロボッ 卜のモ- シヨンの説明に供する略線図である 図 2 6は、 ペットロボットのモ' シヨンの説明に供する略線図である 図 2 7は、 ペットロボッ 卜のモ- シヨンの説明に供する略線図である 図 2 8は、 ペットロボットのモ- シヨンの説明に供する略線図である 図 2 9は、 ペットロボッ トのモ- シヨンの説明に供する略線図である 図 3 0は、 ペットロボットのモ- シヨンの説明に供する略線図である 図 3 1は、 ペットロボッ卜のモ' 'シヨンの説明に供する略線図である 図 3 2は、 ペットロボッ 卜のモ- シヨンの説明に供する略線図である 図 3 3は、 ペットロボッ 卜のモ- 'シヨンの説明に供する略線図である 図 3 4は、 ペットロボットのモ- 'シヨンの説明に供する略線図である 図 3 5は、 ペットロボッ 卜のモ' 'シヨンの説明に供する略線図である 図 3 6は、 ペットロボットのモ- シヨンの説明に供する略線図である 図 3 7は、 ベットロボッ トのモ- シヨンの説明に供する略線図である 図 3 8は、 ペットロボッ 卜のモ- シヨンの説明に供する略線図である 図 3 9は、 ペットロボットのモ' 'シヨンの説明に供する略線図である 図 4 0は、 ペットロボットのモ- シヨンの説明に供する略線図である 図 4 1は、 ペットロボットのモーションの説明に供する略線図である < 図 4 2は、 ぺヅトロボッ トのモーションの説明に供する略線図である < 図 4 3は、 ペットロボッ トのモーションの説明に供する略線図である < 図 4 4は、 ペットロボットのモーションの説明に供する略線図である, 図 4 5は、 ペットロボットのモーションの説明に供する略線図である, 図 4 6は、 ペットロボットのモーションの説明に供する略線図である < 図 4 7は、 ペットロボットのモーションの説明に供する略線図である, 図 4 8は、 ペットロボットのモーションの説明に供する略線図である, 図 4 9は、 ペットロボットのモーションの説明に供する略線図である < 図 5 0は、 ペットロボットのモーションの説明に供する略線図である, 図 5 1は、 ベットロボットのモーションの説明に供する略線図である, 図 5 2は、 ペットロボットのモーションの説明に供する略線図である, 図 5 3は、 ペットロボットのモーションの説明に供する略線図である, 図 5 4は、 ペットロボットのモーションの説明に供する略線図である, 図 5 5は、 ペットロボットのモーションの説明に供する略線図である, 図 5 6は、 ペットロボットのモーションの説明に供する略線図である, 図 5 7は、 ペットロボットのモーションの説明に供する略線図である, 図 5 8は、 ペットロボットのモーションの説明に供する略線図である, 図 5 9は、 ペットロボットのモーションの説明に供する略線図である, 図 6 0は、 ペットロボットのモーションの説明に供する略線図である, 図 6 1は、 ペットロボットのモーションの説明に供する略線図である, 図 6 2は、 ペットロボットのモーションの説明に供する略線図である, 図 6 3は、 ペット口ポットのモーションの説明に供する略線図である, 図 6 4は、 ペットロボットのモーションの説明に供する略線図である, 図 6 5は、 ペットロボットのモーションの説明に供する略線図である, 図 6 6は、 ペットロボットのモーションの説明に供する略線図である, 図 6 7は、 ペットロボットのモーションの説明に供する略線図である, 図 6 8は、 ペットロボッ卜のモーションの説明に供する略線図である。 図 6 9は、 ぺットロボットのモーションの説明に供する略線図である。 図 7 0は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 7 1は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 7 2は、 ぺットロボットのモーションの説明に供する略線図である。 図 7 3は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 7 4は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 7 5は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 7 6は、 ぺットロボヅ トのモーションの説明に供する略線図である。 図 7 7は、 ぺットロボヅ 卜のモーションの説明に供する略線図である。 図 7 8は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 7 9は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 8 0は、 ぺットロボットのモーションの説明に供する略線図である。 図 8 1は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 8 2は、 ペットロボッ卜のモーションの説明に供する略線図である。 図 8 3は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 8 4は、 ぺットロボットのモーションの説明に供する略線図である。 図 8 5は、 ペットロボッ卜のモーションの説明に供する略線図である。 図 8 6は、 ぺットロボットのモーションの説明に供する略線図である。 図 8 7は、 ペットロボッ卜のモーションの説明に供する略線図である。 図 8 8は、 ぺヅトロボッ卜のモーションの説明に供する略線図である。 図 8 9は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 9 0は、 ぺットロボットのモーションの説明に供する略線図である。 図 9 1は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 9 2は、 べットロボットのモーションの説明に供する略線図である。 図 9 3は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 9 4は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 9 5は、 ぺットロボッ 卜のモーションの説明に供する略線図である。 図 9 6は、 ペットロボッ卜のモーションの説明に供する略線図である。 図 9 7は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 9 8は、 ぺッ卜ロボットのモーションの説明に供する略線図である。 図 9 9は、 ぺットロボットのモーションの説明に供する略線図である。 図 1 0 0は、 ペッ トロボッ卜のモーションの説明に供する略線図である。 図 1 0 1は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。 図 1 0 2は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。 図 1 0 3は、 ペットロボットのモーションの説明に供する略線図である。 図 1 0 4は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。 図 1 0 5は、 ペットロボッ卜のモーションの説明に供する略線図である。 図 1 0 6は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 1 0 7は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。 図 1 0 8は、 ぺットロボットのモーションの説明に供する略線図である。 図 1 0 9は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。 図 1 1 0は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 1 1 1は、 ぺッ トロボットのモーションの説明に供する略線図である。 図 1 1 2は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 1 1 3は、 ぺッ トロボヅ卜のモーションの説明に供する略線図である。 図 1 1 4は、 ペットロボヅ卜のモーションの説明に供する略線図である。 図 1 1 5は、 ペッ トロボッ卜のモーションの説明に供する略線図である。 図 1 1 6は、 ぺッ トロボットのモーションの説明に供する略線図である。 図 1 1 7は、 べットロボッ卜のモーションの説明に供する略線図である。 図 1 1 8は、 ペッ トロボットのモーションの説明に供する略線図である。 図 1 1 9は、 ペッ トロボットのモーションの説明に供する略線図である。 図 1 2 0は、 ペッ トロボッ卜のモーションの説明に供する略線図である。 図 1 2 1は、 べッ トロボットのモーションの説明に供する略線図である。 図 1 2 2は、 ペッ トロボッ 卜のモーションの説明に供する略線図である。 図 1 2 3は、 ぺッ トロボッ 卜のモーションの説明に供する略線図である。 図 1 2 4は、 ペットロボッ 卜のモーションの説明に供する略線図である。 図 1 2 5は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。 図 1 2 6は、 ペットロボッ 卜のモーションの説明に供する略線図である。 図 1 2 7は、 ぺッ トロボッ 卜のモーションの説明に供する略線図である。 図 1 2 8は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 1 2 9は、 ぺットロボッ 卜のモーションの説明に供する略線図である。 図 1 3 0は、 ペッ トロボットのモーションの説明に供する略線図である。 図 1 3 1は、 ぺットロボッ 卜のモーションの説明に供する略線図である。 図 1 3 2は、 ペットロボッ 卜のモーションの説明に供する略線図である。 図 1 3 3は、 ペットロボッ卜のモーションの説明に供する略線図である。 図 1 3 4は、 ぺットロボヅトのモーションの説明に供する略線図である。 図 1 3 5は、 ぺットロボットのモーションの説明に供する略線図である。 図 1 3 6は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 1 3 7は、 ぺッ トロボッ 卜のモーションの説明に供する略線図である。 図 1 3 8は、 ぺヅ トロボットのモーションの説明に供する略線図である。 図 1 3 9は、 ぺッ 卜ロボッ卜のモーションの説明に供する略線図である。 図 1 4 0は、 ぺットロボッ 卜のモーションの説明に供する略線図である。 図 1 4 1は、 ぺッ トロボットのモーションの説明に供する略線図である。 図 1 4 2は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 1 4 3は、 ぺットロボッ卜のモーションの説明に供する略線図である。 図 1 4 4は、 ぺットロボットのモーションの説明に供する略線図である。 図 1 4 5は、 ぺヅトロポットのモーションの説明に供する略線図である。 図 1 4 6は、 ぺヅトロボッ卜のモーションの説明に供する略線図である。 図 1 4 7は、 ぺットロポッ卜のモーションの説明に供する略線図である。 図 1 4 8は、 ぺヅトロボットのモーションの説明に供する略線図である。 図 1 4 9は、 ペッ トロボッ卜のモーションの説明に供する略線図である。 図 1 5 0は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。 図 1 5 1は、 ペッ トロボットのモーションの説明に供する略線図である。 図 1 5 2は、 ぺヅ トロボッ卜のモーションの説明に供する略線図である。 図 1 5 3は、 ペッ トロボッ卜のモーションの説明に供する略線図である。 図 1 5 4は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。 図 1 5 5は、 ぺッ トロボットのモーションの説明に供する略線図である。 図 1 5 6は、 ぺッ トロボットのモーションの説明に供する略線図である。 図 1 5 7は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。 図 1 5 8は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。 図 1 5 9は、 ぺッ トロボットのモーションの説明に供する略線図である。 図 1 6 0は、 ぺッ トロボットのモーションの説明に供する略線図である。 図 1 6 1は、 べッ トロボットのモーションの説明に供する略線図である。 図 1 6 2は、 ペッ トロボヅ卜のモーションの説明に供する略線図である。 図 1 6 3は、 ぺッ トロボットのモーションの説明に供する略線図である。 図 1 6 4は、 ぺッ トロボットのモ一ションの説明に供する略線図である。 図 1 6 5は、 ぺッ トロボヅ トのモーションの説明に供する略線図である。 図 1 6 6は、 ぺッ トロボットのモーションの説明に供する略線図である。 図 1 6 7は、 ペッ トロボヅトのモーションの説明に供する略線図である。 図 1 6 8は、 べヅ トロボットのモーションの説明に供する略線図である。 図 1 6 9は、 ペッ トロボッ卜のモーションの説明に供する略線図である。 図 1 7 0は、 ぺッ トロボヅ卜のモーションの説明に供する略線図である。 図 1 7 1は、 ぺッ トロボッ卜のモーションの説明に供する略線図である。 図 1 7 2は、 ペッ トロボッ卜のモーションの説明に供する略線図である。 図 1 7 3は、 ぺッ トロポッ卜のモーションの説明に供する略線図である。 図 1 7 4は、 ペッ トロボッ卜のモーションの説明に供する略線図である。 図 1 7 5は、 べッ トロボッ卜のモーションの説明に供する略線図である。 図 176は、 ぺッ トロボッ トのモーションの説明に供する略線図である。
図 177は、 ぺヅ トロボヅ 卜のモーションの説明に供する略線図である。 発明を実施するための最良の形態
以下図面について、 本発明の一実施の形態を詳述する。
( 1) 本実施の形態によるぺッ トロボッ ト 1の構成
図 1において、 1は全体として本実施の形態によるペッ トロボッ トを示し、 胴 体部 2の前後左右に脚部 3 A〜 3 Dが連結されると共に、 胴体部 2の前端部に頭 部 4が連結され、 胴体部 2の後端部に尻尾部 5が連結されることにより構成され ている。
この場合胴体部 2には、 図 2に示すように、 このペッ トロボッ ト 1全体の動作 制御を司るコントロ一ラ 10と、 このぺッ トロボッ ト 1の動力源としてのバッテ リ 1 1と、 バッテリセンサ 1 1、 角速度センサ 1 2及び加速度センサ 13などか らなる内部センサ部 14となどが収納されている。
また頭部 4には、 このペッ トロボッ ト 1の 「耳」 として機能するマイクロホン 1 6、 「目」 として機能する C CD ( C h a r g e C oup l e d D ev i c e) カメラ 1 7及び夕ツチセンサ 1 8などからなる外部センサ部 19と、 「口」 として機能するスピーカ 20、 このペッ トロボヅ ト 1の外見上の 「口」 と して機能するロ部材 2 1及び外見上の 「目」 として機能する図示しない LED ( L i ght Emi t t i ng D i o d e ) となどがそれぞれ所定位置に配設 されている。
さらに各脚部 3 A〜3Dにおいて太股部 3 AX〜3DX及び脛部 3 AY〜3 D Yを連結する膝関節機構部 22 A〜22Dと、 各脚部 3 A〜 3Dと胴体部 2とを それぞれ連結する各肩関節機構部 23 A〜23Dと、 胴体部 2及び頭部 4を連結 する首関節機構部 24と、 ロ部材 2 1を開閉駆動する顎関節機構部 25と、 胴体 部 2及び尻尾部 5を連結する尻尾関節機構部 26とには、 それぞれ必要な自由度 数分のァクチユエ一夕 27t 〜2718が配設されている。 そして外部センサ部 1 9のマイクロホン 1 6は、 ユーザから図示しないサゥン ドコマンダを介して音階として与えられる 「歩け」、 「伏せ」 又は 「ボールを追い かけろ」 等の指令音を集音し、 得られた音声信号 S 1 Aをコントロ一ラ 1 0に送 出する。 また C C Dカメラ 1 7は、 周囲の状況を撮像し、 得られた画像信号 S 1 Bをコントローラ 1 0に送出する。
さらに夕ツチセンサ 1 8は、 図 1において明らかなように、 頭部 4の上部に設 けられおり、 ユーザからの 「撫でる」 や 「叩く」 といった物理的な働きかけによ り受けた圧力を検出し、 検出結果を圧力検出信号 S 1 Cとしてコントロ一ラ 1 0 に送出する。
一方、 内部センサ部 1 5のバッテリセンサ 1 2は、 バッテリ 1 1の残量を検出 して、 検出結果をバッテリ残量検出信号 S 2 Aとしてコントローラ 1 0に送出す る。 また角速度センサ 1 3は、 3軸 (X軸、 y軸及び z軸) 方向の角速度を検出 し、 検出結果を角速度検出信号 S 2 Bとしてコントローラ 1 0に送出し、 加速度 センサ 1 4は、 3軸 (X軸、 y軸及び z軸) 方向の加速度を検出し、 検出結果を 加速度検出信号 S 2 Cとしてコントローラ 1 0に送出する。
コントローラ 1 0は、 外部センサ部 1 9のマイクロホン 1 6、 C C Dカメラ 1 7及び夕ツチセンサ 1 8からそれぞれ供給される音声信号 S 1 A、 画像信号 S 1 B及び圧力検出信号 S 1 C (以下、 これらをまとめて外部センサ信号 S 1と呼ぶ ) と、 内部センサ部 1 5のパッリセンサ 1 2、 角速度センサ 1 3及び加速度セン サ 1 4からそれぞれ与えられるバッテリ残量検出信号 S 2 A、 角速度検出信号 S 2 B及び加速度検出信号 S 2 C (以下、 これらをまとめて内部センサ信号 S 2と 呼ぶ) となどに基づいて、 ペッ トロボッ ト 1の周囲及び内部の状況や、 ユーザか らの働きかけの有無などを判断する。
そしてコントローラ 1 0は、 この判断結果と、 予めメモリ 1 O Aに格納されて いる制御プログラムとに基づいて続く行動を決定し、 決定結果に基づいて必要な ァクチユエ一夕 2 7 , 〜2 7 n を駆動させることにより、 頭部 4を上下左右に振 らせたり、 尻尾部 5を動かせたり、 各脚部 3 A〜3 Dを駆動して歩行させるなど の行動を行わせる。
またこの際コントロ一ラ 1 0は、 必要に応じて所定の音声信号 S 3をスピーカ 2 0に与えることにより当該音声信号 S 3に基づく音声を外部に出力させたり、 外見上の 「目」 としての L E Dを点滅させる。
このようにしてこのペットロボッ ト 1においては、 周囲及び自己の状況や、 ュ 一ザからの指令及び働きかけの有無などに基づいて自律的に行動することができ るようになされている。
なおこのぺットロボット 1の場合、 各脚部 3八〜 3 Dの膝関節機構部 2 2 A〜 2 2 Dは、 それぞれ図 1において矢印 yと平行なピッチ軸を中心とする回転方向 の自由度を有しており、 また各肩関節機構部 2 3 A〜 2 3 Dは、 それぞれ図 1に おいて矢印 yと平行なピッチ軸を中心とする回転方向の自由度及び矢印 Xと平行 なロール軸を中心とする回転方向の自由度を有している。
これによりこのぺットロポット 1においては、 各脚部 3 A〜 3 Dの脛部を前後 方向 (矢印 X方向を前方向とする) に所定の範囲内において動かすことができ、 また各脚部 3 A〜3 Dを全体として前後方向及び左右方向 (矢印 y方向を左方向 とする) に所定の範囲内において動かすことができるようになされている。 またペットロボット 1において、 首関節機構部 2 4は、 図 1において矢印 Xと 平行なロール軸を中心とする回転方向と、 矢印 yと平行なピッチ軸を中心とする 回転方向と、 矢印 zと平行なョ一軸を中心とする回転方向の自由度を有しており 、 これにより頭部 2を前後方向、 左右方向及び傾き方向にそれそれ所定の範囲内 において動かすことができるようになされている。
さらにペットロボット 1において、 尻尾関節機構部 2 6は、 矢印 Xと平行な口 一ル軸を中心とする回転方向と、 矢印 zと平行なョー軸を中心とする回転方向の 自由度を有しており、 これにより尻尾部 5を前後方向及び左右方向に所定の範囲 内において動かすことができるようになされている。
( 2 ) コントロ一ラ 1 0の処理
ここでこのぺットロボット 1の行動生成に関するコントローラ 1 0の具体的な 処理について説明する。
図 3に示すように、 このぺッ トロボッ ト 1の行動生成に関するコントロ一ラ 1 0の基本的な処理内容を機能的に分類すると、 状態を認識する状態認識機構部 3 0と、 状態認識機構部 3 0の認識結果に基づいてこのぺッ トロボッ ト 1の感情及 び本能の状態を決定する感情 ·本能モデル部 3 1 と、 状態認識部 3 0の認識結果 及び感情 ·本能モデル部 3 1における感情や本能の状態に基づいて続く行動を決 定する行動決定機構部 3 2と、 行動決定機構部 3 2の決定結果に基づいて実際に ぺッ トロボッ ト 1に行動や動作を発現させる行動生成機構部 3 3とに分けること ができる。
この場合状態認識機構部 3 0は、 外部センサ部 1 9 (図 2 ) から与えられる外 部情報信号 S 1及び内部センサ部 1 5から与えられる内部情報信号 S 2に基づい て、 周囲及び自己の状況や、 ユーザからの指示及び働きかけの有無を認識し、 認 識結果を状態認識情報 S 1 0として感情 ·本能モデル部 3 1及び行動決定機構部 3 2に通知する。
具体的に状態認識機構部 3 0は、 例えば外部センサ部 1 9のマイクロホン 1 6 から与えられる音声信号 1 Aを常時監視し、 「歩け」、 「伏せ」、 「ボールを追いか けろ」 などに対応する音階の指令音を検出したときにはその指令が与えられたと 認識して、 当該認識結果を感情■本能モデル部 3 1及び行動決定機構部 3 2に通 知する。
また状態認識機構部 3 0は、 C C Dカメラ 1 7から供給される画像信号 S 2 A を常時監視し、 当該画像信号 S 2 Aに基づく画像内に例えば 「赤い丸いもの」 や 「垂直な平面」 を検出したときには 「ボールがある」、 「壁がある」 と認識して、 認識結果を感情 ·本能モデル部 3 1及び行動決定機構部 3 2に通知する。
さらに状態認識機構部 3 0は、 夕ツチセンサ 1 8から与えられる圧力検出信号 S 1 Bを常時監視し、 当該圧力検出信号 S 1 Bに基づいて所定の閾値以上のかつ 短時間 (例えば 2秒未満) の圧力を検出したときには 「叩かれた (叱られた)」 と認識し、 所定の閾値未満のかつ長時間 (例えば 2秒以上) の圧力を検出したと きには 「撫でられた (誉められた)」 と認識して、 認識結果を感情 ·本能モデル 部 3 1及び行動決定機構部 3 2に通知する。
一方、 状態認識機構部 3 0は、 内部センサ部 1 2の角速度センサ 1 3から与え られる角速度検出信号 S 2 Bを常時監視し、 当該角速度検出信号 S 2 Bに基づい て X軸、 y軸及び又は z軸方向の角速度を検出したときにはその方向に回転又は 傾いたと認識して、 当該認識結果を感情,本能モデル部 3 1及び行動決定機構部 3 2に通知する。
また状態認識機構部 3 0は、 加速度センサ 1 4から与えられる加速度検出信号 S 2 Cを常時監視し、 当該加速度検出信号 S 2 Cに基づいて X軸、 y軸及び又は z軸方向の加速度を検出したときにはその方向に動いたと認識して、 当該認識結 果を感情 ·本能モデル部 3 1及び行動決定機構部 3 2に通知する。
感情 ·本能モデル部 3 1は、 「喜び」、 「悲しみ」、 「驚き」、 「恐怖」、 「嫌悪」 及 び 「怒り」 の 6つの情動について、 各情動ごとにその情動の強さを表すパラメ一 夕を保持している。 そして感情 ·本能モデル部 3 1は、 これら各情動のパラメ一 夕値を、 それぞれ状態認識機構部 3 0から状態認識情報 S 1 0として与えられる 各種認識結果と、 後述のように行動決定機構部 3 2から与えられる決定された出 カ行動を表す行動決定情報 S 1 3と、 経過時間となどに基づいて順次変更する。 具体的に感情 ·本能モデル部 3 1は、 状態認識情報 1 0に基づき得られる認識 結果及び行動決定情報 S 1 3に基づく出力行動がその情動に対して作用する度合 い (予め定められている) と、 他の情動から受ける抑制及び刺激の度合いと、 経 過時間となどに基づいて所定の演算式により算出されるその情動の変化量を Δ Ε 〔t〕、 現在のその情動のパラメ一夕値を E 〔t〕、 認識結果等に応じてその情動 を変化させる割合を表す係数を ke として、 所定周期で次式
E 〔t + l〕 = E 〔t〕 + ke Χ Δ Ε 〔t〕 …… ( 1 ) を用いて次の周期におけるその情動のパラメ一夕値 E 〔t + l〕 を算出する。 そして感情 ·本能モデル部 3 1は、 この演算結果を現在のその情動のパラメ一 夕値 E 〔t〕 と置き換えるようにしてその情動のパラメ一夕値を更新する。 なお 各認識結果や各出力行動に対してどの情動のパラメ一夕値を更新するかは予め決 められており、 例えば 「叩かれた」 といった認識結果が与えられた場合には 「怒 り」 の情動のパラメ一夕値が上がると共に 「喜び」 の情動のパラメ一夕が下がり 、 「撫でられた」 といった認識結果が与えられた場合には 「喜び」 の情動のパラ メータ値が上がると共に 「悲しみ」 の情動のパラメ一夕値が下がる。
これと同様にして、 感情 ·本能モデル部 3 1は、 「運動欲」、 「愛情欲」、 「食欲 」 及び 「好奇心」 の互いに独立した 4つの欲求について、 これら欲求ごとにその 欲求の強さを表すパラメ一夕を保持している。 そして感情 ·本能モデル部 3 1は 、 これら欲求のパラメ一夕値を、 それぞれ状態認識機構部 3 0からの認識結果や 、 経過時間及び行動決定機構部 3 2からの通知などに基づいて順次更新する。 具体的に感情 ·本能モデル部 3 1は、 「運動欲」、 「愛情欲」 及び 「好奇心」 に ついては、 ペッ トロボッ ト 1の出力行動、 経過時間及び認識結果などに基づいて 所定の演算式により算出されるその欲求の変動量を Δ I 〔k〕、 減算のその欲求 のパラメ一夕値を I 〔k〕、 その欲求の感度を表す係数を k, として、 所定周期 で次式
I 〔k + l〕 = I 〔k〕 + k, Χ Δ I 〔k〕 …… (2 ) を用いて次の周期におけるその欲求のパラメ一夕値 I 〔k + l〕 を算出し、 この 演算結果を現在のその欲求のパラメ一夕値 I 〔k〕 と置き換えるようにしてその 欲求のパラメ一夕値を更新する。 なお出力行動や認識結果等に対してどの欲求の パラメ一夕値を変化させるかは予め定められており、 例えば行動決定機構部 3 2 から何らかの行動を行ったとの通知があったときには 「運動欲」 のパラメ一夕値 が下がる。
また感情 ·本能モデル部 3 1は、 「食欲」 については、 状態認識機構部 3 0を 介して与えられるバッテリ残量検出信号 S 2 A (図 2) に基づいて、 ノ ッテリ残 量を として所定周期で次式
I 〔k〕 = 100-BL …… (3) により 「食欲」 のパラメ一夕値 I 〔k+l〕 を算出し、 この演算結果を現在の食 欲のパラメ一夕値 I 〔k〕 と置き換えるようにして当該 「食欲」 のパラメ一夕値 を更新する。
なお本実施の形態においては、 各情動及び各欲求のパラメ一夕値がそれぞれ 0 から 100 までの範囲で変動するように規制されており、 また係数 ke 、 k, の値 も各情動及び各欲求ごとに個別に設定されている。
行動決定機構部 32は、 状態認識機構部 30から与えられる状態認識情報 S 1 0と、 感情 ·本能モデル部 31における各情動及び各欲求のパラメ一夕値と、 予 めメモリ 1 OAに格納された行動モデルと、 時間経過となどに基づいて次の行動 を決定し、 決定結果を行動決定情報 S 12として感情 ·本能モデル部 31及び行 動生成機構部 33に出力する。
この場合、 行動決定機構部 32は、 次の行動を決定する手法として、 図 4に示 すような 1つのノード (状態) NOD E。 から同じ又は他のどのノード NOD E o〜NODEn に遷移するかを各ノード NODE。 〜NODEn 間を接続するァ ーク ARC。 〜ARCn に対してそれぞれ設定された遷移確率 P。 〜Pn に基づ いて確率的に決定する確率オートマトンと呼ばれるアルゴリズムを用いる。
より具体的には、 メモリ 1 OAには、 行動モデルとして、 各ノード NODE。 〜NODEn ごとの図 5に示すような状態遷移表 40が格納されており、 行動泱 定機構部 32がこの状態遷移表 40に基づいて次の行動を決定するようになされ ている。
ここで状態遷移表 40においては、 そのノード NODE。 〜NODEn におい て遷移条件とする入力イベント (状態認識部 30の認識結果) が 「入力イベント 」 の行に優先順に列記され、 その条件についてのさらなる条件が 「データ名」 及 び 「データ範囲」 の行における対応する列に記述されている。
従って図 5の状態遷移表 40で定義されたノード NODE1C)。 では、 「ボールを 検出した (BALL)」 という認識結果が与えられた場合に、 当該認識結果と共 に与えられるそのボールの 「大きさ (S I ZE )」 が 「0から 1000の範囲 ( 0, 1000)」 であることや、 「障害物を検出 (OBSTACLE )」 という認 識結果が与えられた場合に、 当該認識結果と共に与えられるその障害物までの 「 距離 (D I STANCE)」 が 「0から 1000の範囲 (0, 1000)」 である ことが自己又は他のノードに遷移するための条件となっている。
またこのノード NODE,。。 では、 認識結果の入力がない場合においても、 行 動決定機構部 32が周期的に参照する感情 ·本能モデル部 31の各情動及び各欲 求のパラメ一夕値のうち 「喜び ( J 0 Y)」、 「驚き (SUPR I S Ε)」 又は 「悲 しみ (SUDNESS)」 のいずれかの情動のパラメ一夕値が 「50から 100 の範囲 ( 50, 100)」 であるときには自己又は他のノードに遷移することが できる。
さらに状態遷移表 40では、 「他のノードへの遷移確率」 の欄における 「遷移 先ノード」 の列にそのノード NOD E。〜NODEn から遷移できるノード名が 列記されると共に、 「入力イベント名」、 「デ一夕値」 及び 「デ一夕の範囲」 の各 行に記述された全ての条件が揃った場合におけるそのノード NOD E。〜NOD En への遷移確率が 「他のノードへの遷移確率」 の欄におけるそのノード NOD E。〜NODEn の行に記述され、 このとき出力される行動又は動作が 「出力行 動」 の行に記述される。 なお 「他のノードへの遷移確率」 の欄における各行の遷 移確率の和は 100 〔%〕 となっている。
従ってこの例のノード NODE10。 では、 例えば 「ボールを検出 (BALL)」 し、 そのボールの 「大きさ (S I ZE)」 が 「0から 1000の範囲 (0, 10 00)」 であるという認識結果が与えられた場合には、 「30 〔%〕」 の確率で 「 ノード NODE 12。 (node 120 )」 に遷移でき、 そのとき 「 A C T I 0 N 1」 の行動又は動作が出力されることとなる。
そして行動モデルは、 このような状態遷移表 40として記述されたノード NO DE。 〜NODEn がいくつも繋がるようにして構成されている。
かくして行動決定機構部 32は、 状態認識機構部 30から状態認識情報 S 1 0 が与えられたときや、 最後に行動を発現してから一定時間が経過したときなどに 、 メモリ 1 OAに格納されている行動モデルのうちの対応するノード NOD E。 〜NODEn の状態遷移表 40を利用して次の行動や動作 (「出力行動」 の行に 記述された行動又は動作) を確率的に決定し、 決定結果を行動決定情報 S 12と して感情 ·本能モデル部 3 1及び行動生成機構部 33に出力する。
他方、 行動生成機構部 33は、 行動決定機構部 32から与えられる行動決定情 報 S 13に基づいて、 必要なァクチユエ一夕 2 Ί λ 〜2718 (図 2) に駆動信号 S 14 (S 14i 〜S 1418) を送出したり、 スピーカ 20 (図 2) に必要な音 声信号 S 3を送出したり、 「目」 としての LEDに LED駆動信号 S 15を送出 する。
これにより行動生成機構部 33は、 この駆動信号 S 14に基づいて必要なァク チユエ一夕 27i 〜2718を所定状態に駆動させたり、 音声信号 S 3に基づく音 声をスピーカ 20から出力させたり、 0駆動信号31 5に基づく点滅パター ンで LEDを点滅させる。
このようにしてコントロ一ラ 10は、 ぺッ トロボヅ ト 1の外部及び内部の状況 と、 ユーザからの働きかけの有無となどに基づいてぺッ トロボッ ト 1を自律的に 行動させる。
3 ) ペッ トロボッ ト 1の各種モーション
次にこのぺッ トロボッ ト 1の各種モーションについて説明する。 このぺット口 ボッ ト 1は、 そのモーション (動き) によって生物らしさやロボッ トらしさなど を表現するようになされている。
そしてそのモーションは、 転倒したときに立ち上がる 「転倒復帰モーション」 と、 ロボッ トらしい動きを行う 「ロボッ トモーション」 と、 犬らしい動きを行う 「ドッグモーション」 と、 ボールを見つけたときの動きである 「ボール対応モ一 シヨン」 と、 感情を表現する 「感情表現モーション」 と、 ひまなときに行う 「ひ まモーション」 と、 動きによってユーザに意志を伝えようとする 「言語モ一ショ ン」 となどの種類に分けることができる。
以下にこれらの各種モーションについて、 それぞれ幾つかの例を上げながら説 明する。
(3- 1) 転倒復帰モーション
ぺッ トロボッ ト 1が転倒した場合に立ち上がるために発現されるモーション ( 転倒復帰モーション) 及び転倒復帰後に発現されるモーション (転倒復帰後モー シヨン) について説明する。
(3- 1- 1) 第 1の転倒復帰モーション
まずペッ トロボッ ト 1が図 6 Aのように左側に転倒した場合の転倒復帰のモー シヨンについて説明する。
この場合ぺッ トロボッ ト 1は、 まず図 6 Aのように左前脚部 3 A及び右前脚部 3Bと、 左後脚部 3 C及び右後脚部 3 Dとをそれぞれ伸ばして基本的な立ちの姿 勢をとり、 次に図 6 B〜図 6Dのように、 転倒により下側になった左前脚部 3 A 及び左後脚部 3 Cをそれぞれ互いに開く方向に回転させる。 またこのような開脚 動作と合わせて、 左前脚部 3 Aを後方向に反らせるようにその脛部 3 AY (図 1 ) を前から後方向に回転させると共に、 左後脚部 3 Cを前方向に反らせるように その脛部 3 CY (図 1) を後から前方向に回転させる。
そして図 6 Dのように左前脚部 3 Aの太股部 3 AX (図 1) 及び左後脚部 3 C の太股部 3 CY (図 1) がほぼ平行となる程度にまでこれら左前脚部 3 A及び左 後脚部 3 Cを開脚すると、 かかる左前脚部 3 A及び左後脚部 3 Cをそれぞれ外側 方向に回転させる。 この結果図 6 E及び図 6 Fに示すように、 ペッ トロボッ ト 1 が全体として胴体部 2の腹面を床面に接地させるように回転し、 図 7 Aのように ペッ トロボッ ト 1の転倒により上側になった右前脚部 3 B及び右後脚部 3Dが床 面に接地する。 そしてこの後ペットロボット 1は、 図 7 B及び図 7 Cに示すように、 左前脚部 3 A及び左後脚部 3 Cを互いに閉じる方向に回転させることにより、 これら左前 脚部 3 A及び左後脚部 3 Cをそれぞれ胴体部 2に引き寄せて、 基本的な立ち上が りの姿勢となる。
そしてこの後図 7 D〜図 8 Bに示すように、 屈曲している右後脚部 3 D及び左 後脚部 3 Cを伸ばすことにより重心を僅かに前に移動させながら、 屈曲している 右前脚部 3 B及び左前脚部 3 Aを伸ばすことにより立ち上がり、 基本的な 「立ち j の姿勢となってこのモーションを終了する。
( 3 - 1 - 2 ) 第 2の転倒復帰モーション
次にぺットロボッ ト 1が図 9 Aのように前方向に転倒した場合の転倒復帰のモ —シヨンについて説明する。
この場合ペットロボット 1は、 まず図 9 B〜図 9 Dに示すように、 右前脚部 3 B及び左前脚部 3 Aをそれぞれ開く方向に回転させると共に、 これら右前脚部 3 B及び左前脚部 3 Aをそれぞれその先端部の底面でなる接地面を床面に向けるよ うにそのピッチ軸を中心として回転させる。
続いて図 9 E〜図 1 O Aに示すように、 右前脚部 3 B及び左前脚部 3 Aの各接 地面が床面と接触しないようにこれら右前脚部 3 B及び左前脚部 3 Aをそれぞれ 弓型に反らせながら、 これら右前脚部 3 B及び左前脚部 3 Aを互いに閉じる方向 に回転させる。
そしてこような閉脚動作によって図 1 O Aのように後右前脚部 3 D及び左前脚 部 3 Aがほぼ平行な位置関係となるまで閉じられると、 図 1 0 Bに示すように、 右後脚部 3及び左後脚部 3 Cを僅かに屈曲させて姿勢を低くさせながら、 右前脚 部 3 B及び左前脚部 3 Aをそれぞれ右後脚部 3 D又は左後脚部 3 Cに近づける方 向に回転させることにより胴体部 2に引き寄せる。
そしてこの後図 1 0 (:〜図1 0 Eに示すように、 屈曲している右前脚部 3 B及 び左前脚部 3 Aと、 右後脚部 3 D及び左後脚部 3 Cとを徐々に伸ばすことにより 立ち上がり、 基本的な 「立ち」 の姿勢となってこのモーションを終了する。 (3 - 1 - 3) 第 3の転倒復帰モーション
次いでぺットロボット 1が図 1 1 Aのように後方向に転倒した場合の転倒復帰 のモーションについて説明する。
この場合ぺットロボット 1は、 まず図 1 1 Aのように右前脚部 3 B及び左前脚 部 3 Aと、 右後脚部 3 D及び左後脚部 3 Cとをそれぞれ伸ばして基本的な立ちの 姿勢をとり、 この後図 1 1 B及び図 1 1 Cのように頭部 4 (図 2) をペットロボ ット 1から見た前方向に持ち上げる。
続いて図 1 10〜図1 1 Fに示すように、 右後脚部 3D及び左後脚部 3 Cをそ れぞれこれらがほぼ平行となるまで互いに開く方向に回転させながら、 右前脚部 3 B及び左前脚部 3 Aの各太股部 3 BX、 3 AXがそれぞれ重力方向と平行とな るようにこれら右前脚部 3 B及び左前脚部 3 Aをそれぞれそのピツチ軸の回りに 回転させる。 この結果ぺットロボッ ト 1は、 重力によって徐々に前方向に倒れて ゆく。
次いで図 1 2 Aに示すように、 右後脚部 3D及び左後脚部 3 Cがほぼ平行とな るまで開いた状態となり、 かつ右前脚部 3 B及び左前脚部 3 Aが床面に接地した 段階において、 図 1 2 B〜図 12 Fに示すように、 右後脚部 3D及び左後脚部 3 Cをそれぞれ弓型に反らしながら、 これらを互いに閉じる方向に回転させる。 そしてこの後、 図 13 Aのように右後脚部 3D及び左後脚部 3 Cがほぼ平行と なるまで閉じると、 図 13 B〜図 1 3 Fに示すように、 これら右後脚部 3D及び 左後脚部 3 Cをそれぞれ右前脚部 3 B又は左前脚部 3 Aに近づける方向に回転さ せることによりこれら右後脚部 3 D及び左後脚部 3 Cを胴体部 2に引き寄せ、 こ の後屈曲している右後脚部 3 D及び左後脚部 3 Cをそれぞれ伸ばすことにより基 本的な 「立ち」 の姿勢となってこのモーションを終了する。
(3 - 1 -4) 第 1の転倒復帰後のモーション
次にぺットロボッ ト 1が転倒復帰後に発現するモーションについて説明する。 まずぺヅトロボット 1は、 上述した転倒復帰モーションにより図 14 Aのよう に基本的な 「立ち」 の姿勢になると、 その後図 14 Bのように左前脚部 3 A (又 は右前脚部 3 B) に体重がかからないように重心移動を行い、 この後図 14 (:〜 図 14Fのように、 左前脚部 3A (又は右前脚部 3B) を前方向に回転させるよ うにして持ち上げる。 この際、 かかる左前脚部 3 A (又は右前脚部 3 B) の脛部 3AY (3BY) をペットロボット 1の後方向に回転させることにより当該左前 脚部 3A (又は右前脚部 3B) を折り曲げる。 またこれと合わせて、 頭部 4をべ ヅトロボット 1から見て右方向 (又は左方向) に所定角度回転させる。
そしてこの後図 15Aに示すように、 左前脚部 3A (又は右前脚部 3B) の接 地面が頭部 4の後頭部の近接にまで到達すると、 図 15 B〜図 15 Fに示すよう に、 かかる左前脚部 3 A (又は右前脚部 3 B) の脛部 3AY (3 BY) をペット ロボット 1の前後方向に数回所定角度ずつ回転させる。
そしてこのような動作が終了すると、 この後図 16 A〜図 16 Cに示すように 、 図 14 A〜図 14 Fと逆の動作を行うことにより、 元の立ち姿勢の状態に戻つ てこのモーションを終了する。
そしてこのようなモーションによって、 あたかも転倒したことにより照れて後 頭部 4を搔いているかのような仕種を表現でき、 これによりユーザに可愛らしい 印象を与えることができる。
(3- 1-5) 第 2の転倒復帰後モーション
次にぺットロボッ ト 1が転倒復帰後に発現する第 2の転倒復帰後モーションに ついて説明する。
まずぺットロボッ ト 1は、 上述した転倒復帰モーションにより図 17 Aのよう な基本的な 「立ち」 の姿勢になると、 その後図 17 Bのように右前脚部 3 B及び 左前脚部 3 Aと、 右後脚部 3D及び左後脚部 3 Cとをそれぞれ僅かに曲げて姿勢 を低くすると共に、 図 17Cのように頭部 4をぺッ トロボット 1の前方向に回転 させて、 当該頭部 4を下向きにさせる。
そしてこの後図 17 D〜図 18 Aのように、 ぺッ トロボヅト 1の左右方向に数 回回転させ、 この後図 18B及び図 18 Cのように右前脚部 3 B及び左前脚部 3 Aと、 右後脚部 3D及び左後脚部 3 Cとを伸ばすことにより元の基本的な 「立ち 」 の姿勢に戻ってこのモーションを終了する。
そしてこのようなモーションによって、 頭部 4を左右に振って気を取り戻して いるかのような仕種を表現することができ、 これによりュ一ザに愛らしい印象を 与えることができる。
(3— 1—6) その他の転倒復帰モーション
図 19A〜図 2 OFに、 ぺットロボット 1が右側に倒れた場合に転倒復帰する ための転倒復帰モーションの流れを示す。 この転倒復帰モーションは、 第 1の転 倒復帰モーションと向きが逆であること以外は、 同様の動きとなっている。 (3-2) ロボッ ト言語モーション
次にコントローラ 10 (図 2) の状態認識機構部 30 (図 3) において特定の 認識結果が得られない場合にペットロボット 1が行う動作のうちのロボットらし い動作 (以下、 これをロボット言語モーションと呼ぶ) について説明する。 (3-2- 1) 第 1のロボッ ト言語モーション
まず第 1のロボッ ト言語モーションについて説明する。 この第 1のロボット言 語モーションは、 ペットロボット 1が基本的な 「座り」 の姿勢にある状態のとき に発現されるものである。
この場合ぺットロボット 1は、 図 21 Aのように右前脚部 3 B及び左前脚部 3 Aをぺットロボット 1の前方向に伸ばして座っている状態から、 図 21 B及び図 21 Cのようにこれら右前脚部 3 B及び左前脚部 3 Aを開く方向に回転させる。 またこれと合わせて、 図 21 B〜図 21 Eのように右後脚部 3D及び左後脚部 3 Cを前方向に伸ばし、 この後これら右後脚部 3 D及び左後脚部 3 Cをべットロボ ット 1の後方向に回転させることにより、 これらを放射状に伸ばす。 この結果べ ヅトロボット 1は、 図 21 Fに示すように、 右前脚部 3 B及び左後脚部 3 Cと、 左前脚部 3 A及び右後脚部 3Dとによって 「X」 印を形成する姿勢となる。 なお この際右後脚部 3D及び左後脚部 3 Cがほぼ平行に開いた段階で、 右後脚部 3D 及び左後脚部 3 Cをピッチ軸の回りに 180 〔。 〕 程度回転させるようにする。 次いで図 22 A〜図 22 Eに示すように、 右前脚部 3 B及び左前脚部 3 Aと、 右後脚部 3 D及び左後脚部 3 Cとをそれぞれ反らしながら、 ペッ トロボット 1の 上方向に持ち上げる。 またこれと合わせて、 頭部 4をペットロボット 1の後方向 に反らせるように持ち上げる共に口を開き、 さらには尻尾 5をぺットロボット 1 の上方に持ち上げるようにして、 体全体を反らせる。
そしてこの後図 2 2 F〜図 2 3 Dに示すように、 図 2 1 F〜図 2 2 Eと逆の動 作を行うことにより図 2 3 Dのように元の姿勢に戻り、 この後図 2 1 F〜図 2 3 Dと同様の動作を 2 ~ 3回繰り返す。
そしてこの後図 2 3 E〜図 2 4 Cに示すように、 図 2 1 A〜図 2 1 Eと逆の動 作を行うことにより元の 「座り」 の姿勢となってこのモーションを終了する。 そしてこのようなモーションによって、 ロボッ トらしい動きを表現することが できる。
( 3 - 2 - 2 ) 第 2のロボヅ ト言語モーション
次に第 2のロボット言語モ一ションについて説明する。 この第 2のロボット言 語モーションは、 図 2 5 Aに示すように、 ペットロボット 1が基本的な 「座り」 の姿勢にある状態のときに発現されるものである。
まずペットロボット 1は、 図 2 5 Aのように 「座り」 の姿勢から、 第 1のロボ ット言語モーションの図 2 1 A〜図 2 1 Fと同様にして図 2 5 A〜図 2 7 Aのよ うに動作することにより、 図 2 7 Aのように、 右前脚部 3 B及び左後脚部 3 Cと 、 左前脚部 3 A及び右後脚部 3 Dとによって 「X」 印を形成する姿勢となる。 次いで図 2 7 B〜図 2 8 Dに示すように、 右前脚部 3 B及び左後脚部 3 Cによ り形成される直線と、 左前脚部 3 A及び右後脚部 3 Dにより形成される直線とが なす角を変化させないように、 右前脚部 3 B及び左後脚部 3 Cと、 左前脚部 3 A 及び右後脚部 3 Dとをそれぞれぺットロボット 1の左右に順次交互に数回所定角 度ずつ回転させる。
そしてこの後かかる動作が終了し、 図 2 8 Fのように右前脚部 3 B及び左後脚 部 3 Cと、 左前脚部 3 A及び右後脚部 3 Dとが図 2 7 Aについて上述した位置に なると、 この後図 2 9 A〜図 3 0 Bに示すように、 図 2 5 A〜図 2 7 Aと逆の動 作を行うことにより元の 「座り」 の姿勢に戻ってこのモーションを終了する。 そしてこのようなモーションによって、 ロボッ 卜らしい動きを表現することが できる。
( 3— 2— 3 ) 第 3のロボッ ト言語モーション
続いて第 3のロボッ ト言語モーションについて説明する。 この第 3のロボッ ト 言語モーションは、 ペッ トロボッ ト 1がユーザからの指令に応じてパフオーマン スとして発現するものである。
まずぺッ トロボッ ト 1は、 図 3 1 Aに示すような基本的な 「座り」 の姿勢から 、 図 3 1 Bのように右後脚部 3 D及び左後脚部 3 Cを僅かに外側に開き、 この後 図 3 1 C〜図 3 1 Fのように右後脚部 3 D及び左後脚部 3 Cをそれぞれその先端 部が肩よりも僅かに高くなる程度の位置にまで持ち上げる。
そしてこの後図 3 2 A〜図 3 2 Fに示すように、 右後脚部 3 D及び左後脚部 3 Cをそれぞれの開く方向及び閉じる方向に複数回順次回転させることによりこれ ら右後脚部 3 D及び左後脚部 3 Cを複数回だけ振らせる。
そしてかかる動作が終了すると、 この後図 3 3 A〜図 3 3 Cに示すように、 右 後脚部 3 D及び左後脚部 3 Cをそれぞれ前に伸ばした状態に降ろし、 さらにこの 後右後脚部 3 D及び左後脚部 3 Cを内側に戻すことにより元の 「座り」 の姿勢に 戻ってこのモ一ションを終了する。
そしてこのようなモーションによって、 ロボッ トらしい動作を表現することが できる。
( 3— 2— 4 ) その他のロボヅ ト言語モーション
その他のロボッ ト言語モーションとして、 図 3 4 A〜図 3 5 Cに第 4のロボッ ト言語モーション、 図 3 6 A〜図 3 7 Eに第 5のロボッ ト言語モーション、 図 3 8 A〜図 3 9 Fに第 6のロボッ ト言語モーション、 図 4 O A〜図 4 2 Eに第 7の ロボッ ト言語モーションをそれぞれ示す。
( 3 - 3 ) ドッグモーション
次にコントローラ 1 0 (図 2 ) の状態認識機構部 3 0 (図 3 ) において特定の 認識結果が得られない場合にぺッ トロボッ ト 1が行う動作のうちの犬らしい動作 (以下、 これをドッグモーションと呼ぶ) について説明する。
( 3 - 3 - 1 ) 第 1のドッグモ一ション
まず第 1のドッグモーションについて説明する。 この第 1のドッグモーション は、 図 43 Aに示すように、 ペッ トロボッ ト 1が基本的な 「座り」 の姿勢にある 状態のときに発現されるものである。
この場合ぺッ トロボッ ト 1は、 まず図 43 Aのように右前脚部 3B及び左前脚 部 3 Aを前方向に伸ばした 「座り」 の姿勢から、 図 43 B及び図 43 Cのように 左後脚部 3 C (又は右後脚部 3D) を僅かに外側に開くように移動させ、 この後 図 43D〜図 43 Fのようにこの左後脚部 3 C (又は右後脚部 3 D) を持ち上げ る。 またこれと合わせて、 頭部 4をぺッ トロボッ ト 1の右斜め上前方 (又は左斜 め上前方) を向くように回転させる。
そしてこの後、 持ち上げた左後脚部 3 C (又は右後脚部 3D) の接地面が頭部 4の後頭部の高さ位置にまで到達すると、 図 43 F〜図 44 Cのように、 当該頭 部 4の後頭部を左後脚部 3 C (又は右後脚部 3D) で搔くように、 当該左後脚部 3 C (又は右後脚部 3D) を上下方向に 2〜3回回転させる。
次いで図 44D〜図 44 Fに示すように、 左後脚部 3 C (又は右後脚部 3D) を降ろし、 この後図 45 A及び図 45Bに示すように、 左後脚部 3 C (又は右後 脚部 3D) を内側に戻すように移動させることにより元の 「座り」 の姿勢となつ てこのモーションを終了する。
そしてこのようなモーションによって、 後頭部を接いているかの仕種を表現す ることができ、 これによりユーザに犬らしい印象を与えることができる。
(3- 3-2) 第 2のドヅグモ一ション
次に第 2のドッグモーションについて説明する。 この第 2のドヅグモーション は、 図 46 Aに示すように、 ぺッ トロボッ ト 1が 「立ち」 の姿勢にある状態のと きに発現されるものである。
まずペッ トロボッ ト 1は、 図 46 Bのように右後脚部 3D (又は左後脚部 3 C ) に体重がかからないように重心移動を行い、 この後図 46 C〜図 47 Aのよう にかかる右後脚部 3 D (又は左後脚部 3 C) を僅かに外側に開くように移動させ 、 この後この右後脚部 3D (又は左後脚部 3 C) をペッ トロボッ ト 1の上方向に 持ち上げる。 この際この右後脚部 3D (又は左後脚部 3 C) の膝部 3DY (3 C Y) を、 太股部 3DX (3 CX) 及び脛部 3DY (3 CY) がほぼ直角となる程 度まで折り曲げる。
そしてこの状態で水が流れるような音声をスピーカ 20 (図 2) から 2 ~ 3秒 程度出力させ、 この後図 47 B〜図 47 Eに示すように、 図 46 A〜図 47Aと 逆の動きを行うことにより元の 「立ち」 の姿勢となってこのモーションを終了す る。
そしてこのようなモ一シヨンによって、 あたかも雄犬が 「おしっこ」 をしてい るような仕種を表現することができ、 これによりユーザに犬らしい印象を与える ことができる。
( 3 - 3 - 3 ) その他のドッグモーション
その他のドヅグモーションとして、 図 48 A〜図 5 1 Cに第 3のドッグモ一シ ヨン、 図 52 A〜図 54 Aに第 4のドッグモーション、 図 55 A〜図 58 Aに第 5のドッグモーション、 図 59 A〜図 6 1 Cに第 6のドッグモーションの流れを それぞれ示す。
( 3 - 4 ) ボール対応モーション
次にボールを検出したときにぺッ トロボッ ト 1が発現するモーション (以下、 これをボール対応モーションと呼ぶ) について説明する。
( 3 - 4 - 1 ) 第 1のボ一ル対応モーション
まず第 1のボール対応モーションについて説明する。 この第 1のボール対応モ —シヨンは、 ぺッ トロボッ ト 1がボールを検出したときに発現するモーションで ある。
まずペッ トロボッ ト 1は、 ボールを検出すると、 左前脚部 3 A (又は右前脚部 3 B) の直前にボールが位置する程度にまでそのボールに歩いて近づき、 この後 図 6 2 Aに示すような基本的な 「立ち」 の姿勢となる。
次いで図 6 2 Bのように左前脚部 3 A (又は右前脚部 3 B ) に体重がかからな いように重心移動を行い、 この後図 6 2 C〜図 6 2 Fに示すように、 左前脚部 3 A (又は右前脚部 3 B ) を左後脚部 3 C (又は右後脚部 3 D ) に近づけるように ぺットロボット 1の後方向に所定角度回転させる。 この際ボールを見るかのよう に、 頭部 4を左前脚部 3 A (又は右前脚部 3 B ) の直前位置に向けて傾ける。 そしてこの後図 6 3 A〜図 6 3 Dに示すように、 後に引いた左前脚部 3 A (又 は右前脚部 3 B ) を伸ばしながら、 当該左前脚部 3 A (又は右前脚部 3 B ) を勢 い良くぺットロボット 1の前方向に回転させる。 さらにこの後図 6 3 E〜図 6 4 Bに示すように、 その左前脚部 3 A (又は右前脚部 3 B ) を降ろして元の位置に 戻し、 この後屈曲させていた右前脚部 3 B (又は左前脚部 3 A ) と、 右後脚部 3 D及び左後脚部 3 Cとを伸ばして元の 「立ち」 の姿勢となってこのモーションを 終了する。
そしてこのような第 1のボール対応モ一シヨンによってボールを蹴るというモ ーシヨンを行うことができ、 これによりべットロボット 1がボールで遊ぶという 動作を表現することができる。
( 3—4— 2 ) 第 2のボール対応モーション
次に第 2のボール対応モーションについて説明する。
まずペットロボット 1は、 周囲にあるボールを検出すると、 当該ボールがぺッ トロボット 1の真正面よりも僅かに左側 (又は右側) にずれた場所に位置するよ うにそのボールに歩いて近づき、 この後図 6 5 Aに示すような基本的な 「立ち」 の姿勢となる。
続いて図 6 5 B及び図 6 5 Cのように右前脚部 3 B及び左前脚部 3 Aと、 右後 脚部 3 D及び左後脚部 3 Cとをそれぞれ屈曲させることにより姿勢を低くする共 に、 頭部 4をペットロボット 1の前方向に回転ささせることにより下向きにさせ る o
続いて図 6 5 D及び図 6 5 Eに示すように、 頭部 4を右側 (又は左側) に顎を 引きながら回転させると共に、 この後図 6 5 F〜図 6 7 Bのように頭部 4をボ一 ルがある左側 (又は右側) の斜め前方向に向けて勢い良く回転させ、 この後図 6 7 C及び図 6 7 Dに示すように、 頭部 4の向きをペッ トロボッ ト 1の前方向の向 くように直しながら、 屈曲している右前脚部 3 B及び左前脚部 3 Aと、 右後脚部 3 D及び左後脚部 3 Cを伸ばすことにより元の 「立ち」 の姿勢に戻ってこのモー シヨンを終了する
そしてこのようなモーションによって、 ボールをへディングするというモーシ ヨンを行うことができ、 これによりぺッ トロボッ ト 1がボールで遊ぶという動作 を表現することができる。
( 3—4—3 ) 第 3のボール対応モーション
次に第 2のボール対応モ一シヨンについて説明する。 この第 3のボール対応モ —シヨンは、 ぺッ トロボッ ト 1がボールを検出したときに発現するモーションで ある。
まずペッ トロボッ ト 1は、 ボールを検出すると、 その直後の位置まで歩いて近 づき、 この後図 6 8 Aに示すような基本的な 「立ち」 の姿勢となる。
そしてこの後図 6 8 Bに示すように、 右後脚部 3 D及び左後脚部 3 Cを屈曲さ せて姿勢を屈めながら全身をぺッ トロボッ ト 1の後方向に引き、 これと共に図 6 8 C〜図 6 8 Fのように、 頭部 4をぺッ 卜ロボッ 卜 1の後から前方向に回転させ ることにより頭頂が前方向を向くまで頭部 4を深く下げさせる。
またこれと合わせて、 膝を屈曲させながら右前脚部 3 B及び左前脚部 3 Aをべ ッ トロボッ ト 1の後方向に回転させることにより身を縮めた状態となり、 この後 図 6 9 A〜図 6 9 Eに示すように、 屈曲した右後脚部 3 D及び左後脚部 3 Cを勢 い良く伸ばすようにして全身を僅かにぺッ トロボッ ト 1の前方向に移動させなが ら、 頭部 4を後方向に回転させるようにしてボールを前方向に押し出す。
さらにこの後図 6 9 Fのように右前脚部 3 B及び左前脚部 3 Aと、 右後脚部 3 D及び左後脚部 3 Cとを僅かに伸ばすことにより元の基本的な 「立ち」 の姿勢に 戻ってこのモーションを終了する。 そしてこのようなモーションによって、 ボールをへディングすることができ、 これによりペッ トロボッ ト 1がボールで遊ぶという仕種を表現することができる
( 3—4—4 ) 第 4のボール対応モーション
次に第 4のボール対応モーションについて説明する。
まずぺッ トロボッ ト 1は、 ボールを検出すると、 当該ボールがぺヅ トロボッ ト 1の真正面に位置するようにそのボールに歩いて近づき、 この後図 7 O Aに示す ような基本的な 「立ち」 の姿勢となる。
次いで体重が左前脚部 3 Aにかからないように重心移動をした後、 図 7 0 B〜 図 7 0 Fに示すように、 左前脚部 3 Aをその先端部によって外側方向に円弧を描 くように持ち上げて、 当該左前脚部 3 Aの接地面をボールの僅か上方位置にもつ てゆく。
そしてその後図 7 1 Aに示すように、 その状態のままかかる左前脚部 3 Aの脛 部を下方向に回転させることにより当該左前脚部 3 Aの接地面でボールを上側か ら夕ツチし、 この後図 7 1 B〜図 7 2 Bに示すように、 図 7 0 A〜図 7 0 Fの逆 の動きを行うことにより元の 「座り」 の姿勢に戻ってこのモーションを終了する そしてこのようなモ一ションによって、 ぺヅ トロボッ ト 1がボールに興味を示 して遊んでいるという動作を表現することができ、 これによりュ一ザに生物らし い印象を与えることができる。
( 3 - 4 - 5 ) その他のボール対応モ一ション
その他のボール対応モーシヨンとして図 7 3 A〜図 7 4 Eに第 5のボール対応 モーション、 図 7 5 A〜図 7 7 Fに第 6のボール対応モーション、 図 7 8 A〜図 8 0 Dに第 7のボール対応モーション、 図 8 1 A〜図 8 3 Bに第 8のボール対応 モーションをそれぞれ示す。
( 3 - 5 ) 感情表現モーション
次にペッ トロボッ ト 1が感情を表現するモーション (以下、 これを感情表現モ ーシヨンと呼ぶ) について説明する。
(3-5- 1) 第 1の感情表現モーション
まず第 1の感情表現モーションについて説明する。 この第 1の感情表現モ一シ ヨンは、 ぺッ トロボッ ト 1が右後脚部 3D及び左後脚部 3 Cを前方向に伸ばして 座っている状態において、 例えば周囲で突然大きな音が発生したときや、 目の前 に突然物体が現れたときに発現されるものである。
すなわちペッ トロボッ ト 1は、 図 84 Aのように座っている状態において、 例 えば周囲で突然大きな音が発生したり、 目の前に突然物体が現れると、 図 84B に示すように、 瞬間的に右後脚部 3 D及び左後脚部 3 Cを瞬間的に僅かに持ち上 げる。 またこれと合わせて瞬間的に頭部 4を反らすように後方向に回転させる共 に口を開き、 かつ尻尾 5を瞬間的に立たせる。 そしてこの後図 84 Cに示すよう に、 この後元の座っている状態に戻る。
そしてこのようなモーションによって、 あたかも 「ビクッ」 としたかのような 動作を表現することができ、 これにより 「驚き」 の感情を表現することができる o
(3-5-2) 第 2の感情表現モーション
次に第 2の感情表現モーションについて説明する。 この第 2の感情表現モーシ ヨンは、 ペッ トロボッ ト 1が 「怒り」 の感情を表現するときに発現するものであ る o
まずぺッ トロボッ ト 1は、 図 85 Aのような基本的な 「立ち」 の姿勢の状態か ら、 図 85 B及び図 85 Cのように右前脚部 3 B (又は左前脚部 3 A) に体重が かからないように重心移動を行い、 この後図 85 D〜図 86 Fのように、 右前脚 部 3B (又は左前脚部 3 A) を全体としてペッ トロボッ ト 1の前後方向に振りな がら、 これに合わせて当該右前脚部 3 B (又は左前脚部 3 A) の脛部 3 BY (3 AY) を前後方向に振ることにより、 右前脚部 3B (又は左前脚部 3A) によつ て床面を数回搔くような仕種を行う。 またこのとき頭部 4を床面を見るように下 向きにすると共に、 「目」 として機能する LEDのうち、 怒ったような形状の赤 色の LEDを点滅させる。
そしてこの後かかる動作を終了すると、 この後図 87 A〜図 87Dに示すよう に、 図 85 A〜図 85 Cと逆の動作を行うことにより元の立ちの姿勢に戻って、 このモーションを終了する。
そしてこのようなモーションによって、 あたかも 「怒って地面を引つ搔いてい る」 かのような動作を表現することができ、 これにより 「怒り」 の感情を表現す ることができる。
(3 - 5 -3) 第 3の感情表現モ一ション
次に第 3の感情表現モーションについて説明する。 この第 3の感情表現モ一シ ヨンは、 ペットロボット 1が 「嫌がる」 ときに発現するモーションである。 まずぺットロボット 1は、 図 88 Aに示すような基本的な 「座り」 の姿勢から 、 図 88 B〜図 88Dのように右前脚部 3 B及び左前脚部 3Aをそれぞれ太股部 3 BX、 3 AXが水平近くになるまで持ち上げ、 これと合わせて頭部 4を右方向 (又は左方向) に回転させて右向き (又は左向き) にする。 なおこのとき右前脚 部 3Bは、 接地面が前方向を向く程度まで膝部 3 BYを折り曲げ、 また左前脚部 3 A部は、 これよりもさらに深くまで膝部 3 A Yを折り曲げる。
そしてこの後図 88 E〜図 9 OAに示すように、 その状態のまま左前脚部 3 A (又は右前脚部 3B) を左右に複数回振るように回転させる。 そしてこの動作が 終了すると、 図 90 B〜図 90Dに示すように、 図 88 A〜図 88 Dと逆の動作 を行うことにより元の 「座り」 の姿勢に戻ってこのモーションを終了する。 そしてこのようなモーションによって、 「いやいや」 をしているような仕種を 表現することができ、 これによりユーザに生物のような印象を与えることができ る o
( 3 - 5 - 4 ) その他の感情表現モーション
その他の感情表現モーションとして、 図 9 1 A〜図 93 Aに第 4の感情表現モ —シヨン、 図 94 A〜図 96 Aに第 5の感情表現モーション、 図97 〜図98 Eに第 6の感情表現モーション、 図 99 A〜図 99 Cに第 7の感情表現モ一ショ ン、 図 1 0 0 A〜図 1 0 2 Aに第 8の感情表現モーション、 図 1 0 3 A〜図 1 0 5 Eに第 9の感情表現モーション、 図 1 0 6 〜図1 0 7 Dに第 1 0の感情表現 モーションの流れをそれぞれ示す。
( 3— 6 ) 暇モーション
次にコントローラ 1 0 (図 2 ) の状態認識機構部 3 0 (図 3 ) において特定の 認識結果が得られない場合にぺットロボット 1が発現する動作 (以下、 これを暇 モーションと呼ぶ) について説明する。
( 3 - 6 - 1 ) 第 1の暇モーション
まず第 1の暇モーションについて説明する。 この第 1の暇モーションは、 図 1 0 8 Aに示すように、 ペットロボット 1が基本的な 「座り」 の姿勢にある状態の ときに発現されるものである。
まずペットロボット 1は、 図 1 0 8 Aのように基本的な 「座り」 の姿勢から、 図 1 0 8 B〜図 1 0 9 Cに示すように、 右前脚部 3 B及び左前脚部 3 Aをそれぞ れ僅かに外側に開きながらゆつく りと持ち上げる。 またこれに伴って右前脚部 3 B及び左前脚部 3 Aの脛部 3 A Yを後方向に反らしてゆく。 なおこのときぺット ロボット 1の体は、 胴体部 2の腹面の後端部と右後脚部 3 D及び左後脚部 3 Cと によって支える。
そして図 1 0 9 Cのように右前脚部 3 B及び左前脚部 3 Aの太股部 3 B X、 3 A Xがほぼ水平となるまでこれら右前脚部 3 B及び左前脚部 3 Aを持ち上げ終え ると、 この後図 1 0 9 D〜図 1 1 1 Bに示すように、 頭部 4を後方向に反らしな がら口を開く。 またこれと合わせて、 右前脚部 3 B及び左前脚部 3 Aを伸ばしな がら、 これら右前脚部 3 B及び左前脚部 3 A閉じる方向に戻しながらこれらを下 側に回転させる。
そしてこの後図 1 1 1 Cのように右前脚部 3 B及び左前脚部 3 Aが床面に接地 すると、 頭部 4を前方向に向けさせることにより元の基本的な 「座り」 姿勢に戻 つてこのモーションを終了する。
そしてこのようなモーションによって、 伸びをしながらあくびをしているよう な仕種を表現でき、 これによりユーザに生物らしい印象を与えることができる。
( 3 - 6 - 2 ) 第 2の暇モーション
次に第 2の暇モーションについて説明する。 この第 2の暇モーションは、 ぺヅ トロボット 1が図 1 1 2 Aのように右後脚部 3 D及び左後脚部 3 Cを僅かに外側 に開いて前方向に伸ばした状態のときに発現されるモーションである。
この場合ぺヅトロボヅト 1は、 まず図 1 1 2 Aの状態から図 1 1 2 B〜図 1 1 3 Aのように、 頭部 4を円弧を描くように回転させる。 このとき口は開けた状態 となる。
そして図 1 1 3 Bのように、 頭部 4がやや上向き加減で正面を向いた状態に達 すると、 今度は図 1 1 3 C〜図 1 1 3 Fのように、 頭部 4を斜め下向きに勢い良 く回転させる。 このときスピーカ 2 0 (図 2 ) からくしゃみをしたときの音声を 出力する。
そして頭部 4が下向きとなった段階で、 今度は図 1 1 4八〜図 1 1 4 Eのよう に、 頭部 4を左右に数回振る。 そしてかかる動作が終了すると、 図 1 1 4 F〜図 1 1 5 Bのように、 頭部 4を元の向きに直すことにより元の 「座り」 の姿勢に戻 つてこのモ一ションを終了する。
そしてこのようなモーションによって、 くしゃみをしているような仕種を表現 でき、 これによりユーザに生物らしい印象を与えることができる。
( 3— 6— 3 ) その他の暇モーション
その他の暇モーシヨンとして、 図 1 1 6 A〜図 1 1 9 Eに第 3の暇モーション 、 図 1 2 0八〜図 1 2 4 Aに第 4の暇モーション、 図 1 2 5 A〜図 1 2 7 Aに第 5の暇モーション、 図 1 2 8 A〜図 1 3 0 Bに第 6の暇モーション、 図 1 3 1 A 〜図 1 3 3 Aに第 7の暇モーション、 図 1 3 4 A〜図 1 3 6 Eに第 8の暇モーシ ョンの流れをそれぞれ示す。
( 3 - 7 ) 言語モーション
次にぺットロボット 1がユーザに何かを伝えたいときに発現する動作 (以下、 これを言語モーションと呼ぶ) について説明する。 ( 3 - 7 - 1 ) 第 1の言語モーション
まず第 1の言語モーシヨンについて説明する。 この第 1の言語モ一ションは、 図 1 3 7 Aのようにペットロボット 1が基本的な 「座り」 の姿勢にあるときに発 現されるモーションである
まずペットロボッ ト 1は、 図 1 3 7 Aのような基本的な 「座り」 の姿勢から、 図 1 3 7 B〜図 1 3 7 Eのように右前脚部 3 B及び左前脚部 3 Aをそれぞれほぼ 肩の高さ位置にまで持ち上げ、 この後図 1 3 7 F〜図 1 3 8 Eに示すように、 右 前脚部 3 B及び左前脚部 3 Aをそれぞれその先端部によつそれぞれ円弧を描くよ うに下側に移動させる。
そしてこの後図 1 3 8 F〜図 1 4 0 Bに示すように、 頭部 4を左側 (又は右側 ) に僅かに傾けた後、 右前脚部 3 B及び左前脚部 3 Aをそれぞれ数回上下動させ る。 そしてかかる動作を終了すると、 この後図 1 4 0 Cのように右前脚部 3 B及 び左前脚部 3 Aをそれぞれ降ろして床面に接地させることにより元の 「座り」 の 姿勢に戻ってこのモーションを終了する。
そしてこのようなモーションによって、 図 1 3 7 B〜図 1 3 7 Eによって 「ボ —ル」 を表現し、 図 1 3 7 F〜図 1 4 O Aによって 「頂戴」 を表現することによ り、 ポールが欲しいことをユーザに伝えることができる。
( 3 - 7 - 2 ) その他の言語モーション
その他の言語モーションとして、 図 1 4 1 A〜図 1 4 3 Aに第 2の言語モーシ ヨン、 図 1 4 4 A〜図 1 4 7 Eに第 3の言語モーション、 図 1 4 8 A〜図 1 5 0 Fに第 4の言語モーション、 図 1 5 1 A〜図 1 5 4 Aに第 5の言語モーション、 図 1 5 5 A〜図 1 5 7 Aに第 6の言語モーション、 図 1 5 8 A〜図 1 6 1 Aに第 7の言語モ一ションをそれぞれ示す。
( 3— 8 ) その他のモーション
その他のモーションの一例として、 成長時に発現されるモーション (以下、 こ れを成長モーションと呼ぶ) のうち、 第 1の成長モーションの流れを図 1 6 2 A 〜図 1 6 5 Aに、 第 2の成長モーションの流れを図 1 6 6 A〜図 1 6 8 Eに、 第 3の成長モーションの流れを図 1 6 9 A〜図 1 7 1 Fに、 第 4の成長モーション の流れを図 1 7 2 A〜図 1 7 4 Dに、 第 5の成長モーションの流れを図 1 7 5 A 〜図 1 7 7 Dにそれぞれ示す。
( 4 ) 本実施の形態の効果
以上の構成において、 このペッ トロボッ ト 1は、 そのモーション (動き) によ つて転倒復帰したり、 生物らしさやロボッ 卜らしさなどを表現する。
従ってこのぺッ トでは、 ぺッ トロボッ ト 1が転倒した場合においてもユーザが 立たせる必要がなく、 またそのモーションによってユーザに愛着心や好奇心を与 えることができる。
以上の構成によれば、 そのモーション (動き) によって転倒復帰したり、 生物 らしさやロボッ 卜らしさなどを表現するようにしたことにより、 ペッ トロボッ ト 1が転倒した場合においてもユーザが立たせる必要がなく、 またそのモーション によってユーザに愛着心や好奇心を与えることができ、 かく してアミユーズメン ト性を向上させ得るぺッ トロボッ ト 1を実現できる。
( 5 ) 他の実施の形態
なお上述の実施の形態においては、 本発明を図 1のように構成されたぺッ トロ ボッ ト 1に適用するようにした場合について述べたが、 本発明はこれに限らず、 この他授受の形態のロボッ ト装置に広く適用することができる。 産業上の利用可能性
本発明はぺッ トロボッ 卜に適用することができる。

Claims

請 求 の 範 囲
1 . 胴体部の前後左右にそれぞれ脚部が連結された 4脚歩行型のロボット装置に おいて、
各上記脚部をそれぞれ個別に駆動する駆動手段と、
上記駆動手段を駆動制御する制御手段と
を具え、
上記制御手段は、
上記ロボット装置が横方向に転倒したときに、 上記胴体部の下側に位置する前 後の各上記脚部を互いに開く方向にそれぞれ回転させた後、 当該各上記脚部を上 記胴体部から離反する方向にそれぞれ回転させるように上記駆動手段を駆動制御 する
ことを特徴とするロボット装置。
2 . 胴体部の前後左右にそれぞれ脚部が連結された 4脚歩行型のロボット装置に おいて、
各上記脚部をそれぞれ個別に駆動する駆動手段と、
上記駆動手段を駆動制御する制御手段と
を具え、
上記制御手段は、
上記ロボット装置が前方向に転倒したときに、 上記胴体部の前側の各上記脚部 を当該胴体部の前側においてほぼ平行となるまでそれぞれ回転させた後、 当該各 脚部を上記胴体部の後方向に回転させるように上記駆動手段を駆動制御する ことを特徴とするロボット装置。
3 . 胴体部の前後左右にそれぞれ脚部が連結された 4脚歩行型のロボッ 卜装置に おいて、 各上記脚部をそれぞれ個別に駆動する駆動手段と、
上記駆動手段を駆動制御する制御手段と
を具え、
上記制御手段は、
上記ロボット装置が後方向に転倒したときに、 上記胴体部の後側の各上記脚部 を当該各脚部がほぼ直線状になるまで上記胴体部から離反する方向にそれぞれ回 転させた後、 当該各脚部を上記胴体部の前方向に回転させるように上記駆動手段 を駆動制御する
ことを特徴とするロボット装置。
4 . 胴体部の前後左右にそれぞれ脚部が連結された 4脚歩行型のロボット装置に おいて、
各上記脚部をそれぞれ個別に駆動する駆動手段と、
上記駆動手段を駆動制御する制御手段と
を具え、
上記制御手段は、
各上記脚部を放射状に広げさせた後、 各上記脚部を上記胴体部の上方向に反ら せるように上記駆動手段を駆動制御する
ことを特徴とするロボット装置。
5 . 胴体部の前後左右にそれぞれ脚部が連結されると共に、 上記胴体部の前部に 頭部が配設された 4脚歩行型のロボット装置において、
各上記脚部及び上記頭部をそれぞれ個別に駆動する駆動手段と、
上記駆動手段を駆動制御する制御手段と
を具え、
上記制御手段は、
上記胴体部における一方の上記脚部の先端部が上記頭部の後部において上下動 するように上記駆動手段を駆動制御する ことを特徴とするロボット装置。
PCT/JP2000/002991 1999-05-10 2000-05-10 Dispositif robot WO2000068880A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US09/743,245 US6458011B1 (en) 1999-05-10 2000-05-10 Robot device
JP2000616585A JP4518229B2 (ja) 1999-05-10 2000-05-10 ロボット装置
US10/255,301 US6591923B2 (en) 1999-05-10 2002-09-26 Robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP12927999 1999-05-10
JP11/129279 1999-05-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US10/255,301 Continuation US6591923B2 (en) 1999-05-10 2002-09-26 Robot

Publications (1)

Publication Number Publication Date
WO2000068880A1 true WO2000068880A1 (fr) 2000-11-16

Family

ID=15005664

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2000/002991 WO2000068880A1 (fr) 1999-05-10 2000-05-10 Dispositif robot
PCT/JP2000/002990 WO2000068879A1 (fr) 1999-05-10 2000-05-10 Dispositif robot, son procede de commande et support d'enregistrement

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/002990 WO2000068879A1 (fr) 1999-05-10 2000-05-10 Dispositif robot, son procede de commande et support d'enregistrement

Country Status (7)

Country Link
US (2) US6458011B1 (ja)
EP (1) EP1120740B1 (ja)
JP (1) JP4518229B2 (ja)
KR (1) KR20010071833A (ja)
CN (1) CN1304516A (ja)
DE (1) DE60036599T2 (ja)
WO (2) WO2000068880A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
WO2019138618A1 (ja) * 2018-01-10 2019-07-18 ソニー株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
EP3705237A4 (en) * 2017-10-31 2020-12-02 Sony Corporation ROBOTIC DEVICE

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1112984C (zh) * 1999-05-10 2003-07-02 索尼公司 机器宠物装置的控制方法
JP2002301674A (ja) * 2001-04-03 2002-10-15 Sony Corp 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
JP2003060745A (ja) * 2001-08-22 2003-02-28 Sony Corp 情報伝達装置、情報伝達方法及びモニタ装置
KR100624403B1 (ko) 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
KR100458079B1 (ko) * 2001-11-23 2004-11-18 (주)로보티즈 감정 표현 로보트
JP4204839B2 (ja) * 2002-10-04 2009-01-07 株式会社エイ・ジー・アイ 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
US7165637B2 (en) * 2004-11-04 2007-01-23 The Boeing Company Robotic all terrain surveyor
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
JP4893887B2 (ja) * 2007-04-02 2012-03-07 本田技研工業株式会社 充電装置
KR100880613B1 (ko) * 2007-08-10 2009-01-30 주식회사 쿼터뷰 지능형로봇의 감정표현지원시스템과 지원방법 및 이를이용한 지능형 로봇 시스템
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
US8057275B2 (en) * 2008-09-23 2011-11-15 Hasbro, Inc. Toy with pivoting portions capable of rolling over and methods thereof
KR101101750B1 (ko) * 2009-09-16 2012-01-05 (주)동부로봇 로봇의 감성표현방법
CN104093527A (zh) * 2012-02-03 2014-10-08 日本电气株式会社 通信引入系统、通信引入方法和通信引入程序
US20150138333A1 (en) * 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues
US9104231B2 (en) 2012-09-27 2015-08-11 Microsoft Technology Licensing, Llc Mood-actuated device
US9046884B2 (en) * 2012-12-31 2015-06-02 Microsoft Technology Licensing, Llc Mood-actuated device
US20140273728A1 (en) * 2013-03-15 2014-09-18 Rehco, Llc Motorized and non-motorized interactive character
CN105243967A (zh) * 2015-09-29 2016-01-13 塔米智能科技(北京)有限公司 一种支持多种颜色的led点阵机器人面部结构
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
JP6747506B2 (ja) 2016-04-28 2020-08-26 富士通株式会社 ロボット
CN109414623B (zh) * 2016-07-11 2021-03-19 Groove X 株式会社 行为自主型机器人
SG11201900080VA (en) * 2016-07-12 2019-02-27 Emulate Inc Additive channels
CN106904226B (zh) * 2017-03-10 2022-12-23 杭州宇树科技有限公司 一种电驱动四足机器人的腿部动力系统结构
WO2018198480A1 (ja) * 2017-04-28 2018-11-01 ソニー株式会社 制御装置、および制御方法
USD848552S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy horse
USD848550S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy bulldog
USD848549S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy dog
USD916160S1 (en) * 2017-10-31 2021-04-13 Sony Corporation Robot
JP1622873S (ja) 2017-12-29 2019-01-28 ロボット
CN108499128A (zh) * 2018-04-17 2018-09-07 郭斌 一种智能机器人玩具
CN113727767B (zh) 2018-10-17 2023-05-23 派拓艺(深圳)科技有限责任公司 机器动物拼插模型
JP7480706B2 (ja) * 2018-10-30 2024-05-10 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP7081577B2 (ja) * 2019-10-31 2022-06-07 カシオ計算機株式会社 ロボット
USD985645S1 (en) * 2021-04-16 2023-05-09 Macroact Inc. Companion robot
USD986985S1 (en) * 2022-05-27 2023-05-23 Jinwei Chen Dog robot toy
USD1030917S1 (en) * 2022-07-15 2024-06-11 Shenzhen Tbz Technology Co., Ltd. Artificial intelligence robot dog

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
JP2593149B2 (ja) * 1987-02-04 1997-03-26 株式会社 ナムコ 感情表現玩具
JPS63191582A (ja) * 1987-02-05 1988-08-09 株式会社明電舎 ロボツトの歩行装置
JPS6419492U (ja) * 1987-07-20 1989-01-31
US5929585A (en) * 1996-11-19 1999-07-27 Sony Corporation Robot system and its control method
JP3956414B2 (ja) * 1996-11-19 2007-08-08 ソニー株式会社 ロボット装置及びロボット装置の制御方法
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置
US6095887A (en) * 1998-02-24 2000-08-01 Onilco Innovacion S.A. Doll capable of walking with unsteady steps and with falling and upright recovery motions
CN1146492C (zh) * 1998-06-09 2004-04-21 索尼公司 机器人装置及其姿态控制方法
JP2000317876A (ja) * 1999-05-10 2000-11-21 Sony Corp ロボット装置
JP2001239479A (ja) * 1999-12-24 2001-09-04 Sony Corp 脚式移動ロボット及びロボットのための外装モジュール
WO2001085400A2 (en) * 2000-05-09 2001-11-15 Hasbro, Inc. Self-stabilizing walking apparatus that is capable of being reprogrammed or puppeteered
US6705917B2 (en) * 2000-12-15 2004-03-16 Andrew S. Filo Self-phase synchronized walking and turning quadruped apparatus

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Database Inspec on STN, Institute of Electrical Engineers, (Stevenge, GB), INSPEC Abstract No. C9809-7810-026, Wei-Min, Shen. et al., "Building integrated robots for soccer competition", Proceedings International Conference on Multi Agent Systems, 3-7 July, 1998, pages 465-466. *
HIROKI KITANO et al., "Sony Legged Robot for RoboCup Challenge", 1998 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, 16-20 May, 1998, Vol. 3, pages 2605-2612. *
Hiromi Kaneko, " 'Pet Robot' wo Kaibo, 16 Jiyudo, 56 Dosa no Enterrainment-4 Soku Jiritsu Gata", Electronics, 01 March, 1998, Vol. 4, No. 3, pages 34-35. *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
EP3705237A4 (en) * 2017-10-31 2020-12-02 Sony Corporation ROBOTIC DEVICE
US11969662B2 (en) 2017-10-31 2024-04-30 Sony Corporation Robot device
WO2019138618A1 (ja) * 2018-01-10 2019-07-18 ソニー株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
JPWO2019138618A1 (ja) * 2018-01-10 2020-12-17 ソニー株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
JP7238796B2 (ja) 2018-01-10 2023-03-14 ソニーグループ株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム

Also Published As

Publication number Publication date
EP1120740A4 (en) 2005-08-31
JP4518229B2 (ja) 2010-08-04
US20030019671A1 (en) 2003-01-30
WO2000068879A1 (fr) 2000-11-16
DE60036599T2 (de) 2008-02-07
US6458011B1 (en) 2002-10-01
EP1120740A1 (en) 2001-08-01
CN1304516A (zh) 2001-07-18
DE60036599D1 (de) 2007-11-15
EP1120740B1 (en) 2007-10-03
KR20010071833A (ko) 2001-07-31
US6591923B2 (en) 2003-07-15

Similar Documents

Publication Publication Date Title
WO2000068880A1 (fr) Dispositif robot
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
WO2001039932A1 (fr) Robot, son procede de commande et procede d&#39;appreciation du caractere du robot
US6711469B2 (en) Robot system, robot apparatus and cover for robot apparatus
JP4086024B2 (ja) ロボット装置及びその行動制御方法
US6445978B1 (en) Robot device and method for controlling the same
US20010047226A1 (en) Articulated robot and method of controlling the motion of the same
US7062356B2 (en) Robot apparatus, control method for robot apparatus, and toy for robot apparatus
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
JP2001038663A (ja) マシンの制御システム
JP3277500B2 (ja) ロボット装置
WO2000067959A1 (fr) Dispositif robotique et procede de commande associe
JP2003159674A (ja) ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム
JP2003191187A (ja) ロボット装置及びその制御方法
JP4210897B2 (ja) 音源方向判断装置及び音源方向判断方法
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
JP2001157979A (ja) ロボット装置及びその制御方法
JP2001154707A (ja) ロボット装置及びその制御方法
JP4411503B2 (ja) ロボット装置及びその制御方法
JP2001157982A (ja) ロボット装置及びその制御方法
JP2003208161A (ja) ロボット装置及びその制御方法
Behnke et al. NimbRo RS: A low-cost autonomous humanoid robot for multi-agent research
JP2003071757A (ja) ロボット装置
JP2003266364A (ja) ロボット装置
JP2001191280A (ja) ロボット装置及びその制御方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

WWE Wipo information: entry into national phase

Ref document number: 09743245

Country of ref document: US