WO2000067960A1 - Dispositif jouet et sa technique de commande - Google Patents

Dispositif jouet et sa technique de commande Download PDF

Info

Publication number
WO2000067960A1
WO2000067960A1 PCT/JP2000/002988 JP0002988W WO0067960A1 WO 2000067960 A1 WO2000067960 A1 WO 2000067960A1 JP 0002988 W JP0002988 W JP 0002988W WO 0067960 A1 WO0067960 A1 WO 0067960A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
robot
robot device
battery
predetermined
Prior art date
Application number
PCT/JP2000/002988
Other languages
English (en)
French (fr)
Inventor
Makoto Inoue
Hideki Noma
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US09/743,293 priority Critical patent/US6415203B1/en
Priority to JP2000616969A priority patent/JP4512963B2/ja
Priority to KR1020017000437A priority patent/KR20010053488A/ko
Priority to EP00925595A priority patent/EP1112821A4/en
Publication of WO2000067960A1 publication Critical patent/WO2000067960A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/005Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators using batteries, e.g. as a back-up power source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/0054Cooling means

Definitions

  • the present invention relates to a robot device and a control method therefor, and is suitably applied to, for example, a robot.
  • the tail of this type of robot is not only a string-shaped tail that simply hangs from the rear end of the body, but also in the vertical direction or depending on the drive of the actuator built in the rear end of the body.
  • a device that swings in the left-right direction has been proposed.
  • this type of robot uses a battery, which is a secondary battery provided inside the fuselage, as a main power source, and drives various circuit units based on the power supplied from the battery. It has been made to be.
  • the tail when the tail is swung in response to the driving of the actiyue, the tail is bent and swung in a direction according to the emotion at that time, such as a real dog or cat. If this can be done, it will be possible to give the user a greater sense of intimacy and satisfaction, and to further improve the amusement as a pet robot.
  • the tail does not need to move as needed like a limb, and it can be moved freely at any time, so if a failure or trouble occurs inside the pet mouth bot Can be notified to the unit by tail movement. It is even more desirable.
  • a driving system including a battery is provided in the body of a pet robot.
  • a ventilation port is formed at a predetermined position of the body, and the air is exchanged with outside air through the ventilation port. In this way, it is possible to prevent the internal temperature of the body from rising extremely.
  • the present invention has been made in view of the above points, and has a mouth bot device capable of significantly improving the amusement property, expressing the necessity of charging with an attitude, and ensuring safety, and a control thereof. It tries to propose a method.
  • a robot apparatus having a movable part whose one end is rotatably connected to at least one axis or more, Emotional instinct model that has motion control means for operating the movable part according to force information and an emotional instinct model caused by the motion, and determines the operation of the movable part by changing the emotional instinct model based on input information
  • a changing means is provided.
  • a robot device having a movable portion having one end rotatably connected to at least one axis or more, detecting means for detecting an internal state of the robot device
  • An operation control means for operating the movable part is provided.
  • a battery remaining amount detecting means for detecting a remaining amount of the battery, and a battery remaining amount detected by the battery remaining amount detecting means.
  • An operation control means for causing the robot device to transition to a predetermined posture and / or exhibiting a predetermined operation when the pressure becomes equal to or lower than a predetermined level is provided.
  • a robot device having a body portion having a built-in power source and having a ventilation port formed at a predetermined position of the body portion
  • temperature detection means for detecting an internal temperature of the body portion
  • an operation control means for causing the robot apparatus to transition to a predetermined posture and / or to perform a predetermined operation is provided.
  • the first step of detecting the remaining amount of the battery, and the detected remaining amount of the battery becomes a predetermined level or less.
  • a second step of causing the robot device to transition to a predetermined posture and / or to exhibit a predetermined operation is provided.
  • the robot device can be controlled so as to give the user a feeling of promoting appetite as if it were a real animal, as a sense of closeness or satisfaction, thus significantly improving the amusement ability.
  • a control method for a robot device can be realized.
  • a first step of detecting an internal temperature of the body portion in a robot device having a body portion having a built-in power source and having a ventilation port formed at a predetermined position of the body portion When the internal temperature detected by the temperature detecting means becomes equal to or higher than a predetermined temperature, a second step of causing the robot device to transition to a predetermined posture and / or to perform a predetermined operation is provided.
  • a second step of causing the robot device to transition to a predetermined posture and / or to perform a predetermined operation is provided.
  • FIG. 1 is a perspective view showing a configuration of a pet robot system to which the present invention is applied.
  • FIG. 2 is a perspective view showing a configuration of a pet robot.
  • FIG. 3 is a perspective view showing the configuration of the pet robot of FIG.
  • FIG. 4 is a perspective view showing the configuration of the station in FIG.
  • FIG. 5 is a block diagram showing the configuration of the pet robot of FIG.
  • FIG. 6 is a schematic diagram showing the tail part of the tail unit.
  • FIG. 7 is a schematic perspective view showing the internal configuration of the base portion of the tail unit.
  • FIG. 8 is a partial cross-sectional view showing the internal configuration of the gearbox in the base portion of FIG.
  • FIG. 9 is a partial cross-sectional view for explaining an operation state of the differential gear mechanism in the gear box of FIG.
  • FIG. 10 is a schematic perspective view showing the entire configuration of the tail unit.
  • FIG. 11 is a schematic diagram for explaining data processing in the controller.
  • FIG. 12 is a schematic diagram for explaining the data processing by the emotional instinct model unit.
  • FIG. 13 is a schematic diagram for explaining the emotional processing performed by the instinct model unit.
  • FIG. 14 is a schematic diagram for explaining data processing by the emotion's instinct model unit.
  • FIG. 15 is a schematic diagram for explaining data processing by the emotion / instinct model unit.
  • Schematic diagram for explaining the de-night processing by the instinct model unit ⁇
  • Figure 17 is a state transition diagram of the finite state automaton in the action decision mechanism.
  • FIG. 18 is a posture transition diagram in the posture transition mechanism section.
  • FIG. 19 is a flowchart for explaining a charge request processing procedure.
  • FIG. 20 is a flowchart for explaining the internal temperature adjustment processing procedure.
  • a pet robot system according to the present embodiment as a whole, and a pet port bot 2 is placed at a predetermined position of a dedicated battery charger (hereinafter, referred to as a station) 3 with a predetermined posture state.
  • the battery (not shown) built in the pet robot 2 is charged by mounting the pet robot.
  • the actual pet robot 2 has a body unit
  • the front and rear ends of the body unit 4 are connected to the head unit 6 and the tail unit ⁇ , respectively, while the leg unit 5A to 5D are connected to the front, rear, left and right of the unit 4. Have been.
  • the tail unit 7T is pulled out from a base unit 7B provided on the upper surface of the body unit 4 so as to bend or swing with two degrees of freedom.
  • a cooling fan (not shown) is provided inside the body unit 4, and an exhaust port 4AX and an intake port 4BX are formed on the upper surface 4A and the lower surface 4B, respectively, via the cooling fan. I have. Accordingly, in the pet robot 2, the air sucked from the air inlet 4BX is discharged to the outside from the air outlet 4AX through the inside of the body unit 4 in response to the driving of the cooling fan, so that the body unit 4 is designed to reduce the internal temperature.
  • a first connector half 4C formed by exposing a plurality of electrodes (pads) (not shown).
  • the wiring drawn from the built-in charger is connected to a household power supply via an AC adapter, and as shown in Fig. 4, the external appearance of the top of the main unit 3A
  • a concave space 3 AH corresponding to the body unit 4 of the pet robot 2 is formed at the center, and flat surfaces 3 AR and 3 AL are respectively formed along the longitudinal direction on both sides of the concave space 3 AH. .
  • a second connector half having electrode terminals (not shown) protrudingly formed corresponding to the respective electrodes of the first connector half 4 C of the pet robot 2. 3 C is provided.
  • a plurality of LED (Light Emitting Diode) lamps 3 L are provided on the front of the main unit 3 A of the station 3, and a plug of an AC adapter (not shown) electrically connected to the station 3 is connected to the power supply. Whether the battery (not shown) provided inside the pet robot 2 is charged, or whether the spare battery removably stored in the station 3 is charged. Is turned on or off in a predetermined emission color. Has been made to notify.
  • the robot 2 When actually combining the robot 2 with the station 3, the robot 2 is first bent in a so-called “down” posture, that is, the leg units 5A to 5C are bent and the body unit is bent. Change the lower surface 4 of 4 to an attitude that brings the lower surface 4B close to the floor (this attitude is referred to as the station shift attitude).
  • the user lifts the pet robot 2 and places the body unit 4 so that the body unit 4 fits into the recessed space 3AH of the station 3, so that the first unit 4 on the body unit unit 4 side is provided.
  • the connector half 4C of the second station and the second connector half 3C of the station 3 are brought into contact with each other to make them conductive.
  • the leg unit 5A to 5D does not hinder the body unit 4 from being fitted into the recessed space 3AH.
  • the legs at the tips of the leg units 5A to 5D are held in contact with both flat surfaces 3AR and 3AL formed on the main body 3A of the station 3.
  • the robot 2 includes a controller 10 for controlling the operation of the entire robot 2 and a controller 10 for controlling the entire operation of the robot 2.
  • a battery 11 serving as a power source
  • an internal sensor unit 14 including a battery sensor 12 and a heat sensor 13 are housed.
  • the head unit 6 has a microphone 15 corresponding to the “ears”, a CCD (Charge Coupled Device) camera 16 corresponding to the “eyes”, an evening sensor 17 and a “mouth”.
  • Corresponding loudspeakers 18 and the like are arranged at predetermined positions.
  • the microphone 15 of the head unit 6 is provided as a musical scale by a sound commander (a commander that generates a sound of a different musical scale depending on the operation content) from a user. It collects command sounds such as "Chase the ball" and sends the obtained audio signal S1 to the controller 10. Further, the CCD camera 16 captures an image of the surroundings, and sends the obtained image signal S 2 to the controller 10.
  • the evening sensor 17 is provided on the upper part of the head unit 6 as is apparent in FIG. 2, and receives a pressure applied by a physical action such as “stroke” or “slap” from the user. Detect and send the detection result to controller 10 as pressure detection signal S3.
  • the battery sensor 12 of the body unit 4 detects the remaining amount of the battery 11 in five stages, and the detection result of each stage is sent to the sequential controller 10 as a battery remaining amount detection signal S4. Send out.
  • the battery sensor 12 indicates that the remaining amount of the battery 11 is 80% or more, 80% to 50%, 50% to 25%, 25% to 20% and 20 [%] When the value is less than or equal to 0%, it is classified as "Fu 11", “Midd 1 e-Fu 11", “Midd 1 e", “Low” and “Low_Low” in stages. It is made to detect.
  • the heat sensor 13 of the body unit 4 detects the internal temperature of the robot 2, and sends the detection result to the controller 10 as a heat detection signal S5.
  • the controller 10 is composed of a microphone 15, a CCD camera 16, an evening sensor 17, a battery sensor 12, and a sound signal S 1, an image signal S 2, a pressure detection signal S 3, and a battery provided from a heat sensor 13. Based on the remaining amount detection signal S4, the heat detection signal S5, and the like, it is determined whether there is a surrounding condition, a command from a user, a user's action, or the like.
  • the controller 10 determines a subsequent action based on the determination result and the control program input in advance, and based on the determination result, determines a necessary action 5 AA ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ S CA ⁇ S CAK S DA ⁇ S DAK , 6 Ai to 6 A L , 7 and 7 A 2 to move the head unit 6 up and down, left and right, move the tail unit 7, and move each leg unit 5 A to 5 D Have the user perform an action such as driving and walking.
  • the controller 10 outputs a sound based on the sound signal S6 to the outside by giving a predetermined sound signal S6 to the speaker 18 as necessary. Turns on, off or blinks the LED (not shown) provided at the position.
  • the robot 2 can autonomously act on the basis of the surrounding conditions, control programs, and the like.
  • the tail unit 7 has one end of the tail 7 T connected to a gear box (not shown) in a base 7 B provided on the upper surface of the body unit 4. I have.
  • this tail 7T is formed into a hairpin shape by bending a single wire 7W made of a superelastic alloy into a substantially U-shaped (or almost V-shaped) shape at the center.
  • a bending mechanism composed of two substantially parallel wire sections 7WA and 7WB is formed.
  • a plurality of cylindrical members 7 PA to 7 PD formed of a synthetic resin, light metal, or the like are inserted in series around the outer periphery of the hairpin-shaped wire portions 7 WA and 7 WB.
  • the articulated mechanism is constructed by connecting between PA and 7 PD as a so-called spherical bearing (a kind of universal joint) so that it can bend freely.
  • a pin 7P is driven perpendicularly to the axial direction of the leading end of the cylindrical member 7PA, and the bent portion 5WC of the wire 7W is brought into contact with the cylindrical member 7PA.
  • the member 7 can be prevented from coming off the PA.
  • the proximal ends 7 WAS and 7 WBS of the two wire portions 7 WA and 7 WB project in a state in which they are bent in substantially L-shapes in opposite directions.
  • Each is connected to a gear box 22 (FIG. 7) described later.
  • the pair of Akuchiyue Isseki 7 A, 7 A 2 is U-shaped cross section consisting of the gear one Domo Isseki
  • the formed bearing member 20 is fixed to the back plate 2 OA, and the output shafts 7 A 1X and 7 A 2X of the respective actuators 7 Ai and 7 A 2 are respectively formed in the back plate 2 OA through holes. It penetrates inward through 20 AH.
  • each Akuchiyue Isseki 7 A ⁇ gearbox output shaft 7 of 7 A 2 A 1X, 7 A 2X via the gear transmission mechanism 2 1 It is designed to engage with 22. That is, in this gear transmission mechanism 2 1, and each Akuchiyue Isseki 7 Ai, the output shaft 7 of 7 A 2 A 1X, 7 A 2X in anchored helical teeth wheel 2 3 A, 2 3 B, the bearing member 2
  • the helical gear 26 A which is rotatably mounted about the first and second shafts 24, 25 supported between the top plate 20 B and the bottom plate 20 C of FIG. And 26 B are meshed with each other.
  • a gear 27A having the first shaft 24 as a rotation center is integrally connected to the helical gear 26A, and the second shaft At the lower end of 25, a gear 27B having the second shaft 25 as a rotation center is integrally connected to the helical gear 26B.
  • gears 29 and 30 are provided at the upper end and lower end of the third shaft 28 supported between the upper plate 20B and the lower plate 20C of the bearing member 20, respectively.
  • the upper end gear 29 is meshed with the gear 27 A attached to the upper end of the first shaft 24, and the lower gear 30.
  • one end of a pair of upper and lower fourth and fifth shafts 31 and 32 which are coaxial with each other is supported on the upper plate 20B and the lower plate 20C of the bearing member 20, respectively.
  • a substantially spherical gear box 22 is attached so as to connect the fourth and fifth shafts 31 and 32.
  • the fourth and fifth shafts 31, 32 are rotatably mounted about the center of rotation, and the gears 33, 34 are mounted on the upper and lower ends of the third shaft 28, respectively.
  • the teeth are meshed in correspondence with 29, 30.
  • the gearbox 22 has a spherical shell 22 A, which is a combination of a pair of hemispheric shells 22 A and 22 A 2, as shown in FIG.
  • the differential gear mechanism 35 is incorporated into the hollow portion 22H in the spherical shell 22A so as to engage with the fourth and fifth shafts 31 and 32. It is configured.
  • the differential gear mechanism 35 has a support shaft 36 rotatably supported in the spherical shell 22A so as to be orthogonal to the fourth and fifth shafts 31 and 32.
  • a pair of upper and lower small-diameter bevel gears 39, 40 which are coaxially and integrally connected to the gears 3, 3, 3 attached to the shafts 31, 31, 32, respectively.
  • a slide guide 41 made of synthetic resin or the like is rotatable about the support shaft 36 so that its longitudinal direction is orthogonal to the support shaft 36.
  • a pair of upper and lower sliders 42 A and 42 B are attached to the slide guide 41 so as to be freely slidable in the longitudinal direction so as to sandwich the support shaft 36 therebetween.
  • a pair of upper and lower guide rails 41A and 41B are formed on one surface of the slide guide 41 in parallel with each other in the longitudinal direction, while one surface of each of the sliders 42A and 42B is formed.
  • One end of each of the wire portions 7WA and 7WB is embedded in the guide groove of each slider along the groove direction so as to hold the entire tail portion 7T.
  • a pair of upper and lower pin-shaped projections 38 A and 38 B are integrally formed inside one large-diameter bevel gear 38 so as to maintain a positional relationship of 180 ° (°) with each other,
  • a pair of upper and lower slide grooves 42AH and 42BH are formed parallel to the fourth and fifth shafts 31 and 32, respectively.
  • the large-diameter bevel gears 37, 38 are opposite to each other about the support shaft 36 (arrow a).
  • the projections 38A and 38B of the bevel gear 38 slide while sliding along the slide grooves 42AH and 42BH, respectively.
  • the sliders 42 A and 42 B can be slid in the opposite directions to the slide guide 41 by pressing against the rotation direction 8.
  • the gear transmission A pair of upper and lower gears 33 and 34 attached to the fourth and fifth shafts 31 and 32 via the mechanism 21 form a pair of upper and lower small-diameter umbrellas constituting the differential gear mechanism 35.
  • the two wire portions 7WA in the tail 7T can be bent by alternately pushing or pulling the 7 WB.
  • the tail portion 7T can be bent in a vertical direction at a desired amplitude, or can be swung in a vertical direction at a desired amplitude and speed.
  • a slot 22 having a predetermined size parallel to the fourth and fifth shafts 31 and 32 is provided at a predetermined position on the front surface of the spherical shell 22A in the gearbox 22.
  • the slide guide 41 in the gear box 22 and the tail portion 7T drawn from the pair of upper and lower sliders 42A, 42B are projected through the elongated hole 22L.
  • the tail portion 7T can be bent or swung up and down within the range of both upper and lower edges of the long hole 22L.
  • the gear transmission mechanism The pair of upper and lower gears 33 and 34 attached to the fourth and fifth shafts 31 and 32 via 21 rotate together in the same direction (the direction of the arrow b or the opposite direction).
  • the upper and lower pair of small-diameter bevel gears 39 and 40 constituting the differential gear mechanism 35 are in the same direction because they mesh with both the left and right pair of large-diameter bevel gears 37 and 38.
  • the differential gear mechanism 35 that is, the gear box 22 is integrated with the pair of upper and lower gears 33, 34 around the fourth and fifth shafts 31, 31, 32 as the center of rotation. And rotate in the same direction.
  • the tail unit 7 as shown in FIG. 1 0, a pair of Akuchiyue Isseki 7 Alpha chi, so that 7 A 2 each output shaft 7 A 1X, 7 A 2X are rotated in the same direction at the same rotational speed
  • the tail portion 7T is moved in the direction of the arrow c or in the direction opposite thereto. It can be bent at a desired amplitude in the left-right direction or the arrow d direction or the vertical direction opposite thereto, or can be swung at the desired amplitude and speed in the left-right direction.
  • a sensor input processing unit 50 that recognizes a specific external state
  • the sensor input processing unit The emotion that expresses the emotion and the state of the instinct by accumulating the recognition results of the 50 'instinct model unit 51, based on the recognition results of the sensor input processing unit 50
  • Action decision mechanism 52 which determines the next action, and the decision result and emotion of the action decision mechanism 52, the posture transition that actually causes the pet robot 2 to express the action based on the expression result of the instinct model section 51.
  • Mechanism 53, and each actuary 5 A Ai to 7 A! And 7 A 2 can be divided into a control mechanism 54 for controlling the drive.
  • the sensor input processing unit 50 determines a specific external state or the like based on the audio signal S 1, the image signal S 2, and the pressure detection signal S 3 given from the microphone 15, the CCD camera 16 and the evening sensor 17. After detecting and recognizing a specific action from the user and an instruction from the user, the recognition result is converted into an auditory state, a visual state, and a perceived state received by the real animal, and the internal sensor unit 14 is configured. Based on the remaining battery level detection signal S4 and the heat detection signal S5 provided from the battery sensor 12 and the heat sensor 13 to be turned on, the remaining temperature of the battery 11 is recognized and the internal temperature of the robot 2 is recognized. The obtained state recognition information D1 is notified to the emotion / instinct model unit 51 and the behavior determination mechanism unit 52.
  • the sensor input processing unit 50 constantly monitors the audio signal S 1 given from the microphone 15, and issues a command such as “walk”, “down”, “follow the ball”, etc. as the spectrum of the audio signal S 1.
  • a spectrum with the same scale as the command sound output from the sound commander (not shown) is detected in response to the command, it is recognized that the command has been given, and the recognition result is used as the emotion / instinct model unit 51 and the behavior. Notify the decision mechanism 52.
  • the sensor input processing unit 50 constantly monitors the image signal 2 given from the CCD camera 16 and includes, for example, a “red round object” or “vertical to the ground” in an image based on the image signal S 2.
  • a plane having a predetermined height or more is detected, it is recognized that "there is a ball” and “there is a wall”, and the recognition result is notified to the emotion / instinct model section 51 and the action determination mechanism section 52.
  • the sensor input processing unit 50 constantly monitors the pressure detection signal S3 given from the evening sensor 17 and, based on the pressure detection signal S3, has a predetermined threshold value or more and a short time (for example, less than 2 seconds). When it detects the pressure of When a pressure that is less than a predetermined threshold and that is for a long time (for example, 2 seconds or more) is detected based on the pressure detection signal S3, it is recognized as “patched (praised)”. Then, these recognition results are notified to the emotion and instinct model unit 51 and the action determination mechanism unit 52.
  • the sensor input processing section 50 constantly monitors the remaining battery level detection signal S4 provided from the battery sensor 12 and, based on the remaining battery level detection signal S4, determines that the remaining level of the battery 11 is 8 0 [ %], 50 to 25 [%], 25 to 20 [%], and 20 [%], and recognizes the recognition result. 51 and the action decision mechanism 52 are notified.
  • the sensor input processing unit 50 constantly monitors the heat detection signal S5 given from the heat sensor 13, and based on the heat detection signal S5, the internal temperature of the pet robot 2 is equal to or higher than a predetermined dangerous temperature. Is detected, it is recognized as “dangerous”, and the recognition result is notified to the emotion / instinct model unit 51 and the action determination mechanism unit 52.
  • the emotional instinct model section 51 includes a basic emotion group 60 composed of a plurality of independent emotion models 60 A to 60 D, and a plurality of independent desire models.
  • the control parameters for the basic desire group 61 consisting of the desire units 61 A to 61 D are stored in the memory 10 OA of the controller 10.
  • the emotion unit 6 OA indicates the emotion of “joy”
  • the emotion unit 60 B indicates the emotion of “sadness”
  • the emotion unit 60 C indicates the anger. ".
  • the emotion units 60 A to 60 D represent the degree of emotion by, for example, the intensity up to the 0 to 100 level, and the intensity of the emotion changes every moment based on the supplied state recognition information D 1. Let it. Thus, the emotion 'instinct model unit 51 expresses the emotional state of the pet robot 2 by combining the intensity of the emotion unit 60 A to 60 D that changes from moment to moment, and models the temporal change of the emotion. .
  • the desire unit 6 1 A indicates the desire of “appetite”
  • the desire unit 6 1 B indicates the desire of “curiosity”.
  • Unit 6 1 C indicates the desire to exercise.
  • the desire units 61A to 61D indicate the degree of desire by, for example, intensities up to the 0 to 100 level, and the supplied state recognition information D1 The intensity of the desire is changed every moment based on the.
  • the instinct model unit 51 expresses the state of the instinct of the pet robot 2 by combining the intensity of the desire unit 61 A to 61 D, which changes every moment, and models the temporal change of the instinct. ing.
  • the emotion / instinct model unit 51 changes the intensity of the emotion units 60 A to 60 D and the desire units 61 A to 6 ID based on the state recognition information D 1.
  • the emotion and instinct model section 51 determines the state of emotion by cumulatively combining the intensity of the changed emotion units 60 A to 60 D, and changes the changed desire unit 61 A to 61.
  • the state of the instinct is determined by cumulatively combining the intensities of D, and the determined emotion and the state of the instinct are sent to the action determining mechanism 52 as emotion / instinct state information D 2.
  • the emotion and instinct model unit 51 connects desired emotion units 60 A to 60 D among the basic emotion group 60 with each other in a mutually repressive or mutually stimulating manner, and the combined unit unit 60
  • the intensity of one emotion unit is changed from A to 60D, the intensity of the other emotion unit changes accordingly, and a pet robot having natural emotions is realized.
  • the emotion / instinct model unit 51 praise the user by mutually inhibitingly combining the “joy” emotion unit 6 OA and the “sad” emotion unit 60 B.
  • the intensity of the emotional unit 6 OA was increased, and the state recognition information D 1 that changed the intensity of the emotional unit 60 B was not supplied.
  • the intensity of the “joy” emotion unit 6 OA increases, the intensity of the “sadness” emotion unit 60 B naturally decreases.
  • the intensity of the “sadness” emotion unit 60 B increases.
  • the intensity of the “sadness” emotion unit 60 B increases.
  • the emotional instinct model unit 51 also connects the “sadness” emotion unit 60B and the “anger” emotion unit 60C in a mutually stimulating manner, so that when the user is hit, Increases the intensity of the "anger” emotion unit 60C, and does not supply state recognition information D1 that changes the intensity of the "sadness” emotion unit 60B.
  • "Anger” The intensity of the emotion unit 60B naturally increases as the intensity of the emotion unit 60C increases.
  • the emotion and instinct model unit 51 naturally responds to the increase in the intensity of the “sadness” emotion unit 60 B. Anger Increases the intensity of emotional unit 60 C.
  • the emotion and instinct model unit 51 connects the desired desire units 61 A to 61 C of the basic desire group 61 as in the case of connecting the emotion units 60 A to 60 C.
  • the intensity of one of the combined desire units 61A to 61C is changed, the intensity of one of the combined desire units is changed accordingly.
  • the strength changes, and the robot 2 with natural instinct is realized.
  • the emotion / instinct model unit 51 reciprocally connects the “appetite” desire unit 6 1 A and the “motor desire” unit unit 61 B. Therefore, when the battery 11 inside the pet robot 2 becomes low, the intensity of the “appetite” desire unit 61 A and the intensity of the “appetite” desire unit 61 B at that time are increased. Even if state recognition information D 1 that changes
  • the intensity of the “appetite” desire unit 61 A increases, the intensity of the “exercise desire” desire unit 61 B naturally decreases.
  • the emotion and instinct model unit 51 naturally increases the intensity of the “exercise desire” desire unit 6 1B, and automatically responds to the increase in the intensity of the “exercise desire” unit 6 1B.
  • Appetite "Desire unit 6 Decreases the intensity of 1 A.
  • the emotional / instinct model unit 51 reciprocally connects the “curiosity” desire unit 6 1B and the “motor desire” unit 6 1C so that the “motion desire”
  • the desire for exercise Curiosity naturally increases as the intensity of the unit 61 C increases.
  • the emotion and instinct model unit 51 naturally “exercises” in response to the increase in the intensity of the “curiosity” desire unit 61B. Desire "Desire unit 6 1 Increase the strength of C.
  • the emotion and instinct model unit 51 generates the behavior information D indicating the current or past behavior of the bet robot 2 itself, for example, the behavior such as “walking for a long time”, from the behavior determination mechanism unit 52 in the latter stage. 3 is supplied, and even if the same state recognition information D1 is given, different emotion and instinct state information D2 is generated according to the action of the pet robot 2 indicated by the action information D3. ing.
  • the emotion and instinct model unit 51 includes action information D 3 indicating the action of the pet robot 2 and state recognition at the preceding stage of each emotion unit 60 A to 60 C.
  • the intensity increase / decrease functions 65A to 65C for generating the intensity information D4A to D4C for increasing or decreasing the intensity of each emotion unit 60A to 60C are provided respectively.
  • the intensity of each emotion unit 60A to 60C is increased or decreased according to the intensity information D4A to D4C output from the intensity increase / decrease function 65A to 65C.
  • the emotion and instinct model unit 51 includes, if the user greets the user with his / her head, the behavior information D3 that greets the user and the state recognition information D1 that the user has patted the head. Is given to the intensity increasing / decreasing function 65 A, the “joy” emotion unit 6 increases the intensity of the OA, while stroking the head while performing any work, that is, Even if the action information D3 indicating that there is and the state recognition information D1 of being stroked are given to the intensity increasing / decreasing function 65A, the intensity of the "joy" emotion unit 6OA is not changed.
  • the emotion and instinct model unit 51 refers to each of the emotion units 60 A to 60 C by referring not only to the state recognition information D 1 but also to the behavior information D 3 indicating the current or past behavior of the pet robot 2. Determining the intensity of the task, for example, when the user stroks his head with the intention of playing pranks while performing some task, causes ⁇ pleasure '' emotional unit 6 to cause unnatural emotions such as increasing the intensity of OA Can be avoided.
  • the emotion and instinct model unit 51 similarly applies to each of the desire units 61 A to 61 C based on the supplied state recognition information D 1 and action information D 3.
  • the intensity of 6 1 A to 61 C is increased or decreased, respectively.
  • the emotion and instinct model unit 51 includes behavior information D3 indicating the behavior of the pet robot 2 and state recognition at the preceding stage of each desire unit 61A to 61C.
  • the intensity increase / decrease functions 66 A to 66 C for generating the intensity information D 4 D to D 4 F for increasing / decreasing the intensity of each desire unit 61 A to 61 C, respectively.
  • the intensity increase / decrease function 66 A to 66 C is used to increase or decrease the intensity of each desire unit 61 A to 61 C according to the intensity information D 4 D to D 4 F, respectively.
  • the emotion and instinct model unit 51 gives the intensity increase / decrease function 6 6 A with the action information D 3 that the user is looking at a favorite color and the state recognition information D 1 that he is still for a while.
  • the behavior information D 3 that the user has just walked and is taking a break and the state recognition information D 1 that he has been still for a while in an empty environment are included. Even if given to the intensity increase / decrease function 65A, it does not change the intensity of the "curiosity" desire unit 61B.
  • the emotion and instinct model unit 51 refers to each of the desire units 61A to 61 by referring to not only the state recognition information D1 but also the behavior information D3 indicating the current or past behavior of the pet robot 2.
  • the intensity of C for example, when looking at a favorite color while walking and taking a break, an unnatural instinct that increases the intensity of the “curiosity” desire unit 6 1 B Can be avoided.
  • the intensity increase / decrease functions 65 A to 65 C and 66 A to 66 C When the knowledge information D1 and the behavior information D3 are input, the function is such that intensity information D4A to D4F is generated and output in accordance with a preset parameter. -By setting the evening to a different value for each robot 2, the personal robot 2 has a personality, for example, an offspring robot 2 or a bright robot 2 Can be made.
  • the action determining mechanism 52 determines the next action based on the state recognition information D1 and the emotion / instinct state information D2, and transmits the content of the determined action to the action command information D5. To the posture transition mechanism 53.
  • the action determining mechanism 52 displays the history of the state recognition information D 1 supplied in the past as an operation state (hereinafter, referred to as a state).
  • This state is called a finite state automaton 70 having a finite number of states that determine the next action by transiting the state to another state based on the state recognition information D1 and the state at that time.
  • the algorithm is used.
  • the action determination mechanism 52 changes the state each time the state recognition information D1 is supplied, and determines the action according to the state that has been shifted, so that only the current state recognition information D1 is provided. The action is determined by referring to the past state recognition information D1 but not the state.
  • the action determining mechanism 52 detects that a predetermined trigger has been made, it changes the current state to the next state.
  • triggers include, for example, the time during which an action in the current state is executed reaches a certain value, or a specific state.
  • Recognition information D 1 or emotionEmotion supplied from instinct model section 51Intensity status of emotion unit 60 A to 60 C and desire unit 61 A to 61 C indicated by instinct state information D 2 For example, the strength of the desired unit exceeds a predetermined threshold.
  • the behavior determining mechanism 52 includes an emotion unit 60 A to 60 C and a desire unit 61 A to 61 C indicated by the emotion and the instinct state information D 2 supplied from the instinct model unit 51.
  • the transition destination state is selected based on whether or not the intensity of the desired unit exceeds the predetermined threshold among the intensities of C. As a result, even when the same state recognition information D1 is input, for example, the action determining mechanism 52 differs depending on the intensity of the emotion unit 60A to 60C and the desire unit 61A to 61C. It is made to transit to the state.
  • the behavior determining mechanism 52 detects, for example, that the palm has been put out in front of the eyes based on the supplied state recognition information D 1, and generates “anger” based on the emotion / instinct state information D 2.
  • the intensity of the emotion unit 60 C is equal to or less than a predetermined threshold
  • the state recognition information D 1 detects “not hungry”, that is, the battery voltage is equal to or higher than the predetermined threshold
  • action command information D5 for performing the operation of the "front” is generated and transmitted to the posture transition mechanism 53.
  • the behavior determining mechanism 52 may, for example, display a palm in front of the eyes, and the intensity of the emotion unit 60 C “anger” is less than or equal to a predetermined threshold value, and “hungry”.
  • the behavior determining mechanism 52 When detecting that the voltage is less than the predetermined threshold value, it generates action command information D5 for performing an operation such as “licking the palm of a hand” and sends it to the posture transition mechanism 53.
  • the action determining mechanism 52 When the action determining mechanism 52 detects, for example, that the palm is in front of the eyes and that the intensity of the “anger” emotion unit 60 C is equal to or higher than a predetermined threshold value, the action determination mechanism section 52 displays the message “Hungry. No ", that is, regardless of whether or not the battery voltage is equal to or higher than a predetermined threshold, action command information D5 for performing an operation such as" turning to the side "is generated. Send to 3. Further, the behavior determination mechanism 52 detects, for example, that the remaining amount of the battery 11 is equal to or less than a predetermined threshold based on the supplied state recognition information D 1 and based on the emotion / instinct state information D 2.
  • action command information D 5 for performing the “charge” operation is generated, and this is used as a posture transition mechanism. Send to part 53.
  • the action decision mechanism 52 includes an emotion unit 60 A to 60 C and a desire unit 61 A to 61 C indicated by the emotions and the emotion supplied from the instinct model unit 51. Based on the intensity of the desired unit, of the intensity, the parameters of the action performed in the transition destination state, such as the walking speed, the magnitude and speed of the movement when moving the limbs, and the pitch when producing the sound The size of the pod is determined, and action command information D3 corresponding to the parameter of the action is generated and sent to the posture transition mechanism 53.
  • the information recognition information D 1 provided from the sensor input processing unit 50 has different emotions and instincts because the content of the information is different depending on the timing of being input to the emotion and instinct model unit 51 and the action determination mechanism unit 52.
  • the data is input to the behavior determining mechanism 52 as well as the model 51.
  • the controller 10 when the controller 10 is supplied with the information recognition information D1 of "patched on the head", the emotions and instinct model unit 51 generate the emotion and instinct state information D2 of "happy".
  • the emotion / instinct state information D2 is supplied to the action determining mechanism 52.
  • the action determining mechanism In part 52 when the information recognition information D1 that "the hand is in front of the eyes” is supplied, the action determining mechanism In part 52, the action command information of "please suddenly” based on the emotion of "happy” and the instinct status information D2 and the information recognition information D1 of "the hand is in front of you” in section 52 5 is generated and sent to the posture transition mechanism 53.
  • the controller 10 receives the information recognition information D 1 indicating that “the battery 11 has almost no remaining capacity”
  • the emotion / instinct model unit 51 indicates that the feeling “hungry” is obtained.
  • Generates instinct status information D 2 and performs the emotion 2 is supplied to the behavior determining mechanism 52.
  • the behavior determining mechanism 52 Based on the feeling of feeling hungry and the instinct status information D2 and the information recognition information D1 wanting to cool down the body, action command information D5 of "get up and appeal" is generated. Is sent to the posture transition mechanism 53.
  • the posture transition mechanism unit 53 transmits posture transition information D 6 for transitioning from the current posture to the next posture based on the behavior command information D 5 supplied from the behavior determination mechanism unit 52. It is generated and sent to the control mechanism 54.
  • the posture that can be changed next from the current posture is the physical shape of the pet robot 2 such as the shape and weight of the body, hands and feet, and the connection state of each part, and the direction and angle at which the joint bends, for example. It is determined and good Una Akuchiyue Isseki of 5 to 7-Ai and 7 a 2 mechanism by. By the way, such transitionable postures are classified into postures that can transition directly from the current posture and postures that cannot transition directly.
  • a four-legged pet robot 2 can directly transition from a lying down state to a lying down state by throwing out a large limb, but cannot directly transition to a standing state. It is necessary to perform a two-step operation in which the robot approaches a prone position, and then stands up. There are also postures that cannot be safely executed. For example, a four-legged pet robot can easily fall over when trying to banzai with both front legs raised while standing.
  • the posture transition mechanism unit 53 registers in advance the transitionable posture, and when the behavior command information D5 supplied from the behavior determination mechanism unit 52 indicates the directly translatable posture, the behavior command While the information D5 is sent as it is to the control mechanism unit 54 as the posture transition information D6, if it indicates a posture that cannot be directly transited, it transitions once to another transmissible posture and then transits to the target posture. It generates posture transition information D6 to be transmitted and sends it to the control mechanism 54. Thereby, the pet robot 2 can avoid a situation in which a posture that cannot be transitioned is forcibly executed or a situation in which the pet robot 2 falls down.
  • the posture transition mechanism unit 53 registers in advance the postures that the robot 2 can take, and records between the two postures that can be transitioned.
  • the posture transition mechanism 53 expresses the postures that the pet robot 2 can take as nodes NODE1 to NODE5, and between the transitionable postures, that is, between the nodes NODE1 to NODE5.
  • the posture transition mechanism 53 are connected by directed arcs ARC 1 to ARC 10 using an algorithm called a directed graph 80.
  • the posture transition mechanism 53 responds to the node NODE corresponding to the current posture and the posture to be taken next indicated by the behavior command information D5. Searches the route from the current node NOD E to the next node NOD E according to the direction of the directed arc ARC so as to connect with the node NODE, and records the node NODEs on the searched route in order. By doing so, the plan of posture transition is made. Accordingly, the pet robot 2 can implement the action instructed by the action determining mechanism unit 52 while avoiding a situation in which a posture in which transition is impossible is forcibly performed or a situation in which the robot falls down.
  • the posture transition mechanism unit 53 indicates the posture of “turn off” when the action command information D 5 of “sail” is supplied. Utilizing the fact that the node NODE 2 can directly transition to the node NODE 5 indicating a posture of “sit”, the posture transition information D 6 of “saw” is given to the control mechanism unit 54.
  • the posture transition mechanism unit 53 searches for a route from the node NODE 2 of “disabled” to the node NODE 4 of “aruku”. A posture transition plan D is generated, and as a result, posture transition information D 6 for issuing an instruction “vertical” and then an instruction “walk” is generated and transmitted to the control mechanism 54.
  • Control mechanism unit 11 54 generates a control signal S 10 for driving Akuchiyue Isseki 5 AAi ⁇ 7A based on posture transition information D 6, and 7A 2, which Akuchiyue Isseki 5AAi ⁇ 7Ai and the Akuchiyue Isseki 5 a and sent to 7A 2 A, by driving the 7-and 7 A 2, are adapted to perform the desired operation on the pet Torobo' Doo 2.
  • the controller 10 in the robot 2 enters the charging request processing procedure RT1 shown in FIG. 19 from step SP0 at the time of operation, and is built in the robot 2 in the following step SP1.
  • the remaining amount of the battery 11 is detected by the battery sensor 12.
  • step SP2 determines whether or not the remaining amount of the battery 11 is "Low-Low” of 20 [%] or less. If a negative result is obtained in step SP2, this means that "Full” when the remaining capacity of the battery 11 is 80% or more, "Midd le-Full” when 80 to 50%, and 50 to 50%. 25 [%] “Midd 1 e” or 25 to 20 [%] “Low”. At this time, the controller 10 After controlling the action of the robot 2 according to each step, the process returns to step SP1 again.
  • the controller 10 controls the step and speed of the walk to be relatively large when the remaining amount of the battery 11 is “Fu 11” of 80% or more, and also controls the remaining amount of the battery 11. Is 80 to 20 [%], that is, from “Middle-Ful lj” to “Low” via “Midd 1 e”, the momentum of Petrobot 2 decreases as the remaining amount decreases The units 5A to 5D, 6, and 7 are controlled so as to make them work. On the other hand, if a negative result is obtained in step SP2, the controller 10 proceeds to step SP4, changes the pet robot 2 to the station transfer posture described above, and appeals to the user for charging. Proceed to SP5 to end the charging request processing procedure RT1.
  • the controller 10 controls the drive of the leg unit 5A to 5D so that the robot 2 is in the stage shift posture, and the drive of the tail unit 7 to control the tail.
  • the head unit 6 is driven and controlled so that the LED provided at the position of the "eye” is turned on in a predetermined light emission pattern while the unit is swung in a predetermined direction, amplitude and speed.
  • a predetermined warning sound for example, “I am hungry!” Is output from the built-in speaker 18 at the “ear” position.
  • the controller 10 in the pet robot 2 When the controller 10 in the pet robot 2 actually operates, the controller 10 enters the internal temperature adjustment processing procedure RT2 shown in FIG. 20 from step SP10, and in the following step SP11, the body unit of the pet robot 2 The internal temperature of 4 is detected by the heat sensor 13.
  • step SP12 the internal temperature of the pet robot 2 reaches a predetermined dangerous temperature (for example, 60 [° C], that is, a heat resistance temperature at which a general secondary battery is used).
  • a predetermined dangerous temperature for example, 60 [° C], that is, a heat resistance temperature at which a general secondary battery is used.
  • the process returns to step SP11 when a negative result is obtained, and proceeds to step SP13 when a positive result is obtained.
  • the controller 10 determines whether the pet robot 2 is currently in the “down” or “prone” posture, and if a positive result is obtained, the controller 10 proceeds to step SP 14. Proceeding, the leg units 5A to 5D of the pet robot 2 are driven and controlled to shift to the "stand up” posture, and the process returns to step SP11 again to repeat the same processing as described above.
  • step SP 13 if a negative result is obtained in step SP 13, this means that the battery 11 built in the body unit 4 of the robot 2 has failed, or that there is something in the body unit 4. Indicates that the outlet 4AX and / or the inlet 4BX is in a closed state due to sticking or wrapping, and at this time, the controller proceeds to step SP15, where the After appealing to the user, the process returns to step SP11 again and repeats the same processing as described above.
  • the controller 10 controls the driving of the leg units 5A to 5D and the tail unit 7 so that the pet robot 2 is in the upright and immobile state, and also controls the driving of the head unit 6.
  • the LED provided at the “eye” position flashes in a predetermined light emission pattern, and at the same time, a predetermined warning sound from the built-in speaker 18 at the “ear” position Output.
  • this robot 2 the user performs an action such as “tapping” or “patching”, and the user generates a voice such as “walking” or “prone” orally or using a sound commander. By doing so, or by arranging objects with distinctive colors and shapes in the action area, these recognition results are converted into various emotions held by real animals.
  • the pet robot 2 converts the emotions of “joy”, “sadness” and “anger” into the leg units 5A to 5D, the head unit 6 and the tail unit 7 according to the intensity.
  • the actuaries 5 AA i to 7 A! And 7 A 2 By driving and controlling each of the actuaries 5 AA i to 7 A! And 7 A 2 , the same attitude and movement as the emotional expression performed by a real animal are performed.
  • the tail 7T connected to the gearbox 22 in the base 7B can be moved not only vertically and horizontally but also in the turning direction. At the same time, it can be stationary while being bent in a desired state in the vertical direction. Therefore, the tail unit 7 expresses various emotional expressions based on the swinging or bending direction of the tail 7T, the amplitude and speed of the swing, the stationary position when bending, and the instantaneous movement. Can be done.
  • the tail unit 7 moves the tail 7T in the left-right direction with an amplitude and a speed proportional to the degree of “joy”.
  • the tail unit 7 keeps the tail 7 T in a curved state so as to hang downward.
  • the tail unit 7 swings the tail 7T in the vertical direction with an amplitude and a speed proportional to the degree of “anger”.
  • the pet robot system 1 While the unit 2 is operating, the remaining amount of the battery 11 incorporated in the body unit 4 is detected in a stepwise manner.
  • the power consumption of the battery 11 can be saved.
  • the leg units 5A to 5D are driven and controlled to change the pet robot 2 to the station transfer posture, and the head unit 6 and / or the tail unit 7 are moved.
  • the drive By controlling the drive to blink the LED in a predetermined light emission pattern, to output a predetermined warning sound from the speaker 18, and to swing the tail 7 in a predetermined direction, amplitude and speed.
  • the pet robot 2 can directly notify the user that the battery 11 is almost empty. As a result, while it is possible to inform the user that the pet robot 2 is promoting appetite like a real animal, it is possible to prevent the pet robot 2 from suddenly stopping and becoming dead. be able to.
  • the pet robot system 1 detects the internal temperature of the body unit 4 during the operation of the pet robot 2 and detects the internal temperature when the pet robot 2 is currently in the “prone” or “prone” posture.
  • the temperature reaches a predetermined dangerous temperature
  • the pet robot 2 spontaneously moves by controlling the drive of the leg units 5A to 5D to shift the pet robot 2 to the "stand up” posture.
  • the internal temperature of unit 4 can be ventilated. As a result, the pet robot 2 can be prevented from breaking down by its own operation.
  • the head unit 6 and / or the tail unit 7 are controlled.
  • the LED By flashing the LED in a predetermined light emission pattern, outputting a predetermined warning sound from the speaker 18, and swinging the tail 7 in a predetermined direction, amplitude and speed, the robot 2 Can be directly notified to the user that the user is in danger.
  • the possibility of breakdown can be significantly reduced.
  • the pet robot 2 converts the emotions of the real animal into the emotions of the real animal based on the action of the user, the input of the command, and the own action, and then converts the emotions to the tail unit 7.
  • the movement and posture of the tail 7T it is possible to provide the user with a further sense of intimacy and satisfaction, thereby realizing the pet robot 2 that can significantly improve the amusement property.
  • the pet robot 2 when it is detected that the battery 11 built in the body unit 4 is almost exhausted during the operation of the pet robot 2, the pet robot 2 is moved to the station transfer posture.
  • the head unit 6 and / or the tail unit 7 are driven and controlled to express this to the user and notify the user of the appetite as if it were a real animal. It is possible to give the user a sense of encouragement as a sense of closeness or satisfaction, and thus to realize a pet robot system 1 that can significantly improve the amusement ability ⁇
  • the pet robot system 1 when the internal temperature of the body user 4 reaches a predetermined dangerous temperature during the operation of the pet robot 2, the pet robot 2 is currently in the “prone” or “prone” posture. In some cases, the robot shifts to a “stand-up” posture, and at other times, the head unit 6 and / or the tail unit 7 are driven and expressed to that effect by the user to notify the robot. It is possible to prevent the battery 11 from breaking down inside 2 and thus implement the pet robot system 1 that can ensure safety. (8) Other embodiments
  • the tail unit 7T of the tail unit 7 in the pet robot 2 is applied as a movable unit having one end rotatably connected in at least one axis or more.
  • the present invention is not limited to this, and a tactile sense may be applied to a robot such as an insect.
  • various operations bending, swinging and / or turning, etc. can be performed by the robot. If possible, apply widely to other moving parts. Can be used.
  • the operation control means for operating the tail unit 7T of the tail unit 7 includes the controller 10 and the actuator 7A in the base unit 7B driven in accordance with the controller control.
  • the controller 10 wide as 7 a 2, tooth wheel transmission mechanism 2 1 of the base portion 7 in the B, and has dealt with the case of applying the 2 2 and a gear box, the onset bright is not limited to this, and various other configurations Can be applied.
  • the operation control means applied the state recognition information D 1 consisting of the recognition results of the microphone 15, the CCD camera 16, and the evening sensor 17 as input information for determining the operation of the tail 7 T.
  • the present invention is not limited to this, and other information such as information on the action from the user and information on the environment around the pet robot 2 may be applied as the input information.
  • a controller provided in the body unit 4 is used as an emotion instinct model changing means for determining the operation of the tail unit 7T of the tail unit 7 by changing the emotion instinct model.
  • an emotion unit indicating emotions such as “surprise”, “fear”, and “disgust” can be added to the emotion units 60 A to 60 C that constitute the basic emotion group 60 described above with reference to FIG. good.
  • the tail unit 7 swings the tail 7T right and left or up and down for a moment with an amplitude proportional to the degree of “surprise”. Just do it.
  • the tail 7T may be stopped in a state where it is straight in the horizontal direction.
  • the tail unit 7 It is sufficient to turn T at an amplitude and a speed in proportion to the degree of “disgust”.
  • the present invention may be applied not only to emotional expressions but also to instinct expressions.
  • the tail 7T when expressing “hungry” or “sleepiness”, the tail 7T may be set to the same posture as “sadness” described above.
  • the tail 7T when expressing “fullness” or “greed for exercise”, the tail 7T may be operated in proportion to the degree as in the case of "joy” described above.
  • the expressive power of the pet robot 2 can be significantly increased.
  • the contents expressed by the movement and posture of the tail 7T of the tail unit 7 are determined by using a real animal determined using the microphone 15, the CCD camera 16 and the touch sensor 17
  • the present invention is not limited to this, and may be applied to the state expression of various hardware constituting the pet robot 2.
  • the state of the various hardware constituting the pet robot 2 includes the swinging or bending direction of the tail 7T, the amplitude and speed at the time of swinging, the stationary position at the time of bending, and What is necessary is just to make it express based on an instantaneous movement etc.
  • a feeling of closeness and satisfaction can be given to a user by presenting an animal-like reaction to the user.
  • an external air temperature measuring unit (not shown) may be provided in the pet robot 2, and the tail part 7T may be made to perform a desired posture and operation according to the measurement result.
  • the controller 10 in the body unit 4 may cause the tail portion 7T to perform a desired posture and operation when writing or reading a program to or from the memory 10A.
  • a communication means (not shown) is provided in the body unit 4, and the tail 7T is moved to a desired posture and the transmission amount and communication state of the data only during data transmission / reception via the communication means. An operation such as shaking may be performed in accordance with the operation.
  • the present invention is applied to a quadruped-type mouth bot configured as shown in FIG. 2.
  • the present invention is not limited to this.
  • the present invention can be widely applied to robots having various other configurations such as a robot having a built-in power source.
  • at least one or more antennae may be provided in the head unit 6 to operate in the same manner as the tail 7 T.
  • an action may be determined using an algorithm called a state machine.
  • a new state is generated each time the state recognition information D1 is supplied, and the action is performed according to the generated state. Should be determined.
  • a plurality of states are selected as transition destination candidates based on the currently supplied state recognition information D1 and the state at that time, and the state of the transition destination among the plurality of selected states is randomized by a random number.
  • the behavior may be determined using an algorithm called a probability finite automaton that is determined as follows.
  • the present invention is not limited to this, and other various configurations may be applied.
  • the controller controls the pet robot 2 to move to a predetermined posture and / or to perform a predetermined operation.
  • the present invention is not limited to this, and the drive and control of the head unit 6 and / or the tail unit 7 based on the emotion and instinct model unit 51 read from the memory 1 OA are described.
  • various other configurations may be widely applied.
  • the pet robot 2 is caused to transition to the station transfer posture when the remaining amount of the battery 11 becomes equal to or lower than a predetermined level.
  • the present invention is not limited to this. However, any other posture may be used as long as it is suitable for charging.
  • the remaining amount of the battery 11 is detected at five levels, and the operation of the pet robot 2 is reduced in accordance with each of the five levels.
  • the present invention is not limited to this, and the remaining amount of the battery 11 for causing the pet robot 2 to transition to a predetermined posture and / or to perform a predetermined operation may be freely set.
  • the thermal sensor 13 constituting the internal sensor unit 14 of the body unit 4 is applied as a temperature detecting unit for detecting the internal temperature of the body unit 4.
  • the present invention is not limited to this, and various other configurations may be applied.
  • the motion control means for causing the pet robot 2 to transition to a predetermined posture and / or to exhibit a predetermined operation.
  • controller 10 when controller 10 is applied, the present invention is not limited to this, and the leg units 5A to 5D are drive-controlled based on the emotion read from the memory 1OA and the instinct model unit 51, and the effect is expressed in an attitude. As long as the user can be notified of this, a variety of other configurations may be widely applied.
  • the pet robot 2 when the internal temperature of the body unit 4 becomes equal to or higher than a predetermined temperature, the pet robot 2 is moved to an operation in which the body unit 4 is raised (that is, a “stand-up” posture).
  • the operation is such that the ventilation port formed of the exhaust port 4 AX and the intake port 4 BX formed in the body unit 4 is opened. If so, transition to various operations may be performed.
  • the present invention is not limited to this, and the behavior of the pet robot 2 may be controlled according to various other internal states of the pet robot 2 or the external environment.
  • the gear ratio or the rotation speed of each actuator 5 AA i to 7 A 2 may be selected so as to be in the most efficient state, and the pet robot 2 may be operated.
  • the action determination mechanism 52 may transition to the most energy efficient process among the state transition processes in the finite state automaton.
  • the pet robot 2 may be caused to walk in a relatively cool direction when the external temperature rises.
  • the robot apparatus and the control method thereof can be applied to a pet robot, an amusement robot, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Description

明 細 書 ロボッ ト装置及びその制御方法 技術分野
本発明はロボッ ト装置及びその制御方法に関し、 例えばぺッ トロボッ 卜に適用 して好適なものである。 背景技術
近年、 ユーザからの指令や周囲の環境に応じて決まつた動作を行う 4足歩行型 のぺッ トロボットが本願特許出願人により提案及び開発されている。 かかるぺッ トロボッ トは、 一般家庭において飼育する犬や猫に似た形状を有し、 ユーザから の指令や周囲の環境などに応じて動作を行うものである。
この種のぺッ トロボッ トの尻尾としては、 胴体部の後端から単にぶら下げるよ うにした紐状のもののみならず、 胴体部の後端に内蔵したァクチユエ一夕の駆動 に応じて上下方向又は左右方向に揺動させるようにしたものが提案されている。 またこの種のぺッ トロボッ トでは、 胴体内部に設けられた 2次電池でなるバッ テリを主動力源として用い、 当該バッテリから供給される電力に基づいて各種の 回路ゃァクチユエ一夕をそれぞれ駆動するようになされている。
ところがかかるぺッ トロボットにおいて、 尻尾をァクチユエ一夕の駆動に応じ て揺動させる場合、 当該尻尾を本物の犬や猫などのように、 その時々の感情に応 じた方向に湾曲及び揺動することができれば、 より一層の親近感や満足感をユー ザに与えて、 ぺッ トロボッ トとしてのアミユーズメント性をより向上させること ができると考えられる。
さらに尻尾は手足のように必要に応じた動きが要求されるものでもなく、 いつ でも自由に動作させることができるため、 ペッ ト口ボッ 卜の内部で故障やトラブ ルが生じた場合にその旨を尻尾の動作によってュニッ トに通知することができれ ば、 より一層望ましい。
これに加えてかかるぺットロボッ卜においては、 胴体部内に設けられたバッテ リの残量がほとんどない場合であっても、 当該バッテリの充電又は交換の必要性 をユーザに通知する手法が未だ提案されていなかった。
実際にバッテリの残量がなくなってぺットロボッ卜が停止状態になると、 あた かも死んでいるかのように見えるため、 アミユーズメント性の追求という趣旨に 反する結果となる。 このためバッテリの残量がなくなる直前に、 本物の動物が抱 くような食欲を充電欲としてユーザに対して表現させることができれば非常に望 ましい。
さらにぺットロボットには、 胴体部内にバッテリを含む駆動系が設けられてい る場合が多く、 この場合胴体部の所定位置に換気口を形成しておき、 当該換気口 を介して外部の空気と入れ換えるようにして、 胴体部の内部温度が極端に上昇す るのを防止し得るようになされている。
ところがこのペットロボットでは、 伏せているときのように、 換気口が床によ つて塞がれているときには、 外部からの空気をぺットロボット内部に吸入し得な くなるため、 胴体部の内部温度が極端に高くなつてバッテリを使用不能にさせる おそれがあった。
このためぺットロボットの内部温度がいわゆる危険温度に達する直前に、 当該 ぺットロボットを直立させて換気口を介して内部空気を循環させることができれ ば、 安全性を確保する面で非常に望ましい。 発明の開示
本発明は以上の点を考慮してなされたもので、 アミユーズメント性を格段的に 向上させ得る一方、 充電の必要性を態度で表現すると共に安全性を確保し得る口 ボット装置及びその制御方法を提案しょうとするものである。
かかる課題を解決するため本発明においては、 一端が少なくとも 1軸以上の方 向に回転自在に連結された可動部を有するロボット装置において、 供給される入 力情報に応じて可動部を動作する動作制御手段と、 動作に起因する感情本能モデ ルを有し、 入力情報に基づいて感情本能モデルを変化させることにより可動部の 動作を決定する感情本能モデル変化手段とを設けるようにした。 この結果この口 ボット装置では、 ユーザからの働きかけや、 指令の入力及び自己の行動に基づい て得られる本物の動物が抱く感情を可動部の動作及び姿勢で表現させることがで き、 かくしてより一層の親近感や満足感をユーザに与えることができ、 かくして アミユーズメント性を格段と向上させ得る。
また本発明においては、 一端が少なくとも 1軸以上の方向に回転自在に連結さ れた可動部を有するロボット装置において、 ロボット装置の内部状態を検出する 検出手段と、 検出手段の検出結果に応じて可動部を動作する動作制御手段とを設 けるようにした。 この結果このロボット装置では、 当該ロボットの内部状態を可 動部の動作及び姿勢で表現させることができ、 かくして動物的な反応をユーザに 提示することによつて親近感や満足感をユーザに与えることができる。
さらに本発明においては、 内蔵されたバッテリを動力源とするロボット装置に おいて、 バッテリの残量を検出するバッテリ残量検出手段と、 バッテリ残量検出 手段によつて検出されたバッテリの残量が所定レベル以下になったとき、 ロボヅ ト装置を所定の姿勢に遷移し及び又は所定の動作を発現させる動作制御手段とを 設けるようにした。 この結果このロボット装置では、 あたかも本物の動物のよう に食欲を促している様子を親近感や満足感としてユーザに与えることができ、 か くしてアミューズメント性を格段と向上し得る。
さらに本発明においては、 動力源が内蔵された胴体部を有し、 当該胴体部の所 定位置に換気口が形成されたロボット装置において、 胴体部の内部温度を検出す る温度検出手段と、 温度検出手段によって検出された内部温度が所定の温度以上 になったとき、 ロボット装置を所定の姿勢に遷移し及び又は所定の動作を発現さ せる動作制御手段とを設けるようにした。 この結果このロボット装置では、 内部 の動力源が故障するのを未然に防止することができ、 かくして安全性を確保し得 る o さらに本発明においては、 内蔵されたバッテリを動力源とするロボット装置の 制御方法において、 バッテリの残量を検出する第 1のステップと、 当該検出され たバッテリの残量が所定レベル以下になったとき、 ロボット装置を所定の姿勢に 遷移し及び又は所定の動作を発現させる第 2のステップとを設けるようにした。 この結果、 あたかも本物の動物のように食欲を促している様子を親近感や満足感 としてユーザに与えるようにロボッ ト装置を制御することができ、 かくしてアミ ュ一ズメント性を格段と向上し得るロボット装置の制御方法を実現できる。 さらに本発明においては、 動力源が内蔵された胴体部を有し、 当該胴体部の所 定位置に換気口が形成されたロボット装置において、 胴体部の内部温度を検出す る第 1のステップと、 温度検出手段によって検出された内部温度が所定の温度以 上になったとき、 ロボット装置を所定の姿勢に遷移し及び又は所定の動作を発現 させる第 2のステップとを設けるようにした。 この結果このロボット装置の内部 の動力源が故障するのを未然に防止するようにロボット装置を制御することがで き、 かくして安全性を確保し得るロボット装置の制御方法を実現できる。 図面の簡単な説明
図 1は、 本発明を適用したぺットロボットシステムの構成を示す斜視図である 図 2は、 ペットロボットの構成を示す斜視図である。
図 3は、 図 1のペットロボッ トの構成を示す斜視図である。
図 4は、 図 1のステーションの構成を示す斜視図である。
図 5は、 図 1のぺットロボッ卜の構成を示すプロック図である。
図 6は、 尻尾部ュニットにおける尻尾部を示す略線図である。
図 7は、 尻尾部ュニットにおけるベース部の内部構成を示す略線的な斜視図で める。
図 8は、 図 7のベース部におけるギアボックスの内部構成を示す部分的断面図 である。 図 9は、 図 8のギアボックス内の差動歯車機構の動作状態の説明に供する部分 的断面図である。
図 1 0は、 尻尾部ュニッ卜の全体構成を示す略線的て斜視図である。
図 1 1は、 コントローラにおけるデータ処理の説明に供する略線図である。 図 1 2は、 感情 '本能モデル部によるデータ処理の説明に供する略線図である ο
図 1 3は、 感情 '本能モデル部によるデ一夕処理の説明に供する略線図である ο
図 1 4は、 感情 '本能モデル部によるデータ処理の説明に供する略線図である 図 1 5は、 感情 ·本能モデル部によるデータ処理の説明に供する略線図である 図 1 6は、 感情 ·本能モデル部によるデ一夕処理の説明に供する略線図である ο
図 1 7は、 行動決定機構部における有限オートマトンの状態遷移図である。 図 1 8は、 姿勢遷移機構部における姿勢遷移図である。
図 1 9は、 充電要求処理手順の説明に供するフローチャートである。
図 2 0は、 内部温度調整処理手順の説明に供するフローチャートである。 発明を実施するための最良の形態
以下図面について、 本発明の一実施の形態を詳述する。
( 1 ) 本発明を適用したぺットロボヅトシステムの構成
1は全体として本実施の形態によるぺットロボットシステムを示し、 ぺット口 ボット 2を所定の姿勢状態のまま専用のバッテリ充電装置 (以下、 これをステー シヨンと呼ぶ) 3の所定位置に載せるようにして、 当該ペットロボット 2に内蔵 されたバッテリ (図示せず) を充電するようになされている。
実際にかかるペットロボット 2は、 図 2及び図 3に示すように、 胴体部ュニヅ ト 4の前後左右にそれぞれ脚部ュニット 5 A〜 5 Dが連結されると共に、 胴体部 ュニット 4の前端部及び後端部にそれぞれ頭部ュニット 6及び尻尾部ュニット Ί が連結されることにより構成されている。
この尻尾部ュニット 7は、 胴体部ュニット 4の上面に設けられたベース部 7 B から尻尾部 7 Tが 2自由度をもって湾曲又は揺動自在に引き出されている。 この胴体部ユニット 4の内部には冷却ファン (図示せず) が設けられ、 当該冷 却ファンを介して上面 4 A及び下面 4 Bにはそれぞれ排気口 4 A X及び吸気口 4 BXが形成されている。 これによりペットロボット 2では、 冷却ファンの駆動に 応じて、 吸気口 4 BXから吸入した空気を胴体部ュニット 4の内部を介して排気 口 4 AXから外へ排出するようにして、 当該胴体部ュニット 4の内部温度を低減 し得るようになされている。
また胴体部ュニット 4の下面 4 Bには、 複数の電極 (パッド) (図示せず) が 露出して形成された第 1のコネクタ半体 4 Cが設けられている。
一方、 ステーション 3は、 内蔵された充電器から引き出された配線が ACァダ プ夕を介して家庭用の電源に接続されており、 外観上は図 4に示すように、 本体 部 3Aの上面中央にぺットロボット 2の胴体部ュニット 4に対応した凹部空間 3 A Hが形成されると共に、 当該凹部空間 3 A Hの両側にはそれぞれ平坦面 3 AR 、 3 A Lが長手方向に沿って形成されている。
またステーション 3の凹部空間 3 AHには、 ぺットロボット 2側の第 1のコネ クタ半体 4 Cの各電極に対応させて電極端子 (図示せず) が突出形成された第 2 のコネクタ半体 3 Cが設けられている。
さらにステーション 3の本体部 3 Aの前面には複数の LED (L i ght Emi t t i ng D i o d e) ランプ 3 Lが設けられ、 ステーション 3と導通 接続された ACアダプタ (図示せず) のプラグが電源に接続されているか否か、 ペットロボット 2内部に設けられたバッテリ (図示せず) が充電されているか否 か、 又はステーション 3に着脱自在に収納された予備のバヅテリが充電されてい るか否かなどを、 それぞれ所定の発光色に点灯又は点滅させるようにしてユーザ に通知するようになされている。
実際にぺッ トロボッ ト 2をステーション 3に合体させる場合、 まずぺッ トロボ ッ ト 2を、 いわゆる 「伏せ」 の姿勢、 すなわち各脚部ュニッ ト 5 A〜5 Cを屈曲 させて胴体部ユニッ ト 4の下面 4 Bを床に近接させるような姿勢 (以下、 この姿 勢をステーション移行姿勢と呼ぶ) に変化させる。
この状態でユーザは、 ペッ トロボッ ト 2を持ち上げて、 その胴体部ュニッ ト 4 がステーション 3の凹部空間 3 A Hに嵌まり込むように載置することにより、 胴 体部ュニッ ト 4側の第 1のコネクタ半体 4 Cとステーション 3側の第 2のコネク 夕半体 3 Cとを当接して導通させる。
このときペッ トロボッ ト 2は、 ステーション移行姿勢であるため、 各脚部ュニ ッ ト 5 A〜 5 Dは胴体部ュニッ ト 4が凹部空間 3 AHに嵌まり込む際の障害にな ることなく、 当該各脚部ユニッ ト 5 A〜 5 Dの先端の足部が、 ステーション 3の 本体部 3 Aに形成された両方の平坦面 3 AR、 3 AL上に当接保持される。 (2) ぺッ トロボッ ト 2の内部構成
ここでぺヅ トロボッ ト 2は、 図 5に示すように、 胴体部ユニッ ト 4には、 この ぺッ トロボヅ ト 2全体の動作を制御を制御するコントロ一ラ 10と、 このぺヅ ト ロボッ ト 2の動力源となるバヅテリ 1 1と、 バッテリセンサ 12及び熱センサ 1 3からなる内部センサ部 14となどが収納されている。
また頭部ュニッ ト 6には、 「耳」 に相当するマイクロホン 1 5と、 「目」 に相当 する CCD (Cha r ge Coup l e d D e v i c e ) カメラ 16と、 夕 ツチセンサ 1 7と、 「口」 に相当するスピーカ 18となどがそれぞれ所定位置に 配設されている。
さらに各脚部ュニット 5 A〜5Dの関節部分や、 各脚部ュニッ ト 5 A〜5D及 び胴体部ュニッ ト 4の各連結部分、 頭部ュニッ ト 6及び胴体部ュニッ ト 4の連結 部分、 並びに尻尾部ュニッ ト 7及び胴体部ュニッ ト 4の連結部分などにはそれぞ れァクチユエ一夕 5 AAi 〜 5 AAK 、 S BAJ S BAK S CA S CAK 、 SDAi SDAK s SAi SAL 7 A 及び 7 A2 が配設されている。 そして頭部ュニッ ト 6のマイクロホン 1 5は、 ュ一ザから図示しないサゥンド コマンダ (操作内容に応じて異なる音階の音を発生するコマンダ) により音階と して与えられる 「歩け」、 「伏せ」 又は 「ボールを追いかけろ」 等の指令音を集音 し、 得られた音声信号 S 1をコントローラ 1 0に送出する。 また C CDカメラ 1 6は、 周囲の状況を撮像し、 得られた画像信号 S 2をコントローラ 1 0に送出す る。
さらに夕ツチセンサ 1 7は、 図 2において明らかなように頭部ュニッ ト 6の上 部に設けられており、 ユーザからの 「なでる」 や 「たたく」 といった物理的な働 きかけにより受けた圧力を検出し、 検出結果を圧力検出信号 S 3としてコントロ ーラ 1 0に送出する。
さらに胴体部ュニッ ト 4のバッテリセンサ 1 2は、 バヅテリ 1 1の残量を 5段 階に分けて検出し、 当該各段階の検出結果をバッテリ残量検出信号 S 4として順 次コントローラ 1 0に送出する。 この場合、 ノ ヅテリセンサ 1 2は、 バヅテリ 1 1の残量が 8 0 〔%〕 以上、 8 0〜5 0 〔%〕、 5 0〜2 5 〔%〕、 2 5〜2 0 〔%〕 及び 2 0 〔%〕 以下のとき、 それそれ 「Fu 1 1」、 「Mi dd 1 e— Fu 1 1」、 「M i d d 1 e」、 「L o w」 及び 「L ow_L ow」 として段階的に分類 して検出するようになされている。
さらに胴体部ュニヅ ト 4の熱センサ 1 3は、 ぺヅ トロボッ ト 2の内部温度を検 出し、 検出結果を熱検出信号 S 5としてコントローラ 1 0に送出する。
コントローラ 1 0は、 マイクロホン 1 5、 C CDカメラ 1 6、 夕ツチセンサ 1 7、 バッテリセンサ 1 2及び熱センサ 1 3から与えられる音声信号 S 1、 画像信 号 S 2、 圧力検出信号 S 3、 バッテリ残量検出信号 S 4及び熱検出信号 S 5など に基づいて、 周囲の状況や、 ュ一ザからの指令、 ユーザからの働きかけなどの有 無を判断する。
そしてコントローラ 1 0は、 この判断結果と予め入力される制御プログラムと に基づいて続く行動を決定し、 決定結果に基づいて必要なァクチユエ一夕 5 AA ^δΑΑκ δ ΒΑ^δΒΑκ S CA^ S CAK S DA^ S DAK 、 6 Ai 〜6 AL、 7 及び 7 A2 を駆動させることにより、 頭部ュニッ ト 6 を上下左右に振らせたり、 尻尾部ュニット 7を動かせたり、 各脚部ュニット 5 A 〜 5 Dを駆動して歩行させるなどの行動を行わせる。
またこの際コントローラ 1 0は、 必要に応じて所定の音声信号 S 6をスピーカ 1 8に与えることにより当該音声信号 S 6に基づく音声を外部に出力させてり、 このペットロボット 2の 「目」 の位置に設けられた図示しない L E Dを点灯、 消 灯又は点滅させる。
このようにしてこのぺットロボッ ト 2においては、 周囲の状況及び制御プログ ラム等に基づいて自律的に行動し得るようになされている。
( 3 ) ペットロボットの尻尾部ュニットの構成
ここで尻尾部ユニット 7は、 上述した図 2のように、 胴体部ユニット 4の上面 に設けられたベース部 7 B内のギアボックス (図示せず) に尻尾部 7 Tの一端が 接続されている。
この尻尾部 7 Tは、 図 6に示すように、 例えば超弾性合金製の 1本のワイヤ 7 Wを中央部分でほぼ U字状 (又はほぼ V字状) に折り曲げることによって、 ヘア ピン形状でなるほぼ平行な 2本のワイヤ部 7 WA、 7 WBからなる湾曲機構を形 成するようになされている。
このヘアピン形状のワイヤ部 7 WA、 7 W Bの外周には、 合成樹脂や軽金属等 によって成形された複数の筒状部材 7 P A〜 7 P Dが直列的に挿入されており、 当該各筒状部材 7 P A〜7 P D間でいわゆる球面軸受 (一種のユニバーサルジョ イント) として屈曲自在に接続することによって多関節機構を構成するようにな されている。
また最先端の筒状部材 7 P Aの先端位置には、 その軸方向に対して垂直にピン 7 Pが打ち込まれ、 ワイヤ 7 Wの折り曲げ部分 5 W Cを当接保持することによつ て筒状部材 7 P Aから抜けるのを防止し得るようになされている。
さらに最基端の筒状部材 7 P Dからは、 2本のワイヤ部 7 WA、 7 W Bの基端 7 W A S、 7 W B Sが互いに反対方向にほぼ L字型に折り曲げられた状態で突出 され、 それぞれ後述するギアボックス 2 2 (図 7 ) に接続されている。
ここで図 7は、 ベース部 7 Bにおけるべ一スカバー (図示せず) 内部の構成を 示し、 ギア一ドモ一夕からなる一対のァクチユエ一夕 7 A 、 7 A2 が断面略コ 字状に形成された軸受部材 2 0の背面板 2 O Aに固定され、 当該各ァクチユエ一 夕 7 Ai 、 7 A2 の出力軸 7 A1X、 7 A2Xがそれぞれ背面板 2 O Aに形成された 各貫通孔 2 0 A Hを介して内側に貫通するようになされている。
この軸受部材 2 0内には歯車伝動機構 2 1が設けられ、 各ァクチユエ一夕 7 A 丄 、 7 A2 の出力軸 7 A1X、 7 A2Xを当該歯車伝動機構 2 1を介してギアボック ス 2 2と係合させるようになされている。 すなわちこの歯車伝動機構 2 1では、 各ァクチユエ一夕 7 Ai、 7 A2 の出力軸 7 A 1X、 7 A2Xに固着されたはすば歯 車 2 3 A、 2 3 Bと、 軸受部材 2 0の上面板 2 0 B及び下面板 2 0 C間に支持さ れた第 1及び第 2のシャフト 2 4、 2 5を回転中心として回転自在に取り付けら れたはすば歯車 2 6 A、 2 6 Bとがそれぞれ歯合されている。
また第 1のシャフ ト 2 4の上端側には当該第 1のシャフト 2 4を回転中心とす る歯車 2 7 Aがはすば歯車 2 6 Aと一体に結合されると共に、 第 2のシャフト 2 5の下端側には当該第 2のシャフト 2 5を回転中心とする歯車 2 7 Bがはすば歯 車 2 6 Bと一体に結合されている。
さらに軸受部材 2 0の上面板 2 0 B及び下面板 2 0 C間に支持された第 3のシ ャフト 2 8の上端及び下端には、 それぞれ歯車 2 9、 3 0が当該第 3のシャフ ト 2 8を回転中心として回転自在に取り付けられており、 上端側の歯車 2 9は第 1 のシャフト 2 4の上端に取り付けられた歯車 2 7 Aと歯合され、 かつ下端側の歯 車 3 0は第 2のシャフ ト 2 5の下端に取り付けられた歯車 2 7 Bと歯合されてい る
さらに軸受部材 2 0の上面板 2 0 B及び下面板 2 0 Cには、 互いに同軸中心で なる上下一対の第 4及び第 5のシャフト 3 1、 3 2の一端がそれぞれ支持されて おり、 当該第 4及び第 5のシャフト 3 1、 3 2間を連結するように略球体形状の ギアボックス 2 2が取り付けられている。 このギアボックス 2 2の上下両端には 、 第 4及び第 5のシャフト 3 1、 3 2を回転中心としてそれぞれ回転自在に取り 付けられた歯車 3 3、 3 4が、 第 3のシャフ ト 2 8の上端及び下端に取り付けら れた歯車 2 9、 3 0と対応して歯合されている。
このギアボックス 2 2は、 図 7の P— P ' 線を断面にとった図 8に示すように 、 一対の半球殻体 2 2 A 、 2 2 A2 を組み合わせた球殻体 2 2 Aを形成してお り、 当該球殻体 2 2 A内の中空部 2 2 Hに差動歯車機構 3 5が第 4及び第 5のシ ャフト 3 1、 3 2と係合するように組み込まれて構成されている。
この差動歯車機構 3 5は、 第 4及び第 5のシャフト 3 1、 3 2と直交するよう に球殻体 2 2 A内で回転自在に支持された支軸 3 6を有し、 当該支軸 3 6を回転 中心として中空部 2 2 H内で矢印 a方向又はこれと逆方向に回転自在に嵌揷され た左右一対の大径の傘歯車 3 7、 3 8が、 第 4及び第 5のシャフト 3 1、 3 2に 取り付けられた歯車 3 3、 3 4と同軸上で一体に結合された上下一対の小径の傘 歯車 3 9、 4 0の両方と歯合されている。
この左右一対の傘歯車 3 9、 4 0間には、 合成樹脂等からなるスライ ドガイ ド 4 1がその長手方向を支軸 3 6と直交するように当該支軸 3 6を中心として回転 自在に取り付けられ、 さらに当該支軸 3 6を間に挟むように上下一対のスライダ 4 2 A、 4 2 Bがスライ ドガイ ド 4 1に対してその長手方向にスライ ド自在に掛 合されている。
この場合スライ ドガイ ド 4 1の一面には、 長手方向に沿って平行な上下一対の ガイ ドレール 4 1 A、 4 1 Bが形成される一方、 各スライダ 4 2 A、 4 2 Bの一 面には当該ガイ ドレール 4 1 A、 4 1 Bに対応してそれぞれガイ ド溝 4 2 A G , 4 2 B Gが形成されている。 また各スライダのガイ ド溝には、 その溝方向に沿つ てそれぞれワイヤ部 7 WA、 7 W Bの一端が埋設され、 尻尾部 7 T全体を保持す るようになされている。
さらに一方の大径の傘歯車 3 8の内側には、 上下一対のピン形状の突起 3 8 A 、 3 8 Bが互いに 1 8 0 〔° 〕 の位置関係を保つように一体成形されており、 当 該各突起 3 8 A、 3 8 Bに対応して上下一対のスライダ 4 2 A、 4 2 Bの他面に は第 4及び第 5のシャフト 3 1、 3 2と平行な上下一対のスライ ド溝 4 2 A H、 4 2 B Hが形成されている。
かくして図 7の Q— Q ' 線を断面にとった図 9 A及び図 9 Bに示すように、 大 径の傘歯車 3 7、 3 8が支軸 3 6を中心に互いに逆方向 (矢印 a方向及びこれと 逆方向) に回転するとき、 当該傘歯車 3 8の各突起 3 8 A、 3 8 Bがそれぞれス ライ ド溝 4 2 A H、 4 2 B Hに沿ってスライ ドしながら傘歯車 3 8の回転方向に 当接押圧することにより、 スライダ 4 2 A、 4 2 Bをスライ ドガイ ド 4 1に対し て互いに逆方向にスライ ドさせ得るようになされている。
従ってヘッド部 7 Bにおいて、 一対のァクチユエ一夕 7 、 7 A2 を各出力 軸 7 A1X、 7 A2Xが互いに逆方向に回転するように同一の回転速度で駆動制御し たとき、 歯車伝動機構 2 1を介して第 4及び第 5のシャフト 3 1、 3 2に取り付 けられた上下一対の歯車 3 3、 3 4が、 差動歯車機構 3 5を構成する上下一対の 小径の傘歯車 3 9、 4 0と一体となって互いに逆方向 (矢印 b方向及びこれと逆 方向) に回転することにより、 差動歯車機構 3 5を構成する左右一対の大径の傘 歯車 3 7、 3 8が互いに逆方向 (矢印 a方向及びこれと逆方向) に回転しながら 、 スライ ドガイ ド 4 1の長手方向に対して一対のスライダ 4 2 A、 4 2 Bの一方 を押し出すと同時に他方を引き戻す。
かくして尻尾部ュニット 7においては、 ギアボックス 2 2内の差動歯車機構 3 5によるスライダ 4 2 A、 4 2 Bのスライ ド動作に応じて尻尾部 7 T内の 2本の ワイヤ部 7 WA、 7 W Bが交互に押し出し又は引き戻されることにより、 ワイヤ 7 Wを湾曲させることができる。
従って尻尾部ユニット 7では、 一対のァクチユエ一夕 7 、 7 A2 を各出力 軸 7 A1X、 7 A2Xが同じ回転速度で互いに逆方向に回転するように駆動制御した とき、 当該駆動制御に応じて尻尾部 7 Tを上下方向に所望の振幅で湾曲させ、 又 は上下方向に所望の振幅及び速度で揺動させ得るようになされている。
また図 7に示すように、 ギアボックス 2 2における球殻体 2 2 Aの前面所定位 置には、 第 4及び第 5のシャフト 3 1、 3 2と平行な所定サイズの長穴 2 2 が 開口されており、 当該長穴 2 2 Lを介してギアボックス 2 2内のスライ ドガイ ド 4 1及び上下一対のスライダ 4 2 A、 4 2 Bから引き出された尻尾部 7 Tが突出 されている。 かくして尻尾部 7 Tは長穴 2 2 Lの上下両端縁の範囲内で上下方向 に湾曲又は揺動し得るようになされている。
さらにヘッド部 7 Bにおいて、 一対のァクチユエ一夕 7 、 7 A2 を各出力 軸 7 A1X、 7 A2Xが共に同方向に回転するように同一の回転速度で駆動制御した とき、 歯車伝動機構 2 1を介して第 4及び第 5のシャフト 3 1、 3 2に取り付け られた上下一対の歯車 3 3、 3 4が共に同方向 (矢印 b方向又はこれと逆方向) に回転する。 このとき差動歯車機構 3 5を構成する上下一対の小径の傘歯車 3 9 、 4 0は、 左右一対の大径の傘歯車 3 7、 3 8の両方と歯合しているため同方向 へは回転することができず、 この結果、 差動歯車機構 3 5すなわちギアボックス 2 2が第 4及び第 5のシャフト 3 1、 3 2を回転中心として上下一対の歯車 3 3 、 3 4と一体となって同方向に回転する。
かくして尻尾部ユニット 7では、 図 1 0に示すように、 一対のァクチユエ一夕 7 Αχ , 7 A2 を各出力軸 7 A1X、 7 A2Xが同じ回転速度で互いに同方向に回転 するように駆動制御したとき、 当該駆動制御に応じてギアボックス 2 2及びその 内部の差動場車機構 3 5を所望方向に回転させることによって、 尻尾部 7 Tを矢 印 c方向又はこれと逆方向の左右方向や矢印 d方向又はこれと逆方向の上下方向 に所望の振幅で湾曲させ、 又は左右方向に所望の振幅及び速度で揺動させ得るよ うになされている。
( 4 ) コントローラ 1 0の処理
ここでこのようなぺットロポット 1の行動生成に関するコントローラ 1 0の処 理について説明する。
図 1 1に示すように、 ぺットロボヅト 2の行動生成に関するコントロ一ラ 1 0 の処理の内容を機能的に分類すると、 特定の外部状態を認識するセンサ入力処理 部 5 0、 当該センサ入力処理部 5 0の認識結果を累積して感情及び本能の状態を 表現する感情 '本能モデル部 5 1、 当該センサ入力処理部 5 0の認識結果に基づ いて続く行動を決定する行動決定機構部 5 2、 当該行動決定機構部 5 2の決定結 果及び感情 ·本能モデル部 5 1の表現結果に基づいて実際にぺットロボット 2に 行動を発現させる姿勢遷移機構部 5 3、 並びに各ァクチユエ一夕 5 A Ai 〜7 A ! 及び 7 A2 を駆動制御する制御機構部 5 4に分けることができる。
この場合センサ入力処理部 5 0は、 マイクロホン 1 5、 C C Dカメラ 1 6及び 夕ツチセンサ 1 7から与えられる音声信号 S 1、 画像信号 S 2及び圧力検出信号 S 3に基づいて、 特定の外部状態や、 ユーザからの特定の働きかけ及びユーザか らの指示を検出及び認識した後、 当該認識結果を本物の動物が受けた聴覚状態、 視覚状態及び知覚状態に変換すると共に、 内部センサ部 1 4を構成するバッテリ センサ 1 2及び熱センサ 1 3から与えられるバッテリ残量検出信号 S 4及び熱検 出信号 S 5に基づいて、 バッテリ 1 1の残量状態ゃぺットロボット 2の内部温度 を認識し、 かくして得られた状態認識情報 D 1を感情 ·本能モデル部 5 1及び行 動決定機構部 5 2に通知する。
具体的にセンサ入力処理部 5 0は、 マイクロホン 1 5から与えられる音声信号 S 1を常時監視し、 当該音声信号 S 1のスペクトラムとして 「歩け」、 「伏せ」、 「 ボールを追いかけろ」 等の指令に応じてサウンドコマンダ (図示せず) から出力 される指令音と同じ音階のスぺクトラムを検出したときにはその指令が与えられ たと認識して、 当該認識結果を感情 ·本能モデル部 5 1及び行動決定機構部 5 2 に通知する。
またセンサ入力処理部 5 0は、 · C C Dカメラ 1 6から与えられる画像信号 2を 常時監視し、 当該画像信号 S 2に基づく画像内に例えば 「赤い丸いもの」 や 「地 面に対して垂直なかつ所定高さ以上の平面」 を検出したときには 「ボールがある 」、 「壁がある」 と認識して、 当該認識結果を感情 ·本能モデル部 5 1及び行動決 定機構部 5 2に通知する。
さらにセンサ入力処理部 5 0は、 夕ツチセンサ 1 7から与えられる圧力検出信 号 S 3を常時監視し、 当該圧力検出信号 S 3に基づいて所定の閾値以上のかつ短 時間 (例えば 2秒未満) の圧力を検出したときには 「たたかれた (しかられた) 」 と認識し、 当該圧力検出信号 S 3に基づいて所定の閾値未満のかつ長時間 (例 えば 2秒以上) の圧力を検出したときには 「なでられた (ほめられた)」 と認識 して、 これら認識結果を感情 ·本能モデル部 5 1及び行動決定機構部 5 2に通知 する。
さらにセンサ入力処理部 5 0は、 バッテリセンサ 1 2から与えられるバッテリ 残量検出信号 S 4を常時監視し、 当該バッテリ残量検出信号 S 4に基づいてバッ テリ 1 1の残量が 8 0 〔%〕 以上、 5 0〜2 5 〔%〕、 2 5〜2 0 〔%〕 及び 2 0 〔%〕 以下のうちのいずれかであるかを認識し、 当該認識結果を感情 ·本能モ デル部 5 1及び行動決定機構部 5 2に通知する。
さらにセンサ入力処理部 5 0は、 熱センサ 1 3から与えられる熱検出信号 S 5 をを常時監視し、 当該熱検出信号 S 5に基づいてぺットロボット 2の内部温度が 所定の危険温度以上であると検出したときには、 「危険である」 と認識して、 当 該認識結果を感情 ·本能モデル部 5 1及び行動決定機構部 5 2に通知する。 感情 ·本能モデル部 5 1は、 図 1 2に示すように、 複数の独立した感情モデル としての情動ュニット 6 0 A〜6 0 Dでなる基本情動群 6 0と、 複数の独立した 欲求モデルとしての欲求ュニヅト 6 1 A〜6 1 Dでなる基本欲求群 6 1とについ ての制御パラメ一夕をコントロ一ラ 1 0のメモリ 1 O A内に有している。
基本情動群 6 0のうち情動ュニット 6 O Aは 「うれしさ」 という情動を示すも のであり、 情動ユニット 6 0 Bは 「悲しさ」 という情動を示すものであり、 情動 ュニット 6 0 Cは 「怒り」 という情動を示すものである。
情動ュニヅト 6 0 A〜6 0 Dは、 情動の度合いを例えば 0〜 1 0 0レベルまで の強度によってそれぞれ表し、 供給される状態認識情報 D 1に基づいて情動の強 度をそれぞれ時々刻々と変化させる。 かくして感情 '本能モデル部 5 1は、 時々 刻々と変化する情動ュニット 6 0 A〜6 0 Dの強度を組み合わせることによりぺ ットロボット 2の感情の状態を表現し、 感情の時間変化をモデル化している。 また基本欲求群 6 1のうち欲求ュニット 6 1 Aは 「食欲」 という欲求を示すも のであり、 欲求ュニット 6 1 Bは 「好奇心」 という欲求を示すものであり、 欲求 ュニッ卜 6 1 Cは 「運動欲」 という欲求を示すものである。
欲求ュニヅト 6 1 A〜6 1 Dは、 情動ュニヅト 6 0 A ~ 6 0 Dと同様に、 欲求 の度合いを例えば 0 ~ 1 0 0レベルまでの強度によってそれぞれ表し、 供給され る状態認識情報 D 1に基づいて欲求の強度をそれぞれ時々刻々と変化させる。 か くして感情 ·本能モデル部 5 1は、 時々刻々と変化する欲求ュニット 6 1 A〜6 1 Dの強度を組み合わせることによりぺットロボット 2の本能の状態を表現し、 本能の時間変化をモデル化している。
このようにして感情 ·本能モデル部 5 1は、 状態認識情報 D 1に基づいて情動 ユニット 6 0 A〜6 0 D及び欲求ュニット 6 1 A〜6 I Dの強度をそれぞれ変化 させる。 そして感情 ·本能モデル部 5 1は、 この変化した情動ユニット 6 0 A〜 6 0 Dの強度を累積的に組合せることにより感情の状態を決定すると共に、 変化 した欲求ュニット 6 1 A〜6 1 Dの強度を累積的に組合せることにより本能の状 態を決定し、 当該決定された感情及び本能の状態を感情 ·本能状態情報 D 2とし て行動決定機構部 5 2に送出する。
ところで感情 ·本能モデル部 5 1は、 基本情動群 6 0のうち所望の情動ュニッ ト 6 0 A〜6 0 D同士を相互抑制的又は相互刺激的に結合し、 当該結合した倩動 ユニット 6 0 A〜6 0 Dのうち一方の情動ュニットの強度を変化させると、 これ に応じて他方の情動ュニッ卜の強度が変化することになり、 自然な感情を有する ぺットロボットを実現している。
すなわち図 1 3に示すように、 感情 ·本能モデル部 5 1は、 「うれしさ」 情動 ュニット 6 O Aと 「悲しさ」 情動ュニヅト 6 0 Bとを相互抑制的に結合すること により、 ユーザにほめてもらったときには 「うれしさ」 情動ュニット 6 O Aの強 度を大きくすると共に、 その際 「悲しさ」 情動ュニット 6 0 Bの強度を変化させ るような状態認識情報 D 1が供給されていなくても、 「うれしさ」 情動ュニット 6 O Aの強度が大きくなることに応じて自然に 「悲しさ」 情動ュニット 6 0 Bの 強度を低下させる。 同様に感情 ·本能モデル部 5 1は、 「悲しさ」 情動ュニット 6 0 Bの強度が大きくなると、 当該 「悲しさ」 情動ュニット 6 0 Bの強度が大き くなることに応じて自然に 「うれしさ」 情動ュニッ ト 6 O Aの強度を低下させる ο
また感情 '本能モデル部 5 1は、 「悲しさ」 情動ュニッ ト 6 0 Bと 「怒り」 情 動ュニッ ト 6 0 Cとを相互刺激的に結合することにより、 ユーザにたたかれたと きには 「怒り」 情動ュニッ ト 6 0 Cの強度を大きくすると共に、 その際 「悲しさ 」 情動ュニッ ト 6 0 Bの強度を変化させるような状態認識情報 D 1が供給されて いなくても、 「怒り」 情動ュニッ ト 6 0 Cの強度が大きくなることに応じて自然 に 「悲しさ」 情動ユニッ ト 6 0 Bの強度を増大させる。 同様に感情 ·本能モデル 部 5 1は、 「悲しさ」 情動ュニッ ト 6 0 Bの強度が大きくなると、 当該 「悲しさ 」 情動ュニッ ト 6 0 Bの強度が大きくなることに応じて自然に 「怒り」 情動ュニ ット 6 0 Cの強度を増大させる。
さらに感情 ·本能モデル部 5 1は、 情動ュニッ ト 6 0 A〜6 0 C同士を結合し た場合と同様に、 基本欲求群 6 1のうち所望の欲求ュニッ ト 6 1 A〜6 1 C同士 を相互抑制的又は相互刺激的に結合し、 当該結合した欲求ュニッ ト 6 1 A〜6 1 Cのうち一方の欲求ュニッ トの強度を変化させると、 これに応じて他方の欲求ュ ニッ 卜の強度が変化することになり、 自然な本能を有するぺッ トロボッ ト 2を実 現している。
すなわち図 1 4に示すように、 感情 ·本能モデル部 5 1は、 「食欲」 欲求ュニ ット 6 1 Aと 「運動欲」 欲求ュニッ ト 6 1 Bとを相互抑制的に結合することによ り、 ぺットロボッ ト 2内部のバッテリ 1 1の残量が少なくなつたときには 「食欲 」 欲求ュニッ ト 6 1 Aの強度を大きくすると共に、 その際 「運動欲」 欲求ュニッ ト 6 1 Bの強度を変化させるような状態認識情報 D 1が供給されていなくても、
「食欲」 欲求ュニッ ト 6 1 Aの強度が大きくなることに応じて自然に 「運動欲」 欲求ユニッ ト 6 1 Bの強度を低下させる。 同様に感情 ·本能モデル部 5 1は、 「 運動欲」 欲求ュニッ ト 6 1 Bの強度が大きくなると、 当該 「運動欲」 欲求ュニッ ト 6 1 Bの強度が大きくなることに応じて自然に 「食欲」 欲求ュニッ ト 6 1 Aの 強度を低下させる。 また感情 ·本能モデル部 5 1は、 「好奇心」 欲求ュニット 6 1 Bと 「運動欲」 欲求ュニット 6 1 Cとを相互刺激的に結合することにより、 一定時間じっとして いたときには 「運動欲」 欲求ュニット 6 1 Cの強度を大きくすると共に、 その際 「好奇心」 欲求ュニット 6 1 Bの強度を変化させるような状態認識情報 D 1が供 給されていなくても、 「運動欲」 欲求ュニット 6 1 Cの強度が大きくなることに 応じて自然に 「好奇心」 欲求ュニット 6 1 Bの強度を増大させる。 同様に感情 · 本能モデル部 5 1は、 「好奇心」 欲求ユニット 6 1 Bの強度が大きくなると、 当 該 「好奇心」 欲求ュニット 6 1 Bの強度が大きくなることに応じて自然に 「運動 欲」 欲求ュニット 6 1 Cの強度を増大させる。
図 1 1において感情 ·本能モデル部 5 1は、 後段の行動決定機構部 5 2からべ ットロボット 2自身の現在又は過去の行動、 例えば 「長時間歩いた」 などの行動 の内容を示す行動情報 D 3が供給されており、 同一の状態認識情報 D 1が与えら れても、 当該行動情報 D 3が示すぺットロボット 2の行動に応じて異なる感情 · 本能状態情報 D 2を生成するようになされている。
具体的には図 1 5に示すように、 感情 ·本能モデル部 5 1は、 各情動ュニット 6 0 A〜6 0 Cの前段に、 ぺットロボット 2の行動を示す行動情報 D 3と状態認 識情報 D 1とを基に各情動ュニット 6 0 A〜6 0 Cの強度を増減させるための強 度情報 D 4 A〜D 4 Cを生成する強度増減関数 6 5 A - 6 5 Cをそれぞれ設け、 当該強度増減関数 6 5 A〜6 5 Cから出力される強度情報 D 4 A ~ D 4 Cに応じ て各情動ュニット 6 0 A〜6 0 Cの強度をそれぞれ増減させる。
例えば感情 ·本能モデル部 5 1は、 ユーザに挨拶をしたときに頭をなでられれ ば、 すなわちユーザに挨拶をしたという行動情報 D 3と頭をなでられたという状 態認識情報 D 1とが強度増減関数 6 5 Aに与えられると、 「うれしさ」 情動ュニ ット 6 O Aの強度を増加させる一方、 何らかの仕事を実行中に頭をなでられても 、 すなわち仕事を実行中であるという行動情報 D 3と頭をなでられたという状態 認識情報 D 1とが強度増減関数 6 5 Aに与えられても、 「うれしさ」 情動ュニッ ト 6 O Aの強度を変化させない。 このように感情 ·本能モデル部 5 1は、 状態認識情報 D 1だけでなく現在又は 過去のぺットロボット 2の行動を示す行動情報 D 3も参照しながら各情動ュニッ ト 6 0 A〜6 0 Cの強度を決定することにより、 例えば何らかのタスクを実行中 にユーザがいたずらするつもりで頭をなでたとき、 「うれしさ」 情動ュニット 6 O Aの強度を増加させるような不自然な感情を起こさせることを回避することが できる。
因みに、 感情 ·本能モデル部 5 1は、 欲求ュニット 6 1 A〜6 1 Cの場合も同 様にして、 供給される状態認識情報 D 1及び行動情報 D 3に基づいて各欲求ュニ ット 6 1 A〜6 1 Cの強度をそれぞれ増減させるようになされている。
具体的には図 1 6に示すように、 感情 ·本能モデル部 5 1は、 各欲求ュニッ ト 6 1 A〜6 1 Cの前段に、 ペットロボット 2の行動を示す行動情報 D 3と状態認 識情報 D 1とを基に各欲求ュニット 6 1 A〜6 1 Cの強度を増減させるための強 度情報 D 4 D〜D 4 Fを生成する強度増減関数 6 6 A〜6 6 Cをそれぞれ設け、 当該強度増減関数 6 6 A〜6 6 Cから出力される強度情報 D 4 D〜D 4 Fに応じ て各欲求ュニット 6 1 A〜6 1 Cの強度をそれぞれ増減させる。
例えば感情 ·本能モデル部 5 1は、 好きな色のものを見ているという行動情報 D 3としばらくの間じっとしているという状態認識情報 D 1とが強度増減関数 6 6 Aに与えられると、 「好奇心」 欲求ュニット 6 1 Bの強度を増加させる一方、 歩き回ったばかりで休憩しているという行動情報 D 3と何もない環境でしばらく の間じっとしているという状態認識情報 D 1とが強度増減関数 6 5 Aに与えられ ても、 「好奇心」 欲求ュニット 6 1 Bの強度を変化させない。
このように感情 ·本能モデル部 5 1は、 状態認識情報 D 1だけでなく現在又は 過去のペットロボッ ト 2の行動を示す行動情報 D 3も参照しながら各欲求ュニッ ト 6 1 A〜6 1 Cの強度を決定することにより、 例えば歩き疲れて休憩している 間に好きな色のものを見たとき、 「好奇心」 欲求ュニット 6 1 Bの強度を増加さ せるような不自然な本能を起こさせることを回避することができる。
以上、 述べたように強度増減関数 6 5 A〜6 5 C、 6 6 A〜6 6 Cは、 状態認 識情報 D 1及び行動情報 D 3が入力されると、 予め設定されているパラメ一夕に 応じて強度情報 D 4 A〜D 4 Fを生成して出力するような関数であり、 当該パラ メ—夕をぺッ トロボッ ト 2毎に異なる値に設定することにより、 例えばおこりつ ぽぃぺットロボヅ ト 2や明るい性格のぺットロボッ ト 2のように、 当該ぺッ トロ ボッ 卜 2に個性を持たせることができる。
図 1 1において、 行動決定機構部 5 2は、 状態認識情報 D 1及び感情 ·本能状 態情報 D 2に基づいて次の行動を決定し、 当該決定された行動の内容を行動指令 情報 D 5として姿勢遷移機構部 5 3に送出する。
具体的には図 1 7に示すように、 行動決定機構部 5 2は、 過去に供給された状 態認識情報 D 1の履歴を動作状態 (以下、 これをステートと呼ぶ) で表し、 現在 供給された状態認識情報 D 1とそのときのステートとに基づいて当該ステートを 別のステートに遷移させることにより、 次の行動を決定するような有限個のステ —トを有する有限オートマトン 7 0と呼ばれるアルゴリズムを用いている。 この ように行動決定機構部 5 2は、 状態認識情報 D 1が供給される毎にステートを遷 移させ、 当該遷移したステートに応じて行動を決定することにより、 現在の状態 認識情報 D 1だけでなく過去の状態認識情報 D 1も参照して行動を決定している 従って、 例えば 「ボールを追いかけている」 というステート S T 1において、 「ボールが見えなくなった」 という状態認識情報 D 1が供給されると、 「立って いる」 というステート S T 5に遷移する一方、 「寝ている」 というステート S T 2において、 「起きろ」 という状態認識情報 D 1が供給されると、 「立っている」 というステート S T 4に遷移する。 このようにこれらステート S T 4及びステ一 ト S T 5は、 行動は同一であっても過去の状態認識情報 D 1の履歴が異なってい ることから、 ステートも異なっていることが分かる。
実際上、 行動決定機構部 5 2は、 所定のトリガ一があったことを検出すると、 現在のステートを次のステートに遷移させる。 トリガーの具体例としては、 例え ば現在のステートの行動を実行している時間が一定値に達した、 又は特定の状態 認識情報 D 1、 又は感情 ·本能モデル部 5 1から供給される感情 ·本能状態情報 D 2が示す情動ュニヅト 6 0 A ~ 6 0 C及び欲求ュニット 6 1 A〜6 1 Cの強度 のうち、 所望のュニットの強度が所定の閾値を超えたこと等が挙げられる。 その際、 行動決定機構部 5 2は、 感情 ·本能モデル部 5 1から供給された感 情 ·本能状態情報 D 2が示す情動ュニット 6 0 A〜6 0 C及び欲求ュニット 6 1 A〜6 1 Cの強度のうち、 所望のュニットの強度が所定の閾値を超えているか否 かに基づいて遷移先のステートを選択する。 これにより行動決定機構部 5 2は、 例えば同一の状態認識情報 D 1が入力されても、 情動ュニット 6 0 A〜6 0 C及 び欲求ュニヅト 6 1 A〜6 1 Cの強度に応じて異なるステートに遷移するように なされている。
従って行動決定機構部 5 2は、 供給される状態認識情報 D 1を基に例えば目の 前に手のひらが差し出されたことを検出し、 かつ感情 ·本能状態情報 D 2を基に 「怒り」 情動ユニット 6 0 Cの強度が所定の閾値以下であることを検出し、 かつ 状態認識情報 D 1に 「お腹がすいていない」 すなわち電池電圧が所定の閾値以上 であることを検出すると、 目の前に手のひらが差し出されたことに応じて 「おて 」 の動作を行わせるための行動指令情報 D 5を生成し、 これを姿勢遷移機構部 5 3に送出する。
また行動決定機構部 5 2は、 例えば目の前に手のひらが差し出され、 かつ 「怒 り」 情動ュニット 6 0 Cの強度が所定の閾値以下であり、 かつ 「お腹がすいてい る」 すなわち電池電圧が所定の閾値未満であることを検出すると、 「手のひらを べろべろなめる」 ような動作を行わせるための行動指令情報 D 5を生成し、 これ を姿勢遷移機構部 5 3に送出する。
また行動決定機構部 5 2は、 例えば目の前に手のひらが差し出され、 かつ 「怒 り」 情動ュニット 6 0 Cの強度が所定の閾値以上であることを検出すると、 「お 腹がすいていない」 すなわち電池電圧が所定の閾値以上であるか否かにかかわら ず、 「ぶいと横を向く」 ような動作を行わせるための行動指令情報 D 5を生成し 、 これを姿勢遷移機構部 5 3に送出する。 さらに行動決定機構部 5 2は、 供給される状態認識情報 D 1を基に例えばバッ テリ 1 1の残量が所定の閾値以下であることを検出し、 かつ感情 ·本能状態情報 D 2を基に 「食欲」 欲求ュニット 6 1 Aの強度が所定の閾値以上であることを検 出すると、 「充電してもらう」 動作を行わせるための行動指令情報 D 5を生成し 、 これを姿勢遷移機構部 5 3に送出する。
ところで行動決定機構部 5 2は、 感情 ·本能モデル部 5 1から供給された感 情 ·本能状態情報 D 2が示す情動ュニット 6 0 A〜6 0 C及び欲求ュニット 6 1 A〜6 1 Cめ強度のうち所望のュニヅトの強度に基づいて、 遷移先のステートで 行われる行動のパラメ一夕、 例えば歩行の速度、 手足を動かす際の動きの大きさ や速度、 音を出す際の音の高さや大きさなどを決定し、 当該行動のパラメ一夕に 応じた行動指令情報 D 3を生成して姿勢遷移機構部 5 3に送出するようになされ ている。
因みに、 センサ入力処理部 5 0から与えられる情報認識情報 D 1は感情 ·本能 モデル部 5 1及び行動決定機構部 5 2に入力されるタイミングに応じて情報の内 容が異なるため、 感情 ·本能モデル部 5 1と共に行動決定機構部 5 2にも入力さ れるようになされている。
例えばコントローラ 1 0は、 「頭をなでられた」 という情報認識情報 D 1が供 給されると、 感情 ·本能モデル部 5 1によって 「うれしい」 という感情 ·本能状 態情報 D 2を生成し、 当該感情 ·本能状態情報 D 2を行動決定機構部 5 2に供給 するが、 この状態において、 「手が目の前にある」 という情報認識情報 D 1が供 給されると、 行動決定機構部 5 2において上述の 「うれしい」 という感情 ·本能 状態情報 D 2と 「手が目の前にある」 という情報認識情報 D 1とに基づいて 「喜 んでおてをする」 という行動指令情報 D 5を生成させ、 これを姿勢遷移機構部 5 3に送出させるようになされている。
一方、 例えばコントロ一ラ 1 0は、 「バッテリ 1 1の残量がほとんどない」 と いう情報認識情報 D 1が供給されると、 感情 ·本能モデル部 5 1によって 「お腹 がすいた」 という感情 ·本能状態情報 D 2を生成し、 当該感情 ·本能状態情報 D 2を行動決定機構部 5 2に供給するが、 この状態において、 「ペットロボット 2 の内部温度が異常に高い」 という情報認識情報 D 1が供給されると、 行動決定機 構部 5 2において上述の 「お腹がすいた」 という感情 ·本能状態情報 D 2と 「体 を冷やしたい」 という情報認識情報 D 1とに基づいて 「立ち上がってアピールす る」 という行動指令情報 D 5を生成させ、 これを姿勢遷移機構部 5 3に送出させ るようになされている。
図 1 1において、 姿勢遷移機構部 5 3は、 行動決定機構部 5 2から供給される 行動指令情報 D 5に基づいて現在の姿勢から次の姿勢に遷移させるための姿勢遷 移情報 D 6を生成し、 これを制御機構部 5 4に送出する。 この場合、 現在の姿勢 から次に遷移可能な姿勢は、 例えば胴体や手や足の形状、 重さ、 各部の結合状態 のようなぺットロボット 2の物理的形状と、 例えば関節が曲がる方向や角度のよ うなァクチユエ一夕 5 〜7 Ai 及び 7 A2 の機構とによって決定される。 ところでこのような遷移可能な姿勢は、 現在の姿勢から直接遷移可能な姿勢と 直接には遷移できない姿勢とに分類される。 例えば 4本足のぺッ トロボット 2は 、 手足を大きく投げ出して寝転んでいる状態から伏せた状態へ直接遷移すること はできるが、 立った状態へ直接遷移することはできず、 一旦手足を胴体近くに引 き寄せて伏せた姿勢になり、 それから立ち上がるという 2段階の動作が必要であ る。 また安全に実行できない姿勢も存在する。 例えば 4本足のぺットロボットは 、 立っている姿勢で両前足を挙げてバンザィをしょうとすると、 簡単に転倒して しまう場合である。
従って姿勢遷移機構部 5 3は、 遷移可能な姿勢を予め登録しておき、 行動決定 機構部 5 2から供給された行動指令情報 D 5が直接遷移可能な姿勢を示す場合に は、 当該行動指令情報 D 5をそのまま姿勢遷移情報 D 6として制御機構部 5 4に 送出する一方、 直接遷移不可能な姿勢を示す場合には、 遷移可能な他の姿勢に一 旦遷移した後に目的の姿勢まで遷移させるような姿勢遷移情報 D 6を生成して制 御機構部 5 4に送出する。 これによりペットロボット 2は、 遷移不可能な姿勢を 無理に実行しょうとする事態や転倒するような事態を回避することができる。 W 具体的には姿勢遷移機構部 53は、 ぺッ トロボッ ト 2がとり得る姿勢を予め登 録すると共に、 遷移可能な 2つの姿勢の間を記録しておくようになされている。 例えば図 18に示すように、 姿勢遷移機構部 53は、 ペットロボット 2がとり 得る姿勢をノード NODE l〜NODE 5として表現し、 遷移可能な 2つの姿勢 の間すなわちノード NOD E l〜NODE 5間を有向アーク ARC 1〜ARC 1 0で結合した有向グラフ 80と呼ばれるアルゴリズムを用いている。
姿勢遷移機構部 53は、 行動決定機構部 52から行動指令情報 D 5が供給され ると、 現在の姿勢に対応したノード NODEと、 行動指令情報 D 5が示す次に取 るべき姿勢に対応するノード NODEとを結ぶように、 有向アーク ARCの向き に従いながら現在のノード NOD Eから次のノ一ド NOD Eに至る経路を探索し 、 当該探索した経路上にあるノード NODEを順番に記録することにより、 姿勢 遷移の計画を行うようになされている。 これによりペッ トロボッ ト 2は、 遷移不 可能な姿勢を無理に実行しょうとする事態や転倒するような事態を回避しながら 、 行動決定機構部 52から指示された行動を実現することができる。
姿勢遷移機構部 53は、 例えば現在の姿勢が 「ふせる」 という姿勢を示すノー ド NODE 2にある場合、 「すわれ」 という行動指令情報 D 5が供給されると、 「 ふせる」 という姿勢を示すノード NODE 2から 「すわる」 という姿勢を示すノ —ド NODE 5へは直接遷移可能であることを利用して、 「すわれ」 という姿勢 遷移情報 D 6を制御機構部 54に与える。
これに対して姿勢遷移機構部 53は、 「歩け」 という行動指令情報 D 5が供給 されると、 「ふせる」 というノード NODE 2から 「あるく」 というノード NO DE 4に至る経路を探索することにより姿勢遷移計画を行い、 その結果、 「たて 」 という指示を出した後に 「歩け」 という指示を出すような姿勢遷移情報 D 6を 生成して制御機構部 54に送出する。
図 11において制御機構部 54は、 姿勢遷移情報 D 6を基にァクチユエ一夕 5 AAi 〜7A, 及び 7A2 を駆動させるための制御信号 S 10を生成し、 これを ァクチユエ一夕 5AAi 〜7Ai及び 7A2 に送出して当該ァクチユエ一夕 5 A A, 〜7 及び 7 A2 を駆動させることにより、 ぺッ トロボッ ト 2に所望の動 作を行わせるようになされている。
(5) 充電要求処理手順 RT 1
実際にこのぺッ トロボヅ ト 2内のコントロ一ラ 10は、 動作時、 図 19に示す 充電要求処理手順 RT 1をステップ SP0から入り、 続くステップ SP 1におい て、 ぺッ トロボッ ト 2に内蔵されたバッテリ 1 1の残量をバッテリセンサ 12に よって検出させる。
続いてコントローラ 10は、 ステップ SP 2に進んでバッテリ 11の残量が 2 0 〔%〕 以下の 「Low— Low」 であるか否かを判断する。 このステップ SP 2において否定結果が得られると、 このことはバッテリ 1 1の残量が 80 〔%〕 以上の 「Ful l」、 80〜50 〔%〕 の 「Midd l e— Fu l l」、 50〜 2 5 〔%〕 の 「M i d d 1 e」 又は 25〜20 〔%〕 の 「L o w」 のいずれかであ ることを表しており、 このときコントローラ 10は、 ノ ッテリ 1 1の残量の各段 階に応じてぺッ トロボヅ ト 2の行動を制御した後、 再度ステップ SP 1に戻る。 この場合コントロ一ラ 10は、 ノ ッテリ 11の残量が 80 〔%〕 以上の 「Fu 11」 のときには歩きの歩幅や速度が比較的大きくなるように制御し、 またバッ テリ 1 1の残量が 80〜20 〔%〕 すなわち 「Midd l e— Ful lj から 「 M i d d 1 e」 を経て 「L ow」 になるに連れて、 ぺッ トロボッ ト 2の運動量を 残量が減少するに連れて低減させるように各ユニッ ト 5 A〜 5 D、 6、 7を制御 する。 これに対してステップ SP 2において否定結果を得ると、 コントローラ 10は、 ステップ SP 4に進んで、 ペッ トロボッ ト 2を上述したステーション移 行姿勢に変化させると共にユーザに充電欲をァピールした後、 ステップ S P 5に 進んで当該充電要求処理手順 RT 1を終了する。
具体的にコントロ一ラ 10は、 ぺヅ トロボット 2をステージョン移行姿勢とな るように各脚部ュニッ ト 5 A〜5Dを駆動制御すると共に、 尻尾部ュニッ ト 7を 駆動制御して尻尾部を所定の方向、 振幅及び速度で揺動させながら、 頭部ュニッ ト 6を駆動制御して 「目」 の位置に設けられた LEDを所定の発光パターンで点 減させると同時に 「耳」 の位置に内蔵されたスピーカ 1 8から所定の警告音 (例 えば 「お腹がすいたよ〜」 など) を出力させる。
( 6 ) 内部温度調整処理手順 R T 2
実際にこのペットロボット 2内のコントローラ 1 0は、 動作時、 図 2 0に示す 内部温度調整処理手順 R T 2をステップ S P 1 0から入り、 続くステップ S P 1 1において、 ぺヅトロボット 2における胴体部ュニット 4の内部温度を熱センサ 1 3によって検出させる。
続いてコントローラ 1 0は、 ステップ S P 1 2に進んでぺットロボット 2の内 部温度が所定の危険温度 (例えば 6 0 〔°C〕 すなわち一般的な 2次電池の使用耐 熱温度) に達したか否かを判断し、 否定結果が得られたときには再度ステップ S P 1 1に戻る一方、 肯定結果が得られたときにはステップ S P 1 3に進む。 このステップ S P 1 3において、 コントローラ 1 0は、 ペットロボット 2が現 在 「伏せ」 又は 「腹ばい」 の姿勢にあるか否かを判断し、 肯定結果が得られたと きにはステップ S P 1 4に進んで、 ぺットロボット 2の各脚部ュニット 5 A〜5 Dを駆動制御して 「立ち上がる」 姿勢となるように移行させた後、 再度ステップ S P 1 1に戻って上述と同様の処理を繰り返す。
これに対してステップ S P 1 3において否定結果が得られると、 このことはべ ヅトロボヅト 2について、 胴体部ュニット 4に内蔵されたバッテリ 1 1が故障し たか、 又は当該胴体部ュニット 4に何か物体が付着若しくは巻き付いたために排 出口 4 A X及び又は吸入口 4 B Xが閉塞状態にあることを表しており、 このとき コントローラは、 ステップ S P 1 5に進んで、 ペットロボット 2に 「トラブル発 生」 の旨をユーザにアピールした後、 再度ステップ S P 1 1に戻って上述と同様 の処理を繰り返す。
具体的にコン トローラ 1 0は、 ペットロボット 2を直立不動状態となるように 各脚部ュニット 5 A ~ 5 D及び尻尾部ュニット 7を駆動制御すると共に、 頭部ュ ニット 6を駆動制御して 「目」 の位置に設けられた L E Dを所定の発光パターン で点滅させると同時に 「耳」 の位置に内蔵されたスピーカ 1 8から所定の警告音 を出力させる。
( 7 ) 本実施の形態による動作及び効果
以上の構成において、 このぺットロボヅト 2では、 ユーザが 「たたく」 や 「な でる」 などの働きかけを行ったり、 ユーザが 「歩け」 や 「伏せ」 などの音声を口 頭で又はサゥンドコマンダを用いて発生したり、 行動範囲に色や形状に特徴のあ る物を配置したりすることにより、 これらの認識結果を本物の動物が抱く種々の 感情に変換する。
このときぺットロボット 2では、 「うれしさ」、 「悲しさ」 及び 「怒り」 の感情 をその強度に応じて、 各脚部ユニット 5 A〜5 D、 頭部ユニット 6及び尻尾部ュ ニット 7の各ァクチユエ一夕 5 A A i 〜7 A ! 及び 7 A2 を駆動制御することに より、 本物の動物が行う感情表現と同じ姿勢及び動作を行う。
特に尻尾部ユニット 7は、 上述したように、 ベース部 7 B内のギアボックス 2 2に接続された尻尾部 7 Tが上下及び左右方向にのみならず旋回方向にも摇動さ せることができると共に、 上下方向に所望状態で湾曲させたまま静止させること もできる。 従って、 尻尾部ユニット 7では、 様々な感情表現を、 尻尾部 7 Tの揺 動又は湾曲方向、 揺動時の振幅及びその速度、 湾曲時の静止位置、 並びに瞬間的 な動きなどに基づいて表現させることができる。
例えばペットロボット 2が 「うれしさ」 を表現する場合、 尻尾部ユニット 7で は、 尻尾部 7 Tを左右方向に 「うれしさ」 の度合いに比例した振幅及び速度で摇 動させる。 また 「悲しさ」 を表現する場合、 尻尾部ユニット 7では、 尻尾部 7 T を下方向に垂れ下がっているように湾曲した状態で静止させる。 さらに 「怒り」 を表現する場合、 尻尾部ユニット 7では、 尻尾部 7 Tを上下方向に 「怒り」 の度 合いに比例した振幅及び速度で揺動させる。
従ってこのぺットロボット 2では、 様々な感情表現を尻尾部ュニット 7の尻尾 部 7 Tの動作及び姿勢に反映させることができ、 この結果ユーザに対してより一 層の親近感や満足感を与えることができる。
さらに以上の構成において、 このペットロボットシステム 1では、 ペットロボ ット 2の動作中に、 胴体部ュニット 4に内蔵されたバッテリ 1 1の残量を段階的 に検出しながら、 当該各段階へと残量が減少するに連れてぺットロボット 2の運 動量が低減するように各ユニット 5 A〜5 D、 6、 7の動作を制御することによ り、 バッテリ 1 1の電力の消費を節約することができる。
やがてバッテリの残量が最低段階まで減少したとき、 各脚部ュニット 5 A〜5 Dを駆動制御してぺットロボット 2をステーション移行姿勢に変化させると共に 、 頭部ュニット 6及び又は尻尾部ュニット 7を駆動制御して L E Dを所定の発光 パターンで点滅させたり、 スピーカ 1 8から所定の警告音を出力させたり、 さら には尻尾部 7を所定の方向、 振幅及び速度で揺動させたりすることによって、 ぺ ットロボット 2はバッテリ 1 1の残量がほとんどない旨を直接ユーザに通知する ことができる。 この結果、 ペットロボット 2があたかも本物の動物のように食欲 を促している様子をユーザに伝えることができる一方、 突然ぺットロボット 2が 停止して死んだような状態になるのを未然に防止することができる。
またこのぺットロボットシステム 1では、 ぺッ トロボット 2の動作中に胴体部 ュニット 4の内部温度を検出しながら、 ペットロボット 2が現在 「伏せ」 又は 「 腹ばい」 の姿勢にあるときに内部温度が所定の危険温度に達した場合には、 各脚 部ュニット 5 A〜 5 Dを駆動制御してぺットロボット 2を 「立ち上がる」 姿勢に 移行させることにより、 ぺットロボット 2が自発的に胴体部ュニット 4の内部温 度を換気することができる。 この結果、 ペットロボット 2が故障するのを自らの 動作によって未然に回避することができる。
これに対してぺッ トロボットが現在 「伏せ」 又は 「腹ばい」 の姿勢にないとき に内部温度が所定の危険温度に達した場合には、 頭部ュニット 6及び又は尻尾部 ュニヅト 7を制御して L E Dを所定の発光パターンで点滅させたり、 スピーカ 1 8から所定の警告音を出力させたり、 さらには尻尾部 7を所定の方向、 振幅及び 速度で揺動させることにより、 ぺッ トロボッ卜 2が危険状態にある旨を直接ユー ザに通知することができる。 この結果、 ペットロボット 2が自己の動作では回避 し得ない場合でも故障する可能性を格段と低減することができる。 以上の構成によれば、 このペットロボット 2において、 ユーザからの働きかけ や、 指令の入力及び自己の行動に基づいて、 本物の動物が抱く感情として変換し た後、 当該感情を尻尾部ュニット 7の尻尾部 7 Tの動作及び姿勢で表現させるよ うにしたことにより、 より一層の親近感や満足感をユーザに与えることができ、 かくしてアミユーズメント性を格段と向上させ得るぺットロボット 2を実現でき る。
またこのぺットロボットシステム 1において、 ぺットロボット 2の動作中に、 胴体部ュニット 4に内蔵されたバッテリ 1 1の残量がほとんどなくなつたことを 検出した場合、 ペットロボット 2をステーション移行姿勢に変化させると共に、 頭部ュニット 6及び又は尻尾部ュニット 7を駆動制御してその旨を態度で表現さ せてュ一ザに通知するようにしたことにより、 あたかも本物の動物のように食欲 を促している様子を親近感や満足感としてユーザに与えることができ、 かくして アミユーズメント性を格段と向上し得るぺットロボットシステム 1を実現できる ο
さらにこのぺットロボヅ トシステム 1において、 ぺットロボヅト 2の動作中に 、 胴体部ユーザ 4の内部温度が所定の危険温度に達した場合、 ペットロボット 2 が現在 「伏せ」 又は 「腹ばい」 の姿勢にあるときには 「立ち上がる」 姿勢に移行 させる一方、 それ以外のときには頭部ュニット 6及び又は尻尾部ュニット 7を駆 動制御してその旨を態度で表現させてユーザに通知するようにしたことにより、 ぺヅトロボット 2の内部でバッテリ 1 1が故障するのを未然に防止することがで き、 かくして安全性を確保し得るぺットロボットシステム 1を実現できる。 ( 8 ) 他の実施の形態
なお上述の実施の形態においては、 一端が少なくとも 1軸以上の方向に回転自 在に連結された可動部として、 ぺッ トロボット 2における尻尾部ュニット 7の尻 尾部 7 Tを適用した場合について述べたが、 本発明はこれに限らず、 昆虫のよう なロボッ卜の場合には触覚を適用しても良く、 要はロボットにおいて種々の動作 (湾曲、 揺動及び又は旋回等) を行うことができれば、 その他の可動部に広く適 用することができる。
また上述の実施の形態においては、 尻尾部ュニット 7の尻尾部 7 Tを動作する 動作制御手段として、 コントローラ 1 0と当該コントローラ制御に応じて駆動す るベース部 7 B内のァクチユエ一夕 7 A 、 7 A2 と、 当該ベース部 7 B内の歯 車伝動機構 2 1、 ギアボックス 2 2及びを適用した場合について述べたが、 本発 明はこれに限らず、 この他種々の構成を広く適用することができる。
この場合、 動作制御手段は、 尻尾部 7 Tの動作を決定するための入力情報とし て、 マイクロホン 1 5、 C C Dカメラ 1 6及び夕ツチセンサ 1 7の認識結果から なる状態認識情報 D 1を適用した場合について述べたが、 本発明はこれに限らず 、 入力情報としてはこの他、 ユーザからの働きかけの情報や、 ペットロボット 2 の周囲の環境の情報を適用しても良い。
さらに上述の実施の形態においては、 感情本能モデルを変化させることにより 尻尾部ュニット 7の尻尾部 7 Tの動作を決定する感情本能モデル変化手段として 、 胴体部ュニット 4内に設けられたコントロ一ラ 1 0及びメモリ 1 O Aを適用し た場合について述べたが、 本発明はこれに限らず、 この他種々の構成を広く適用 することができる。
さらに上述の実施の形態においては、 尻尾部ュニット 5の尻尾部 5 Tの動作及 び姿勢による感情表現として、 「うれしさ」、 「悲しさ」 及び 「怒り」 の 3種類の みを適用した場合について述べたが、 本発明はこれに限らず、 「驚き」、 「恐怖」 及び「嫌悪」 などの種々の感情表現に適用しても良い。
この場合、 図 1 2において上述した基本情動群 6 0を構成する情動ュニット 6 0 A〜6 0 Cに、 「驚き」、 「恐怖」 及び 「嫌悪」 などの情動を示す情動ュニヅト を追加すれば良い。 このようにすると、 例えばペットロボット 2が 「驚き」 を表 現する場合、 尻尾部ユニット 7では、 尻尾部 7 Tを一瞬だけ左右又は上下方向に 「驚き」 の度合いに比例した振幅で揺動させれば良い。 また 「恐怖」 を表現する 場合、 尻尾部ユニット 7では、 尻尾部 7 Tを水平方向に真っ直ぐな状態で静止さ せれば良い。 さらに 「嫌悪」 を表現する場合、 尻尾部ュニット 7では、 尻尾部 7 Tを 「嫌悪」 の度合いに比例したに振幅及び速度で旋回させれば良い。
さらに感情表現のみならず、 本能表現にも適用しても良い。 この場合、 例えば 「空腹」 又は 「睡眠欲」 を表現する場合、 尻尾部 7 Tを上述した 「悲しさ」 と同 じ姿勢にさせれば良い。 これとは逆に 「満腹」 又は 「運動欲」 を表現する場合、 尻尾部 7 Tを上述した 「うれしさ」 と同じようにその度合いに比例して動作させ れば良い。
また尻尾部 7 Tよる感情表現として、 頭部ュニット 6内のスピーカ 1 8の発声 音や 「目」 に相当する L E D (図示せず) の発光パターンに同期させて所定の動 作パターンで揺動させるようにすれば、 ペットロボット 2の表現力を格段と増大 させることができる。
さらに上述の実施の形態においては、 尻尾部ュニット 7の尻尾部 7 Tの動作及 び姿勢で表現させる内容として、 マイクロホン 1 5、 C C Dカメラ 1 6及びタツ チセンサ 1 7を用いて決定した本物の動物が抱く種々の感情表現を適用した場合 について述べたが、 本発明はこれに限らず、 ペットロボット 2を構成する各種ハ 一ドウエアの状態表現に適用しても良い。
この場合、 尻尾部ユニット 7では、 ペットロボット 2を構成する種々のハード ウェアの状態を、 尻尾部 7 Tの揺動又は湾曲方向、 揺動時の振幅及びその速度、 湾曲時の静止位置、 並びに瞬間的な動きなどに基づいて表現させるようにすれば 良く、 この結果動物的な反応をユーザに提示することによつて親近感や満足感を ユーザに与えることができる。
例えばぺットロボット 2において、 尻尾部ュニット 7を除いた各ュニット 4、 5 A〜5 D、 6内でマイクロホン 1 5や C C Dカメラ 1 6の入力がない場合や部 品が外れた場合などのように各回路間での接続不良を検出したとき、 又は各ュニ ヅ ト 4、 5 A〜5 D、 6内でサ一ボ系ゃ種々のセンサに異常が発生したことを検 出したとき、 又は胴体部ュニット 4内の内部センサ部 1 4が内部で過熱状態であ ると検出したとき、 又は胴体部ュニヅト 4内の内部センサ部 1 4がバッテリ 1 1 の残量が少ないことを検出したとき、 さらにはぺットロボット 2の足場が不安定 で転倒するおそれがあることを事前に検出したとき、 メモリ 1 O Aに格納された プログラムが中止したときには、 尻尾部 7 Tを例えば、 振幅を大きく周期も速く というように通常の動作時には行わないような動きを行わせれば良い。
さらにぺットロボット 2に図示しない外部気温測定部を設けておき、 その測定 結果に応じて尻尾部 7 Tを所望の姿勢及び動作を行わせるようにしても良い。 さ らに胴体部ュニット 4内のコントローラ 1 0がメモリ 1 O Aに対してプログラム の書込み時又は読出し時に、 尻尾部 7 Tを所望の姿勢及び動作を行わせるように しても良い。 さらには胴体部ユニッ ト 4内に図示しない通信手段を設け、 当該通 信手段を介してデータの送受信を行っている間のみ尻尾部 7 Tを所望の姿勢及び デ一夕の伝送量や通信状態等に応じて振るなどの動作を行わせるようにしても良 い。
さらに上述の実施の形態においては、 図 2のように構成された 4足歩行型の口 ボットに適用するようにした場合について述べたが、 本発明はこれに限らず、 バ ヅテリ 1 1等の動力源が内蔵されているロボットなど、 この他種々の構成のロボ ットに広く適用することができる。 また尻尾部ュニット 7の尻尾部 7 T以外にも 、 頭部ユニット 6内に少なくとも 1本以上の触角 (図示せず) を設け、 尻尾部 7 Tと同様に動作させるようにしても良い。
さらに上述の実施の形態においては、 有限オートマトン 7 0と呼ばれるァルゴ リズムを用いて次の行動を決定するようにした場合について述べたが、 本発明は これに限らず、 ステー卜の数が有限でないステ一トマシンと呼ばれるァルゴリズ ムを用いて行動を決定するようにしても良く、 この場合、 状態認識情報 D 1が供 給されるごとに新たにステートを生成し、 当該生成したステートに応じて行動を 決定すれば良い。 さらに現在供給された状態認識情報 D 1とそのときのステート とに基づいて複数のステートを遷移先の候補として選定し、 当該選定された複数 のステートのうち遷移先のステ一トを乱数によってランダムに決定するような確 率有限ォートマトンと呼ばれるァルゴリズムを用いて行動を決定するようにして も良い。 さらに上述の実施の形態においては、 バッテリ 1 1の残量を検出するバッテリ 残量検出手段として、 胴体部ュニット 4の内部センサ部 1 4を構成するバッテリ センサ 2 0を適用した場合について述べたが、 本発明はこれに限らず、 この他種 々の構成のものを適用しても良い。
さらに上述の実施の形態においては、 バッテリ 1 1の残量が所定レベル以下に なったとき、 ぺットロボット 2を所定の姿勢に遷移し及び又は所定の動作を発現 させる動作制御手段として、 コントロ一ラ 1 0を適用した場合について述べたが 、 本発明はこれに限らず、 メモリ 1 O Aから読み出した感情 ·本能モデル部 5 1 に基づいて、 頭部ュニット 6及び又は尻尾部ュニット 7を駆動制御してその旨を 態度で表現させてュ一ザに通知することができれば、 この他種々の構成のものを 広く適用しても良い。
さらに上述の実施の形態においては、 バッテリ 1 1の残量が所定レベル以下に なったとき、 ペットロボット 2をステーション移行姿勢に遷移させるようにした 場合について述べたが、 本発明はこれに限らず、 充電に適した姿勢であればこの 他種々の姿勢でも良い。
さらに上述の実施の形態においては、 バッテリ 1 1の残量を 5段階レベルで検 出し、 当該各段階に応じてぺットロボット 2の動作を低減させるようにした場合 について述べたが、 本発明はこれに限らず、 ぺットロボット 2を所定の姿勢に遷 移し及び又は所定の動作を発現させるためのバッテリ 1 1の残量を自由に設定し ても良い。
また上述の実施の形態においては、 胴体部ュニット 4の内部温度を検出する温 度検出手段として、 胴体部ュニット 4の内部センサ部 1 4を構成する熱センサ 1 3を適用した場合について述べたが、 本発明はこれに限らず、 この他種々の構成 のものを適用しても良い。
さらに上述の実施の形態においては、 胴体部ュニット 4の内部温度が所定の温 度以上になったとき、 ぺットロボッ ト 2を所定の姿勢に遷移し及び又は所定の動 作を発現させる動き制御手段として、 コントローラ 1 0を適用した場合について 述べたが、 本発明はこれに限らず、 メモリ 1 O Aから読み出した感情 ·本能モデ ル部 5 1に基づいて、 各脚部ュニット 5 A~ 5 Dを駆動制御してその旨を態度で 表現させてユーザに通知することができれば、 この他種々の構成のものを広く適 用しても良い。
さらに上述の実施の形態においては、 胴体部ュニット 4の内部温度が所定の温 度以上になったとき、 ぺットロボッ ト 2を胴体部ュニット 4が上昇する動作 (す なわち 「立ち上がる」 姿勢) に遷移させるようにした場合について述べたが、 本 発明はこれに限らず、 胴体部ュニッ ト 4に形成された排気口 4 A X及吸入口 4 B Xからなる換気口が開放されるような動作であれば、 種々の動作に遷移しても良 い。
さらに上述の実施の形態においては、 バッテリ 1 1の残量の検出結果及び内部 温度の検出結果に基づいて、 ぺットロボット 2を所定の姿勢に遷移し又は所定の 動作を発現するようにした場合について述べたが、 本発明はこれに限らず、 この 他種々のぺットロボット 2の内部状態又は外部の環境に応じてぺットロボット 2 の行動を制御するようにしても良い。
例えば、 各ァクチユエ一夕 5 A A i 〜7 A2 のギア比又は回転速度を最も効率 の良い状態となるように選択してぺットロボット 2を動作させるようにしても良 い。 またバッテリ 1 1の残量がなくなるにつれて、 行動決定機構部 5 2における 有限ォ一トマトンにおける状態の遷移過程のうち最もエネルギー効率の良い過程 に遷移させるようにしても良い。 さらに外部の温度を常時測定しながら、 外の温 度が上昇した場合に比較的涼しい方向に向かってぺットロボット 2を歩行動作さ せるようにしても良い。 産業上の利用可能性
ロボヅト装置及びその制御方法において、 ペットロボッ卜やアミューズメント ロボットなどに適用することができる。

Claims

請 求 の 範 囲
1 . 一端が少なくとも 1軸以上の方向に回転自在に連結された可動部を有する口 ボット装置において、
供給される入力情報に応じて上記可動部を動作する動作制御手段と、 上記動作に起因する感情本能モデルを有し、 上記入力情報に基づいて上記感情 本能モデルを変化させることにより上記可動部の上記動作を決定する感情本能モ デル変化手段と
を具えることを特徴とするロボット装置。
2 . 上記動作制御手段は、
上記一端を基準として湾曲、 揺動及び又は旋回するように上記可動部を動作す る
ことを特徴とする請求の範囲第 1項に記載のロボット装置。
3 . 上記入力情報は、
ユーザからの働きかけの情報、 及び又は上記ロボット装置の周囲の環境の情報 でなる
ことを特徴とする請求の範囲第 1項に記載のロボット装置。
4 . 一端が少なくとも 1軸以上の方向に回転自在に連結された可動部を有する口 ボット装置において、
上記ロボット装置の内部状態を検出する検出手段と、
上記検出手段の検出結果に応じて上記可動部を動作する動作制御手段と を具えることを特徴とするロボット装置。
5 . 上記動作制御手段は、 上記一端を基準として湾曲、 揺動及び又は旋回するように上記可動部を動作す る
ことを特徴とする請求の範囲第 4項に記載のロボット装置。
6 . 上記検出手段は、
上記ロボット装置の内部状態として、 上記ロボット装置内の各回路間の接続状 態、 上記ロボット装置内の駆動系及び又はセンサ系の稼働状態、 上記ロボット装 置内のバッテリの残量状態、 上記ロボット装置の歩行状態、 並びに上記ロボット 装置内の記憶手段に格納さえたプログラムの起動状態のうち 1以上の状態を検出 する
ことを特徴とする請求の範囲第 4項に記載のロボット装置。
7 . 上記ロボット装置の周囲の気温を測定する気温測定手段を具え、
上記動作制御手段は、 上記気温測定手段の測定結果に応じて上記可動部を動作 する
ことを特徴とする請求の範囲第 4項に記載のロボット装置。
8 . 外部と通信する通信手段を具え、
上記動作制御手段は、 上記通信手段のデータ伝送量及び又は通信状態に応じて 上記可動部を動作する
ことを特徴とする請求の範囲第 4項に記載のロボット装置。
9 . 内蔵されたバッテリを動力源とするロボヅト装置において、
上記バッテリの残量を検出するバッテリ残量検出手段と、
上記バッテリ残量検出手段によつて検出された上記バッテリの残量が所定レベ ル以下になったとき、 上記ロボット装置を所定の姿勢に遷移し及び又は所定の動 作を発現させる動き制御手段と を具えることを特徴とするロボッ ト装置。
1 0 . 上記所定の姿勢は、 充電に適した姿勢でなる
ことを特徴とする請求の範囲第 9項に記載のロボット装置。
1 1 . 上記バッテリ残量検出手段は、
上記バッテリの残量を段階的なレベルで検出し、
上記動き制御手段は、
上記バッテリ残量検出手段によつて検出された各上記段階ごとに上記ロボット 装置の上記所定の動作を低減させる
ことを特徴とする請求の範囲第 9項に記載のロボット装置。
1 2 . 動力源が内蔵された胴体部を有し、 当該胴体部の所定位置に換気口が形成 されたロボット装置において、
上記胴体部の内部温度を検出する温度検出手段と、
上記温度検出手段によって検出された上記内部温度が所定の温度以上になった とき、 上記ロボット装置を所定の姿勢に遷移し及び又は所定の動作を発現させる 動き制御手段と
を具えることを特徴とするロボッ ト装置。
1 3 . 上記所定の動作は、 上記胴体部を上昇させる動作でなる
ことを特徴とする請求の範囲第 1 2項に記載のロボット装置。
1 4 . 内蔵されたバッテリを動力源とするロボット装置の制御方法において、 上記バッテリの残量を検出する第 1のステップと、
上記検出された上記バッテリの残量が所定レベル以下になったとき、 上記ロボ ット装置を所定の姿勢に遷移し及び又は所定の動作を発現させる第 2のステツプ と
を具えることを特徴とするロボット装置の制御方法。
1 5 . 上記第 2のステップでは、
上記所定の姿勢は、 充電に適した姿勢でなる
ことを特徴とする請求の範囲第 1 4項に記載のロボット装置の制御方法。
1 6 . 上記第 1のステップでは、
上記バッテリの残量を段階的なレベルで検出し、
上記第 2のステップでは、
上記検出された各上記段階ごとに上記ロボット装置の上記所定の動作を低減さ せる
ことを特徴とする請求の範囲第 1 4項に記載のロボット装置の制御方法。
1 7 . 動力源が内蔵された胴体部を有し、 当該胴体部の所定位置に換気口が形成 されたロボット装置において、
上記胴体部の内部温度を検出する第 1のステップと、
上記温度検出手段によって検出された上記内部温度が所定の温度以上になった とき、 上記ロボット装置を所定の姿勢に遷移し及び又は所定の動作を発現させる 第 2のステップと
を具えることを特徴とするロボット装置の制御方法。
1 8 . 上記第 2のステツプでは、
上記所定の動作は、 上記胴体部を上昇させる動作でなる
ことを特徴とする請求の範囲第 1 7項に記載のロボット装置の制御方法。
PCT/JP2000/002988 1999-05-10 2000-05-10 Dispositif jouet et sa technique de commande WO2000067960A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US09/743,293 US6415203B1 (en) 1999-05-10 2000-05-10 Toboy device and method for controlling the same
JP2000616969A JP4512963B2 (ja) 1999-05-10 2000-05-10 ロボット装置及びその制御方法
KR1020017000437A KR20010053488A (ko) 1999-05-10 2000-05-10 로봇 장치 및 그 제어방법
EP00925595A EP1112821A4 (en) 1999-05-10 2000-05-10 TOY AND METHOD FOR CONTROLLING THEREOF

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP11/165756 1999-05-10
JP12927599 1999-05-10
JP16575699 1999-05-10
JP11/129275 1999-05-10

Publications (1)

Publication Number Publication Date
WO2000067960A1 true WO2000067960A1 (fr) 2000-11-16

Family

ID=26464720

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/002988 WO2000067960A1 (fr) 1999-05-10 2000-05-10 Dispositif jouet et sa technique de commande

Country Status (6)

Country Link
US (1) US6415203B1 (ja)
EP (1) EP1112821A4 (ja)
JP (1) JP4512963B2 (ja)
KR (1) KR20010053488A (ja)
CN (1) CN1205002C (ja)
WO (1) WO2000067960A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002154083A (ja) * 2000-11-17 2002-05-28 Honda Motor Co Ltd 人間型ロボットの電装品ボックス冷却構造
US7162331B2 (en) 2002-07-24 2007-01-09 Fujitsu Limited Power supply control device and method for mobile robot
JP2008307668A (ja) * 2007-06-18 2008-12-25 Honda Motor Co Ltd 移動ロボットの駆動装置
US8072426B2 (en) 2004-08-11 2011-12-06 Pixart Imaging Inc. Interactive device capable of improving image processing
JP2012245612A (ja) * 2011-05-30 2012-12-13 Samsung Electronics Co Ltd ロボット及びその制御方法
US9024880B2 (en) 2004-08-11 2015-05-05 Pixart Imaging Inc. Interactive system capable of improving image processing
WO2016002673A1 (ja) * 2014-07-01 2016-01-07 シャープ株式会社 姿勢制御装置、ロボット、およびプログラム
JP2017196691A (ja) * 2016-04-27 2017-11-02 パナソニックIpマネジメント株式会社 ロボット
JPWO2019175936A1 (ja) * 2018-03-12 2020-12-03 株式会社ソニー・インタラクティブエンタテインメント ロボット

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
TWI236610B (en) * 2000-12-06 2005-07-21 Sony Corp Robotic creature device
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
JP2002222033A (ja) * 2001-01-29 2002-08-09 Nec Corp 省電力システム、タスク省電力処理方法、及びそのプログラム
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US7663333B2 (en) 2001-06-12 2010-02-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US6507773B2 (en) * 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
KR100624403B1 (ko) * 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
KR20030068886A (ko) * 2002-02-18 2003-08-25 (주)로보옵틱스 이동로봇의 충전제어장치 및 방법
DE10231391A1 (de) * 2002-07-08 2004-02-12 Alfred Kärcher Gmbh & Co. Kg Bodenbearbeitungssystem
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US7805220B2 (en) 2003-03-14 2010-09-28 Sharper Image Acquisition Llc Robot vacuum with internal mapping system
US20050234592A1 (en) * 2004-01-15 2005-10-20 Mega Robot, Inc. System and method for reconfiguring an autonomous robot
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
US20060020369A1 (en) * 2004-03-11 2006-01-26 Taylor Charles E Robot vacuum cleaner
DE112005000738T5 (de) 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
KR101142564B1 (ko) 2004-06-24 2012-05-24 아이로보트 코퍼레이션 자동 로봇 장치용의 원격 제어 스케줄러 및 방법
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
KR101240732B1 (ko) 2005-02-18 2013-03-07 아이로보트 코퍼레이션 습식 및 건식 청소를 위한 자동 표면 청소 로봇
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
WO2007041295A2 (en) 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
ATE534941T1 (de) 2005-12-02 2011-12-15 Irobot Corp Abdeckungsrobotermobilität
ES2334064T3 (es) 2005-12-02 2010-03-04 Irobot Corporation Robot modular.
ES2522926T3 (es) 2005-12-02 2014-11-19 Irobot Corporation Robot Autónomo de Cubrimiento
EP2544065B1 (en) 2005-12-02 2017-02-08 iRobot Corporation Robot system
EP2394553B1 (en) 2006-05-19 2016-04-20 iRobot Corporation Removing debris from cleaning robots
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
EP2123336A4 (en) * 2007-01-23 2010-07-28 Robo Catcher Partners Co Ltd PREMIUM SLOW-MAKING AUTOMAT AND HUMANOIDER TWO-DIFFERENT SCRIPTURES
KR101301834B1 (ko) 2007-05-09 2013-08-29 아이로보트 코퍼레이션 소형 자율 커버리지 로봇
CN101406756A (zh) * 2007-10-12 2009-04-15 鹏智科技(深圳)有限公司 表达情感的电子玩具及其情感表达方法、发光单元控制装置
JP4536134B2 (ja) * 2008-06-02 2010-09-01 株式会社コナミデジタルエンタテインメント ネットワークを利用したゲームシステム、ゲームプログラム、ゲーム装置、およびネットワークを利用したゲーム制御方法
US10163175B2 (en) 2009-02-25 2018-12-25 Humana Inc. System and method for improving healthcare through social robotics
EP3192419B1 (en) 2010-02-16 2021-04-07 iRobot Corporation Vacuum brush
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US20120256752A1 (en) * 2011-04-06 2012-10-11 James William Musser System and method to extend operating life of rechargable batteries using battery charge management
CN104440925B (zh) * 2014-11-27 2016-05-04 国家康复辅具研究中心 一种宠物型陪护机器人及系统
CN108885436B (zh) 2016-01-15 2021-12-14 美国iRobot公司 自主监视机器人系统
CN107225577A (zh) * 2016-03-25 2017-10-03 深圳光启合众科技有限公司 应用在智能机器人上的触觉感知方法以及触觉感知装置
JP6343800B2 (ja) * 2016-06-14 2018-06-20 Groove X株式会社 涼しさを求める自律行動型ロボット
WO2017218234A1 (en) * 2016-06-15 2017-12-21 Irobot Corporation Systems and methods to control an autonomous mobile robot
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
CN111093913A (zh) * 2017-09-11 2020-05-01 Groove X 株式会社 注视对方的行为自主型机器人
CN110653813A (zh) * 2018-06-29 2020-01-07 深圳市优必选科技有限公司 一种机器人控制方法、机器人及计算机存储介质
CN108901911A (zh) * 2018-07-24 2018-11-30 深圳市必发达科技有限公司 宠物远程抚慰方法
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
JP2024048495A (ja) * 2022-09-28 2024-04-09 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6224988A (ja) * 1985-07-23 1987-02-02 志井田 孝 感情をもつロボツト
JPH06117393A (ja) * 1992-10-06 1994-04-26 Mitsubishi Electric Corp ロボットの制御装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59201115A (ja) * 1983-04-28 1984-11-14 Sanyo Electric Co Ltd 自走式作業ロボツトの充電装置
US4679152A (en) * 1985-02-20 1987-07-07 Heath Company Navigation system and method for a mobile robot
US4698775A (en) * 1985-05-17 1987-10-06 Flexible Manufacturing Systems, Inc. Self-contained mobile reprogrammable automation device
JP2906773B2 (ja) * 1991-09-26 1999-06-21 株式会社安川電機 産業用ロボットの制御装置
JPH05111891A (ja) * 1991-10-21 1993-05-07 Mitsubishi Electric Corp ロボツト制御装置
JP3293952B2 (ja) * 1992-05-26 2002-06-17 本田技研工業株式会社 衝撃吸収手段を備えた脚式歩行ロボット
JPH07325620A (ja) * 1994-06-02 1995-12-12 Hitachi Ltd 知能ロボット装置及び知能ロボットシステム
JP3413694B2 (ja) * 1995-10-17 2003-06-03 ソニー株式会社 ロボット制御方法およびロボット
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JP3655056B2 (ja) * 1997-08-04 2005-06-02 本田技研工業株式会社 脚式移動ロボットの制御装置
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
DE60130822T2 (de) * 2000-01-11 2008-07-10 Yamaha Corp., Hamamatsu Vorrichtung und Verfahren zur Erfassung der Bewegung eines Spielers um interaktives Musikspiel zu steuern

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6224988A (ja) * 1985-07-23 1987-02-02 志井田 孝 感情をもつロボツト
JPH06117393A (ja) * 1992-10-06 1994-04-26 Mitsubishi Electric Corp ロボットの制御装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MASAHIRO FUJITA ET AL.: "Reconfigurable physical agents", PROCEEDINGS OF THE SECOND INTERNATIONAL CONFERENCE ON AUTONOMOUS AGENTS, 9 May 1998 (1998-05-09), pages 54 - 61, XP002933751 *
MASAHIRO FUJITA: "Robot entertainment: Kogata 4 kyaku jiritsu robot", TRANSACTIONS OF NIPPON ROBOT, vol. 16, no. 3, 15 April 1998 (1998-04-15), pages 31 - 32, XP002933752 *
See also references of EP1112821A4 *
TETSUYA OGATA ET AL.: "Robot no shintaisei ni motozuku kanjo model to naibu hyosho kakutoku model", PROCEEDINGS DISTRIBUTED AT LECTURE MEETING OF NIPPON ROBOTICS, MECHATRONICS, vol. 1998, no. PT1, 26 June 1998 (1998-06-26), pages 2CII4.3(1) - 2CII4.3(2), XP002933753 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002154083A (ja) * 2000-11-17 2002-05-28 Honda Motor Co Ltd 人間型ロボットの電装品ボックス冷却構造
US7162331B2 (en) 2002-07-24 2007-01-09 Fujitsu Limited Power supply control device and method for mobile robot
US9024880B2 (en) 2004-08-11 2015-05-05 Pixart Imaging Inc. Interactive system capable of improving image processing
US8072426B2 (en) 2004-08-11 2011-12-06 Pixart Imaging Inc. Interactive device capable of improving image processing
US8760390B2 (en) 2004-08-11 2014-06-24 Pixart Imaging Inc. Interactive device capable of improving image processing
JP2008307668A (ja) * 2007-06-18 2008-12-25 Honda Motor Co Ltd 移動ロボットの駆動装置
JP2012245612A (ja) * 2011-05-30 2012-12-13 Samsung Electronics Co Ltd ロボット及びその制御方法
WO2016002673A1 (ja) * 2014-07-01 2016-01-07 シャープ株式会社 姿勢制御装置、ロボット、およびプログラム
JPWO2016002673A1 (ja) * 2014-07-01 2017-04-27 シャープ株式会社 姿勢制御装置、ロボット、プログラム、および姿勢制御方法
US10350763B2 (en) 2014-07-01 2019-07-16 Sharp Kabushiki Kaisha Posture control device, robot, and posture control method
JP2017196691A (ja) * 2016-04-27 2017-11-02 パナソニックIpマネジメント株式会社 ロボット
WO2017187965A1 (ja) * 2016-04-27 2017-11-02 パナソニックIpマネジメント株式会社 ロボット
JPWO2019175936A1 (ja) * 2018-03-12 2020-12-03 株式会社ソニー・インタラクティブエンタテインメント ロボット

Also Published As

Publication number Publication date
KR20010053488A (ko) 2001-06-25
JP4512963B2 (ja) 2010-07-28
CN1205002C (zh) 2005-06-08
CN1304346A (zh) 2001-07-18
EP1112821A1 (en) 2001-07-04
US6415203B1 (en) 2002-07-02
EP1112821A4 (en) 2005-10-12

Similar Documents

Publication Publication Date Title
WO2000067960A1 (fr) Dispositif jouet et sa technique de commande
US20050216121A1 (en) Robot apparatus and emotion representing method therefor
WO2017191765A1 (ja) ロボット
WO2002030628A1 (fr) Appareil robotise et procede permettant de le commander
US8057275B2 (en) Toy with pivoting portions capable of rolling over and methods thereof
JP2001025984A (ja) ロボット装置及びその制御方法並びに記録媒体
JP4617428B2 (ja) 動作生成システム
JP2003071773A (ja) ロボット装置
CN110254554B (zh) 一种老年人关怀机器人
KR20010101235A (ko) 로봇 장치 충전 시스템, 로봇 장치, 충전 장치, 로봇장치의 충전 방법 및 기록 매체
JP4757979B2 (ja) 電子玩具
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
CN207950641U (zh) 可编程全自动变形机器人
JP2003191187A (ja) ロボット装置及びその制御方法
CN209221483U (zh) 一种主动攻击式的娱乐机器人
JP4649806B2 (ja) ロボット装置及びロボット装置の衝撃吸収方法
JP2001157983A (ja) ロボット装置及びロボット装置の性格判別方法
JP2002178282A (ja) ロボット装置及びその制御方法
JP2000218065A (ja) 情報処理装置及び情報処理方法
JP2002370185A (ja) ロボット装置、玩具装置、並びに、ロボット装置の行動制御システム及び行動制御方法、並びに、制御プログラム及び記録媒体
CN108043042B (zh) 一种节奏运动球体装置
JP4411503B2 (ja) ロボット装置及びその制御方法
JP2003136439A (ja) ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム
JP4524524B2 (ja) ロボット装置及びその制御方法
JP2003266350A (ja) ロボット装置及び内部状態表出装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00800823.X

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

WWE Wipo information: entry into national phase

Ref document number: 2000925595

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020017000437

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 09743293

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020017000437

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2000925595

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2000925595

Country of ref document: EP

WWR Wipo information: refused in national office

Ref document number: 1020017000437

Country of ref document: KR