WO2000067959A1 - Dispositif robotique et procede de commande associe - Google Patents

Dispositif robotique et procede de commande associe Download PDF

Info

Publication number
WO2000067959A1
WO2000067959A1 PCT/JP2000/002987 JP0002987W WO0067959A1 WO 2000067959 A1 WO2000067959 A1 WO 2000067959A1 JP 0002987 W JP0002987 W JP 0002987W WO 0067959 A1 WO0067959 A1 WO 0067959A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
emotion
action
parameter value
robot device
Prior art date
Application number
PCT/JP2000/002987
Other languages
English (en)
French (fr)
Inventor
Hiroshi Osawa
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Publication of WO2000067959A1 publication Critical patent/WO2000067959A1/ja
Priority to US10/024,952 priority Critical patent/US6512965B2/en
Priority to US10/320,982 priority patent/US6760646B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Definitions

  • the present invention relates to a robot device and a control method thereof, and is suitable for application to, for example, a pet robot.
  • the pet applicant of the present invention has proposed and developed a four-legged walking type pet mouth bot that operates in response to a command from a user or surrounding conditions.
  • This pet robot has a shape resembling a dog or cat bred in a general household, takes a prone position when receiving a command from a user to “prone,” and takes a user in front of himself. It is designed to give a hand when the hand is presented.
  • the present invention has been made in view of the above points, and an object of the present invention is to propose a robot apparatus and a control method thereof that can significantly improve entertainment.
  • an external information capturing means for capturing information from the outside, a detecting means for detecting a specific target based on the information, and a target detected by the detecting means
  • a judgment means for judging whether or not the target satisfies a predetermined condition and an operation generation means for generating a predetermined operation based on the judgment result of the judgment means are provided.
  • FIG. 1 is a perspective view showing an external configuration of an entertainment robot according to the present embodiment.
  • FIG. 2 is a block diagram showing a circuit configuration of an entertainment robot according to the present embodiment.
  • FIG. 3 is a block diagram for explaining the processing of the controller regarding the action generation.
  • FIG. 4 is a schematic diagram illustrating a stochastic automaton.
  • FIG. 5 is a conceptual diagram showing a state transition table.
  • FIG. 6 is a schematic diagram illustrating an emotion table.
  • FIG. 7 is a flowchart showing the emotion table creation / update processing procedure.
  • FIG. 8 is a flowchart showing the action control processing procedure.
  • FIG. 9 is a flowchart illustrating the action determination processing procedure.
  • FIG. 10 is a conceptual diagram for explaining the state transition.
  • FIG. 11 is a block diagram illustrating a configuration of a face pattern learning and recognition processing unit.
  • reference numeral 1 denotes a pet robot according to the present embodiment as a whole.
  • the leg units 3A to 3D are connected to the front, rear, left and right of the body unit 2, respectively, and the head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively. It is constituted by being done.
  • the body unit 2 includes a controller 10 for controlling the operation of the pet robot 1 as a whole, a battery 11 as a power source of the pet robot 1, and a notch sensor 1 2 And an internal sensor section 14 composed of a heat sensor 13 and the like.
  • the head unit 4 has a microphone 15 corresponding to the “ears” of the pet robot 1, a CCD (Charge Coupled De-vice) camera 16 corresponding to the “eyes”, as shown in FIG.
  • the components forming the external sensor unit 19 including the touch sensor 17 and the distance sensor 18 disposed above the head unit 4 and the speaker 20 corresponding to the “mouth” are respectively located at predetermined positions. It is arranged.
  • the joints of the leg units 3A to 3D, the connecting portions of the leg units 3A to 3D and the trunk unit 2, the connecting portions of the head unit 4 and the trunk unit 2, and the tail Terminal units 21A to 21N are provided at the connection part of the unit 5 and the body unit 2, respectively.
  • the microphone 15 of the external sensor unit collects an external sound and sends the obtained audio signal S 1 to the controller 10. Further, the CCD camera 16 takes an image of the surroundings and sends out the obtained image signal S 2 to the controller 10.
  • the touch sensor 17 detects the pressure received by a physical action such as “stroke” or “hit” from the user, and sends the detection result to the controller 10 as a pressure detection signal S3. Further, the distance sensor 18 measures the distance to an object located ahead, and sends the measurement result to the controller 10 as a distance measurement signal S4.
  • the external sensor section 19 outputs an external information signal S5 including an audio signal S1, an image signal S2, a pressure detection signal S3, and a distance measurement signal S4. And sends it to the controller 10.
  • the battery sensor 12 of the internal sensor unit 14 detects the remaining amount of the battery 11 and sends the detection result to the controller 10 as a battery remaining amount detection signal S6.
  • the heat sensor 13 detects the heat inside the pet robot 1 and sends the detection result to the controller 10 as a heat detection signal S7.
  • the internal sensor unit 14 generates the internal information signal S8 including the battery remaining amount detection signal S6 and the heat detection signal S7 based on the information obtained from the inside of the pet robot 1, and outputs this to the controller 1. Send to 0.
  • the controller 10 determines the situation of the surroundings and its own, and commands and actions from the user. Determine the presence or absence.
  • the controller 10 determines a subsequent action based on the determination result and the control program stored in the memory 10A, and drives the necessary actuators 21A to 21N based on the determination result.
  • the head unit 4 is swung up and down, left and right, the tail 5A of the tail unit 5 is moved, and the leg units 3A to 3D are driven to walk.
  • the controller 10 outputs a sound based on the sound signal S9 to the outside by giving a predetermined sound signal S9 to the speaker 20 as necessary, or the position of the "eye" of the pet robot 1 LED (not shown)
  • the pet robot 1 is capable of acting autonomously based on the surrounding and self conditions, commands and actions from the user, and the like.
  • the recognition mechanism 30 an action determining mechanism 31 that determines a subsequent action based on the recognition result of the situation recognition mechanism 30, and a robot 1 that is actually based on the determination result of the action determining mechanism 31.
  • the action generation mechanism section 33 that causes the action to be expressed.
  • the state recognition mechanism 30, the emotion / instinct model mechanism 31, the action determination mechanism 32, and the action generation mechanism 33 will be described in detail.
  • the state recognition mechanism 30 is identified based on the external information signal S5 supplied from the external sensor 18 (FIG. 2) and the internal information signal S8 supplied from the internal sensor 14 (FIG. 2). Then, the recognition result is notified as state recognition information S 11 to the emotion / instinct model mechanism unit 31 and the action determination mechanism unit 32.
  • the state recognition mechanism section 30 constantly monitors the image signal S 2 (FIG. 2) provided from the CCD camera 16 (FIG. 2) of the external sensor section 19 and obtains an image based on the image signal S 2. For example, when a "red round object” or “vertical plane” is detected, it recognizes that "there is a ball” or “there is a wall.” Notify the action decision mechanism 32.
  • the state recognition mechanism section 30 constantly monitors the audio signal S 1 (FIG. 2) given from the microphone 15 (FIG. 2), and based on the audio signal S 1, “walks”, “prone”, and “bodies”. When it recognizes that a command sound such as "chase the rule” has been input, it notifies the emotion / instinct model mechanism unit 31 and the action determination mechanism unit 32 of the recognition result.
  • the state recognition mechanism section 30 constantly monitors the pressure detection signal S 3 (FIG. 2) given from the touch sensor 17 (FIG. 2), and based on the pressure detection signal S 3, detects a pressure equal to or higher than a predetermined threshold value for a short time.
  • a pressure for example, less than 2 seconds
  • it is recognized as “hit” (reproached)
  • a pressure that is less than a predetermined threshold value and for a long time for example, 2 seconds or more
  • the state recognition mechanism section 30 constantly monitors the temperature detection signal S7 (FIG. 2) given from the temperature sensor 13 (FIG. 2) of the internal sensor section 14 (FIG. 2), and When a temperature equal to or higher than a predetermined temperature is detected based on S7, it is recognized that “the internal temperature has risen”, and the recognition result is notified to the emotion / instinct model mechanism unit 31 and the action determination mechanism unit 32.
  • Emotions ⁇ Instinct Model Mechanism Department 3 for a total of six emotions of “joy”, “sadness”, “surprise”, “fear”, “disgust” and “anger”, determine the strength of each emotion. It holds the parameters to represent. Then, the emotion and instinct model mechanism unit 31 specifies the parameter values of each of these emotions, such as “hit” and “stroke”, which are given as state recognition information S 11 from the state recognition mechanism unit 30, respectively. Are sequentially updated based on the recognition result, the action determination information S12 indicating the determined output action given from the action determination mechanism unit 32 as will be described later, the elapsed time, and the like.
  • the emotion and instinct model mechanism 31 determines the degree to which the recognition result obtained based on the state recognition information S 11 and the output action based on the action determination information S 12 act on the emotion (set in advance. ) And the degree of suppression and stimulation received from other emotions, the elapsed time, and the like.
  • the parameter value E [t] a factor representing the ratio of changing the emotion of that in accordance with the recognition result such as k e, the following expression in a predetermined cycle
  • the emotion / instinct model mechanism unit 31 updates the parameter value of the emotion by replacing the calculation result with the current parameter value E [t] of the emotion.
  • the parameter value of the emotion to be updated for each recognition result and each output action is predetermined. For example, when the recognition result such as “hit” is given, the emotion of “anger” As the parameter value increases, the parameter of the emotion of “joy” decreases, and when a recognition result such as “stroke” is given, the parameter of the emotion of “joy” is given.
  • the emotional and instinct model mechanism section 31 divides the four independent needs of “exercise desire”, “affection desire”, “appetite” and “curiosity” for each of these needs. Holds a parameter indicating the strength of desire. Then, the emotion and instinct model mechanism section 31 sequentially updates the parameter values of these desires based on the recognition result from the state recognition mechanism section 30, the elapsed time, the notification from the action determination mechanism section 32, and the like. You.
  • the emotional and instinct model mechanism section 31 performs predetermined calculations for “motor desire”, “love affection”, and “curiosity” based on the output behavior of the robot 1, elapsed time, recognition results, and the like.
  • the variation amount of the desire calculated by the equation is ⁇ I [k]
  • the parameter value of the subtraction in the subtraction is I [k]
  • the coefficient representing the sensitivity of the desire is ki, and the following equation
  • I [k + l] 1 [k] + k ;
  • X ⁇ I [k] (2) is used to calculate the parameter value I [k + l] of the desire in the next cycle, and this calculation result is Update the parameter value of the desire by replacing it with the parameter value I [k] of the desire. It is to be noted that the desire to change the value of the desired action with respect to the output action, the recognition result, etc. is predetermined. The parameter value of "greed" decreases.
  • the emotion and instinct model mechanism 31 determines that the “appetite” is a predetermined cycle based on the remaining battery level detection signal S 6 (FIG. 2) given through the state recognition mechanism section 30. And the following equation
  • I [k] 1 0 0-B L (3) is used to calculate the parameter value “Appetite” I [k + l].
  • the parameter value of the “appetite” is updated by replacing the parameter value of the appetite I [k].
  • the emotion and the parameter value of each desire is regulated so that each vary in the range from 0 to 1 00, also the coefficient k e, the value of ki is also the emotion and each desire Are set individually.
  • the action determination mechanism 32 includes state recognition information S 11 given from the state recognition mechanism 30, parameter values of each emotion and each desire in the emotion / instinct model mechanism 31, and is stored in the memory 10 A in advance. The next action is determined based on the determined action model and the passage of time, and the result is output to the emotion / instinct model mechanism section 31 and the action generation mechanism section 33 as action determination information S12.
  • the action determination mechanism 32 uses one node (state) NODE as shown in Fig. 4 as a method to determine the next action. From the same or any other node from NODE. NODE Each node NODE transitions to NODE n . Arc ARC connecting between ⁇ NODE n . The transition probability P set for each of ARCARC n . Using an algorithm called probability Otomaton determining probabilistically based on to P n.
  • the memory 1 OA has each node NODE as an action model.
  • a state transition table 40 as shown in FIG. 5 is stored for each NODE n to NODE n , and the action determination mechanism 32 determines the next action based on the state transition table 40.
  • Input events Recognition results of the state recognition mechanism unit 30
  • transition conditions in NODE n are listed in order of priority in the row of "input event", and further conditions for the conditions are "data name” and "data name”. It is described in the corresponding column in the "Range" row.
  • the recognition result of "BALL detected” is given, the "SIZE” of the ball given along with the recognition result, the range of 0 to 10000 (0 1 000) ”, or given the recognition result of“ OB STACLE ”, the“ distance (DI STANCE)] force S to the obstacle given with the recognition result Being in the range of “0 force, etc. 1 000 (0 1 000)” is a condition for transitioning to self or another node.
  • the action determination mechanism 32 periodically refers to the emotions and instinct model mechanism 31. JOY), “SUPR ISE” or “SUDNE SS” when the parameter value of the emotion is “50 force, etc. (50 1 00)” It can be transited to another node.
  • the state transition table 40 in the column of "transition destination node” in the column of "transition probability to another node", the names of nodes that can transition from the node NOD NODE n are listed, and the "input event name" .
  • the transition probability to the node NODE NODE n is the node NODE in the column of “Transition probability to other node”.
  • the action or action output at this time is described in the NODE n line, and the action or action output at this time is described in the “output action” row.
  • the sum of the transition probabilities of each row in the column “Transition probabilities to other nodes” is 50 [%].
  • the node NODE 100 in this example detects, for example, “ball (BALL)” and recognizes that the ball has a “SIZE” and a range of 0 to 10000 (0 1 00 0). If the result is given, it is possible to transit to “Node N ⁇ DE 12 (node 1 20)” with a probability of “30 [%]”. At that time, the action or action of “ACT I ON 1” is output. Will be done.
  • the behavior model is a node NO DE described as such a state transition table 40. It is configured so that several NODE n are connected.
  • the action decision mechanism 32 when the state recognition information S11 is given from the state recognition mechanism 30 or when a certain time has elapsed since the last appearance of the action, etc.
  • the corresponding node NODE of the behavior model stored in the memory 10A Next, the next action or action (the action or action described in the row of “output action”) is stochastically determined using the state transition table 40 of ⁇ NODE n , and the determination result is set as action determination information S12. And outputs it to the instinct model mechanism section 31 and the action generation mechanism section 33.
  • the action generation mechanism 33 generates control signals S10A to S10N for the necessary actuators 21A to 21N based on the action plan, and generates these control signals S1 By driving and controlling the necessary actuators 21A to 21N based on 0A to S10N, the action determined by the action determining mechanism 32 is executed by the pet robot 1.
  • the action determining mechanism section 3 receives the action determining information D 2 such as “barking” or “blinking the LED of the eyes” from the action determining mechanism section 32, the action generating mechanism section 3 3 sends out a predetermined voice signal S 9 to the speaker 20. Then, a sound based on the sound signal S9 is output, or a drive voltage is applied to the LED provided at the position of the "eye” or the application of the drive voltage is stopped to blink the LED.
  • the action determining mechanism section 3 receives the action determining information D 2 such as “barking” or “blinking the LED of the eyes” from the action determining mechanism section 32
  • the action generating mechanism section 3 3 sends out a predetermined voice signal S 9 to the speaker 20. Then, a sound based on the sound signal S9 is output, or a drive voltage is applied to the LED provided at the position of the "eye” or the application of the drive voltage is stopped to blink the LED.
  • the controller 10 makes the pet robot 1 autonomously act on the basis of the external information signal S5 given from the external sensor unit 19 and the internal information signal S8 given from the internal sensor unit 14.
  • the actuators 21 A to 21 N and audio output are controlled so as to obtain.
  • the controller is provided with an action control mechanism section 34 as another function related to action generation.
  • the behavior control mechanism 34 is supplied with the situation recognition information S 11 from the situation recognition mechanism 30 and the external information signal S 5 from the external sensor 19.
  • the behavior control mechanism 34 receives the person's information based on the image signal S 2 given from the CCD camera 16 at this time. Face pattern data (hereinafter referred to as face putter Is generated, and the face pattern data is stored in the memory 1A. At this time, the behavior control mechanism unit 34 compares the face pattern data to be stored in the memory 10A with each of the face pattern data stored in the memory 10A in advance, and determines that the frequency of occurrence is high. Only the face pattern data of the top several people should be left in the memory 1 OA.
  • the behavior control mechanism 34 also counts, for example, “favorableness” and “aversion” for the person as shown in FIG. 6 in association with each face pattern data stored in the memory 10A. Then, an emotion table 35 (35A to 35J), which is a counter table for performing the processing, is generated and stored in the memory 10A.
  • the behavior control mechanism section 34 responds to the action such as “hitting” or “stroking” received from the person whose face pattern data is stored in the memory 10A, and thereafter, in the emotion table 35 of the person, The corresponding “favorable” or “disgust” count value is sequentially changed.
  • the behavior control mechanism unit 34 recognizes that a person with the same face as the face pattern based on any of the face pattern data stored in the memory 10A is nearby, Situation information indicating that pre-designated favorable actions or talks were given, such as "ta”, “stroke”, “charged”, “played”, etc. And the count value of “favorability” in the emotion table 35 of the recognized face pattern is increased by a predetermined amount.
  • the behavior control mechanism 34 recognizes that a person with the same face as the face pattern based on any of the face pattern data stored in the memory 10A is nearby, , "Beaten”, “requested to be charged, ignored”, “playing Given the situation-recognition information S11 indicating that a malicious action has been given, such as "Requested to be given was ignored”, the emotion table of the recognized face pattern 3 5 In the above, the count value of "dislike degree” is increased by a preset amount, and the count value of "favorability" is decreased by a preset amount.
  • this increase is, for example, “1” in the case of “reprimanded” or “beaten” depending on the content of the favorable act or talk, and is ignored even if the charge is requested.
  • “T” or “Requested to play but was ignored” “2” is set according to the content of the approach and conversation.
  • the behavior control mechanism section 34 counts “favorableness” and “dislike degree” using the emotion table 35 for several people who have a high frequency of appearance.
  • the behavior control mechanism unit 34 creates and updates the emotion table 35 according to the emotion table creation / update processing procedure RT1 shown in FIG.
  • the behavior control mechanism section 34 when the behavior control mechanism section 34 is given the recognition result of “there is a person” from the state recognition mechanism section 30, it starts this emotion table creation / update processing procedure RT 1 in step SP 1 and continues Proceeding to step SP2, the target face pattern is recognized based on the image signal S2 from the CCD camera 16.
  • step SP3 compares the target face pattern recognized in step SP2 with the face pattern based on each face pattern data stored in the memory 10A. Judge whether there is the same face pattern.
  • step SP3 When the behavior control mechanism unit 34 obtains a negative result in step SP3, the process proceeds to step SP4, and for the newly created emotion table 35, creates an emotion table 35 for the new face pattern.
  • step SP6 After storing it in memory 10A so that it can be replaced with emotion table 35, the process proceeds to step SP6.
  • the behavior control mechanism section 34 sets the “favorable” and Each force point value of the “disgust degree” is set to a predetermined desired value.
  • step SP5 reads the corresponding emotion table 35, and then proceeds to step SP6.
  • step SP6 the behavior control mechanism unit 34 determines whether there has been a conversation such as "praise” or “scratch” or a gesture such as "stroke” and “slap”, and if a negative result is obtained. Proceeding to step SP10, the emotion table creation / update processing procedure RT1 ends.
  • step SP6 determines whether the action is a predetermined favorable action such as “praise” or “stroke”. Determine whether or not.
  • step SP7 When the behavior control mechanism unit 34 obtains a positive result in step SP7, the process proceeds to step SP8, and the new emotion table 35 created in step SP4 or the emotion table 35 read out in step SP5.
  • the count value of "favorability” is increased by the value corresponding to the action received from the person, and the count value of "disgust” is reduced by the value corresponding thereto.
  • step SP7 the action control mechanism section 34 proceeds to step SP9, and reads out the new emotion table 35 created in step SP4 or the new emotion table 35 in step SP5.
  • the count value of "favorableness” is decreased by the value according to the action according to the person, and the count value of "disgustment” is increased by the value corresponding to the value. Proceed to and finish the emotion table creation and update processing procedure RT1.
  • the behavior control mechanism section 34 creates the emotion table 35 and sequentially updates the emotion table 35 according to the action from the person.
  • the action control mechanism 34 controls the action generation of the robot 1 in accordance with the action control processing procedure RT2 shown in FIG. 8 in parallel with such processing. That is, after the power is turned on, the behavior control mechanism unit 34 starts this behavior control processing procedure RT2 in step SP11, and in subsequent steps SP12 and SP13, the situation recognition Based on the information S11, it is sequentially determined whether or not a voice call has been made and whether or not there are people around. Then, the behavior control mechanism unit 34 repeats the loop of steps SP12 to SP13_SP12 until a positive result is obtained in any of steps SP12 and SP13.
  • step SP 12 when the behavior control mechanism unit 34 eventually obtains a positive result in step SP 12, it proceeds to step SP 14, specifies the direction of sound generation, and then proceeds to step SP 16. If the behavior control mechanism unit 34 obtains a positive result in step SP 13, it proceeds to step SP 15, specifies the direction of the person recognized by the situation recognition mechanism unit 30, and then proceeds to step SP 16.
  • step SP16 the behavior control mechanism unit 34 sets the robot 1 toward the person who called or the person recognized by the situation recognition mechanism unit 30 (hereinafter, these will be collectively referred to as a target).
  • the action determining mechanism 32 is controlled to move.
  • the transition probability 1 ⁇ to the corresponding node NO DE X probability Otomaton shown in FIG. 4 (e.g., "walking") 1 00 [%]
  • the other node NO DE 2 ⁇ NODE n the action control mechanism unit 34 proceeds to step SP7 and determines the target based on the distance measurement signal S14 from the distance sensor 18 in step SP7.
  • the process proceeds to step SP 18 to determine whether or not the distance has reached a predetermined distance or has reached a range in which a target face can be identified.
  • step SP 18 If a negative result is obtained in step SP 18, the action control mechanism 34 returns to step SP 16, and thereafter performs steps SP 16 — SP 17 — until a positive result is obtained in step SP 18.
  • SP 1 8 Repeat / rape SP 16 Then, when a positive result is obtained in step SP18, the action control mechanism section 34 proceeds to step SP19, and executes the action determination processing procedure RT3 shown in FIG.
  • step SP 19 of the action control processing procedure RT 2 the action control processing section RT 3 starts this action determination processing procedure RT 3 (FIG. 9) in step SP 31, and then proceeds to step SP 3 2
  • the target face pattern is recognized based on the image signal S 2 from the CCD camera 16.
  • step SP33 compares the target face pattern recognized in step SP32 with the face pattern based on each face pattern data stored in the memory 10A. I do.
  • the behavior control mechanism section 34 determines the corresponding emotion stored in the memory 1 ⁇ A. Read out each force value of “favorability” and “dislike degree” in Table 35.
  • step SP34 determines whether the person likes or dislikes the person based on the count value of "favorableness” and the count value of "dislike degree". In effect, this decision determines that if the count of “favorable” is greater than or equal to the count of “disgust”, it is considered a preferred target, whereas the “disgust” is “ If it is larger than “favorability”, it is determined by judging that the object is a dislike.
  • step SP35 the action control mechanism section 34 proceeds to step SP35, and based on the determination result obtained in step SP36, the emotion parameter value and the desire parameter value held by the emotion and instinct model mechanism section 31 are determined. The change amount is changed, and the transition probability of the state transition table held by the action determination mechanism unit 32 is changed.
  • the behavior control mechanism unit 34 sets the parameter value to “ Change to the action of "ta” or "stroke” Change the amount.
  • the behavior control mechanism section 34 uses the emotion and instinct model mechanism section 3
  • the behavior control mechanism unit 34 determines that the object is a preferable object, and obtains a recognition result such as “stroke”, the behavior control mechanism unit 34 calculates the coefficient value of the parameter for calculating the parameter value of the emotion of “joy”.
  • the parameter value of “pleasure” of this preferable target can be increased by only “1”.
  • the parameter value of “anger” can be reduced by only “0.5” where it normally drops by “1”.
  • the behavior control mechanism section 34 determines that the object is a disliked object, and obtains a recognition result such as “hit”, it calculates a parameter value of the emotion of “joy”. with setting a large coefficient K e of the formula which, by the formula set even larger coefficient K e of calculating the parameters one data value of the emotion of "anger”, usually the parameter value of "joy” in the dislike target A point where only “1” drops can be lowered by "2”, and a parameter value of "anger” can be raised by "2” where a parameter which normally only rises by "1".
  • the behavior control mechanism section 34 changes the transition probability of the behavior model held by the behavior determination mechanism section 32, and when specifically acted on as described above, the state transition table as shown in FIG. The transition probability described in the column “Transition probability to another node” in the above is changed according to the result of the determination.
  • the behavior control mechanism unit 34 changes the transition probability at which the node can perform a transition to the node performing the action and action of “joy” from the probability of “5 0 [%]” to “8 0 [ %], And when it is determined that the object is a dislike object, for example, the transition probability of transition to the node performing the action and action of “joy” is changed from the probability of “50 [%]” to “3”. By reducing the probability to 0 [%) j, the action or action to be generated can be changed according to the judgment result.
  • the action decision mechanism 32 actually determines, as shown in FIG. 10, that the object is preferable, for example, the transition probability P that transitions from the “angry” node 51 to the “happy” node 52 12, a transition probability P 22 of transition from 2 5 "happy" node “pleased” self to node 5 2, "walk” node 5 3 "joy” from node 5 2 to transition the transition probability P 32 and the respective To make it easier to generate the action “pleased”.
  • the behavior determination mechanism unit 32 determines that the object is a disliked object, for example, the transition probability Pu transitioning from the “angry” node 51 to its own “angry” node 51 and the “pleasure” node 5 2 from the transition probability P 21 to transition to the "angry” node 5 1, "walk” node 5 3 up “angry” node 5 1 and a transition probability P 31 to transition to, respectively from, the "angry that" rattan say action Make it easier to generate.
  • step SP 35 ends the behavior determination processing procedure RT 3 and further proceeds to step SP 20 of the behavior control processing procedure RT 2, which is the main routine. Proceed to.
  • step SP20 the behavior control mechanism section 34 determines whether the target is a preferable target based on the determination result in step SP19.
  • the behavior control mechanism unit 34 obtains a positive result in step SP20. Then, proceeding to step SP 21, the action determination mechanism section 3 2 is performed so that the pet robot 1 sings a song or shakes the tail 5 A and makes an action approaching the target while appealing to the good mood. Control.
  • the behavior control mechanism 34 appears to be in a better mood as the difference between “favorability” and “degree of disgust” increases (for example, by changing the rotation speed of the actuator 21 A to 21 N, the tail 5
  • the action determining mechanism section 32 and the action generating mechanism section 33 are controlled so that the way of swinging A is increased or the speed of approaching is increased.
  • the behavior control mechanism unit 34 changes the amount of change of the parameter value of the emotion and the parameter value of the desire and the transition probability of the state transition table in accordance with the result of the determination as to whether or not the target is preferable in step SP35. This makes it easier for the pet robot 1 to express the action and movement based on “joy”.
  • step SP20 if a negative result is obtained in step SP20, the action control mechanism section 34 proceeds to step SP22 and controls the action determination mechanism section 32 so that the pet robot 1 moves away from the target.
  • a method disclosed in JP-A-6-89344 is used as a method of learning and recognizing a face pattern in the action control mechanism 34.
  • a face pattern learning and recognition processing unit 40 for learning and recognizing a face pattern as shown in FIG. 7 is provided in the behavior control unit mechanism unit 34.
  • a human face portion of the image signal S2 provided from the CCD camera 16 is stored in a memory unit including a RAM (R and om Access Memory) and an analog / digital converter.
  • the face image data I (x, y) which is quantized by, for example, 8 bits and obtained two-dimensional luminance information on the xy plane, is stored in the RAM of the memory unit 41 for one frame at a time. I do.
  • the pre-processing unit 42 performs pre-processing such as edge detection on the face image data I (x, y) stored in the memory unit 41, thereby obtaining a face image (face image data I (X, The face pattern P (x, y) is extracted as a feature value of y)) and sent to the comparison processing section 43.
  • the comparison processing unit 43 includes r functions F i (x, y) (i ⁇ 1, 2,8) Stored in advance in the function learning storage unit 44 as a basic model of the face pattern P (x, y). .., R) is calculated as the contribution X i, which is the amount of correlation with the face pattern P (x, y).
  • the comparison processing unit 43 detects a function F MAX (x, y) having the maximum contribution ⁇ (1 ⁇ AX AX ⁇ r) based on the calculation result, and determines the contribution of the function (x, y). Deform function F MAX (x, y) or face pattern P (x, y) until degree X MAX reaches the maximum or maximum point, so that function F MAX (x, y) and face pattern P (x , Y) is calculated as the amount of deformation M (x, y).
  • the amount of deformation M (x, y) is given to the function learning storage unit 44 and the deformation amount analysis unit 45.
  • the function learning storage unit 44 is also provided with a face pattern P (x, y).
  • the function learning storage unit 44 deforms the function F MAX (x, y) or the face pattern P (x, y) using the supplied deformation amount M (x, y), and performs the deformation on the xy plane. Update the function F MAX (x, y) based on the function F MAX '(x, y) and the deformed face pattern (x, y).
  • the deformation amount analysis unit 45 analyzes the deformation amount M (x, y) given from the comparison processing unit 43, and uses the displacement and rotation of the face pattern P (x, y) in the screen up, down, left, and right. By removing from the deformation M (X, y) the component related to the displacement, or the difference in size due to perspective, CCD camera scaling, etc., a new deformation M tdr ( x, y) is generated and sent to the person information learning storage unit 46.
  • the person information learning storage unit 46 stores the deformation amount M tdr (x, y) of the person t output from the deformation amount analysis unit 45 itself as person information, Thereafter, every time the amount of deformation M tdr (x, y) of the same person t is input, the person information K (t) is updated based on the amount of deformation M tdr (x, y). Further, when the operation mode is the recognition mode, the person information learning storage unit 46 stores the deformation amount M tdr (x, y) given from the deformation amount analysis unit 45 and each person information previously stored in its internal memory. For example, a Euclidean distance with K (t) is calculated, and the number t in the person information K (t) that minimizes the distance is output as the identification result.
  • the deformation amount analysis unit 45 analyzes the deformation amount M (x, y), and the face included in the deformation amount M (x, y) is analyzed.
  • the parallel movement component, the rotation movement component, and the scaling component of the pattern P (x, y) are removed, and the person information learning storage unit 46 is stored based on the so-called new deformation amount Mt dr (x, y). Since the standard pattern is updated, a high recognition rate can be obtained.
  • the pet robot 1 stores the face pattern data of several people with high appearance frequency, and obtains the new face pattern data.
  • the new face pattern data is stored in place of the low face pattern data. Further, the pet robot 1 corresponds to each of the face pattern data and responds to the input history of the person's approach and talk to the pet robot 1.
  • the pet robot 1 when the pet robot 1 is called or detects that a person is around, the pet robot 1 approaches the person, and when the "favorability" for the person is greater than the threshold value than the "disgust degree", the pet robot 1 gives a favor. Get closer to the person while doing the gestures you represent.
  • Petrobot 1 moves away from a person when his / her "favorableness" is less than the threshold value than "dislike degree" or when his / her face pattern data is not stored.
  • the robot 1 approaches a person with a high degree of “favorableness” based on the input history of actions and conversations with respect to the robot 1 and does not know a person with a low degree of favorableness. It performs biologically natural behaviors and movements, such as moving away from humans, as if it were a real animal, thus giving the user a sense of familiarity and satisfaction.
  • a person is detected based on the external information signal S5 from the external sensor unit 19, and it is determined whether the "favorability" of the person is higher or lower than the "disgust degree” by a predetermined value or more.
  • a predetermined value or more By approaching the person when it is high and moving away from the person otherwise, it produces biologically natural behaviors and movements, and gives the user a sense of familiarity and satisfaction.
  • a pet robot can be realized which can improve the entertainment.
  • the “favorableness” and the “disgust degree” are based on the actions such as “praise” and “scold” and the actions such as “stroke” and “slap”.
  • the present invention is not limited to this, but also counts “favorableness” and “disgust” for other cases such as “played” and “ignored”. It may be made to be an element to be performed.
  • the present invention is not limited to this, and for example, the user may be able to set a target to which “favorableness” and “dislike degree” are emphasized.
  • the present invention is not limited to this.
  • the user may be detected in the surroundings based on, for example, an odor or an ambient temperature other than the visual information.
  • the present invention is not limited to this, and in addition to or in addition to this, “voice”, “ The user may be recognized based on “smell”, “ambient temperature”, “physique” and the like.
  • the data such as “voice”, “smell”, “ambient temperature”, and “physique” can be realized by the pet robot 1 storing the data in advance.
  • the behavior pattern based on the "favorability” and the “disgust degree” such as approaching when “favorability” is greater than the “disgust degree” by a predetermined value or more, and moving away otherwise.
  • the present invention is not limited to this.
  • the "disgust degree” is larger than the "favorableness” by a predetermined value or more, an action pattern of running and fleeing, A plurality of behavior patterns based on “favorableness” and “dislike degree” other than the above may be added.
  • the pet robot 1 approaches or moves away.
  • the target is a person
  • the present invention is not limited to this, and a predetermined action or operation may be performed in response to a color, a sound, an object, an animal, an odor, or the like.
  • the external sensor unit 19 as external information capturing means for capturing information from outside is configured by the microphone 15, the CCD camera 16, the touch sensor 17, and the distance sensor 18.
  • the present invention is not limited to this, and the external sensor unit 19 may be configured by adding another sensor or the like to this or by using another sensor or the like.
  • detecting means for detecting a specific object (person) based on the external information signal S5 from the external sensor unit 19, and when the object is detected by the detecting means A case has been described where the determination means for determining whether or not the target satisfies a predetermined condition (“favorability” is higher than “dislike degree” by a predetermined value or more) is configured by one controller 10.
  • a predetermined condition “favorability” is higher than “dislike degree” by a predetermined value or more”
  • the present invention is not limited to this, and these detecting means and determining means may be provided separately.
  • the action generation means for generating an action under the control of the action control mechanism section 34 of the controller 10 is provided by the action determination mechanism section 32 and the action generation mechanism section of the controller 10. 33 and a case where the actuator is constituted by a plurality of actuators 21A to 21N, a speed of 20 and an LED, but the present invention is not limited to this, and various other configurations can be widely applied. can do.
  • the force described in the case where the condition of approaching or moving away is when “favorableness” is larger than “dislike degree” by a predetermined value or more is not limited to this.
  • the count value may approach the initial count value.
  • the pet robot 1 gradually loses the feeling of favor and dislike for a person with a certain face pattern over time.
  • the behavior pattern is determined based on the count value of “favorableness” and the count value of “dislike degree” has been described.
  • the present invention is not limited to this.
  • the behavior pattern may be determined based on the count value of other emotions such as "surprise degree”, “anger degree”, and "sadness degree”.
  • the behavior control mechanism section 34 sets the count value of the emotion table 35 to the count value for approaching the target like “favorableness” described in the present embodiment and the target value like “disgust degree”. It is classified into count values to keep away from, and the classified count values are combined, and an action pattern is determined based on the combined count values.
  • the present invention is not limited to this, and other nodes such as “sad”, “surprised”
  • the transition probabilities may be changed between the nodes using nodes that perform other actions such as "crying” and "jumping”.
  • the case where the corresponding transition probability in the behavior model is changed according to the likes and dislikes of the detected person is described.
  • the present invention is not limited to this. An action model and an action model for a disliked person are prepared.
  • an action model for the favorite person for example, an action representing “joy” is formed so as to be easily expressed.
  • you are a disliked person and use a disliked person's behavior model for example, a behavior that expresses “disgust” is easily formed, prepare multiple behavior models. I like it The behavior model may be replaced depending on the situation.
  • the present invention can be applied to a pet robot.

Description

明 細 書 ロボット装置及びその制御方法 技術分野
本発明はロボット装置及びその制御方法に関し、 例えばぺットロボットに適用 して好適なものである。 背景技術
近年、 ユーザからの指令や周囲状況に応じて動作を行う 4足歩行型のペット口 ボットが本願特許出願人により提案及び開発されている。 このぺットロボットは 、 一般家庭において飼育される犬や猫に似た形状を有し、 ユーザからの 「伏せ」 という指令を受けると伏せの姿勢をとつたり、 自分の目の前にュ一ザの手が差し 出されると 「おて」 をするように構築されている。
ところでかかるぺットロボットにおいて、 より生物的に自然な動作を行わせる ことができれば、 一層の親近感や満足感をユーザに与えて娯楽性を向上させ得る ものと考えられる。 発明の開示
本発明は以上の点を考慮してなされたもので、 娯楽性を格段的に向上させ得る ロボット装置及びその制御方法を提案しようとするものである。
かかる課題を解決するため本発明においては、 ロボット装置において、 外部か ら情報を取り込む外部情報取込み手段と、 当該情報に基づいて特定の対象を検出 する検出手段と、 検出手段により対象が検出されたときに、 当該対象が所定条件 を満たすか否かを判断する判断手段と、 判断手段の判断結果に基づいて所定の動 作を発生する動作発生手段とを設けるようにした。 この結果このロボット装置に よれば、 より生物的に自然な動作を行わせることがきる。 また本発明においては、 ロボッ ト装置の制御方法において、 外部から情報を取 り込み、 当該情報に基づいて特定の対象を検出する第 1のステップと、 対象が検 出されたときに、 当該対象が所定条件を満たすか否かを判断する第 2のステップ と、 判断結果に基づいてロボット装置に所定の動作を発生させる第 3のステップ とを設けるようにした。 この結果このロボット装置の制御方法によれば、 ロボッ ト装置により生物的に自然な動作を行わせることがき、 かく して娯楽性を向上さ せ得るロボット装置を実現できる。 図面の簡単な説明
図 1は、 本実施の形態による娯楽用ロボットの外観構成を示す斜視図である。 図 2は、 本実施の形態による娯楽用ロボッ トの回路構成を示すブロック図であ る。
図 3は、 行動生成に関するコントローラの処理の説明に供するブロック図であ る。
図 4は、 確率オートマトンを示す略線図である。
図 5は、 状態遷移表を示す概念図である。
図 6は、 感情テーブルを示す略線図である。
図 7は、 感情テーブル作成 ·更新処理手順を示すフローチャートである。
図 8は、 行動制御処理手順を示すフロ一チヤ一トである。
図 9は、 行動決定処理手順を示すフローチャートである。
図 1 0は、 状態遷移の説明に供する概念図である。
図 1 1は、 顔パターン学習及び認識処理部の構成を示すブロック図である。 発明を実施するための最良の形態
以下図面について、 本発明の一実施の形態を詳述する。
( 1 ) 本実施の形態によるペットロボットの構成
図 1において、 1は全体として本実施の形態によるペッ トロボッ トを示し、 月同 体部ュニット 2の前後左右にそれぞれ脚部ュニット 3 A〜 3 Dが連結されると共 に、 胴体部ュニット 2の前端部及び後端部にそれぞれ頭部ュニッ ト 4及び尻尾部 ュニット 5が連結されることにより構成されている。
この場合胴体部ユニット 2には、 図 2に示すように、 このペットロボット 1全 体の動作を制御するコントローラ 1 0と、 このぺットロボット 1の動力原となる バッテリ 1 1と、 ノ ッテリセンサ 1 2及び熱センサ 1 3からなる内部センサ部 1 4となどが収納されている。
また頭部ユニット 4には、 このペットロボット 1の 「耳」 に相当するマイクロ ホン 1 5、 「目」 に相当する C C D ( C h a r g e C o u p l e d D e - v i c e ) カメラ 1 6、 図 1のように頭部ュニット 4の上部に配設されたタツチ センサ 1 7及び距離センサ 1 8などからなる外部センサ部 1 9を形成する各部品 と、 「口」 に相当するスピーカ 2 0とがそれぞれ所定位置に配設されている。 さらに各脚部ュニット 3 A〜3 Dの関節部分や、 各脚部ュニット 3 A〜3 D及 び胴体部ュニット 2の各連結部分、 頭部ュニット 4及び胴体部ュニット 2の連結 部分、 並びに尻尾ュニット 5及び胴体部ュニット 2の連結部分などにはそれぞれ 了クチユエ一タ 2 1 A〜 2 1 Nが配設されている。
そして外部センサ部のマイクロホン 1 5は、 外部音を集音し、 得られた音声信 号 S 1をコントローラ 1 0に送出する。 また C C Dカメラ 1 6は、 周囲の状況を 撮像し、 得られた画像信号 S 2をコントローラ 1 0に送出する。
さらにタツチセンサ 1 7は、 ュ一ザからの 「なでる」 や 「たたく」 といった物 理的な働きかけにより受けた圧力を検出し、 検出結果を圧力検出信号 S 3として コントローラ 1 0に送出する。 さらに距離センサ 1 8は、 前方に位置する物体ま での距離を測定し、 測定結果を距離測定信号 S 4としてコントローラ 1 0に送出 する。
このように外部センサ部 1 9は、 ペットロボット 1の外部から得られる情報に 基づいて音声信号 S 1、 画像信号 S 2、 圧力検出信号 S 3及び距離測定信号 S 4 からなる外部情報信号 S 5を生成し、 これをコントローラ 1 0に送出する。 一方内部センサ部 1 4のバッテリセンサ 1 2は、 バッテリ 1 1の残量を検出し 、 検出結果をバッテリ残量検出信号 S 6としてコントローラ 1 0に送出する。 ま た熱センサ 1 3は、 ぺットロボット 1内部の熱を検出して検出結果を熱検出信号 S 7としてコントローラ 1 0に送出する。
このように内部センサ部 1 4は、 ペットロボット 1の内部から得られる情報に 基づいてバッテリ残量検出信号 S 6及び熱検出信号 S 7からなる内部情報信号 S 8を生成し、 これをコントローラ 1 0に送出する。
コントローラ 1 0は、 外部センサ部 1 9から与えられる外部情報信号 S 5及び 内部センサ部 1 4から与えられる内部情報信号 S 8に基づいて、 周囲及び自己の 状況や、 ユーザからの指令及び働きかけの有無などを判断する。
そしてコントローラ 1 0は、 この判断結果とメモリ 1 OAに格納されている制 御プログラムとに基づいて続く行動を決定し、 決定結果に基づいて必要なァクチ ユエータ 2 1 A〜 2 1 Nを駆動させることにより、 頭部ュニット 4を上下左右に 振らせたり、 尻尾部ユニット 5の尻尾 5 Aを動かせたり、 各脚部ユニット 3 A〜 3 Dを駆動して歩行させるなどの動作を行わせる。
またこの際コントローラ 1 0は、 必要に応じて所定の音声信号 S 9をスピーカ 20に与えることにより当該音声信号 S 9に基づく音声を外部に出力させたり、 このペットロボット 1の 「目」 の位置に設けられた図示しない LED (
L i g h t Em i t t i n g D i o d e) を点灯、 消灯又は点滅させる。 このようにしてこのペットロボット 1においては、 周囲及び自己の状況、 ュ一 ザからの指令及び働きかけ等に基づいて自律的に行動し得るようになされている
(2) コントローラ 1 0の処理
ここでこのぺットロボット 1の行動生成に関するコントローラ 1 0の具体的な 処理について説明する。
図 3に示すように、 このぺットロボット 1の行動生成に関するコントローラ 1 0の基本的な処理内容を機能的に分類すると、 外部や自己の状況を認識する状況 認識機構部 30と、 状況認識機構部 30の認識結果に基づいて続く行動を決定す る行動決定機構部 3 1と、 行動決定機構部 3 1の決定結果に基づいて実際にぺッ トロボット 1に行動を発現させる行動生成機構部 33とに分けることができる。 以下、 これら状態認識機構部 30、 感情 ·本能モデル機構部 3 1、 行動決定機 構部 3 2及び行動生成機構部 3 3について詳細に説明する。
(2- 1 ) 状態認識機構部 30の構成
状態認識機構部 30は、 外部センサ部 1 8 (図 2) から与えられる外部情報信 号 S 5と、 内部センサ部 1 4 (図 2) から与えられる内部情報信号 S 8とに基づ いて特定の状態を認識し、 認識結果を状態認識情報 S 1 1として感情 ·本能モデ ル機構部 3 1及び行動決定機構部 3 2に通知する。
実際上、 状態認識機構部 30は、 外部センサ部 1 9の CCDカメラ 1 6 (図 2 ) から与えられる画像信号 S 2 (図 2) を常時監視し、 当該画像信号 S 2に基づ く画像内に例えば 「赤い丸いもの」 や、 「垂直な平面」 を検出したときには、 「ボ ールがある」、 「壁がある」 と認識し、 認識結果を感情 ·本能モデル機構部 3 1及 び行動決定機構部 3 2に通知する。
また状態認識機構部 30は、 マイクロホン 1 5 (図 2) から与えられる音声信 号 S 1 (図 2) を常時監視し、 当該音声信号 S 1に基づいて 「歩け」、 「伏せ」、 「ボ ールを追いかけろ」 などの指令音が入力されたことを認識すると、 かかる認識結 果を感情 ·本能モデル機構部 3 1及び行動決定機構部 3 2に通知する。
さらに状態認識機構部 30は、 タツチセンサ 1 7 (図 2) から与えられる圧力 検出信号 S 3 (図 2) を常時監視し、 当該圧力検出信号 S 3に基づいて所定の閾 値以上のかつ短時間(例えば 2秒未満)の圧力を検出したときには「叩かれた(叱 られた)」 と認識し、 所定の閾値未満のかつ長時間 (例えば 2秒以上) の圧力を検 出したときには 「撫でられた (誉められた)」 と認識し、 認識結果を感情 ·本能モ デル機構部 3 1及び行動決定機構部 3 2に通知する。
さらに状態認識機構部 30は、内部センサ部 1 4 (図 2)の温度センサ 1 3 (図 2) から与えられる温度検出信号 S 7 (図 2) を常時監視し、 当該温度検出信号 S 7に基づいて所定以上の温度を検出したときには 「内部温度が上昇した」 と認 識し、 認識結果を感情 ·本能モデル機構部 3 1及び行動決定機構部 3 2に通知す る。
( 2 - 2 ) 感情 ·本能モデル機構部 3 1の構成
感情 ·本能モデル機構部 3 1は、 「喜び」、 「悲しみ」、 「驚き」、 「恐怖」、 「嫌悪」 及び 「怒り」 の合計 6つの情動について、 各情動ごとにその情動の強さを表すパ ラメータを保持している。 そして感情 ·本能モデル機構部 3 1は、 これら各情動 のパラメータ値を、 それぞれ状態認識機構部 3 0から状態認識情報 S 1 1 として 与えられる 「叩かれた」 及び 「撫でられた」 などの特定の認識結果と、 後述のよ うに行動決定機構部 3 2から与えられる決定された出力行動を表す行動決定情報 S 1 2と、 経過時間となどに基づいて順次更新する。
具体的に感情 ·本能モデル機構部 3 1は、 状態認識情報 S 1 1に基づき得られ る認識結果及び行動決定情報 S 1 2に基づく出力行動がその情動に対して作用す る度合い (予め設定されている) と、 他の情動から受ける抑制及び刺激の度合い と、 経過時間となどに基づいて所定の演算式により算出されるその情動の変化量 を Δ Ε 〔 t〕、 現在のその情動のパラメータ値を E 〔 t〕、 認識結果等に応じてそ の情動を変化させる割合を表す係数を k e として、 所定周期で次式
E 〔 t + l〕 = E 〔 t〕 + K e X Δ Ε C t ] ( 1 ) を用いて次の周期におけるその情動のパラメータ値 E C t + 1 ] を算出する。 そして感情 ·本能モデル機構部 3 1は、 この演算結果を現在のその情動のパラ メータ値 E 〔 t〕 と置き換えるようにしてその情動のパラメータ値を更新する。 なお各認識結果や各出力行動に対してどの情動のパラメータ値を更新するかは予 め決められており、 例えば 「叩かれた」 といった認識結果が与えられた場合には 「怒り」 の情動のパラメ一タ値が上がると共に 「喜び」 の情動のパラメータが下 がり、 「撫でられた」 といった認識結果が与えられた場合には 「喜び」 の情動のパ ラメータ値が上がると共に 「悲しみ」 の情動のパラメ一タ値が下がる。 これと同様にして、 感情 ·本能モデル機構部 3 1は、 「運動欲」、 「愛情欲」、 「食 欲」 及び 「好奇心」 の互いに独立した 4つの欲求について、 これら欲求ごとにそ の欲求の強さを表すパラメータを保持している。 そして感情 ·本能モデル機構部 3 1は、 これら欲求のパラメータ値を、 それぞれ状態認識機構部 3 0からの認識 結果や、 経過時間及び行動決定機構部 3 2からの通知などに基づいて順次更新す る。
具体的に感情 ·本能モデル機構部 3 1は、 「運動欲」、 「愛情欲」 及び 「好奇心」 については、 ぺットロボッ ト 1の出力行動、 経過時間及び認識結果などに基づい て所定の演算式により算出されるその欲求の変動量を Δ I 〔k〕、減算のその欲求 のパラメータ値を I 〔k〕、 その欲求の感度を表す係数を k i として、 所定周期 で次式
I 〔k + l〕 = 1 〔k〕 + k ; X Δ I 〔k〕 ( 2 ) を用いて次の周期におけるその欲求のパラメータ値 I 〔k + l〕 を算出し、 この 演算結果を現在のその欲求のパラメータ値 I 〔k〕 と置き換えるようにしてその 欲求のパラメータ値を更新する。 なお出力行動や認識結果等に対してどの欲求の ノ ラメ一タ値を変化させるかは予め定められており、 例えば行動決定機構部 3 2 から何らかの行動を行ったとの通知があったときには 「運動欲」 のパラメータ値 が下がる。
また感情 ·本能モデル機構部 3 1は、 「食欲」 については、 状態認識機構部 3 0 を介して与えられるバッテリ残量検出信号 S 6 (図 2 ) に基づいて、 バッテリ残 量を として所定周期で次式
I [ k ] = 1 0 0 - B L ( 3 ) により 「食欲」 のパラメ一タ値 I 〔k + l〕 を算出し、 この演算結果を現在の食 欲のパラメータ値 I 〔k〕 と置き換えるようにして当該 「食欲」 のパラメータ値 を更新する。
なお本実施の形態においては、 各情動及び各欲求のパラメータ値がそれぞれ 0 から 1 00までの範囲で変動するように規制されており、 また係数 ke 、 k iの値 も各情動及び各欲求ごとに個別に設定されている。
(2-3) 行動決定機構部 3 2の構成
行動決定機構部 3 2は、 状態認識機構部 30から与えられる状態認識情報 S 1 1と、 感情 ·本能モデル機構部 3 1における各情動及び各欲求のパラメータ値と 、 予めメモリ 1 0 Aに格納された行動モデルと、 時間経過となどに基づいて次の 行動を決定し、 決定結果を行動決定情報 S 1 2として感情 ·本能モデル機構部 3 1及び行動生成機構部 3 3に出力する。
この場合、 行動決定機構部 3 2は、 次の行動を決定する手法として、 図 4に示 すような 1つのノード (状態) NODE。から同じ又は他のどのノード NOD E。 〜NODEn に遷移するかを各ノード NODE。 〜NODEn 間を接続するァー グ ARC。 〜ARCn に対してそれぞれ設定された遷移確率 P。 〜Pn に基づい て確率的に決定する確率ォートマトンと呼ばれるアルゴリズムを用いる。
より具体的には、 メモリ 1 OAには、行動モデルとして、各ノード NODE。 〜 NODEn ごとの図 5に示すような状態遷移表 40が格納されており、 行動決定 機構部 3 2がこの状態遷移表 40に基づいて次の行動を決定するようになされて いる。
ここで状態遷移表 40においては、 そのノード NODE。 〜NODEn におい て遷移条件とする入力イベント (状態認識機構部 30の認識結果) が 「入カイべ ント」 の行に優先順に列記ざれ、 その条件についてのさらなる条件が 「データ名 」 及び 「データ範囲」 の行における対応する列に記述されている。
従って図 5の状態遷移表 40で定義されたノード NODE10。 では、 「ボールを 検出した (BAL L)」 という認識結果が与えられた場合に、 当該認識結果と共に 与えられるそのボールの 「大きさ (S I Z E)」 「0力 ら 1 000の範囲 (0 1 000)」 であることや、 「障害物を検出 (OB STACLE)」 という認識結 果が与えられた場合に、 当該認識結果と共に与えられるその障害物までの 「距離 (D I STANCE)] 力 S 「0力、ら 1 000の範囲 (0 1 000)」 であること が自己又は他のノードに遷移するための条件となっている。
またこのノード NODE では、認識結果の入力がない場合においても、行動 決定機構部 3 2が周期的に参照する感情 ·本能モデル機構部 3 1の各情動及び各 欲求のパラメータ値のうち 「喜び(J OY)」、 「驚き (SUPR I S E)」又は 「悲 しみ (SUDNE S S)」 のいずれかの情動のパラメータ値が 「50力、ら 1 00の 範囲 (50 1 00 )」 であるときには自己又は他のノードに遷移することがで さる。
さらに状態遷移表 40では、 「他のノードへの遷移確率」の欄における 「遷移先 ノード」 の列にそのノード NOD E NODEn から遷移できるノード名が列 記されると共に、 「入力イベント名」、 「データ値」 及び 「データの範囲」 の各行に 記述された全ての条件が揃った場合におけるそのノード NODE NODEn への遷移確率が「他のノードへの遷移確率」の欄におけるそのノード NODE NODEn の行に記述され、 このとき出力される行動又は動作が 「出力行動」 の 行に記述される。 なお 「他のノードへの遷移確率」 の欄における各行の遷移確率 の和は 50 〔%〕 となっている。
従ってこの例のノード NODE 100 では、 例えば 「ボールを検出 (BAL L)」 し、 そのボールの 「大きさ (S I Z E)」 「0力 ら 1 000の範囲 (0 1 00 0)」 であるという認識結果が与えられた場合には、 「30 〔%〕」 の確率で 「ノ一 ド N〇DE12 (n o d e 1 20)」 に遷移でき、 そのとき 「ACT I ON 1 」 の行動又は動作が出力されることとなる。
そして行動モデルは、 このような状態遷移表 40として記述されたノード NO DE。 NODEn がいくつも繋がるようにして構成されている。
かく して行動決定機構部 3 2は、 状態認識機構部 30から状態認識情報 S 1 1 が与えられたときや、 最後に行動を発現してから一定時間が経過したときなどに 、 メモリ 1 0 Aに格納されている行動モデルのうちの対応するノード NOD E。 〜NODEn の状態遷移表 40を利用して次の行動や動作 (「出力行動」 の行に記 述された行動又は動作) を確率的に決定し、 決定結果を行動決定情報 S 1 2とし て感情 ·本能モデル機構部 3 1及び行動生成機構部 3 3に出力する。
(2- 3) 行動生成機構部 3 3の処理
そして行動生成機構部 3 3は、 この行動計画に基づいて必要な各ァクチユエ一 タ 2 1 A〜2 1 Nに対する制御信号 S 1 0 A〜S 1 0 Nを生成し、 これら制御信 号 S 1 0A〜S 1 0 Nに基づいて当該必要な各ァクチユエータ 2 1 A〜 2 1 Nを 駆動制御することにより、 行動決定機構部 3 2により決定された行動をぺットロ ボット 1に実行させる。
また行動生成機構部 3 3は、 行動決定機構部 3 2から 「吠える」、 「目の LED を点滅させる」 といった行動決定情報 D 2が与えられると、 所定の音声信号 S 9 をスピーカ 20に送出することにより当該音声信号 S 9に基づく音声を出力させ 、 又は 「目」 の位置に設けられた LEDに駆動電圧を印加し若しくは駆動電圧の 印加を停止することにより当該 LEDを点滅させる。
このようにしてコントローラ 1 0は、 外部センサ部 1 9から与えられる外部情 報信号 S 5及び内部センサ部 1 4から与えられる内部情報信号 S 8等に基づいて ぺットロボット 1が自律的に行動し得るように各ァクチユエータ 2 1 A〜2 1 N や音声出力等を制御する。
(2-4) 行動制御機構部 34の処理
かかる構成に加えてこのぺットロボット 1の場合、 コントローラには行動生成 に関するもう 1つの機能として行動制御機構部 34が設けられている。 この行動 制御機構部 34には、 状況認識機構部 30からの状況認識情報 S 1 1及び外部セ ンサ部 1 9からの外部情報信号 S 5が与えられる。
そして行動制御機構部 34は、 状況認識機構部 30から 「人がいる」 といった 状況認識情報 S 1 1が与えられると、 このとき CCDカメラ 1 6から与えられる 画像信号 S 2に基づいてこの人の顔のパターンのデータ (以下、 これを顔パター ンデータと呼ぶ) を生成し、 当該顔パターンデータをメモリ 1 ◦ Aに格納する。 この際行動制御機構部 3 4は、 メモリ 1 0 Aに格納しょうとする顔パターンデ ータと、 先行してメモリ 1 O Aに格納された各顔パターンデータとを比較し、 出 現頻度の高い上位数人分の顔パターンデータのみをメモリ 1 O A内に残すように する。
また行動制御機構部 3 4は、 メモリ 1 0 Aに格納された各顔パターンデータに それぞれ対応させて、例えば図 6に示すようなその人に対する 「好感度」及び「嫌 悪度」 をそれぞれカウントするためのカウンタテーブルでなる感情テーブル 3 5 ( 3 5 A〜3 5 J ) を生成し、 これをメモリ 1 0 Aに格納する。
そして行動制御機構部 3 4は、 この後メモリ 1 0 Aに顔パターンデータが格納 されている人から受けた 「叩く」 や 「撫でる」 などの働きかけに応じて、 その人 の感情テーブル 3 5における対応する 「好感度」 又は 「嫌悪度」 のカウント値を 順次変化させる。
例えば行動制御機構部 3 4は、 メモリ 1 0 Aに格納されているいずれかの顔パ ターンデータに基づく顔のパターンと同じ顔の人が近くにいることを認識した状 態において、 「誉められた」、 「撫でられた」、 「充電してくれた」、 「遊んでくれた」 といった予め指定されている好意的な働きかけや話しかけが与えられた旨の状況 認識情報 S 1 1が与えられると、 当該認識した顔パターンの感情テーブル 3 5に おける 「好感度」 のカウント値を予め設定された量だけ増加させると共に、 一方
「嫌悪度」 のカウント値を予め設定された量だけ減少させる。
この場合この増加量は、 好意的な働きかけや話しかけの内容に応じて、 例えば
「誉められた」、 「撫でられた」 の場合には 「1」、 「充電してくれた」、 「遊んでく れた」 の場合には 「2」 というように、 働きかけや話しかけの内容に応じて設定 されている。
また行動制御機構部 3 4は、 メモリ 1 0 Aに格納されているいずれかの顔パタ ーンデータに基づく顔のパターンと同じ顔の人が近くにいることを認識した状態 において、 「叱られた」、 「叩かれた」、 「充電を要求しても無視された」、 「遊んで くれるのを要求しても無視された」 といった予め指定されている悪意的な働きか けが与えられた旨の状況認識情報 S 1 1が与えられると、 当該認識した顔パター ンの感情テーブル 3 5における 「嫌悪度」 のカウント値を予め設定された量だけ 増加させると共に、 一方 「好感度」 のカウント値を予め設定された量だけ減少さ せる。
この場合においてもこの増加量は、 好意的な働きかけや話しかけの内容に応じ て、 例えば 「叱られた」、 「叩かれた」 の場合には 「1」、 「充電を要求しても無視 された」、 「遊んでくれるのを要求したが無視された」 の場合には 「2」 というよ うに、 働きかけや話しかけの内容に応じて設定されている。
このようにして行動制御機構部 3 4は、 出現頻度の高い数人について 「好感度 」 及び 「嫌悪度」 を感情テーブル 3 5を用いてカウントする。
ここで行動制御機構部 3 4は、 このような感情テーブル 3 5の作成及びその更 新を図 7に示す感情テーブル作成 ·更新処理手順 R T 1に従って行う。
すなわち行動制御機構部 3 4は、 状態認識機構部 3 0から 「人がいる」 との認 識結果が与えられると、 この感情テーブル作成 ·更新処理手順 R T 1をステップ S P 1において開始し、 続くステップ S P 2に進んで C C Dカメラ 1 6力 らの画 像信号 S 2に基づいて対象の顔パターンを認識する。
続けて行動制御機構部 3 4は、 ステップ S P 3に進んで、 ステップ S P 2で認 識した対象の顔パターンと、 メモリ 1 0 Aに格納されている各顔パターンデータ に基づく顔パターンと比較し、 同一の顔パターンがあるか否を判断する。
そして行動制御機構部 3 4は、 このステップ S P 3において否定結果を得ると ステップ S P 4へ進み、 新たに作成した感情テーブル 3 5について、 当該新規の 顔パターンに対する感情テーブル 3 5を作成し、 これを対応する顔パターンデー タと共に、 予めメモリ 1 0 Aに格納されている上位 1 0人分の顔パターンデータ 及び感情テ一ブル 3 5のうち使用頻度の最も低!/、顔パタ一ンデータ及び感情テー ブル 3 5と入れ換えるようにメモリ 1 0 Aに格納した後ステップ S P 6へ進む。 なおこの際行動制御機構部 3 4は、 感情テーブル 3 5における 「好感度」 及び 「嫌悪度」 の各力ゥント値をそれぞれ予め定められた所定の所期値に設定する。 これに対して行動制御機構部 3 4は、 ステップ S P 3において肯定結果を得る とステップ S P 5に進んで、 対応する感情テーブル 3 5を読み出した後、 ステツ ブ S P 6へ進む。
そして行動制御機構部 3 4は、このステップ S P 6において、 「誉める」及び「叱 る」 といった話かけや、 「撫でる」 及び 「叩く」 といった働きかけがあつたか否か 判断し、 否定結果を得るとステップ S P 1 0に進んでこの感情テーブル作成 ·更 新処理手順 R T 1を終了する。
これに対して行動制御機構部 3 4は、 ステップ S P 6において肯定結果を得る と、 ステップ S P 7に進み、 その働きかけが 「誉める」 及び 「撫でる」 といった 予め定められた好意的な働きかけであるか否かを判断する。
そして行動制御機構部 3 4は、 このステップ S P 7において肯定結果を得ると ステップ S P 8に進んで、 ステップ S P 4において作成した新規の感情テーブル 3 5又は、 ステップ S P 5において読み出した感情テーブル 3 5内の 「好感度」 のカウント値をその人から受けた働きかけの応じた値だけ上げると共に、 「嫌悪 感」 のカウント値をこれに応じた値だけ下げ、 この後ステップ S P 1 0に進んで この感情テーブル作成 ·更新処理手順 R T 1を終了する。
これに対して行動制御機構部 3 4は、 ステップ S P 7において否定結果を得る とステップ S P 9に進んで、 ステップ S P 4において作成した新規の感情テ一ブ ル 3 5又はステップ S P 5において読み出した感情テーブル 3 5内の 「好感度」 のカウント値をその人に応じた働きかけに応じて値だけ下げると共に、 「嫌悪感 」 のカウント値をこれに応じた値だけ上げ、 この後ステップ S P 1 0に進んでこ の感情テーブル作成 ·更新処理手順 R T 1を終了する。
このようにして行動制御機構部 3 4は、 感情テーブル 3 5を作成すると共に、 当該感情テーブル 3 5をその人からの働きかけに応じて順次更新する。
一方行動制御機構部 3 4は、 このような処理と同時並行して図 8に示す行動制 御処理手順 R T 2に従ってぺッ トロボット 1の行動生成を制御する。 すなわち行動制御機構部 34は、 電源投入後、 この行動制御処理手順 RT 2を ステップ S P 1 1において開始し、 続くステップ S P 1 2及びステップ S P 1 3 において、 状況認識機構部 30から与えられる状況認識情報 S 1 1に基づいて、 音声による呼びかけがあつたか否か及び周囲に人がいるか否かを順次判断する。 そして行動制御機構部 34は、 これらステップ S P 1 2及びステップ S P 1 3の いずれかにおいて肯定結果を得るまでステップ S P 1 2— S P 1 3 _S P 1 2の ループを繰り返す。
そして行動制御機構部 34は、 やがてステップ S P 1 2において肯定結果を得 ると、 ステップ S P 1 4に進んで音声の発生方向を特定した後ステップ S P 1 6 に進む。 また行動制御機構部 34は、 ステップ S P 1 3において肯定結果を得る と、 ステップ S P 1 5に進んで状況認識機構部 30により認識された人の方向を 特定した後ステップ S P 1 6に進む。
次いで行動制御機構部 34は、 このステップ S P 1 6において、 呼びかけた人 又は状況認識機構部 30により認識された人 (以下、 これらをまとめて対象と呼 ぶ) に向かってぺッ トロボッ ト 1が移動するように行動決定機構部 3 2を制御す る。
実際上このような制御は、 図 4に示す確率ォートマトンの対応するノード NO DEX (例えば 「歩く」) への遷移確率 1^ を 1 00 〔%〕 とし、 他のノード NO DE2 〜NODEn への遷移確率を 0 〔<½〕 とすることにより行うことができる 続いて行動制御機構部 34は、 ステップ S P 7に進んで距離センサ 1 8からの 距離測定信号 S 1 4に基づいて対象との距離を測定し、 この後ステップ S P 1 8 に進んで当該距離が予め設定された所定距離に到達し、 又は対象の顔を識別可能 な範囲に達したか否かを判断する。
行動制御機構部 34は、 このステップ S P 1 8において否定結果を得るとステ ップ S P 1 6に戻り、 この後ステップ S P 1 8において肯定結果を得るまでステ ップ S P 1 6— S P 1 7— S P 1 8— S P 1 6の/レープを繰り返す。 そして行動制御機構部 3 4は、 やがてステップ S P 1 8において肯定結果を得 ると、 ステップ S P 1 9に進んで、 図 9に示す行動決定処理手順 R T 3を実行す る。
実際上、 行動制御機構部 3 4は、 行動制御処理手順 R T 2のステップ S P 1 9 に進むとこの行動決定処理手順 R T 3 (図 9 ) をステップ S P 3 1において開始 し、 続くステップ S P 3 2において、 C C Dカメラ 1 6からの画像信号 S 2に基 づいて対象の顔パターンを認識する。
続けて行動制御機構部 3 4は、 ステップ S P 3 3に進んで、 ステップ S P 3 2 において認識した対象の顔パターンと、 メモリ 1 0 Aに格納されている各顔パタ ーンデータに基づく顔パターンと比較する。
そして行動制御機構部 3 4は、 対象の顔パターンがメモリ 1 O Aに格納された いずれかの顔パターンデータに基づく顔パターンと一致した場合には、 メモリ 1 ◦ Aに格納されている対応する感情テーブル 3 5内の 「好感度」 及び 「嫌悪度」 の各力ゥント値をそれぞれ読み出す。
続けて行動制御機構部 3 4は、 ステップ S P 3 4に進んで、 かかる 「好感度」 のカウント値と、 「嫌悪度」のカウント値に基づいてその人を好きか嫌いかを決定 する。 実際上この決定は、 「好感度」 のカウント値が 「嫌悪度」 のカウント値より も大きい又は同じである場合には好ましい対象であると判断し、これに対して「嫌 悪度」 が 「好感度」 よりも大きい場合には嫌いな対象であると判断することによ り行われる。
さらに行動制御機構部 3 4は、 ステップ S P 3 5に進んで、 ステップ S P 3 6 において得た判断結果に基づいて感情 ·本能モデル機構部 3 1が保持する情動の パラメータ値及び欲求のパラメータ値の変化量を変更すると共に、 行動決定機構 部 3 2が保持する状態遷移表の遷移確率を変更する。
そして行動制御機構部 3 4は、 感情 ·本能モデル機構部 3 1が保持する情動の パラメータ値及び欲求のパラメ一タ値を変化させる場合、 かかる判断結果に応じ てこれらパラメータ値の、 「叩かれた」 や 「撫でられた」等の働きかけに対する変 化量を変更する。
具体的に行動制御機構部 3 4は、 上述のように感情 ·本能モデル機構部 3 1が 情動のパラメータ値を次式
E 〔 t + l〕 = E 〔 t〕 + K e X 厶 E 〔 t〕 (1 ) を用いて算出し、 また要求のパラメータ値を次式
I 〔k + l〕 = 1 〔k〕 + k j X Δ I 〔k〕 (2 ) を用いて算出するため、 これら式中の係数 及び K i を変更することにより、 これら式から算出して得るパラメータ値の変化量をかかる判断結果に応じて変更 することができる。
これにより行動制御機構部 3 4は、 好ましい対象であると判断した場合におい て、 例えば 「撫でられた」 といった認識結果を得ると、 「喜び」 の情動のパラメ一 タ値を算出する式の係数 Ke を大きく設定し、 一方 「怒り」 の情動のパラメータ 値を算出する式の係数 Ke を小さく設定することにより、 この好ましい対象の 「 喜び」 のパラメータ値を通常 「1」 しか上がらないところを 「2」 上げることが でき、 反対に 「怒り」 のパラメ一タ値を通常 「1」 下がるところを 「0 . 5」 し か下がらないようにすることができる。
これに対して行動制御機構部 3 4は、 嫌いな対象であると判断した場合におい ては、 例えば 「叩かれた」 といった認識結果を得ると、 「喜び」 の情動のパラメ一 タ値を算出する式の係数 Ke を大きく設定すると共に、 「怒り」の情動のパラメ一 タ値を算出する式の係数 Ke も大きく設定することにより、 この嫌いな対象の 「 喜び」 のパラメータ値を通常 「1」 しか下がらないところを 「2」 下がることが でき、 また 「怒り」 のパラメータ値を通常 「1」 しか上がらないところを 「2」 上がるようにすることができる。 一方行動制御機構部 3 4は、 行動決定機構部 3 2が保持する行動モデルの遷移 確率を変更し、 具体的に上述のように働きかけがあると、 図 5に示すような、 状 態遷移表の 「他のノードへの遷移確率」 の欄に記述された遷移確率を、 かかる判 断結果に応じて変更するようになされている。
そして行動制御機構部 3 4は、 好ましい対象であると判断した場合において、 例えば 「喜び」 の行動及び動作を行うノードへ遷移できる遷移確率を 「5 0 〔% 〕」 の確率から 「8 0 〔%〕」 の確率へ上げ、 一方嫌いな対象であると判断した場 合において、 例えば 「喜び」 の行動及び動作を行うノードへ遷移できる遷移確率 を 「5 0 〔%〕」 の確率から 「3 0 [%) j の確率へ下げることにより、 当該判断 結果に応じて生成する行動又は動作を変更することができる。
これにより実際上行動決定機構部 3 2は、 図 1 0に示すように、 好ましい対象 であると判断した場合、 例えば 「怒る」 ノード 5 1から 「喜ぶ」 ノード 5 2へ遷 移する遷移確率 P 12と、 「喜ぶ」 ノード 5 2から自己の 「喜ぶ」 ノード 5 2 へ遷移 する遷移確率 P 22と、 「歩く」 ノード 5 3から 「喜ぶ」 ノード 5 2 へ遷移する遷移 確率 P 32とをそれぞれ上げて、 「喜ぶ」 とういう行動を生成しやすくする。
また行動決定機構部 3 2は、 嫌いな対象であると判断した場合、 例えば 「怒る 」 ノード 5 1から自己の 「怒る」 ノード 5 1 へ遷移する遷移確率 P uと、 「喜ぶ 」 ノード 5 2から 「怒る」 ノード 5 1 へ遷移する遷移確率 P 21と、 「歩く」 ノード 5 3から 「怒る」 ノード 5 1 へ遷移する遷移確率 P 31とをそれぞれ上げて、 「怒 る」 とういう行動を生成しやすくする。
そして行動制御機構部 3 4は、 この後ステップ S P 3 5に進んで、 この行動決 定処理手順 R T 3を終了し、 さらにこの後メインルーチンである行動制御処理手 順 R T 2のステップ S P 2 0 へ進む。
そして行動制御機構部 3 4は、 この後このステップ S P 2 0において、 ステツ プ S P 1 9における決定結果に基づいてその対象が好ましい対象か否かを判断す る。
具体的に行動制御機構部 3 4は、 このステップ S P 2 0において肯定結果を得 ると、 ステップ S P 2 1に進んでぺットロボット 1が歌を歌ったり、 尻尾 5 Aを 振ったりして機嫌の良さをァピールしながら対象に近づいて行く行動を起こすよ うに行動決定機構部 3 2を制御する。
この際行動制御機構部 34は、 「好感度」及び「嫌悪度」 の差分が大きくなるほ どより機嫌が良く見える (例えばァクチユエータ 2 1 A~2 1 Nの回転速度を変 更させて尻尾 5 Aの振り方を速くさせたり、 近づく速度を速くさせる) ように、 行動決定機構部 32や行動生成機構部 33を制御する。
またこのとき行動制御機構部 34は、 ステップ S P 3 5において、 好ましい対 象か否かとういう判断結果に応じて情動のパラメータ値及び欲求のパラメータ値 の変化量や、 状態遷移表の遷移確率を変更したことにより、 ペットロボット 1の 「喜び」 による行動及び動作を発現しやすくしている。
これに対して行動制御機構部 34は、 ステップ S P 20において否定結果を得 ると、 ステップ S P 22に進んでぺットロボット 1が対象から遠ざかるように行 動決定機構部 3 2を制御する。
(3) 行動制御機構部 34における顔パターンの学習及び認識処理
ここで行動制御機構部 34における顔パターンの学習及び認識処理の方法につ いて説明する。
まずこのペットロボット 1の場合、 行動制御機構部 34における顔パターンの 学習及び認識処理方法として特開平 6— 8 9344号公報に開示されている方法 を用いる。 具体的には、 行動制御部機構部 34内に図 7に示すような顔パターン の学習及び認識処理のための顔パターン学習及び認識処理部 40が設けられてい る。
そしてこの顔パターン学習及び認識処理部 40では、 CCDカメラ 1 6から与 えられる画像信号 S 2のうちの人の顔部分を RAM (R a n d om Ac c e s s Memo r y) 及びアナログノディジタル変換器からなるメモリ部 4 1において例えば 8ビットで量子化し、 得られた X y平面上の 2次元輝度情報で なる顔画像データ I (x, y ) を 1フレーム分ずつメモリ部 4 1の RAMに記憶 する。
前処理部 4 2は、 メモリ部 4 1に記憶された顔画像データ I (x, y) に対し て例えばエッジの検出などの前処理を行うことにより、 顔画像 (顔画像データ I ( X , y )) の特徴量として顔パターン P ( x , y ) を取り出し、 これを比較処理 部 4 3に送出する。
比較処理部 4 3は、 顔パターン P ( x , y ) の基本モデルとして予め関数学習 記憶部 4 4に記憶されている r個の各関数 F i ( x , y ) ( i - 1 , 2, ……, r ) のそれぞれについて、 顔パターン P (x , y ) に対する相関量でなる寄与度 X i を算出する。
また比較処理部 4 3は、 この算出結果に基づいて最大の寄与度 ΧΜΛΧ ( 1 ≤Μ AX≤ r ) を有する関数 FMAX (x , y) を検出し、 この関数 (x , y) の寄与度 XMAX が最大又は極大点となるまで関数 FMAX (x , y) 又は顔パター ン P (x , y) を変形させるようにして、 関数 FMAX (x , y ) と顔パターン P (x, y ) との差異量でなる変形量 M (x , y ) を算出する。
この変形量 M (x , y ) は、 関数学習記憶部 4 4及び変形量分析部 4 5に与え られる。 また関数学習記憶部 4 4には顔パターン P (x , y) も与えられる。 関数学習記憶部 4 4は、 例えばニューラルネッ トワークにより構成され、 上述 のように顔パターン P (x, y ) の基本モデルとして、 r個の各関数 F i (x , y ) ( i = 1 , 2, ……, r ) を記憶している。
そして関数学習記憶部 4 4は、 供給される変形量 M (x, y ) を用いて関数 F MAX (x, y) 又は顔パターン P (x, y ) を変形し、 x y平面上における変形 した関数 FMAX ' (x, y ) と、 変形した顔パターン (x , y) とに基づい て、 関数 FMAX ( x , y) を更新する。
一方変形量分析部 4 5は、 比較処理部 4 3から与えられる変形量 M (x , y ) を分析し、 画面内における顔パターン P (x , y ) の上下左右のずれ、 回転によ る位置ずれ、 又は遠近や C CDカメラの拡大縮小率などによる大きさの違いに関 する成分を変形量 M ( X , y) から除去することにより新たな変形量 M t d r ( x, y) を生成し、 これを人物情報学習記憶部 4 6に送出する。
人物情報学習記憶部 46は、 動作モードが学習モードである場合、 供給される 変形量 Mt d r (x, y) を、 例えば人物 (顔) に付与された番号 t ( t = l, 2, ……, T ; Tは人物の顔の数) の関数である人物情報 K ( t ) と対応付けて (例えば同じ人物 tの顔画像における複数の変形量 M t d r (x, y),Mt d r' (x, y), Mt d r " (x, y), ……の平均値などをその人物情報 K ( t) と して)、 図示しない内部メモリに格納する。
すなわち人物情報学習記憶部 4 6は、 動作モードが学習モードである場合、 変 形量分析部 45から出力される人物 tの変形量 M t d r (x, y) そのものを人 物情報として記憶し、 この後同一人物 tの変形量 M t d r (x, y ) が入力する ごとにその変形量 M t d r (x, y ) に基づいて人物情報 K ( t ) を更新する。 さらに人物情報学習記憶部 46は、 動作モードが認識モードである場合、 変形 量分析部 45から与えられる変形量 M t d r (x, y) と、 その内部メモリに予 め記憶されている各人物情報 K ( t ) との例えばユークリッド距離をそれぞれ算 出し、 その距離を最も短くする人物情報 K ( t) における番号 tを識別結果とし て出力する。
そしてこのように構成された顔パターン学習及び認識処理部 40では、 変形量 分析部 4 5において変形量 M (x, y ) を分析して、 当該変形量 M (x, y) に 含まれる顔パターン P (x, y) の平行移動成分や、 回転移動成分及び拡大縮小 成分を取り除き、 いわば新たな変形量 Mt d r (x, y) に基づいて、 人物情報 学習記憶部 46に記憶されている標準パターンを更新するため、 高い認識率を得 ることができる。
(4) 本実施の形態の動作及び効果
以上の構成において、 このぺットロボット 1は、 出現頻度の高い数人分の顔パ ターンデータを記憶すると共に、 新規の顔パターンデータを得るとこれら数人分 の顔パターンデータの内出現頻度の最も低い顔パターンデータに換えて新規の顔 パターンデータを記憶する。 またぺットロボッ ト 1は、 かかる顔パターンデータにそれぞれ対応させてその 人の当該ぺッ トロボット 1に対する働きかけや話しかけ等の入力の履歴に応じて
「好感度」 及び 「嫌悪度」 をカウントする。
そしてペッ トロボット 1は、 呼ばれたときや、 周囲に人がいることを検出した ときにはその人に近づき、 その人に対する 「好感度」 が 「嫌悪度」 よりも閾値よ りも大きいときには好意を表す仕草をしながらその人に近づく。
これに対してペッ トロボッ ト 1は、 その人に対する 「好感度」 が 「嫌悪度」 よ りも閾値未満であったり、 その人の顔パターンデータを記憶していない場合には その人から遠ざかる。
従ってこのぺッ トロボッ ト 1は、 当該ぺッ トロボット 1に対する働きかけや話 しかけ等の入力履歴に基づいて、 「好感度」 の高い人には近づき、 「好感度」 が低 い人や知らない人からは遠ざかるといったあたかも本物の動物のような生物的に 自然な行動や動作を行うため、 ユーザに対して親近感や満足感を与えることがで さる。
以上の構成によれば、 外部センサ部 1 9からの外部情報信号 S 5に基づいて人 を検出し、 その人の 「好感度」 が 「嫌悪度」 よりも所定値以上高いか以下かを判 断し、 高い場合にはその人に近づき、 これ以外の場合にはその人から遠ざかるよ うにしたことにより、 生物的に自然な行動や動作を発生させてユーザに対して親 近感ゃ満足感を与えることができ、 かく して娯楽性を向上させ得るペットロボッ トを実現できる。
( 5 ) 他の実施の形態
なお上述の実施の形態においては、 本発明を図 1及び図 2のように構成された ぺッ トロボッ トに適用するようにした場合について述べたが、 本発明はこれに限 らず、 この他種々の構成のロボッ ト装置及びその制御方法に広く適用することが できる。
また上述の実施の形態においては、 「誉める」 及び「叱る」 といった話しかけや 、 「撫でる」 及び 「叩く」 といった働きかけに基づいて 「好感度」 及び 「嫌悪度」 をカウントするようにした場合について述べたが、 本発明はこれに限らず、 これ 以外の例えば 「遊んでくれた」、 「無視された」 などをも 「好感度」 及び 「嫌悪度 」 をカウントする要素とするようにしても良い。
さらに上述の実施の形態においては、 「好感度」 及び 「嫌悪度」 をカウントする 対象 (人) をペットロボッ ト 1が自ら選択するようにした場合について述べたが
、 本発明はこれに限らず、 例えばユーザによって 「好感度」 及び 「嫌悪度」 を力 ゥントする対象を設定できるようにしても良い。
さらに上述の実施の形態においては、 ユーザから音声による呼びかけられたと きに当該ユーザに近づくようにした場合について述べたが、 本発明はこれに限ら ず、 例えば超音波や、 指令を音で表現して出力するサウンドコマンダを用いて呼 びかけられたときにもユーザに近づくようにしても良い。
さらに上述の実施の形態においては、 周囲に人がいるのを C C Dカメラ 1 6か らの画像信号 S 2に基づいて検出するようにした場合について述べたが、 本発明 はこれに限らず、 このような視覚情報以外の例えば匂い又は周囲温度等に基づい て周囲にユーザを検出できるようにしても良い。
さらに上述の実施の形態においては、 ユーザの認識を顔パターンに基づいて行 うようにした場合について述べたが、 本発明はこれに限らず、 これに加えて又は これ以外に 「声」、 「匂い」、 「周囲温度」、 「体格」 等に基づいてユーザを認識でき るようにしても良い。 この場合にはこれら 「声」、 「匂い」、 「周囲温度」、 「体格」 等のデータをぺットロボット 1が予め記憶しておくことで実現できる。
さらに上述の実施の形態においては、 「好感度」 が 「嫌悪度」 よりも所定値以上 大きいときに近づき、 これ以外の場合には遠ざかるといった、 「好感度」 及び 「 嫌悪度」 に基づく行動パターンが 2通りしかない場合について述べたが、 本発明 はこれに限らず、 例えば 「嫌悪度」 が 「好感度」 よりも所定値以上大きいときに は走って逃げてゆくような行動パターンや、 これ以外の 「好感度」 及び 「嫌悪度 」 に基づく行動パターンを複数加えるようにしても良い。
さらに上述の実施の形態においては、 ペットロボッ ト 1が近づいたり又は遠ざ かる対象が人である場合について述べたが、 本発明はこれに限らず、 色や音、 物 体、 動物、 匂い等に反応して所定の行動や動作を行うようにしても良い。
さらに上述の実施の形態においては、 外部から情報を取り込む外部情報取込み 手段としての外部センサ部 1 9をマイクロホン 1 5、 C C Dカメラ 1 6、 タツチ センサ 1 7及び距離センサ 1 8により構成するようにした場合について述べたが 、 本発明はこれに限らず、 これに他のセンサ等を加えて又はこれ以外のセンサ等 により外部センサ部 1 9を構成するようにしても良い。
さらに上述の実施の形態においては、 外部センサ部 1 9からの外部情報信号 S 5に基づいて特定の対象 (人) を検出する検出手段と、 当該検出手段により対象 が検出されたときに、 当該対象が所定条件 ( 「好感度」 が 「嫌悪度」 よりも所定 値以上高い) を満たすか否かを判断する判断手段とを 1つのコントローラ 1 0に より構成するようにした場合について述べたが、 本発明はこれに限らず、 これら 検出手段及び判断手段を別体に設けるようにしても良い。
さらに上述の実施の形態においては、 コントローラ 1 0の行動制御機構部 3 4 の制御のもとに動作を発生する動作発生手段を、 コントローラ 1 0の行動決定機 構部 3 2及び行動生成機構部 3 3と、 複数のァクチユエータ 2 1 A〜2 1 N、 ス ピー力 2 0及び L E Dにより構成するようにした場合について述べたが、 本発明 はこれに限らず、 この他種々の構成を広く適用することができる。
さらに上述の実施の形態においては、 「好感度」 が 「嫌悪度」 よりも所定値以上 大きいときに近づき、 これ以外の場合には遠ざかるといった行動を起こすように した場合について述べたが、 本発明はこれに限らず、 例えば 「吠える」 や 「光を 点滅させる」 などの動作を行わせるようにしても良い。 この場合において、 例え ば 「好感度」 及び 「嫌悪度」 の差分が大きくなるほどより機嫌の悪い仕草をした り、 遠ざかる速度を速めたりするようにしても良い。
さらに上述の実施の形態においては、 近づいたり又は遠ざかったりする条件が 「好感度」 が 「嫌悪度」 よりも所定値以上大きいときである場合について述べた 力 本発明はこれに限らず、 例えば登録されているか否かなど、 この他種々の条 件に基づいて反応するように構築するようにしても良い。
さらに上述の実施の形態においては、 働きかけや話かけがあって感情テーブル
3 5内の感情のカウント値が更新される場合について述べたが、 本発明はこれに 限らず、 時間が経つにつれ感情テーブル 3 5内のカウント値が自動に更新されて
、 初期設定時のカウント値に近づくようにしても良い。 この場合ペットロボッ ト 1は、 ある顔パターンの人に対して特別に持った好感や嫌悪という感情が時間と 共に薄れていくようになる。
さらに上述の実施の形態においては、 「好感度」 のカウント値及び 「嫌悪度」 の カウント値に基づいて行動パターンを決定する場合について述べたが、 本発明は これに限らず、 「恐怖度」、 「驚き度」、 「怒り度」、 「悲しみ度」等の他の感情のカウ ント値に基づいて行動パターンを決定するようにしても良い。
この場合行動制御機構部 3 4は、 感情テーブル 3 5の各カウント値を本実施の 形態で述べた 「好感度」 のように対象に近づくためのカウント値と、 「嫌悪度」 の ように対象から遠ざかるためのカウント値とに分類し、 当該分類したカウント値 をそれぞれ総合し、 これら総合したカウント値に基づいて行動パターンを決定す る。
さらに上述の実施の形態においては、 状態遷移のノードとして 「怒る」、 「喜ぶ 」 及び 「走る」 を用いる場合について述べたが、 本発明はこれに限らず、 「悲しむ 」、 「驚く」 といった他の情動や、 「泣く」、 「飛び跳ねる」 といった他の動作を行う ノードを用いて、 それらのノード間で遷移確率を変更するようにしても良い。 さらに上述の実施の形態においては、 検出した人に対する好き嫌いに応じて行 動モデルにおける対応する遷移確率を変化させるようにした場合について述べた 力 本発明はこれに限らず、 例えば好きな人用の行動モデルと、 嫌いな人用の行 動モデルとを用意し、 好きな人である場合には好きな人用の行動モデル (例えば 「喜び」 を表す行動が発現し易く形成されている) を用いると共に嫌いな人であ る場合には嫌いな人用の行動モデル (例えば 「嫌悪」 を表す行動が発現し易く形 成されている) を用いるなどのように、 行動モデルを複数用意しておき、 好き嫌 いに応じて行動モデルを入れ換えるようにしても良い。 産業上の利用可能性
本発明は、 ぺッ トロボットに適用することができる。

Claims

請 求 の 範 囲
1 . 外部から情報を取り込む外部情報取込み手段と、
上記外部情報取込み手段により取り込まれた上記情報に基づいて特定の対象を 検出する検出手段と、
上記検出手段により上記対象が検出されたときに、 当該対象が所定条件を満た すか否かを判断する判断手段と、
上記判断手段の判断結果に基づいて所定の動作を発生させる動作発生手段と を具えることを特徴とするロボッ ト装置。
2 . 上記動作発生手段は、
上記対象が上記条件を満たしている場合には、 上記対象検出手段により検出さ れた上記対象に近づく上記動作を発生し、 上記対象が上記条件を満たしていない 場合には、 当該対象から遠ざかる上記動作を発生する
ことを特徴とする請求の範囲第 1項に記載のロボット装置。
3 . 上記動作発生手段は、
上記外部情報取込み手段により取り込まれた上記情報に基づいて上記外部の状 態を認識する状態認識部と、
少なく とも喜び及び嫌悪の各情動の強さをそれぞれパラメータ値として保持し 、 上記状態認識部の認識結果に基づいて対応する上記情動の上記パラメ一タ値を 変化させる感情モデル部と、
上記状態認識部の認識結果及び上記感情モデル部における各上記情動の強さを 表す上記パラメ一タ値に基づいて上記動作を発生させる動作発生部と、
上記判断手段の判断結果に基づいて、 必要に応じて上記感情モデル部の設定を 変更する変更手段と
を具え、 上記変更手段は、
上記対象が上記条件を満たしている場合には、 上記喜びの情動の強さを表す上 記パラメータ値が増加し易くなるように上記感情モデル部の設定を変更する一方 、 上記対象が上記条件を満たしていない場合には、 上記嫌悪の情動の強さを表す 上記パラメータ値が増加し易くなるように上記感情モデル部の設定を変更する ことを特徴とする請求の範囲第 2項に記載のロボッ ト装置。
4 . 上記動作発生手段は、
上記外部情報取込み手段により取り込まれた上記情報に基づいて上記外部の状 態を認識する状態認識部と、
上記状態認識部の認識結果に基づいて次の上記動作を確率的に決定する動作決 定部と、
上記動作決定部により決定された上記動作を発生させる動作発生部と、 上記判断手段の判断結果に基づいて、 必要に応じて上記動作決定部の設定を変 更する変更手段と
を具え、
上記変更手段は、
上記対象が上記条件を満たしている場合には、 喜びを表す上記動作の選択確率 を上昇させるように上記動作決定部の設定を変更する一方、 上記対象が上記条件 を満たしていない場合には、 嫌悪を表す上記動作の選択確率を上昇させるように 上記動作決定部の設定を変更する
ことを特徴とする請求の範囲第 2項に記載のロボット装置。
5 . 外部から情報を取り込み、 当該情報に基づいて特定の対象を検出する第 1の ステップと、
上記対象が検出されたときに、 当該対象が所定条件を満たすか否かを判断する 第 2のステップと、 上記判断結果に基づいてロボット装置に所定の動作を発生させる第 3のステツ プと
を具えることを特徴とするロボット装置の制御方法。
6 . 上記第 3のステップでは、
上記対象が上記条件を満たしている場合には上記対象に近づく上記動作を発生 させ、 上記対象が上記条件を満たしていない場合には当該対象から遠ざかる上記 動作を発生させる
ことを特徴とする請求の範囲第 5項に記載のロボット装置の制御方法。
7 . 上記ロボット装置は、
上記外部情報取込み手段により取り込まれた上記情報に基づいて上記外部の状 態を認識する状態認識部と、
少なくとも喜び及び嫌悪の各情動の強さをそれぞれパラメータ値として保持し 、 上記状態認識部の認識結果に基づいて対応する上記情動の上記パラメ一タ値を 変化させる感情モデル部と、
上記状態認識部の認識結果及び上記感情モデル部における各上記情動の強さを 表す上記パラメ一タ値に基づいて上記動作を発生させる動作発生部と
を有し、
上記第 3のステップでは、
上記対象が上記条件を満たしている場合には、 上記喜びの情動の強さを表す上 記パラメータ値が増加し易くなるように上記感情モデル部の設定を変更する一方 、 上記対象が上記条件を満たしていない場合には、 上記嫌悪の情動の強さを表す 上記パラメータ値が増加し易くなるように上記感情モデル部の設定を変更する ことを特徴とする請求の範囲第 6項に記載の口ボット装置の制御方法。
8 . 上記ロボット装置は、 上記外部情報取込み手段により取り込まれた上記情報に基づいて上記外部の状 態を認識する状態認識部と、
上記状態認識部の認識結果に基づいて次の上記動作を確率的に決定する動作決 定部と、
上記動作決定部により決定された上記動作を発生させる動作発生部と を有し、
上記第 3のステップでは、
上記対象が上記条件を満たしている場合には、 喜びを表す上記動作の選択確率 を上昇させるように上記動作決定部の設定を変更する一方、 上記対象が上記条件 を満たしていない場合には、 嫌悪を表す上記動作の選択確率を上昇させるように 上記動作決定部の設定を変更する
ことを特徴とする請求の範囲第 6項に記載のロボット装置の制御方法。
PCT/JP2000/002987 1999-05-10 2000-05-10 Dispositif robotique et procede de commande associe WO2000067959A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/024,952 US6512965B2 (en) 1999-05-10 2001-12-19 Robot and control method for entertainment
US10/320,982 US6760646B2 (en) 1999-05-10 2002-12-17 Robot and control method for controlling the robot's motions

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP12930799 1999-05-10
JP11/129307 1999-05-10

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US09743301 A-371-Of-International 2001-04-09
US10/024,795 Division US6519506B2 (en) 1999-05-10 2001-12-19 Robot and control method for controlling the robot's emotions

Publications (1)

Publication Number Publication Date
WO2000067959A1 true WO2000067959A1 (fr) 2000-11-16

Family

ID=15006338

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/002987 WO2000067959A1 (fr) 1999-05-10 2000-05-10 Dispositif robotique et procede de commande associe

Country Status (2)

Country Link
US (1) US6512965B2 (ja)
WO (1) WO2000067959A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050559A (ja) * 2001-08-07 2003-02-21 Honda Motor Co Ltd 自律移動ロボット
JP2008044105A (ja) * 2007-10-29 2008-02-28 Fujifilm Corp ロボット及びその制御方法
JP2008076905A (ja) * 2006-09-22 2008-04-03 Univ Of Tokyo 感情判別方法
JP2008204479A (ja) * 2001-12-03 2008-09-04 Microsoft Corp 複数のキューを使用する複数の個人の自動検出および追跡のための方法およびコンピュータ可読な記憶媒体
JP2009072910A (ja) * 2008-12-22 2009-04-09 Nec Corp ロボット装置及びその制御方法
WO2012172721A1 (ja) * 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
WO2017175559A1 (ja) * 2016-04-08 2017-10-12 Groove X株式会社 人見知りする自律行動型ロボット
WO2018047802A1 (ja) * 2016-09-08 2018-03-15 Groove X株式会社 自然な距離感を保つ自律行動型ロボット
JP2018134735A (ja) * 2018-05-25 2018-08-30 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP2019162714A (ja) * 2016-08-29 2019-09-26 Groove X株式会社 音源の方向を認識するロボット
JPWO2018216710A1 (ja) * 2017-05-24 2020-04-09 Groove X株式会社 天球画像の歪みを補正する画像処理装置とそれを備える自律行動型ロボット
US11135727B2 (en) 2016-03-28 2021-10-05 Groove X, Inc. Autonomously acting robot that performs a greeting action

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6616464B1 (en) * 1999-05-10 2003-09-09 Sony Corporation Robot device
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
US7137861B2 (en) * 2002-11-22 2006-11-21 Carr Sandra L Interactive three-dimensional multimedia I/O device for a computer
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
US8588979B2 (en) * 2005-02-15 2013-11-19 Sony Corporation Enhancements to mechanical robot
US20110113672A1 (en) * 2009-11-19 2011-05-19 Larry Holmberg Remote controlled decoy
US20150138333A1 (en) * 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues
JP2015138147A (ja) * 2014-01-22 2015-07-30 シャープ株式会社 サーバ、対話装置、対話システム、対話方法および対話プログラム
JP2020064385A (ja) * 2018-10-16 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
EP3885013A4 (en) * 2018-11-21 2022-03-02 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104778A (ja) * 1993-10-07 1995-04-21 Fuji Xerox Co Ltd 感情表出装置
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4657104A (en) * 1983-07-23 1987-04-14 Cybermation, Inc. Concentric shaft mobile base for robots and the like
US5742738A (en) * 1988-05-20 1998-04-21 John R. Koza Simultaneous evolution of the architecture of a multi-part program to solve a problem using architecture altering operations
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
JP3364303B2 (ja) 1993-12-24 2003-01-08 株式会社小松製作所 作業機械の制御装置
JP2594880B2 (ja) 1993-12-29 1997-03-26 西松建設株式会社 自律走行型知能作業ロボット
US5798627A (en) 1995-01-04 1998-08-25 Gilliland; Malcolm T. Method for simultaneous operation of robot welders
US5963712A (en) * 1996-07-08 1999-10-05 Sony Corporation Selectively configurable robot apparatus
JP3952544B2 (ja) 1996-09-17 2007-08-01 株式会社東芝 分散システム
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
JP4143158B2 (ja) 1997-04-16 2008-09-03 聯華電子股▲ふん▼有限公司 データキャリア
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104778A (ja) * 1993-10-07 1995-04-21 Fuji Xerox Co Ltd 感情表出装置
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MASAHIRO FUJITA et al., "Reconfigurable Physical Agents", Proceedings of the Second International Conference on Autonomous Agents, 9 May, 1998 (09.05.98), pages 54-61. *
MASAHIRO FUJITA et al., "ROBOT Entertainment", Proceedings of the 6th Sony Research Forum, 27 November, 1996 (27.11.96), pages 234-239. *
TOSHIHIRO TAJIMA et al., "Kanjo wo motta Interactive Pet Robot", Extended Abstracts of the 16th Robotics Society in Japan, 18 September, 1998 (18.09.98), Vol. 1, pages 11-12. *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050559A (ja) * 2001-08-07 2003-02-21 Honda Motor Co Ltd 自律移動ロボット
JP4642287B2 (ja) * 2001-08-07 2011-03-02 本田技研工業株式会社 自律移動ロボット
JP2008204479A (ja) * 2001-12-03 2008-09-04 Microsoft Corp 複数のキューを使用する複数の個人の自動検出および追跡のための方法およびコンピュータ可読な記憶媒体
JP4607984B2 (ja) * 2001-12-03 2011-01-05 マイクロソフト コーポレーション 複数のキューを使用する複数の個人の自動検出および追跡のための方法およびコンピュータ可読な記憶媒体
JP2008076905A (ja) * 2006-09-22 2008-04-03 Univ Of Tokyo 感情判別方法
JP2008044105A (ja) * 2007-10-29 2008-02-28 Fujifilm Corp ロボット及びその制御方法
JP4633775B2 (ja) * 2007-10-29 2011-02-16 富士フイルム株式会社 ロボット及びその制御方法
JP2009072910A (ja) * 2008-12-22 2009-04-09 Nec Corp ロボット装置及びその制御方法
WO2012172721A1 (ja) * 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
JP5172049B2 (ja) * 2011-06-14 2013-03-27 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
US8583287B2 (en) 2011-06-14 2013-11-12 Panasonic Corporation Robotic system, robot control method and robot control program
US11135727B2 (en) 2016-03-28 2021-10-05 Groove X, Inc. Autonomously acting robot that performs a greeting action
WO2017175559A1 (ja) * 2016-04-08 2017-10-12 Groove X株式会社 人見知りする自律行動型ロボット
US11192257B2 (en) 2016-04-08 2021-12-07 Groove X, Inc. Autonomously acting robot exhibiting shyness
JPWO2017175559A1 (ja) * 2016-04-08 2018-04-12 Groove X株式会社 人見知りする自律行動型ロボット
GB2563786B (en) * 2016-04-08 2021-08-04 Groove X Inc Autonomously acting robot exhibiting shyness
CN109070330A (zh) * 2016-04-08 2018-12-21 Groove X 株式会社 认生的行为自主型机器人
GB2563786A (en) * 2016-04-08 2018-12-26 Groove X Inc Autonomous robot exhibiting shyness
JP2019162714A (ja) * 2016-08-29 2019-09-26 Groove X株式会社 音源の方向を認識するロボット
US11376740B2 (en) 2016-08-29 2022-07-05 Groove X, Inc. Autonomously acting robot that recognizes direction of sound source
JPWO2018047802A1 (ja) * 2016-09-08 2018-10-18 Groove X株式会社 自然な距離感を保つ自律行動型ロボット
WO2018047802A1 (ja) * 2016-09-08 2018-03-15 Groove X株式会社 自然な距離感を保つ自律行動型ロボット
JPWO2018216710A1 (ja) * 2017-05-24 2020-04-09 Groove X株式会社 天球画像の歪みを補正する画像処理装置とそれを備える自律行動型ロボット
JP7189620B2 (ja) 2017-05-24 2022-12-14 Groove X株式会社 天球画像の歪みを補正する画像処理装置とそれを備えるロボット
JP2018134735A (ja) * 2018-05-25 2018-08-30 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム

Also Published As

Publication number Publication date
US6512965B2 (en) 2003-01-28
US20020049515A1 (en) 2002-04-25

Similar Documents

Publication Publication Date Title
WO2000067959A1 (fr) Dispositif robotique et procede de commande associe
US6519506B2 (en) Robot and control method for controlling the robot&#39;s emotions
US6714840B2 (en) User-machine interface system for enhanced interaction
US7133744B2 (en) Information processing apparatus and method, program storage medium, and program
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP3714268B2 (ja) ロボット装置
WO2001039932A1 (fr) Robot, son procede de commande et procede d&#39;appreciation du caractere du robot
WO2000068879A1 (fr) Dispositif robot, son procede de commande et support d&#39;enregistrement
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
JPH10289006A (ja) 疑似感情を用いた制御対象の制御方法
JP2001277166A (ja) ロボット及びロボットの行動決定方法
JP2005199403A (ja) 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP3277500B2 (ja) ロボット装置
JP2001191281A (ja) 編集装置、編集方法及び記録媒体
JP7326707B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2003340760A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP2001157983A (ja) ロボット装置及びロボット装置の性格判別方法
JP2001157982A (ja) ロボット装置及びその制御方法
JP2001157980A (ja) ロボット装置及びその制御方法
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP2004130428A (ja) ロボット装置及びロボット装置の動作制御方法、記録媒体、並びにプログラム
WO2023037609A1 (ja) 自律移動体、情報処理方法、及び、プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

WWE Wipo information: entry into national phase

Ref document number: 09743301

Country of ref document: US