WO2000032361A1 - Robot, procede de commande de robot et support d'enregistrement de programme - Google Patents

Robot, procede de commande de robot et support d'enregistrement de programme Download PDF

Info

Publication number
WO2000032361A1
WO2000032361A1 PCT/JP1999/006713 JP9906713W WO0032361A1 WO 2000032361 A1 WO2000032361 A1 WO 2000032361A1 JP 9906713 W JP9906713 W JP 9906713W WO 0032361 A1 WO0032361 A1 WO 0032361A1
Authority
WO
WIPO (PCT)
Prior art keywords
instinct
emotion
output
module
robot device
Prior art date
Application number
PCT/JP1999/006713
Other languages
English (en)
French (fr)
Inventor
Norio Nagatsuka
Makoto Inoue
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to KR1020007013955A priority Critical patent/KR20010052699A/ko
Priority to EP99972962A priority patent/EP1136194A4/en
Priority to US09/701,254 priority patent/US7076331B1/en
Publication of WO2000032361A1 publication Critical patent/WO2000032361A1/ja
Priority to HK02101082.5A priority patent/HK1040664B/zh

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission

Definitions

  • the present invention relates to a mouthpiece device, a control method for a robot device, and a mouthgram recording medium.
  • the present invention relates to a robot device that operates naturally like a living body, a control method of the robot device, and a program recording medium.
  • robotic devices that shape multi-legged living objects such as dogs and cats have been developed.
  • Such conventionally proposed robotic devices have only been able to silently perform only pre-programmed and predetermined tasks, or have been able to perform only a simple sequence of actions.
  • the present invention has been proposed in view of the above-described circumstances, and provides a robot device, a control method of a mouth robot device, and a program recording medium that can act with realism and a sense of life in the real world. Aim.
  • the robot apparatus provides a feeling that a plurality of emotion units exhibiting various emotions output emotions by affecting each other.
  • This robot device behaves like a living body having reality and a sense of life based on the output of an emotion module composed of a plurality of emotion units.
  • control method of the robot apparatus includes: an emotion output step of outputting an emotion by a plurality of emotion units showing various emotions interacting with each other; and an emotion output in the emotion output step.
  • the robot device is controlled based on the output in the emotion output step by a plurality of emotion units so that the robot performs a natural action like a living body having a reality and a sense of life.
  • the program recording medium of the present invention an emotion output step of outputting emotions by a plurality of emotion units showing various emotions interacting with each other, and a mouth lock based on the emotion output by the emotion output step.
  • the program recording medium has recorded therein a program for performing an operation control process for controlling the operation of the computer device.- In this program recording medium, based on the output in the emotion output process by a plurality of emotion units, a biological body having a realism and a sense of life is provided. The robot device is controlled to perform such a natural action as described above.
  • the robot apparatus includes an instinct module in which a plurality of emotion units exhibiting various instinct output instinct, and an operation means operating based on the instinct output by the instinct module.
  • This robot device is based on the output of an instinct module consisting of a plurality of instinct units, like a living body with reality and a sense of life. Behave as expected.
  • control method of the robot apparatus includes an instinct output step in which a plurality of instinct units exhibiting various instinct output respective instincts, and a mouthpiece based on the instinct output in the instinct output step.
  • the agram recording medium includes an instinct output step in which a plurality of instinct units exhibiting various instinct output respective instincts, and an operation of the mouth-bot device based on the instinct output in the instinct output step And a program for performing an operation control process for controlling
  • a robot device is controlled so as to perform a natural action like a living body having reality and a sense of life based on outputs in a plurality of instinct units in an instinct output process.
  • an emotion module in which a plurality of emotion units showing emotion output respective emotions
  • an instinct module in which a plurality of instinct units indicating instinct output respective instinct
  • an emotion module output The robot device includes an operation unit that operates based on the emotion and the instinct output by the instinct module. Based on the output of the module, it behaves as natural as a living body with reality and a sense of life.
  • control method of the robot device includes a method of controlling a plurality of emotions.
  • the emotion output step in which each emotion unit outputs an emotion
  • the instinct output step in which a plurality of instinct units indicating instinct output the instinct
  • the emotion output in the emotion output step and the instinct output step output
  • a natural or living organism such as a living body having a sense of reality and a sense of life, is based on the output in the emotion output process by a plurality of emotion units and the output in the instinct output process by a plurality of instinct units.
  • an emotion output step in which a plurality of emotion units showing emotions respectively output emotions
  • an instinct output step in which a plurality of instinct units indicating instinct output instinct respectively
  • a program for performing an operation control step of controlling the operation of the robot device based on the emotion output in the emotion output step and the instinct output in the instinct output step is recorded:
  • FIG. 1 is a block diagram showing a configuration of a robot device to which the present invention is applied.
  • FIG. 2 is a diagram showing a configuration of a program for controlling the robot device.
  • Figure 3 illustrates the relationship between the emotion module and other objects:
  • FIG. 4 is a flowchart to explain the operation when information is input from outside to the emotion module:
  • FIG. 5 is a flowchart to explain the situation when the emotion module changes over time:
  • Figure 6 illustrates the relationship between the instinct module and other objects, etc .:
  • FIG. 9 is a diagram for explaining a state when the above-mentioned robot device and another robot device are communicating with each other.
  • FIG. 10 shows a personal computer which shows the emotions and actions of the above-mentioned robot device. It is a figure for explaining a state at the time of control.
  • the present invention c the robot apparatus 1 which is applied to the robot apparatus 1 having the configuration shown in FIG. 1, for example, a central processing unit for controlling the entire system (Central Processing Unit:. Hereinafter referred to as "CPU") 1 1 and a video camera 1 2 having a CCD (Charge Coupled Device) image sensor and video data from a video camera 1 2
  • CPU Central Processing Unit
  • video camera 1 2 having a CCD (Charge Coupled Device) image sensor and video data from a video camera 1 2
  • the LSI 14 has, for example, a communication unit 14a including an interface such as serial communication, parallel communication, and SB communication if.
  • An external personal computer is connected via the communication unit 14a.
  • the personal computer] 00 can change, for example, a program for operating the CPU 11 via the LSI 14, or perform the operation:
  • the LSI 14 stores various devices such as a PC force standard via a PC card interface 15 such as an ATA (Advanced Technology Attachment) flash memory card inserted into a PC card slot.
  • the device 200 is connected to a communication device 300 such as a wireless communication card.
  • the storage device 200 stores various parameters for controlling the emotion level of the emotion unit and the instinct level of the instinct unit. Specifically, control is performed by changing the emotion level of the emotion unit. Parameters such as emotional parameters, input action parameters, attenuation parameters, interaction parameters, etc., which are used to control the instinct unit by changing the instinct level of the instinct unit. Parameters, input action parameters, increment parameters, etc. are also stored: At the time of execution, these parameters are read from the storage device 200 and used.
  • the robot device 1 includes first to fourth CPCs (Configurable Technology Attachment) components 20, 30, 40, 50, which constitute limbs, ears, mouths, and the like:
  • the devices are connected to the serial bus hub (SBH) 14 b in the LSI 14 c.
  • SBH serial bus hub
  • the first CPC device 20 is a hub 21 for controlling each circuit in the device in accordance with a control command from the LSI 14, and a memory 2 for temporarily storing control signals, detection signals, and the like.
  • an acceleration sensor 23 that detects acceleration, a potentiometer 24, and an actuator 25 that plays a role of a joint, etc .
  • the acceleration sensor 23 has three axes in tens of milliseconds. The acceleration of each of the hubs 21 and To the CPU 11 via the bus hub 14b.
  • Second CPC device 3 a Nono Bed 3 1, a memory 3 2, a rotational angular velocity sensor 3 3 for detecting a rotational angular velocity, a potentiometer 3 4, c rotation angular velocity sensor 3 3 and a Akuchiyueta 3 5 Detects rotational angular velocities in three axial directions in units of tens of milliseconds, and supplies the detection results to LSI 14 via hub 31 and serial bus hub 14b.
  • the third CPC device 40 has contacted the hub 41, the memory 42, a light emitting diode (LED) 43, for example, which emits light to indicate external stimulation, and Touch to detect whether or not With sensors 4 4:
  • LED light emitting diode
  • the fourth CPC device 50 is a knob 51, a memory 52, a speaker 53 serving as a mouth for outputting sound to the outside, and a role of an ear for detecting an external sound.
  • the robot device 1 has a multi-legged walkway port.
  • the robot device 1 is a multi-legged articulated robot having the shape of an animal having four legs: the robot device is not limited to this. not, for example, a multi-joint type robot Tsu Bok of the two-legged walking Yo Rere c
  • the above-described acceleration sensor 23 detects acceleration in the X-axis, Y-axis, and Z-axis directions.
  • the rotational angular velocity sensor 33 detects the rotational angular velocity for the R, P, and Y angles when rotating about the X, Y, and Z axes as rotation axes.
  • the program that controls the robot device 1 is designed in a hierarchical manner as shown in FIG. Specifically, the above-mentioned program is based on an embedded real-time system S (Operating System) operating on the hardware having the above-described configuration, and is additionally provided with system software, middleware, and application software. It is constituted by forming three layers.
  • S Operating System
  • the system software layer is composed of, for example, a device driver that directly controls devices and a server object that provides services to objects in upper layers.
  • the middleware layer includes, for example, a recognition object that processes sensor information such as images, sounds, and contacts, a motion control object that controls robot motion such as walking and posture, and limbs, head, and tail. It is composed of motion generation objects that move and express-
  • the emotion's instinct model object has an emotion module and an instinct module:
  • emotion units are, for example, the current level of emotion (hereinafter referred to as. "Emotional level”), a minimum emotional level, maximum emotion It is composed of a level and a threshold that serves as a criterion for reporting emotions.
  • the emotion unit is prepared only for the type of emotion to be handled, for example, joy, sadness, anger, fear, surprise, disgust, etc .:
  • Each of these emotion levels is initialized by the value of the emotion parameter first. It then changes over time with external information, such as cognitive objects, etc .:
  • Each emotion unit has the property of influencing each other by raising or lowering their emotional levels.
  • the emotion level of the sadness unity when the emotion level of the sadness unity is high, the emotional level of the anger emotion unit is high.
  • the emotion level of the joy emotion unit is high, the emotion level of the anger or disgust emotion unit is low.
  • the instinct module handles the instinct unit as data, similarly to the emotion module.
  • instinct The unit is Only the types of instinct to deal with are prepared, for example, consisting of instinct needs such as appetite, exercise, rest, love, knowledge, and sexual desire: Each of these instinct levels is first determined by the value of the instinct parameter It is initialized and then changes with the passage of time from external information, such as cognitive objects, etc .: Instinct units do not increase instinct levels with each other, unlike emotional units : However, the instinct module and the emotion module may influence each other. For example, when the instinct is “I am hungry”, it is easy to become angry.
  • Each of the above-mentioned objects is composed of an object-oriented design, regardless of whether it is in the upper layer or the lower layer, receives information from other objects and changes its state accordingly. It outputs information according to its own status to other objects.
  • the emotion module has two cases: the emotion level of each emotion unit changes when external information is input, and the emotion level changes over time.
  • the recognition objects described above are the hardware of the first to fourth CPC devices 20, 30, 40, 50 shown in FIG. 1, which are hardware.
  • sensor information input information such as color information of an image by a color sensor, sound information of a speaker by a sound sensor, contact information by a contact sensor, etc. is handled.
  • the information of the recognition result is sent to the emotion module of the emotion-instinct model object as shown in Fig. 3:
  • the emotion module determines the type of the input information as shown in FIG. 4 (step ST 1), and uses parameters corresponding to the input information, as shown in FIG. Change the emotion level of each emotion unit (step ST2): Then, the emotion module selects the emotion unit whose emotion level is the maximum among the emotion units whose emotion level exceeds the threshold. Select The selected emotion unit notifies the information to the object requesting the output, for example, an action generation object. Note that the object requesting output must register itself as an observer to the emotion module according to the object-oriented observer pattern. The emotion module may also accept input from objects that do not directly handle sensor information, such as receiving a message from the instinct module that eliminated frustration.
  • the action creation object controls the hardware via the action creation object and the like. In other words, by controlling the first to fourth CPC devices 20, 30, 40, 50 shown in FIG. 1, for example, operations using limbs, head, tail, etc., sound generation, LED blinking Express your emotions with intervals, etc.
  • step ST11 the emotion module initializes the emotion level / parameter, and proceeds to step ST12:
  • step ST12 the emotion module uses the timer of LSI 14 to determine whether a certain time has elapsed. If the certain time has not elapsed, the emotion module waits for step ST12, and then waits for step ST12. If has elapsed, go to step ST13:
  • step ST13 the emotion module decreases the emotion level of each emotion unit, and proceeds to step ST14.
  • the magnitude of the attenuation is determined by the attenuation parameter stored in the storage unit 13-In step ST14, the emotion module changes the emotion level by the mutual suppression of each emotion Z stimulus, Proceed to step ST15. For example, when the fear is great, the joy decreases, and when the disgust is great, the anger increases.- The relationship of the interaction and its magnitude are determined by the mutual parameters stored in the storage unit 13. It is determined.
  • step S15 the emotion module determines whether there is an emotion unit exceeding the threshold value. If there is no such emotion unit, the process returns to step ST12.If there is such an emotion unit, the emotion module returns to step ST12. Proceed to ST16.
  • step ST16 the emotion module selects the emotion unit whose emotion level is the highest from the emotion units exceeding the threshold, and proceeds to step ST17-In step ST17, the emotion module Then, the information of the selected emotion unit is notified to the action generation object. Selected The sentiment module notifies the information to the object requesting output, for example, an action creation object, etc .:
  • the sentiment module is a message that the instinct module has solved the frustration. In some cases, input from an object that does not directly handle sensor information may be received, such as receiving a message.
  • the action generation object controls hardware via a motion generation object or the like. In other words, by controlling the first to fourth CPC devices 20, 30, 40, 50 shown in FIG. 1, for example, operations using limbs, head, tail, etc., sound generation, LED blinking Express your emotions at intervals. Then, the process returns to step ST 12 again.
  • the emotion module sends the information of the emotion unit whose emotion level is the highest among the emotion units whose emotion level has changed due to external information or internal change, by notifying the other objects of the information. It is possible to notify the action generation object of the state when various emotions are involved.
  • the action generation object generates the first to fourth CPC devices 20, 30, 40, 50, which are hardware, through system software, ⁇ S, based on information from the emotion module. Control.
  • the emotion module notifies the action generation object of information on the emotion unit having the highest emotion level when each emotion is complexly and organically related. As a result, it is possible to realize the optimal emotional expression according to the situation at that time
  • the robot device 1 is not only an emotion module that responds to input from the outside world, but also an instinct module that gradually increases the desire from inside. Therefore, a case where an action is performed based on the output of the instinct module will be described:
  • the instinct module may change the instinct level of each instinct unit when external information is input, or may change its instinct level over time:
  • the recognition object described above is used as various kinds of sensor information of the first to fourth CPC devices 20, 30, 40, 50 shown in FIG. It handles input information such as image color information, sound sensor sound information from a sound sensor, and contact information from a contact sensor. Then, when the recognition object recognizes the information to be notified, it notifies the instinct module of the instinct / instinct model object of the information of the recognition result as shown in FIG. 6:
  • the instinct module determines the type of the input information as shown in FIG. 7 (step ST21) and uses the parameters corresponding to the input information to determine the type of the input information.
  • Change the instinct level of each instinct unit step ST22: For example, the instinct unit of appetite increases the instinct level when the battery runs low, and the desire for eating and drinking, for example, the charge request
  • the instinct module may also accept information output by objects that do not handle information from various sensors, such as the action generation module or the information output by the action generation module after completing the desire action: For example, when intense exercise is signaled, the instinct level of exercise greed declines significantly.
  • the instinct module selects the instinct unit with the highest instinct level from the instinct units whose instinct level exceeds the threshold:
  • the selected instinct unit notifies the information to the object requesting the output, for example, the action creation object, etc.
  • the object requesting the output is an object-oriented observer. Depending on the bar pattern, you need to register yourself as an observer to the instinct module:
  • the action generation object moves its limbs, head, tail, etc., so that it moves violently when the desire to exercise increases, and conversely, it takes a rest when the desire to rest increases.
  • instinct to express instinct.
  • the instinct module executes the processing of step ST31 and the subsequent steps shown in FIG.
  • step ST31 the instinct module initializes the instinct level I parameter, and proceeds to step ST32.
  • step ST32 the instinct module uses the timer of the LSI 14 to determine whether a fixed time has elapsed, and if the fixed time has not elapsed, waits for the step ST32, When the fixed time has elapsed, the process proceeds to step ST33.
  • step ST33 the instinct module increases the instinct level of each instinct unit, and proceeds to step ST34-the magnitude of the increase is determined by the increase parameter stored in the storage unit 13 Is done.
  • step ST34 the instinct module determines whether there is an instinct unit exceeding the threshold, and if there is no such instinct unit. Returns to step ST32, and if there is such an instinct unit, proceeds to step S ⁇ 35:
  • step S ⁇ 35 the instinct module selects the instinct unit with the highest instinct level from the instinct units exceeding the threshold, and proceeds to step ST 36-In step S ⁇ 36,
  • the module notifies the selected instinct unit of information to the client module such as the action creation object:
  • the action creation object is based on the information from the instinct module and the system software Controls the first to fourth CPC devices 20, 40, 40, 50, which are hardware due to hardware and OS, to realize the optimal instinct expression according to the situation at that time can do.
  • both the emotion module and the instinct module operate based on the information from various objects, but are controlled independently in parallel, respectively.
  • the robot device 1 can naturally express the complicated mental state that has been mixed. You can:
  • the robot device 1 can communicate with another robot device 1A (not shown) via the communication device 300.
  • the emotion module of the robot device 1 The information of the emotion unit having the highest level is notified to the communication device 300 (for example, a wireless communication card).
  • the communication device 300 wirelessly transmits the information of the emotion unit to another robot device 1A specified in advance.
  • the other robot device 1A can read the emotion of the robot device 1 and communicate with each other by emotion between the robot device 1 and the other robot device 1A. Can be taken.
  • the robot apparatus 1 determines that his or her territory has been damaged, the robot apparatus 1 takes an action corresponding to anger, such as barking as shown in FIG.
  • the emotion level of the anger emotion unit of the mouth robot device 1 becomes higher: and, at this time, the communication device 300 of the robot device 1
  • the emotion level of the anger emotion unit is sent to the other robotic device 1A:
  • the other robotic device 1A that has received the anger feeling of the robotic device 1 takes an action in response to the anger, for example, as shown in FIG.
  • the escape action taken by the mobile device 1A is performed by raising the level of self-fear or surprise by the other mouth robot device 1A in response to the anger sent from the robot device 1.
  • the robot device 1 and the above-mentioned other robot device 1A are interrogated, it is possible to communicate by emotion and take an action corresponding thereto, but the action is limited to the above-described action.
  • the other robotic device 1A may take a joyful action accordingly: that is, receiving the joyful feeling of the robotic device 1
  • the other robot 1A increases the level of its own joy and takes a joy action together with the robot 1:
  • the robot information can also be transmitted from the robot device 1 to the other robot device 1A in the same manner: With this, the information of the instinct unit is communicated by the robot device, and the Mi You can take a new case.
  • the communication is not limited to wireless communication, but may be performed using a wired communication.
  • information such as an emotion unit in the robot device 1 is recorded on a recording medium such as a memory card.
  • this may be mounted on another robotic device 1A:
  • the above robot device 1 is the same as the electronic bet in the virtual bet device described in Japanese Patent Application No. 10-030973. It is possible to communicate between the two.
  • a recording medium such as a memory card is mounted on the robot device 1 and a control program recorded on the recording medium is installed.
  • the control program recorded on the recording medium is a control program consisting of an OS, system software, middleware, and an application as shown in Fig. 2. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

明細書 口ボッ ト装置、 ロボッ ト装置の制御方法及びブ口グラム記録媒体 技術分野
本発明は、 生体のように自然な動作をするロボッ ト装置、 ロボッ ト装置の制御方法及びフログラム記録媒体に関する: 背景技術
従来より、 犬や猫のような多足生体物を形取ったロボッ ト装置が 開発されている。 このような従来から提案されているロボッ ト装置 は、 予めプログラムされて決められた作業のみを黙々と続けるもの や、 単純なシーケンスに沿った振る舞いしか行うことができなかつ た。
ところで、 携帯端末の中で感情モデルを搭載した仮想べッ トを飼 うものもあるが、 このような仮想べッ トは実世界で動き回ることは できないため、 リアリティや生命感に欠けていた: 発明の開示
本発明は、 上述の実情に鑑みて提案されたものであり、 実世界で リアリティや生命感をもって行動することができるロボッ ト装置、 口ボッ ト装置の制御方法及びプログラム記録媒体を提供することを 目的とする。
そこで、 本発明に係るロボッ ト装置は、 様々な感情を示す複数の 感情ュニッ トが、 互いに影響し合うことによって感情を出力する感 情モジュールと、 感情モジュールが出力する感情に基づいて動作を する動作手段とを備える:
このロボッ ト装置は、 複数の感情ュニッ トからなる感情モジユ ー ルの出力に基づいて、 リアリティや生命感を有する生体のよ うに自 然な行動をする。
また、 本発明に係るロボッ ト装置の制御方法は、 様々な感情を示 す複数の感情ュニッ トが互いに影響し合うことによって感情を出力 する感情出力工程と、 感情出力工程にて出力された感情に基づいて 口ボッ ト装置の動作を制御する動作制御工程とを有する:
このロボッ ト装置の制御方法では、 複数の感情ュニッ トによる感 情出力工程における出力に基づいて、 リァリティや生命感を有する 生体のような自然な行動をするようにロボッ ト装置を制御する: また、 本発明に係るプログラム記録媒体は、 様々な感情を示す複 数の感情ュニッ トが互いに影響し合うことによって感情を出力する 感情出力工程と、 感情出力工程により出力された感情に基づいて口 ボッ ト装置の動作を制御する動作制御工程とを行うブロダラムが記 録されている- このプログラム記録媒体では、 複数の感情ュニッ トによる感情出 力工程における出力に基づいて、 リアリティや生命感を有する生体 のような自然な行動をするようにロボッ ト装置を制御する。
また、 本発明に係るロボッ ト装置は、 様々な本能を示す複数の感 情ュニッ トがそれぞれ本能を出力する本能モジュールと、 本能モジ ユールが出力する本能に基づいて動作をする動作手段とを備える: このロボッ ト装置は、 複数の本能ュニッ 卜からなる本能モジユ ー ルの出力に基づいて、 リァリティや生命感を有する生体のよ うに自 然な行動をする。
また、 本発明に係るロボッ ト装置の制御方法は、 様々な本能を示 す複数の本能ュニッ トがそれぞれ本能を出力する本能出力工程と、 本能出力工程にて出力された本能に基づいて口ボッ ト装置の動作を 制御する動作制御工程とを有する。
このロボッ ト装置の制御方法では、 複数の本能ュニッ トによる本 能出力工程における出力に基づいて、 リァリティや生命感を有する 生体のような自然な行動をするようにロボッ ト装置を制御する = また、 本発明に係るァログラム記録媒体は、 様々な本能を示す複 数の本能ュニッ トがそれぞれ本能を出力する本能出力工程と、 本能 出力工程にて出力された本能に基づいて口ボッ ト装置の動作を制御 する動作制御工程とを行うプログラムが記録されている
このプログラム記録媒体では、 複数の本能ュニッ トによる本能出 力工程における出力に基づいて、 リアリティや生命感を有する生体 のよ うな自然な行動をするようにロボッ ト装置を制御する - また、 本発明に係るロボッ ト装置は、 感情を示す複数の感情ュニ ッ トがそれぞれ感情を出力する感情モジュールと、 本能を示す複数 の本能ュニッ トがそれぞれ本能を出力する本能モジュールと、 感情 モジュールが出力する感情と本能モジュールが出力する本能とに基 づいて動作をする動作手段とを備える- このロボッ ト装置は、 複数の感情ュニッ トからなる感情モジユ ー ルの出力と複数の本能ュニッ トからなる本能モジュールの出力とに 基づいて、 リアリティや生命感を有する生体のように自然な行動を する。
また、 本発明に係るロボッ ト装置の制御方法は、 感情を示す複数 の感情ュニッ トがそれぞれ感情を出力する感情出力工程と、 本能を 示す複数の本能ュニッ トがそれぞれ本能を出力する本能出力工程と . 感情出力工程により出力された感情と本能出力工程により出力され た本能とに基づいて口ボッ ト装置の動作を制御する動作制御工程と を有する:
このロボッ ト装置の制御方法では、 複数の感情ュニッ トによる感 情出力工程における出力と複数の本能ュニッ トによる本能出力工程 における出力とに基づいて、 リアリティや生命感を有する生体のよ うな自然な行動をするように口ボッ 卜装置を制御する:
また、 本発明に係るプログラム記録媒体は、 感情を示す複数の感 情ュニッ 卜がそれぞれ感情を出力する感情出力工程と、 本能を示す 複数の本能ュニッ トがそれぞれ本能を出力する本能出力工程と、 上 記感情出力工程にて出力された感情と上記本能出力工程にて出力さ れた本能とに基づいてロボッ ト装置の動作を制御する動作制御工程 とを行うプログラムが記録されている:
このプログラム記録媒体では、 複数の感情ュニッ トによる感情出 力工程における出力と複数の本能ユニッ トによる本能出力工程にお ける出力とに基づいて、 リァリティや生命感を有する生体のような 自然な行動をするよ うに口ボッ ト装置を制御する。 図面の簡単な説明
図 1は、 本発明を適用したロボッ ト装置の構成を示すブロ ック図 である。
図 2は、 上記ロボッ ト装置を制御するプログラムの構成を示す図 である。 図 3は、 感情モジュールと他のオブジェク ト等との関係を説明す るための図である:
図 4は、 上記感情モジュールに外部から情報が入ってきたときの 動作を説明するためのフローチヤ一 トである:
図 5は、 上記感情モジユールが時問の経過によって変化するとき の状態を説明するためのフローチヤ一 トである:
図 6は、 本能モジュールと他のオブジェク ト等との関係を説明す るための図である:
図 7は、 本能モジュールに外部から情報が入ってきたときの動作 を説明するためのフロ一チヤ一 トである =
図 8は、 上記本能モジュールが時間の経過によって変化するとき の状態を説明するためのフローチヤ一 トである =
図 9は、 上記ロボッ ト装置と他のロボッ ト装置とが通信している ときの状態を説明するための図である- 図 1 0は、 パーソナルコンピュータが上記ロボッ ト装置の感情と その行動を制御するときの状態を説明するための図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について、 図面を参照しながら説明す る。
本発明は、 例えば図 1 に示す構成のロボッ ト装置 1 に適用される c 上記ロボッ ト装置 1は、 システム全体を制御する中央処理演算部 (Central Processing Unit : 以下、 「C P U」 という。 ) 1 1 と、 例えば C C D (Charge Coupled Device) イメージセンサを有するビ デォカメラ 1 2と、 ビデオ力メラ 1 2からのビデオデータ等を記憶 する記憶部 1 3 と、 シリ アルバスのホス ト コ ン トローラ等を 1つに まとめた大規模集積回路 (Large - Scale Integrated circuit : 以下 「L S I 」 とレヽぅ = ) 1 4 とを備える =
L S I 1 4は、 例えばシリ アル通 ί言, パラレル通信, じ S B通 if 等のインタ一フェースからなる通信部 1 4 a を有し、 この通 ί言部 1 4 aを介して外部のパーソナルコンビュータ 1 0 0 と接続される: このとき、 パーソナルコンピュータ ] 0 0は、 L S I 1 4を介して、 例えば C PU 1 1 を動作させるプログラムを変更したり、 その操作 を行う ことができる:
L S I 1 4は、 P Cカードインタ一フェース 1 5を介して、 P C 力一ド規格等の様々なデバイス、 例えば P Cカードスロ ッ トに挿入 される AT A (Advanced Technology Attachment) フラ ッシュメモ リカード等の記憶装置 2 0 0や無線通信カード等の通信装置 3 0 0 と接続される。
記憶装置 2 0 0には、 感情ュニッ トの感情レベルや本能ュニッ ト の本能レベルを制御するための各種バラメータが記憶されている: 具体的には、 感情ュニッ トの感情レベルを変化させて制御するため の要素となる感情パラメータ, 入力作用バラメータ, 減衰パラメ一 タ, 相互作用パラメータ等が記憶されている- また、 本能ユニッ ト の本能レベルを変化させて制御するための要素となる本能パラメ一 タ, 入力作用パラメ一タ, 増加パラメ一タ等も記憶されている: 実 行時には、 記憶装置 2 0 0からこれらのパラメータが読み出されて 使用される。
上記 L S I 1 4は、 リ アルタイムの時間情報を得るための図示し ないタイマと、 ノくッテリ一の残量の管理やタイマと連係してある時 間にパヮ一オンとする等の制御を行うための図示しないバッテリマ ネージャを備える =
また、 上記ロボッ ト装置 1は、 手足, 耳, 口等を構成する第 1か ら 4の C P C (Configurable Technology Attachment) テノく ス 2 0, 3 0, 4 0, 5 0 とを備える: 各 C P Cデバイスは、 L S I 1 4内のシリアルバスハブ ( S B H) 1 4 bに接続されている c こ こでは、 C P Cデバイスを 4つ示しているが、 その数は特に限定さ れるものではないのは勿論である- 第 1の C P Cデバイス 2 0は、 L S I 1 4からの制御命令に応じ て当該デバイス内の各回路を制御するハブ 2 1 と、 制御信号や検出 信号等を一時記憶しておく メモリ 2 2と、 加速度を検出する加速度 センサ 2 3 と、 ポテンショメータ (potentiometer) 2 4 と、 関節等 の役割を果たすァクチユエータ 2 5 とを備える: 加速度センサ 2 3 は、 数十ミ リ秒単位で 3軸方向の加速度をそれぞれ検出し、 この検 出結果を、 ハブ 2 1, シリアルバスハブ 1 4 bを介して、 C PU 1 1 に供給する。
第 2の C P Cデバイス 3 0は、 ノヽブ 3 1 と、 メモリ 3 2 と、 回転 角速度を検出する回転角速度センサ 3 3 と、 ポテンショ メータ 3 4 と、 ァクチユエータ 3 5 とを備える c 回転角速度センサ 3 3は、 数 十ミ リ秒単位で 3軸方向の回転角速度を検出し、 この検出結果を、 ハブ 3 1, シリアルバスハブ 1 4 bを介して、 L S I 1 4に供給す る。
第 3の C P Cデバイス 4 0は、 ハブ 4 1 と、 メモリ 4 2と、 例え ば発光することによって外部から刺激を受けたことを示す発光ダイ オード (L E D) 4 3 と、 回部と接触したか否かを検出するタツチ センサ 4 4 とを備える:
第 4の C P Cデバイス 5 0は、 ノヽブ 5 1 と、 メモリ 5 2 と、 外部 に音声を出力する 「口」 の役割を果たすスピーカ 5 3 と、 外部の音 声を検出する 「耳」 の役割を果たすマイク 5 4 とを備える- 上記ロボッ ト装置 1 の外観は、 多足歩行口ポッ トからなる。 すな わち、 上記ロボッ ト装置 1 は、 多足歩行の多関節型ロボッ トであつ て、 4本足を有する動物の形をしている: なお、 ロボッ ト装置は、 これに限定されるものではなく、 例えば、 2足歩行の多関節型ロボ ッ 卜であって ょレヽ c
なお、 上述した加速度センサ 2 3は、 X軸, Y軸, Z軸方向につ いての加速度を検出する。 回転角速度センサ 3 3は、 X軸, Y軸, Z軸を回転軸と して回転するときの R角, P角, Y角についての回 転角速度を検出する。
上記ロボッ ト装置 1 を制御するプログラムは、 図 2に示すように、 階層化して設計されている。 上記ァログラムは、 具体的には、 上述 した構成のハードウエアで動作する組込用リアルタイム〇 S ( Oper at i ng Sy st em) の上に、 システムソフ ト ウェア, ミ ドルウェア, ァ プリケーシヨ ンの 3層が形成されることにより構成される。
システムソフ トウエア層は、 例えばデバイスを直接制御するデバ イス ドライバと、 上位層のオブジェク トへサ一ビスを提供するサ一 バオブジェク トによって構成される。
ミ ドルウェア層は、 例えば、 画像、 音、 接触などのセンサ情報を 処理する認識オブジェク トと、 歩行や姿勢などのロボッ 卜の運動制 御を行う運動制御オブジェク トと、 手足や頭、 尻尾を動かして表現 をする動作生成ォブジェク 卜から構成される- アプリケーショ ン層は、 例えば学習を行う学習オブジェク トと、 感情や本能を取り扱う感情 · 本能モデルオブジェク トと、 振る舞い を決定する行動生成ォブジェク ト と、 このロボッ ト装置全体を特徴 づけるシナリオォブジェク トから構成される =
上記感情 '本能モデルオブジェク トは、 感情モジュールと、 本能 モジュールとを備-える:
感情モジュールは、 データと して複数種類の感情ュニッ トを取り 扱う = 感情ユニッ トは、 例えば、 現在の感情のレベル (以下、 「感 情レベル」 という。 ) と、 最小感情レベルと、 最大感情レベルと、 感情を通知する基準となる閾値とから構成される。 感情ユニッ トは、 取り扱う感情の種類だけ用意され、 例えば喜び、 悲しみ、 怒り、 恐 怖、 驚き、 嫌悪などの感情より構成される: これらの各感情レベル は、 最初に感情パラメータの値によって初期化され、 その後、 認識 オブジェク ト等の外部からの情報や時間の経過に従って変化する: 各感情ュニッ トは、 互いに感情レベルを高め合ったり低く し合つ たり して、 影響し合う性質を備える。 例えば、 悲しみの感情ュニッ トの感情レベルが高いときは、 怒りの感情ュニッ トの感情レベルが 高くなる。 また、 喜びの感情ユニッ トの感情レベルが高いときは、 怒りや嫌悪の感情ユニッ トの感情レベルは低くなる。 なお、 上述し た感情ユニッ トは、 一例であり、 これに限定されるものではない: 本能モジュールは、 感情モジュールと同様に、 データとして本能 ュニッ トを取り扱つている。
本能ユニッ トは、 例えば、 現在の本能のレベル (以下、 「本能レ ベル」 という = ) と、 最小本能レベルと、 最大本能レベルと、 本能 を通知する基準となる閾値とから構成される: 本能ユニッ トは、 取 り扱う本能の種類だけ用意され、 例えば、 食欲, 運動欲, 休息欲, 愛情欲, 知識欲, 性欲等の本能欲求によ り構成される: これらの各 本能レベルは、 最初に本能パラメータの値によって初期化され、 そ の後、 認識ォブジェク ト等の外部からの情報や時間の経過に従って 変化する: なお、 各本能ュニッ トは、 感情ュニッ 卜の場合と異なり、 互いに本能レベルを高め合うことはない: ただし、 本能モジュール と感情モジュールとは互いに影響し合ってもよい。 例えば、 本能と して 「お腹がすいている」 ときに、 「怒る」 といった感情になり易 レヽといったようにである。
上述した各ォブジェク トは、 オブジェク ト指向の設計によ り構成 され、 上層にあるか下層にあるかに関係なく、 他のオブジェク トか らの情報を受けてそれに応じて状態に変化が生じると共に、 自己の 状態に応じた情報を他のォブジェク 卜に対して出力する。 すなわち、 各オブジェク ト間で、 相互に情報のやり取りが行われて影響し合つ ている = なお、 このようなオブジェク トと しては、 生体行動の要因 となるもの (例えば、 学習, 思考, 認識) や、 生体行動を行うため の手段 (手足, 関節, 運動制御) 等、 生体行動に関する様々な要素 を適用することができる。
つぎに、 上記感情モジュールの出力に基づいて行動を起こす場合 について説明する c
感情モジュールは、 外部情報が入力されることによって各感情ュ ニッ 卜の感情レベルが変化する場合と、 時間の経過によって自らそ の感情レベルが変化する場合とがある c
最初に、 上述した認識オブジェク トは、 ハ一ドウユアである図 1 に示した第 1から第 4の C P Cデバイス 2 0, 3 0, 4 0, 5 0の 各種センサ情報と して、 例えば色センサによる画像の色情報, 音セ ンサによるスピーカの音情報, 接触センサによるの接触情報等の入 力情報を取り扱う- そして、 認識オブジェク トは、 通知すべき情報 を認識すると、 図 3に示すように、 かかる認識結果の情報を感情 - 本能モデルオブジェク トの感情モジュールに通知する:
感情モジュールは、 認識オブジェク トから情報が入力されると、 図 4に示すように、 入力される情報の種別を判別し (ステップ S T 1 ) 、 その入力された情報に応じたパラメータを用いて、 各感情ュ 二ッ 卜の感情レベルを変化させる (ステップ S T 2 ) : そして、 感 情モジュールは、 感情レベルが閾値を超えている感情ュニッ トのう ち、 感情レベルが最大となっている感情ユニッ トを選択する。 選択 された感情ュニッ トは、 その情報を、 例えば行動生成ォブジェク ト 等、 出力を要求しているォブジェク トに対して通知する。 なお、 出 力を要求しているオブジェク トは、 オブジェク ト指向のオブザーバ —パターンにより、 感情モジュ一ルへオブザーバ一と して、 自身を 登録しておく必要がある。 また、 感情モジュールは、 本能モジユー ルが欲求不満を解消したメ ッセージを受け取るなど、 直接センサ情 報を扱わないオブジェク トからの入力も受け付けることもある。 行動生成オブジェク トは、 動作生成オブジェク ト等を介して、 ハ 一ドウユアを制御する。 すなわち、 図 1 に示す第 1から第 4の C P Cデバイス 2 0, 3 0, 4 0, 5 0を制御して、 例えば手足, 頭, 尻尾等を用いた動作や、 音の発生, L E Dの点滅間隔等を行って、 感情を表現する:
一方、 感情モジュールは、 時間が経過していく と、 図 5に示すス テツプ S T 1 1以下の処理を実行する: ステップ S T 1 1 において、 感情モジュールは、 感情レベルゃパ ラメ一タの初期化を行って、 ステツブ S T 1 2に進む:
ステツブ S T 1 2 において、 感情モジュールは、 L S I 1 4の有 するタイマを用いて一定時間が経過したかを判定し、 一定時間が経 過していないときはステップ S T 1 2に待機し、 一定時間が経過し たときはステップ S T 1 3に進む:
ステップ S T 1 3 において、 感情モジュールは、 各感情ュニッ ト の感情レベルを减衰させて、 ステップ S T 1 4に進む。 なお、 減衰 の大きさは、 記憶部 1 3に記憶されている減衰バラメータによって 決定される- ステップ S T 1 4において、 感情モジュールは、 各感情相互の抑 制 Z刺激により感情レベルを変化させて、 ステップ S T 1 5に進む。 例えば、 恐怖が大きいときは喜びは小さくなつたり、 嫌悪が大きい ときは怒り も大きくなつたりする- なお、 相互作用の関係やその大 きさは、 記憶部 1 3に記憶されている相互パラメータによって決定 される。
ステップ S丁 1 5において、 感情モジュールは、 閾値を超えてい る感情ュニッ 卜があるかを判定し、 かかる感情ュニッ トがないとき はステップ S T 1 2に戻り、 かかる感情ュニッ トがあるときはステ ップ S T 1 6に進む。
ステップ S T 1 6において、 感情モジュールは、 閾値を超えてい る感情ュニッ トのうち、 感情レベルが最大の感情ュエツ トを選択し て、 ステップ S T 1 7に進む- ステップ S T 1 7において、 感情モジュールは、 選択した感情ュ ニッ トの情報を行動生成ォブジェク トに対して通知する。 選択され た感情ユニッ トは、 その情報を、 例えば行動生成オブジェク ト等、 出力を要求しているオブジェク 卜に対して通知する: なお、 感情モ ジュールは、 本能モジュールが欲求不満を解消したメ ッセ一ジを受 け取るなど、 直接センサ情報を扱わないォブジェク トからの入力も 受け付けることもある- 行動生成オブジェク トは、 動作生成オブジェク ト等を介して、 ハ 一ドウエアを制御する。 すなわち、 図 1 に示す第 1から第 4の C P Cデバイス 2 0 , 3 0, 4 0, 5 0を制御して、 例えば手足, 頭, 尻尾等を用いた動作や、 音の発生, L E Dの点滅間隔等を行って、 感情を表現する。 そして、 再び、 ステツブ S T 1 2に戻る。
このよ うにして、 感情モジュールは、 外部情報又は内部変化によ り感情レベルが変化した各感情ュニッ トのうち、 感情レベルが最大 の感情ュニッ トの情報を他のオブジェク トに通知することによって、 様々の感情が互いに入り組んだときの状態を行動生成ォブジェク ト に通知することができる。 行動生成オブジェク トは、 感情モジユー ルからの情報に基づいて、 システムソフ トウェア, 〇 Sを介して、 ハードウェアである第 1から第 4の C P Cデバイス 2 0, 3 0, 4 0, 5 0を制御する。
以上のように、 上記ロボッ ト装置 1 では、 感情モジュールは、 各 感情が複雑に有機的に関連しているときの最も感情レベルの高い感 情ュニッ トの情報を、 行動生成オブジェク トに通知することによつ て、 そのときの状況に応じた最適な感情表現を実現することができ る
上記ロボッ ト装置 1は、 外界からの入力に反応する感情モジユー ルだけでなく、 内部から徐々に欲求が高まっていく本能モジュール も有する: そこで、 上記本能モジュールの出力に基づいて行動を起 こす場合について説明する:
本能モジュールは、 外部情報が入力されることによって各本能ュ ニッ トの本能レベルが変化する場合と、 時間の経過によって自 らそ の本能レベルが変化する場合とがある:
最初に、 上述した認識オブジェク トは、 ハードウェアである図 1 に示した第 1 力 ら第 4の C P Cデバイス 2 0, 3 0, 4 0, 5 0の 各種センサ情報と して、 例えば色センサによる画像の色情報, 音セ ンサによるスピーカの音情報, 接触センサによるの接触情報等の入 力情報を取り扱う。 そして、 認識オブジェク トは、 通知すべき情報 を認識すると、 図 6に示すように、 かかる認識結果の情報を本能 · 本能モデルオブジェク トの本能モジュールに通知する:
本能モジュールは、 認識オブジェク トから情報が入力されると、 図 7に示すように、 入力される情報の種別を判別し (ステップ S T 2 1 ) 、 その入力された情報に応じたパラメータを用いて、 各本能 ユニッ トの本能レベルを変化させる (ステップ S T 2 2 ) : 例えば、 食欲の本能ユニッ トは、 バッテリーが少なくなつてく ると、 本能レ ベルが大きくなつて飲食の欲求、 例えば充電要求が大きくなる: な お、 本能モジュールは、 行動生成モジュールや動作生成モジュール が欲求行動を完了して出力した情報等、 各種センサからの情報を扱 わないオブジェク トが出力する情報も受け付けることもある: 例え ば、 激しい運動の終了が通知されると、 運動欲の本能レベルは、 大 幅に減衰する。
本能モジュールは、 本能レベルが閾値を超えている本能ュニッ ト のうち、 本能レベルが最大となっている本能ュニッ トを選択する: 選択された本能ユニッ トは、 その情報を、 例えば行動生成オブジェ ク ト等、 出力を要求しているオブジェク 卜に対して通知する: なお 出力を要求しているオブジェク トは、 オブジェク ト指向のォブザー バーパターンにより、 本能モジュールへオブザーバ—と して、 自身 を登録しておく必要がある:
行動生成オブジェク トは、 動作生成オブジェク ト等を介して、 ハ 一ドウエアを制御する = すなわち、 図 1 に示す第 1から第 4の C P Cデバイス 2 0, 3 0, 4 0, 5 0を制御する = 例えば、 行動生成 オブジェク トは、 運動欲が高まってきたときは激しい動きをするよ うに、 逆に、 休息欲が高まっているときは休息をとるように、 手足, 頭, 尻尾等を動作させて、 本能を表現する。
一方、 本能モジュールは、 時間が経過していく と、 図 8に示すス テツブ S T 3 1以下の処理を実行する。
ステップ S T 3 1 において、 本能モジュールは、 本能レベルゃパ ラメータの初期化を行って、 ステップ S T 3 2に進む。
ステップ S T 3 2において、 本能モジュールは、 L S I 1 4の有 するタイマを用いて一定時問が経過したかを判定し、 一定時問が経 過していないときはステップ S T 3 2に待機し、 一定時間が経過し たときはステップ S T 3 3に進む。
ステップ S T 3 3において、 本能モジュールは、 各本能ユニッ ト の本能レベルを増加させて、 ステップ S T 3 4に進む- なお、 増加 の大きさは、 記憶部 1 3に記憶されている増加パラメータによって 決定される。
ステップ S T 3 4において、 本能モジュールは、 閾値を超えてい る本能ュニッ トがあるかを判定し、 かかる本能ュニッ 卜がないとき はステップ S T 3 2に戻り、 かかる本能ュニッ トがあるときはステ ップ S Τ 3 5に進む:
ステップ S Τ 3 5において、 本能モジュールは、 閾値を超えてい る本能ュニッ トのうち、 本能レベルが最大の本能ュニッ トを選択し て、 ステップ S T 3 6に進む- ステップ S Τ 3 6において、 本能モジュールは、 選択した本能ュ 二ッ トの情報を行動生成オブジェク ト等のクライアン トモジュール に対して通知する: 選択された本能ユニッ トは、 その情報を、 例え ば行動生成オブジェク ト等、 出力を要求しているオブジェク 卜に対 して通知する- 行動生成オブジェク トは、 動作生成オブジェク ト等を介して、 上 述したいようにハ一ドウエアを制御して、 ステップ S Τ 3 2に戻る = このようにして、 本能モジュールは、 外部情報又は内部変化によ り本能レベルが変化した各本能ュニッ トのうち、 本能レベルが最大 の本能ュニッ トの情報を他のオブジェク トに通知することによって、 本能が高まってきたときの状態を行動生成オブジェク 卜に通知する ことができる: 行動生成オブジェク トは、 本能モジュールからの情 報に基づいて、 システムソフ トウェア, O Sを介して、 ハ一ドゥエ ァである第 1から第 4の C P Cデバイス 2 0, 3 0, 4 0, 5 0を 制御して、 そのときの状況に応じた最適な本能表現を実現すること ができる。
以上説明したように、 感情モジュールも本能モジュールも、 様々 のォブジェク トからの情報に基づいて動作しているものの、 それぞ れ並列的に独立して制御されている: これにより、 感情や本能が入 り交じった複雑な心理状態をロボッ ト装置 1 に自然に表現させるこ とができる:
なお、 上記ロボッ ト装置 1 は、 学習機能も備えている: すなわち、 上述したように、 記憶装置 2 0 0には、 各感情ユニッ トの感情レべ ルゃ各本能ュニッ トの本能レベルを変化するための要素となる感情 バラメータや本能パラメータ等が記憶されている: そして、 ロボッ ト装置 1 自身が学習を行ったり成長した場合には、 学習オブジェク トが記憶装置 2 0 0の各種のパラメータが書き換えることによって、 その性格や行動を変化させることもできる =
また、 上記ロボッ ト装置 1 は、 通信装置 3 0 0を介して、 図示し ない他のロボッ ト装置 1 Aと通信することができる- 具体的には、 ロボッ ト装置 1 の感情モジュールは、 感情レベルが 最も高い感情ュニッ トの情報を上記通信装置 3 0 0 (例えば無線通 信カード) に通知する。 通信装置 3 0 0は、 この感情ユニッ トの情 報を、 予め指定されている他のロボッ ト装置 1 Aに対して無線によ り送信する。 これにより、 上記他のロボッ ト装置 1 Aは、 上記ロボ ッ ト装置 1 の感情を読み取ることができ、 ロボッ ト装置 1 と上記他 のロボッ ト装置 1 Aとの間で、 感情によるコミュニケーショ ンをと ることができる。
これにより、 例えば、 ロボッ ト装置 1が怒っている場合には、 他 のロボッ ト装置 1 Aはそれに応じて行動をとることができるように なる = 具体的には、 他のロボッ ト装置 1 Aが自分のなわばりを荒ら していると判断したとき、 ロボッ ト装置 1は怒りに応じた行動と し て、 例えば図 9に示すように、 吠えるといった行動をとる。 また、 これに応じて、 口ボッ ト装置 1 の怒りの感情ュニッ トの感情レベル は高くなる: そしてこのとき、 ロボッ ト装置 1 の通信装置 3 0 0力 ら怒りの感情ュニッ トの感情レベルが他のロボッ ト装置 1 Aに送信 される:
ロボッ ト装置 1の怒りの感情を受信した他のロボッ ト装置 1 Aは、 これに応じた行動と して、 例えば図 9に示すように、 逃げる行動を とる: 例えば、 このように他のロボッ ト装置 1 Aがとる逃げる行動 は、 ロボッ ト装置 1 から送信されてきた怒りの感情に応じて他の口 ボッ ト装置 1 Aが自己の恐怖或いは驚きの感情レベルが高められる ことによりなされる
このようにロボッ ト装置 1 と上記他のロボッ ト装置 1 Aとの問で、 感情によるコミュニケーショ ンをと りそれに応じた行動をとること ができるが、 その行動は上述の行動に限定されるものではない: 例えば、 ロボッ ト装置 1が喜んでいる場合には、 他のロボッ ト装 置 1 Aはそれに応じて喜びの行動をとることもできる: すなわち、 ロボッ ト装置 1 の喜びの感情を受信した他のロボッ ト装置 1 Aは、 ロボッ ト装置 1から送信されてきた喜びの感情に応じて自己の喜び の感情レベルが高めて、 ロボッ ト装置 1 と共に喜びの行動をとる: また、 本能ユニッ トの情報も、 同様にして上記ロボッ ト装置 1か ら上記他のロボッ ト装置 1 Aに送信するができる: これにより、 本 能ュニッ トの情報についてもロボッ ト装置問で通信して、 コ ミ ュ二 ケ一シヨンをとることができる。
さらに、 ロボッ ト装置間の通信だけでなく、 図 1 0に示すよ うに、 いわゆるパーソナルコンピュータ (P C ) 4 0 0 との間で通信を行 つてもょレ、- すなわち、 P Cは、 ロボッ ト装置 1の感情モジュール の出力を制御して、 その感情に応じた行動を起こさせることができ なお、 無線によって通信を行う場合に限らず、 有線を使って通信 してもよいし、 また、 ロボッ ト装置 1 における感情ユニッ ト等の情 報をメモリ力一ド等の記録媒体に記録しておき、 これを他のロボッ ト装置 1 Aに装着してもよいのは勿論である:
また、 上記ロボッ ト装置 1 は、 イ ンタ一フェースが同一であれば、 特願平 1 0— 0 3 0 7 9 3号に記載されている仮想べッ ト装置にお ける電子べッ トとの間でも、 コミュニケーショ ンをとることが可能 となる。
さらに、 上述したハードウエア構成からなる口ボッ ト装置 1 を動 作させるために、 メモリカード等の記録媒体を当該ロボッ ト装置 1 に装着し、 その記録媒体に記録されている制御ァログラムをィンス トールすることによって行ってもよい: 上記記録媒体に記録されて いる制御プログラムと しては、 図 2に示すような O S, システムソ フ トウエア, ミ ドルウェア, アプリケーショ ンからなる制御プログ ラムが該当する。 産業上の利用可能性
本発明に係るロボッ ト装置、 ロボッ ト装置の制御方法及びプログ ラム記録媒体によれば、 ォブジェク ト指向により設計された様々な 感情を示す複数の感情ュニッ トが互いに影響し合うことによって感 情を出力し、 この出力する感情に基づいて動作することによって、 リァリティや生命感を有する生体のように自然な行動をすることが できる。

Claims

請求の範囲
1 . 感情を示す複数の感情ユニッ トが、 互いに影響し合うことによ つて感情を出力する感情モジュールと、
上記感情モジュールが出力する感情に基づいて動作をする動作手 段とを備えたロボッ ト装置。
2 . 生体行動に対応してそれぞれオブジェク ト指向により設計さ れた複数のオブジェク トを備え、
上記感情モジュールは、 上記複数のオブジェク トからの情報に基 づいて、 複数の感情ュニッ トが互いに影響し合って感情を出力し、 上記複数のオブジェク トは、 それぞれ互いに影響し合うと共に、 上記感情モジュールからの感情にも影響して情報を出力することを 特徴とする請求の範囲第 1項記載のロボッ ト装置。
3 . 上記感情ユニッ トは、 オブジェク ト指向により設計されている ことを特徴とする請求の範囲第 1項記載のロボッ ト装置:
4 . 上記動作手段は、 生体行動の手段に対応してそれぞれオブジェ ク ト指向により設計された複数のォブジュク トからなることを特徴 とする請求の範囲第 2項記載のロボッ ト装置。
5 . 上記感情モジュールは、 互いに影響し合った複数の感情ュニッ トのう ち、 最も感情レベルの高い感情ュニッ トの情報を上記感情と して出力することを特徴とする請求の範囲第 1項記載のロボッ ト装 置。
6 . 上記感情モジュールは、 外部情報に基づいて、 各感情ユニッ ト が互いに影響し合う ことを特徴とする請求の範囲第 5項記載の口ボ ッ ト装置。
7 . 上記感情モジュールは、 時間の経過に応じて各感情ユニッ トが 互いに影響し合うことを特徴とする請求の範囲第 5項記載のロボッ ト装置-
8 . 各感情ュニッ トの感情の状態を制御する複数のパラメ一タを記 憶する記憶手段を備え、
上記感情モジュールは、 上記記憶手段に記憶された各パラメータ に基づいて、 各感情ュニッ トの感情の状態を制御することを特徴と する請求の範囲第 1項記載のロボッ ト装置: =
9 . 上記感情モジユ ールが出力する感情を送信し及び Z又は外部か らの感情を受信して上記動作手段に通知する送信 Z受信手段を備え ることを特徴とする請求の範囲第 1項記載のロボッ ト装置。
1 0 . 上記送信 Z受信手段により受信した他のロボッ ト装置の感情 に応じた行動をとることを特徴とする請求の範囲第 9記載のロボッ ト装置。
1 1 . 上記感情モジュールは、 他のロボッ ト装置の感情に応じて上 記感情ュニッ トの感情の状態を変化させることを特徴とする請求の 範囲第 1 0項記載の口ボッ ト装置:
1 2 . 様々な本能を示す複数の本能ュニッ トがそれぞれ本能レベル を変化させることによって本能を出力する本能モジュールを備え、 上記感情モジュール及び上記本能モジュールは、 上記複数のォブ ジェク 卜に影響しながらそれぞれ独立に動作し、
上記動作手段は、 上記感情モジュール及び上記本能モジュールか らの出力に基づいて動作することを特徴とする請求の範囲第 2項記 載の口ボッ ト装置。
1 3 . 感情を示す複数の感情ュニッ 卜が互いに影響し合う ことによ つて感情を出力する感情出力工程と、
上記感情出力工程により出力された感情に基づいてロボッ ト装置 の動作を制御する動作制御工程とを有する口ボッ ト装置の制御方法:
1 4 . 上記感情出力工程では、 生体行動に対応してそれぞれォブジ ェク ト指向により設計された複数のオブジェク 卜からの情報に基づ いて、 複数の感情ュニッ トが互いに影響し合って感情を出力し、 上記複数のオブジェク トは、 それぞれ互いに影響し合う と共に、 上記感情出力工程からの感情にも影響して情報を出力することを特 徴とする請求の範囲第 1 3項記載のロボッ 卜装置の制御方法:
1 5 . 上記感情ユニッ トが、 オブジェク ト指向により設計されてい ることを特徴とする請求の範囲第 1 3項記載のロボッ ト装置の制御 方法。
1 6 . 上記感情出力工程では、 互いに影響し合った複数の感情ュニ ッ トのうち、 最も感情レベルの高い感情ュニッ トの情報を上記感情 と して出力することを特徴とする請求の範囲第 1 3項記載のロボッ ト装置の制御方法。
1 7 . 上記感情出力工程では、 外部情報に基づいて、 各感情ュニッ トが互いに影響し合うこどを特徴とする請求の範囲第 1 6項記載の ロボッ 卜装置の制御方法。
1 8 . 上記感情出力工程では、 時間の経過に応じて各感情ュニッ ト が互いに影響し合う ことを特徴とする請求の範囲第 1 6項記載の口 ボッ ト装置の制御方法。
1 9 . 上記感情出力工程では、 各感情ュニッ トの感情の状態を制御 するパラメ一タに基づいて、 各感情ュニッ 卜の感情の状態を制御す ることを特徴とする請求の範囲第 1 3項記載のロボッ ト装置の制御 方法-
2 0 . 他のロボッ ト装置が出力した当該他のロボッ ト装置の感情を 受信し、 当該他のロボッ ト装置の感情に応じた行動をとることを特 徴とする請求の範囲第 1 3記載のロボッ ト装置の制御方法: 2 1 . 上記感情出力工程では、 上記他のロボッ ト装置の感情に応じ て上記感情ュニッ トの感情の状態を変化させることを特徴とする請 求の範囲第 2 0項記載のロボッ ト装置の制御方法 =
2 2 . 様々な本能を示す複数の本能ュニッ 卜がそれぞれ本能レベル を変化させることによって本能を出力する本能出力工程を有し、 上記感情出力工程及び上記本能出力工程では、 上記複数のォブジ ェク トの影響を受けてそれぞれ独立に感情及び本能を出力し、 上記動作制御工程では、 上記感情出力工程及び上記本能出力工程 にて出力された感情及び本能に基づいてロボッ ト装置の動作を制御 することを特徴とする請求の範囲第 1 4項記載のロボッ ト装置の制 御方法。
2 3 . 感情を示す複数の感情ュニッ トが互いに影響し合うことによ つて感情を出力する感情出力工程と、
上記感情出力工程により出力された感情に基づいてロボッ ト装置 の動作を制御する動作制御工程と
を行うプログラムが記録されたことを特徴とするプログラム記録 媒体。
2 4 . 上記感情出力工程では、 生体行動に対応してそれぞれォブジ ェク ト指向により設計された複数のオブジェク 卜からの情報に基づ いて、 複数の感情ュニッ トが互いに影響し合って感情を出力し、 上記複数のォブジェク トは、 それぞれ互いに影響し合う と共に、 上記感情出力工程からの感情にも影響して情報を出力することを特 徴とする請求の範囲第 2 3項記載のブログラム記録媒体- 2 5 . 上記感情ユニッ トが、 オブジェク ト指向により設計されてい ることを特徴とする請求の範囲第 2 3項記載のブログラム記録媒体 = 2 6 . 上記感情出力工程では、 互いに影響し合った複数の感情ュニ ッ トのうち、 最も感情レベルの高い感情ュニッ トの情報を上記感情 と して出力することを特徴とする請求の範囲第 2 3項記載のブログ ラム記録媒体 =
2 7 . 上記感情出力工程では、 外部情報に基づいて、 各感情ュニッ トが互いに影響し合うことを特徴とする請求の範囲第 2 6項記載の プログラム記録媒体 c
2 8 . 上記感情出力工程では、 時問の経過に応じて各感情ユニッ ト が互いに影響し合う ことを特徴とする請求の範囲第 2 6項記載のプ 口グラム記録媒体。
2 9 . 上記感情出力工程では、 各感情ユニッ トの感情の状態を制御 するパラメータに基づいて、 各感情ュニッ 卜の感情の状態を制御す ることを特徴とする請求の範囲第 2 3項記載のプログラム記録媒体 c
3 0 . 他のロボッ ト装置が出力した当該他のロボッ ト装置の感情を 受信し、 当該他のロボッ ト装置の感情に応じた行動をとることを特 徴とする請求の範囲第 2 3項記載のプログラム記録媒体-
3 1 . 上記感情出力工程では、 上記他のロボッ ト装置の感情に応じ て上記感情ュニッ トの感情の状態を変化させることを特徴とする請 求の範囲第 3 0項記載のプログラム記録媒体。
3 2 . 様々な本能を示す複数の本能ュニッ トがそれぞれ本能レベル を変化させることによって本能を出力する本能出力工程のプログラ ムが記録され、
上記感情出力工程及び上記本能出力工程では、 上記複数のォブジ ェク トの影響を受けてそれぞれ独立に感情及び本能を出力し、 上記動作制御工程では、 上記感情出力工程及び上記本能モジユ ー ルにて出力された感情及び本能に基づいて口ボッ ト装置の動作を制 御することを特徴とする請求の範囲第 2 4項記載のブログラム記録 媒体-
3 3 . 本能を示す複数の本能ュニッ トがそれぞれ本能を出力する本 能モジュールと、
上記本能モジュールが出力する本能に基づいて動作をする動作手 段とを備えたロボッ ト装置。
3 4 . 生体行動に対応してそれぞれォブジェク ト指向により設計 された複数のオブジェク トを備え、
上記本能モジュールは、 上記複数のオブジェク トからの情報に基 づいて、 本能ユニッ トが本能を出力し、
上記複数のオブジェク トは、 それぞれ互いに影響し合う と共に、 上記本能モジュールからの本能にも影響して情報を出力することを 特徴とする請求の範固第 3 3項記載のロボッ ト装置- 3 5 . 上記本能ユニッ トは、 オブジェク ト指向により設計されてい ることを特徴とする請求の範囲第 3 3項記載のロボッ ト装置 c 3 6 . 上記動作手段は、 生体行動の手段に対応してそれぞれォブジ ェク ト指向により設計された複数のオブジェク トからなることを特 徴とする請求の範囲第 3 4項記載のロボッ ト装置 c
3 7 . 上記本能モジュールは、 最も本能レベルの高い本能ユニッ ト の情報を上記本能と して出力することを特徴とする請求の範囲第 3 3項記載のロボッ ト装置-
3 8 . 上記本能モジュールは、 外部情報に基づいて本能を出力する ことを特徴とする請求の範囲第 3 7項記載のロボッ ト装置:
3 9 . 上記本能モジュールは、 時間の経過に応じて各本能ユニッ ト が本能を出力することを特徴とする請求の範 ffl第 3 7項記載のロボ ッ ト装置:
4 0 . 各本能ュニッ 卜の本能の状態を制御する複数のパラメータを 記憶する記憶手段を備え、
上記本能モジュールは、 上記記憶手段に記憶された各パラメータ に基づいて、 各本能ュニッ 卜の本能の状態を制御することを特徴と する請求の範囲第 3 3項記載のロボッ ト装置 c
4 1 . 上記本能モジュールが出力する本能を送信し及びノ又は外部 からの本能を受信して上記動作手段に通知する送信 Z受信手段を備 えることを特徴とする請求の範囲第 3 3項記載のロボッ ト装置: 4 2 . 上記送信/受信手段により受信した他のロボッ ト装置の本能 に応じた行動をとることを特徴とする請求の範囲第 4 1記載のロボ ッ ト装置-
4 3 . 上記本能モジュールは、 他のロボッ ト装置の本能に応じて上 記本能ュニッ トの本能の状態を変化させることを特徴とする請求の 範囲第 4 2項記載のロボッ ト装置 =
4 4 . 様々な感情を示す複数の感情ュニッ トがそれぞれ感情レベル を変化させることによって感情を出力する感情モジュールを備え、 上記本能モジュール及び上記感情モジュールは、 上記複数のォブ ジェク 卜に影響しながらそれぞれ独立に動作し、
上記動作手段は、 上記本能モジュール及び上記感情モジュールか らの出力に基づいて動作することを特徴とする請求の範囲第 3 4項 記載のロポッ ト装置:
4 5 . 本能を示す複数の本能ュニッ 卜がそれぞれ本能を出力する本 能出力工程と、
上記本能出力工程により出力された本能に基づいてロボッ ト装置 の動作を制御する動作制御工程とを有する口ポッ ト装置の制御方法- 4 6 . 上記本能出力工程では、 生体行動に対応してそれぞれォブジ ェク ト指向により設計された複数のォブジュク トからの情報に基づ いて、 複数の本能ユニッ トが本能を出力し、
上記複数のォブジェク トは、 それぞれ互いに影響し合うと共に、 上記本能出力工程からの本能にも影響して情報を出力することを特 徴とする請求の範囲第 4 5項記載のロボッ ト装置の制御方法: 4 7 . 上記本能ユニッ トが、 オブジェク ト指向により設計されてい ることを特徴とする請求の範囲第 4 5項記載のロボッ ト装置の制御 方法。
4 8 . 上記本能出力工程では、 最も感情レベルの高い本能ユニッ ト の情報を上記本能と して出力することを特徴とする請求の範囲第 4 5項記載のロボッ ト装置の制御方法。
4 9 . 上記本能出力工程では、 外部情報に基づいて本能を出力する ことを特徴とする請求の範囲第 4 8項記載のロボッ ト装置の制御方 法。
5 0 . 上記本能出力工程では、 時間の経過に応じて各本能ユニッ ト が本能を出力することを特徴とする請求の範囲第 4 8項記載のロボ ッ ト装置の制御方法。
5 1 . 上記本能出力工程では、 各本能ュニッ 卜の本能の状態を制御 するパラメータに基づいて、 各本能ュニッ トの本能の状態を制御す ることを特徴とする請求の範囲第 4 5項記載のロボッ ト装置の制御 方法 =
5 2 . 他のロボッ ト装置が出力した当該他のロボッ ト装置の本能を 受信し、 当該他のロボッ ト装置の本能に応じた行動をとることを特 徴とする請求の範囲第 4 5記載のロボッ ト装置の制御方法: 5 3 . 上記本能出力工程では、 上記他のロボッ ト装置の本能に応じ て上記本能ュニッ トの本能の状態を変化させることを特徴とする請 求の範囲第 5 2項記載のロボッ ト装置の制御方法:
5 4 . 様々な感情を示す複数の感情ュニッ トがそれぞれ感情レベル を変化させることによって感情を出力する感情出力工程を有し、 上記本能出力工程及び上記感情出力工程では、 上記複数のォブジ ェク トの影響を受けてそれぞれ独立に本能及び感情を出力し、 上記動作制御工程では、 上記本能出力工程及び上記感情モジユ ー ルにて出力された本能及び感情に基づいて口ボッ ト装置の動作を制 御することを特徴とする請求の範囲第 4 6項記載のロボッ ト装置の 制御方法 -
5 5 . 本能を示す複数の本能ュニッ トがそれぞれ本能を出力する本 能出力工程と、
上記本能出力工程により出力された本能に基づいてロボッ ト装置 の動作を制御する動作制御工程と
を行うプログラムが記録されたことを特徴とするァログラム記録 媒体。
5 6 . 上記本能出力工程では、 生体行動に対応してそれぞれォブジ ェク ト指向により設計された複数のオブジェク トからの情報に基づ いて、 複数の本能ユニッ トが本能を出力し、
上記複数のオブジェク トは、 それぞれ互いに影響し合う と共に、 上記本能出力工程からの本能にも影響して情報を出力することを特 徴とする請求の範囲第 5 5項記載のプログラム記録媒体- 5 7 . 上記本能ユニッ トが、 オブジェク ト指向により設計されてい ることを特徴とする請求の範囲第 5 5項記載のプログラム記録媒体: 5 8 . 上記本能出力工程では、 最も本能レベルの高い本能ユニッ ト の情報を上記本能と して出力することを特徴とする請求の範囲第 5 5項記載のプログラム記録媒体:
5 9 . 上記本能出力工程では、 外部情報に基づいて、 各本能ュニッ トが本能を出力することを特徴とする請求の範囲第 5 8項記載のプ 口グラム記録媒体。
6 0 . 上記本能出力工程では、 時間の経過に応じて各本能ユニッ ト が本能を出力することを特徴とする請求の範囲第 5 8項記載のプロ グラム記録媒体。
6 1 . 上記本能出力工程では、 各本能ュニッ トの本能の状態を制御 するパラメータに基づいて、 各本能ュニッ トの本能の状態を制御す ることを特徴とする請求の範囲第 5 5項記載のプログラム記録媒体。 6 2 . 他のロボッ ト装置が出力した当該他のロボッ ト装置の本能を 受信し、 当該他のロボッ ト装置の本能に応じた行動をとることを特 徴とする請求の範囲第 5 5項記載のプログラム記録媒体。
6 3 . 上記本能出力工程では、 上記他のロボッ ト装置の本能に応じ て上記本能ュニッ トの本能の状態を変化させることを特徴とする請 求の範囲第 6 2項記載のプログラム記録媒体。
6 4 . 様々な感情を示す複数の感情ュニッ トがそれぞれ感情レベル を変化させることによって感情を出力する感情出力工程のァロダラ ムが記録され、
上記本能出力工程及び上記感情出力工程では、 上記複数のォブジ ュク トの影響を受けてそれぞれ独立に本能及び感情を出力し、 上記動作制御工程では、 上記本能出力工程及び上記感情出力工程 にて出力された本能及び感情に基づいて口ボッ ト装置の動作を制御 することを特徴とする請求の範囲第 5 6項記載のフ :口グラム記録媒 体。
6 5 . 感情を示す複数の感情ュニッ トがそれぞれ感情を出力する感 情モジユ ー と、
本能を示す複数の本能ュニッ トがそれぞれ本能を出力する本能モ ジュールと、
上記感情モジュールが出力する感情と本能モジュールが出力する 本能とに基づいて動作をする動作手段とを備えたロボッ ト装置: 6 6 . 上記感情ユニッ トは、 上記本能モジュールが出力した本能に 影響され、
上記本能モュニッ トは、 上記感情モジュールが出力した感情に影 響されることを特徴とする請求の範囲第 6 5項記載のロボッ ト装置:
6 7 . 上記複数の感情ユニッ トが、 互いに影響し合う ことによって 感情を出力することを特徴とする請求の範囲第 6 5項記載のロボッ ト装置。
6 8 . 生体行動に対応してそれぞれオブジェク ト指向により設計さ れた複数のオブジェク トを備え、
上記感情モジュールは、 上記複数のオブジェク トからの情報に基 づいて感情を出力し、 上記本能モジュールは、 上記複数のオブジェク トからの情報に基 づいて本能を出力し、
上記複数のォブジェク トは、 それぞれ互いに影響し合うと共に、 上記感情モジュールからの感情と上記本能モジュールからの本能と にも影響して情報を出力することを特徴とする請求の範囲第 6 5項 記載のロボッ ト装置:
6 9 . 上記感情ュニッ ト及び本能ュニッ トは、 オブジェク ト指向に より設計されていることを特徴とする請求の範囲第 6 5項記載の口 ボッ 卜装置 =
7 0 . 上記動作手段は、 生体行動の手段に対応してそれぞれォブジ ェク ト指向により設計された複数のオブジェク トからなることを特 徴とする請求の範囲第 6 6項記載のロボッ ト装置。
7 1 . 上記感情モジュールは、 感情レベルの高い感情ュニッ トの情 報を上記感情と して出力し、
上記本能モジュールは、 本能レベルの高い本能ュニッ トの情報を 上記本能と して出力することを特徴とする請求の範囲第 6 5項記載 のロボッ ト装置-
7 2 . 感情を示す複数の感情ュニッ トがそれぞれ感情を出力する感 情出力工程と、
本能を示す複数の本能ュニッ トがそれぞれ本能を出力する本能出 力工程と、
上記感情出力工程により出力された感情と上記本能出力工程によ り出力された本能とに基づいてロボッ ト装置の動作を制御する動作 制御工程とを有するロボッ ト装置の制御方法。
7 3 . 上記本能ユニッ トは、 上記本能出力工程にて出力した本能に 影響され、
上記本能ュニッ トは、 上記感情出力工程にて出力した感情に影響 されること特徴とする請求の範图第 7 2項記載のロボッ ト装置 = 7 4 . 上記複数の感情ユニッ トが、 互いに影響し合うことによって 感情を出力することを特徴とする請求の範囲第 7 2項記載のロボッ ト装置の制御方法
7 5 . 上記感情出力工程では、 生体行動に対応してそれぞれォブジ ェク ト指向により設計された複数のオブジェク トからの情報に基づ いて感情を出力し、
上記本能出力工程では、 生体行動に対応してそれぞれオブジェク ト指向により設計された複数のオブジェク トからの情報に基づいて 本能を出力し、
上記複数のオブジェク トは、 それぞれ互いに影響し合う と共に、 上記感情出力工程にて出力された感情と上記本能出力工程にて出力 された本能とにも影響して情報を出力することを特徴とする請求の 範囲第 7 2項記載のロボッ ト装置の制御方法。
7 6 . 上記感情ュニッ ト及び本能ュニッ トが、 オブジェク ト指向に より設計されていることを特徴とする請求の範囲第 7 2項記載の口 ボッ ト装置の制御方法。
7 7 . 上記感情出力工程では、 感情レベルの高い感情ュニッ トの情 報を上記感情と して出力し、
上記本能出力工程では、 本能レベルの高い本能ュニッ トの情報を 上記本能と して出力することを特徴とする請求の範囲第 7 2項記載 の口ボッ ト装置の制御方法。
7 8 . 感情を示す複数の感情ュニッ トがそれぞれ感情を出力する感 情出力工程と、
本能を示す複数の本能ュニッ トがそれぞれ本能を出力する本能出 力工程と、
上記感情出力工程にて出力された感情と上記本能出力工程にて出 力された本能とに基づいてロボッ ト装置の動作を制御する動作制御 工程と
を行うプログラムが記録されたことを特徴とするブロダラム記録 媒体 =
7 9 . 上記感情ユニッ トは、 上記本能出力工程にて出力された本能 に影響され、
上記本能ュニッ トは、 上記感情出力工程にて出力された感情に影 響されることを特徴とする請求の範囲第 7 8項記載のプログラム記 録媒体。
8 0 . 上記複数の感情ユニッ トが、 互いに影響し合う ことによって 感情を出力することを特徴とする請求の範囲第 7 8項記載のプログ ラム記録媒体 =
8 1 . 上記感情出力工程では、 生体行動に対応してそれぞれォブジ ェク ト指向により設計された複数のオブジェク トからの情報に基づ いて感情を出力し、
上記本能出力工程では、 生体行動に対応してそれぞれオブジェク ト指向により設計された複数のオブジェク トからの情報に基づいて 本能を出力し、
上記複数のォブジェク トは、 それぞれ互いに影響し合う と共に、 上記感情出力工程にて出力された感情と上記本能出力工程にて出力 された本能とにも影響して情報を出力することを特徴とする請求の 範囲第 7 9項記載のブログラム記録媒体-
8 2 . 上記感情ュニッ ト及び本能ュニッ トが、 オブジェク ト指向に より設計されていることを特徴とする請求の範囲第 7 8項記載のプ 口グラム記録媒体::
8 3 . 上記感情出力工程では、 感情レベルの高い感情ュニッ 卜の情 報を上記感情と して出力し、
上記本能出力工程では、 本能レベルの高い本能ュニッ 卜の情報を 上記本能と して出力することを特徴とする請求の範囲第 7 8項記載 のブログラム記録媒体 c
8 4 . 外部から与えられる刺激を検出する検出手段と、
上記刺激に関する情報の履歴を記憶する記憶手段と、
上記検出手段で検出した刺激に基づいて応答処理を決定する応答 処理決定手段と、
上記応答処理決定手段により決定された前記応答処理を実行する 応答実行手段と、
上記応答処理決定手段は、 上記応答処理を決定するに際し、 上記 記憶手段に記憶された履歴情報に基づいて行うロボッ ト装置。 8 5 . 上記応答処理決定手段は、 感情に起因する上記刺激に応じて 変化する上記履歴情報である感情レベルに応じて感情を決定する感 情モジュールであって、
上記応答実行手段は、 上記感情モジュールが決定した感情を表出 する行動及び Z又は動作をすることを特徴とする請求の範囲第 8 4 項記載のロボッ ト装置。
8 6 . 上記応答処理決定手段は、 本能に起因する上記刺激に応じて 変化する上記履歴情報である本能レベルに応じて本能を決定する本 能モジュールであって、
上記応答実行手段は、 上記本能モジュールが決定した本能を表出 する行動及び/又は動作をすることを特徴とする請求の範囲第 8 4 項記載のロボッ ト装置:
8 7 . 外部からロボッ ト装置に与えられる刺激を検出する検出工程 と、
上記検出工程にて検出した刺激に基づいて上記ロボッ ト装置の応 答処理を決定する応答処理決定工程と、
上記応答処理決定工程にて決定された前記応答処理を上記ロボッ ト装置により実行する応答実行工程と、
上記応答処理決定工程では、 上記応答処理を決定するに際し、 記 憶手段に記憶された上記刺激に関する情報の履歴に基づいて行う口 ボッ ト装置の制御方法。
8 8 . 上記応答処理決定手段は、 感情に起因する上記刺激に応じて 変化する上記履歴情報である感情レベルに応じて感情を決定する感 情モジュールであって、
上記応答実行手段は、 上記感情モジュールが決定した感情を表出 する行動及び/又は動作を上記ロボッ ト装置にさせることを特徴と する請求の範囲第 8 7項記載のロボッ ト装置の制御方法。
8 9 . 上記応答処理決定手段は、 本能に起因する上記刺激に応じて 変化する上記履歴情報である本能レベルに応じて本能を決定する本 能モジュールであって、
上記応答実行手段は、 上記本能モジュールが決定した本能を表出 する行動及び/又は動作を上記ロボッ ト装置にさせることを特徴と する請求の範囲第 8 7項記載のロボッ ト装置の制御方法。
9 0 . 外部からロボッ ト装置に与えられる刺激を検出する検出工程 と、
上記検出工程にて検出した刺激に基づいて上記ロボッ ト装置の応 答処理を決定する応答処理決定工程と、
上記応答処理決定工程にて決定された前記応答処理を上記ロボッ ト装置により実行する応答実行工程と、
上記応答処理決定工程では、 上記応答処理を決定するに際し、 記 憶手段に記憶された上記刺激に関する情報の履歴に基づいて行うプ 口グラムが記録されたことを特徴とするプログラム記録媒体: 9 1 . 上記応答処理決定手段は、 感情に起因する上記刺激に応じて 変化する上記履歴情報である感情レベルに応じて感情を決定する感 情モジュールであって、
上記応答実行手段は、 上記感情モジュールが決定した感情を表出 する行動及び 又は動作を上記ロボッ ト装置にさせるプログラムが 記録されたことを特徴とする請求の範囲第 9 0項記載のプログラム 記録媒体。
9 2 . 上記応答処理決定手段は、 本能に起因する上記刺激に応じて 変化する上記履歴情報である本能レベルに応じて本能を決定する本 能モジュールであって、
上記応答実行手段は、 上記本能モジュールが決定した本能を表出 する行動及び/又は動作を上記ロボッ ト装置にさせるブログラムが 記録されたことを特徴とする請求の範困第 9 0項記載のプログラム 記録媒体。
PCT/JP1999/006713 1998-11-30 1999-11-30 Robot, procede de commande de robot et support d'enregistrement de programme WO2000032361A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020007013955A KR20010052699A (ko) 1998-11-30 1999-11-30 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체
EP99972962A EP1136194A4 (en) 1998-11-30 1999-11-30 ROBOT, CONTROL PROCEDURE OF THE ROBOT AND MEDIUM FOR PROGRAM RECORDING
US09/701,254 US7076331B1 (en) 1998-11-30 1999-11-30 Robot, method of robot control, and program recording medium
HK02101082.5A HK1040664B (zh) 1998-11-30 2002-02-11 自動裝置、自動裝置的控制方法及程序記錄媒體

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP10/340716 1998-11-30
JP34071698 1998-11-30

Publications (1)

Publication Number Publication Date
WO2000032361A1 true WO2000032361A1 (fr) 2000-06-08

Family

ID=18339637

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1999/006713 WO2000032361A1 (fr) 1998-11-30 1999-11-30 Robot, procede de commande de robot et support d'enregistrement de programme

Country Status (6)

Country Link
US (1) US7076331B1 (ja)
EP (1) EP1136194A4 (ja)
KR (1) KR20010052699A (ja)
CN (1) CN1146493C (ja)
HK (1) HK1040664B (ja)
WO (1) WO2000032361A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120181A (ja) * 2000-10-11 2002-04-23 Sony Corp ロボット装置及びその制御方法
WO2002045916A1 (fr) * 2000-12-06 2002-06-13 Sony Corporation Robot, procede de commande du mouvement d'un robot et systeme de commande du mouvement d'un robot
JP2002233979A (ja) * 2001-01-19 2002-08-20 Chinsei Ri 知能型愛玩ロボット
JP2002239256A (ja) * 2001-02-14 2002-08-27 Sanyo Electric Co Ltd 自動応答玩具における感情決定装置および自動応答玩具
US7778730B2 (en) 2005-12-09 2010-08-17 Electronics And Telecommunications Research Institute Robot for generating multiple emotions and method of generating multiple emotions in robot

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100624403B1 (ko) * 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
KR100858079B1 (ko) * 2002-01-03 2008-09-10 삼성전자주식회사 에이전트 감정 생성 방법 및 장치
WO2005069890A2 (en) * 2004-01-15 2005-08-04 Mega Robot, Inc. System and method for reconfiguring an autonomous robot
KR100819248B1 (ko) * 2006-09-05 2008-04-02 삼성전자주식회사 소봇의 감정변환 방법
CN101224343B (zh) * 2007-01-19 2011-08-24 鸿富锦精密工业(深圳)有限公司 类生物及其部件控制模块
DE102007048085A1 (de) 2007-10-05 2009-04-16 Navalis Nutraceuticals Gmbh Arzneimittel enthaltend Frauenmantel, Mönchspfeffer zur Behandlung von Endometritis, Vagintis
DE502008002255D1 (de) 2007-03-23 2011-02-24 Navalis Nutraceuticals Gmbh Arzneimittel enthaltend Fraumenmantel zur Behandlung von Endometritis, Vaginitis
DE102007014595A1 (de) 2007-03-23 2008-09-25 Navalis Nutraceuticals Gmbh Arzneimittel enthaltend Frauenmantel (Alchemilla vulgaris) zur Behandlung von Endometritis
CN101411946B (zh) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 玩具恐龙
US9155961B2 (en) 2009-05-28 2015-10-13 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components
US8939840B2 (en) 2009-07-29 2015-01-27 Disney Enterprises, Inc. System and method for playsets using tracked objects and corresponding virtual worlds
FR2989209B1 (fr) * 2012-04-04 2015-01-23 Aldebaran Robotics Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot
US9387588B1 (en) 2014-08-25 2016-07-12 Google Inc. Handling gait disturbances with asynchronous timing
US9618937B1 (en) 2014-08-25 2017-04-11 Google Inc. Slip detection using robotic limbs
US10081098B1 (en) 2014-08-25 2018-09-25 Boston Dynamics, Inc. Generalized coordinate surrogates for integrated estimation and control
US9446518B1 (en) * 2014-11-11 2016-09-20 Google Inc. Leg collision avoidance in a robotic device
US9499218B1 (en) 2014-12-30 2016-11-22 Google Inc. Mechanically-timed footsteps for a robotic device
US9996369B2 (en) 2015-01-05 2018-06-12 Anki, Inc. Adaptive data analytics service
US9594377B1 (en) * 2015-05-12 2017-03-14 Google Inc. Auto-height swing adjustment
US9586316B1 (en) 2015-09-15 2017-03-07 Google Inc. Determination of robotic step path
US9789919B1 (en) 2016-03-22 2017-10-17 Google Inc. Mitigating sensor noise in legged robots
CN106504614B (zh) * 2016-12-01 2022-07-26 华南理工大学 一种积木式编程的教育机器人
JP6605442B2 (ja) 2016-12-27 2019-11-13 本田技研工業株式会社 情報提供装置および情報提供方法
WO2019068634A1 (en) * 2017-10-02 2019-04-11 Starship Technologies Oü DEVICE AND METHOD FOR DISTRIBUTING ARTICLES CONSUMABLE BY A MOBILE ROBOT
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6224988A (ja) * 1985-07-23 1987-02-02 志井田 孝 感情をもつロボツト
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
JPH10235019A (ja) * 1997-02-27 1998-09-08 Sony Corp 携帯型ライフゲーム装置及びそのデータ管理装置
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4657104A (en) * 1983-07-23 1987-04-14 Cybermation, Inc. Concentric shaft mobile base for robots and the like
US5742738A (en) * 1988-05-20 1998-04-21 John R. Koza Simultaneous evolution of the architecture of a multi-part program to solve a problem using architecture altering operations
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US5963712A (en) * 1996-07-08 1999-10-05 Sony Corporation Selectively configurable robot apparatus
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6224988A (ja) * 1985-07-23 1987-02-02 志井田 孝 感情をもつロボツト
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
JPH10235019A (ja) * 1997-02-27 1998-09-08 Sony Corp 携帯型ライフゲーム装置及びそのデータ管理装置
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
HIROHIDE USHIDA ET AL: "Emotional Model Application to Pet Robot (in Japanese)", PROCEEDINGS DISTRIBUTED AT LECTURE MEETING ON ROBOTICS AND MECHATRONICS PREPARED BY JAPAN MACHINERY SOCIETY, vol. 1998, no. PT1, 26 June 1998 (1998-06-26), pages 2CII4.5 (1) - 2CII4.5 (2), XP002929938 *
MASAHIRO FUJITA ET AL: "Reconfigurable Physical Agents", PROCEEDINGS OF THE SECOND INTERNATIONAL CONFERENCE ON AUTONOMOUS AGENTS, 9 May 1998 (1998-05-09), pages 54 - 61, XP002926100 *
MASAHIRO FUJITA ET AL: "Robot Entertainment (in Japanese)", PROCEEDINGS OF THE 6TH SONY RESEARCH FORUM, 27 November 1996 (1996-11-27), pages 234 - 239, XP002929935 *
MASAHIRO FUJITA: "Robot Entertainment: Small Four-Legged Automatic Robot", TRANSACTIONS OF JAPAN ROBOT SOCIETY, vol. 16, no. 3, 15 April 1998 (1998-04-15), pages 31 - 32, XP002929934 *
See also references of EP1136194A4 *
SHUSUKE MOGI ET AL: "Basic Research on Artificial Psychology Model (in Japanese)", PRINTINGS AT 15TH STUDY MEETING BY HUMAN INTERFACE AND COGNITIVE MODEL RESEARCH GROUP, ARTIFICIAL INTELLIGENCE SOCIETY, 24 January 1992 (1992-01-24), pages 1 - 8, XP002929937 *
TETSUYA OGATA ET AL: "Emotional Model and Internal Symbol Acquisition Model Based on Actions of the Robot (in Japanese)", PROCEEDINGS DISTRIBUTED AT LECTURE MEETING ON ROBOTICS AND MECHATRONICS PREPARED BY JAPAN MACHINERY SOCIETY, vol. 1998, no. PT1, 26 June 1998 (1998-06-26), pages P2CII4.3 (1) - 2CII4.3 (2), XP002929936 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120181A (ja) * 2000-10-11 2002-04-23 Sony Corp ロボット装置及びその制御方法
WO2002045916A1 (fr) * 2000-12-06 2002-06-13 Sony Corporation Robot, procede de commande du mouvement d'un robot et systeme de commande du mouvement d'un robot
US6889117B2 (en) 2000-12-06 2005-05-03 Sony Corporation Robot apparatus and method and system for controlling the action of the robot apparatus
US7076334B2 (en) 2000-12-06 2006-07-11 Sony Corporation Robot apparatus and method and system for controlling the action of the robot apparatus
CN1309535C (zh) * 2000-12-06 2007-04-11 索尼公司 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的系统
KR100843822B1 (ko) * 2000-12-06 2008-07-04 소니 가부시끼 가이샤 로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의동작 제어 시스템
JP2002233979A (ja) * 2001-01-19 2002-08-20 Chinsei Ri 知能型愛玩ロボット
JP2002239256A (ja) * 2001-02-14 2002-08-27 Sanyo Electric Co Ltd 自動応答玩具における感情決定装置および自動応答玩具
US7778730B2 (en) 2005-12-09 2010-08-17 Electronics And Telecommunications Research Institute Robot for generating multiple emotions and method of generating multiple emotions in robot

Also Published As

Publication number Publication date
KR20010052699A (ko) 2001-06-25
EP1136194A1 (en) 2001-09-26
US7076331B1 (en) 2006-07-11
HK1040664B (zh) 2005-03-18
CN1312750A (zh) 2001-09-12
HK1040664A1 (en) 2002-06-21
CN1146493C (zh) 2004-04-21
EP1136194A4 (en) 2001-09-26

Similar Documents

Publication Publication Date Title
WO2000032361A1 (fr) Robot, procede de commande de robot et support d'enregistrement de programme
US7515992B2 (en) Robot apparatus and emotion representing method therefor
US8145492B2 (en) Robot behavior control system and method, and robot apparatus
US6493606B2 (en) Articulated robot and method of controlling the motion of the same
WO2004080665A1 (ja) ロボット装置、その行動制御方法及びプログラム
JP4609584B2 (ja) ロボット装置、顔認識方法及び顔認識装置
JP3714268B2 (ja) ロボット装置
US20050197739A1 (en) Behavior controlling system and behavior controlling method for robot
US20040210345A1 (en) Buffer mechanism and recording and/or reproducing apparatus
KR20020067699A (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
JP2006110707A (ja) ロボット装置
JP2007125631A (ja) ロボット装置及びその行動制御方法
JP3925140B2 (ja) 情報提供方法及び情報提供装置、並びにコンピュータ・プログラム
JP4296736B2 (ja) ロボット装置
JP2001236585A (ja) 移動ロボット及び移動ロボットのための盗難防止方法
JP2007125629A (ja) ロボット装置及びその行動制御方法
US11833441B2 (en) Robot
WO2002030629A1 (fr) Appareil robot, systeme d"affichage d"information et procede d"affichage d"information
JP2002059384A (ja) ロボットのための学習システム及び学習方法
JP2004114285A (ja) ロボット装置及びその行動制御方法
JP3501123B2 (ja) ロボット装置及びロボット装置の行動制御方法
JP2002086380A (ja) 脚式ロボット及びその制御方法
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP4552465B2 (ja) 情報処理装置、ロボット装置の行動制御方法、ロボット装置及びコンピュータ・プログラム
JP2005193330A (ja) ロボット装置及びその情動表出方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 99809484.6

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09701254

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020007013955

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 1999972962

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020007013955

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1999972962

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1999972962

Country of ref document: EP

WWR Wipo information: refused in national office

Ref document number: 1020007013955

Country of ref document: KR