WO2002030630A1 - Appareil robot et procede de commande du mouvement de l"appareil robot - Google Patents

Appareil robot et procede de commande du mouvement de l"appareil robot Download PDF

Info

Publication number
WO2002030630A1
WO2002030630A1 PCT/JP2001/008954 JP0108954W WO0230630A1 WO 2002030630 A1 WO2002030630 A1 WO 2002030630A1 JP 0108954 W JP0108954 W JP 0108954W WO 0230630 A1 WO0230630 A1 WO 0230630A1
Authority
WO
WIPO (PCT)
Prior art keywords
command
synchronization
data
output
control
Prior art date
Application number
PCT/JP2001/008954
Other languages
English (en)
French (fr)
Inventor
Tsuyoshi Takagi
Kohtaro Sabe
Takayuki Sakamoto
Kazufumi Oyama
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/149,825 priority Critical patent/US6697708B2/en
Priority to KR1020027007384A priority patent/KR20020067694A/ko
Publication of WO2002030630A1 publication Critical patent/WO2002030630A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4062Monitoring servoloop, e.g. overload of servomotor, loss of feedback or reference
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/34Director, elements to supervisory
    • G05B2219/34396Control different groups of functions, commands simultaneously, synchronized

Definitions

  • the present invention relates to a robot device and an operation control method of such a robot device, and more particularly, to a robot device having a plurality of operation means and an operation of such a robot device. It relates to a control method.
  • BACKGROUND ART In recent years, there has been provided a robot device whose external shape is formed by imitating an animal such as a dog. This robot device behaves like an animal according to, for example, external information or an internal state (for example, an emotional state).
  • each operation unit can be operated independently. Accordingly, for example, when a plurality of operation units are operated in synchronization, synchronized control is required in the robot apparatus. For example, some robot devices can control the joints and change the posture, while synchronizing and executing the eye movements constituted by LEDs, etc., and the sound output based on speed and the like. However, in such a case, each operation unit must be controlled synchronously.
  • the present invention has been made in view of the above-described circumstances, and a robot device and an operation control of the robot device which enable accurate synchronization of a plurality of operation units and efficient synchronization. It is intended to provide a way.
  • a robot apparatus includes, in order to solve the above-described problem, a plurality of operation means for displaying an operation, and a control means for controlling the operation of the plurality of operation means. Then, the control means causes the plurality of operating means to perform a synchronous operation as a subsequent operation continuously after the completion of the operation by the preceding operating means.
  • the robot device having such a configuration performs a synchronous operation continuously without delay after completion of the preceding operation.
  • the operation control method of the mouth pot device includes, after completion of the operation by the preceding operation means, performing a synchronous operation by a plurality of operation means as a subsequent operation. Let it.
  • the robot device continuously performs the synchronous operation without delay after the completion of the preceding operation.
  • a robot apparatus including: a plurality of operation displaying means for displaying an operation; and a plurality of operation control means for controlling the operation displaying means.
  • a command control means for outputting a plurality of synchronization commands related to a command for causing the robot apparatus to perform a predetermined operation; and controlling the synchronization command output from the command control means, Command transmission control means for transmitting the synchronization command to the operation control means, wherein the command control means includes at least an ID of a command to be synchronized with each of the plurality of synchronization commands and a total number of the commands to be synchronized. And outputs a soil registration synchronization command, and the command transmission control means performs the above-mentioned operation based on the ID and the total number. Synchronize the synchronization command transmitted to the operation control means.
  • the lopot device having such a configuration performs a synchronous operation continuously without delay after completion of the preceding operation.
  • a motion control method for a robot apparatus includes a plurality of motion expression units for expressing motion and a plurality of motion control units for controlling the motion expression unit.
  • a command control means comprising: a plurality of synchronous commands associated with a command for causing the robot apparatus to express a predetermined operation;
  • the command transmission control means controls the synchronization command output from the command control means, and outputs the ID and the total number of commands to be synchronized. And synchronizing the plurality of synchronization commands and transmitting the synchronization command to the plurality of operation control means.
  • the robot device continuously performs the synchronous operation without delay after the completion of the preceding operation.
  • a robot apparatus including: a plurality of operation displaying means for displaying an operation; and a plurality of operation control means for controlling the operation displaying means.
  • a command control means for outputting a plurality of synchronization commands related to a command for causing the robot device to perform a predetermined operation; a plurality of buses for transmitting the command; and a plurality of buses for transmitting the command.
  • a plurality of command transmission control means for controlling the synchronization command output from the command control means and transmitting the synchronization command to the plurality of operation control means; and an access by the plurality of command transmission control means is possible.
  • a shared memory wherein the command control means includes at least an ID of a command to be synchronized with that of the plurality of synchronization commands and the synchronization.
  • the synchronous command is output with a label indicating the total number of commands to be output, and the command transmission control means stores the ID and the total number in the shared memory, and refers to the shared memory.
  • a plurality of the synchronization commands are synchronized and transmitted to the operation control means via the bus.
  • the robot device having such a configuration performs synchronous operation continuously without delay after completion of the preceding operation.
  • a motion control method for a robot apparatus includes a plurality of motion expression means for expressing motion and a plurality of motion control means for controlling the motion expression means.
  • An operation control method for a robot device comprising: a command control means for synchronizing at least one of a plurality of synchronous commands related to a command for causing the robot device to express a predetermined operation with an ID of a command to be synchronized with the command.
  • Be The synchronous command is output with a lapel indicating the total number of commands transmitted, and the command transmission control means provided in each of the plurality of buses transmitting the command transmits the synchronous command.
  • a plurality of command transmission control units can be accessed via the bus.
  • the synchronization command is synchronized, and the synchronization command is transmitted to the plurality of operation control means.
  • the robot device continuously performs the synchronous operation without delay after the completion of the preceding operation.
  • FIG. 1 is a perspective view showing an external configuration of a robot device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a circuit configuration of the robot device described above.
  • FIG. 3 is a block diagram showing a software configuration of the robot device described above.
  • FIG. 4 is a block diagram showing a configuration of a middle layer in a software configuration of the above-described robot apparatus.
  • FIG. 5 is a block diagram showing a configuration of an application layer in the software configuration of the robot device described above.
  • FIG. 6 is a block diagram showing a configuration of the behavior model library of the above-mentioned application layer.
  • FIG. 7 is a diagram used to explain a finite probability matrix that is information for determining the action of the robot apparatus.
  • FIG. 8 is a diagram showing a state transition table prepared for each node of the finite-state automaton.
  • FIG. 10 is a block diagram illustrating a configuration of a main part of the mouth port device according to the embodiment. is there.
  • FIG. 11 is a block diagram showing the relationship between the command control unit and the database.
  • FIGS. 12A and 12B are diagrams used to explain the case where the light emission synchronization command is delayed with respect to the motion synchronization command.
  • FIG. 13A and FIG. 13B are diagrams used to explain a case where a synchronization operation is performed by using one set of data for synchronization that has been set as the data.
  • FIG. 14 is a diagram used to explain a case where the data bus is locked.
  • FIG. 15 is a diagram used for explaining another case where the overnight bus is locked.
  • FIG. 16 is a diagram used for describing a process that is enabled by applying the present invention.
  • FIG. 17 is a block diagram showing a specific configuration of a main part in the robot apparatus according to the embodiment.
  • FIG. 18 is a diagram showing a configuration of a command transmitting unit which is a component of a main part in the above-described robot apparatus.
  • FIG. 19 is a diagram showing a configuration of a memory that is a main component of the robot apparatus described above.
  • FIG. 20 is a flowchart showing a processing procedure in the above configuration.
  • FIG. 21 is a diagram used for describing a specific process that is enabled by applying the present invention.
  • FIG. 22 is a diagram used to explain the case where the output of a synchronization command from the command control unit is started by the transmission completion signal.
  • FIG. 23 is a diagram used to explain the timing when data is transmitted from the command transmission unit to the data bus when the output of the synchronization command from the command control unit is started by the transmission completion signal.
  • FIG. 24 is a diagram used to describe a case where the output of a synchronization command from the command control unit is started by issuing a transmission enable signal.
  • FIG. 25 is a block diagram showing a specific configuration of a main part of the robot apparatus according to the embodiment, in which a command transmission unit and each control unit are individually connected by an independent data bus. It is.
  • FIG. 26 is a diagram showing a command which is an essential part of the robot apparatus shown in FIG. 25 described above. It is a figure which shows the structure of a command transmission part.
  • FIG. 27 is a diagram illustrating a configuration of a memory that is a main component of the robot device illustrated in FIG. 25 described above.
  • FIG. 28 is a flowchart showing a processing procedure in the configuration shown in FIG. 25 described above.
  • BEST MODE FOR CARRYING OUT THE INVENTION is an autonomous robot apparatus that behaves autonomously according to the surrounding environment (external factors) and the internal state (internal factors).
  • leg units 3A, 3B, 3C, and 3D are connected to the front, rear, left, and right of the body unit 2.
  • a head unit 4 and a tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.
  • the body unit 2 includes a CPU (Central Processing Unit) 10, a DRAM (Dynamic Random Access Memory) 11, a flash ROM (Read 0 nly Memory) 12, and a PC (Personal Computer).
  • a control unit 16 formed by connecting the force F interface circuit 13 and the signal processing circuit 14 to each other via an internal bus 15, and a device as a power source of the robot device 1 1 and 7 are stored.
  • the body unit 2 also houses an angular velocity sensor 18 and an acceleration sensor 19 for detecting the direction and the acceleration of the movement of the robot device 1.
  • the head unit 4 also has a CCD (Charge Coupled Device) camera 20 for capturing an image of the external situation, and the pressure received by the user from physical actions such as stroking and tapping. Evening sensor 21 to detect and position ahead A distance sensor 22 for measuring a distance to an object to be illuminated, a microphone 23 for collecting external sound, a speaker 24 for outputting a sound such as a cry, and an “eye” of the robot device 1. Corresponding LEDs (Light Emitting Diodes) (not shown) are arranged at predetermined positions.
  • CCD Charge Coupled Device
  • each leg unit 3A3D, the connecting portions of each leg unit 3A3D and the body unit 2, the connecting unit of the head unit 4 and the body unit 2, and the tail unit etc. 5 tail 5 a connecting portion of it that the number of degrees of freedom min Akuchiyue Isseki 25 i 25 n ⁇ Pi potentiometer Isseki 26! 26 n are disposed.
  • Akuchiyue Isseki 25 25 n has a configuration the evening servomotor. By driving the servo motor, the leg units 3A and 3D are controlled to make a transition to the target posture or motion.
  • Various sensors such as the angular velocity sensor 18, the acceleration sensor 19, the sensor 21, the distance sensor 22, the microphone 23, the speaker 24, and the potentiometer 26 26 n, and the LED and the actuator 25! 25 n is its being connected thereto corresponding hub 27 i 27 signal processing circuit of the control unit 1 6 via the n 1 4 and, CCD camera 20 ⁇ Pi battery 17 is connected directly to the signal processing circuit 1 4 ing.
  • the signal processing circuit 14 sequentially captures the sensor data, image data, and audio data supplied from each of the above-described sensors, and sequentially stores them at predetermined positions in the DRAM 1 via the internal bus 15. .
  • the signal processing circuit 14 sequentially takes in the remaining battery level data indicating the remaining battery level supplied from the battery 17 and stores it in a predetermined position in the DRAM 11.
  • the sensor data, image data, audio data, and remaining battery data stored in the DRAM 11 in this way are used later when the CPU 10 controls the operation of the robot device 1. You.
  • the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 loaded in the PC card slot (not shown) of the body unit 2 into the PC.
  • the data is read out via the card interface circuit 13 or directly and stored in the DRAM 11.
  • the CPU 10 thereafter stores the sensor data, image data, audio data, and battery remaining data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above, based on the evening and the surroundings. Judgment of the situation, user's instruction and presence / absence of action.
  • CPU 10 is configured to determine a subsequent action based on the control blog ram stored in the determination result and DRAM 11, by driving the ⁇ click Chiyue Isseki 25 i ⁇ 25 n required based on the determination result
  • the head unit 4 is swung up and down, left and right, the tail unit 5 of the tail unit 5 is moved, and the leg units 3A to 3D are driven to walk.
  • the CPU 1.0 generates an audio signal as needed and gives it to the speaker 24 as an audio signal via the signal processing circuit 14 so that the audio based on the audio signal is externally provided. Turn on or turn off or blink the above LED.
  • the robot device 1 is capable of acting autonomously in accordance with its own and surrounding conditions, and instructions and actions from the user.
  • the device driver layer 30 is located at the lowest layer of the control program, and is composed of a device / dryno set 31 including a plurality of device drivers.
  • each device driver is an object that is allowed to directly access hardware used for normal convenience such as the CCD camera 20 (Fig. 2) and the camera, and the corresponding hardware Performs the process in response to the interrupt.
  • Robotidzuku, server object 32 the device located in the lowest layer of Doraino LES I catcher 30, for example, above-described various sensors Ya Akuchiyue Isseki 25 i to 25 n such as I for accessing the hardware
  • a virtual robot 33 which is a group of software that provides a user interface
  • a power manager 34 which is a group of software that manages power supply switching
  • a group of software that manages various other devices and drivers The Device. Dryno, 'Manager 35, Robot It is composed of a design robot 36 which is a software group for managing the mechanism of the device 1.
  • the manager object 37 is composed of an object manager 38 and a service manager 39.
  • the object manager 38 is a software group that manages the start and end of each software group included in the mouth layer server server object 32, middleware layer 40, and application layer 41.
  • the service manager 39 is a group of software for managing the connection of each object based on the connection information between the objects described in the connection file stored in the memory card 28 (FIG. 2).
  • the middleware layer 40 is located at a higher layer of the robotic server object 32 and is composed of a group of software that provides basic functions of the mouthboard device 1 such as image processing and audio processing. ing.
  • the application layer 41 is located at a higher layer than the middle 'ware' layer 40, and is based on the processing result processed by each software group constituting the middle 'ware' layer 40. It is composed of a software group for determining the behavior of the device 1.
  • the specific software configurations of the middle layer 40 and the application layer 41 are shown in FIG.
  • the middle wear layer 40 is used for noise detection, temperature detection, brightness detection, scale recognition, distance detection, attitude detection, Yutsuchi sensor, and motion detection.
  • a signal processing module 50 to 58 for color recognition and a recognition system 60 having an input semantics converter module 59 and the like, and an output semantics converter module 68 and attitude management, tracking, It comprises an output system 69 having signal processing modules 61 to 67 for motion reproduction, walking, return to fall, LED lighting, and sound reproduction.
  • Each of the signal processing modules 50 to 58 of the recognition system 60 is composed of a robotic server object 3 2, a virtual robot 3 3, and each sensor data and image read from the DRAM 11 (FIG. 2) by the virtual robot 3 3.
  • the corresponding one of the data and the voice data is fetched, a predetermined process is performed based on the data, and the processing result is given to the input semantics converter module 59.
  • a virtual 'mouth The bot 33 is configured as a part that exchanges or converts a signal according to a predetermined communication protocol.
  • the input semantics converter module 59 detects "noisy”, “hot”, “bright”, “ball detected”, and “fall detected” based on the processing results given from each of the signal processing modules 50 to 58. Self and surrounding conditions such as ⁇ stroke '', ⁇ hit '', ⁇ domes sound was heard '', ⁇ moving object detected '' or ⁇ obstacle detected '', and from the user Recognize the command and action of, and output the recognition result to Application 'Layer 41 (Fig. 2).
  • the application layer 41 is composed of five modules: a behavior model library 70, a behavior switching module 71, a learning module 72, an emotion model 73, and an instinct model 74.
  • the behavior model library 70 includes “when the battery level is low”, “returns to fall”, “when avoiding obstacles”, “when expressing emotions”, “ Independent action models 7 ( ⁇ ⁇ a On) are provided corresponding to several pre-selected condition items such as "when a ball is detected”.
  • behavior models 70 i to 70 n are necessary when the recognition result is given from the input semantics converter module 59 or when a certain period of time has passed since the last recognition result was given.
  • the following actions are performed with reference to the parameter value of the corresponding emotion stored in the emotion model 73 and the parameter value of the corresponding desire stored in the instinct model 74, as described below. It makes the decision and outputs the decision result to the action switching module 71.
  • each of the behavior models 70 i to 7 On is a single node (state) NODE as shown in FIG. 7 as a method for determining the next behavior.
  • NODE n to any other node NODE.
  • each of the behavior models 70 i to 70 n corresponds to its own behavior model 70 i to 7 Node NOD E forming 0 n . ⁇ And it is it corresponds to NOD E n, these nodes NOD E. ⁇ Has a state transition table 80 as shown in FIG. 8 for each NOD E n.
  • the node NODE. ⁇ Input events to transition condition in NOD E n is listed in priority order in the row of "input event name", column further conditions for the transition condition is "de Isseki name" and "data range” Is described in the corresponding line.
  • the node NOD Ei represented by the state transition table 80 in FIG. .
  • the “size (SI ZE)” of the ball given together with the recognition result is in the range of “0 to 1000”.
  • the “distance (DIS TANC E) j to the obstacle given with the recognition result is 0 to 100 Is the condition for transitioning to another node.
  • this node NOD E i. .
  • the behavior model 7 (the emotion model 73 and the instinct model 74 that the ⁇ ⁇ a On refers to periodically, the parameters of each emotion and each desire held in the instinct model 74 respectively.
  • one of the parameter values of “Joy”, “SURPR ISE”, or “Sadness (SUDNE SS)” held in the emotion model 73 is “50 to 100”. When it is a range, it is possible to transition to another node.
  • the node NODE is shown in the row of “destination node” in the column of “transition probability to another node”.
  • the node names that can transition from NODE n to NODE n are listed, and all the conditions described in the columns of “input event name”, “de-night name”, and “de-night range” are met.
  • the transition probability to NODE n is described in the corresponding place in the column of "Transition probability to other nodes", and the node NODE.
  • Action to be output when transitioning to ⁇ NOD E n is that are described in the row of "output action" in the column of "probability of transition to another node”. Note that the sum of the probabilities of each row in the column “Transition probabilities to other nodes” is 100 [%].
  • the node NODE! Represented by the state transition table 80 in FIG. . So, for example If the ball is detected (BAL L) and the recognition result indicates that the "SIZE" of the pole is in the range of "0 to 1000", “30 [%]” It is possible to transition to “node NODE 12 (node 120)” with certainty, and the action of “ACT I ON 1” will be output at that time.
  • Each of the behavior models 70 to 7 On is a node NO DE described as such a state transition table 80.
  • ⁇ NO DE n are connected to each other, and when the recognition result is given from the input semantics converter overnight module 59, the corresponding node NODE. Stochastically determine the next action by utilizing a state transition table of ⁇ NOD E n, and to output the determination result to the behavior switching module 71.
  • the behavior switching module 71 shown in FIG. 5 includes, from the behavior models 70 i to 70 n of the behavior model library 70, the behavior models 70 to 7 On which have predetermined higher priorities.
  • the output action is selected, and a command to execute the action (hereinafter, referred to as an action command) is sent to the output semantics comparator module 68 of the middle 'ware' layer 40.
  • an action command a command to execute the action (hereinafter, referred to as an action command) is sent to the output semantics comparator module 68 of the middle 'ware' layer 40.
  • it is inscribed behavior model 7 ( ⁇ ⁇ ⁇ 0 n as priority lower is set higher in FIG.
  • the action switching module 71 notifies the learning module 72, the emotion model 73, and the instinct model 74 that the action has been completed, based on the action completion information provided from the output semantics compiling module 68 after the action is completed. .
  • the learning module 72 inputs, from among the recognition results given from the input semantics converter module 59, the recognition result of the instruction received from the user, such as “hit” or “stroke”.
  • the learning module 72 lowers the probability of occurrence of the action when “beaten (scolded)” and “strokes (praise)”. was) "sometimes to increase the expression probability of that action, it changes the corresponding transition probability of the corresponding behavior model 7 ( ⁇ ⁇ ⁇ 0 n in the behavioral model library 7 0.
  • the emotion model 73 includes “joy”, “sadness ⁇ ”, and “anger”. (anger), “surprise”, “disgust”, and “fear”, a total of six emotions, each of which has a parameter indicating the intensity of the emotion. . Then, the emotion model 73 converts the parameter values of each of these emotions into a specific recognition result such as “hit” and “stroke” given from the input semantics compa It is updated periodically based on the notification from the time and action switching module 71 and the like.
  • the emotion model 73 is determined based on the recognition result given from the input semantics compiling module 59, the behavior of the robot device 1 at that time, the elapsed time since the last update, and the like. of ⁇ the variation of its emotion at that time to be ⁇ by calculating equation [seven], E [seven] current parameter Isseki value of the emotion, the coefficient representing the sensitivity of the information moving as k e, The parameter value E [t + 1] of the emotion in the next cycle is calculated by equation (1), and this is calculated as the current parameter value E of the emotion.
  • the emotion model 73 updates the parameter values of all emotions in the same manner.
  • each recognition result and the notification from the output semantics converter module 68 affect the variation ⁇ ⁇ ⁇ [7] of the parameter value of each emotion is determined in advance.
  • a recognition result such as “ta” has a large effect on the amount of change in the parameter value of the emotion of “anger” ⁇ ⁇ [t]
  • a recognition result such as “stroke” changes the parameter value of the emotion of “joy” over time. It has a large effect on the quantity ⁇ ⁇ [t].
  • the notification from the output semantics converter module 68 is so-called feedback information (action completion information) of the action, and information of the appearance result of the action.
  • the emotion model 73 changes the emotion by such information. This is the case, for example, when an action like “barking” lowers the emotional level of anger.
  • the output semantics compactors' Isseki notification from module 6 8 is also input to the learning module 7 2 described above, the learning module 7 2 behavior model 7 based on the notification ( ⁇ ⁇ ⁇ 0 n of
  • the feedback of the action result may be performed by the output of the action switching module 71 (the action to which the emotion is added).
  • the instinct model 74 has four independent needs of “exercise”, “affection”, “appetite” and “curiosity”. Each parameter holds a parameter that represents the strength of that desire.
  • the instinct model 74 converts the parameter values of these desires into the recognition result given from the input semantics converter overnight module 59, the elapsed time and the notification from the action switching module 71, etc. Update periodically based on
  • the instinct model 74 is based on the recognition result, elapsed time, and output semantics converter module for ⁇ exercise greed, '' ⁇ love lust, '' and ⁇ curiosity.
  • '' ⁇ ⁇ [k] the current parameter value of the desire, I [k]
  • the coefficient ki representing the sensitivity of the desire
  • parameter Isseki value of each emotion and each desire (instinct) is regulated therefrom it 0 to vary in the range up to 100, also the coefficient k e, the values of ki It is set individually for each emotion and each desire.
  • the output semantics converter module 68 of the middle 'wear' layer 40 is, as shown in FIG. 4, a “forward” given from the action switching module 71 of the application layer 41 as described above. , 'Give an abstract action command such as "pleasure”, “scream” or “tracking (follow the ball)” to the corresponding signal processing modules 61 to 67 of the output system 69.
  • the robot apparatus 1 can perform autonomous actions according to its own (internal) and surrounding (external) conditions, and instructions and actions from the user, based on the control program. Has been made.
  • the robot device 1 can make a transition to a target posture or motion while changing the posture or motion as described above. Then, when a new command is generated during a certain posture or motion, the robot device 1 may temporarily change the posture in order to execute the operation of the content of the command or the like.
  • the robot device 1 This is a case where a transition from the state to the state in which the content of the command can be started is performed once.
  • the state is a posture, an operation, or the like.
  • the robot device 1 executes the actual command content after the command content is set to a startable state, and transitions to the target state. Specifically, as shown in FIG. 9B, when a command is issued that the posture at the start of the operation is the standing posture, the robot device 1 transits from the sitting posture, which is the current posture, to the standing posture. Then, the robot device 1 starts the transition operation from the standing posture as the content of the command, and transits to the target posture which is the final state of the command content.
  • the robot apparatus 1 for synchronizing a plurality of operations as shown in FIG. 9A.
  • FIG. 9B there is a case where the mouth pot device 1 generates a sound (Sound) and blinks the LED in synchronization with the movement of the posture.
  • the control unit that executes such operations in the robot device 1 can be independently controlled. That is, for example, the robot apparatus 1 can synchronize a speaker, an LED, or the like with another operation as a so-called effector, thereby generating a sound by the effector in synchronization with the posture transition operation. The light can be flashed.
  • the state transition of the robot apparatus 1 as shown in FIG. 9A is shown as a general form, and hereinafter, a robot apparatus 1 as shown in FIG.
  • the state transition will be described as an example. In other words, the following describes the case where the state at the time of command generation is “sitting posture”, the state at the beginning of the synchronous command battle is “standing posture”, and the “target posture” is set by executing the synchronous command. I do.
  • the robot device 1 includes a command control unit 101, an operation management unit 102, a light emission pattern management unit 103, a sound waveform management unit 104, a command transmission unit 105, a motor control unit 106, It has a £ 0 control unit 107, a speaker control unit 108, a motor control unit 109, an LED 110 and a speaker 111.
  • the motors 109 are provided at the joints of the leg units 3A to 3D shown in FIG. 2 and at the joints between the units. Sa are Yue Isseki 2 5 i ⁇ 2 5 n specific components of an Bomo evening.
  • the speaker 1 11 is a speaker 24 which is a part for outputting sound in the head unit 4, and the LED 110 also has a function corresponding to “eyes” in the head unit 4. Part.
  • the command control unit 101 in the robot apparatus 1 when a command is input, includes the operation management unit 102, the light emission pattern management unit 103, and the sound waveform management unit 104. It outputs the corresponding command.
  • the command control unit 101 manages each command corresponding to each operation (hereinafter, referred to as a synchronization command) by operation management.
  • the output is sent to the unit 102, the light emission pattern management unit 103, and the sound waveform management unit 104, respectively.
  • the command control unit 101 outputs a corresponding command (hereinafter, referred to as an independent command) to a corresponding management unit. .
  • the command control unit 101 has a data base in which an input command and a synchronous command or an independent command to be output are corresponded.
  • the output command associated with the command is selected. That is, as shown in FIG. 11, when a command C for synchronizing various operations is input, the command control unit 101 refers to the data pace 11 1 and associates the command C. Read the command string C (Ml, L1, S1). Then, the command control unit 101 sends the synchronization commands M1: L1, S1 indicating the contents of the command string C to the operation management unit 102, the light emission pattern management unit 103, and the like. And output them to the sound wave generator 104.
  • M 1 is a synchronization command sent to the operation management unit 102 (hereinafter, referred to as a movement operation command), and M 2 is a synchronization command sent to the light emission pattern management unit 103.
  • M3 is a synchronization command transmitted to the sound waveform management unit 104 (hereinafter referred to as a sound output synchronization command).
  • the operation management unit 102 transmits a data sequence corresponding to the content of the motion synchronization command M1 to the instruction transmission unit 105.
  • the light emission pattern management unit 103 sends a data string for controlling the motor 109 to the command transmission unit via the data bus 122 in accordance with the content of the light emission synchronization command L1.
  • the sound waveform management unit 104 transmits a data sequence for controlling the LED 110 to emit light in a predetermined light emission pattern, for example.
  • the command is transmitted to the command transmission unit 105 via the data bus 121, and the sound waveform management unit 104 receives data for controlling the speaker 111 in response to the sound output synchronization command S1.
  • the evening signal (specifically, sound waveform data) is transmitted to the command transmission unit 105 via the data bus 121.
  • the command transmitting unit 105 is a unit that allows a lower or upper component to interpret data, that is, a unit that normalizes. This part corresponds to the virtual robot 33 shown in FIG.
  • the command transmission unit 105 transmits a data sequence transmitted from the operation management unit 102 to a data sequence that can be interpreted by the mode control unit 106 (data 11, data 12, data ), And transmits it to the motor control unit 106 via the data bus 121, and converts the data string transmitted from the light emission pattern management unit 103 to The data is converted into a data sequence (data 21, data 22, data 23, ...) that can be interpreted by the LED control unit 107, and the LED is controlled via the data bus 1.2 1.
  • a data sequence transmitted from the sound waveform management unit 104 can be interpreted by the speaker control unit 108 as a data sequence (data 31, data 32, data , And send it to the speaker control unit 108 via the data bus 122.
  • the motor control unit 106 controls the motor 109 based on a data stream input from the command transmitting unit 105 via the data bus 121. Further, the control unit 107 controls the LED 110 based on the data sequence input from the command transmission unit 105 via the data bus 122. Then, the speaker control unit 108 controls the speaker 111 based on a data string input from the command transmission unit 105 via the data bus 123.
  • the robot apparatus 1 performs predetermined processing by a lower-level management unit or the like based on the synchronization command output from the command control unit 101. By doing so, synchronized operations will be revealed.
  • the command input to the command control unit 101 is a command for executing a synchronous operation
  • the attitude is temporarily changed, and then the synchronous operation is executed by the synchronous command.
  • the battle may start, and the processing shown in the following (1) to (3) can be mentioned.
  • the command control unit 101 issues a command (hereinafter, referred to as a synchronization preparation command) that changes the posture to the start posture of the synchronization command (here, the standing posture), and confirms that the content of the synchronization preparation command is completed. Executes the contents of the synchronization command with the first trigger.
  • a command hereinafter, referred to as a synchronization preparation command
  • the command control unit 101 triggers the completion of the synchronization preparation command to trigger the operation management unit 102, the light emission pattern management unit 103, and the sound waveform management unit 1. Sending the synchronization commands M1, L1, S1 to 04 respectively. However, this may cause synchronization to be lost in actual situations.
  • the operation from the sitting posture to the standing posture (Pre-Motion), which is executed as the content of the synchronization preparation command, is terminated.
  • the posture transition which is one of the synchronous operations, is performed by the motion synchronization command (or the data sequence corresponding to the motion command), and the emission synchronization command (or the data sequence corresponding to the light emission synchronization command) is transmitted.
  • the LED 110 emits light without being synchronized with the delay due to the delay. This is equivalent to the occurrence of an empty data area in the data field for synchronous operation.
  • the robot device 1 can synchronize the sound output and the light emission operation at the timing when the robot device 1 is in a standing posture, for example, as shown in FIG. 12A. The operation starts.
  • the operation is not actually controlled during the execution of the initial operation.
  • the data is stored in the LED control unit 107 and the speaker control unit 108. Since evening is input, during that period, the LED 110 and the speaker 1 11 cannot perform other operations. For example, even when a high-priority command (for example, an independent command) occurs, the command content cannot be executed by the LED 110 or the speaker 111. Also, after transitioning to the standing posture, it cannot be said that the operation is started synchronously, and for example, as shown in FIG. 13A, the emission of the LED 110 may be started with a delay. .
  • the state transition using one set of data for such an operation is grasped as a state transition of a continuous operation from the standing posture to the target posture. is there.
  • synchronization is required at the stage of transmitting data from the command transmission unit 105 to the control units 106, 107, and 108 at the subsequent stage. If is c such, within the time initial operation is being performed (e.g., the initial operation simultaneously), by out-called previous synchronization command, the command transmitting unit 1 0 5 on referable memory For synchronous operation from each management section 102, 103, 104 It is important to keep the night. However, this does not allow the memory to be used for other purposes and is not optimal in terms of efficient use of memory.
  • the present invention it is possible to execute an independent command for the LED 110 and the speaker 111 that are in an operation-free state during the execution of the initial operation. You. Further, by applying the present invention, it is realized that the data sequence of the content of the synchronization command is not transmitted on the data bus during the execution of the initial operation. In such a case, it is possible to easily delete the command.
  • FIG. 17 shows a specific configuration of the robot device 1 that realizes such processing. :
  • the robot device 1 includes a command control unit 101, an operation management unit 102, a light emission pattern management unit 103, a sound waveform management unit 104, a command transmission unit 105, and specific examples of the above-described module control unit 106.
  • the operation management unit 1 02 realizes processing by the operation manager 102 i and the joint angle command unit 1 02 2.
  • the light emission pattern control unit 103 realizes processing by a light emission pattern generator 103i.
  • the sound waveform management unit 104 realizes the processing by a sound waveform generator 104i.
  • the command control unit 101 has a database DB to which commands are mapped.
  • the database DBi includes, as shown in FIG. 11, the input command C and the commands M 1 and M 1 to be output to the lower-level operation management unit 102, the light emission pattern management unit 103, and the sound waveform management unit 104.
  • L 1 and S 1 have a data pace 112 that is mapped.
  • the operation manager 1 02, and the start position and end position and motion (motion) name has Madzubingu been de Isseki pace DB 2.
  • the joint angle command 102 2 includes a data pace DB 3 of the commands and the joint angle data is mapped.
  • the light emitting pattern generator 103 i has a database DB 4 in which commands and light emitting patterns are mapped.
  • sound waveform generator 1 04I has a database DB 5 which commands the sound waveform data is mapped.
  • command control unit 101 and the management units 102, 103, and 104 Based on the data base on which various data are mapped, data corresponding to the input commands and the like are output to lower-level components.
  • the joint angle command unit 1 02 2 the illumination pattern generation unit 103 i, the data base Oite to Ichisu sound waveform generator 1 04 i, the command being associated with a respective data synchronization command and independent commands Is.
  • the motor 109, the LED 110, and the speaker 111 are operation means for expressing operations, and include a command control unit 101, an operation management unit 102, a light emission pattern management unit 103, a sound wave
  • the shape management unit 104, the command transmission unit 105, the joint angle control unit 106, the emission control unit 107, and the sound generation control unit 108 include a motor 109, a plurality of operating means, an LED 110, and a speaker 111. It is a control means for controlling the operation of.
  • control means having such a configuration continuously operates after the completion of the operation by the preceding operation means (mode 109 in the embodiment), and as a subsequent operation, a plurality of operation means (the embodiment Then, the synchronous operation is performed by the module 110, the LED 110 and the speaker 111).
  • the: 3 command control unit 101 functions as a command control unit that outputs an output command corresponding to the input command, and includes an operation management unit 102, a light emission pattern management
  • the unit 103 and the sound waveform management unit 104 are provided in correspondence with the motor 109, the LED 110, and the speaker 111, which are a plurality of operating means, and are adapted to output commands output by the command control unit 101.
  • the instruction transmission unit 105 functions as an operation control data conversion unit that outputs the corresponding operation control data.
  • the instruction transmission unit 105 controls transmission of each operation control data output by each of the management units 102, 103, and 104 described above.
  • the joint angle control unit 106, the LED light emission control unit 107, and the sound generation control unit 108 correspond to the motor 109, the LED 110, and the speed 1.11, respectively.
  • the operation control data for each synchronization output from 103 and 104 are synchronized and transmitted to each motor 109, LED 110 and speaker 111.
  • the command control unit 101, the command transmission unit 105, the above-described operation control unit, etc. May be objects or processes constructed by object-oriented programming. Hereinafter, each component will be specifically described along the processing flow.
  • the command control unit 101 outputs a command corresponding to the operation management unit 102, the light emission pattern management unit 103, and the sound waveform management unit 104 based on the input command.
  • the command control unit 101 sets the data pace DB! .
  • the synchronous command ⁇ independent command corresponding to the input command is output to the operation management unit 102, the light emission pattern management unit 103, and the sound waveform management unit 104.
  • the command control unit 101 When the command output to each of the management units 102, 103, and 104 is a synchronous command, the command control unit 101 adds a synchronous ID and a point value to the synchronous command. To the management units 102, 103, 104. For example, the command. Control unit 101 outputs a synchronization command by adding a synchronization ID and a point value to a leading portion of the synchronization command.
  • the synchronous ID and the point value are information used by the instruction transmission unit 105 at the subsequent stage. Specifically, a lapel indicating the ID of the command to be synchronized and the total number of commands to be synchronized may be added.
  • the point value is a numerical value, and the point value is determined so that the total of the point values output to the management units 102, 103, and 104 becomes a predetermined number.
  • the predetermined number (total) will be described as 100.
  • the command control unit 101 When the command control unit 101 receives a command and needs to perform an initial operation, that is, in the present example, in a sitting posture, the command control unit 101 first transmits a synchronization preparation command to the operation management unit. After that, the motion synchronizing command M 1, the light emitting synchronizing command L 1 and the sound output synchronizing command, which are used as the synchronizing command at a predetermined time, are transmitted to the respective management units 10 2, 10 3, 1. 0 Output to 4. First, a case where the command control unit 101 outputs a synchronization preparation command to the operation management unit 102 in the sitting posture will be described.
  • the operation manager 102i selects a motion name according to the synchronization preparation command.
  • Operation management unit 1 0 2 the motion name indicating the start position and end position are-out dynamic content and has a correspondence data pace DB 2, de this - evening with reference to pace DB 2, initial Select the motion name corresponding to the synchronization preparation command indicating the operation details.
  • Operation Manager 1 0 2 ! Joy this motion name And outputs the cement angle command unit 1 0 2 2.
  • Joint angle command unit 1 0 2 2 refers to the database DB 3, and outputs the data string to be a joint angle command value of time series for performing a motion name entered in the command transmitting unit 1 0 5 .
  • the command transmission unit 105 sets the data sequence sent from the operation management unit 102 as a set and transmits the data sequence to the joint angle control unit 106 via the data bus 122.
  • the joint angle controller 106 controls the motor 109 based on the input data. Since the input data is for the synchronization preparation command for realizing the initial operation, the robot apparatus 1 expresses the operation of transition from the sitting posture to the standing posture under the control of the motor 109 as described above. I do.
  • the initial operation is executed based on the synchronization preparation command.
  • a description will be given of the processing of the synchronous operation that is continuously displayed at the timing of completion of the initial operation.
  • the command transmitting unit 105 outputs the data for the initial operation to the joint angle control unit 106 as described above, while transmitting the transmittable signal at a predetermined evening to the operation management unit 1.
  • the predetermined timing which will be described in detail later, is an evening when the remaining data for the expected data reception delay time in the command transmission unit 105 becomes available. As a result, as described later, the synchronous operation following the initial operation is continuously displayed without delay.
  • the operation management unit 102 transmits a synchronous command reception enable signal to the command control unit 101.
  • the command control unit 101 outputs each synchronization command for the synchronization operation to be executed after the end of the initial operation to each of the management units 102, 103, 104 at the reception timing of the synchronization command reception enable signal. I do.
  • the motion manager 102 i refers to the data pace DB 2 and specifies the motion name for executing the content of the input motion synchronization command in the subsequent joint angle commander 102 2
  • Output to Joint angle command unit 1 0 2 2 refers to Isseki de base DB 3, Isseki de chronological de Isseki which is corresponding to the input command and outputs the signal portion 1 0 5 feed instruction sequence .
  • the light emission pattern generator 103 i With reference to the pace DB 4 , a data sequence of the light emission pattern corresponding to the time series data corresponding to the input light emission synchronization command is output to the command transmission unit 105. Also, the sound waveform management unit 1 04, sound waveform generator 104i refers to the data pace DB 5, the entered sound output synchronization Isseki de when sound waveform are series data corresponding to the command The sequence is output to the instruction transmitting unit 105.
  • each of the management units 102, 103, and 104 outputs a data sequence corresponding to each of the input synchronization commands to the instruction transmission unit 105. Since the data string is data related to the synchronization command, the synchronization ID and the point value given by the command control unit 101 are added to the head of the data string.
  • the command transmission unit 1.05 controls transmission of the data string transmitted from each of the management units 102, 103, and 104 to the lower control units 106, 107, and 108 via the data bus 122. .
  • the processing in the instruction transmitting unit 105 is specifically as follows. .
  • the command transmitting unit 1 05 as shown in FIG. 18, and a memory 105 2 shown in the instruction transmitter 1 05 i and FIG 9. .
  • the synchronous ID, the point value, and the data sequence output from each of the management units 102, 103, and 104 are input to the command transmitter 105i.
  • the synchronization ID (1), point value (1), data (11), data (12),... Are the synchronization ID, point value, data
  • the synchronization ID (3), the point value (3) and the data (31), the data (32), ... Are corresponding to the synchronization ID, point value, and data string from the sound waveform management unit 104, respectively.
  • the command transmitting unit 105 writes the synchronization ID and Pointo value on the memory 105 2.
  • Memory 105 2 for example, a region area where the synchronization ID is stored (hereinafter, sync ID Symbol billion area called.) Is 105 21 and point values are serial billion (Hereinafter, referred to as the point value storage area.) 1 05 22 can be ensured, thereby, in the memory 1 0 5 2, as shown in FIG. 1 9, each management unit 1 0 2, 1 03, 1 04 In each case, the synchronization ID and the point value are stored in association with each other.
  • the command transmitter 105 i manages the output of the subsequently input data string to each of the control units 109, 110, and 111 based on this point value. . Specifically, it is managed as follows.
  • the instruction transmitter 1 0 5 examines point value storage area 1 05 22 of the memory 1 05 2, when the point value is stored (or stored), the sum of the point values is a predetermined number It is determined whether it becomes 100.
  • the point values output from the management units 102, 103, and 104 are set so that the total value is 100. That is, for example, the pointer (1) is set to 20, the point value (2) is set to 10, and the point value (3) is set to 70 so that the total becomes 100.
  • the command transmitter 105 When the total point value becomes 100, the command transmitter 105, as shown in FIG. 18, transmits data (1.1), data (21), data (31) , Data (1 2), data (2 2), ..., etc., are rearranged (or set) to fit the data bus 122, which is a book, and Output to the control units 109, 110, and 111.
  • the data is synchronized in units output from the management units 102, 103, and 104. That is, for example, as shown in FIG. 18, data (11), data (21) and data (31) are output at the time t, and data (12) and data (11) are output. 22) Output data (32) at the timing of 7 + 1, and output data (1 3), data (2 3) and data (33) at the time t + 2. .
  • the synchronized data sets are connected via the data transfer path 122 to the respective subsequent joints.
  • the signals are input to the control unit 106, the LED emission control unit 107, and the sound generation control unit 108.
  • the instruction transmitting unit 105 starts the interrupt processing in step S2 when there is an interrupt request in the case of waiting for an instruction or an interrupt in step S1, and then in step S2. Proceed to 4.
  • a command (a data string output from the management unit, etc.) is transmitted in the state of step S1
  • the command transmitting unit 105 performs a process of receiving the command.
  • the command transmitting unit 105 buffers, for example, the transmitted data sequence. Then, the command transmitting unit 105 proceeds to step S4.
  • step S4 the instruction transmitting unit 105 determines whether or not it is in a state of waiting for synchronous data transmission, and if it is in a state of waiting for synchronous data transmission, the process proceeds to step S7, where the synchronous data If the transmission is not in the evening, the process proceeds to step S5.
  • step S5 the instruction transmitting unit 105 determines whether or not the instruction has a serial number indicating synchronous synchronization.
  • the serial number is the synchronous ID described above.
  • the discrimination process in step S5 is a process performed when an instruction (such as a data sequence) is received in step S3.
  • step S5 If the instruction has a serial number indicating synchronous data in step S5, the instruction transmitting unit 105 proceeds to step S6, and the instruction does not have a serial number indicating synchronous data. In this case, the process proceeds to step S10.
  • step S7 is a step to proceed even when the synchronous data is in the transmission waiting state in the above-described step S4.
  • step S7 the instruction transmitting section 105 sets the other area in the flag area to the other area. It is determined whether there is the same serial number. Here, if the same serial number is assigned to another area in the flag area, the instruction transmitting unit 105 proceeds to step S8, and the same serial number is not assigned to another area in the flag area. If so, return to step S1.
  • step S8 the instruction transmitting unit 105 determines whether or not the sum of the point values (point (x)) corresponding to the areas having the same serial number is 100. If the total is 100, the instruction transmitting unit 105 determines in step S 9 If the total does not become 100, return to step S1.
  • step S9 the instruction transmitting unit 105 requests permission of the other bus controller for the interrupt processing.
  • step S10 the instruction transmitting unit 105 sends the control signal to the control units 106, 107, and 108 via the data bus 122. To start sending data.
  • the instruction transmitting unit 105 transmits the data string to each control unit as described above, while determining in step S11 whether or not there is a buffered instruction.
  • the instruction transmitting unit 105 proceeds to step S4 when there is a buffered instruction, and returns to step S1 when there is no buffered instruction.
  • the processing is executed in the instruction transmitting unit 105.
  • the control units 1.06, 107, and 108 to which the data from the command transmission unit 105 has been input by such a process return the motor 109, the LED 110, and the speaker 111 based on the input data.
  • the control units 106, 107 and 108 control each mode 109, LED 110 and speaker 111 based on the data input at the synchronized timing.
  • the movement by the motor 109 which is the actual expression operation of the robot device 1, the light emission operation by the LED 109, and the sound output of the speaker 111 are synchronized.
  • the output timing of the transmission enable signal from the instruction transmission unit 105 to the operation management unit 102 is set so that the synchronization operation is started continuously without delaying the completion of the initial operation. Since the timing is set to a proper timing, the robot device 1 will exhibit a synchronous operation following the initial operation.
  • each mode 109, LED 110, and speed power 111 are operated synchronously. If the sum of the point values does not become 100 in the command transmitter 105, a so-called input waiting state of a data line is entered. In the waiting state of the synchronous command, the robot device 1 can execute the independent command. Specifically, it is realized by the following processing procedure.
  • the command control unit 101 When a command for operating the LED 110 and the speaker 111 independently without being synchronized with the movement operation is input to the command control unit 101, the database DB! As a reference result, the independent command It is output to the light pattern management unit 103 or the sound waveform management unit 104.
  • the case where independent commands are input from the command control unit 101 to the light emission pattern management unit 103 and the sound waveform management unit 104, respectively, and the content of each independent command is indicated by an LED A case will be described in which the information about the independent operation of 110 and the speaker 111 is also provided.
  • the command control section 101 outputs the independent command without adding a synchronization ID @ point value.
  • the de Isseki columns correspond to separate commands input, and outputs the command transmitting unit 1 0 5.
  • the sound waveform generator 104 refers to the database DB 5, and transmits a data sequence corresponding to the input independent command to the instruction transmission unit 1. 0 Output to 5.
  • the data strings are output from the management sections 103 and 104 to the command transmission section # 05 in this way, but since these data strings are not based on the synchronization command, Has no sync ID or point value added.
  • the command transmitting unit 105 recognizes that the command is an independent command because there is no synchronization ID in the header area of the input data string, and sets the data string to the data bus 122 as it is. Then, it outputs to the LED emission control unit 107 and the sound generation control unit 108. Such a process is performed when a data string without a synchronization ID or point value is input, without monitoring the point value as in the case of the data sequence related to the synchronization command, without any change. This is realized by the function of the command transmission unit 105 which outputs the data sequence related to the independent command to the corresponding control unit at the subsequent stage.
  • a data string based on a synchronous command is in a so-called input string waiting state until the total point value reaches 100, but the instruction transmitting unit 105 sets the independent command as an independent command.
  • the data sequence is set on the data bus 122 and output to the LED emission control unit 107 and the sound generation control unit 108. That is, the data string related to the independent command is output to the LED light emission control unit 107 and the sound generation control unit 108 prior to the data string related to the synchronization command.
  • the LED light emission control unit 107 controls the light emission operation of the LED 110 based on the data string input via the data bus 122.
  • the sound generation control unit 108 controls the output of the speech force 111 based on the data sequence input via the data bus 122.
  • the robot apparatus 1 can perform the LED 110 light emission operation and the speaker 1 1 1 as an independent command even during the initial operation such as the transition from the sitting posture to the standing posture. Can output sound.
  • the processing shown in FIG. 21 is realized.
  • the robot device 1 After completing the initial operation of transition from the sitting posture to the standing posture, the robot device 1 emits light by the LED 110 in synchronization with the movement operation, and furthermore, the speaker 1 1 1 Can output a sound.
  • the data bus connecting each component is not activated by data, it is always in a so-called free state. Sound output by the speakers 1 1 1 can be executed.
  • the case is described in which the content of the independent command performs the operation of the LED 110 and the speaker 111 independently, but the present invention is not limited to this.
  • the synchronous operation between the LED 110 and the speaker 111 can be performed independently of the initial operation. That is, the above-described independent command is a command that is independent when viewed from other commands, and can be said to be an independent command in a relative meaning.
  • the command control unit 101 is a command which is such an independent command and indicates a content of a synchronous operation (hereinafter, an independent synchronous command). 0 Output to 4.
  • the command control unit 101 adds a synchronization ID and a point value to each such independent synchronization command. If a synchronization command has already been output, the synchronization ID added to each independent synchronization command should be different from the synchronization ID added to the synchronization command.
  • the light emission pattern management unit 103 and the sound waveform management unit 104 A sequence of data corresponding to the vertical synchronization command is output to the command transmission unit 105.
  • the synchronous ID, the point value, and the data string output from the light emitting pattern management unit 103 and the sound waveform management unit 104 are input to the command transmitter 105i.
  • the command transmitting unit 1 0 5 the the Bointo level sync ID that are described in the header area in the inputted information, the memory 1 0 5 2 on the synchronous ID storage area 1 0 5 2 1 and point value In the storage area 1 0 5 2 2, they are stored in correspondence. Then, the command transmitting unit 1 0 5 reads out the point values corresponding to the same synchronization ID stored in the synchronization ID storage area 1 0 5 2 i from the point value storage area 1 0 5 2 2, the point value When the total value reaches a predetermined value, the data sequence related to the synchronization ID is output in synchronization with the LED light emission control unit 107 and the sound light emission control unit 108. .
  • the predetermined value that is the total of the point values that specify the data output conditions related to the independent synchronization command is, for example, “10”, such as a synchronization command executed after the initial operation.
  • the value may be different from the predetermined value of 100.
  • the command control unit 101 adds a point value to each independent synchronization command so that the total becomes 10 for the independent synchronization command. For example, a point value of 4 is added to the independent synchronization command related to the operation of the LED 110, and a point value of 6 is added to the independent synchronization command related to the operation of the speaker 111.
  • the instruction transmission unit 105 transmits the data string related to the independent synchronization command corresponding to the synchronization ID to the LED.
  • the output is synchronized with the control unit 107 and the sound emission control unit 108.
  • the light emission control unit 107 and the sound generation control unit 108 control the LED 110 and the speaker 111 based on the manual operation. Since the LED emission control unit 107 and the sound generation control unit 108 control the LED 110 and the speaker 111 based on the data input at the synchronized timing, As a result, the light emitting operation by the LED 109 and the sound output of the speaker 111, which are the actual operation of the mouth bot device 1, are synchronized. Then, such an operation comes to appear together with the initial operation of the posture. Next, a description will be given of the output timing of the transmission enable signal from the command transmission unit 105 that enables the synchronous operation to be continuously performed from the initial operation.
  • the command transmission unit 105 issues a transmission completion signal to that effect to the operation management unit 102 at the stage when the operation is completed and the initial operation is completed, Since each component such as the management unit 102 and the command control unit 101 starts processing for a synchronous operation from its issuance timing, as shown in FIG. Transmission of data (synchronous data) from 0 5 to the data bus 1 2 2 is started after the issuance of the transmission completion signal, that is, after the end of the initial operation. Become.
  • the input of the data sequence from each of the management units 102, 103, and 104 to the command transmission unit 105 may be performed substantially simultaneously.
  • the input of data from the sound waveform management unit 104 may be delayed.c
  • the instruction transmission unit 105 sets the total pointer value to 1.0 as described above. Since the transmission of data to the control units 106, 107, and 108 at the subsequent stage does not start until the value becomes 0, as shown in FIG.
  • the transmission to each control unit 106, 107, 108 via the data bus 122 is waited for the time until the data is input from 04.
  • a blank time occurs in which the robot device 1 is not operated for the waiting time.
  • the command transmission unit 105 issues a transmission enable signal indicating that transmission is possible to the operation management unit 102, and the timing at which the transmission enable signal is issued is shown in FIG. As shown in 24, the timing is determined as the timing at which the remaining data for the expected data reception delay in the command transmission unit 105 is over.
  • the timing is determined by the instruction transmission unit 1010 such that each component such as the operation management unit 102 and the command control unit 101 starts processing for a synchronous operation from the issuance timing.
  • This timing takes into account the data reception delay for the synchronization operation to 5.
  • information on the issuance timing of such a transmission enable signal is added to a synchronization preparation command for executing an initial operation, and the instruction transmitting unit 105 issues the issuance timing added to the synchronization preparation command.
  • a transmittable signal is transmitted based on this information.
  • the transmittable signal is transmitted from the instruction transmitting unit 105 with a considerable time margin, but the instruction transmitting unit 105 has a margin during the initial operation. It is necessary to hold the data sent from each of the management units 102, 103, and 104 in the memory, and the memory cannot be used efficiently. For this reason, ideally, it is desirable to issue a transmission enable signal from the instruction transmission unit 105 as an evening such that the synchronous operation starts after the initial operation, and thereby the memory Effective utilization can be achieved.
  • the command transmission unit 105 and each of the control units 106, 107, and 108 have one unit. I explained the case where it was connected by evening bus 1 2.
  • the command transmitting unit 105 is also configured to conform to such a configuration.
  • the present invention is not limited to such a configuration.
  • the instruction transmitting unit 130 and the control units 106, 107, and 108 are provided. And can be configured by three data buses 124 that independently connect to each other. Then, in this case, the instruction transmitting unit 130 is configured as shown in FIGS. 25 and 26.
  • the command transmitting unit 130 includes a shared memory 134 as shown in FIGS. 26 and 27.
  • the synchronization ID, the point value, and the data sequence output from the operation management unit 102 are input to the first instruction transmission unit 131.
  • the synchronization ID, the point value, and the data sequence output from the light emission pattern management unit 103 are input to the second command transmitter 13 2, and the third command transmitter 13 3 Then, the synchronization ID, point value, and data sequence output from the light emission pattern management unit 104 are input.
  • Each of the instruction transmitters 13 1, 13 2, and 13 33 stores the point value added to the input data sequence in the shared memory 13 4.
  • the shared memory 1 34 stores a synchronization ID storage area 1 34 i where a synchronization ID is stored and a point value.
  • a point value storage area 134 is secured, and the synchronization ID and the point value are associated with each other and can be stored.
  • the shared memory 134 is shared by the respective instruction transmitters 131, 1332, and 133, whereby each instruction transmitter 131, 132, and 133 transmits the other instruction transmitters. It is possible to refer to the synchronization ID and point value written by the instrument.
  • the first to third instruction transmitters 131, 132, and 133 monitor such a shared memory 134, and the total point value corresponding to the same synchronization ID becomes 100.
  • the corresponding data stream is transmitted at that timing. It sets the data sequence to the bus 1 24 1 24 2, 1 24 3, and transmits to the control unit 1 0 6, 1 07, 1 0 8.
  • the determination as to whether or not the total becomes 100 can be realized by, for example, providing the first instruction transmitter 13 1 with the determination function.
  • the point value storage area 134 i When the point value is stored in the first command transmitter and the total value becomes 100, the first command transmitter 1331 notifies the second and third command transmitters 132 and 133 of that.
  • FIG. 28 is a flowchart showing the flow of processing in the instruction transmitting unit 130.
  • the fact that the data transmission is performed to each of the control units 106, 107 and 108 using a plurality of data buses corresponds to Let's focus on that part. Note that, for the steps denoted by the same reference numerals in FIGS. 20 and 28, the same processing is performed unless otherwise specified.
  • the instruction transmitting unit 130 includes the shared memory 134 in which the first to third instruction transmitters 13 1, 13 2, and 133 can refer to each other as described above. Therefore, in step S61, the serial number and the point value added to the instruction are described in the shared memory 134.
  • the first to third command transmitters 13 1, 1 32, 1 33 determines in step S71 whether the other area of the shared memory 134 has the same serial number. Here, if the same serial number is assigned to another area, the first to third instruction transmitters 131, 132, and 133 proceed to step S81, and the same to the other areas. If no serial number is given, the process returns to step S1.
  • Each of the first to third instruction transmitters 131, 132, and 133 calculates the total point value (point (x)) corresponding to the area having the same serial number in step S81. It is determined whether it is 100 or not.
  • First to third command transmitters
  • step S91 If the total is 131, the process goes to step S91, and if the total does not reach 100, the process returns to step S1.
  • Each instruction transmitter 13 1 of the first to third, 1 32, 133 have contact to Step S 9 1, data bus 1 24 1 24 2, which is corresponding to a bus controller, 1 24 3 20 percent interrupt processing Request permission, and in step S101 , each data bus 1 24 l5 1
  • control unit 106 that is associated with 124 3, 107, begins transmitting data sequence to 1 08.
  • the instruction transmitting unit 130 transmits the data sequence to each control unit as described above, while determining in step S11 whether or not there is a buffered instruction.
  • the beating command transmitting unit 130 proceeds to step S4 if there is a buffered command, and returns to step S1 if there is no buffered command.
  • the processing is executed in the instruction transmitting unit 130.
  • the control units 106, 107, and 108 to which the data from the command transmitting unit 130 have been input by such processing the motor 109, the LED 110, and the speaker 1 based on the input data. 1 to control 1.
  • Each of the control units 106, 107, and 108 controls each mode 109, LED 110, and speaker 111 based on the data input in the synchronized evening.
  • the movement by the motor 109 which is the actual expression operation of the robot device 1, the light emission operation by the LED 109, and the sound output of the speaker 111 are synchronized.
  • the robot apparatus executes an independent command for the LED speed, which is in a free state for the operation while the initial operation is being executed. be able to. Further, in the robot device, it is realized that a sequence of the contents of the synchronization command is not transmitted on the data bus during the execution of the initial operation. In such a case, the command can be easily erased.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Manufacturing & Machinery (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

明細書 ロボット装置及びロボット装置の動作制御方法 技術分野 本発明は、 ロボット装置及びそのようなロポット装置の動作制御方法に関し、 詳しくは、 複数の動作手段を備えるロボット装置及びそのようなロボット装置の 動作制御方法に関する。 景技術 近年、 外観形状が犬等の動物に模して形成されたロボット装置が提供されてい る。 このロボット装置は、 例えば、 外部からの情報や内部の状態 (例えば、 感情 状態) 等に応じて、 動物のように行動する。
ところで、 上述したようなロボット装置は、 各動作部を独立して動作させるこ とが可能とされている。 これにより、 例えば、 複数の動作部を同期して動作させ る場合には、 ロボット装置において同期した制御が要求される。 例えば、 ロボッ ト装置は、 各関節を制御して姿勢を遷移させながら、 L E D等によって構成され ている目の動作や、 スピー力等による音声出力を同期させて実行することができ るものがあるが、 このような場合には、 各動作部を同期して制御しなければなら ない。
ここで、 動作部を同期する制御において、 そのような同期された動作を鬨始す るタイミングから同期をとる必要があり、 また、 動作中においても同期がとられ ていなければならない。
これは、 例えば、 制御の同期がずれてしまうと、 各動作部による動作が調和な く、 何ら関連性もないようにばらばらに動作してしまうからである。 発明の鬨示 本発明は、 上述の実情に鑑みてなされたものであり、 複数に動作部の同期を精 度よく実行するとともに、 効率よく同期をとることを可能にするロボツト装置及 びロボッ ト装置の動作制御方法を提供することを目的としている。
本発明に係るロボット装置は、 上述の課題を解決するために、 動作を表出させ る複数の動作手段と、 複数の動作手段の動作を制御する制御手段とを備える。 そ して、 制御手段は、 先行する動作手段による動作の完了後に連続して、 後発の動 作として複数の動作手段による同期動作をさせる。
このような構成を備えたロポット装置は、 先行する動作の完了後に遅滞なく、 連続して同期動作をする。
また、 本発明に係る口ポット装置の動作制御方法は、 上述の課題を解決するた めに、 先行する動作手段による動作の完了後に連続して、 後発の動作として複数 の動作手段による同期動作をさせる。
このようなロボット装置の動作制御方法により、 ロボット装置は、 先行する動 作の完了後に遅滞なく、 連続して同期動作をする。
また、 本発明に係るロボット装置は、 上述の課題を解決するために、 動作を表 出させる複数の動作表出手段と、 上記動作表出手段を制御する複数の動作制御手 段とを備えるロボット装置であって、 上記ロボット装置に所定の動作を表出させ るコマンドに関連する複数の同期コマンドを出力するコマンド制御手段と、 上記 コマンド制御手段から出力された上記同期コマンドを制御し、 上記複数の動作制 御手段に上記同期コマンドを送信する命令送信制御手段とを備え、 上記コマンド 制御手段は、 上記複数の同期コマンドのそれそれに少なくとも同期すべきコマン ドの I Dと当該同期すべきコマンドの総数とを表すラベルを付して、 土記同期コ マンドを出力し、 上記命令送信制御手段は、 上記 I Dと上記総数とに基づいて、 複数の上記同期コマンドを同期させて上記動作制御手段へ送信する。
このような構成を備えたロポッ ト装置は、 先行する動作の完了後に遅滞なく、 連続して同期動作をする。
また、 本発明に係るロボット装置の動作制御方法は、 上述の課題を解決するた めに、 動作を表出させる複数の動作表出手段と上記動作表出手段を制御する複数 の動作制御手段とを備えるロボット装置の動作制御方法であって、 コマンド制御 手段が、 上記ロボット装置に所定の動作を表出させるコマンドに閧連する複数の 同期コマンドのそれそれに少なくとも同期すべきコマンドの I Dと当該同期すベ きコマンドの総数とを表すラベルを付して出力し、 命令送信制御手段が、 上記コ マンド制御手段から出力された上記同期コマンドを制御し、 上記 I Dと上記総数 とに基づいて、 複数の上記同期コマンドを同期させて上記複数の動作制御手段に 上記同期コマンドを送信する。
このようなロボット装置の動作制御方法により、 ロボット装置は、 先行する動 作の完了後に遅滞なく、 連続して同期動作をする。
また、 本発明に係るロボット装置は、 上述の課題を解決するために、 動作を表 出させる複数の動作表出手段と、 上記動作表出手段を制御する複数の動作制御手 段とを備えるロボット装置であって、 上記ロボット装置に所定の動作を表出させ るコマンドに関連する複数の同期コマンドを出力するコマンド制御手段と、 上記 コマンドを伝送する複数のバスと、 上記バスのそれそれに設けられ、 上記コマン ド制御手段から出力された上記同期コマンドを制御し、 上記複数の動作制御手段 に上記同期コマンドを送信する複数の命令送信制御手段と、 上記複数の命令送信 制御手段によるアクセスが可能な共有メモリとを備え、 上記コマンド制御手段は、 上記複数の同期コマンドのそれそれに少なくとも同期すべきコマンドの I Dと当 該同期すべきコマンドの総数とを表すラベルを付して、 上記同期コマンドを出力 し、 上記命令送信制御手段は、 上記 I Dと上記総数とを上記共有メモリに格納し、 当該共有メモリを参照することで、 上記バスを介して、 複数の上記同期コマンド を同期させて上記動作制御手段へ送信する。
このような構成を備えたロボット装置は、 先行する動作の完了後に遅滞なく、 連続して同期動作をする。
また、 本発明に係るロボット装置の動作制御方法は、 上述の課題を解決するた めに、 動作を表出させる複数の動作表出手段と上記動作表出手段を制御する複数 の動作制御手段とを備えるロボット装置の動作制御方法であって、 コマンド制御 手段が、 上記ロボット装置に所定の動作を表出させるコマンドに関連する複数の 同期コマンドのそれそれに少なくとも同期すべきコマンドの I Dと当該同期すベ きコマンドの総数とを表すラペルを付して、 上記同期コマンドを出力し、 上記コ マンドを伝送する複数のバスのそれそれに設けられる命令送信制御手段が、 上記 コマンド制御手段から出力された上記同期コマンドを制御し、 上記 I Dと上記総 数とを、 共有メモリに格納し、 当該共有メモリを参照することで、 上記バスを介 して、 複数の上記命令送信制御手段によるアクセスが可能な複数の上記同期コマ ンドを同期させて、 上記複数の動作制御手段に上記同期コマンドを送信する。 このようなロボット装置の動作制御方法により、 ロボット装置は、 先行する動 作の完了後に遅滞なく、 連続して同期動作をする。
本発明の更に他の目的、 本発明によって得られる具体的な利点は、 以下に説明 される実施例の説明から一層明らかにされるであろう。 図面の簡単な説明 図 1は、 本発明の実施の形態であるロボット装置の外観構成を示す斜視図であ る。
図 2は、 上述のロボット装置の回路構成を示すプロック図である。
図 3は、 上述のロボット装置のソフトウヱァ構成を示すプロック図である。 図 4は、 上述のロボヅト装置のソフトウエア構成におけるミ ドル · ゥヱァ · レ ィャの構成を示すプロヅク図である。
図 5は、 上述のロボヅト装置のソフトウエア構成におけるアプリケーシヨン · レイヤの構成を示すプロック図である。
図 6は、 上述のアプリケーシヨン · レイヤの行動モデルライブラリの構成を示 すプロヅク図である。
図 7は、 ロボット装置の行動決定のための情報となる有限確率ォ一トマトンを 説明するために使用した図である。
図 8は、 有限確率オートマトンの各ノードに用意された状態遷移表を示す図で ある。
図 9 A及び図 9 Bは、 初期動作及び同期動作の説明に使用した図である。 図 1 0は、 実施の形態の口ポ ト装置における要部の構成を示すブロック図で ある。
図 1 1は、 コマンド制御部とデ一夕ベースとの関係を示すプロヅク図である。 図 1 2 A及び図 1 2 Bは、 動き同期コマンドに対して発光同期コマンドが遅れ た場合の説明に使用した図である。
図 1 3 A及び図 1 3 Bは、 1セヅトのデ一夕とされた同期用のデータによって 同期動作をさせる場合の説明に使用した図である。
図 1 4は、 データバスがロックされる場合の説明に使用した図である。
図 1 5は、 デ一夕バスがロックされる他の場合の説明に使用した図である。 図 1 6は、 本発明が適用されて可能となる処理の説明に使用した図である。 図 1 7は、 実施の形態のロボット装置における要部の具体的な構成を示すプロ ヅク図である。
図 1 8は、 上述のロボット装置における要部の構成部分となる命令送信部の構 成を示す図である。
図 1 9は、 上述のロボット装置における要部の構成部分となるメモリの構成を 示す図である。
図 2 0は、 上述の構成における処理手順を示すフローチャートである。
図 2 1は、 本発明が適用されて可能となる具体的な処理の説明に使用した図で ある。
図 2 2は、 送信完了信号によって、 コマンド制御部からの同期コマンドの出力 を開始する場合の説明に使用した図である。
図 2 3は、 送信完了信号によってコマンド制御部からの同期コマンドの出力を 開始した場合において、 命令送信部からデータバスへのデータの送信するときの 夕イミングの説明に使用した図である。
図 2 4は、 送信可能信号の発行によって、 コマンド制御部からの同期コマンド の出力を開始する場合の説明に使用した図である。
図 2 5は、 実施の形態のロボット装置における要部の具体的な構成であって、 命令送信部と各制御部とが独立とされたデータバスによって個々に接続されてい る構成を示すプロヅク図である。
図 2 6は、 上述の図 2 5に示すロボット装置における要部の構成部分となる命 令送信部の構成を示す図である。
図 2 7は、 上述の図 2 5に示すロボット装置における要部の構成部分となるメ モリの構成を示す図である。
図 2 8は、 上述の図 2 5に示す構成における処理手順を示すフローチャートで ある。 発明を実施するための最良の形態 . 以下、 本発明の実施の形態について図面を用いて詳しく説明する。 この実施の 形態は、 周囲の環境 (外的要因) や内部の状態 (内的要因) に応じて自律的に行 動をする自律型のロボット装置である。
実施の形態では、 先ず、 口ポット装置の構成について説明して、 その後、 ロボ ット装置における本発明の適用部分について詳細に説明する。
( 1 ) 本実施の形態によるロボット装置の構成
図 1に示すように、 「犬」 を模した形状のいわゆるぺットロポットとされ、 胴 体部ユニッ ト 2の前後左右にそれそれ脚部ユニット 3 A, 3 B, 3 C, 3 Dが連 結されると共に、 胴体部ュニット 2の前端部及び後端部にそれそれ頭部ュニット 4及び尻尾部ュニット 5が連結されて構成されている。
胴体部ユニット 2には、 図 2に示すように、 C P U (Central Processing Uni t) 1 0、 D R A M (Dynamic Random Access Memory) 1 1、 フラヅシュ R O M (Read 0 nly Memory) 1 2、 P C (Personal Computer) 力一 Fインターフエ一 ス回路 1 3及び信号処理回路 1 4が内部バス 1 5を介して相互に接続されること により形成されたコントロール部 1 6と、 このロボヅト装置 1の動力源としての パヅテリ 1 7とが収納されている。 また、 胴体部ユニット 2には、 ロボヅ ト装置 1の向きや動きの加速度を検出するための角速度センサ 1 8及び加速度センサ 1 9なども収納されている。
また、 頭部ユニット 4には、 外部の状況を撮像するための C C D (Charge Cou pled Device) カメラ 2 0と、 使用者からの 「撫でる」 や 「叩く」 といった物理的 な働きかけにより受けた圧力を検出するための夕ツチセンサ 2 1と、 前方に位置 する物体までの距離を測定するための距離センサ 22と、 外部音を集音するため のマイクロホン 23と、 鳴き声等の音声を出力するためのスピーカ 24と、 ロボ ヅ ト装置 1の 「目」 に相当する L E D (Light Emitting Diode) (図示せず) な どがそれそれ所定位置に配置されている。
さらに、 各脚部ュニヅト 3 A 3 Dの関節部分や各脚部ュニヅト 3 A 3 D及 ぴ胴体部ュニット 2の各連結部分、 頭部ュニット 4及び胴体部ュニット 2の連結 部分、 並びに尻尾部ュニツト 5の尻尾 5 Aの連結部分などにはそれそれ自由度数 分のァクチユエ一夕 25 i 25n及ぴポテンショメ一夕 26 ! 26 nが配設され ている。 例えば、 ァクチユエ一夕 25 25 nはサーボモー夕を構成として有し ている。 サーボモー夕の駆動により、 脚部ユニット 3 A 3 Dが制御されて、 目 標の姿勢或いは動作に遷移する。
そして、 これら角速度センサ 1 8、 加速度センサ 1 9、 夕ヅチセンサ 2 1、 距 離センサ 22、 マイクロホン 23、 スピーカ 24及び各ポテンショメ一夕 26 26 nなどの各種センサ並びに L E D及び各ァクチユエ一夕 25! 25 nは、 そ れそれ対応するハブ 27 i 27 nを介してコントロール部 1 6の信号処理回路 1 4と接続され、 CCDカメラ 20及ぴバッテリ 17は、 それぞれ信号処理回路 1 4と直接接続されている。
信号処理回路 14は、 上述の各センサから供給されるセンサデータや画像デー 夕及ぴ音声データを順次取り込み、 これらをそれそれ内部バス 15を介して DR AM I 1内の所定位置に順次格納する。 また信号処理回路 14は、 これと共にバ ッテリ 1 7から供給されるバッテリ残量を表すバ テリ残量デ一夕を順次取り込 み、 これを D R AM 1 1内の所定位置に格納する。
このようにして DRAM 1 1に格納された各センサデ一夕、 画像データ、 音声 デ一夕及びバヅテリ残量データは、 この後 CPU 1 0がこのロボヅト装置 1の動 作制御を行う際に利用される。
実際上 CPU 10は、 ロボット装置 1の電源が投入された初期時、 胴体部ュニ ヅト 2の図示しない P Cカードスロヅトに装填されたメモリカード 28又はフラ ヅシュ ROM 12に格納された制御プログラムを P Cカードィンターフェース回 路 13を介して又は直接読み出し、 これを DRAM 1 1に格納する。 また、 CPU 1 0は、 この後上述のように信号処理回路 14より D RAM 1 1 に順次格納される各センサデータ、 画像データ、 音声データ及びバッテリ残量デ —夕に基づいて自己及び周囲の状況や、 使用者からの指示及び働きかけの有無な どを判断する。
さらに、 CPU 10は、 この判断結果及び DRAM 11に格納した制御ブログ ラムに基づいて続く行動を決定すると共に、 当該決定結果に基づいて必要なァク チユエ一夕 25 i〜25nを駆動させることにより、 頭部ュニヅト 4を上下左右に 振らせたり、 尻尾部ュニット 5の尻尾 5 Αを動かせたり、 各脚部ュニット 3 A〜 3 Dを駆動させて歩行させるなどの行動を行わせる。
また、 この際 CPU 1.0は、 必要に応じて音声デ一夕を生成し、 これを信号処. 理回路 14を介して音声信号としてスピーカ 24に与えることにより当該音声信 号に基づく音声を外部に出力させたり、 上述の LEDを点灯、 消灯又は点滅させ る。
このようにしてこのロボット装置 1においては、 自己及び周囲の状況や、 使用 者からの指示及び働きかけに応じて自律的に行動し得るようになさ.れている。
(2) 制御プログラムのソフ トゥヱァ構成
ここで、 ロボヅ ト装置 1における上述の制御プログラムのソフトウエア構成は、 図 3に示すようになる。 この図 3において、 デバイス · ドライバ · レイヤ 30は、 この制御プログラムの最下位層に位置し、 複数のデバイス · ドライバからなるデ パイス · ドライノ · セヅ ト 3 1から構成されている。 この場合、 各デバイス · ド ライバは、 CCDカメラ 20 (図 2) や夕イマ等の通常のコンビュ一夕で用いら れるハードウエアに直接アクセスすることを許されたオブジェクトであり、 対応 するハードウエアからの割り込みを受けて処理を行う。
また、 ロボティヅク ,サーバ ·オブジェクト 32は、 デバイス · ドライノ · レ ィャ 30の最下位層に位置し、 例えば上述の各種センサゃァクチユエ一夕 25 i〜 25 n等のハードウエアにアクセスするためのィン夕一フェースを提供するソフト ウェア群でなるバーチャル · ロボヅ ト 33と、 電源の切換えなどを管理するソフ トウヱァ群でなるパワーマネージャ 34と、 他の種々のデバイス . ドライバを管 理するソフトウヱァ群でなるデバィス . ドライノ、' ·マネージャ 35と、 ロボヅト 装置 1の機構を管理するソフトウヱァ群でなるデザィンド · ロボヅ ト 3 6とから 構成されている。
マネージャ ·オブジェクト 3 7は、 オブジェクト ·マネージャ 3 8及びサービ ス ·マネージャ 3 9から構成されている。 オブジェクト ·マネージャ 3 8は、 口 ボティヅク ·サーバ ·オブジェクト 3 2、 ミ ドル · ウェア · レイヤ 4 0、 及びァ プリケーシヨン · レイヤ 4 1に含まれる各ソフトウヱァ群の起動や終了を管理す るソフトウェア群であり、 サービス 'マネージャ 3 9は、 メモリカード 2 8 (図 2 ) に格納されたコネクションファイルに記述されている各オブジェクト間の接 続情報に基づいて各ォブジヱクトの接続を管理するソフトウヱァ群である。
ミ ドル · ウェア · レィヤ 4 0は、 ロボティヅク ·サーバ ·オブジェクト 3 2の 上位層に位置し、 画像処理や音声処理などのこの口ボ ド装置 1の基本的な機能 を提供するソフトゥヱァ群から構成されている。 また、 アプリケーション · レイ ャ 4 1は、 ミ ドル ' ウェア ' レイヤ 4 0の上位層に位置し、 当該ミ ドル ' ウェア • レイヤ 4 0を構成する各ソフトウヱァ群によって処理された処理結果に基づい てロボット装置 1の行動を決定するためのソフトウエア群から構成されている。 なお、 ミ ドル · ウェア · レイヤ 4 0及びアプリケーシヨン · レイヤ 4 1の具体 なソフトウエア構成をそれそれ図 4に示す。
ミ ドル · ウェア · レイヤ 4 0は、 図 4に示すように、 騒音検出用、 温度検出用、 明るさ検出用、 音階認識用、 距離検出用、 姿勢検出用、 夕ツチセンサ用、 動き検 出用及び色認識用の各信号処理モジュール 5 0〜 5 8並びに入力セマンティクス コンバ一夕モジュ一ル 5 9などを有する認識系 6 0と、 出力セマンティクスコン バー夕モジュール 6 8並びに姿勢管理用、 トラッキング用、 モーション再生用、 歩行用、 転倒復帰用、 L E D点灯用及び音再生用の各信号処理モジュール 6 1〜 6 7などを有する出力系 6 9とから構成されている。
認識系 6 0の各信号処理モジュール 5 0〜 5 8は、 ロボティック .サーバ .ォ ブジェクト 3 2のバーチャル ' ロボヅト 3 3により D R A M 1 1 (図 2 ) から読 み出される各センサデ一夕や画像デ一夕及び音声デ一夕のうちの対応するデ一夕 を取り込み、 当該データに基づいて所定の処理を施して、 処理結果を入力セマン ティクスコンバ一夕モジュール 5 9に与える。 ここで、 例えば、 バーチャル ' 口 ボット 33は、 所定の通信規約によって、 信号の授受或いは変換をする部分とし て構成されている。
入力セマンティクスコンバータモジュール 59は、 これら各信号処理モジユー ル 50〜58から与えられる処理結果に基づいて、 「うるさい」 、 「暑い」 、 「明るい」 、 「ボールを検出した」 、 「転倒を検出した」 、 「撫でられた」 、 「叩かれた」 、 「ドミソの音階が聞こえた」 、 「動く物体を検出した」 又は 「障 害物を検出した」 などの自己及び周囲の状況や、 使用者からの指令及び働きかけ を認識し、 認識結果をアプリケーション ' レイヤ 41 (図 2) に出力する。
アプリケーション · レイヤ 41は、 図 5に示すように、 行動モデルライブラリ 70、 行動切換モジュール 7 1、 学習モジュール 72、 感情モデル 73及び本能 モデル 74の 5つのモジュールから構成されている。
行動モデルライブラリ 70には、 図 6に示すように、 「バッテリ残量が少なく なった場合」 、 「転倒復帰する」 、 「障害物を回避する場合」 、 「感情を表現す る場合」 、 「ボールを検出した場合」 などの予め選択されたいくつかの条件項目 にそれそれ対応させて、 それそれ独立した行動モデル 7 (^〜ァ Onが設けられて いる。
そして、 これら行動モデル 70 i〜70 nは、 それそれ入力セマンティクスコン バー夕モジュール 59から認識結果が与えられたときや、 最後の認識結果が与え られてから一定時間が経過したときなどに、 必要に応じて後述のように感情モデ ル 73に保持されている対応する情動のパラメ一夕値や、 本能モデル 74に保持 されている対応する欲求のパラメ一夕値を参照しながら続く行動をそれそれ決定 し、 決定結果を行動切換モジュール 71に出力する。
なお、 この実施の形態の場合、 各行動モデル 70 i〜 7 Onは、 次の行動を決定 する手法として、 図 7に示すような 1つのノード (状態) NODE。〜NODEn から他のどのノード NOD E。〜 NOD Enに遷移するかを各ノード NODE。〜N 〇D Enに間を接続するアーク AR C i~AR Cnlに対してそれそれ設定された遷 移確率 P 1〜Pnに基づいて確率的に決定する有限確率オートマトンと呼ばれるァ ルゴリズムを用いる。
具体的に、 各行動モデル 70 i〜 70 nは、 それぞれ自己の行動モデル 70 i〜 7 0nを形成するノード NOD E。〜 NOD Enにそれそれ対応させて、 これらノード NOD E。~NOD Enごとに図 8に示すような状態遷移表 80を有している。 この状態遷移表 80では、 そのノ一ド NODE。〜 NOD Enにおいて遷移条件 とする入力イベント (認識結果) が 「入力イベント名」 の行に優先順に列記され、 その遷移条件についてのさらなる条件が 「デ一夕名」 及び 「データ範囲」 の列に おける対応する行に記述されている。
したがって、 図 8の状態遷移表 80で表されるノード NOD E i。。では、 「ボー ルを検出 (BALL) 」 という認識結果が与えられた場合に、 当該認識結果と共 に与えられるそのボールの 「大きさ (S I ZE) 」 が 「0から 1000」 の範囲である ことや、 「障害物を検出 (OB S T AC LE) 」 という認識結果が与えられた場 合に、 当該認識結果と共に与えられるその障害物までの 「距離 (D I S TANC E) j が 「0から 100」 の範囲であることが他のノードに遷移するための条件とな つている。
また、 このノード NOD E i。。では、 認識結果の入力がない場合においても、 行 動モデル 7 (^〜ァ Onが周期的に参照する感情モデル 73及び本能モデル 74に それそれ保持された各情動及び各欲求のパラメ一夕.値のうち、 感情モデル 73に 保持された 「喜び (JOY) 」 、 「驚き (SURPR I SE) 」 若しくは 「悲し み (SUDNE S S) j のいずれかのパラメ一夕値が 「50から 100」 の範囲である ときには他のノードに遷移することができるようになつている。
また、 状態遷移表 80では、 「他のノードへの遷移確率」 の欄における 「遷移 先ノード」 の行にそのノード NODE。〜 NODE nから遷移できるノード名が列 記されていると共に、 「入力イベント名」 、 「デ一夕名」 及び 「デ一夕の範囲」 の列に記述された全ての条件が揃ったときに遷移できる他の各ノード N 0 D E。〜 NODEnへの遷移確率が 「他のノードへの遷移確率」 の欄内の対応する箇所にそ れそれ記述され、 そのノード NODE。〜NOD Enに遷移する際に出力すべき行 動が 「他のノードへの遷移確率」 の欄における 「出力行動」 の行に記述されてい る。 なお、 「他のノードへの遷移確率」 の欄における各行の確率の和は 100 [%] となっている。
したがって、 図 8の状態遷移表 80で表されるノード NODE!。。では、 例えば 「ボールを検出 (BAL L) 」 し、 そのポールの 「S I Z E (大きさ) 」 が 「0か ら 1000」 の範囲であるという認識結果が与えられた場合には、 「30 [%] 」 の確 率で 「ノード NODE 12。 (node 120) 」 に遷移でき、 そのとき 「 ACT I ON 1」 の行動が出力されることとなる。
各行動モデル 70 〜7 Onは、 それぞれこのような状態遷移表 80として記述 されたノード NO D E。〜 NO D Enがいくつも繋がるようにして構成されており、 入力セマンティクスコンバ一夕モジュール 59から認識結果が与えられたときな どに、 対応するノード NODE。〜NOD Enの状態遷移表を利用して確率的に次 の行動を決定し、 決定結果を行動切換モジュール 7 1に出力するようになされて いる。
図 5に示す行動切換モジュール 7 1は、 行動モデルライブラリ 70の各行動モ デル 70 i〜70 nからそれそれ出力される行動のうち、 予め定められた優先順位 の高い行動モデル 70 〜7 Onから出力された行動を選択し、 当該行動を実行す べき旨のコマンド (以下、 これを行動コマンドという。 ) をミ ドル ' ウェア ' レ ィャ 40の出力セマンティクスコンパ'一夕モジュール 68に送出する。 なお、 こ の実施の形態においては、 図 6において下側に表記された行動モデル 7 (^〜ァ 0 nほど優先順位が高く設定されている。
また、 行動切換モジュール 7 1は、 行動完了後に出力セマンティクスコンパ一 夕モジュール 68から与えられる行動完了情報に基づいて、 その行動が完了した ことを学習モジュール 72、 感情モデル 73及び本能モデル 74に通知する。
一方、 学習モジュール 72は、 入力セマンティクスコンバータモジュール 59 から与えられる認識結果のうち、 「叩かれた」 や 「撫でられた」 など、 使用者か らの働きかけとして受けた教示の認識結果を入力する。
そして、 学習モジュール 72は、 この認識結果及び行動切換モジュール 7 1か らの通知に基づいて、 「叩かれた (叱られた) 」 ときにはその行動の発現確率を 低下させ、 「撫でられた (誉められた) 」 ときにはその行動の発現確率を上昇さ せるように、 行動モデルライブラリ 7 0における対応する行動モデル 7 (^〜ァ 0 nの対応する遷移確率を変更する。
他方、 感情モデル 73は、 「喜び (joy) 」 、 「悲しみ (sadness) ι 、 「怒り (anger) 」 、 「驚き (surprise) 」、 「嫌悪 (disgust) 」 及び 「恐れ (fea r) 」 の合計 6つの情動について、 各情動ごとにその情動の強さを表すパラメータ を保持している。 そして、 感情モデル 7 3は、 これら各情動のパラメータ値を、 それそれ入力セマンティクスコンパ'一夕モジュール 5 9から与えられる 「叩かれ た」 及び 「撫でられた」 などの特定の認識結果と、 経過時間及び行動切換モジュ ール 7 1からの通知などに基づいて周期的に更新する。
具体的には、 感情モデル 7 3は、 入力セマンティクスコンパ一夕モジュール 5 9から与えられる認識結果と、 そのときのロボッ ト装置 1の行動と、 前回更新し てからの経過時間などに基づいて所定の演算式により箅出されるそのときのその 情動の変動量を Δ Ε [七] 、 現在のその情動のパラメ一夕値を E [七] 、 その情 動の感度を表す係数を k eとして、 ( 1 ) 式によって次の周期におけるその情動の パラメータ値 E [ t + 1 ] を算出し、 これを現在のその情動のパラメータ値 E
[ t ] と置き換えるようにしてその情動のパラメータ値を更新する。 また、 感情 モデル 7 3は、 これと同様にして全ての情動のパラメ一タ値を更新する。
E l t + l l = E [t] + ke x AE [t] (1 )
なお、 各認識結果や出力セマンティクスコンバータモジュール 6 8からの通知 が各情動のパラメ一夕値の変動量 Δ Ε [七] にどの程度の影響を与えるかは予め 決められており、 例えば 「叩かれた」 といった認識結果は 「怒り」 の情動のパラ メータ値の変動量 Δ Ε [ t ] に大きな影響を与え、 「撫でられた」 といった認識 結果は 「喜び」 の情動のパラメ一夕値の変動量 Δ Ε [ t ] に大きな影響を与える うになつている。
ここで、 出力セマンティクスコンバータモジュール 6 8からの通知とは、 いわ ゆる行動のフィードバック情報 (行動完了情報) であり、 行動の出現結果の情報 であり、 感情モデル 7 3は、 このような情報によっても感情を変化させる。 これ は、 例えば、 「吠える」 といった行動により怒りの感情レベルが下がるといった ようなことである。 なお、 出力セマンティクスコンパ'一夕モジュール 6 8からの 通知は、 上述した学習モジュール 7 2にも入力されており、 学習モジュール 7 2 は、 その通知に基づいて行動モデル 7 (^〜ァ 0 nの対応する遷移確率を変更する。 なお、 行動結果のフィードバヅクは、 行動切換モジュール 7 1の出力 (感情が 付加された行動) によりなされるものであってもよい。
一方、 本能モデル 7 4は、 「運動欲 (exerc ise) 」 、. 「愛情欲 (affection) 」、 「食欲 (appetite) 」 及び 「好奇心 (curiosity) 」 の互いに独立した 4つの欲求 について、 これら欲求ごとにその欲求の強さを表すパラメ一夕を保持している。 そして、 本能モデル 7 4は、 これらの欲求のパラメータ値を、 それそれ入力セマ ンティクスコンバ一夕モジュ一ル 5 9から与えられる認識結果や、 経過時間及び 行動切換モジュール 7 1からの通知などに基づいて周期的に更新する。
具体的には、 本能モデル 7 4は、 「運動欲」 、 「愛情欲」 及び 「好奇心」 につ いては、 認識結果、 経過時間及び出力セマンティクスコンバータモ.ジュール 6 8 からの通知などに基づいて所定の演算式により箅出されるそのときのその欲求の 変動量を Δ Ι [ k ] 、 現在のその欲求のパラメ一夕値を I [ k ] 、 その欲求の感 度を表す係数 k iとして、 所定周期で ( 2 ) 式を用いて次の周期におけるその欲求 のパラメ一夕値 I [ k + 1 ] を算出し、 この演算結果を現在のその欲求のパラメ 一夕値 I [ k ] と置き換えるようにしてその欲求のパラメ一夕値を更新する。 ま た、 本能モデル 7 4は、 これと同様にして 「食欲」 を除く各欲求のパラメ一夕値 を更新する。
I [k + l] = I [k] + ki X ΔΙ [k] (2) なお、 認識結果及び出力セマンティクスコンバ一夕モジュール 6 8からの通知 などが各欲求のパラメ一夕値の変動量厶1 [ k ] にどの程度の影響を与えるかは 予め決められており、 例えば出力セマンティクスコンバータモジュール 6 8から の通知は、 「疲れ」 のパラメ一夕値の変動量△ I [ k ] に大きな影響を与えるよ うになつている。
なお、 本実施の形態においては、 各情動及び各欲求 (本能) のパラメ一夕値が それそれ 0から 100までの範囲で変動するように規制されており、 また係数 k e、 k iの値も各情動及び各欲求ごとに個別に設定されている。
一方、 ミ ドル ' ウェア ' レイヤ 4 0の出力セマンティクスコンバー夕モジユー ル 6 8は、 図 4に示すように、 上述のようにしてアプリケーション · レイヤ 4 1 の行動切換モジュール 7 1から与えられる 「前進」 、' 「喜ぶ」 、 「鳴く」 又は 「トラヅキング (ボールを追いかける) 」 といった抽象的な行動コマンドを出力 系 6 9の対応する信号処理モジュール 6 1〜 6 7に与える。
そしてこれら信号処理モジュール 6 1〜 6 7は、 行動コマンドが与えられると 当該行動コマンドに基づいて、 その行動を行うために対応するァクチユエ一夕 2 5 i〜2 5 n (図 2 ) に与えるべきサ一ボ指令値や、 スピーカ 2 4 (図 2 ) から出 力する音の音声データ及び又は 「目」 の L E Dに与える駆動データを生成し、 こ れらのデ一夕をロボティヅク ·サーバ ·オブジェクト 3 2のパーチャル · ロポヅ ト 3 3及び信号処理回路 1 4 (図 2 ) を順次介して対応するァクチユエ一夕 2 5 i〜 2 5 n又はスピーカ 2 4又は L E Dに順次送出する。
このようにしてロボット装置 1においては、 制御プログラムに基づいて、 自己 (内部) 及び周囲 (外部) の状況や、 使用者からの指示及び働きかけに応じた自 律的な行動を行うことができるようになされている。
( 3 ) 本発明が適用されたロボット装置 1における構成
ロボット装置 1は、 上述したように姿勢や動作を遷移させながら、 目標の姿勢 や動作に遷移することができる。 そして、 ロボッ ト装置 1は、 ある姿勢や動作を している最中において新たなコマンドが発生した場合に、 当該コマンド内容の動 作等を実行するために、 一旦姿勢を遷移させる場合がある。
すなわち例えば、 図 9 Aに示すように、 ロボット装置 1は、 コマンド発生時の 状態から一旦当該コマンド内容を開始可能な状態に遷移するような場合である。 ここで、 状態とは、 姿勢や動作等である。
そして、 ロボット装置 1は、 コマンド内容を開始可能な状態とされてから実際 のコマンドの内容を実行し、 目標の状態に遷移する。 具体的には、 図 9 Bに示す ように、 ロボット装置 1は、 動作開始時の姿勢が立ち姿勢であるコマンドが発生. すると、 現在の姿勢である座り姿勢から立ち姿勢に遷移する。 それからロボット 装置 1は、 当該コマンドの内容として、 立ち姿勢から遷移動作を開始し、 コマ.ン ド内容の最終状態とされる目標の姿勢に遷移する。
一方で、 ロボット装置 1のコマンド内容が、 図 9 Aに示すように、 複数の動作 を同期させるためのものがある。 例えば、 図 9 Bに示すように、 口ポット装置 1 が姿勢の遷移動作に同期させて、 音 (Sound) を発生させて、 L E Dを点滅するよ うな場合がある。 例えば、 このような種々の動作を同期させて実行可能となるの は、 ロポット装置 1においてそのような動作を実行する制御部分が独立して制御 可能とされているからである。 すなわち例えば、 ロボット装置 1は、 スピーカや L E D等をいわゆる効果器として他の動作に同期させることができるからであり、 これにより、 姿勢の遷移動作に同期させて、 効果器により音を発生させたり、 発 光点滅させたりすることができる。
以上のような動作は、 図 1 0に示すようなロボット装置 1の概略として示す構 成によって実現される。
なお、 図 9 Aに示したようなロボット装置 1の状態遷移は、 一般的な形態とし て示したものであり、 以下では、 具体例とされる図 9 Bに示すようなロボッ ト装 置 1の状態遷移を例として挙げて説明する。 すなわち、 以下では、 コマンド発生 時の状態が 「座り姿勢」 であり、 同期コマンド鬨始時の状態が 「立ち姿勢」 であ り、 同期コマンドの実行により 「目標の姿勢」 とされる場合について説明する。 ロボット装置 1は、 コマンド制御部 1 0 1、 動作管理部 1 0 2、 発光パターン 管理部 1 0 3、 音波形管理部 1 0 4、 命令送信部 1 0 5、 モー夕制御部 1 0 6、 £ 0制御部 1 0 7、 スピーカ制御部 1 0 8、 モー夕 1 0 9、 L E D 1 1 0及び スピーカ 1 1 1を備えている。 ここで、 モー夕 1 0 9は、 図 2に示した脚部ュニ ット 3 A〜 3 Dの関節部分や各部ュニッ ト間の連結部分に配設されているァクチ ユエ一夕 2 5 i〜 2 5 nの具体的な構成部分とされるサ一ボモー夕である。 また、 スピーカ 1 1 1は、 頭部ュニット 4において音声を出力する部分とされるスピー 力 2 4であり、 L E D 1 1 0は、 同じく頭部ュニヅト 4において 「目」 に相当す る機能を有する部分である。
このような構成において、 コマンドが入力ざれた場合、 ロボット装置 1におい て、 コマンド制御部 1 0 1が、 動作管理部 1 0 2、 発光パターン管理部 1 0 3及 び音波形管理部 1 0 4それそれに対応されるコマンドを出力する。
例えば、 コマンド制御部 1 0 1は、 複数の動作を同期するためのコマンドが入 力された場合には、 当該各動作に対応される各コマンド (以下、 同期コマンドと いう。 ) を、 動作管理部 1 0 2、 発光パターン管理部 1 0 3及び音波形管理部 1 0 4にそれそれ出力する。 また、 コマンド制御部 1 0 1は、 動作を独立して動作 させるためのコマンドが入力された場合には、 対応されるコマンド (以下、 独立 コマンドという。 ) を、 対応される管理部に出力する。
ここで、 コマンド制御部 1 0 1は、 入力されるコマンドと出力する同期コマン ド又は独立コマンドとが対応されたデ一夕ベースを備えており、 デ一夕ペースを 参照して、 入力されたコマンドに対応付けされている出力コマンドを選択してい る。 すなわち、 図 1 1に示すように、 コマンド制御部 1 0 1は、 各種動作を同期 させるようなコマンド Cが入力された場合には、 デ一夕ペース 1 1 1を参照して、 対応付けされているコマンド列 C ( M l , L 1, S 1 ) を読み出す。 そして、 コ マンド制御部 1 0 1は、 このようなコマンド列 Cの内容を示す同期コマンド M 1: L 1, S 1を、 動作管理部 1 0 2、 発光パ夕一ン管理部 1 0 3及び音波形生成部 1 0 4にそれそれ出力する。 ここで、 例えば、 M 1は動作管理部 1 0 2に送られ る同期コマンド (以下、 動き動作コマンドという。 ) であり、 M 2は発光パター ン管理部 1 0 3に送られる同期コマンド (以下、 発光同期コマンドという。 ) で あり、 M 3は音波形管理部 1 0 4に送信される同期コマンド (以下、 音出力同期 コマンドという。 ) である。
以下の説明では、 コマンド制御部 1 0 1に各種動作を同期させるようなコマン ドが入力される場合、 すなわち、 コマンド制御部 1 0 1から各管理部 1 0 2, 1 0 3, 1 0 4に各同期コマンドが出力される場合について説明する。 動作管理部 1 0 2は、 動き同期コマンド M 1の内容に応じたデータ列を命令送 信部 1 0 5に送信する。 同様に、 発光パターン管理部 1 0 3は、 発光同期コマン ド L 1の内容に応じて、 モー夕 1 0 9を制御するためのデータ列をデ一夕バス 1 2 1を介して命令送信部 1 0 5に送信し、 また、 音波形管理部 1 0 4は、 音出力 同期コマンド S 1に応じて、 L E D 1 1 0を例えば所定の発光パターンで発光制 御するためのデ一夕列をデータバス 1 2 1を介して命令送信部 1 0 5に送信し、 また、 音波形管理部 1 0 4は、 音出力同期コマンド S 1に応じて、 スピーカ 1 1 1を制御するためのデ一夕列 (具体的には音波形デ一夕) をデータバス 1 2 1を 介して命令送信部 1 0 5に送信する。
命令送信部 1 0 5は、 下位或いは上位の構成部分がデータを解釈可能にする部 分、 すなわち規格化する部分である。 この部分は、 上述の図 3に示したバーチヤ ル · ロボット 3 3に対応される部分である。 この命令送信部 1 0 5は、 動作管理 部 1 0 2から送信されてきたデータ列についてはモー夕制御部.1 0 6が解釈でき るデ一夕列 (データ 1 1、 データ 1 2、 デ一夕 1 3、 · · ·) に変換してデータ バス 1 2 1を介して当該モー夕制御部 1 0 6に送信し、 また、 発光パターン管理 部 1 0 3から送信されてきたデータ列を L E D制御部 1 0 7が解釈できるデ一夕 列 (データ 2 1、 デ一夕 2 2、 データ 2 3、 · · ·) に変換してデ一夕バス 1 .2 1を介して当該 L E D制御部 1 0 7に送信し、 さらに、 音波形管理部 1 0 4から 送信されてきたデータ列をスピーカ制御部 1 0 8が解釈できるデータ列 (デ一夕 3 1、 デ一夕 3 2、 デ一夕 3 3、 · · ·) に変換してデータバス 1 2 1を介して 当該スピーカ制御部 1 0 8に送信する。
モー夕制御部 1 0 6は、 命令送信部 1 0 5からデータバス 1 2 1を介して入力 されてくるデ一夕列に基づいてモー夕 1 0 9を制御する。 また、 1^ £ 0制御部 1 0 7は、 命令送信部 1 0 5からデ一夕バス 1 2 2を介して入力されてくるデ一夕 列に基づいて L E D 1 1 0を制御する。 そして、 スピーカ制御部 1 0 8は、 命令 送信部 1 0 5からデ一夕バス 1 2 3を介して入力されてくるデータ列に基づいて スピーカ 1 1 1を制御する。
概略としては以上のような手順により、 ロボット装置 1は、 コマンド制御部 1 0 1から出力された同期コマンドに基づいて下位の管理部等によって所定の処理 が行うことで、 同期した動作を表出するようになる。
ここで、 上述したように、 コマンド制御部 1 0 1に入力されたコマンドが同期 動作を実行するためのコマンドである場合には、 一旦姿勢を遷移させてから、 同 期コマンドによる同期動作が実行鬨始させる場合があり、 この場合の処理として、 下記の ( 1 ) 〜 (3) に示す処理が挙げられる。
( 1 ) コマンド制御部 1 0 1が同期コマンドの開始姿勢 (ここでは、 立ち姿 勢) まで姿勢を遷移するコマンド (以下、 同期準備コマンドという。 ) を発行し て、 その同期準備コマンド内容の完了をトリガ一にして、 同期コマンドの内容を. 実行する。
(2 ) コマンド制御部 1 0 1の後段に配置されている管理部等から各制御部 1 0 6 , 1 07 , 1 08にデ一夕を送信する段階において同期をとる。 ·
(3) 上述の ( 1 ) と (2) の両方を採用する。
このような ( 1 ) 〜 (2) の処理を個別に行うとした場合には、 次のような問 題が生じる。
上述の ( 1) については.、 具体的には、 コマンド制御部 1 0 1が同期準備コマ ンドの完了をトリガーとして、 動作管理部 1 02、 発光パターン管理部 1 03及 び音波形管理部 1 04にそれそれ同期コマンド M 1, L 1 , S 1を送るようなこ とが挙げられる。 しかし、 これでは、 実際の場面において同期にずれが生じる場 合がある。
具体的には、 図 1 2 Aに示すように、 同期準備コマンドの内容として実行され た座り姿勢から立ち姿勢への動作 (プレモーション (Pre— Motion) 、 以下、 初期 動作という。 ) が終了された後、 動き同期コマンド (或いは動きコマンドに対応 するデータ列) によって同期動作の一つである姿勢遷移がなされるようになるが、 発光同期コマンド (或いは発光同期コマンドに対応するデータ列) の送出が遅れ ることにより、 LED 1 1 0がそれに同期されずに発光してしまうような場合が ある。 これは、 同期動作のためのデ一夕に空デ一夕領域が生じてしまうことと等 価である。
このような問題は、 上位構成部をなすコマンド制御部 1 0 1のみにより同期コ マンドを管理して同期を図ろうとしているからである。 なお、 このように遷移姿 勢とされる立ち姿勢に一旦遷移してから同期コマンドを実行することは、 図 1 2 Bに示すような状態遷移として把握される。
なお、 座り姿勢から同期準備コマンドなしに同期動作をとることも可能である < すなわち、 同期準備コマンドを使用することなく、 同期制御するような場合であ る。 この場合、 各動作部を制御するためのデータを 1セットとして作成する。 す なわち、 座り姿勢から立ち姿勢に一旦姿勢を遷移させる最中においても発光パ夕 ーン制御部 1 0 3に出力されるデ一夕や音波形生成制御部 1 0 4に出力されるデ 一夕を作成する。 そのデ一夕内容は、 初期動作が実行されている最中には L E D 1 0 6が無点灯とされるような内容であり、 また、 スピーカ 1 0 7が無音とされ るような内.容である。
このような、 1セットのデ一夕を用いることにより、 ロボット装置 1は、 例え ば図 1 2 Aに示すように、 立ち姿勢になったくらいのタイミングで、 音出力や発 光動作が同期されて動作開始されるようになる。
しかし、 これでは、 データを 1セヅトで作成するといつた手間に加え、 初期動 作実行中においては実際には動作制御していない. L E D制御部 1 0 7やスピーカ 制御部 1 0 8にデ一夕が入力されるので、 その期間 L E D 1 1 0やスピーカ 1 1 1に他の動作を実行させることができない。 例えば、 優先度が高いコマンド (例 えば、 独立コマンド) が発生したような場合でも、 L E D 1 1 0やスピーカ 1 1 1によって当該コマンド内容を実行することができない。 また、 立ち姿勢に遷移 した後、 同期して動作が開始されるとは言えず、 例えぱ図 1 3 Aに示すように、 L E D 1 1 0の発光が遅れて開始されるような場合もある。
なお、 このような動作について 1セットのデ一夕を使用した状態遷移は、 図 1 3 Bに示すように、 立ち姿勢から目標の姿勢までの連続した動作の状態遷移とし て把握されるものである。
また、 上述の (2 ) については、 命令送信部 1 0 5から後段の各制御部 1 0 6, 1 0 7 , 1 0 8にそれそれデ一夕を送信する段階で同期をとることが挙げられる c このような場合、 初期動作が実行されている期間内に (例えば、 初期動作と同時 に) 、 同期コマンドをいわゆる先うちすることにより、 命令送信部 1 0 5が参照 可能なメモリ上において各管理部 1 0 2、 1 0 3, 1 0 4からの同期動作のため のデ一夕を保持しておくことが挙げられる。 しかしこれでは、 他の目的でメモリ を使用することができなくなり、 メモリを効率的に使用するという意味において 最適とはいえない。
また、 同期コマンドを先うちしてしまうと、 図 14に示すように、 当該同期コ マンドが完了されるまで、 各管理部 102 , 103, 1 04と命令送信部 105 とを接続しているデータバス 12 1がロヅクされてしまうことになる。 これによ り、 データバス 12 1が開放できなくなり、 同期準備コマンドの内容としての初 期動作の実行中は、 例えば音を出すことができない。
すなわち例えば、 L E D 1 1 0の発光のためのコマンドゃ音出力のためのコマ ンドには、 同期動作のためのコマンドではない独立コマンドが存在するが、 この ような独立コマンドについては、 コマンド制御部 10 1は、 同期コマンドの実行 待機状態であっても、 発光パ夕一ン管理部 103及び音波形生成部 1 04に送信 する。
このように他のコマンドとされる独立コマンドが送信されてしまうと、 図 1 5 に示すように、 デ一夕バス 12 1がロックされてしまう。 このような場合には、 データをキャンセルするといつた処理を実施する必要があり、 厳密には既に発光 パターン管理部 103及び音波形生成部 104から命令送信部 105に送信済み デ一夕をキャンセルすることが要求され、 非現実的な処理が要求されるようにな る。
このように、 上述の ( 1) 及び (2) の処理手順のみでは問題があるが、 上述 の (3) とされる ( 1 ) 及び (2) の組み合わせによっては ( 1) 及び (2) の みの処理手順で発生する問題を解決することができる。 本発明の原理は、 上述の (3) の該当するものであるが、 実際には処理の細部にわたって最適化されてい る。
本発明を適用することにより、 初期動作が実行されている最中においては、 動 作についてフリーな状態とされる LED 1 10やスピーカ 1 1 1については、 独 立コマンドを実行することが実現される。 さらに、 本発明の適用により、 初期動 作が実行されている最中においては、 データバス上に同期コマンドの内容のデー タ列が送出されないことが実現され、 これにより、 例えば独立コマンドが発生し たような場合に、 コマンドを容易に消去することを可能としている。
すなわち、 図 1 6に示すように、 本発明は、 初期動作が実行されている最中に おいては、 LED 1 10やスピーカ 1 1 1を独立コマンド等により動作可能とし て、 さらにデ一夕バス上にコマンドの内容のデータ列が送出されないことが可能 とされている。 以下、 具体的を挙げて説明する。 図 17には、 そのような処理を 実現するロボット装置 1の具体的な構成を示している。 :
ロボッ ト装置 1は、 コマンド制御部 10 1、 動作管理部 102、 発光パターン 管理部 1 03、 音波形管理部 1 04、 命令送信部 1 05、 上述のモ一夕制御部 1 06の具体例とされるジョイント角制御部 106、 上述の LED制御部 107の 具体例とされる L E D発光制御部 1 07、 上述のスピーカ制御部 1 08の具体例 とされる音発生制御部 108、 モー夕 109、 LED 1 1 0及びスピーカ 1 1 1 を備えている。 .
また、 動作管理部 1 02は、 動作管理器 102 i及びジョイント角指令器 1 02 2により処理を実現している。 また、 発光パターン制御部 103は、 発光パターン 生成器 1 03 iにより処理を実現している。 また、 音波形管理部 1 04は、 音波形 発生器 1 04 iによりその処理を実現している。
また、 コマンド制御部 1 01は、 コマンドをマッピングしたデータベース D B を有している。 例えば、 データベース DBiは、 図 1 1に示したように、 入力さ れたコマンド Cと、 下位の動作管理部 102、 発光パターン管理部 1 03及び音 波形管理部 104に出力すべきコマンド M 1, L 1 , S 1とがマヅビングされた データペース 1 1 2を有している。
また、 動作管理器 1 02 は、 始点姿勢及び終点姿勢とモーション (motion) 名 とがマヅビングされたデ一夕ペース D B 2を有している。 また、 ジョイント角指令 器 1022は、 コマンドとジョイント角データとがマッピングされたデータペース DB3を有している。 また、 発光パターン生成器 1 03 iは、 コマンドと発光パタ ーンデ一夕とがマッピングされたデータベース DB4を有している。 また、 音波形 発生器 1 04iは、 コマンドと音波形データがマッピングされたデータベース D B 5を有している。
コマンド制御部 10 1や各管理部 102 , 1 03, 1 04では、 このように、 各種デ一夕がマヅビングされたデ一夕ベースによって、 入力されたコマンド等に 対応したデ一夕等を下位の構成部分に出力している。 なお、 ジョイント角指令器 1 022、 発光パターン生成器 103 i、 音波形発生器 1 04 iの各データべ一スに おいて、 各データと対応付けされているコマンドは、 同期コマンドや独立コマン ドである。
このような構成において、 モー夕 1 09、 L E D 1 1 0及びスピーカ 1 1 1は、 動作を表出させる動作手段であり、 コマンド制御部 10 1、 動作管理部 102、 発光パターン管理部 103、 音波形管理部 104、 命令送信部 105、 ジョイン ト角制御部 106、 £0発光制御部1 07及び音発生制御部 108は、 複数の 動作手段とされるモータ 109、 LED 1 10及びスピーカ 1 1 1の動作を制御 する制御手段である。 そして、'このような構成とされる制御手段は、 先行する動 作手段 (実施の形態ではモー夕 1 09) による動作の完了後に連続して、 後発の 動作として複数の動作手段 (実施の形態では、 モ一夕 1 09、 LED 1 10及び スピーカ 1 1 1 ) による同期動作をさせる。
具体的には、 このような制御手段において、 :3マンド制御部 10 1は、 入力さ れたコマンドに対応される出力コマンドを出力するコマンド制御部として機能し、 動作管理部 102、 発光パターン管理部 1 03及び音波形管理部 1 04は、 複数 の動作手段とされるモー夕 1 09、 LED 1 10及びスピーカ 1 1 1に対応して 備えられ、 コマンド制御部 10 1が出力した出力コマンドに対応される動作制御 データを出力する動作制御データ変換部として機能し、 命令送信部 1 05は、 上 述の各管理部 1 02, 1 03, 1 04が出力した各動作制御データの送信制御を するデータ送信制御部として機能し、 ジョイント角制御部 1 06、 LED発光制 御部 107及び音発生制御部 108は、 モ一夕 1 09、 LED 1 1 0及びスピー 力 1 1 1に対応して備えられ、 上述の命令送信部 105が出力した動作制御デー 夕に基づいて、 モ一夕 1 09、 LED 1 1 0及びスピーカ 1 1 1を制御する複数 の動作制御部として機能する。 そして、 命令送信部 105は、 各管理部 1 02,
103 , 1 04から出力された各同期用の動作制御デ一夕については、 同期して 各モー夕 1 09、 LED 1 10及びスピーカ 1 1 1に送信するように機能してい る。 なお、 コマンド制御部 10 1、 命令送信部 1 05及び上述した動作制御部等 は、 オブジェクト指向プログラミングで構築されるオブジェクト又はプロセス等 であってもよい。 以下、 具体的に各構成部を処理の流れに沿って説明する。
コマンド制御部 1 0 1は、 入力されたコマンドに基づいて、 動作管理部 1 0 2、 発光パターン管理部 1 0 3及び音波形管理部 1 0 4に対応されるコマンドを出力 する。 すなわち、 コマンド制御部 1 0 1は、 デ一夕ペース D B!を参照して、 入力 されたコマンドに対応される同期コマンドゃ独立コマンドを動作管理部 1 0 2、 発光パターン管理部 1 0 3及び音波形管理部 1 0 4に出力する。
また、 コマンド制御部 1 0 1は、 各管理部 1 0 2, 1 0 3 , 1 0 4に出力する コマンドが同期コマンドである場合には、 当該同期コマンドに同期 I Dとボイン ト値を付加して各管理部 1 0 2, 1 0 3, 1 0 4に送信する。 例えば、 コマンド. 制御部 1 0 1は、 同期コマンドの先頭部分に同期 I Dやポイント値を付加して出 力する。 ここで、 同期 I Dやポイント値は、 後段の命令送信部 1 0 5等が使用す る情報になる。 具体的には、 同期すべきコマンドの I Dと同期すべきコマンドの 総数とを表したラペル等が付されていればよい。 例えば、 ポイント値は数値であ り、 各管理部 1 0 2 , 1 0 3, 1 0 4に出力されたポイント値の総計が所定の数. になるように当該ポイント値が決定されている。 本発明の実施の形態では、 所定 の数 (合計) は 1 0 0として説明する。
そして、 コマンド制御部 1 0 1は、 コマンドを受け取った際に初期動作が必要 とされる状態、 すなわち本例では、 座り姿勢とされている場合には、 先ず、 同期 準備コマンドを、 動作管理部 1 0 2に出力して、 その後、 所定の夕ィミングにて 同期コマンドとされる動き同期コマンド M 1、 発光同期コマンド L 1及び音出力 同期コマンドを各管理部 1 0 2, 1 0 3, 1 0 4に出力する。 座り姿勢とされて いる場合において、 コマンド制御部 1 0 1が同期準備コマンドを動作管理部 1 0 2に出力する場合について先ず説明する。
動作管理部 1 0 2では、 動作管理器 1 0 2 iが同期準備コマンドに応じたモーシ ヨン (motion) 名を選択する。 動作管理部 1 0 2は、 始点姿勢及び終点姿勢が動 き内容を示すモーション名と対応付けされたデータペース D B 2を有しており、 こ のデ—夕ペース D B 2を参照して、 初期動作内容を示す同期準備コマンドに対応さ れるモーション名を選択する。 動作管理器 1 0 2!は、 このモーション名をジョイ ント角指令部 1 0 2 2に出力する。 ジョイント角指令器 1 0 2 2は、 データベース D B 3を参照して、 入力されたモーション名を実行するための時系列のジョイント 角指令値とされるデータ列を命令送信部 1 0 5に出力する。
命令送信部 1 0 5では、 動作管理部 1 0 2から送られてくるデ一夕列をセット として、 デ一夕バス 1 2 2を介してジョイント角制御部 1 0 6に送信する。
ジョイント角制御部 1 0 6は、 入力されたデータに基づいて、 モー夕 1 0 9を 制御する。 入力されたデータが初期動作を実現する同期準備コマンドのものであ ることから、 ロボヅト装置 1は、 このようなモー夕 1 0 9の制御によって、 座り 姿勢から立ち姿勢に遷移する動作を表出する。
このように同期準備コマンドに基づいて、 初期動作が実行される。 次に、. これ の初期動作の完了のタイミングで連続して表出される同期動作についての処理を 説明する。
命令送信部 1 0 5においては、 上述したようにジョイント角制御部 1 0 6に初 期動作のためのデ一夕を出力する一方で、 所定の夕ィミングで送信可能信号を動 作管理部 1 0 2に送信される。 ここで、 所定のタイミングは、 後で詳述するが、 命令送信部 1 0 5でのデータ受信遅延見込み時間分の残りデータになった時の夕 ィミグである。 これにより、 後述するように、 初期動作に続く同期動作が遅れる ことなく、 連続して表出されるようになる。
動作管理部 1 0 2では、 この送信可能信号を受けて、 コマンド制御部 1 0 1に 対して、 同期コマンド受信可能信号を送信する。
コマンド制御部 1 0 1では、 同期コマンド受信可能信号の受信タイミングで、 初期動作終了後に実行される同期動作のための各同期コマンドを各管理部 1 0 2, 1 0 3 , 1 0 4に出力する。
動作管理部 1 0 2では、 動作管理器 1 0 2 iが、 データペース D B 2を参照して、 入力された動き同期コマンドの内容を実行するモーション名を後段のジョイント 角指令器 1 0 2 2に出力する。 ジョイント角指令器 1 0 2 2は、 デ一夕ベース D B 3を参照して、 入力されたコマンドに対応される時系列デ一夕のデ一夕列を命令送 信部 1 0 5に出力する。
また、 発光パターン管理部 1 0 3では、 発光パターン生成器 1 0 3 iは、 デ一夕 ペース D B 4を参照して、 入力された発光同期コマンドに対応される時系列デ一夕 とされる発光パターンのデ一夕列を命令送信部 1 05に出力する。 また、 音波形 管理部 1 04では、 音波形発生器 104iは、 データペース D B 5を参照して、 入 力された音出力同期コマンドに対応される時系列データとされる音波形のデ一夕 列を命令送信部 105に出力する。
このように各管理部 102 , 103, 1 04は、 入力された各同期コマンドに 応じたデ一夕列を命令送信部 1 05に出力している。 そして、 当該データ列は同 期コマンドに係るデータであることから、 当該デ一夕列の先頭部分にはコマンド 制御部 1 0 1により付与された上述の同期 I D及びボイント値が付加されている。 命令送信部 1.05では、 各管理部 102 , 1 03, 1 04から送られてくるデ 一夕列を、 データバス 122を介して下位の制御部 106, 1 07 , 108に送 信する制御を行う。 命令送信部 105における処理は具体的には以下のようにな る。 .
命令送信部 1 05には、 図 18に示すように、 命令送信器 1 05 i及び図 1 9に 示すメモリ 1052を備えている。 .
命令送信部 1 05において、 命令送信器 105 iに、 各管理部 102 , 103, 1 04から出力された同期 I D、 ボイント値、 デ一夕列が入力される。 図 18に おいて、 同期 I D ( 1 ) 、 ポイント値 ( 1 ) 及びデータ ( 1 1 ) 、 データ ( 1 2 ) 、 · · ·は、 動作管理部 102からの同期 I D、 ポィント値、 デ一夕列にそ れそれ対応されるものであり、 同期 I D (2) 、 ポイント値 (2) 及ぴデ一夕 (2 1) 、 デ一夕 (22) 、 · · ·は、 発光パターン管理部 1 03からの同期 I D、 ポイント値、 データ列にそれそれ対応されるものであり、 同期 I D (3) 、 ポイント値 (3 ) 及ぴデ一夕 (3 1) 、 データ (32) 、 · · ·は、 音波形管理 部 1 04からの同期 I D、 ポイント値、 データ列にそれそれ対応されるものであ る。
このように入力された情報の内のヘッダ領域に同期 I D及びポィント値が記述 されている場合には、 命令送信部 105は、 メモリ 1052上に当該同期 I D及び ポィント値を書き込む。 メモリ 1052は、 例えば、 同期 I Dが記憶される領域 (以下、 同期 I D記億領域という。 ) 10521とポイント値が記億される領域 (以下、 ポイント値記憶領域という。 ) 1 0522が確保されており、 これにより、 メモリ 1 0 52には、 図 1 9に示すように、 各管理部 1 0 2, 1 03, 1 04それ それについて同期 I Dとポィント値とが対応されて記憶される。
そして、 命令送信器 1 0 5 iは、 このポイント値に基づいて、 後に続いて入力さ れてくるデータ列の各制御部 1 09, 1 1 0, 1 1 1への出力を管理している。 具体的には、 次のよう管理している。
命令送信器 1 0 5 は、 メモリ 1 052のポイント値記憶領域 1 0522を調べ、 ポイント値が記憶 (或いは格納) されている場合には、 当該ポイント値の総計が、 所定の数とされる 1 00になるかどうか判別する。
同期コマンドである場合には、 各管理部 1 0 2 , 1 0 3, 1 04から出力され たポイント値は、 その総計が 1 00になるようになされている。 すなわち例えば、 総計が 1 0 0となるように、 ポインタ ( 1 ) が 2 0、 ポイント値 (2) が 1 0、 ポイント値 (3) が 70とされている。
命令送信器 1 0 5 は、 ポイント値の総計が 1 00になった場合には、 図 1 8に 示すように、 デ一夕 ( 1.1 ) 、 データ (2 1 ) 、 デ一夕 (3 1 ) 、 データ ( 1 2 ) 、 デ一夕 (2 2) 、 · · · といったように、 本とされるデ一夕バス 1 2 2 に適合するように再配置 (或いはセヅト) して、 後段の各制御部 1 09 , 1 1 0 , 1 1 1に出力する。 また、 例えば、 デ一夕バス 1 2 2を使用したデータ列のその 出力タイミングについては、 各管理部 1 02, 1 03 , 1 04から出力された単 位でデ一夕を同期して行う。 すなわち例えば、 図 1 8に示すように、 データ ( 1 1 ) 、 デ一夕 (2 1 ) 及びデータ (3 1 ) を時間 tの夕ィミングで出力し、 また、 データ ( 1 2) 、 データ (22) 及ぴデ一夕 (32) を時間七 + 1のタイミング で出力し、 また、 データ ( 1 3) 、 データ (2 3) 及びデータ (33) を時間 t + 2の夕ィミングで出力する。
このように、 命令送信部 1 05によって、 ポイント値の総計が 1 00になった 時点で同期された各デ一夕がデ一夕パス 1 22を介して、 それぞれ対応される後 段のジョイント各制御部 1 06、 LED発光制御部 1 07及び音発生制御部 1 0 8に入力される。
以上のように、 命令送信部 1 05における処理が実行されている。 図 20には、 命令送信部 1 0 5における処理の流れをフローチャートとして示している。
命令送信部 1 0 5は、 先ず、 ステップ S 1において命令の受信待ち又は割り込 み待ちにある場合において、 割り込み要求があったときには、 ステヅプ S 2にて 割り込み用の処理に入り、 そしてステップ S 4に進む。 一方、 命令送信部 1 0 5 は、 ステップ S 1の状態において、 命令 (管理部から出力されたデータ列等) が 送信されてきた場合には、 命令の受信処理をする。 命令送信部 1 0 5は、 例えば、 送信されてきたデ一夕列をバッファリングする。 そして、 命令送信部 1 0 5は、 ステップ S 4に進む。
命令送信部 1 0 5は、 ステップ S 4において、 同期データの送信待ち状態にあ るか否かを判別し、 同期データの送信待ち状態である場合には、 ステヅプ S 7に 進み、 同期デ一夕の送信待ち状態でない場合には、 ステップ S 5に進む。
命令送信部 1 0 5は、 ステップ S 5において、 命令に同期デ一夕を示すシリア ル番号がついているか否かを判別する。 ここで、 シリアル番号は、 上述の同期 I Dである。 また、 このステヅプ S 5における判別処理は、 上述のステヅプ S 3に おいて命令 (デ一夕列等) を受信した場合になされる処理である。
命令送信部 1 0 5は、 このステヅプ S 5において、 命令に同期デ一夕を示すシ リアル番号がついている場合には、 ステップ S 6に進み、 命令に同期データを示 すシリアル番号がついていない場合には、 ステップ S 1 0に進む。
命令送信部 1 0 5は、 ステップ S 6において、 メモリ 1 0 5 2のフラグ領域に命 令に付加されてきたシリアル番号とボイント値とを記述し、 ステツプ S 7に進む。 ステヅプ S 7は、 上述のステップ S 4において同期データの送信待ち状態であ る場合にも進むステップであり、 命令送信部 1 0 5は、 このステップ S 7におい て、 フラグ領域における他の領域に同一のシリアル番号があるか否かを判別する。 ここで、 命令送信部 1 0 5は、 フラグ領域における他の領域に同一のシリアル番 号がついている場合には、 ステップ S 8に進み、 フラグ領域における他の領域に 同一のシリアル番号がついていない場合には、 ステヅプ S 1に戻る。
命令送信部 1 0 5は、 ステップ S 8において、 同一のシリアル番号がついてい る領域に対応されるポイント値 (point ( x ) ) の総計が 1 0 0であるか否かを判 別する。 命令送信部 1 0 5は、 その総計が 1 0 0である場合には、 ステップ S 9 に進み、 総計が 1 00にならない場合には、 ステップ S 1に戻る。
命令送信部 1 05は、 ステップ S 9において、 その他のバスコントローラに割 り込み処理の許可を求め、 ステヅプ S 1 0において、 デ一夕バス 1 22により各 制御部 1 06, 1 07, 108へのデ一夕列の送信を開始する。
そして、 命令送信部 105は、 このようにデータ列を各制御部に送信する一方 で、 ステヅプ S 1 1において、 バッファリングした命令があるか否かを判別する。 命令送信部 105は、 バッファリングした命令がある場合には、 ステップ S 4に 進み、 バヅファリングした命令がない場合には、 ステップ S 1に戻る。
以上のように命令送信部 105において処理が実行されている。 そして、 この ような処理により命令送信部 1 05からのデータの入力された各制御部 1.06, 107, 1 08は、 当該入力されたデータに基づいて、 モータ 109、 L E D 1 10及びスピーカ 1 1 1を制御する。 各制御部 1 06, 107 , 1 08には、 同 期されたタイミングで入力.されたデータに基づいて、 各モー夕 109、 LED 1 10及びスピーカ 1 1 1を制御していることから、 結果として実際のロボヅ ト装 置 1の表出動作とされるモー夕 109による動き、 LED 109による発光動作 及びスピーカ 1 1 1の音出力が同期されたものとなる。
また、 上述したように、 命令送信部 1 05から動作管理部 1 02への送信可能 信号の出力タイミングが、 初期動作の完了に対して遅れることなく、 連続して同 期動作が開始されるようなタイミングとされていることから、 ロボッ ト装置 1は、 初期動作に連続して同期動作を表出するようになる。
また、 命令送信器 105 においてボイント値の総計が 100になった場合には、 上述したように、 各モー夕 109、 L E D 1 10及びスピー力 1 1 1が同期して 動作されるようになるが、 命令送信器 1 05 においてポィント値の総計が 1 00 にならない場合には、 デ一夕列のいわゆる入力待ち状態になる。 この同期コマン ドの待ち状態において、 ロボット装置 1は、 独立コマンドを実行することもでき る。 具体的には次のような処理手順により実現される。
コマンド制御部 10 1に、 LED 1 1 0やスピーカ 1 1 1を動き動作に同期さ せることなく独立して動作させるためのコマンドが入力された場合、 コマンド制 御部 10 1によるデータベース DB!の参照結果として、 独立コマンドが後段の発 光パターン管理部 1 0 3或いは音波形管理部 1 0 4に出力される。 なお、 以下、 コマンド制御部 1 0 1から発光パターン管理部 1 0 3及び音波形管理部 1 0 4に それそれ独立コマンドが入力される場合であって、 かつその各独立コマンドの内 容が L E D 1 1 0とスピーカ 1 1 1とについても独立動作とされる情報からなる 場合を説明する。 また、 独立コマンドの場合には、 コマンド制御部 1 0 1は、 同 期コマンドの場合とは異なり、 当該独立コマンドに同期 I Dゃポィント値が付加 することなく出力する。
発光パターン管理部 1 0 3では、 発光パターン生成器 1 0 3 がデータベース D B 4を参照して、 入力された独立コマンドに対応されるデ一夕列を、 命令送信部 1 0 5に出力する。 同様に、 音波形管理部 1 0 4では、 音波形発生器 1 0 4 がデ一 タベース D B 5を参照して、 入力された独立コマンドに対応されるデ一夕列を、 命 令送信部 1 0 5に出力する。
ここで、 このように各管理部 1 0 3 , 1 0 4からデ一夕列が命令送信部 Γ0 5 に出力されるが、 これらのデータ列が同期コマンドによるものでないことから、 各データ列には同期 I Dやポイント値が付加されていない。
命令送信部 1 0 5では、 入力されてくるデータ列のヘッダ領域をみて同期 I D がないことから、 独立コマンドであることを認識して、 そのまま当該データ列を デ一夕バス 1 2 2にセットして L E D発光制御部 1 0 7及び音発生制御部 1 0 8 に出力する。 このような処理は、 同期 I D或いはポイント値が付加されていない データ列が入力された場合には、 同期コマンドに係るデ一夕列の場合においてな すようなボイント値を監視することなく、 そのまま当該独立コマンドに係るデー 夕列を対応される後段の制御部に出力するといつた命令送信部 1 0 5の機能によ り実現される。
これにより、 例えば同期コマンドに基づくデータ列については、 ポイント値の 総計が 1 0 0になるまで、 データ列のいわゆる入力待ち状態になっているが、 命 令送信部 1 0 5は、 独立コマンドに係るデ一夕列をデータバス 1 2 2にセットし て L E D発光制御部 1 0 7及び音発生制御部 1 0 8に出力するようになる。 すな わち、 独立コマンドに係るデータ列が、 同期コマンドに係るデ一夕列に優先され て、 L E D発光制御部 1 0 7及び音発生制御部 1 0 8に出力される。 L E D発光制御部 1 0 7では、 デ一夕バス 1 2 2を介して入力されてくるデー 夕列に基づいて、 L E D 1 1 0の発光動作を制御する。 また、 音発生制御部 1 0 8では、 デ一夕バス 1 2 2を介して入力されてくるデ一夕列に基づいて、 スピー 力 1 1 1の出力を制御する。
このような処理により、 ロボット装置 1は、 座り姿勢から立ち姿勢に遷移する どいつた初期動作を実行している最中においても、 独立コマンドとしての L E D 1 1 0の発光動作やスピーカ 1 1 1から音出力をすることができるようになる。 以上より、 本発明を適用したロボット装置 1においては、 具体的には、 図 2 1 に示すような処理を実現する。
ロボット装置 1は、 図 2 1に示すように、 座り姿勢から立ち姿勢に遷移する初 期動作を終了後、 動き動作に同期させて、 L E D 1 1 0により発光動作を行い、 さらにスピーカ 1 1 1により音出力を行うことができる。 また、 各構成部分をつ なぐデ一夕バスがデータによって口ヅクされていることもないことから、 いわゆ る常にフリ一状態とされ、 独立コマンドに係る例えば L E D 1 1 0による発光動 作やスピーカ 1 1 1による音出力を実行することができる。
なお、 上述の実施の形態では、 独立コマンドの内容が L E D 1 1 0とスピーカ 1 1 1それそれの動作を独立させて行う場合について説明しているがこれに限定 されるものではない。 L E D 1 1 0とスピーカ 1 1 1との同期動作を、 初期動作 に独立させて実行することもできる。 すなわち、 上述した独立コマンドは、 他の コマンドからみた場合に独立とされているコマンドであって、 相対的な意味にお いて独立されたコマンドと言える。
コマンド制御部 1 0 1は、 このような独立とされたコマンドであって、 同期動 作の内容を示すコマンド (以下、 独立同期コマンド) を、 発光パターン管理部 1 0 3及び音波形発生部 1 0 4に出力する。
またこのとき、 コマンド制御部 1 0 1は、 このような各独立同期コマンドに対 しては同期 I D及びポイント値を付加する。 また、 同期コマンドが既に出力され ている場合には、 各独立同期コマンドに付加する同期 I Dを、 同期コマンドに付 加した同期 I Dと異なるものにする。
発光パターン管理部 1 0 3及び音波形管理部 1 0 4はそれそれ、 入力された独 立同期コマンドに対応されるデ一夕列を命令送信部 1 0 5に出力する。
命令送信部 1 0 5では、 命令送信器 1 0 5 iに、 発光パターン管理部 1 0 3及び 音波形管理部 1 0 4から出力された同期 I D、 ポイント値、 データ列が入力され る。
そして、 命令送信部 1 0 5は、 入力された情報内のヘッダ領域に記述されてい る同期 I Dとボイント値とを、 メモリ 1 0 5 2上の同期 I D記憶領域 1 0 5 2 1及び ポイント値記憶領域 1 0 5 2 2において対応させて記憶する。 そして、 命令送信部 1 0 5は、 同期 I D記憶領域 1 0 5 2 iに記憶されている同一の同期 I Dに対応さ れるポイント値をポイント値記憶領域 1 0 5 2 2から読み出し、 そのポイント値の 総計を求めて、 その総計が所定の値になった時点で、 当該同期 I Dに係るデ一夕 列を、 L E D発光制御部 1 0 7及び音発光制御部 1 0 8に同期して出力する。
ここで、 独立同期コマンドに係るデータの出力条件を規定するポィント値の総 計とされる所定の値としては、 「 1 0」 等といったように、 初期動作に続いて実 行される同期コマンドについての所定の値とされる 1 0 0と異なる値にすること もできる。 この場合、 コマンド制御部 1 0 1においては、 独立同期コマンドにつ いては、 総計が 1 0になるように各独立同期コマンドにポィント値を付加する。 例えば、 L E D 1 1 0の動作に係る独立同期コマンドには 4のポイント値を付加 し、 スピーカ 1 1 1の動作に係る独立同期コマンドには 6のポイント値を付加す る。 これにより、 命令送信部 1 0 5は、 同期 I Dが同一のポィント値の総計が 1 0となった場合には、 その同期 I Dに対応される独立同期コマンドに係るデ一夕 列を、 L E D発光制御部 1 0 7及び音発光制御部 1 0 8に同期して出力するよう になる。
1^ £ 0発光制御部 1 0 7及び音発生制御部 1 0 8は、 人力されたデ一夕に基づ いて、 L E D 1 1 0及びスピーカ 1 1 1を制御する。 L E D発光制御部 1 0 7及 ぴ音発生制御部 1 0 8は、 同期されたタイミングで入力されたデ一夕に基づいて、 L E D 1 1 0及びスピーカ 1 1 1を制御していることから、 結果として実際の口 ボット装置 1の表出動作とされる L E D 1 0 9による発光動作及びスピーカ 1 1 1の音出力が同期されたものとなる。 そして、 このような動作が姿勢となる初期 動作とともに表出されるようになる。 次に、 初期動作から同期動作を連続して実行することを可能とする命令送信部 1 0 5からの送信可能信号の出力夕ィミングを説明する。
例えば、 モー夕 1 0 9が動作されて初期動作が終了した段階で、 命令送信部 1 0 5からその旨を示す送信完了信号を動作管理部 1 0 2に対して発行した場合に は、 動作管理部 1 0 2ゃコマンド制御部 1 0 1等の各構成部がその発行タイミン グから同期動作のための処理を開始することから、 図 2 2に示すように、 最終的 に命令送信部 1 0 5からのデータバス 1 2 2へのデータ (同期デ^"タ) の送信が、 送信完了信号の発行から遅れて開始される、 すなわち初期動作の終了の時間から 遅れて開始されるようになる。
さらにこのような場合において、 各管理部 1 0 2, 1 0 3 , 1 0 4から命令送 信部 1 0 5へのデ一夕列の入力が略同時になされれば良いが、 例えば、 上述の図 2 2に示すように、 音波形管理部 1 0 4からのデータの入力が遅れるときもある c このような場合、 命令送信部 1 0 5は、 上述したようにポインタの総計が 1 .0 0 になるまで後段の各制御部 1 0 6 , 1 0 7, 1 0 8へのデ一夕の送信を開始しな いことから、 図 2 3に示すように、 最大で音波形管理部 1 0 4からのデータの入 力があるまでの時間分だけデータバス 1 2 2を介して行う各制御部 1 0 6, 1 0 7, 1 0 8への送信を待つことになる。 これにより、 ロボヅ ト装置 1の動作には、 その待ち時間だけ動作されない空白時間が生じてしまうことになる。
このようなことから、 命令送信部 1 0 5から動作管理部 1 0 2に対して、 送信 可能であることをいう送信可能信号を発行するようにして、 その送信可能信号の 発行タイミングを、 図 2 4に示すように、 命令送信部 1 0 5でのデータ受信遅延 見込み時間分の残りデ一夕になったタイミングとして決定する。
すなわち、 そのタイミングは、 動作管理部 1 0 2やコマンド制御部 1 0 1等の 各構成部がその発行タイミングから同期動作のための処理を鬨始すること等によ る当該命令送信部 1 0 5への同期動作のためのデータの受信遅延を考慮に入れた タイミングである。 例えば、 このような送信可能信号の発行タイミングの情報は、 初期動作を実行させるための同期準備コマンドに付加されており、 命令送信部 1 0 5は、 同期準備コマンドに付加されてきた発行夕ィミングの情報に基づいて送 信可能信号を送信する。 このような送信可能信号を上述したような所定のタイミングとして命令送信部 1 0 5から上位の動作管理部 1 0 2に出力することにより、 ロボヅト装置 1は、 初期動作の完了から遅れることなく、 連続して同期動作を実行することができる ようになる。
また、 かなり時間の余裕をもって、 命令送信部 1 0 5から送信可能信号を送信 することも考えられるが、 命令送信部 1 0 5は、 初期動作中である場合にはその 余裕をもった時間分の各管理部 1 0 2 , 1 0 3, 1 0 4から送ちれてくるデ一夕 をメモリ上に保持する必要があり、 メモリを効率的に使用することができなくな る。 このようなことから、 理想的には、 初期動作に連続して同期動作が開始され るような夕イミングとして、 命令送信部 1 0 5から送信可能信号を発行すること が望ましく、 これによりメモリの有効利用を図ることができるようになる。
なお、 上述の実施の形態では、 図 1 7に示したように、 ロボット装置 1の構成 において、 命令送信部 1 0 5と各制御部 1 0 6, 1 0 7, 1 0 8とが 1本のデー 夕バス 1 2 2によって接続されている場合を説明した。 これにより、 命令送信部 1 0 5についてもそのような構成に適合するように構成されている。 しかし、 こ. のような構成とされることに限定されるものではなく、 図 2 5に示すように、 命 令送信部 1 3 0と各制御部 1 0 6, 1 0 7, 1 0 8とを独立して接続する 3本の データバス 1 2 4によって構成することもできる。 そして、 この場合、 命令送信 部 1 3 0は、 図 2 5及び図 2 6に示すように構成される。 そして、 命令送信部 1 3 0は、 図 2 6及び図 2 7に示すように、 共有メモリ 1 3 4を備えている。
このような構成とされた命令送信部 1 3 0において、 第 1の命令送信器 1 3 1 に、 動作管理部 1 0 2から出力された同期 I D、 ポイント値、 デ一夕列が入力さ れ、 また、 第 2の命令送信器 1 3 2に、 発光パターン管理部 1 0 3から出力され た同期 I D、 ポイント値、 デ一夕列が入力され、 そして、 第 3の命令送信器 1 3 3に、 発光パターン管理部 1 0 4から出力された同期 I D、 ポイント値、 デ一夕 列が入力される。
各命令送信器 1 3 1 , 1 3 2 , 1 3 3は、 入力されたデ一夕列に付加されてい るボイント値を、 共有メモリ 1 3 4に記憶する。 共有メモリ 1 3 4は、 図 2 7に 示すように、 同期 I Dが記憶される同期 I D記憶領域 1 3 4 iとポイント値が記憶 されるポィント値記憶領域 1 34とが確保されており、 同期 I Dとポィント値と が対応付けされて記億可能とされている。 そして、 共有メモリ 1 34は、 各命令 送信器 1 3 1 , 1 32, 1 33の共有とされており、 これにより、 各命令送信器 1 3 1 , 1 32 , 1 33は、 他の命令送信器が書き込んだ同期 I Dやポイント値 を参照することが可能になっている。
第 1乃至第 3の各命令送信器 1 3 1, 1 32 , 1 33は、 このような共有メモ リ 1 34を監視し、 同一の同期 I Dに対応するポィント値の総計が 1 00になつ た場合、 すなわち、 全ての管理部 1 02, 1 03 , 1 04からの同期コマンドに 係るデータ列が命令送信部 1 3 0に入力された場合には、 そのタイミングでそれ それ対応されるデ一夕バス 1 24 1 242, 1 243にデータ列をセットして、 各制御部 1 0 6, 1 07, 1 0 8に送信する。
なお、 総計が 1 00になるか否かの判別は、 例えば第 1の命令送信器 1 3 1に その判別機能を併有させるこ.とでも実現でき、 この場合、 ポイント値記憶領域 1 34 iにポィント値が格納されてその総計が 1 00になったときには、 第 1の命令 送信器 1 3 1が第 2及び第 3の命令送信器 1 32, 1 33にその旨を通知する。 これにより、 第 1乃至第.3の命令送信器 1 3 1 , 1 32 , 1 33は、 その通知の タイミングでそれそれ対応されるデ一夕バス 1 24 1 242, 1 243にデータ 列をセヅトして、 各制御部 1 0 6 , 1 07, 1 08に送信する。
以上のように、 命令送信部 1 30における処理がなされる。 図 28には、 命令 送信部 1 30における処理の流れをフローチャートとして示している。 この命令 送信部 1 30の処理では、 特にデータバスを複数利用して各制御部 1 0 6 , 1 0 7, 1 08にデ一夕を送信していることに対応していることかち、 ここではその 部分を中心に説明する。 なお、 図 2 0及ぴ図 2 8において同一番号を付したステ ップについては、 特に言及しない限り同一の処理を行っている。
命令送信部 1 30は、 上述したように第 1乃至第 3の命令送信器 1 3 1, 1 3 2 , 1 33が共に参照可能とされている共有メモリ 1 34を備えており、 このよ うなことから、 ステヅプ S 6 1において、 共有メモリ 1 34に命令に付加されて いるシリアル番号とポィント値を記述する。
そして、 命令送信部 1 30の第 1乃至第 3の各命令送信器 1 3 1, 1 32, 1 33が、 ステップ S 7 1において、 共有メモリ 1 34の他の領域に同一のシリァ ル番号がついているか否かを判別する。 ここで、 第 1乃至第 3の各命令送信器 1 3 1, 132 , 1 33は、 他の領域に同一のシリアル番号がついている場合には、 ステヅプ S 8 1に進み、 他の領域に同一のシリアル番号がついていない場合には、 ステップ S 1に戻る。
第 1乃至第 3の各命令送信器 13 1, 1 32 , 133は、 ステヅプ S 8 1にお いて、 同一のシリアル番号がついている領域に対応されるポイント値 (point (x) ) の総計が 100であるか否かを判別する。 第 1乃至第 3の各命令送信器
13 1 , 132 , 133は、 その総計が 1 00である場合には、 ステヅプ S 9 1 に進み、 総計が 1 00にならない場合には、 ステップ S 1に戻る。
第 1乃至第 3の各命令送信器 13 1, 1 32 , 133は、 ステップ S 9 1にお いて、 バスコントローラに対応されるデータバス 1 24 1 242, 1 243に割 り込み処理の許可を求め、 ステップ S 10 1において、 各データバス 1 24 l5 1
242, 1243により対応される各制御部 106, 107 , 1 08へのデータ列 の送信を開始する。
そして、 命令送信部 1 30は、 このようにデ一夕列を各制御部に送信する一方 で、 ステップ S 1 1において、 バヅファリングした命令があるか否かを判別する。 叩令送信部 130は、 バッファリングした命令がある場^ rには、 ステップ S 4に 進み、 バヅファリングした命令がない場合には、 ステップ S 1に戻る。
以上のように命令送信部 130において処理が実行されている。 そして、 この ような処理により命令送信部 1 30からのデータの入力された各制御部 106, 107, 1 08は、 入力されたデ一夕に基づいて、 モー夕 109、 LED 1 10 及びスピーカ 1 1 1を制御する。 各制御部 106 , 107, 1 08には、 同期さ れた夕ィミングで入力されたデータに基づいて、 各モー夕 109、 L E D 1 10 及びスピーカ 1 1 1を制御していることから、 結果として実際のロボッ ト装置 1 の表出動作とされるモータ 109による動き、 LED 1 09による発光動作及び スピーカ 1 1 1の音出力が同期されたものとなる。 産業上の利用可能性 以上のように、 本発明を適用することにより、 ロボット装置は、 初期動作が 実行されている最中においては、 動作についてフリーな状態とされる L E Dゃス ピー力については、 独立コマンドを実行することができる。 さらに、 ロボヅト装 置においては、 初期動作が実行されている最中においては、 データバス上に同期 コマンドの内容のデ一夕列が送出されないことが実現され、 例えば、 これにより、 例えば独立コマンドが発生したような場合に、 コマンドを容易に消去することが 可能になる。

Claims

請求の範囲
1 . 動作を表出させる複数の動作手段と、
複数の動作手段の動作を制御する制御手段とを備え、
上記制御手段は、 先行する動作手段による動作の完了後に連続して、 後発の動 作として複数の動作手段による同期動作をさせること
を特徴とするロボヅト装置。
2 . 上記制御手段は、 動作の割り込み要求のあったときには、 上記先行する.動作 とともに、 当該割り込み要求に係る動作をさせること
を特徴とする請求の範囲第 1項記載のロボット装置.。 -
3 . 複数の姿勢状態又は動作状態を遷移可能とされており、 '
上記先行する動作手段による動作が、 上記後発の動作を鬨始する姿勢状態又は 動作状態への遷移のための動作であること
を特徴とする請求の範囲第 1項記載のロボット装置。
4 . 上記制御手段は、 上記先行する動作手段による動作の完了見込み情報に基づ いて、 複数の動作手段による同期動作を開始させること
を特徴とする請求の範囲第 1項記載のロポット装置。
5 . 上記制御手段は、 入力されたコマンドに対応される出力コマンドを出力する コマンド制御部と、 複数の動作手段に対応して備えられ、 上記コマンド制御部が 出力した出力コマンドに対応される動作制御デ一夕を出力する動作制御デ一夕変 換部と、 各動作制御データ変換部が出力した各動作制御デ一夕の送信制御をする データ送信制御部と、 上記各動作手段に対応して備えられ、 上記データ送信制御 部が出力した動作制御データに基づいて、 上記動作手段を制御する複数の動作制 御部とを備え、
上記データ送信制御部は、 各動作制御データ管理部から出力された各同期用の 動作制御データについては、 同期して各動作制御部に送信すること
を特徴とする請求の範囲第 1項記載のロボット装置。
6 . 上記各同期用の動作制御データには、 同期情報が付加されており、
上記データ送信制御部は、 付加されている上記同期情報に基づいて、 当該各同 期用の動作デ一夕を同期して各動作制御部に送出すること
を特徴とする請求の範囲第 5項記載のロボット装置。
7 . 上記同期情報は、 少なくとも同期 I D及びポイント値を含み、
各ポィント値が、 上記各同期用の動作制御データのポィント値を総計したとき に所定の値になるような数であり、
上記データ送信制御部は、 入力された各動作制御データに付加されている上記 同期 I Dがー致する上記ポィント値の総計が上記所定の値になったとき、 当該入 力された各動作制御デーダを同期して各動作制御部に送信すること
を特徴とする請求の範囲第 6項記載の口ポ ト装置。
8 . 上記コマンド制御部は、 上記出力コマンドが同期動作のための同期コマンド のときには、 上記データ送信制御部から出力された完了見込み情報に基づいて、 同期コマンドの出力を開始し、
上記データ送信制御部は、 先行する動作の見込み完了時刻に基づいて、 上記完 了見込み情報を出力すること
を特徴とする請求の範囲第 6項記載のロボッ ト装置。 .
9 . 複数の動作手段は、 少なくとも動き動作をするための動き動作手段、 発光動 作するための発光手段及び音出力するための音出力手段であること
を特徴とする請求の範囲第 1項記載のロポツト装置。
1 0 . 動作を表出させる複数の動作手段を備えるロボット装置の動作を制御する ロボット装置の動作制御方法であって、
先行する動作手段による動作の完了後に連続して、 後発の動作として複数の動 作手段による同期動作をさせること
を特徴とするロポット装置の動作制御方法。
1 1 . 上記ロボッ ト装置が複数の姿勢状態又は動作状態を遷移可能とされており、 上記先行する動作手段による動作が、 上記後発の動作を開始する姿勢状態又は 動作状態への遷移のための動作であること
を特徴とする請求の範囲第 1 0項記載のロボット装置の動作制御方法。
1 2 . 上記先行する動作手段による動作の完了見込み情報に基づいて、 複数の動 作手段による同期動作を開始させること を特徴とする請求の範西第 1 0項記載のロボット装置の動作制御方法。
1 3 . 入力されたコマンドに対応される出力コマンドを出力するコマンド制御ェ 程と、
上記コマンド制御工程にて出力された出力コマンドに対応される動作制御デー 夕を出力する動作制御データ変換工程と、
上記動作制御データ管理工程にて出力された各動作制御デ一夕の送信制御をす るデータ送信制御工程と、
上記データ送信制御工程にて出力された動作制御データに基づいて、 上記動作 手段を制御する複数の動作制御部とを有し、
上記デ一夕送信制御工程では、 動作制御デ一夕変換工程にて出力された各同期 用の動作制御デ一夕については、 同期して各動作制御工程に送信すること を特徴とする請求の範囲第 1 0項記載のロボッ ト装置の動作制御方法。
1 4 . 動作を表出させる複数の動作表出手段と、 上記動作表出手段を制御する複 数の動作制御手段とを備えるロボット装置であって、
上記ロボット装置に所定の動作を表出させるコマンドに関連する複数の同期コ マンドを出力するコマンド制御手段と、
上記コマンド制御手段から出力された上記同期コマンドを制御し、 上記複数の 動作制御手段に上記同期コマンドを送信する命令送信制御手段とを備え、 上記コマンド制御手段は、 上記複数の同期コマンドのそれぞれに少なくとも同 期すべきコマンドの I Dと当該同期すべきコマンドの総数とを表すラベルを付し て、 上記同期コマンドを出力し、
上記命令送信制御手段は、 上記 I Dと上記総数とに基づいて、 複数の'上記同期 コマンドを同期させて上記動作制御手段へ送信すること
を特徴とするロボット装置。
1 5 . 動作を表出させる複数の動作表出手段と上記動作表出手段を制御する複数 の動作制御手段とを備えるロボッ ト装置の動作制御方法であって、
コマンド制御手段が、 上記ロボット装置に所定の動作を表出させるコマンドに 関連する複数の同期コマンドのそれそれに少なくとも同期すべきコマンドの I D と当該同期すべきコマンドの総数とを表すラベルを付して出力し、 命令送信制御手段が、 上記コマンド制御手段から出力された上記同期コマンド を制御し、 上記 I Dと上記総数とに基づいて、 複数の上記同期コマンドを同期さ せて上記複数の動作制御手段に上記同期コマンドを送信すること
を特徴とするロボット装置の動作制御方法。
1 6 . 動作を表出させる複数の動作表出手段と、 上記動作表出手段を制御する複 数の動作制御手段とを備えるロボット装置であって、
上記ロボット装置に所定の動作を表出させるコマンドに閧連する複数の同期コ マンドを出力するコマンド制御手段と、
上記コマンドを伝送する複数のバスと、
上記バスのそれそれに設けられ、 上記コマンド制御手段から出力された上記同 期コマンドを制御し、 上記複数の動作制御手段に上記同期コマンドを送信する複 数の命令送信制御手段と、
上記複数の命令送信制御手段によるアクセスが可能な共有メモリとを備え、 上記コマンド制御手段は、 上記複数の同期コマンドのそれそれに少なくとも同 期すべきコマンドの I Dと当該同期すべきコマンドの総数とを表すラペルを付し て、 上記同期コマンドを出力し、
上記命令送信制御手段は、 上記 I Dと上記総数とを上記共有メモリに格納し、 当該共有メモリを参照することで、 上記バスを介して、 複数の上記同期コマンド を同期させて上記動作制御手段へ送信すること
を特徴とするロボット装置。
1 7 . 動作を表出させる複数の動作表出手段と上記動作表出手段を制御する複数 の動作制御手段とを備えるロボット装置の動作制御方法であって、
コマンド制御手段が、 上記ロボット装置に所定の動作を表出させるコマンドに 関連する複数の同期コマンドのそれそれに少なくとも同期すべきコマンドの I D と当該同期すべきコマンドの総数とを表すラベルを付して、 上記同期コマンドを 出力し、
上記コマンドを伝送する複数のバスのそれそれに設けられる命令送信制御手段 が、 上記コマンド制御手段から出力された上記同期コマンドを制御し、 上記 I D と上記総数とを、 共有メモリに格納し、 当該共有メモリを参照することで、 上記 バスを介して、 複数の上記命令送信制御手段によるアクセスが可能な複数の上記 同期コマンドを同期させて、 上記複数の動作制御手段に上記同期コマンドを送信 すること
を特徴とするロボット装置の動作制御方法。
PCT/JP2001/008954 2000-10-11 2001-10-11 Appareil robot et procede de commande du mouvement de l"appareil robot WO2002030630A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/149,825 US6697708B2 (en) 2000-10-11 2001-10-11 Robot apparatus and robot apparatus motion control method
KR1020027007384A KR20020067694A (ko) 2000-10-11 2001-10-11 로봇 장치 및 로봇 장치의 동작 제어 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000311318 2000-10-11
JP2000-311318 2000-10-11

Publications (1)

Publication Number Publication Date
WO2002030630A1 true WO2002030630A1 (fr) 2002-04-18

Family

ID=18791105

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/008954 WO2002030630A1 (fr) 2000-10-11 2001-10-11 Appareil robot et procede de commande du mouvement de l"appareil robot

Country Status (4)

Country Link
US (1) US6697708B2 (ja)
KR (1) KR20020067694A (ja)
CN (1) CN1396856A (ja)
WO (1) WO2002030630A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
KR100906136B1 (ko) * 2003-12-12 2009-07-07 닛본 덴끼 가부시끼가이샤 정보 처리용 로봇
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
JP5402233B2 (ja) * 2009-05-19 2014-01-29 株式会社安川電機 ロボット及び物品搬送システム
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
JP2013058059A (ja) * 2011-09-08 2013-03-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US9823628B2 (en) * 2013-01-11 2017-11-21 Tecan Trading Ag Laboratory system
JP6396463B2 (ja) * 2014-07-01 2018-09-26 シャープ株式会社 姿勢制御装置、ロボット、プログラム、および姿勢制御方法
CN105680972A (zh) * 2016-01-20 2016-06-15 山东大学 机器人集群协同任务网络同步控制方法
CN109257668B (zh) * 2018-08-21 2020-10-13 广东思派康电子科技有限公司 一种自适应控制音效的音箱及其计算机可读存储介质
CN111267085A (zh) * 2018-12-04 2020-06-12 北京猎户星空科技有限公司 一种动作分子的执行方法及装置、设备和存储介质
CN111354361A (zh) * 2018-12-21 2020-06-30 深圳市优必选科技有限公司 一种情感交流的方法、系统及机器人

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6415807A (en) * 1987-07-09 1989-01-19 Yokogawa Electric Corp Robot controller
JPH09114514A (ja) * 1995-10-17 1997-05-02 Sony Corp ロボット制御方法およびその装置
JPH1015836A (ja) * 1996-07-05 1998-01-20 Seiko Epson Corp ロボット用コントローラ及びその制御方法
JPH11143849A (ja) * 1997-11-11 1999-05-28 Omron Corp 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JP2000187502A (ja) * 1998-12-22 2000-07-04 Nec Corp ロボット、ロボット制御装置、制御方法、及びコンピュータ読取可能な記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6415807A (en) * 1987-07-09 1989-01-19 Yokogawa Electric Corp Robot controller
JPH09114514A (ja) * 1995-10-17 1997-05-02 Sony Corp ロボット制御方法およびその装置
JPH1015836A (ja) * 1996-07-05 1998-01-20 Seiko Epson Corp ロボット用コントローラ及びその制御方法
JPH11143849A (ja) * 1997-11-11 1999-05-28 Omron Corp 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JP2000187502A (ja) * 1998-12-22 2000-07-04 Nec Corp ロボット、ロボット制御装置、制御方法、及びコンピュータ読取可能な記録媒体

Also Published As

Publication number Publication date
CN1396856A (zh) 2003-02-12
US20030078695A1 (en) 2003-04-24
US6697708B2 (en) 2004-02-24
KR20020067694A (ko) 2002-08-23

Similar Documents

Publication Publication Date Title
US7216082B2 (en) Action teaching apparatus and action teaching method for robot system, and storage medium
WO2002045916A1 (fr) Robot, procede de commande du mouvement d&#39;un robot et systeme de commande du mouvement d&#39;un robot
JP4396273B2 (ja) ロボット装置及びその制御方法
JP4696361B2 (ja) ロボット装置及び動作制御方法
EP1151779B1 (en) Robot and action deciding method for robot
US7251606B2 (en) Robot device with changing dialogue and control method therefor and storage medium
JP4150198B2 (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
EP1508409A1 (en) Robot device and robot control method
WO2002066211A1 (fr) Procede de commande de fonctionnement, programme, et support d&#39;enregistrement pour dispositif robotise, et dispositif robotise correspondant
WO2002030630A1 (fr) Appareil robot et procede de commande du mouvement de l&#34;appareil robot
JP2003266351A (ja) ロボット装置及びロボット装置の動作制御方法
WO2002034478A1 (fr) Robot pourvu de jambes, procede de commande du comportement d&#34;un tel robot, et support de donnees
JP2005193331A (ja) ロボット装置及びその情動表出方法
JP2001212782A (ja) ロボット装置及びロボット装置の制御方法
JP2004283959A (ja) ロボット装置、その動作制御方法、及びプログラム
JP3925140B2 (ja) 情報提供方法及び情報提供装置、並びにコンピュータ・プログラム
WO2002030629A1 (fr) Appareil robot, systeme d&#34;affichage d&#34;information et procede d&#34;affichage d&#34;information
JP2002187083A (ja) ロボット装置及びロボット装置の動作制御方法
JP2004114285A (ja) ロボット装置及びその行動制御方法
JP4556425B2 (ja) コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置
JP2001157979A (ja) ロボット装置及びその制御方法
JP2001157982A (ja) ロボット装置及びその制御方法
JP2001157980A (ja) ロボット装置及びその制御方法
JP2001157981A (ja) ロボット装置及びその制御方法
JP2003136439A (ja) ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

WWE Wipo information: entry into national phase

Ref document number: 1020027007384

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 018040721

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020027007384

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10149825

Country of ref document: US