WO2016067474A1 - ロボット玩具 - Google Patents

ロボット玩具 Download PDF

Info

Publication number
WO2016067474A1
WO2016067474A1 PCT/JP2014/079145 JP2014079145W WO2016067474A1 WO 2016067474 A1 WO2016067474 A1 WO 2016067474A1 JP 2014079145 W JP2014079145 W JP 2014079145W WO 2016067474 A1 WO2016067474 A1 WO 2016067474A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
attack
action
robot body
robot toy
Prior art date
Application number
PCT/JP2014/079145
Other languages
English (en)
French (fr)
Inventor
幸弘 進藤
Original Assignee
株式会社タカラトミー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社タカラトミー filed Critical 株式会社タカラトミー
Priority to PCT/JP2014/079145 priority Critical patent/WO2016067474A1/ja
Priority to JP2016556174A priority patent/JP6437566B2/ja
Publication of WO2016067474A1 publication Critical patent/WO2016067474A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/18Figure toys which perform a realistic walking motion
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/18Figure toys which perform a realistic walking motion
    • A63H11/20Figure toys which perform a realistic walking motion with pairs of legs, e.g. horses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards

Definitions

  • the present invention relates to a robot toy, and more particularly, to a robot toy capable of executing an attacking action used in a battle play in which robots fight with each other.
  • robot toys that can execute an attacking action (for example, a punching action) used in a fighting game in which robots fight each other.
  • attacking action for example, a punching action
  • robot toys are roughly classified into a stationary type and a movable type.
  • Stationary robot toys are mainly installed in game halls, etc., and two upper body humanoid robots that can perform left and right punching operations are placed opposite each other at a distance where each other's punch attack can reach. It is said that the player performs a left and right punch feed operation at an arbitrary timing when the player presses the operation button on the operation panel arranged behind the fingertip.
  • the mobile robot toy is mainly used for home use, and can be walked or run in addition to the left and right punching operations, and is received from a wired or wirelessly connected remote control unit.
  • the robot body In response to the operation command, by executing a walking or running operation, the robot body is brought close to another opponent, and in that state, in response to the operation command received from the operation unit, any timing It is said that the left and right punch unwinding operation is executed.
  • the remote operation unit connected to the robot body by wire or wirelessly includes a button operation type equipped with operation buttons for generating execution commands for left and right punch operations, and arm movements corresponding to left and right punch operations.
  • a sensor-incorporated type that detects a sensor through a sensor (for example, an acceleration sensor) and generates a corresponding operation command.
  • the button operation type remote operation unit has the advantage that the intended punching operation can be realized by a slight movement of the fingertip (button operation).
  • the body action to make the robot body perform the punching operation and the operation in the operation unit Since there is some discrepancy in the will transmission system with the body action that tries to press the button, the player's will cannot be smoothly transmitted to the operation of the robot body. There is a problem of lack of excitement.
  • the remote control unit with a built-in sensor is connected to the body action for generating a motion command as it is because the body action to cause the robot body to perform a punching action is performed. Can be smoothly transmitted to the operation of the robot body, and there is an advantage that the play can be greatly increased.
  • the applicant company previously proposed a robot toy having such a remote control unit with a built-in sensor (see Patent Document 1), and a robot toy product according to the proposal (trade name: Batroborg). Has been well received by the market (Non-Patent Document 1).
  • the robot toy described in Patent Document 1 and Non-Patent Document 1 has a remote control unit with a built-in sensor.
  • This remote control unit has a substantially nunchaku shape formed by connecting two control unit casings each having a bar shape with an electric cord having an appropriate length.
  • the player holds one of the two operation unit cases with the right hand and the other with the left hand, and performs a body action corresponding to the left and right punches. Then, a sensor built in each operation unit casing senses this, and a corresponding operation command is generated by the action of the control unit in accordance with this detection output.
  • the data is transmitted wirelessly to the robot body side through a transmission / reception unit built in one of the operation unit casings. On the robot body side, an operation command transmitted wirelessly from the remote operation unit side is received via the transmission / reception unit, and either left or right punching operation or walking operation is realized according to the content of the received operation command. To do.
  • one of the two operation unit housings is gripped with the right hand and the other with the left hand, and the body action corresponding to the left and right punches is performed. Therefore, the player can smoothly transmit the will from the player to the robot body, enthusiastically play the fighting game in which the robots fight each other, and arouse excitement.
  • the present invention has been made in view of the above-described technical background, and its object is to execute one or more attack operations and to execute one of those attack operations. Another object is to provide a robot toy that does not require any additional accessories such as a dedicated remote control unit.
  • a robot toy according to the present invention is a robot toy having a robot main body capable of executing one or more attack operations, an object sensor having an object detection area in the vicinity of the robot main body, and an output of the object sensor. And a control unit that controls execution of one or more attacking operations selected according to the state of the object in the object sensing area.
  • any object for example, fingertip, fist, palm, etc.
  • the object can be attacked only by bringing the object into a predetermined state. Since one or two or more can be selected and executed, it is possible to provide a robot toy that does not require an additional accessory such as a dedicated remote control unit in order to execute one of the attack operations.
  • the execution mode of the attack operation is determined as the one in which the attack operation should be executed once. Good.
  • the selected attacking action for example, punching action
  • the execution mode of the attack operation is the predetermined number of times for a predetermined time, Alternatively, it may be determined to be executed cyclically during the stay.
  • the robot main body side The selected attack action (for example, punch action) can be cyclically executed (for example, repeated hits) for a predetermined number of times, for a certain period of time, or during the stay.
  • the execution mode of the attack operation is that the attack operation is performed with a stronger power than usual. It may be determined to be executed.
  • the selected attack is performed on the robot body side.
  • the operation for example, punching operation
  • punching operation can be executed with a stronger power than usual.
  • the object sensing area may be set in the vicinity of a surface facing the assumed player among the peripheral surfaces of the robot body.
  • the player performs a selected attack action (for example, punch action) on the robot body side by performing a body action corresponding to the punch action, for example, toward the front. Can be executed.
  • a selected attack action for example, punch action
  • the surface facing the assumed player may be the back surface of the robot body.
  • the player can execute the selected attack action in his / her robot body by paying out a body action corresponding to the attack action while viewing the enemy robot body from the front. be able to.
  • the surface facing the assumed player may be a left side surface and / or a right side surface of the robot body.
  • the selected attack action for example, punch action
  • the object sensing area is composed of a plurality of small areas distributed along a plane facing the assumed player of the robot body, and each of the plurality of small areas is Is associated in advance with one or more of the attack actions, and the control unit, for each of the plurality of small areas, has one or more of the attack actions associated with the small areas. It may be one that controls execution.
  • the player performs an attack action (for example, on a small area associated with one or more target attack actions among a plurality of small areas constituting the object sensing area (for example, By performing a body action corresponding to a punch action, a selected attack action (for example, a punch action) can be executed in the robot body.
  • an attack action for example, on a small area associated with one or more target attack actions among a plurality of small areas constituting the object sensing area (for example, By performing a body action corresponding to a punch action, a selected attack action (for example, a punch action) can be executed in the robot body.
  • the spatial layout when observing each of the plurality of small regions from the side facing the robot main body is consistent with the spatial layout of each of the starting points of the plurality of attack operations. Good.
  • each of the plurality of small regions may be distributed along the back side or the left side and / or the right side of the robot body.
  • the body action corresponding to the target attack action can be performed more smoothly while observing the enemy robot body from the front or side.
  • the robot body has a left-origin attack action such as various punch attacks using the left fist and various attacks using a weapon held in the left hand, various punch attacks using the right fist, and the right hand.
  • a right-type attack action such as various attacks by a weapon held by the robot, and the object sensing area is located on the left or right side of the robot body along the back or left side and / or the right side.
  • the control unit includes two small areas to be laid out, and the control unit analyzes the state of the object in each of the two small areas, and based on the analysis result of the left small area Further, the execution of the attack operation from the left starting point may be controlled, and the execution of the attack operation from the right starting point may be controlled based on the analysis result of the small area on the right side.
  • the player can perform a body action (for example, a left punching operation) corresponding to a target attacking action on the left small area among the two small areas constituting the object sensing area.
  • a body action for example, a left punching operation
  • the left-origin attack operation such as various punch attacks using the left fist and various attacks by the weapon held in the left hand can be executed on the right side of the robot.
  • the body action (for example, right punching action) corresponding to the attacking action to be performed on the robot body performs left-origin attacking actions such as various punching attacks using the right fist and various attacks using the weapon held by the right hand. So you can empathize with yourself as if you were a robot body and enjoy playing against it.
  • the robot body has an upper left starting attack operation such as a straight punch or hook punch attack using a left fist, and a straight punch or hook punch attack using a right fist.
  • It is a humanoid robot that has an attack action starting from the upper right, an attack action starting from the lower left such as an upper punch attack using the left fist, and an attack action starting from the lower right such as an upper punch attack using the right fist
  • the object sensing area includes four small areas that are laid out vertically and horizontally along the back or left and / or right side of the robot body, and the command generator includes the four For each small area, analyze the state of the object in the small area, control the execution of the attack action of the upper left starting point based on the analysis result of the small area on the upper left, and solve the solution on the small area on the upper right.
  • the execution of the attack motion of the upper right starting point is controlled, and based on the analysis result of the lower left small region, the execution of the control operation of the lower left starting point is controlled, and the analysis result of the lower right small region
  • the execution of the attack operation of the lower right starting point may be controlled based on the above.
  • the player can perform a body action (for example, an upper left punching operation) corresponding to a target attack action on the upper left small area among the four small areas constituting the object sensing area.
  • the body action for example, the upper right punching action
  • the body action corresponding to the target attacking action against the upper right small area, such as the straight punch using the left fist and the hook punch attack, is performed.
  • the body action for example, the lower left punching action
  • the target attacking action is performed on the lower left small area, such as a straight punch using a right fist or a hook punch attack, etc.
  • the attack action of the lower left starting point such as the upper punch attack using the left fist is further matched to the target attack action for the lower right small area.
  • a body action for example, lower right punching action
  • the object sensor is on the robot body side, a transmitter for sending a radiator serving as a detection medium to the object sensing area, and on the robot body side, A receiver for receiving the radiator reflected by an object present in the object sensing region, and sensitivity adjusted to match an object detection distance range to the sensing region, and the sensing region based on an output from the receiver
  • a reflection type object sensor that generates a signal indicating the presence or absence of an object may be used.
  • the cost of the object sensor can be reduced by simplifying the electrical hardware configuration and the software configuration for determining the presence or absence of an object in the area.
  • the sensing area is composed of a plurality of small areas
  • the transmitter is composed of a plurality of transmitters that send out a radiator as a detection medium to each of the small areas
  • the receiver is each of the small areas.
  • the transmitter may be attached so that the angle can be adjusted so that the delivery direction of the radiator can be adjusted.
  • one receiver receives the radiator reflected from two or more small areas by adjusting the delivery direction of the radiator to reliably eliminate interference between the small areas.
  • erroneous detection of the object position can be prevented more reliably.
  • the sending timing of the radiator from each of the plurality of transmitters is different from each other. There may be.
  • the cost of the object sensor can be reduced by reducing the number of transmitters as long as the transmission interval of the radiator is set appropriately.
  • the characterization process may be applied to radiators sent from each of the plurality of transmitters in order to be able to identify which subregion each reflected radiator has come from.
  • a unique identification code may be incorporated.
  • the radiator serving as the detection medium may be light including infrared rays as an example, sound waves including ultrasonic waves as an example, or electromagnetic waves including microwaves as an example.
  • the robot body is a humanoid robot capable of one or more attacking operations, a beast robot such as a lion, a tiger, or a buffalo, or a tyrannosaurus, triceratops, or the like. It may be a dinosaur type robot.
  • the type of the robot main body applied to the present invention is not limited to the humanoid robot, and extends to all types of robot toys as long as one or more attack operations can be performed. Is.
  • the one or more attack operations that can be executed by the humanoid robot include a punch attack operation such as a left and right straight, a hook, and an upper, or an attack operation using a weapon such as a sword. May be.
  • attack actions include not only those caused by parts of the body, such as hands and feet, but also those that have weapons in hand, so this type of battle play should be made even more interesting. Can do.
  • the one or more attack actions that can be executed by the beast robot include an attack action using left and right forefoot claws, an attack action using horns, or an attack action using fangs. May be.
  • attack actions that can be executed by the dinosaur robot include an attack action using the left and right forefoot claws, or an attack action using a fang or horn with the neck extended Good.
  • the robot body may be capable of traveling or walking.
  • the robot toy has a manual movement mode and an automatic movement mode, and the manual movement mode executes a traveling movement or a walking movement in response to a body action of a player, and the automatic movement mode is It may include a preset movement mode that moves according to a preset movement locus, or a programmable movement mode that moves according to an arbitrarily programmed movement locus.
  • the robot body can be selectively moved in the manual movement mode and the automatic movement mode for moving along an arbitrary route.
  • the manual movement mode while watching the movement of the enemy robot body, while changing the course sequentially, it is possible to take a strategy action that guides the robot body to the optimal attack posture, while automatically In the movement mode, by predicting the opponent's movement and setting the optimal movement route in advance, it is possible to provide enjoyment of watching over the outcome of the prediction result, making this kind of battle play more interesting. can do.
  • the automatic movement mode is immediately By switching from the manual movement mode to the manual movement mode, an appropriate response can be taken.
  • the robot toy recognizes the direction of the other party by relying on the sound emitted from the enemy robot body by the left and right microphones for the traveling movement or walking movement, and spontaneously taking a course. It may have a search movement mode to be performed.
  • the method according to the present invention is a method for controlling an attack operation in a robot toy having a robot main body capable of executing one or two or more attack operations, the output from an object sensor having an object sensing area in the vicinity of the robot main body. And a step of controlling execution of one or more of the attack operations selected according to the state of the object in the object sensing area based on the output of the captured object sensor. , That is.
  • any object for example, fingertip, fist, palm, etc.
  • the object can be attacked only by bringing the object into a predetermined state. Since one or two or more can be selected and executed, there is an advantage that an accessory such as a dedicated operation unit is not required to execute one of the attack operations.
  • a computer program according to the present invention is a computer program for controlling an attack operation in a robot toy having a robot body capable of executing one or more attack operations, and has an object sensing area in the vicinity of the robot body. And the step of controlling execution of one or more of the attack operations selected according to the state of the object in the object sensing area based on the captured output of the object sensor. To do.
  • some object eg, fingertip, fist, palm, etc.
  • some object eg, fingertip, fist, palm, etc.
  • the object is brought into a predetermined state. Only one or more of those attack actions can be selected and executed, so there is an advantage that no additional accessories such as a dedicated operation unit are required to execute one of the attack actions. .
  • a recording medium according to the present invention is a recording medium storing a computer program for controlling attacking motion in a robot toy having a robot body capable of executing one or more attacking operations, wherein the computer program is stored in the robot body. Capturing the output from an object sensor having an object sensing area in the vicinity of the object, and one or more of the attacks selected according to the state of the object in the object sensing area based on the captured output of the object sensor And controlling the execution of the operation.
  • any object for example, fingertip, fist, palm, etc.
  • any object for example, fingertip, fist, palm, etc.
  • the object is only in a predetermined state. Since one or more of these attack operations can be selected and executed, there is an advantage that an accessory such as a dedicated operation unit is not required in order to execute one of the attack operations.
  • any object for example, fingertip, fist, palm, etc.
  • any object is intentionally present in the vicinity of the robot body, and only one of those attacking actions can be performed by simply bringing the object into a predetermined state. Since two or more can be selected and executed, it is possible to provide a robot toy that does not require an additional accessory such as a dedicated remote control unit in order to execute one of the attack operations.
  • FIG. 1 is an external perspective view (No. 1) of an example of a robot toy according to the present invention viewed obliquely from the rear.
  • FIG. 2 is an explanatory diagram (part 1) illustrating the relationship between object detection and attack operation.
  • FIG. 3 is an explanatory diagram (part 1) of a battle play using two robot toys.
  • FIG. 4 is an external perspective view (part 2) of an example of the robot toy according to the present invention as viewed obliquely from the rear.
  • FIG. 5 is an explanatory diagram (part 2) of a battle play using two robot toys.
  • FIG. 6 is an explanatory view (2-1) showing the relationship between object detection and attack action.
  • FIG. 7 is an explanatory diagram (part 2-2) showing the relationship between object detection and attack action.
  • FIG. 8 is an external perspective view (No. 3) of an example of the robot toy according to the present invention viewed obliquely from the rear.
  • FIG. 9 is an explanatory diagram (part 3) illustrating the relationship between object detection and attack operation.
  • FIG. 10 is an explanatory diagram (part 3) of a battle play using two robot toys.
  • FIG. 11 is an explanatory diagram showing the relationship between object detection and attack action in another example of the robot toy according to the present invention.
  • FIG. 12 is a circuit diagram (No. 1) showing an electrical hardware configuration in an example of the robot toy according to the present invention.
  • FIG. 13 is a circuit diagram (No. 2) showing an electrical hardware configuration in an example of the robot toy according to the present invention.
  • FIG. 14 is a partial circuit diagram illustrating a configuration of a light receiving unit for detecting an approaching speed of an object.
  • FIG. 15 is a general flowchart schematically showing the entire software configuration of the robot toy.
  • FIG. 16 is a detailed flowchart of the sensing area code setting process.
  • FIG. 17 is a detailed flowchart of the manual operation process.
  • FIG. 18 is a detailed flowchart (left system) of the robot operation according to the state of the detected object.
  • FIG. 19 is a detailed flowchart of the automatic driving process.
  • FIG. 20 is a detailed flowchart of the preset walking process.
  • FIG. 21 is an explanatory diagram of the preset walking operation.
  • FIG. 22 is a detailed flowchart of the programmable walking process.
  • FIG. 23 is a detailed flowchart of search direction processing.
  • FIG. 24 is a flowchart of the forcible return processing to the manual operation mode.
  • FIG. 25 is a detailed flowchart (part 2) of the manual operation process.
  • FIG. 26 is a detailed flowchart (part 3) of the manual operation process.
  • FIG. 27 is a graph showing the directivity characteristics of an infrared light emitting element (LED).
  • LED infrared light emitting element
  • FIG. 1 A schematic external view of the robot toy according to the first embodiment is shown in FIG.
  • this robot toy has a robot body 1 configured as a human-type biped robot.
  • the robot body 1 includes left and right arm members and left and right leg members, details of which will be described later.
  • the right arm member constituting the left and right arm members is formed by sequentially connecting the right shoulder portion 14a, the upper right arm portion 15a, the lower right arm portion 16a, and the right fist portion 17a.
  • the left arm member constituting the left and right arm members is configured by sequentially connecting the left shoulder portion 14b, the left upper arm portion 15b, the left lower arm portion 16b, and the left fist portion 17b.
  • the right leg member constituting the left and right leg members is formed by connecting the right leg portion 18a and the right foot portion 19a, and on the lower surface side of the foot portion 19a, smooth one-way floor movement is possible.
  • a small-diameter wheel 10a is provided to enable this.
  • the left leg member constituting the left and right leg members is formed by connecting the left leg portion 18b and the left foot portion 19b, and a smooth one is provided on the lower surface side of the foot portion 19b.
  • a small-diameter wheel 10b is provided to enable directional floor movement.
  • the robot main body 1 is configured to be able to execute two types of attack operations consisting of an attack operation by a right punch and an attack operation by a left punch at an arbitrary timing.
  • the attacking action by the right punch means that the upper arm portion 15a and the lower arm portion 16a shown in FIG. 1 are bent from the standby state around the rotation axis A1 with the upper arm portion 15a as a fulcrum. This is an operation of projecting the right fist portion 17a forward by extending the bent upper arm portion 15a and lower arm portion 16a while rotating counterclockwise (see FIG. 2).
  • the left leg 18a kicks the floor backward while the right leg is fed out, while the right leg 18a steps forward to move leftward and move forward one step. Is called. Thereafter, the upper arm portion 15a and the lower arm portion 16a are immediately returned to the bent standby state, and the left leg portion 18b is drawn forward to return to the standby state in which the left and right leg portions are aligned. To do.
  • the attacking action by the left punch refers to the state of the rotation axis A1 from the standby state in which the upper arm 15b and the lower arm 16b shown in FIG. 1 are bent, with the upper arm 15b as the fulcrum. This is an operation of projecting the left fist portion 17b forward by extending the bent upper arm portion 15b and lower arm portion 16b while rotating clockwise.
  • the left leg 18b kicks the floor surface backward while the left punch is fed out, while the left leg 18b steps forward to perform a step forward while turning right. Is called. Thereafter, the upper arm portion 15b and the lower arm portion 16b are immediately returned to the bent standby state, and the right leg portion 18a is drawn forward and returned to the standby state in which the left and right leg portions are aligned. To do.
  • the above-described punch feeding operation and the stepping operation linked thereto are operations that are often used in this type of fighting robot toy, and as is well known to those skilled in the art, as disclosed in Japanese Patent No. 5426775. It can be realized by a single motor type upper and lower limb drive mechanism represented by No. Gazette.
  • the body 12 of the robot body 1 supports a single motor with its rotating shaft in a vertical posture, and a pair of left and right presses via a gear train connected to the drive shaft of the motor.
  • the lever rotates clockwise or counterclockwise around the vertical axis, and these levers cause the left and right upper arms 15a.
  • a force is applied to the member associated with the rotation axis A1 of 15b and the member associated with the rotation axis A3 of the left and right legs 18a, 18b, thereby realizing the target punch feeding operation and stepping operation. .
  • the robot body described above executes an object sensor having an object sensing area in the vicinity of the robot body, and executes one or more attack operations selected according to the state of the object in the object sensing area based on the output of the object sensor.
  • a control unit for controlling is provided.
  • a reflective object sensor composed of two infrared light projecting units 2a and 2b and two infrared light receiving units 3a and 3b is employed as the object sensor. That is, as shown in FIG. 1, the light projecting portions 2 a and 2 b and the light receiving portions 3 a and 3 b are arranged in a horizontal row on the surface of the back portion 13 of the robot body 1. That is, the infrared projector 2a is arranged on the right side near the center in the left-right direction, and the infrared projector 2b is arranged on the left side near the center in the left-right direction.
  • the infrared light receiving unit 3a is arranged on the right side near the outside in the left-right direction, and the infrared light receiving unit 73b is arranged on the left side near the outside in the left-right direction.
  • a surface mount type element 25 having a certain degree of directivity is employed as shown in FIG.
  • the infrared light projecting portion 2 b is in a rectangular thin dish upper frame 26 and in the thin dish shaped frame 26, and the left and right fulcrums P ⁇ b> 1 and P ⁇ b> 1.
  • a window frame-shaped frame 27 that is rotatably supported by P2 and is adjustable in angle in the vertical direction, and is rotatably supported by upper and lower fulcrums P3 and P4 in the window frame-shaped frame 27.
  • the element part 25 is adjustable in angle in the horizontal direction. Therefore, the infrared light receiving units 2a and 2b can adjust the angle of the irradiation optical axis in the horizontal and vertical directions, and using this makes it easy to set the sensing small areas 4a and 4b described later. Is considered.
  • the irradiation optical axis of the infrared light projecting unit 2a is directed obliquely leftward, and the irradiation optical axis of the infrared light projecting unit 2b is directed obliquely leftward. Therefore, the infrared light emitted from the infrared projector 2a and the infrared light emitted from the infrared projector 2b are set so as not to interfere at least within the sensing distance. As will be described later, the infrared light emitted from the infrared light projecting units 2a and 2b is modulated at a predetermined carrier frequency and modulated (encoded) with an area code unique to each of the small areas 4a and 4b. Has been.
  • the infrared light receiving unit 3a is directed so as to mainly receive reflected infrared light reflected by some object after being emitted from the infrared light projecting unit 2a, and the infrared light receiving unit 3b is emitted from the infrared light projecting unit 2b. After that, it is directed to mainly receive reflected infrared light reflected by some object.
  • the infrared light receiving portions 3a and 3b it is impossible to completely block the reflected light caused by the unintended infrared light projecting elements 2b and 2a, but decoding is performed on the output side of the light receiving portion. By performing the processing and the code matching determination processing, it is possible to prevent interference interference that misidentifies the object position.
  • the right object sensing small area 4a and the left side of the robot body 1 are relatively close to each other.
  • the object sensing small area 4b can be set.
  • 5a and 5b indicated by hatching schematically show a cross section of the detection limit distance of the right object detection subregion 4a and a cross section of the detection limit distance of the left object detection subregion 4b, respectively. It is.
  • the infrared light projecting units 2a and 2b and the infrared light receiving units 3a and 3b constitute an object sensor having object sensing areas 4a and 4b in the vicinity of the back of the robot body 1. .
  • the electrical hardware configuration of the robot toy according to the first embodiment is shown in the circuit diagram of FIG. As shown in the figure, the entire circuit is incorporated on the robot body 1 side, and includes a power supply circuit unit, a light projecting circuit unit, a light receiving circuit unit, a robot driving unit, and a sound transmission / reception circuit. Unit, various setting operation units, and a central processing unit functioning as a control unit.
  • the power supply processing unit is composed of two batteries 101a and 101b, and is configured such that when the power switch 102 is turned on, the entire circuit can be energized.
  • the light projecting circuit unit includes an infrared light emitting diode 103a included in the infrared light projecting unit 2a, an infrared light emitting diode 103b included in the infrared light projecting unit 2b, an infrared encoding transistor 104a using a right region code, and an infrared using a left region code.
  • An encoding transistor 104b and a carrier generation transistor 105 are included.
  • the light receiving circuit unit includes a light receiving unit IC 106a corresponding to the infrared light receiving unit 3a and a light receiving unit IC 106b corresponding to the infrared light receiving unit 3b.
  • the light receiving parts IC 106a and 106b have a function of demodulating the region code by performing photoelectric conversion of the received infrared reflected light and then performing extraction of carrier frequency components and demodulation processing.
  • the robot drive unit includes a motor 114 for performing a punching operation and a stepping operation of the robot body, and an H-type transistor bridge circuit IC 113 for increasing and decreasing the energization direction and energization current to the motor 114.
  • a current in the first direction flows to the motor 114.
  • the motor 114 rotates in the first direction, and the above-described right punching operation and right leg stepping operation are executed in the robot body.
  • the current value of the motor 114 can be PWM-controlled by outputting a PWM pulse train having a predetermined duty ratio from the port P23.
  • the current value of the motor 114 can be PWM-controlled by outputting a PWM pulse train having a predetermined duty ratio from the port P24.
  • the sound transmission / reception circuit unit amplifies the output of the speaker 112 that emits a sound unique to the robot body, the left microphone 109a and the right microphone 109b that listen to the sound emitted from the enemy robot body, and the output of the left microphone 109a.
  • An A / D converter 110a that performs / D conversion and an A / D converter 110b that amplifies and A / D converts the output of the right microphone 109b.
  • the left microphone 109a and the right microphone 109b those having a certain degree of directivity are employed, so that the left microphone 109a mainly listens to the sound from the left front, and so on.
  • the right microphone 109b is mainly set to listen mainly to the sound from the right front.
  • the various setting operation units include a DIP switch 111 for setting area codes and other information necessary for various processes.
  • the central processing unit is constituted by a one-chip microcomputer (one-chip microcomputer) 108 formed by integrating a microprocessor, a ROM, a RAM, various peripheral circuits (for example, a sound synthesis LSI), etc. into one chip.
  • a microcomputer one-chip microcomputer
  • ROM read-only memory
  • RAM random access memory
  • peripheral circuits for example, a sound synthesis LSI
  • FIGS. 15 to 26 By executing the computer program (FIGS. 15 to 26), various functions required as a robot toy are realized.
  • the two infrared light receiving portions 3a and 3b are used to construct the object sensor having the two object sensing small areas 4a and 4b.
  • each of the sensing small areas 4a and 4b is used.
  • the light receiving portions 3a and 3b can be replaced by a common light receiving portion placed between the two light projecting portions 2a and 2b. .
  • FIG. 5A A general flowchart showing the entire software configuration of the robot toy is shown in FIG.
  • initialization processing step 101
  • the sensing area code setting process is executed.
  • sensing area code setting process The details of the sensing area code setting process are shown in FIG. In this example, it is assumed that four players will participate in the battle game using a maximum of four robot bodies, and interference will not occur even if any two of them are used for battle. In consideration of the setting of the machine number of the DIP switch 111, consideration is given so that the robot codes do not overlap in the area code.
  • the setting of the DIP switch 111 is read (step 201), and after the machine number is read (step 202), the right and left areas optimum for each machine number are read.
  • the code is set. That is, when it is determined that the vehicle is No. 1 (step 203 YES), the left area code is set to “A” and the right area code is “B” (step 204). The area code is set to “C” and the right area code is set to “D” (step 206). When it is determined that the third machine is No. 3 (step 207 YES), the left area code is set to “E” and the right area code is set to “F”. If it is set (step 208) and it is further determined that it is No. 4 (step 209 YES), the left area code is set to “G” and the right area code is set to “H” (step 210).
  • step 101 when the initialization process (step 101) is completed, the routine is shifted to a routine process.
  • the operation mode setting is read from the DIP switch 111 (step 102).
  • the operation mode is determined (step 103).
  • the operation mode is determined to be “manual” (step 103 “manual”), the manual operation process (step 104) is executed.
  • an automatic operation process step 105) is executed. Thereafter, the above operations (steps 102 to 106) are repeated until a predetermined end process (for example, reset of the DIP switch 111) is performed.
  • a series of processes (steps 107 to 109) are repeatedly executed by a timer interrupt every minute fixed time.
  • a pulse train having a carrier frequency is output from the port P13 of the microcomputer 108, and the transistor 105 is switched to generate infrared light emitted from the left and right infrared light emitting diodes 103a and 103b. Modulate with carrier frequency.
  • a pulse train corresponding to the right region code is output from the port P21 of the microcomputer 108, whereby the transistor 104a is switched in synchronization therewith and emitted from the right infrared light emitting diode 104a.
  • the light is modulated (encoded) with the right region code.
  • a pulse train corresponding to the left region code is output from the port P22 of the microcomputer 108, whereby the transistor 104b is switched in synchronization therewith and emitted from the left infrared light emitting diode 104b.
  • the light is modulated (encoded) with the left region code.
  • step 104 details of the manual operation process (step 104) are shown in FIG.
  • the process when the process is started, first, by reading the output of the light receiving unit IC 106b from the port P14 of the microcomputer 108 (step 301), the presence or absence of reflected light is determined (step 302).
  • the read code is decoded (step 303), and only when a match with the preset left region code is confirmed (step 304 YES), A process (step 305) corresponding to the state of the detected object relating to the left system is executed.
  • step 305 The details of the processing (step 305) according to the state of the detected object relating to the left system are shown in FIG.
  • the process when the process is started, it is first determined whether or not the match with the left region code is the first match (step 401).
  • the first match determination is performed at that moment. If it is determined as the first match (YES in step 401), the left punching operation and the left foot stepping operation are executed in a single operation (step 402), and the robot body 1 extends the left punch and turns slightly to the right. Take one step forward.
  • step 403 it is subsequently determined whether the number of consecutive matches exceeds N (step 403).
  • the player performs a body action corresponding to the left punch, and the left fist stays in the left sensing small area 4b for a certain time or more, it is determined that the number of consecutive matches has exceeded N times. Done. If it is determined that the number of consecutive matches exceeds N (step 403 YES), the left and right alternating punching operation and the left and right foot alternating stepping operation are maintained for a certain period of time, a certain number of times, or the left fist is kept in that state. As long as it is done, it is executed repeatedly (step 404).
  • step 403 If it is not the first match (NO in step 401) and it is determined that the number of consecutive matches does not exceed N (NO in step 403), both the one-shot process (step 402) and the iterative process (step 404) are performed. The process ends without being executed.
  • step 306 when it is determined that there is no reflected light based on the left light reception output (NO in step 302), the output of the light receiving unit IC 106a is read from the port P12 of the microcomputer 108 (step 306). The presence or absence is determined (step 307).
  • step 307 YES the read code is decoded (step 308), and only when a match with the preset right region code is confirmed (step 309 YES), Processing according to the state of the detected object related to the right system (step 305) is executed.
  • step 305 The details of the process according to the state of the detected object relating to the right system (step 305) are merely shown in FIG. 18 where the left and the right are interchanged.
  • the first match determination is performed at that moment.
  • the right punching operation and the right foot stepping operation are executed in a single shot, and the robot body 1 advances the right punch and moves forward one step while turning slightly to the left.
  • the player has performed a body action equivalent to a right punch and the right fist stays in the right sensing small area 4a for a certain period of time, it is determined that the number of consecutive matches has exceeded N times. Is called.
  • the player repeats the body action corresponding to the left and right alternating punching operations on the right sensing small area 4a and the left sensing small area 4b, thereby the robot body.
  • Step forward increase the frequency of body action equivalent to right punch, or turn the robot body while turning left, or conversely increase the frequency of body action equivalent to right punch
  • the robot body can be stepped while turning left, so if this is used, the robot body can be stepped along an arbitrary route while observing the movement of the enemy robot body. , You can approach the enemy robot body.
  • the body action corresponding to the right punch or the left punch is executed at an appropriate timing on the right sensing small area 4a and the left sensing small area 4b.
  • step 105 details of the automatic operation process (step 105) are shown in FIG.
  • the walking mode setting is first read from a setting device (not shown) (step 501), and then the walking mode is set to “preset”, “programmable”, or “search”. Which one is determined (step 502).
  • step 502 “preset” when it is determined as “preset” (step 502 “preset”), when the preset walking process (step 503) is determined as “programmable” (step 502 “programmable”), programmable walking is performed.
  • the process (step 504) is determined as “search” (step 502 “search”), a search walking process (step 505) is executed.
  • FIG. 21A in the walking pattern storage unit provided in the ROM of the one-chip microcomputer 108, a step number and step data are paired in advance in a plurality of patterns. It is remembered. The stored contents of each pattern correspond to the straight progress pattern, the figure 8 walking pattern, and the rectangular walking pattern shown in FIG. That is, if the step data is sequentially read out while updating the step number and the specified stepping operation is performed, the robot body can execute straight advancement, figure-walking, and rectangular walking alone. Has been made.
  • step 602 “8” stepping control is performed so as to walk while drawing an 8 character.
  • step 603 If it is determined to be “straight forward” (step 602 “straight forward”), walking control is performed so as to go straight ahead (step 605), and if it is determined to be “rectangular” (step 602). “Rectangle”), stepping control is performed so as to step in a rectangle (step 604).
  • the robot body can be automatically walked in a prescribed walking pattern.
  • step 504 details of the programmable step control (step 504) are shown in FIG.
  • the operation mode setting is read from a setting device (not shown) (step 701), and then it is determined whether the operation mode is “teach” or “reproduction” (step 701). Step 702).
  • step 702 If it is determined that the operation mode is “teach” (step 702 “teach”), then the step counter n value is updated by “+1” from “1”, and step data (“ The process of storing “right step” or “left step” in association with the step counter value (step 705) is repeated. In the figure, the contents of the process (step 704) during manual operation are as described above with reference to FIGS.
  • steps 704 to 707 the walking pattern data similar to the contents of FIG. 21A is stored in the walking pattern storage unit of the writable memory of the one-chip microcomputer 108.
  • any walking pattern can be taught.
  • step 709 the contents of the preset walking process (step 709) are as described above with reference to FIGS.
  • step control is performed so as to walk with the taught walking pattern.
  • the robot body can be automatically walked in an arbitrarily programmed walking pattern.
  • step 505 details of the search walking process (step 505) are shown in FIG.
  • a process of reading data corresponding to the reception volume of the left microphone 109b from the ports P61 to P64 of the one-chip microcomputer 108 (step 801), and a port of the microcomputer 108
  • a process of reading data corresponding to the reception volume of the right microphone 109a from P51 to P54 is executed (step 802).
  • step 803 the two read sound volumes are compared (step 803).
  • step 801 to 805 the robot body gradually turns closer to the enemy robot body while turning its direction independently, relying on the sound emitted from the enemy robot body. Will go.
  • the robot body is automatically relied on by the sound emitted by the enemy robot body without selecting a prepared walking pattern or programming a specific walking pattern.
  • the enemy robot can be approached while searching for it.
  • the automatic driving mode performed in the preset walking mode (step 503), the programmable walking mode (step 504), or the search walking mode (step 505) is intended to approach the enemy robot, When encountering an enemy robot, you must immediately switch these modes to the manual operation mode and take action.
  • step 901 when processing is started by detecting a punch operation, after walking mode is read (step 901), whether it is during preset walking (step 902) or programmable walking (step 903) Whether or not the search walking is being performed (step 904) is determined.
  • step 905 if it is determined that one of the above three walks is being performed (step 902 YES, 903 YES, or 904 YES), a forced return to the manual operation mode is immediately performed (step 905).
  • the forced return process (step 905) allows the player to smoothly switch from the automatic operation mode to the manual operation mode, and the player can immediately shift to the fighting action.
  • the robot body 1 has an attack action by the right punch mechanism (14a to 17a) starting from the right side and a left punch starting from the left side. It has two attack operations consisting of an attack operation by the mechanism (14b to 17b).
  • a right object detection small area 4a is provided at the right rear of the back portion 13.
  • a left object sensing small region 4b is provided at the left rear of the back portion 13 in order to start an attacking action by the left punch mechanism (14b to 17b) starting from the left side.
  • the player performs a body action corresponding to, for example, a right punch operation, and projects the right fist 7a toward the right object detection subregion 4a as indicated by an arrow A4.
  • the object sensing action of the infrared light reflection type object sensors (2a, 2b, 3a, 3b) and the one-chip microcomputer 108 are Through the action of the main control unit (see FIGS. 12 and 15 to 18), the attack operation by the right punch of the robot body 1 is activated, and the right fist 17a of the robot body 1 is also indicated by an arrow A5. So that it sticks out forward.
  • the left fist 7b enters the detection limit distance Lmax.
  • the attack operation by the left punch of the robot body 1 is activated, and the left fist 17b of the robot body 1 is also protruded forward.
  • the punching operation on the robot main body side is switched between single hit and continuous hit according to the fist protrusion mode (object detection state) to each object detection small area Aa, 4b. (See FIG. 18), the attacking action in this type of robot toy can be made more diverse.
  • the robot toy by setting to the automatic operation mode (step 103), the pre-reset walking mode (step 503), the programmable walking mode (step 504), and the search walking mode (step 505). ), It is possible to realize various walking patterns, so this kind of battle play is more useful for the player not only in the battle motion but also in the walk motion before the battle motion. Can be interesting.
  • the gist of the present invention is that the activation is performed without using a remote control unit on the premise of the presence of one or two or more attack operations, and the attack operation itself is known, Whether it is new or not is not a problem.
  • a so-called boxing-like attack operation was given for a humanoid robot.
  • other attack operations are mainly performed by a hand such as a sumo thrusting operation or a tentacle operation.
  • an attack operation mainly using a foot such as a butt kick operation and a rotation kick operation, can be given.
  • FIG. 1 A schematic external view of a robot toy according to a first modification of the first embodiment is shown in FIG.
  • the feature of this robot toy is that two infrared light projecting parts 2c, 2d and two infrared light receiving parts 3c, 3d are arranged in a vertical line on the right side surface of the back part 13,
  • the robot body 1 can be operated by a body action from the right side surface.
  • the infrared light emitted from the upper infrared light emitting unit 2c is radiated to the right side of the robot body 1 so as to form the right sensing small region 4c at an appropriate height.
  • a circular portion 5c shown by hatching schematically shows a cross section of the right sensing small region 4c at the sensing limit distance.
  • Infrared light emitted from the lower infrared light emitting unit 2d is radiated to the right side of the robot body 1 so as to form the left sensing small region 4d at the same height.
  • a circular portion 5d indicated by hatching schematically shows a cross section of the left detection small region 4d at the detection limit distance.
  • the right sensing small area 4c located on the right side is for activating an attack action by the right punch mechanism (14a to 17a) starting from the right side
  • the left sensing small area 4d located on the left side is This is for starting an attack operation by the left punch mechanism (14b to 17b) starting from the left side.
  • the player of the robot main body 1 is located on the right side of the robot main body 1 and performs a body action corresponding to the left and right punching operations, and protrudes the right fist 6a toward the right sensing small area 4c or left
  • the right punch mechanism (14a to 17a) starting from the right side is activated, or the left sensing small area 4d is left starting from the left side.
  • An attack operation by the punch mechanism (14b to 17b) can be activated.
  • the robot main bodies 1 and 1 can be made to fight with each other through the same operation as described above. Specifically, in the illustrated example, the right player 6 protrudes the right fist 6a into the right sensing subregion 4c ′ as indicated by the arrow A8, so that the right player 6 In the robot body 1, an attack operation by right punch is performed, and the right fist 17 a protrudes forward as indicated by an arrow A ⁇ b> 9.
  • the arrangement of the infrared light projecting part and the infrared light receiving part is provided in advance on both side surfaces of the back part 13 so that either one of them can be switched or used, or the light projecting part and the light receiving part are paired.
  • FIG. 8 shows a schematic external view of a robot toy according to a second modification of the first embodiment.
  • the feature of this robot toy is that two infrared light projecting parts 2c, 2d and two infrared light receiving parts 3c, 3d are arranged in a row on the back of the back part 13 and the robot body
  • the robot body By causing the right hand 17a of 1A to hold the sword 17c, the robot body can perform an attacking action by swinging down the sword 17c by a body action corresponding to, for example, swinging down with a finger sword behind the robot body 1A. Is.
  • the infrared light emitted from the upper infrared light emitting unit 4a is radiated to the rear of the robot body 1 so as to form the upper sensing small region 4a at an appropriate height.
  • a circular portion 5a indicated by hatching schematically shows a cross section of the upper sensing small region 4a at the sensing limit distance.
  • Infrared light emitted from the lower infrared light emitting section 2b is radiated to the rear of the robot body 1 so as to form the lower sensing small area 4b at an appropriate height.
  • a circular portion 5b indicated by hatching schematically shows a cross section of the lower sensing small region 4b at the sensing limit distance.
  • the upper sensing small area 4a located on the upper side is for activating a sword swinging attack starting from the upper side
  • the lower sensing small area 4b is located on the lower side. Or is used to activate an attacking action by the left punch mechanism (14b to 17b) starting from the left side.
  • weapons are not limited to swords but can be applied to spears and other arbitrary weapons, and if a shield is used as armor, this kind of battle play can be made more interesting. Needless to say.
  • two light receiving units IC 122a and 122b are further provided.
  • the newly provided right light receiving part IC122a is preferably arranged adjacent to the existing right light receiving part IC106a, and the distance from the existing right light receiving part IC106a to the assumed detection object is the right side of the new right light receiving part IC106a. It is set to be equal to the distance from the light receiving unit IC 122a to the assumed detection object.
  • the existing light receiving unit IC 106a and the newly installed light receiving unit IC 122a have the same performance.
  • an optical filter hereinafter referred to as “infrared light reducing filter” 123a for reducing the transmission of infrared light is interposed on the front side of the newly installed light receiving unit IC 122a.
  • the newly provided right light receiving unit IC122b is preferably disposed adjacent to the existing left light receiving unit IC106b, and the distance from the existing left light receiving unit IC106b to the assumed detection object is: It is set to be equal to the distance from the newly installed left light receiving unit IC122b to the assumed detection object.
  • the existing light receiving unit IC 106b and the new light receiving unit IC 122b have the same performance.
  • an optical filter hereinafter referred to as “infrared light reducing filter” 123b for reducing the transmission of infrared light is interposed on the front side of the new light receiving unit IC 122b.
  • step 1001 the left high sensitivity light receiving output which is the output of the left high sensitivity light receiving unit IC 106b is read (step 1001), and then the presence or absence of reflected light is determined (step 1002) is performed.
  • step 1003 the presence or absence of reflected light
  • step 1004 storage processing (step 1005) at time t1 is performed.
  • step 1007 After waiting for the presence of reflected light to be confirmed (step 1007 YES), after decoding the read code (step 1008), only when the decoded code matches the preset left area code (step 1009 YES) ) And the storage process (step 1005) at time t2.
  • a time difference ⁇ t between time t1 and time t2 is obtained (step 1011), and the time difference ⁇ t is compared with a reference value ⁇ Tref (step 1012).
  • ⁇ Tref a reference value
  • it is determined that the time difference ⁇ t is larger than the reference value ⁇ tref (NO in step 1012) it is estimated that the approach speed of the object toward the left sensing small region 4b is relatively slow, and the robot with normal power
  • the time difference ⁇ t is smaller than the reference value ⁇ tref (step 1012 YES) while the operation process (step 1014) is performed, the approaching speed of the object coming to the left sensing small area 4b is relatively high.
  • the robot operation process (step 1013) with high power is performed.
  • the robot operation process is performed by fixing the output logic value of any one of the ports P23 and P24 of the one-chip microcomputer 108 to the first logic value, thereby causing the motor 114 to operate.
  • the duty ratio of the PWM pulse train output to the other port is set to a predetermined value, so that the value of the current flowing to the motor 114 is It is a process to set.
  • step 1014 PWM processing is performed with a predetermined low duty ratio for normal power, whereas with robot operation processing with high power (step 1014), PWM processing is performed with a predetermined high duty ratio for high power.
  • step 1002 if it is determined that there is no reflected light (NO in step 1002), then the process shifts from the left system process to the right system process, and the same process (steps 1001 to 1014) is executed. .
  • the storage process at time t1 is performed only when the decoded code matches the preset left region code. . Thereafter, while repeating reading of the low-sensitivity light receiving output, which is the output of the right-side low-sensitivity light receiving unit IC123a, waiting for the presence of reflected light to be confirmed, the read code is decoded, and the decoded code is preset. Only when it matches the right area code, the storage process at time t2 is executed.
  • the time difference ⁇ t between the time t1 and the time t2 is obtained, and if it is determined that the time difference ⁇ t is larger than the reference value ⁇ tref, the approach speed of the object coming to the right sensing small region 4a is relatively slow. Assuming that the robot motion process is performed with the normal power, when it is determined that the time difference ⁇ t is smaller than the reference value ⁇ tref, the approach speed of the object coming to the right sensing small area 4a is compared. Therefore, the robot operation process is performed with high power.
  • the right-hand robot operation processing means that the current flowing through the motor 114 is fixed by fixing the output logical value of one of the ports P23 and P24 of the one-chip microcomputer 108 to the first logical value.
  • a predetermined low duty ratio for normal power is set, whereas in the robot operation process using high power (step 1014), a predetermined value is set in advance. The higher duty ratio for the high power is set.
  • the player performs a body action corresponding to the left and right punching operation, for example, the right fist 7a is moved to the right object.
  • the strength of the right punch fed out from the robot body 1 changes according to the speed of the projecting speed, so the response relationship between the player's body action and the attacking action of the robot body is more It becomes even more sensitive and can make this kind of play more exciting.
  • the reference value ⁇ tref to be compared with the time difference ⁇ t is assumed to be one, but a plurality of values such as ⁇ tref1, ⁇ tref2, ⁇ tref3,...
  • the number of small object sensing subregions is two, but it is needless to say that the number may be one or three or more. In this example, four object sensing subregions are provided, which are assigned one to one for activation of separate attack actions.
  • the robot body 7 appearing in the robot toy according to the second embodiment includes an attack operation by the right upper cut punch at the lower right starting point and an attack operation by the left upper cut punch at the lower left starting point shown in FIG.
  • the four attack operations shown in FIG. 7, that is, the attack operation by the right hook punch starting from the upper right and the attack operation by the left hook punch starting from the upper left are configured to be executable.
  • 71 is the head
  • 72 is the torso
  • 73 is the back
  • 74a is the right shoulder
  • 74b is the left shoulder
  • 75a is the upper right arm
  • 75b is the upper left arm
  • 76a is the lower right arm
  • 76b is the left lower arm part
  • 77a is the right fist part
  • 77b is the left fist part
  • the configuration of the left and right leg parts is omitted from the relationship of the space.
  • the basic punch feeding mechanism and walking mechanism of the robot body 7 are almost the same as those of the first embodiment, but in this example, the type of punch is switched between the upper cut punch and the hook punch.
  • Has a tilt mechanism (not shown) so that the axis A1 of the rotation shaft positioned at the base of the right and left upper arm portions 75a and 75b can be switched between a tilt posture for hook punch and a horizontal posture for upper cut punch.
  • This tilting mechanism is driven by a dedicated actuator 112 (see FIG. 13) such as a ball screw thrust motor or a solenoid plunger.
  • the infrared light receiving unit 31 positioned at the upper center of the center is for receiving the infrared rays that are emitted from the two infrared light projecting units 21a and 21b positioned at the left and right of the upper level and then reflected by some object.
  • the infrared light receiving unit 32 located at is for receiving infrared rays reflected by some object after being emitted from the two infrared posting units 22a and 22b located on the left and right sides of the lower stage.
  • the light projecting optical axis of the infrared light projecting unit 21a located on the upper right side of the rear surface projects infrared rays toward the upper left obliquely upward, and thereby the small sensing area 41a is located at the upper right position when viewed from the player. Is formed.
  • 51a indicated by hatching is an ellipse schematically showing a cross section of the detection limit distance.
  • the light projecting optical axis of the infrared light projecting unit 21b located on the upper left side of the rear surface projects infrared light obliquely upward and to the upper right, so that the sensing small area 41b is located in the upper left position when viewed from the player. Is formed.
  • 51b indicated by hatching is an ellipse schematically showing a detection limit distance section.
  • the light projecting optical axis of the infrared light projecting unit 22a located at the lower right side of the back surface projects infrared rays toward the front lower left, and thus, the sensing small area is located at the lower right position when viewed from the player. 42a is formed.
  • 52a shown by hatching is an ellipse schematically showing a detection limit distance section.
  • the light projecting optical axis of the infrared light projecting unit 22b located on the lower left side of the back surface projects infrared light toward the front diagonally lower right, and as a result, the small sensing area 42b is located at the lower left position when viewed from the player. Is formed.
  • 52b indicated by hatching is an ellipse schematically showing a detection limit distance section.
  • FIG. 13 A circuit diagram corresponding to the electrical hardware configuration of the robot toy according to the second embodiment is shown in FIG.
  • the difference from the circuit diagram of the first embodiment shown in FIG. 12 is that it includes an actuator 121 for driving the tilting mechanism, and the infrared light emitting diode constituting the light projecting circuit unit.
  • the actuator 121 is composed of a ball screw thrust motor, a solenoid plunger, or the like, and the axis A1 of the rotating shaft located at the base of the right and left upper arm portions 75a and 75b is inclined to the hook punch (in the drawing).
  • a tilt mechanism for switching between a horizontal posture (indicated by A1 ′) and an upper cut punch horizontal posture (indicated by A1 in the drawing) is switched and driven.
  • the actuator 121f is activated by a signal output from the ports P31 and P32 of the one-chip microcomputer 108.
  • the light projecting circuit unit includes an infrared light emitting diode 115a included in the infrared light projecting unit 21a, an infrared light emitting diode 115b included in the infrared light projecting unit 21b, an infrared light emitting diode 116a included in the infrared light projecting unit 22a, and an infrared light projecting unit.
  • the light receiving circuit unit includes a light receiving unit IC 119 corresponding to the infrared light receiving unit 31 and a light receiving unit IC 120 corresponding to the infrared light receiving unit 32.
  • the light receiving units IC 119 and 120 have a function of demodulating the region code by performing photoelectric conversion of the received infrared reflected light and then performing extraction of carrier frequency components and demodulation processing.
  • the two infrared light receiving portions 31 and 32 are used to construct the object sensor having the four object sensing small areas 41a, 41b, 42a, and 42b. , 41b, 42a, and 42b, if there is no possibility of interference of light projection, the light receiving portions 31 and 32 are placed between the four light projection portions 21a, 21b, 22a, and 22b. A common light receiving unit can be substituted.
  • FIG. 1 A flowchart corresponding to the electrical software configuration of the robot toy according to the second embodiment is shown in FIG.
  • the upper light receiving output is read from the light receiving unit IC 119 constituting the infrared light receiving unit 31 located at the upper center of the back surface of the robot body 7 (step 1101).
  • the presence / absence of reflected light is determined (step 1102). If it is determined that reflected light is present (YES in step 1102), then a series of upper system processing (steps 1103 to 1107) is executed.
  • step 1103 it is determined whether the decoded code is an area code assigned to the upper left area 41b or an area code assigned to the upper right area 41a (step 1104, 1106). If it is determined that the upper left area code coincides (YES in step 1104), the robot operation (step 1105) corresponding to the state of the detected object in the upper left system is immediately executed, whereas the upper right area code. If it is determined that the person matches (step 1106 YES), the robot operation (step 1107) corresponding to the state of the detected object in the upper right system is immediately executed.
  • the actuator 121 is operated via the ports P31 and P32 of the microcomputer 108, and a tilt mechanism (not shown) incorporated in the trunk portion 72 of the roborot body 7 is used.
  • a tilt mechanism (not shown) incorporated in the trunk portion 72 of the roborot body 7 is used.
  • the rotation axis A1 at the base of the left upper arm 75b is tilted from A1 (horizontal posture) to A1 ′ (tilted posture) as shown in FIG.
  • one of the ports P23 and P24 of the microcomputer 108 (for example, the port P23) is fixed to the first logical value, and a PWM pulse train having a predetermined duty ratio is output to the other port, whereby the robot body 7 is rotated at a predetermined current value in the first rotation direction to rotate the left upper arm portion 75b, thereby realizing an attack operation by the left hook punch.
  • the actuator 121 is operated via the ports P31 and P32 of the microcomputer 108, and a tilt mechanism (not shown) incorporated in the body 72 of the robot body 7 is used.
  • a tilt mechanism (not shown) incorporated in the body 72 of the robot body 7 is used.
  • the rotation axis A1 at the base of the left upper arm 75b is tilted from A1 (horizontal posture) to A1 ′ (tilted posture) as shown in FIG.
  • either one of the ports P23 and P24 of the microcomputer 108 (for example, P24) is fixed to the first logical value, and a PWM pulse train having a predetermined duty ratio is output to the other port, whereby the robot body 7
  • the attacking action by the right hook punch is realized by rotating the motor 114 built in the motor in the second rotation direction at a predetermined current value and rotating the upper right arm 75a.
  • step 1102 if it is determined that there is no reflected light in the output of the upper light receiving unit IC119 (NO in step 1102), the output of the lower light receiving unit IC120 is read (step 1108), and there is reflected light. Only when the determination is made (YES in step 1109), a series of lower system processing (steps 1108 to 1114) is executed.
  • step 1110 it is determined whether the decoded code is an area code assigned to the lower left area 42b or an area code assigned to the lower right area 42a (step 1111). 1113). If it is determined that the code matches the lower left area code (YES in step 1111), the robot operation (step 1112) corresponding to the state of the lower left detection object is immediately executed, whereas the lower right area If it is determined that it matches the code (YES in step 1113), the robot operation (step 1114) corresponding to the state of the lower right detection object is immediately executed.
  • the actuator 121 is deactivated via the ports P31 and P32 of the microcomputer 108, whereby the tilting (not shown) incorporated in the body 72 of the robot body 7 is performed.
  • the rotation axis A1 of the base of the left upper arm 75b is maintained at A1 (horizontal posture) as shown in FIG.
  • one of the ports P23 and P24 of the microcomputer 108 (for example, the port P23) is fixed to the first logical value, and a PWM pulse train having a predetermined duty ratio is output to the other port, whereby the robot body 7 is rotated by a predetermined current value in the first rotation direction to rotate the left upper arm portion 75b, thereby realizing an attacking action by the left upper cut punch.
  • the actuator 121 is deactivated via the ports P31 and P32 of the microcomputer 108, and a tilt mechanism (not shown) incorporated in the body 72 of the roborot body 7 is used. Is deactivated, the rotation axis A1 at the base of the upper right arm 75b is maintained at A1 (horizontal posture) as shown in FIG.
  • either one of the ports P23 and P24 of the microcomputer 108 (for example, P24) is fixed to the first logical value, and a PWM pulse train having a predetermined duty ratio is output to the other port, whereby the robot body 7 By rotating the motor 114 built in the motor in the second rotation direction with a predetermined current value and rotating the upper right arm 75a, an attacking action by the right upper cut punch is realized.
  • the robot toy according to the second embodiment includes an attack operation by a right upper cut punch with a lower right starting point shown in FIG. 6, an attack operation by a left upper cut punch with a lower left starting point, and an upper right start point shown in FIG.
  • the attack operation by the right hook punch and the attack operation by the left hook punch at the upper left starting point can be executed.
  • an upper right object detection small area 41 a assigned to start the attack operation by the hook punch at the upper right starting point, and the attack operation by the hook punch at the upper left starting point.
  • Four object detection subregions including the object detection subregion 42b are arranged.
  • the spatial layout of the starting points of the four attack actions and the space of the four object sensing subregions for activating it This means that the player can naturally understand the relationship between each attack action and the small object sensing area to activate it, and the operability is better. Become.
  • the robot toy form applicable to the present invention is not limited to a human type robot, but also to beast type robots such as lions, tigers and buffalos, or dinosaur type robots such as tyrannosaurus and triceratops.
  • the present invention is applicable.
  • Examples of one or more attack actions that can be performed by a beast robot include attack actions using left and right forefoot claws, attack actions using horns, or attack actions using fangs.
  • Examples of one or more attack operations that can be executed by the dinosaur robot include an attack operation using the left and right forefoot claws, and an attack operation using a fang or horn with the neck extended.
  • FIG. 8 An example applied to a fictional monster dragon is shown in FIG.
  • 81 is a tail part
  • 82 is a leg part
  • 83 is a front leg having claws
  • 84 is a head part having an openable / closable mouth
  • 85 is a mouth part facing a fang
  • 86 is an openable / closable wing.
  • An object sensor composed of one infrared light projecting unit 2 and one infrared light receiving unit 3 is incorporated in the base of the tail, so that a single object is located near the rear of the dragon-type robot body 8.
  • a sensing area 4 is formed.
  • the control unit causes the dragon-type robot body 8 to have a neck as shown by an arrow A15.
  • the head 84 protrudes forward, the mouth 85 opens and the fangs face as shown by the arrow A16, and the wing 86 opens as shown by the arrow 17 and still jumps. Such a form appears.
  • the present invention can be applied to various types of robot toys capable of executing one or two or more attack operations.
  • any object for example, fingertip, fist, palm, etc.
  • one or two of these attacking actions can be performed. Since the above can be selected and executed, it is possible to provide a robot toy that does not require an additional accessory such as a dedicated operation unit in order to execute one of the attacking operations.
  • Humanoid biped robot body 1A Humanoid biped robot body capable of sword down motion 2a Infrared light projecting unit 2b Infrared light projecting unit 3a Infrared light receiving unit 3b Infrared light receiving unit 4a Right sensing small area 4b Left sensitive small area 5a Sensing limit cross section of right sensitive small area 6 Player 6a Player's right fist 6b Player's left fist 6c Player's right finger sword 7 Human type capable of performing left and right hook actions and upper actions Robot body 7a Right fist of player 7b Left fist of player 8 Dragon type robot main body 9a Infrared irradiation light 9b Infrared reflected light 10a Wheel 11 Head 12 Body 13 Back 14a Right shoulder 14b Left shoulder 15a Upper right arm 15b Left upper arm part 16a Right lower arm part 17a Right fist part 17a 'Right hand holding a sword 17b Left fist part 18a Right leg part 18b Left leg part 19a Foot 19b Left foot 21a Inf

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Toys (AREA)

Abstract

【課題】1又は2以上の攻撃動作を実行可能であって、しかもそれらの攻撃動作の1つを実行させるために、別途専用の遠隔操作部等の付属品を必要としないロボット玩具を提供すること。 【解決手段】1又は2以上の攻撃動作を実行可能なロボット本体(1)を有するロボット玩具であって、ロボット本体(1)の近辺に物体感知領域(4a,4b)を有する物体センサ(2a,2b,3a,3b)と、前記物体センサの出力に基づいて、前記物体感知領域(4a)における物体(7a)の状態により選択される1又は2以上の前記攻撃動作の実行を制御する制御部(108)とを包含する。

Description

ロボット玩具
 この発明は、ロボット玩具に係り、特に、ロボット同士を戦わせて遊ぶ対戦遊びなどに用いられる攻撃動作を実行可能なロボット玩具に関する。
 ロボット同士を戦わせて遊ぶ対戦遊びなどに用いられる攻撃動作(例えば、パンチ動作など)を実行可能なロボット玩具としては、従来より、様々な形態のものが知られている。これらのロボット玩具は、静止型のものと移動型のものとに大別される。
 静止型のロボット玩具は、主として遊技場などに設置されるものであって、左右のパンチ動作が実行可能な二体の上半身ヒト型ロボットを互いのパンチ攻撃が届く距離に対向配置し、それぞれの背後に配置された操作盤上の操作ボタンを遊技者が指先で押圧操作することで任意のタイミングにおける左右のパンチ繰り出し動作を実行させると言ったものである。
 移動型のロボット玩具は、主として家庭用に供されるものであって、左右のパンチ動作に加えて、歩行乃至走行動作が可能とされ、有線又は無線で接続された遠隔操作部から受信される動作指令に応答して、歩行乃至走行動作を実行することで、対戦相手となる他のロボット本体に接近させ、その状態にて、操作部から受信される動作指令に応答して、任意のタイミングにおける左右のパンチ繰り出し動作を実行させると言ったものである。
 有線又は無線によりロボット本体に接続される遠隔操作部としては、左右のパンチ動作の実行指令を生成するための操作ボタンを備えたボタン操作タイプのものと、左右のパンチ動作に相当する腕の動きを内蔵する感知器(例えば、加速度センサ)を介して検出して対応する動作指令を生成する感知器内蔵タイプのものとが知られている。
 ボタン操作タイプの遠隔操作部は、指先の僅かな動き(ボタン操作)により、意図するパンチ動作を実現できる利点を有する反面、ロボット本体にパンチ動作を行わせようとするボディーアクションと操作部における操作ボタンを押圧しようとするボディーアクションとの間には、意志伝達系において幾分の乖離が存在することから、遊技者の意志をロボット本体の動作にスムーズに伝達することができず、対戦遊びの盛り上がりに欠けると言う問題がある。
 これに対して、感知器内蔵タイプの遠隔操作部は、ロボット本体にパンチ動作を行わせようとするボディーアクションが、そのまま、動作指令を生成するためのボディーアクションに繋がることから、遊技者の意志をロボット本体の動作にスムーズに伝達することができ、対戦遊びを大きく盛り上げることができる利点がある。そのため、本出願人会社は、先に、そのような感知器内蔵タイプの遠隔操作部を有するロボット玩具を提案すると共に(特許文献1参照)、当該提案にかかるロボット玩具製品(商品名:バトロボーグ)を市場に提供して好評を得ている(非特許文献1)。
特許第5426775号公報
http://www.takaratomy.co.jp/products/battroborg/play.html
 特許文献1及び非特許文献1に記載のロボット玩具は、感知器内蔵タイプの遠隔操作部を有する。この遠隔操作部は、それぞれ棒状をなす2本の操作部筐体を適当な長さの電気コードで結んでなる、略ヌンチャク状の形態を有する。
 遊技者は、それら2本の操作部筐体の一方を右手にまた他方を左手に把持して、左右のパンチに相当するボディーアクションを行う。すると、各操作部筐体に内蔵された感知器がこれを感知すると共に、この感知出力に応じて制御部の作用により対応する動作指令が生成され、こうして生成された動作指令は、2本の操作部筐体のいずれかに内蔵された送受信部を介して、ロボット本体側へと無線により送出される。ロボット本体の側では、遠隔操作部側から無線送出される動作指令を送受信部を介して受信すると共に、この受信された動作指令の内容に応じて、左右いずれかのパンチ動作並びに歩行動作を実現する。
 このようなロボット玩具によれば、2本の操作部筐体の一方を右手にまた他方を左手に把持して、左右のパンチに相当するボディーアクションを行うだけで、ロボット本体側における左右いずれかのパンチ動作並びに歩行動作を実現することができるから、遊技者からロボット本体への意志伝達がスムーズとなり、ロボット同士を戦わせて遊ぶ対戦遊びを熱狂させ、興奮を呼び起こすことができる。
 しかし、左右のパンチに相当するボディーアクションを行うだけで、ロボット本体側における左右いずれかのパンチ動作並びに歩行動作を実現することができるとはいえ、そのためには、左右の手にそれぞれ遠隔操作部を構成する棒状操作部筐体を把持するこが不可欠であるから、上述のロボット玩具にあっても、ロボット本体の価格に加えて、付属品である遠隔操作部の価格が上乗せされることとなり、その分だけ、この種のロボット玩具全体の価格を押し上げる結果となる。
 加えて、この種のロボット玩具の対象遊技者には、幼児や低学年児童も含まれることを考慮すると、付属品である遠隔操作部を紛失する可能性も無視しがたく、ひとたび、そのような紛失が発生すれば、最早、付属品を購入し直さない限り、対戦遊びの遂行は不可能となる。
 この発明は、上述の技術的背景に鑑みなされたものであり、その目的とするところは、1又は2以上の攻撃動作を実行可能であって、しかもそれらの攻撃動作の1つを実行させるために、別途専用の遠隔操作部等の付属品を必要としないロボット玩具を提供することにある。
 この発明のさらに他の目的並びに作用効果については、明細書の以下の既述を参照することにより、当業者であれば容易に理解されるであろう。
 <本発明に係るロボット玩具>
  本発明に係るロボット玩具は、1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具であって、前記ロボット本体の近辺に物体感知領域を有する物体センサと、前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御する制御部とを包含する、ものである。
 このような構成によれば、前記ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の遠隔操作部等の付属品を必要としないロボット玩具を提供することができる。
 <第1の実施態様>
  本発明の第1の実施態様においては、前記物体の状態により選択される1又は2以上の前記攻撃動作の実行は、前記物体の状態により決定される実行態様にて行われる、ものであってもよい。
 このような構成によれば、感知領域への物体の存在させ方を制御するだけで、実行されるべき攻撃動作の選択のみならず、その実行態様までをも選択することができる。
 一例としては、前記物体の状態が、前記物体感知領域に何らかの物体が出現したときには、前記攻撃動作の実行態様は、前記攻撃動作を単発的に実行すべきものとして決定される、ものであってもよい。
 このような構成によれば、例えば、遊技者がパンチ動作に相当するボディーアクションを行って、その拳が前記物体感知領域に侵入しさえすれば、その侵入のタイミングで、ロボット本体の側において、選択された攻撃動作(例えば、パンチ動作)を単発的に実行させることができる。
 他の一例としては、前記物体の状態が、前記物体感知領域に何らかの物体が所定時間以上に滞在しているときには、前記攻撃動作の実行態様は、前記攻撃動作を所定の複数回、一定時間、又はその滞在中に亘り、サイクリックに実行すべきものとして決定される、ものであってもよい。
 このような構成によれば、例えば、遊技者がパンチ動作に相当するボディーアクションを行って、その拳が前記物体感知領域に侵入しかつその侵入状態を保持しさえすれば、ロボット本体の側において、選択された攻撃動作(例えば、パンチ動作)を、所定の複数回、一定時間、又はその滞在中に亘り、サイクリックに実行(例えば、連打)させることができる。
 さらに他の一例としては、前記物体の状態が、前記物体感知領域に何らかの物体が所定速度以上で接近しているときには、前記攻撃動作の実行態様は、前記攻撃動作を通常よりも強力なパワーで実行すべきものとして決定される、ものであってもよい。
 このような構成によれば、例えば、遊技者がパンチ動作に相当するボディーアクションを行って、その拳が前記物体感知領域に高速に侵入しさえすれば、ロボット本体の側において、選択された攻撃動作(例えば、パンチ動作)を、通常よりも強力なパワーで実行させることができる。
 <第2の実施態様>
  本発明の第2の実施態様においては、前記物体感知領域は、前記ロボット本体の周面のうちで、想定される遊技者と相対する面の近辺に設定される、ものであってもよい。
 このような構成によれば、遊技者は、その前方に向けて、例えば、パンチ動作に相当するボディーアクションを行うことにより、ロボット本体の側において、選択された攻撃動作(例えば、パンチ動作)を実行させることができる。
 一例としては、前記想定される遊技者と相対する前記面が、前記ロボット本体の背面であってもよい。
 このような構成によれば、遊技者は、敵方のロボット本体を正面から視認しつつ、攻撃動作に相当するボディーアクションを繰り出すことで、自己のロボット本体において、選択された攻撃動作を実行させることができる。
 他の一例としては、前記想定される遊技者と相対する前記面が、前記ロボット本体の左側、及び/又は、右側の側面であってもよい。
 このような構成によれば、2台のロボット本体を相対峙させた状態において、それぞれの側面から、二人の遊技者による攻撃動作に相当するボディーアクションを行うことで、それぞれのロボット本体において、選択された攻撃動作(例えば、パンチ動作)を実行させることができる。
 <第3の実施態様>
  本発明の第3の実施態様においては、前記物体感知領域は、前記ロボット本体の想定される遊技者と相対する面に沿って分布される複数の小領域からなり、それら複数の小領域のそれぞれは、前記攻撃動作の1又は2以上と予め関連付けがなされており、かつ前記制御部は、前記複数の小領域のそれぞれ毎に、その小領域に関連づけられた1又は2以上の前記攻撃動作の実行を制御する、ものであってもよい。
 このような構成によれば、遊技者は、物体感知領域を構成する複数の小領域のうちで、目的とする1又は2以上の攻撃動作に関連づけられた小領域に対して、攻撃動作(例えば、パンチ動作)に相当するボディーアクションを行うことで、ロボット本体において、選択された攻撃動作(例えば、パンチ動作)を実行させることができる。
 このとき、前記複数の小領域のそれぞれを前記ロボット本体と対面する側から観察したときの空間的レイアウトは、前記複数の攻撃動作の起点のそれぞれの空間的レイアウトと整合する、ものであってもよい。
 このような構成によれば、人間工学的な観点より、複数の小領域のそれぞれと、対応する攻撃動作との関係を直感的に把握しやすくなり、目的とする攻撃動作に対応するボディーアクションをよりスムーズに行うことができる。
 このとき、さらに、前記複数の小領域のそれぞれは、前記ロボット本体の背面又は左、及び/又は、右の側面に沿って分布する、ものであってもよい。
 このような構成によれば、敵方のロボット本体を正面又は側面から観察しつつ、目的とする攻撃動作に相当するボディーアクションをよりスムーズに行うことができる。
 より具体的な一例を挙げるならば、前記ロボット本体は、左拳を用いた各種パンチ攻撃や左手に把持した武器による各種攻撃等々の左起点の攻撃動作と右拳を用いた各種パンチ攻撃や右手に把持した武器による各種攻撃等々の右起点の攻撃動作とを有するヒト型ロボットであり、前記物体感知領域は、前記ロボット本体の背面又は左、及び/又は、右の側面に沿って、左右にレイアウトされる2個の小領域を含み、かつ前記制御部は、前記2個の小領域のそれぞれ毎に、その小領域における物体の状態を解析し、左側の前記小領域の解析結果に基づいて、前記左起点の攻撃動作の実行を制御し、右側の前記小領域の解析結果に基づいて、前記右起点の攻撃動作の実行を制御する、ものであってもよい。
 このような構成によれば、遊技者は、物体感知領域を構成する2つの小領域のうちで、左側の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、左パンチ動作)を行うことにより、ロボット本体において、左拳を用いた各種パンチ攻撃や左手に把持した武器による各種攻撃等々の左起点の攻撃動作を実行させることができる一方、右側の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、右パンチ動作)を行うことにより、ロボット本体において、右拳を用いた各種パンチ攻撃や右手に把持した武器による各種攻撃等々の左起点の攻撃動作を実行させることができるから、恰も、自分がロボット本体になりきった如くに感情移入して、対戦遊びを楽しむことができる。
 より具体的な他の一例を挙げるならば、前記ロボット本体は、左拳を用いたストレートパンチやフックパンチ攻撃等々の左上起点の攻撃動作と、右拳を用いたストレートパンチやフックパンチ攻撃等々の右上起点の攻撃動作と、左拳を用いたアッパーパンチ攻撃等々の左下起点の攻撃動作と、右拳を用いたアッパーパンチ攻撃等々の右下起点の攻撃動作と、を有するヒト型ロボットであり、前記物体感知領域は、前記ロボット本体の背面又は左、及び/又は、右の側面に沿って、上下左右にレイアウトされる4個の小領域を含み、かつ前記指令生成部は、前記4個の小領域のそれぞれ毎に、その小領域における物体の状態を解析し、左上の前記小領域の解析結果に基づいて、前記左上起点の攻撃動作の実行を制御し、右上の前記小領域の解析結果に基づいて、前記右上起点の攻撃動の実行を制御し、左下の前記小領域の解析結果に基づいて、前記左下起点の制御動作の実行を制御し、右下の前記小領域の解析結果に基づいて、前記右下起点の攻撃動作の実行を制御する、ものであってもよい。
 このような構成によれば、遊技者は、物体感知領域を構成する4つの小領域のうちで、左上の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、左上パンチ動作)を行うことにより、左拳を用いたストレートパンチやフックパンチ攻撃等々の左上起点の攻撃動作を、右上の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、右上パンチ動作)を行うことにより、右拳を用いたストレートパンチやフックパンチ攻撃等々の右上起点の攻撃動作を、左下の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、左下パンチ動作)を行うことにより、左拳を用いたアッパーパンチ攻撃等々の左下起点の攻撃動作を、さらに、右下の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、右下パンチ動作)を行うことにより、右拳を用いたアッパーパンチ攻撃等々の右下起点の攻撃動作を、対象となるロボット本体に対して実行させることができるから、恰も、自分がロボット本体になりきった如くに感情移入して、対戦遊びを楽しむことができる。
 <第4の実施態様>
  本発明の第4の実施態様においては、前記物体センサが、前記ロボット本体側にあって、検出媒体となる放射体を前記物体感知領域へと送り出すトランスミッタと、前記ロボット本体側にあって、前記物体感知領域に存在する物体で反射された前記放射体を受け取るレシーバとを含み、かつ物体検出距離レンジが前記感知領域に整合するように感度調整され、前記レシーバからの出力に基づいて前記感知領域に物体の有無を示す信号を生成するようにした反射式物体センサであってもよい。
 このような構成によれば、電気的なハードウェア構成、並びに、領域内に物体の有無を判定するためのソフトウェア構成の簡素化により、物体センサの低コスト化を実現することができる。
 このとき、前記感知領域は複数の小領域からなるものであり、かつ前記トランスミッタは前記小領域のそれぞれに検出媒体となる放射体を送り出す複数個のトランスミッタからなり、前記レシーバは前記小領域のそれぞれに存在する物体で反射された前記放射体を受け取る1又は2以上のレシーバからなり、さらに、各反射放射体がいずれの前記小領域から到来したかを識別可能とするための特徴付け処理を含む、ものであってもよい。
 このような構成によれば、1のレシーバが2以上の小領域から反射された前記放射体を受け取ることによる物体位置の誤検出を確実に防止することができる。
 このとき、前記トランスミッタは、前記放射体の送り出し方向を調整できるように角度調整可能に取り付けられていてもよい。
 このような構成によれば、前記放射体の送り出し方向を調整して、小領域間の干渉を確実に排除することにより、1のレシーバが2以上の小領域から反射された前記放射体を受け取ることによる物体位置の誤検出をより確実に防止することができる。
 前記特徴付け処理の一例としては、各反射放射体がいずれの前記小領域から到来したかを識別可能とするために、前記複数のトランスミッタのそれぞれからの放射体の送り出しタイミングを互いに異ならせるものであってもよい。
 このような構成によれば、放射体の送り出し間隔さえ適切に設定すれば、トランスミッタの数の低減により、物体センサの低コスト化を実現することができる。
 特徴付け処理の他の一例としては、前記特徴付け処理が、各反射放射体がいずれの前記小領域から到来したかを識別可能とするために、前記複数のトランスミッタのそれぞれから送り出される放射体に固有の識別符号を組み込むものであってもよい。
 このような構成によれば、符号化処理並びに複合化処理の手間は必要であるものの、1のレシーバが2以上の小領域から反射された前記放射体を受け取ることによる物体位置の誤検出を確実に防止することができる。
 上述の例において、前記検出媒体となる放射体が、赤外線をその一例として含む光、超音波をその一例として含む音波、又はマイクロ波をその一例として含む電磁波であってもよい。
 <第5の実施態様>
  本発明の第5の実施態様においては、前記ロボット本体が、それぞれ、1又は2以上の攻撃動作が可能なヒト型ロボット、ライオン、トラ、バッファロー等の野獣型ロボット、又はティラノザウルス、トリケラトプス等の恐竜型ロボットであってもよい。
 このように、本発明に適用されるロボット本体の種類は、ヒト型ロボットに限定されるものではなく、その他、1又は2以上の攻撃動作が実行可能である限り、あらゆる種類のロボット玩具に及ぶものである。
 前記ヒト型ロボットにて実行可能な1又は2以上の攻撃動作が、左右のストレート、フック、アッパー等のパンチ攻撃動作、又は刀剣等の武器を手にしての攻撃動作、を含む、ものであってもよい。
 このように、攻撃動作としては、手や足など、体の一部によるもののみならず、武器を手にしてのものも含まれるから、この種の対戦遊びをより一層、興味深いものとすることができる。
 前記野獣型ロボットにて実行可能な1又は2以上の攻撃動作が、左右の前足の爪を用いた攻撃動作、角を用いた攻撃動作、又は牙を用いた攻撃動作、を含む、ものであってもよい。
 このように、野獣型ロボットにあっても、その野獣に想定されるあらゆる攻撃動作を行うことで、この種の対戦遊びをより一層、興味深いものとすることができる。
 前記恐竜型ロボットにて実行可能な1又は2以上の攻撃動作が、左右の前足の爪を用いた攻撃動作、又は首を伸ばしての牙や角による攻撃動作、を含む、ものであってもよい。
 このように、恐竜型ロボットであっても、その恐竜に想定されるあらゆる攻撃動作を行うことで、この種の対戦遊びをより一層、興味深いものとすることができる。
 <第6の実施態様>
  本発明の第6の実施態様においては、前記ロボット本体は、走行移動又は歩行移動が可能とされている、ものであってもよい。
 このような構成によれば、静止型ロボット玩具とは異なり、単に攻撃動作を行うのみならず、敵方ロボット本体の位置まで接近したり、敵方ロボット本体から逃走したり、逆に敵方ロボット本体を追いかけたりと言ったように、様々な行動を実行することにより、この種の対戦遊びをより一層、興味深いものとすることができる。
 前記ロボット玩具は、手動移動モードと自動移動モードとを有し、前記手動移動モードは、遊技者のボディーアクションに応答して走行移動乃至歩行移動を実行するものであり、かつ前記自動移動モードは、プリセットされた移動軌跡にしたがって移動するプリセット移動モード、又は任意にプログラムされた移動軌跡にしたがって移動するプログラマブル移動モードを含む、ものであってもよい。
 このような構成によれば、ロボット本体をして、任意の経路で移動させるについて、これを手動移動モードと自動移動モードとで選択的に行うことができる。加えて、手動移動モードにおいては、敵方ロボット本体の動きを見ながら、逐次進路を変更しつつ、自己のロボット本体を最適な攻撃姿勢に導くと言った作戦行動をとることができる一方、自動移動モードにおいては、相手方の動きを予測して予め最適な移動経路に設定することにより、予想結果の当否を見守ると言った楽しみを提供することもでき、この種の対戦遊びを一層興味深いものとすることができる。
 このとき、前記自動モードに設定中に、なんなからのボディーアクションが物体センサを介して検出されたとき、前記自動モードから前記手動モードへと動作モードを強制的に切り換える処理を含む、ものであってもよい。
 このような構成によれば、自動移動モードに設定して移動中に、敵方ロボット本体に遭遇した又は移動軌跡が敵方ロボット本体の方角から外れたような場合には、直ちに、自動移動モードから手動移動モードへと切り換えることしにより、適切な対応を取ることが可能となる。
 さらに、前記ロボット玩具は、前記走行移動又は歩行移動を、左右2個のマイクにより敵方であるロボット本体から発せられる音を頼りに相手の方向を認識して、自発的にに進路を取りつつ行なうサーチ移動モードを有する、ものであってもよい。
 このような構成によれば、敵と味方のロボット本体を離間して配置したとしても、それら2台のロボット本体は、互いに相手を探して独りでに接近するから、互いに攻撃動作を実行する対戦動作のみならず、対戦に至る前段階における行動についても、楽しむことができるから、この種の対戦遊びを一層興味深いものとすることができる。
 <本発明にかかるロボット玩具における攻撃動作の制御方法>
  本発明に係る方法は、1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作の制御方法であって、前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとをコンピュータにより実行する、ものである。
 このような構成によれば、前記ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の操作部等の付属品を必要としない利点がある。
 <本発明に係るロボット玩具における攻撃動作制御用のコンピュータプログラム>
  本発明に係るコンピュータプログラムは、1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作制御用のコンピュータプログラムであって、前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとを包含する、ものである。
 このような構成によれば、コンピュータにより実行されることにより、前記ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の操作部等の付属品を必要としない利点がある。
 <本発明に係るロボット玩具における攻撃動作制御用のコンピュータプログラムを格納した記録媒体>
  本発明に係る記録媒体は、1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作制御用のコンピュータプログラムを格納した記録媒体であって、前記コンピュータプログラムが、前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとを包含する、ものである。
 このような構成によれば、コンピュータから読み取られることにより、前記ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の操作部等の付属品を必要としない利点がある。
 本発明によれば、前記ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の遠隔操作部等の付属品を必要としないロボット玩具を提供することができる。
図1は、本発明に係るロボット玩具の一例を斜め後方より見た外観斜視図(その1)である。 図2は、物体検知と攻撃動作との関係を示す説明図(その1)である。 図3は、2台のロボット玩具を用いた対戦遊びの説明図(その1)である。 図4は、本発明に係るロボット玩具の一例を斜め後方より見た外観斜視図(その2)である。 図5は、2台のロボット玩具を用いた対戦遊びの説明図(その2)である。 図6は、物体検知と攻撃動作との関係を示す説明図(その2-1)である。 図7は、物体検知と攻撃動作との関係を示す説明図(その2-2)である。 図8は、本発明に係るロボット玩具の一例を斜め後方より見た外観斜視図(その3)である。 図9は、物体検知と攻撃動作との関係を示す説明図(その3)である。 図10は、2台のロボット玩具を用いた対戦遊びの説明図(その3)である。 図11は、本発明に係るロボット玩具の他の一例における物体検知と攻撃動作との関係を示す説明図である。 図12は、本発明に係るロボット玩具の一例における電気的ハードウェア構成を示す回路図(その1)である。 図13は、本発明に係るロボット玩具の一例における電気的ハードウェア構成を示す回路図(その2)である。 図14は、物体の接近速度検出のための受光部の構成を示す部分回路図である。 図15は、ロボット玩具におけるソフトウェア構成の全体を概略的に示すゼネラルフローチャートである。 図16は、感知領域コード設定処理の詳細フローチャートである。 図17は、手動運転時処理の詳細フローチャートである。 図18は、検知物体の状態に応じたロボット動作の詳細フローチャート(左系)である。 図19は、自動運転時処理の詳細フローチャートである。 図20は、プリセット歩行処理の詳細フローチャートである。 図21は、プリセット歩行動作の説明図である。 図22は、プログラマブル歩行処理の詳細フローチャートである。 図23は、サーチ方向処理の詳細フローチャートである。 図24は、手動運転モードへの強制復帰処理のフローチャートである。 図25は、手動運転時処理の詳細フローチャート(その2)である。 図26は、手動運転時処理の詳細フローチャート(その3)である。 図27は、赤外線発光素子(LED)の指向特性を示すグラフである。
 以下に、本発明に係るロボット玩具の好適な幾つかの実施の形態を添付図面を参照しながら詳細に説明する。
 <<各実施形態と図面との関係>>
  ・ロボット玩具の第1実施形態
   機構的な構成:図1及び図27参照
   電気的なハードウェア構成:図12参照
   電気的なソフトウェア構成:図15~図25参照
   作用説明:図1~図3参照
  ・第1実施形態の第1変形例
   機構的な構成:図4参照
   電気的なハードウェア構成:第1実施形態に同じ
   電気的なソフトウェア構成:第1実施形態に同じ
   作用説明:図5参照
  ・第1実施形態の第2変形例
   機構的な構成:図8参照
   電気的なハードウェア構成:第1実施形態に同じ
   電気的なソフトウェア構成:第1実施形態に同じ
   作用説明:図9及び図10参照
  ・第1実施形態の第3変形例
   機構的な構成:第1実施形態に同じ
   電気的なハードウェア構成:図12及び図14参照
   電気的なソフトウェア構成:図25参照
   作用説明:第1実施形態に同じ
  ・ロボット玩具の第2実施形態
   機構的な構成:図6及び図7参照
   電気的なハードウェア構成:図13参照
   電気的なソフトウェア構成:図26参照
   作用説明:図6及び図7参照
  ・ロボット玩具の他の実施形態
   機構的な構成:図11参照
 <<第1実施形態の説明>>
  -機構的な構成-
  第1実施形態に係るロボット玩具の模式的外観図が図1に示されている。同図に示されるように、このロボット玩具は、ヒト型二足歩行式ロボットとして構成されたロボット本体1を有する。このロボット本体1は、頭部11と、胴部12と、背部13の他に、詳細は後述するところの、左右の腕部材及び左右の脚部材を有する。
 左右腕部材を構成する右の腕部材は、この例では、右肩部14a、右上腕部15a、右下腕部16a、及び右拳部17aを順に連接してなるものであり、同様にして、左右の腕部材を構成する左の腕部材は、この例では、左肩部14b、左上腕部15b、左下腕部16b、及び左拳部17bを順に連接して構成されている。
 左右の脚部材を構成する右の脚部材は、右の脚部18aと右の足部19aとを連接してなるものであり、足部19aの下面側には、スムーズな一方向床面移動を可能とするための小径車輪10aが備えられている。同様にして、左右の脚部材を構成する左の脚部材は、左の脚部18bと左の足部19bとを連接してなるものであり、足部19bの下面側には、スムーズな一方向床面移動を可能とするための小径車輪10bが備えられている。
 そして、このロボット本体1は、右パンチによる攻撃動作と左パンチによる攻撃動作とからなる2種類の攻撃動作を任意のタイミングにて実行可能に構成されている。
 ここで、右パンチによる攻撃動作とは、図1に示される上腕部15aと下腕部16aとが屈曲された待機状態から、上腕部15aをその上端部を支点として、回動軸線A1の周りに半時計回りに回転させつつ、屈曲された上腕部15aと下腕部16aとを伸張させることにより、右拳部17aを前方へと突き出す動作である(図2参照)。
 なお、このとき、右パンチを繰り出すと同時に、左脚部18aは後方へと床面を蹴る一方、右脚部18aは前方へと踏み出すことにより、左へ旋回しつつ、一歩前進する動作が行われる。しかるのち、直ちに、上腕部15aと下腕部16aは再び屈曲された待機状態へと戻されると共に、左脚部18bは前方へと引き寄せられて、左右の脚部が揃った待機状態へと復帰する。
 同様にして、左パンチによる攻撃動作とは、図1に示される上腕部15bと下腕部16bとが屈曲された待機状態から、上腕部15bをその上端部を支点として、回動軸線A1の周りに時計回りに回転させつつ、屈曲された上腕部15bと下腕部16bとを伸張させることにより、左拳部17bを前方へと突き出す動作である。
 なお、このとき、左パンチを繰り出すと同時に、左脚部18bは後方へと床面を蹴る一方、左脚部18bは前方へと踏み出すことにより、右へ旋回しつつ、一歩前進する動作が行われる。しかるのち、直ちに、上腕部15bと下腕部16bは再び屈曲された待機状態へと戻されると共に、右脚部18aは前方へと引き寄せられて、左右の脚部が揃った待機状態へと復帰する。
 上述のパンチ繰り出し動作とこれに連動する歩進動作とは、この種の闘争用ロボット玩具において従来よりしばしば採用されている動作であり、当業者にはよく知られているように、特許第5426775号公報に代表される単一モータ式の上下肢駆動機構等により実現することができる。概説すれば、ロボット本体1の胴部12には、その回転軸を鉛直姿勢にして1個のモータが支持されており、このモータの駆動軸に連接された歯車列を介して左右一対の押圧レバーが、モータの回転方向に応じて、垂直軸線の周りに右回り又は左周りに回転し、これらのレバーにより、左右の上腕部15a.15bの回動軸線A1に連携する部材、及び左右の脚部18a,18bの回動軸線A3に連携する部材に力が作用することで、目的とするパンチ繰り出し動作及び歩進動作が実現される。
 次に、本発明に係るロボット玩具の要部について、説明する。上述のロボット本体には、ロボット本体の近辺に物体感知領域を有する物体センサと、物体センサの出力に基づいて、物体感知領域における物体の状態により選択される1又は2以上の攻撃動作の実行を制御する制御部が設けられている。
 この例にあっては、物体センサとしては、2個の赤外線投光部2a,2bと2個の赤外線受光部3a,3bとから構成される反射式物体センサが採用されている。すなわち、図1に示されるように、それらの投光部2a,2b及び受光部3a,3bは、ロボット本体1の背部13の表面に横一列に配置されている。すなわち、左右方向の中央寄りの右側には、赤外線投光部2aが、また左右方向の中央寄りの左側には、赤外線投光部2bがそれぞれ配置される。左右方向の外側寄りの右側には、赤外線受光部3aが、また左右方向の外側寄りの左側には、赤外光受光部73bが配置される。
 赤外線投光部2a,2bを構成する赤外線発光素子としては、図27に示されるように、ある程度の指向性を有する表面実装型の素子25が採用される。図1において拡大されて示されるように、この例にあっては、赤外線投光部2bは、矩形の薄皿上フレーム26と、この薄皿状フレーム26内にあって、左右の支点P1,P2により回動自在に支持されて、垂直方向へと角度調整可能な窓枠状フレーム27と、この窓枠状フレーム27内にあって、上下の支点P3,P4により回動自在に支持されて、水平方向へと角度調整可能な素子部品25とから構成されている。そのため、この赤外線受光部2a,2bは、その照射光軸を水平及び垂直方向へと角度調整可能となされ、これを利用することで、後述する感知小領域4a,4bの設定が容易となるように配慮されている。
 赤外線投光部2aの照射光軸は斜め左方向へ指向されており、赤外線投光部2bの照射光軸は斜め左方向へと指向されている。そのため、赤外線投光部2aから発せられる赤外光と赤外線投光部2bから発せられる赤外光とは、少なくとも、感知距離内においては干渉することかないように設定されている。なお、後述するように、赤外線投光部2a,2bから発せられる赤外光は、所定のキャリア周波数にて変調されるとともに、それぞれ小領域4a,4bに固有な領域コードにて変調(エンコード)されている。
 赤外線受光部3aは、赤外線投光部2aから発せられたのち、何らかの物体で反射された反射赤外光を主として受光するように指向され、赤外線受光部3bは、赤外線投光部2bから発せられたのち、何らかの物体で反射された反射赤外光を主として受光するように指向されている。もっとも、勿論、赤外線受光部3a,3bのそれぞれにおいて、互いに意図しない赤外線投光素子2b,2aに起因する反射光を完全に遮断することは不可能であるが、受光部の出力側にてデコード処理並びにコード一致判定処理を施すことにより、物体位置を誤認する混信障害は防ぐことができる。
 赤外線投光部2a,2bの投光強度及び赤外線受光部3a,3bの受光感度を適切に設定することにより、ロボット本体1の背後における比較的近辺に、右側の物体感知小領域4aと左側の物体感知小領域4bとを設定することができる。なお、図において、ハッチングで示される5a,5bは、それぞれ、右側の物体感知小領域4aの感知限界距離の断面、左側の物体感知小領域4bの感知限界距離の断面を模式的に図示したものである。
 このように、図示のロボット本体1においては、赤外線投光部2a,2bと赤外線受光部3a,3bとにより、ロボット本体1の背後近辺に物体感知領域4a,4bを有する物体センサが構成される。
 -電気的なハードウェア構成-
  第1実施形態に係るロボット玩具の電気的なハードウェア構成が、図12の回路図に示されている。同図に示されるように、この回路の全体は、ロボット本体1側に組み込まれるものであって、電源回路部と、投光回路部と、受光回路部と、ロボット駆動部と、サウンド送受回路部と、各種設定操作部と、制御部として機能する中央処理部とから概略構成されている。
 電源処理部は、2個の電池101a,101bからなり、電源スイッチ102の投入により、回路全体へと通電可能となるように構成されている。
 投光回路部は、赤外線投光部2aに含まれる赤外線発光ダイオード103aと、赤外線投光部2bに含まれる赤外線発光ダイオード103bと、右領域コードによる赤外線エンコード用のトランジスタ104a、左領域コードによる赤外線エンコード用のトランジスタ104bと、キャリア生成用のトランジスタ105とを含んで構成される。
 受光回路部は、赤外線受光部3aに対応する受光部IC106aと、赤外線受光部3bに対応する受光部IC106bとを含んで構成される。受光部IC106a,106bは、それぞれ受光した赤外線反射光を光電変換したのち、キャリア周波数成分の抽出、並びに、復調処理を行って、領域コードを復調する作用を有する。
 ロボット駆動部は、ロボット本体のパンチ動作や歩進動作を行うためのモータ114と、モータ114への通電方向並びに通電電流の増減を行うためのH型トランジスタブリッジ回路IC113とを含んで構成される。ワンチップ・マイコン108のポートP23が第1の論理値(例えば、High)、ポートP24が第2の論理値(例えば、Low)のとき、モータ114に対して第1の方向の電流が流れて、モータ114は第1の方向へと回転し、ロボット本体においては、先に説明した右パンチ動作及び右脚歩進動作が実行される。このとき、ポートP23から所定のディーティ比を有するPWMパルス列を出力することで、モータ114の電流値をPWM制御することができる。
 逆に、ポートP23が第2の論理値(例えば、Low)、ポートP24が第1の論理値(例えば、High)のとき、モータ114に対して第2の方向の電流が流れて、モータ114は第2の方向へと回転し、ロボット本体においては、先に説明した左パンチ動作及び左脚歩進動作が実行される。このとき、ポートP24から所定のディーティ比を有するPWMパルス列を出力することで、モータ114の電流値をPWM制御することができる。
 サウンド送受回路部は、当該ロボット本体に固有なサウンドを発するスピーカ112と、敵方であるロボット本体から発せられるサウンドを聴き取る左側マイク109a及び右側マイク109bと、左側マイク109aの出力を増幅及びA/D変換するA/Dコンバータ110aと、右側マイク109bの出力を増幅及びA/D変換するA/Dコンバータ110bとを含んで構成される。
 ここで、左側のマイク109a及び右側のマイク109bとしては、ある程度の指向性を有するものが採用され、それにより、左側のマイク109aは主として左前方からのサウンドを集中的に聴き取るように、また右側のマイク109bは主として右前方からのサウンドを集中的に聴き取るように仕向けるられている。
 各種設定操作部は、領域コードその他各種の処理に必要な情報を設定するためのDIPスイッチ111により構成される。
 中央処理部は、マイクロプロセッサ、ROM、RAM、及び各種の周辺回路(例えば、サウンド合成LSI)等々をワンチップ化してなるワンチップ・マイクロコンピュータ(ワンチップ・マイコン)108により構成され、後述する各種のコンピュータ・プログラム(図15~図26)を実行することにより、ロボット玩具として必要な各種の機能を実現するように構成されている。
 なお、図示の構成では、2個の物体感知小領域4a,4bを有する物体センサを構成するについて、2個の赤外線受光部3a,3bを使用したが、それらの感知小領域4a,4bのそれぞれにおいて、投光の干渉の虞がないのであれば、それらの受光部3a,3bは2個の投光部2a,2bの中間に置かれた共通な1個の受光部で代用することもできる。
 -電気的なソフトウェア構成-
  ロボット玩具におけるソフトウェア構成の全体を示すゼネラルフローチャートが図15に示されている。同図(a)に示されるように、電源投入により処理が開始されると、先ず、イニシャライズ処理(ステップ101)により、演算用の各種フラグやレジスタ等々の初期化処理が行われると共に、本発明に係る感知領域コード設定処理が実行される。
 感知領域コード設定処理の詳細が図16に示されている。この例では、最大4台のロボット本体を使用して4人の遊技者が対戦遊びに参加するものとし、そのうち任意の2台を使用して対戦させても、混信が起きることのないよう、DIPスイッチ111の号機設定に応じて、ロボット本体同士で、領域コードに重複が生じないように配慮している。
 すなわち、処理が開始されるとろ、DIPスイッチ111の設定の読み込みが行われ(ステップ201)、さらに、号機番号の判読がなされたのち(ステップ202)、各号機番号に応じて最適な左右の領域コードの設定が行われる。すなわち、1号機と判定されると(ステップ203YES)、左領域コートは「A」及び右領域コードは「B」と設定され(ステップ204)、2号機と判定されると(ステップ205)、左領域コートは「C」及び右領域コードは「D」と設定され(ステップ206)、3号機と判定されると(ステップ207YES)、左領域コートは「E」及び右領域コードは「F」と設定され(ステップ208)、さらに4号機と判定されると(ステップ209YES)、左領域コートは「G」及び右領域コードは「H」と設定される(ステップ210)。
 図15(a)に戻って、イニシャライズ処理(ステップ101)が終了すると、ルーチン処理への移行が行われ、先ず、DIPスイッチ111から運転モード設定の読み込みが行われる(ステップ102)。次いで、運転モードの判定が行われ(ステップ103)、ここで、運転モードが「手動」と判定されると(ステップ103「手動」)、手動運転時処理(ステップ104)が実行されるのに対して、運転モードが「自動」と判定されると(ステップ103「自動」)、自動運転時処理(ステップ105)が実行される。以後、所定の終了処理(例えば、DIPスイッチ111のリセット)が行われるまで、以上の動作(ステップ102~106)が繰り返される。
 この間、微少の一定時間毎にタイマ割り込みによって、一連の処理(ステップ107~109)が繰り返し実行される。
 ここで、キャリア変調処理(ステップ107)では、マイコン108のポートP13からキャリア周波数のパルス列を出力して、トランジスタ105をスイッチングさせることで、左右の赤外線発光ダイオード103a,103bから発せられる赤外光をキャリア周波数で変調する。
 右側発光部変調処理(ステップ108)では、マイコン108のポートP21から右領域コードに相当するパルス列を出力することで、トランジスタ104aをこれに同期してスイッチングさせ、右側の赤外線発光ダイオード104aから発せられる光を右領域コードで変調(エンコード)する。
 左側発光部変調処理(ステップ109)では、マイコン108のポートP22から左領域コードに相当するパルス列を出力することで、トランジスタ104bをこれに同期してスイッチングさせ、左側の赤外線発光ダイオード104bから発せられる光を左領域コードで変調(エンコード)する。
 図15(a)に戻って、手動運転時処理(ステップ104)の詳細が図17に示されている。同図に示されるように、処理が開始されると、先ず、マイコン108のポートP14から受光部IC106bの出力を読み込むことにより(ステップ301)、反射光の有無を判定する(ステップ302)。ここで、反射光ありと判定されると(ステップ302YES)、読み取りコードの解読が行われ(ステップ303)、予め設定された左側領域コードとの一致が確認されたときに限り(ステップ304YES)、左系に関する検出物体の状態に応じた処理(ステップ305)が実行される。
 左系に関する検出物体の状態に応じた処理(ステップ305)の詳細が図18に示されている。同図に示されるように、処理が開始されると、先ず、左側領域コードとの一致が初回一致であるかの判定が行われる(ステップ401)。ここで、遊技者が左パンチに相当するボディーアクションを行ったことで、その左拳が左側の感知小領域4bに侵入すると、その瞬間に、初回一致の判定が行われる。そして、初回一致と判定されると(ステップ401YES)、左パンチ動作及び左足の歩進動作が単発的に実行され(ステップ402)、ロボット本体1は左パンチを繰り出すと共に、やや右に旋回しつつ一歩前進する。一方、初回一致ではないと判定されると(ステップ401NO)、続いて、連続一致回数がN回を超えたかの判定が行われる(ステップ403)。ここで、遊技者が左パンチに相当するボディーアクションを行ったことで、その左拳が左側の感知小領域4bに一定時間以上とどまっていると、連続一致回数がN回を超えたとの判定が行われる。そして、連続一致回数がN回を超えたとの判定が行われると(ステップ403YES)、左右交互のパンチ動作及び左右足交互の歩進動作が一定時間、一定回数、又は左拳がその状態に維持される限り、繰り返し的に実行される(ステップ404)。
 なお、初回一致でもなく(ステップ401NO)、かつ連続一致回数がN回を超えていないと判定されると(ステップ403NO)、単発的処理(ステップ402)及び繰り返し的処理(ステップ404)はいずれも実行されずに、処理は終了する。
 図17に戻って、左受光出力に基づいて反射光なしと判定されると(ステップ302NO)、続いてマイコン108のポートP12から受光部IC106aの出力を読み込むことにより(ステップ306)、反射光の有無を判定する(ステップ307)。ここで、反射光ありと判定されると(ステップ307YES)、読み取りコードの解読が行われ(ステップ308)、予め設定された右側領域コードとの一致が確認されたときに限り(ステップ309YES)、右系に関する検出物体の状態に応じた処理(ステップ305)が実行される。
 右系に関する検出物体の状態に応じた処理(ステップ305)の詳細については、図18に示されフローチャートにおいて、左と右とを入れ替えるだけであるから、特に図示はしないが、遊技者が右パンチに相当するボディーアクションを行ったことで、その右拳が右側の感知小領域4aに侵入すると、その瞬間に、初回一致の判定が行われる。そして、初回一致と判定されると、右パンチ動作及び右足の歩進動作が単発的に実行され、ロボット本体1は右パンチを繰り出すと共に、やや左に旋回しつつ一歩前進する。一方、遊技者が右パンチに相当するボディーアクションを行ったことで、その右拳が右側の感知小領域4aに一定時間以上とどまっていると、連続一致回数がN回を超えたとの判定が行われる。そして、連続一致回数がN回を超えたとの判定が行われると、左右交互のパンチ動作及び左右足交互の歩進動作が一定時間、一定回数、又は左拳がその状態に維持される限り、繰り返し的に実行される。
 なお、初回一致でもなく、かつ連続一致回数がN回を超えていないと判定されると、単発的処理及び繰り返し的処理はいずれも実行されずに、処理は終了する。
 したがって、この手動運転モードによれば、遊技者は、例えば、左右交互のパンチ動作に相当するボディーアクションを右側の感知小領域4a及び左側の感知小領域4bに対して繰り返すことで、当該ロボット本体を前方へと歩進させたり、右パンチに相当するボディーアクションの頻度を増すことで当該ロボット本体を左旋回させつつ歩進させたり、逆に、右パンチに相当するボディーアクションの頻度を増すことで当該ロボット本体を左旋回させつつ歩進させたりすることができるから、これを利用すれば、敵方のロボット本体の動きを観察しながら、自己のロボット本体を任意の経路で歩進させつつ、敵方のロボット本体へと接近させることができる。
 そして、ひとたび接近したのちにあっては、右側の感知小領域4a及び左側の感知小領域4bに対して、右パンチ又は左パンチに相当するボディーアクションを適宜のタイミングで実行することで、自己のロボット本体から右パンチ又は左パンチによる攻撃動作を実行させたり、右パンチ又は左パンチに相当するボディーアクションに続いて、右又は左拳の突き出し状態を保持することで、自己のロボット本体から左右のパンチの連打による攻撃を実行させることができる。
 図15に戻って、自動運転時処理(ステップ105)の詳細が図19に示されている。同図に示されるように、処理が開始されると、先ず、図示しない設定器から歩行モード設定を読み込んだのち(ステップ501)、歩行モードが「プリセット」、「プログラマブル」、又は「サーチ」のいずれであるかを判定する(ステップ502)。
 ここで、「プリセット」と判定された場合には(ステップ502「プリセット」)、プリセット歩行処理(ステップ503)が、「プログラマブル」と判定された場合には(ステップ502「プログラマブル」)、プログラマブル歩行処理(ステップ504)が、「サーチ」と判定された場合には(ステップ502「サーチ」)、サーチ歩行処理(ステップ505)がそれぞれ実行される。
 プリセット歩行処理(ステップ503)の詳細が図20に示されている。同図に示されるように、処理が開始されると、図示しない設定器から歩行パターン設定を読み込んだのち(ステップ601)、歩行パターンが「8の字」、「直進」、又は「矩形」のいずれであるかの判定が行われる。ここで、図21(a)に示されるように、ワンチップ・マイコン108のROM内に設けられた歩行パターン記憶部には、ステップ番号と歩進データとが対となって予め複数パターンに亘り記憶されている。各パターンの記憶内容は、図21(b)に示される直進歩行パターン、8の字歩行パターン、及び矩形歩行パターンのそれぞれに対応している。すなわち、ステップ番号を更新しつつ、順次に、歩進データを読み出して、指定される歩進動作を行えば、当該ロボット本体は独りでに、直進歩行、8の字歩行、及び矩形歩行を実行可能になされている。
 そのため、歩行パターン記憶部の内容を参照することにより、「8の字」と判定されると(ステップ602「8の字」)、8の字を描いて歩行するように歩進制御が行われ(ステップ603)、「直進」と判定されると(ステップ602「直進」)、前方へ直進するように歩行制御が行われ(ステップ605)、さらに、「矩形」と判定されると(ステップ602「矩形」)、矩形を描いて歩進するように歩進制御が行われる(ステップ604)。
 したがって、このプリセット歩行モードを利用すれば、当該ロボット本体を規定の歩行パターンで自動歩行させることができる。
 図19に戻って、プログラマブル歩進制御(ステップ504)の詳細が図22に示されている。同図に示されるように、処理が開始されると、図示しない設定器より動作モード設定の読み込みを行ったのち(ステップ701)、動作モードが「教示」か「再現」かの判定を行う(ステップ702)。
 ここで、動作モードが「教示」と判定されると(ステップ702「教示」)、以後、ステップカウンタnの値を「1」から+1づつ更新しつつ、手動運転時に得られる歩進データ(「右歩進」又は「左歩進」)をステップカウンタ値と対応させて記憶する処理(ステップ705)が繰り返される。なお、図において、手動運転時の処理(ステップ704)の内容は、図17及び図18を参照しつつ、先に説明した通りである。
 そのため、一連の処理(ステップ704~707)が繰り返されることにより、ワンチップ・マイコン108の書き込み可能なメモリの歩行パターン記憶部には、図21(a)の内容と同様な歩行パターンデータが格納され、これにより、任意の歩行パターンの教示が可能となる。
 その後、図示しない設定器を「教示」から「再現」に切り替えたことにより、動作モードが「再現」と判定されると(ステップ702「再現」)、以後、ステップカウンタnの値を「1」から+1づつ更新しつつ、プリセット歩行処理(ステップ709)を実行する処理が繰り返される。なお、図において、プリセット歩行処理(ステップ709)の内容は、図21及び図22を参照しつつ、先に説明した通りである。
 そのため、一連の処理(ステップ709~711)が繰り返されることにより、教示された歩行パターンで歩行するように歩進制御が行われる。
 したがって、このプログラマブル歩進モードを利用すれば、当該ロボット本体を任意にプログラムされた歩行パターンで自動歩行させることができる。
 図19に戻って、サーチ歩行処理(ステップ505)の詳細が図23に示されている。同図に示されるように、処理が開始されると、ワンチップ・マイコン108のポートP61~64から左マイク109bの受信音量に相当するデータを読み込む処理(ステップ801)、及び同マイコン108のポートP51~54から右マイク109aの受信音量に相当するデータを読み込む処理(ステップ802)が実行される。
 続いて、それら読み込まれた2つの音量の比較が行われる(ステップ803)。ここで、左の音量よりも右の音量の方が大きいと判断されると(ステップ803「左>右」)、斜め左前方へ進むように歩行制御が行われ(ステップ804)、左の音量の方が右の音量よりも小さいと判断されると(ステップ803「左<右」)、斜め右前方に進むように歩行制御が行われ(ステップ806)、左の音量と右の音量とが等しいと判断されると(ステップ803「左=右」)、前方へ進むように歩行制御が行われる(ステップ805)。
 以上の処理(ステップ801~805)が繰り返される結果、当該ロボット本体は、敵方のロボット本体から発せられるサウンドを頼りとして、独りでに向きを変えつつ、敵方のロボット本体へと徐々に接近して行くことになる。
 したがって、このサーチ歩行モードを利用すれば、予め用意された歩行パターンを選択したり、特定の歩行パターンをプログラムしたりせずとも、当該ロボット本体を敵方ロボット本体が発するサウンドを頼りとして、自動的に、敵方ロボットをサーチしながら、接近させることができる。
 ところで、プリセット歩行モード(ステップ503)、プログラマブル歩行モード(ステップ504)、又はサーチ歩行モード(ステップ505)と行った自動運転モードは、敵方ロボットに接近するのが目的であるから、その途中で敵方ロボットに遭遇したときには、直ちに、それらのモードを手動運転モードに切り替えて、対戦行動を取らねばならない。
 そこで、この例にあっては、図24のフローチャートに示されるように、自動運転中に敵方ロボット本体に遭遇したときには、何らかの攻撃動作を行うことで、自動運転モードから手動運転モードへの復帰が強制的に行われるようにしている。
 すなわち、同図に示されるように、パンチ操作の検出により処理が開始されると、歩行モードを読み込んだのち(ステップ901)、プリセット歩行中か(ステップ902)、プログラマブル歩行中か(ステップ903)、又はサーチ歩行中か(ステップ904)の判定が行われる。
 ここで、上記3つの歩行中のいずれかであると判定されると(ステップ902YES、903YES、又は904YES)、直ちに、手動運転モードへの強制復帰が行われる(ステップ905)。
 したがって、この強制復帰処理(ステップ905)により、自動運転モードから手動運転モードへの切り替えをスムーズに行わせ、遊技者は、直ちに、対戦行動に移行することが可能となる。
 -作用説明-
  第1実施形態に係るロボット玩具の有する主要な作用について説明する。この第1実施形態のロボット玩具にあっては、ロボット本体1は、図1に示されるように、右側を起点とする右パンチ機構(14a~17a)による攻撃動作と左側を起点とする左パンチ機構(14b~17b)による攻撃動作とからなる2つの攻撃動作を有する。
 右側を起点とする右パンチ機構(14a~17a)による攻撃動作の起動のためには、背部13の右後方に位置して右物体感知小領域4aが設けられる。同様にして、左側を起点とする左パンチ機構(14b~17b)による攻撃動作の起動のためには、背部13の左後方に位置して左物体感知小領域4bが設けられる。
 図2に示されるように、遊技者が、例えば、右パンチ動作に相当するボディーアクションを行って、その右拳7aを、矢印A4に示されるように、右物体感知小領域4aに向けて突き出すと、右拳7aが感知限界距離Lmax内に侵入するのに応答して、赤外光反射式の物体センサ(2a,2b,3a,3b)の物体感知作用、並びに、ワンチップ・マイコン108を主体とする制御部の作用を介して(図12、図15~図18参照)、ロボット本体1の右パンチによる攻撃動作が起動されて、ロボット本体1の右拳17aも、矢印A5に示されるように、前方へと突き出される。
 同様に、遊技者が、例えば、左パンチ動作に相当するボディーアクションを行って、その左拳7bを左物体感知小領域4bに向けて突き出すと、左拳7bが感知限界距離Lmax内に侵入するのに応答して、赤外光反射式の物体センサ(2a,2b,3a,3b)の物体感知作用、並びに、ワンチップ・マイコン108を主体とする制御部の作用を介して(図12、図15~図18参照)、ロボット本体1の左パンチによる攻撃動作が起動されて、ロボット本体1の左拳17bも前方へと突き出される。
 そのため、図3に示されるように、2台のロボット本体1,1を向かい合わせて対戦遊びを行うときには、各ロボット本体の遊技者は、自己のロボット本体の背後に位置して、相手方ロボット本体を正面から観察しながら、適当なタイミングで、左右のパンチ動作に相当するボディーアクションを行うだけでよいため(図中矢印A6,A7参照)、従前のロボット玩具のように、遠隔操作部を左右の手に把持する必要がなく、その分だけコスト的に有利となり、しかも、自己のロボット本体に対して感情移入し易くなり、この種の対戦遊びにおいて、より興奮をかきたたせることができる。
 また、この実施形態に係るロボット本体にあっては、各物体感知小領域Aa,4bへの拳突き出し態様(物体感知状態)に応じて、ロボット本体側のパンチ動作を単打と連打とに切り替えることもできるため(図18参照)、この種のロボット玩具における攻撃動作をより多様性に富んだものとすることができる。
 さらに、この実施形態に係るロボット玩具にあっては、自動運転モードへの設定により(ステップ103)、プリリセット歩行モード(ステップ503)、プログラマブル歩行モード(ステップ504)、及びサーチ歩行モード(ステップ505)のいずれかを選択することにより、様々な歩行パターンを実現することができるため、対戦動作のみならず、対戦動作に至る前段階の歩行動作においても、この種の対戦遊びを遊技者にとってより興味深いものとすることができる。
 なお、それら自動運転モードの歩行パターンにあっては、相手方ロボット本体への接近過程においては有意義であるものの、ひとたび、相手方ロボット本体と遭遇したときには、直ちに、攻撃動作への移行が必要であるが、この実施形態にあっては、なんらかの攻撃動作を切っ掛けとして、自動運転モードから攻撃動作に適した手動運転モードへ自動復帰するように構成したため(図24参照)、自動運転モードから手動運転モードへの移行がスムーズとなる利点がある。
 また、この実施形態にあっては、反射式の赤外線式物体センサを採用しているため、同一の感知小領域内において、異なる赤外線発光部からの照射赤外光が混在する状態は排除しなければならないが、各赤外線投光部のそれぞれは、投光軸の角度調整が可能となっているため(図1の要部拡大図参照)、これを利用して、照射赤外光同士の干渉を防止することで、物体の誤検出を確実に防止することができる。
 さらに、言うまでもないが、本発明の要旨は、1又は2以上の攻撃動作の存在を前提として、その起動を遠隔操作部を使用しないで行うことにあり、攻撃動作それ自体が公知のものか、新規なものかは問題とされない。図示例では、ヒト型ロボットを対象として、所謂ボクシング類似の攻撃動作を挙げたが、ヒト型ロボットにおいて、その他の攻撃動作としては、相撲の突き押し動作、張り手動作と言った手を主体として動作、突き蹴り動作、回し蹴り動作の如く、足を主体とした攻撃動作を挙げることができる。
 <<第1実施形態の第1変形例>>
  -機構的な構成-
  第1実施形態の第1変形例に係るロボット玩具の模式的外観図が図4に示されている。同図に示されるように、このロボット玩具の特徴は、2個の赤外線投光部2c,2d及び2個の赤外線受光部3c,3dを背部13の右側面に上下一列に配置することにより、ロボット本体1を、その右側面からボディーアクションで操作することを可能とするものである。
 すなわち、上側の赤外線発光部2cから発せられる赤外光は、適当な高さに右感知小領域4cを形成するように、ロボット本体1の右側方へと放射される。なお、ハッチングで示された円形部分5cは感知限界距離における右感知小領域4cの断面を模式的に示すものである。下側の赤外線発光部2dから発せられる赤外光は、同じ高さに左感知小領域4dを形成するように、ロボット本体1の右側方へと放射される。なお、ハッチングで示された円形部分5dは感知限界距離における左感知小領域4dの断面を模式的に示すものである。その結果、ロボット本体1の右側方には、右感知小領域4cと左感知小領域4dとが左右同じ高さで形成される。
 ここで、右側に位置する右感知小領域4cは、右側を起点とする右パンチ機構(14a~17a)による攻撃動作を起動させるためのものであり、左側に位置する左感知小領域4dは、左側を起点とする左パンチ機構(14b~17b)による攻撃動作を起動させるためのものである。
 そのため、ロボット本体1の遊技者は、ロボット本体1の右側方に位置して、左右のパンチ動作に相当するボディーアクションを行い、右拳6aを右感知小領域4cへ向けて突き出すか、又は左拳6bを左感知小領域4dへ向けて突き出すことにより、右側を起点とする右パンチ機構(14a~17a)による攻撃動作を起動させたり、又は左感知小領域4dは、左側を起点とする左パンチ機構(14b~17b)による攻撃動作を起動させることができるように構成されている。
 -電気的なハードウェア構成-
  第1実施形態と同様であるから、説明は省略する。
 -電気的なソフトウェア構成-
  第1実施形態と同様であるから、説明は省略する。
 -作用説明-
  この変形例に係るロボット玩具によれば、図14に示されるように、2台のロボット本体1,1をテーブル上に左右方向へ向かい合わせに配置したのち、テーブルの手前に二人の遊技者6,6が左右に並んで座る。すると、左側の遊技者6のほぼ正面には、左側のロボット本体1の右感知小領域4cと左感知小領域4dとが位置する。同様に、右側の遊技者6のほぼ正面には、右側のロボット本体1の右感知小領域4c'と左感知小領域4d'とが位置する。
 この状態において、左右の遊技者1,1が、左右のパンチ動作に相当するボディーアクションを行って、右の拳6a及び左の拳6bを前方へと突き出せば、先に、第1の実施形態で説明したと同様の作用を経て、左右のロボット本体1,1同士を戦わせることができる。具体的には、図示の例にあっては、右側の遊技者6が右の拳6aを、矢印A8に示されるように、右の感知小領域4c'内へと突き出したことにより、右側のロボット本体1においては右パンチによる攻撃動作が行われて、矢印A9に示されるように、右の拳17aが前方へと突き出されている。
 このように、この変形例によれば、相対するロボット本体のそれぞれの背後ではなく、側方に位置して、対戦遊びを楽しむことができ、この種の遊びをより興味深いものとすることができる。
 なお、赤外線投光部と赤外線受光部との配置は、予め背部13の両側面に設けておき、いずれか一つを切り替えて使用可能としたり、あるいは、投光部と受光部とを対にして共通の基板に搭載しておき、これを適当な接続具(例えば、ピンとジャック、プラグとレセプタクル)を介して、両側面に着脱可能とし、遊技者の座る位置に応じて、取り付けるようにしてもよい。
 <<第1実施形態の第2変形例>>
  -機構的な構成-
  第1実施形態の第2変形例に係るロボット玩具の模式的外観図が図8に示されている。同図に示されるように、このロボット玩具の特徴は、2個の赤外線投光部2c,2d及び2個の赤外線受光部3c,3dを背部13の背面に上下一列に配置すると共に、ロボット本体1Aの右手17aに剣17cを握らせることにより、ロボット本体1Aの背後における例えば指剣による振り下ろし動作に相当するボディーアクションにより、ロボット本体においては、剣17cの振り下ろしによる攻撃動作を可能としたものである。
 すなわち、上側の赤外線発光部4aから発せられる赤外光は、適当な高さに上感知小領域4aを形成するように、ロボット本体1の後方へと放射される。なお、ハッチングで示された円形部分5aは感知限界距離における上感知小領域4aの断面を模式的に示すものである。下側の赤外線発光部2bから発せられる赤外光は、適当な高さに下感知小領域4bを形成するように、ロボット本体1の後方へと放射される。なお、ハッチングで示された円形部分5bは感知限界距離における下感知小領域4bの断面を模式的に示すものである。その結果、ロボット本体1の後方近辺には、上感知小領域4aと下感知小領域4bとが上下に形成される。
 ここで、上側に位置する上感知小領域4aは、上側を起点とする剣の振り下ろしによる攻撃動作を起動させるためのものであり、下側に位置する下感知小領域4bは、その感知出力をマスクするか、あるいは、左側を起点とする左パンチ機構(14b~17b)による攻撃動作を起動させるために使用される。
 -電気的なハードウェア構成-
  第1実施形態と同様であるから、説明は省略する。
 -電気的なソフトウェア構成-
  第1実施形態と同様であるから、説明は省略する。
 -作用説明-
  この第2変形例に係るロボット玩具によれば、図10に示されるように、2台のロボット本体1A,1Aを向かい合わせに配置したのち、剣の振り下ろしに相当するボディーアクションを行い、矢印A12に示されるように、右の指剣6bを上感知小領域4aへ向けて突き出すか、又は振り下ろすことにより、矢印A13に示されるように、ロボット本体1Aにおいて、剣17aの振り下ろしによる攻撃動作を起動させ、武器を用いての対戦遊技を楽しむことができる。
 このように、この変形例によれば、ヒト型ロボットであっても、体の一部のみならず、武器を持たせて攻撃動作を行うことができるから、この種のロボット玩具を用いた対戦遊びをより興味深いものとすることができる。
 なお、武器としは、刀剣にかぎるものではなく、槍その他の任意の武器に適用することかでき、また防具として盾を使用すれば、この種の対戦遊びをより興味深いものとすることができることは言うまでもない。
 <<第1実施形態の第3変形例>>
  -機構的な構成-
  新たに2つの低感度受光部が追加されることをのぞき、第1実施形態と同様であるから、説明は省略する。
 -電気的なハードウェア構成-
  この第3変形例を実現するためには、図12に示される電気回路の一部(主として、受光部の構成)を変更する必要がある。この変更部分のみが図14に示されている。
 同図に示されるように、この第3変形例にあっては、既存の2つの受光部IC106a,106bに加えて、さらに、2つの受光部IC122a,122bが設けられる。新たに設けられる右側の受光部IC122aは、好ましくは、既存の右側の受光部IC106aに隣接して配置され、既存の右側の受光部IC106aから想定される検出物体までの距離は、新設の右側の受光部IC122aから想定される検出物体までの距離と等しくなるように設定される。
 既存の受光部IC106aと新設の受光部IC122aとは同一の性能を有する。ただし、新設の受光部IC122aの前面側には、赤外光の透過を低減させる光学フィルタ(以下、「赤外光低減フィルタ」と称する)123aが介在されている。
 そのため、何らかの物体がロボット本体の右側の物体感知小領域4aへ向けて接近してくるとき、既存の受光部IC106aがこれを感知する接近距離L1と、新設の受光部IC122aがこれを感知する接近距離L2との間には、一定の距離差ΔL(=L1-L2:L1>L2)が存在する。
 したがって、何らかの物体がロボット本体の右側の物体感知小領域4aへ向けて接近してくるとき、既存の受光部IC106aがこれを感知する時刻t1と新設の受光部IC122aがこれを感知する時刻t2との間には、物体の接近速度にほぼ反比例する時間差Δtが存在するから、この時間差Δtを測定することにより、対象となる右側の物体感知小領域4aにおいて、物体(例えば、右の拳)の接近距離を推定することができる。
 同様にして、新たに設けられる右側の受光部IC122bは、好ましくは、既存の左側の受光部IC106bに隣接して配置され、既存の左側の受光部IC106bから想定される検出物体までの距離は、新設の左側の受光部IC122bから想定される検出物体までの距離と等しくなるように設定される。
 既存の受光部IC106bと新設の受光部IC122bとは同一の性能を有する。ただし、新設の受光部IC122bの前面側には、赤外光の透過を低減させる光学フィルタ(以下、「赤外光低減フィルタ」と称する)123bが介在されている。
 そのため、何らかの物体がロボット本体の左側の物体感知小領域4bへ向けて接近してくるとき、既存の受光部IC106bがこれを感知する接近距離L1と、新設の受光部IC122bがこれを感知する接近距離L2との間には、一定の距離差ΔL(=L1-L2:L1>L2)が存在する。
 したがって、何らかの物体がロボット本体の左側の物体感知小領域4bへ向けて接近してくるとき、既存の受光部IC106bがこれを感知する時刻t1と新設の受光部IC122bがこれを感知する時刻t2との間には、物体の接近速度にほぼ反比例する時間差Δtが存在するから、この時間差Δtを測定することにより、対象となる左側の物体感知小領域4bにおいて、物体(例えば、右の拳)の接近距離を推定することができる。
 -電気的なソフトウェア構成-
  第3変形例に係るロボット玩具のソフトウェア構成の要部が図25のフローチャートに示されている。同図に示されるように、処理が開始されると、まず、左側の高感度受光部IC106bの出力である左高感度受光出力を読み込んだのち(ステップ1001)、反射光の有無の判定(ステップ1002)が行われる。ここで、反射光ありと判定されると(ステップ1002YES)、続いて、読み取りコードを解読したのち(ステップ1003)、解読されたコードが予め設定された左領域コードと一致した場合に限り(ステップ1004YES)、時刻t1の記憶処理(ステップ1005)が行われる。
 以後、左側の低感度受光部IC123bの出力である低感度受光出力の読み込みを繰り返しながら、反射光ありとなるのを待機する(ステップ1007NO)。そして、反射光ありが確認されるのを待って(ステップ1007YES)、読み取りコードを解読したのち(ステップ1008)、解読されたコードが予め設定された左領域コードと一致した場合に限り(ステップ1009YES)、時刻t2の記憶処理(ステップ1005)を実行する。
 しかるのち、時刻t1と時刻t2との時間差Δtを求め(ステップ1011)、その時間差Δtを基準値ΔTrefと比較する(ステップ1012)。ここで、時間差Δtが基準値Δtrefよりも大きいと判定されると(ステップ1012NO)、左側の感知小領域4bへ向かってくる物体の接近速度は比較的に遅いと推定して、通常パワーによるロボット動作処理(ステップ1014)が行われるのに対して、時間差Δtが基準値Δtrefよりも小さいと判定されたときには(ステップ1012YES)、左側の感知小領域4bへ向かってくる物体の接近速度は比較的に速いと推定して、ハイパワーによるロボット動作処理(ステップ1013)が行われる。
 ここで、先に説明しように、ロボット動作処理とは、ワンチップ・マイコン108のポートP23,P24のうちのいずれか一方の出力論理値を第1の論理値に固定することにより、モータ114を流れる電流の向きを、左側のパンチ動作が起動される方向へと設定したのち、他方のポートに出力されるPWMバルス列のデューティー比を所定の値とすることで、モータ114に流れる電流値を設定する処理である。
 このとき、通常パワーによるロボット動作処理(ステップ1014)では、予め決められた通常パワー用の低めのデューティー比によるPWM処理が行われるのに対して、ハイパワーによるロボット動作処理(ステップ1014)では、予め決められたハイパワー用の高めのデューティー比によるPWM処理が行われる。
 ステップ1002に戻って、反射光なしと判定されると(ステップ1002NO)、続いて、左系の処理から右系の処理へと移行して、同様な処理(ステップ1001~1014)が実行される。
 すなわち、右側の高感度受光部IC106aの出力である右高感度受光出力を読み込んだのち、解読されたコードが予め設定された左領域コードと一致した場合に限り、時刻t1の記憶処理が行われる。以後、右側の低感度受光部IC123aの出力である低感度受光出力の読み込みを繰り返しながら、反射光ありが確認されるのを待って、読み取りコードを解読し、解読されたコードが予め設定された右領域コードと一致した場合に限り、時刻t2の記憶処理を実行する。
 しかるのち、時刻t1と時刻t2との時間差Δtを求め、その時間差Δtが基準値Δtrefよりも大きいと判定されると、右側の感知小領域4aへ向かってくる物体の接近速度は比較的に遅いと推定して、通常パワーによるロボット動作処理が行われるのに対して、時間差Δtが基準値Δtrefよりも小さいと判定されたときには、右側の感知小領域4aへ向かってくる物体の接近速度は比較的に速いと推定して、ハイパワーによるロボット動作処理が行われる。
 ここで、右系のロボット動作処理とは、ワンチップ・マイコン108のポートP23,P24のうちのいずれか一方の出力論理値を第1の論理値に固定することにより、モータ114を流れる電流の向きを、右側のパンチ動作が起動される方向へと設定したのち、他方のポートに出力されるPWMバルス列のデューティー比を所定の値とすることで、モータ114に流れる電流値を設定する処理である。
 このとき、通常パワーによるロボット動作処理(ステップ1014)では、予め決められた通常パワー用の低めのデューティー比が設定されるのに対して、ハイパワーによるロボット動作処理(ステップ1014)では、予め決められたハイパワー用の高めのデューティー比が設定されるのである。
 -作用説明-
  この第3変形例に係るロボット玩具によれば、図1~図3に示される構成において、遊技者が左右のパンチ動作に相当するボディーアクションを行って、例えば、右の拳7aを右の物体感知小領域4a内に突き出すと、その突き出すスピードの大小に応じて、ロボット本体1から繰り出される右パンチの強さが変わるから、遊技者のボディーアクションとロボット本体の攻撃動作との応答関係はより一層敏感となり、この種の対戦遊びをより興奮を呼び起こすものとすることかできる。
 なお、以上の説明では、時間差Δtと比較されるべき基準値Δtrefの値を1つとしたが、これをΔtref1,Δtref2,Δtref3・・・の如く複数設定して多段階の比較を行うと共に、比較結果のそれぞれに応じて、デューティー比を多段に用意すれば、より高感度なパワー制御をなし得ることは勿論である。
 <<第2実施形態>>
  -機構説明-
  第1実施形態並びにその変形例にあっては、物体感知小領域の数はいずれも2個であったが、その数は、1個でもよいし、3個以上でもよいことは勿論である。この例では、4個の物体感知小領域が設けられ、それらは別々の攻撃動作の起動に1対1に割り当てられている。
 すなわち、この第2実施形態に係るロボット玩具に登場するロボット本体7は、図6に示される、右下起点の右アッパーカットパンチによる攻撃動作と、左下起点の左アッパーカットパンチによる攻撃動作と、図7に示される、右上起点の右フックパンチによる攻撃動作と、左上起点の左フックパンチによる攻撃動作との4つの攻撃動作を実行可能に構成されている。
 なお、図において、71は頭部、72は胴部、73は背部、74aは右肩部、74bは左肩部、75aは右上腕部、75bは左上腕部、76aは右下腕部、76bは左下腕部、77aは右拳部、77bは左拳部であり、左右脚部の構成については、紙面の関係から割愛されている。
 このロボット本体7の基本的なパンチの繰り出し機構や歩行機構は、第1実施形態のそれとほぼ同様であるが、パンチの種類をアッパーカットパンチとフックパンチとに切り替えるために、この例にあっては、右及び左の上腕部75a,75bの付け根に位置する回動軸の軸線A1が、フックパンチ用の傾斜姿勢とアッパーカットパンチ用の水平姿勢とに切り替えられるように、図示しない傾動機構がロボット本体に組み込まれている。この傾動機構は、ボールねじ突きモータやソレノイドプランジャーなどの専用のアクチュエータ112(図13参照)により駆動される。
 ロボット本体1の背部73の背面には、図6及び図7に示されるように、4個の赤外線投光部21a,21b.22a,22bと2個の赤外線受光部31,32が配置されている。中央上段に位置する赤外線受光部31は、上段左右に位置する2個の赤外線投光部21a,21bから発せられたのち、何らかの物体で反射された赤外線を受光するためのものであり、中央下段に位置する赤外線受光部32は、下段左右に位置する2個の赤外線投稿部22a,22bから発せられたのち、何らかの物体で反射された赤外線を受光するためのものである。
 背面の右上に位置する赤外線投光部21aの投光光軸はは、前方斜め左上方へ向けて赤外線を投光するものであり、これにより、遊技者から見て右上位置に感知小領域41aが形成される。なお、図中、ハッチングで示される51aは、感知限界距離断面を模式的に示す楕円である。
 背面の左上に位置する赤外線投光部21bの投光光軸はは、前方斜め右上方へ向けて赤外線を投光するものであり、これにより、遊技者から見て左上位置に感知小領域41bが形成される。なお、図中、ハッチングで示される51bは、感知限界距離断面を模式的に示す楕円である。
 背面の右下に位置する赤外線投光部22aの投光光軸はは、前方斜め左下へ向けて赤外線を投光するものであり、これにより、遊技者から見て右下位置に感知小領域42aが形成される。なお、図中、ハッチングで示される52aは、感知限界距離断面を模式的に示す楕円である。
 背面の左下に位置する赤外線投光部22bの投光光軸はは、前方斜め右下へ向けて赤外線を投光するものであり、これにより、遊技者から見て左下位置に感知小領域42bが形成される。なお、図中、ハッチングで示される52bは、感知限界距離断面を模式的に示す楕円である。
 -電気的なハードウェア構成-
  第2実施形態に係るロボット玩具の電気的なハードウェア構成に相当する回路図が図13に示されている。図13に示される回路図において、図12に示される第1実施形態の回路図との相違は、傾動機構を駆動するためのアクチュエータ121を含む点、投光回路部を構成する赤外線発光ダイオードが4個ある点、及び4個の発光部に対して2個の受光部ICで対応している点である。
 すなわち、アクチュエータ121は、ボールねじ突きモータやソレノイドプランジャーなどで構成され、右及び左の上腕部75a,75bの付け根に位置する回動軸の軸線A1を、フックパンチ用の傾斜姿勢(図中A1'で示す)とアッパーカットパンチ用の水平姿勢(図中A1で示す)とに切り替えるための傾動機構を切り替え駆動するためのものである。このアクチュエータ121fは、ワンチップ・マイコン108のポートP31,P32から出力される信号で起動される。
 投光回路部は、赤外線投光部21aに含まれる赤外線発光ダイオード115aと、赤外線投光部21bに含まれる赤外線発光ダイオード115bと、赤外線投光部22aに含まれる赤外線発光ダイオード116aと、赤外線投光部22bに含まれる赤外線発光ダイオード116bと、右上領域コードによる赤外線エンコード用のトランジスタ117a、左上領域コードによる赤外線エンコード用のトランジスタ117bと、右下領域コードによる赤外線エンコード用のトランジスタ118a、左下領域コードによる赤外線エンコード用のトランジスタ118bと、キャリア生成用のトランジスタ105とを含んで構成される。
 受光回路部は、赤外線受光部31に対応する受光部IC119、赤外線受光部32に対応する受光部IC120とを含んで構成される。受光部IC119,120は、それぞれ受光した赤外線反射光を光電変換したのち、キャリア周波数成分の抽出、並びに、復調処理を行って、領域コードを復調する作用を有する。
 なお、図示の構成では、4個の物体感知小領域41a,41b,42a,42bを有する物体センサを構成するについて、2個の赤外線受光部31,32を使用したが、それらの感知小領域41a,41b,42a,42bのそれぞれにおいて、投光の干渉の虞がないのであれば、それらの受光部31,32は、4個の投光部21a,21b,22a,22bの中間に置かれた共通な1個の受光部で代用することもできる。
 -電気的なソフトウェア構成-
  第2実施形態に係るロボット玩具の電気的なソフトウェア構成に相当するフローチャートが図26に示されている。同図に示されるように、処理が開始されると、先ず、ロボット本体7の背面の上段中央に位置する赤外線受光部31を構成する受光部IC119から上受光出力を読み込んだのち(ステップ1101)、反射光の有無を判定する(ステップ1102)、ここで、反射光ありと判定されると(ステップ1102YES)、その後、一連の上系処理(ステップ1103~1107)が実行される。
 すなわち、先ず、読み取りコードを解読したのち(ステップ1103)、解読されたコードが左上領域41bに割り当てられた領域コードか、右上領域41aに割り当てられた領域コートかの判定が行われる(ステップ1104、1106)。ここで、左上領域コードと一致するものと判定されると(ステップ1104YES)、直ちに、左上系の検出物体の状態に応じたロボット動作(ステップ1105)が実行されるのに対して、右上領域コードと一致する者と判定されると(ステップ1106YES)、直ちに、右上系の検出物体の状態に応じたロボット動作(ステップ1107)が実行される。
 左上系の検出物体に応じたロボット動作(ステップ1105)においては、マイコン108のポートP31,P32を介してアクチュエータ121を作動させて、ロボロット本体7の胴部72に組み込まれた図示しない傾動機構を作動させることにより、左上腕部75bの付け根の回動軸線A1を、図7に示されるように、A1(水平姿勢)からA1'(傾斜姿勢)へと傾動させる。同時に、マイコン108のポートP23,P24のいずれか一方のポート(例えば、ポートP23)を第1の論理値に固定すると共に、他方のポートに所定デューティ比のPWMパルス列を出力することで、ロボット本体7に内蔵されたモータ114を第1の回転方向へと所定の電流値で回転させて、左上腕部75bを回動させることにより、左のフックパンチによる攻撃動作を実現する。
 右上系の検出物体に応じたロボット動作(ステップ1106)においては、マイコン108のポートP31,P32を介してアクチュエータ121を作動させて、ロボット本体7の胴部72に組み込まれた図示しない傾動機構を作動させることにより、左上腕部75bの付け根の回動軸線A1を、図7に示されるように、A1(水平姿勢)からA1'(傾斜姿勢)へと傾動させる。同時に、マイコン108のポートP23,P24のいずれか一方のポート(例えば、P24)を第1の論理値に固定すると共に、他方のポートに所定デューティ比のPWMパルス列を出力することで、ロボット本体7に内蔵されたモータ114を第2の回転方向へと所定の電流値で回転させて、右上腕部75aを回動させることにより、右のフックパンチによる攻撃動作を実現する。
 これに対して、上系の受光部IC119の出力に反射光なしと判定された場合には(ステップ1102NO)、下系の受光部IC120の出力を読み込んで(ステップ1108)、それに反射光ありと判定された場合に限り(ステップ1109YES)、一連の下系処理(ステップ1108~1114)が実行される。
 すなわち、先ず、読み取りコードを解読したのち(ステップ1110)、解読されたコードが左下領域42bに割り当てられた領域コードか、右下領域42aに割り当てられた領域コートかの判定が行われる(ステップ1111、1113)。ここで、左下領域コードと一致するものと判定されると(ステップ1111YES)、直ちに、左下系の検出物体の状態に応じたロボット動作(ステップ1112)が実行されるのに対して、右下領域コードと一致するものと判定されると(ステップ1113YES)、直ちに、右下系の検出物体の状態に応じたロボット動作(ステップ1114)が実行される。
 左下系の検出物体に応じたロボット動作(ステップ1112)においては、マイコン108のポートP31,P32を介してアクチュエータ121を非作動することにより、ロボット本体7の胴部72に組み込まれた図示しない傾動機構を非作動させることにより、左上腕部75bの付け根の回動軸線A1を、図6に示されるように、A1(水平姿勢)に維持する。同時に、マイコン108のポートP23,P24のいずれか一方のポート(例えば、ポートP23)を第1の論理値に固定すると共に、他方のポートに所定デューティ比のPWMパルス列を出力することで、ロボット本体7に内蔵されたモータ114を第1の回転方向へと所定の電流値で回転させて、左上腕部75bを回動させることにより、左のアッパーカットパンチによる攻撃動作を実現する。
 右下系の検出物体に応じたロボット動作(ステップ1114)においては、マイコン108のポートP31,P32を介してアクチュエータ121を非作動とし、ロボロット本体7の胴部72に組み込まれた図示しない傾動機構を非作動とすることにより、右上腕部75bの付け根の回動軸線A1を、図6に示されるように、A1(水平姿勢)に維持する。同時に、マイコン108のポートP23,P24のいずれか一方のポート(例えば、P24)を第1の論理値に固定すると共に、他方のポートに所定デューティ比のPWMパルス列を出力することで、ロボット本体7に内蔵されたモータ114を第2の回転方向へと所定の電流値で回転させて、右上腕部75aを回動させることにより、右のアッパーカットパンチみによる攻撃動作を実現する。
 -作用説明-
  この第2実施形態に係るロボット玩具は、図6に示される、右下起点の右アッパーカットパンチによる攻撃動作と、左下起点の左アッパーカットパンチによる攻撃動作と、図7に示される、右上起点の右フックパンチによる攻撃動作と、左上起点の左フックパンチによる攻撃動作との4つの攻撃動作を実行可能に構成されている。
 ロボット本体1の背後には、図7に示されるように、右上起点のフックパンチによる攻撃動作の起動に割り当てられた右上の物体感知小領域41aと、左上起点のフックパンチによる攻撃動作の起動に割り当てられた左上の物体感知小領域41bと、右下起点のアッパーカットパンチによる攻撃動作に割り当てられた右下の物体感知小領域42aと、左下起点のアッパーカットパンチ動作に割り当てられた右下の物体感知小領域42bとからなる4個の物体感知小領域が配置されている。
 そして、図7に示されるように、左右のフックパンチに相当するボディーアクションを行って、例えば、図示の如く、右の拳6aを右上の物体感知小領域41aに向けて突き出すと、物体センサ(21a,21b,22a,22b,31,32)の感知作用、並びに、制御部(108)の作用により、右フックパンチによる攻撃動作が実行される。なお、同様にして、例えば、左の拳6bを左上の物体感知小領域41bに突き出せば、左フックパンチによる攻撃動作が実行される。
 一方、図6に示されるように、左右のアッパーカットパンチに相当するボディーアクションを行って、例えば、図示の如く、右の拳6aを右下の物体感知小領域42aに向けて突き出すと、物体センサ(21a,21b,22a,22b,31,32)の感知作用、並びに、制御部(108)の作用により、右アッパーカットパンチによる攻撃動作が実行される。なお、同様にして、例えば、左の拳6bを左下の物体感知小領域42bに突き出せば、左アッパーカットパンチによる攻撃動作が実行される。
 この第2の実施形態によれば、4つの攻撃動作をボディーアクションを介して起動させるものの、4つの攻撃動作の各起点の空間的レイアウトとそれを起動させるための4つの物体感知小領域の空間的レイアウトがほぼ一致するため、このことからも、遊技者は各攻撃動作とそれを起動するための物体感知小領域との関係を自然に理解することができ、より操作性が良好なものとなる。
 <<その他の実施形態>>
  本発明に適用可能なロボット玩具の形態は、ヒト型ロボットには限定されないことは勿論であり、その他、ライオン、トラ、バッファロー等の野獣型ロボット、又はティラノザウルス、トリケラトプス等の恐竜型ロボットにも本発明は適用できる。野獣型ロボットにて実行可能な1又は2以上の攻撃動作としては、左右の前足の爪を用いた攻撃動作、角を用いた攻撃動作、又は牙を用いた攻撃動作等を挙げることができ、恐竜型ロボットにて実行可能な1又は2以上の攻撃動作としては、左右の前足の爪を用いた攻撃動作、又は首を伸ばしての牙や角による攻撃動作等を挙げることができる。
 架空の怪獣ドラゴンに適用した例が図11に示されている。図において、81は尾部、82は脚部、83は爪を有する前脚、84は開閉可能な口を有する頭部、85は牙が臨む口部、86は開閉自在な翼である。
 尾部の基部には、1個の赤外線投光部2と、1個の赤外線受光部3とからなる物体センサが組み込まれ、それにより、ドラゴン型ロボット本体8の後方近辺には、単一の物体感知領域4が形成される。
 遊技者が、矢印A14に示されるように、右手の拳6aを物体感知領域4に向けて突き出すと、赤外線投光部2から後方へと発せられた赤外光9aが、右の拳6aに当たったことで生じた反射光9aが、赤外線受光部3に届くと、先に説明したような、制御部の作用により、ドラゴン型のロボット本体8においては、矢印A15に示されるように、首が伸びて頭部84が前方へ突出すると共に、矢印A16に示されるように、口部85が開いて牙が臨み、さらに、矢印17に示されるように、翼86が開いて、今にも、飛びかかりそうな形態が出現する。
 このように、本発明は、1又は2以上の攻撃動作を実行可能な様々な形態のロボット玩具に適用することができる。
 本発明によれば、ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の操作部等の付属品を必要としないロボット玩具を提供することができる。
 1   ヒト型二足歩行式ロボット本体
 1A  剣の打ち下ろし動作が可能なヒト型二足歩行式ロボット本体
 2a  赤外線投光部
 2b  赤外線投光部
 3a  赤外線受光部
 3b  赤外線受光部
 4a  右感知小領域
 4b  左感知小領域
 5a  右感知小領域の感知限界断面
 6   遊技者
 6a  遊技者の右拳
 6b  遊技者の左拳
 6c  遊技者の右指剣
 7   左右のフック動作とアッパー動作とが実行可能なヒト型ロボット本体
 7a  遊技者の右拳
 7b  遊技者の左拳
 8   ドラゴン型ロボット本体
 9a  赤外線の照射光
 9b  赤外線の反射光
 10a 車輪
 11  頭部
 12  胴部
 13  背部
 14a 右肩部
 14b 左肩部
 15a 右上腕部
 15b 左上腕部
 16a 右下腕部
 17a 右拳部
 17a'剣を把持した右手
 17b 左拳部
 18a 右脚部
 18b 左脚部
 19a 右足部
 19b 左足部
 21a 赤外線投光部
 21b 赤外線投光部
 22a 赤外線投光部
 22b 赤外線投光部
 31  赤外線受光部
 32  赤外線受光部
 41a 右上感知小領域
 41b 左上感知小領域
 42a 右下感知小領域
 42b 左下感知小領域
 51a 右上感知小領域の感知限界断面
 51b 左上感知小領域の感知限界断面
 52a 右下感知小領域の感知限界断面
 52b 左下感知小領域の感知限界断面
 71  頭部
 72  胴部
 73  背部
 74a 右肩部
 74b 左肩部
 75a 右上腕部
 75b 左上腕部
 76a 右下腕部
 76b 左下腕部
 77a 右拳部
 77b 左拳部
 81  尾部
 82  脚部
 83  前足部
 84  開閉可能な口を有する頭部
 85  牙を有する口部
 86  翼
 A1  右肩部の回動軸線
 A2  右肘部の回動軸線
 A3  脚付け根の回動軸線
 A4  遊技者の右拳の突き出し方向を示す矢印
 A5  ロボット本体の右拳の突き出し方向を示す矢印
 A6  遊技者の右拳の突き出し方向を示す矢印
 A7  ロボット本体の右拳の突き出し方向を示す矢印
 A8  遊技者の右拳の突き出し方向を示す矢印
 A9  ロボット本体の右拳の突き出し方向を示す矢印
 A10 ロボット本体の右アッパーのスイング軌跡を示す矢印
 A11 ロボット本体の右フックのスイング軌跡を示す矢印
 A12 遊技者の指剣の振り下ろしのスイング軌跡を示す矢印
 A13 ロボット本体の剣振り下ろしのスイング軌跡を示す矢印
 A14 遊技者の右拳の突き出し方向を示す矢印
 A15 ドラゴンロボットの首の伸張方向を示す矢印
 A16 ドラゴンロボットの口の開き方向を示す矢印
 A17 ドラゴンロボットの羽の浮き上がり方向を示す矢印
 FL  床面
 101a,101b 電池
 102 電源スイッチ
 103a 赤外線投光部2aに含まれる赤外線発光ダイオード
 103b 赤外線投光部2bに含まれる赤外線発光ダイオード
 104a 右領域コードによる赤外線エンコード用のトランジスタ
 104b 左領域コードによる赤外線エンコード用のトランジスタ
 105  キャリア生成用のトランジスタ
 106a 赤外線受光部3aに対応する受光部IC
 106b 赤外線受光部3bに対応する受光部IC
 107  動作表示灯を構成する赤色発光ダイオード
 108  ワンチップ・マイクロコンピュータ
 109a 右マイク
 109b 左マイク
 110a 右A/Dコンバータ
 110b 左A/Dコンバータ
 111  各種設定用のDIPスイッチ
 112  スピーカ
 113  H型トランジスタブリッジ回路IC
 114  駆動用モータ
 115a 赤外線投光部21aに含まれる赤外線発光ダイオード
 115b 赤外線投光部21bに含まれる赤外線発光ダイオード
 116a 赤外線投光部22aに含まれる赤外線発光ダイオード
 116b 赤外線投光部22bに含まれる赤外線発光ダイオード
 117a 右上領域コードによる赤外線エンコード用のトランジスタ
 117b 左上領域コードによる赤外線エンコード用のトランジスタ
 118a 右下領域コードによる赤外線エンコード用のトランジスタ
 118b 左下領域コードによる赤外線エンコード用のトランジスタ
 119  赤外線受光部31に対応する受光部IC
 120  赤外線受光部32に対応する受光部IC
 121  肩部の傾動機構を駆動するためのアクチュエータ
 122a 右低感度受光部を構成する受光部IC
 122b 左低感度受光部を構成する受光部IC
 123a 赤外光低減フィルタ
 123b 赤外光低減フィルタ

Claims (30)

  1.  1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具であって、
     前記ロボット本体の近辺に物体感知領域を有する物体センサと、
     前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御する制御部とを包含する、ロボット玩具。
  2.  前記物体の状態により選択される1又は2以上の前記攻撃動作の実行は、前記物体の状態により決定される実行態様にて行われる、請求項1に記載のロボット玩具。
  3.  前記物体の状態が、前記物体感知領域に何らかの物体が出現したときには、前記攻撃動作の実行態様は、前記攻撃動作を単発的に実行すべきものとして決定される、請求項2に記載のロボット玩具。
  4.  前記物体の状態が、前記物体感知領域に何らかの物体が所定時間以上に滞在しているときには、前記攻撃動作の実行態様は、前記攻撃動作を所定の複数回、一定時間、又はその滞在中に亘り、サイクリックに実行すべきものとして決定される、請求項2に記載のロボット玩具。
  5.  前記物体の状態が、前記物体感知領域に何らかの物体が所定速度以上で接近しているときには、前記攻撃動作の実行態様は、前記攻撃動作を通常よりも強力なパワーで実行すべきものとして決定される、請求項2に記載のロボット玩具。
  6.  前記物体感知領域は、前記ロボット本体の周面のうちで、想定される遊技者と相対する面の近辺に設定される、請求項1に記載のロボット玩具。
  7.  前記想定される遊技者と相対する前記面が、前記ロボット本体の背面である、請求項6に記載のロボット玩具。
  8.  前記想定される遊技者と相対する前記面が、前記ロボット本体の左、及び/又は、右の側面である、請求項6に記載のロボット玩具。
  9.  前記物体感知領域は、前記ロボット本体の想定される遊技者と相対する面に沿って分布される複数の小領域からなり、それら複数の小領域のそれぞれは、前記攻撃動作の1又は2以上と予め関連付けがなされており、かつ
     前記制御部は、前記複数の小領域のそれぞれ毎に、その小領域に関連づけられた1又は2以上の前記攻撃動作の実行を制御する、請求項1に記載のロボット玩具。
  10.  前記複数の小領域のそれぞれを前記ロボット本体と対面する側から観察したときの空間的レイアウトは、前記複数の攻撃動作の起点のそれぞれの空間的レイアウトと整合する、請求項9に記載のロボット玩具。
  11.  前記複数の小領域のそれぞれは、前記ロボット本体の背面又は左、及び/又は右、の側面に沿って分布する、請求項10に記載のロボット玩具。
  12.  前記ロボット本体は、左拳を用いた各種パンチ攻撃や左手に把持した武器による各種攻撃等々の左起点の攻撃動作と右拳を用いた各種パンチ攻撃や右手に把持した武器による各種攻撃等々の右起点の攻撃動作とを有するヒト型ロボットであり、
     前記物体感知領域は、前記ロボット本体の背面又は左右両側面に沿って、左右にレイアウトされる2個の小領域を含み、かつ
     前記制御部は、前記2個の小領域のそれぞれ毎に、その小領域における物体の状態を解析し、左側の前記小領域の解析結果に基づいて、前記左起点の攻撃動作の実行を制御し、右側の前記小領域の解析結果に基づいて、前記右起点の攻撃動作の実行を制御する、請求項11に記載のロボット玩具。
  13.  前記ロボット本体は、左拳を用いたストレートパンチやフックパンチ攻撃等々の左上起点の攻撃動作と、右拳を用いたストレートパンチやフックパンチ攻撃等々の右上起点の攻撃動作と、左拳を用いたアッパーパンチ攻撃等々の左下起点の攻撃動作と、右拳を用いたアッパーパンチ攻撃等々の右下起点の攻撃動作と、を有するヒト型ロボットであり、
     前記物体感知領域は、前記ロボット本体の背面又は左右両側面に沿って、上下左右にレイアウトされる4個の小領域を含み、かつ
     前記指令生成部は、前記4個の小領域のそれぞれ毎に、その小領域における物体の状態を解析し、左上の前記小領域の解析結果に基づいて、前記左上起点の攻撃動作の実行を制御し、右上の前記小領域の解析結果に基づいて、前記右上起点の攻撃動の実行を制御し、左下の前記小領域の解析結果に基づいて、前記左下起点の制御動作の実行を制御し、右下の前記小領域の解析結果に基づいて、前記右下起点の攻撃動作の実行を制御する、請求項11に記載のロボット玩具。
  14.  前記物体センサが、前記ロボット本体側にあって、検出媒体となる放射体を前記物体感知領域へと送り出すトランスミッタと、前記ロボット本体側にあって、前記物体感知領域に存在する物体で反射された前記放射体を受け取るレシーバとを含み、かつ物体検出距離レンジが前記感知領域に整合するように感度調整され、前記レシーバからの出力に基づいて前記感知領域に物体の有無を示す信号を生成するようにした反射式物体センサである、請求項1に記載のロボット玩具。
  15.  前記感知領域は複数の小領域からなるものであり、かつ前記トランスミッタは前記小領域のそれぞれに検出媒体となる放射体を送り出す複数個のトランスミッタからなり、前記レシーバは前記小領域のそれぞれに存在する物体で反射された前記放射体を受け取る1又は2以上のレシーバからなり、さらに、各反射放射体がいずれの前記小領域から到来したかを識別可能とするための特徴付け処理を含む、請求項14に記載のロボット玩具。
  16.  前記トランスミッタは、前記放射体の送り出し方向を調整できるように角度調整可能に取り付けられている、請求項15に記載のロボット玩具。
  17.  前記特徴付け処理が、各反射放射体がいずれの前記小領域から到来したかを識別可能とするために、前記複数のトランスミッタのそれぞれからの放射体の送り出しタイミングを互いに異ならせるものである、請求項14に記載のロボット玩具。
  18.  前記特徴付け処理が、各反射放射体がいずれの前記小領域から到来したかを識別可能とするために、前記複数のトランスミッタのそれぞれから送り出される放射体に固有の識別符号を組み込むものである、請求項14に記載のロボット玩具。
  19.  前記検出媒体となる放射体が、赤外線をその一例として含む光、超音波をその一例として含む音波、又はマイクロ波をその一例として含む電磁波である、請求項15に記載のロボット玩具。
  20.  前記ロボット本体が、それぞれ、1又は2以上の攻撃動作が可能なヒト型ロボット、ライオン、トラ、バッファロー等の野獣型ロボット、又はティラノザウルス、トリケラトプス等の恐竜型ロボットである、請求項1に記載のロボット玩具。
  21.  前記ヒト型ロボットにて実行可能な1又は2以上の攻撃動作が、左右のストレート、フック、アッパー等のパンチ攻撃動作、又は刀剣等の武器を手にしての攻撃動作、を含む、請求項20に記載のロボット玩具。
  22.  前記野獣型ロボットにて実行可能な1又は2以上の攻撃動作が、左右の前足の爪を用いた攻撃動作、角を用いた攻撃動作、又は牙を用いた攻撃動作、を含む、請求項20に記載のロボット玩具。
  23.  前記恐竜型ロボットにて実行可能な1又は2以上の攻撃動作が、左右の前足の爪を用いた攻撃動作、又は首を伸ばしての牙や角による攻撃動作、を含む、請求項20に記載のロボット玩具。
  24.  前記ロボット本体は、走行移動又は歩行移動が可能とされている、請求項1に記載のロボット玩具。
  25.  手動移動モードと自動移動モードとを有し、
     前記手動移動モードは、遊技者のボディーアクションに応答して走行移動乃至歩行移動を実行するものであり、かつ
     前記自動移動モードは、プリセットされた移動軌跡にしたがって移動するプリセット移動モード、又は任意にプログラムされた移動軌跡にしたがって移動するプログラマブル移動モードを含む、請求項24に記載のロボット玩具。
  26.  前記自動モードに設定中に、なんなからのボディーアクションが物体センサを介して検出されたとき、前記自動モードから前記手動モードへと動作モードを強制的に切り換える処理を含む、請求項25に記載のロボット玩具。
  27.  前記走行移動又は歩行移動を、左右2個のマイクにより敵方であるロボット本体から発せられる音を頼りに相手の方向を認識して、自発的にに進路を取りつつ行なうサーチ移動モードを有する、請求項24に記載のロボット玩具。
  28.  1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作の制御方法であって、
     前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、
     前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとをコンピュータにより実行する、ロボット玩具における攻撃動作の制御方法。
  29.  1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作制御用のコンピュータプログラムであって、
     前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、
     前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとを包含する、ロボット玩具における攻撃動作制御用のコンピュータプログラム。
  30.  1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作制御用のコンピュータプログラムを格納した記録媒体であって、
     前記コンピュータプログラムが、
      前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、
     前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとを包含する、記録媒体。
PCT/JP2014/079145 2014-10-31 2014-10-31 ロボット玩具 WO2016067474A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2014/079145 WO2016067474A1 (ja) 2014-10-31 2014-10-31 ロボット玩具
JP2016556174A JP6437566B2 (ja) 2014-10-31 2014-10-31 ロボット玩具

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/079145 WO2016067474A1 (ja) 2014-10-31 2014-10-31 ロボット玩具

Publications (1)

Publication Number Publication Date
WO2016067474A1 true WO2016067474A1 (ja) 2016-05-06

Family

ID=55856852

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/079145 WO2016067474A1 (ja) 2014-10-31 2014-10-31 ロボット玩具

Country Status (2)

Country Link
JP (1) JP6437566B2 (ja)
WO (1) WO2016067474A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018151317A1 (ja) * 2017-02-20 2018-08-23 友樹 橋本 多関節ロボットにおける動作教示・再現駆動システム及び動作教示・再現駆動方法
CN109955268A (zh) * 2019-04-25 2019-07-02 哈尔滨玄智科技有限公司 一种凸轮蓄能模块化凿击机构及格斗机器人
JP2020137550A (ja) * 2019-02-26 2020-09-03 株式会社タカラトミー 格闘ゲーム装置
WO2020255814A1 (ja) * 2019-06-17 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP2020204890A (ja) * 2019-06-17 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント ロボットシステム
CN113413620A (zh) * 2021-06-25 2021-09-21 奥飞娱乐股份有限公司 健身同步玩具
JP7041904B1 (ja) 2020-11-30 2022-03-25 株式会社タカラトミー 玩具システム
US11519456B2 (en) * 2017-03-29 2022-12-06 Groove X, Inc. Joint structure appropriate for robot joint

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0548711B2 (ja) * 1987-07-21 1993-07-22 Takara Co Ltd
JPH07325688A (ja) * 1994-05-30 1995-12-12 Casio Comput Co Ltd 画像表示装置
JPH08215416A (ja) * 1995-02-15 1996-08-27 Sony Corp 対戦ロボット玩具システム
JP2001062157A (ja) * 1999-08-24 2001-03-13 Bandai Co Ltd 電子玩具装置
JP2008080431A (ja) * 2006-09-27 2008-04-10 Advanced Telecommunication Research Institute International ロボットシステム
JP2009000286A (ja) * 2007-06-21 2009-01-08 Taito Corp ゲームシステム及び遠隔操作可能なゲームロボット
WO2013183328A1 (ja) * 2012-06-05 2013-12-12 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び玩具システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0548711A (ja) * 1991-08-09 1993-02-26 Toshiba Corp 移動通信携帯端末装置
JPH07178256A (ja) * 1993-12-22 1995-07-18 Casio Comput Co Ltd 電子機器
JP2001277163A (ja) * 2000-04-03 2001-10-09 Sony Corp ロボットの制御装置及び制御方法
JP2003053050A (ja) * 2001-08-20 2003-02-25 Toybox:Kk 操縦玩具及びその操縦機

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0548711B2 (ja) * 1987-07-21 1993-07-22 Takara Co Ltd
JPH07325688A (ja) * 1994-05-30 1995-12-12 Casio Comput Co Ltd 画像表示装置
JPH08215416A (ja) * 1995-02-15 1996-08-27 Sony Corp 対戦ロボット玩具システム
JP2001062157A (ja) * 1999-08-24 2001-03-13 Bandai Co Ltd 電子玩具装置
JP2008080431A (ja) * 2006-09-27 2008-04-10 Advanced Telecommunication Research Institute International ロボットシステム
JP2009000286A (ja) * 2007-06-21 2009-01-08 Taito Corp ゲームシステム及び遠隔操作可能なゲームロボット
WO2013183328A1 (ja) * 2012-06-05 2013-12-12 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び玩具システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SUMIO HORIMOTO ET AL.: "Development of Fighting Game Using Small Humanoid Robot and Wii Remote Control", DAI 71 KAI (HEISEI 21 NEN) ZENKOKU TAIKAI KOEN RONBUNSHU (3)', INFORMATION PROCESSING SOCIETY OF JAPAN, 10 March 2009 (2009-03-10), pages 3-317 - 3-318 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7055416B2 (ja) 2017-02-20 2022-04-18 友樹 橋本 多関節ロボットにおける動作教示・再現駆動システム及び動作教示・再現駆動方法
JPWO2018151317A1 (ja) * 2017-02-20 2020-01-09 友樹 橋本 多関節ロボットにおける動作教示・再現駆動システム及び動作教示・再現駆動方法
WO2018151317A1 (ja) * 2017-02-20 2018-08-23 友樹 橋本 多関節ロボットにおける動作教示・再現駆動システム及び動作教示・再現駆動方法
US11519456B2 (en) * 2017-03-29 2022-12-06 Groove X, Inc. Joint structure appropriate for robot joint
JP2020137550A (ja) * 2019-02-26 2020-09-03 株式会社タカラトミー 格闘ゲーム装置
JP7220585B2 (ja) 2019-02-26 2023-02-10 株式会社タカラトミー 格闘ゲーム装置
CN109955268A (zh) * 2019-04-25 2019-07-02 哈尔滨玄智科技有限公司 一种凸轮蓄能模块化凿击机构及格斗机器人
JP2020204890A (ja) * 2019-06-17 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント ロボットシステム
JP2020203341A (ja) * 2019-06-17 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
WO2020255814A1 (ja) * 2019-06-17 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP7382743B2 (ja) 2019-06-17 2023-11-17 株式会社ソニー・インタラクティブエンタテインメント ロボットシステム
JP7041904B1 (ja) 2020-11-30 2022-03-25 株式会社タカラトミー 玩具システム
JP2022086608A (ja) * 2020-11-30 2022-06-09 株式会社タカラトミー 玩具システム
CN113413620A (zh) * 2021-06-25 2021-09-21 奥飞娱乐股份有限公司 健身同步玩具

Also Published As

Publication number Publication date
JPWO2016067474A1 (ja) 2017-08-03
JP6437566B2 (ja) 2018-12-12

Similar Documents

Publication Publication Date Title
JP6437566B2 (ja) ロボット玩具
US20070060018A1 (en) Toy tank cannon with infra-red capabilities
US8632376B2 (en) Robotic game systems and methods
US6939192B1 (en) Programmable toy with communication means
US6254486B1 (en) Gaming system employing successively transmitted infra-red signals
US20160038842A1 (en) Interactive Toy Systems and Methods
US20130288563A1 (en) Interactive toy system
US20130324004A1 (en) Remote-controlled toy with bumper sensor
US8747179B2 (en) Robot toy
JP2002536031A (ja) 相互作用を行う玩具
JP2004536715A (ja) 位置および通信システムならびに方法
WO2016072132A1 (ja) 情報処理装置、情報処理システム、実物体システム、および情報処理方法
US20150079573A1 (en) Storytelling environment: story and playgroup creation
US8075400B2 (en) Game apparatus
WO2017190679A1 (zh) 对战设备自动控制方法、对战设备及可读存储介质
US10369487B2 (en) Storytelling environment: mapping virtual settings to physical locations
US9927235B2 (en) Interactive turret robot
US20140349547A1 (en) Wirelessly controlled action figures
JP2018122033A (ja) 玩具および教材
CN109663368B (zh) 一种智能玩具随从的方法及应用该方法的玩具机械人
JP2003181152A (ja) ロボット玩具
JP5210570B2 (ja) ゲーム機
JP2019170544A (ja) 動作装置、動作玩具及びシステム
JP6274718B2 (ja) 操作デバイスおよびゲーム装置
Behnke et al. NimbRo RS: A low-cost autonomous humanoid robot for multi-agent research

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14905098

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016556174

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14905098

Country of ref document: EP

Kind code of ref document: A1