WO2013183328A1 - 情報処理装置、情報処理方法、プログラム及び玩具システム - Google Patents
情報処理装置、情報処理方法、プログラム及び玩具システム Download PDFInfo
- Publication number
- WO2013183328A1 WO2013183328A1 PCT/JP2013/056303 JP2013056303W WO2013183328A1 WO 2013183328 A1 WO2013183328 A1 WO 2013183328A1 JP 2013056303 W JP2013056303 W JP 2013056303W WO 2013183328 A1 WO2013183328 A1 WO 2013183328A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- character
- block
- information processing
- interaction event
- attribute
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H33/00—Other toys
- A63H33/04—Building blocks, strips, or similar building parts
- A63H33/042—Mechanical, electrical, optical, pneumatic or hydraulic arrangements; Motors
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F3/00—Board games; Raffle games
- A63F3/00003—Types of board games
- A63F3/00075—War games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F3/00—Board games; Raffle games
- A63F3/00643—Electric board games; Electric features of board games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/16—Dolls made of parts that can be put together
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
- A63H3/50—Frames, stands, or wheels for dolls or toy animals
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
- A63F13/5375—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/58—Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F3/00—Board games; Raffle games
- A63F3/00173—Characteristics of game boards, alone or in relation to supporting structures or playing piece
- A63F3/00574—Connections between board and playing pieces
- A63F2003/00583—Connections between board and playing pieces with pin and hole
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F3/00—Board games; Raffle games
- A63F3/00643—Electric board games; Electric features of board games
- A63F2003/00646—Electric board games; Electric features of board games with illumination of playing field or playing piece
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F3/00—Board games; Raffle games
- A63F3/00643—Electric board games; Electric features of board games
- A63F2003/00662—Electric board games; Electric features of board games with an electric sensor for playing pieces
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F3/00—Board games; Raffle games
- A63F3/00643—Electric board games; Electric features of board games
- A63F2003/00678—Electric board games; Electric features of board games with circuits closed by mechanical means
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
- A63F2300/1093—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
Definitions
- the present disclosure relates to an information processing apparatus, an information processing method, a program, and a toy system.
- Patent Document 1 proposes a technique for determining success or failure of a remote attack using an image from a camera mounted on an attacking robot in a battle between robots.
- an attribute management unit that manages a variable attribute value associated with each of one or more characters existing in real space, and a captured image from a camera that captures the real space
- a detection unit that detects an interaction event between one character and a real object
- a setting unit that sets a rule for changing the attribute value of the first character according to the interaction event
- the attribute management unit is provided with an information processing apparatus that changes the attribute value of the first character in accordance with the rule set by the setting unit when the interaction event is detected by the detection unit.
- an information processing method executed by a computer that controls a battle system in which one or more characters existing in a real space participate, in which a first character and a real object Setting a rule for changing a variable attribute value associated with the first character in accordance with an interaction event, and using the captured image from the camera that captures the real space, the interaction
- an information processing method including detecting an event and changing the attribute value of the first character in accordance with the set rule when the interaction event is detected.
- a computer that controls a battle system in which one or more characters existing in a real space participate can manage variable attribute values associated with each of the one or more characters.
- An attribute management unit a detection unit that detects an interaction event between the first character and the real object using a captured image from the camera that captures the real space, and the first according to the interaction event.
- a setting unit that sets a rule for changing the attribute value of the character, and the attribute management unit is set by the setting unit when the interaction event is detected by the detection unit
- a program for changing the attribute value of the first character according to the rule is provided.
- one or more character casings formed by assembling modularized blocks and variable attribute values associated with each of the one or more characters are managed.
- a control module that detects an interaction event between the first character and the real object using a captured image from a camera that captures the real space, and participates in the interaction event.
- a toy system is provided that changes the attribute value of the first character in accordance with different rules depending on the type of the block.
- users of a wide range of age groups can enjoy a battle in a battle between characters existing in a real space.
- FIG. 11 is an explanatory diagram for describing an example of a hardware configuration of an information processing device. It is explanatory drawing for demonstrating an example of a function structure of a control module. It is explanatory drawing for demonstrating an example of a structure of block data.
- Drawing 1 is an explanatory view for explaining an outline of toy system 1 concerning one embodiment.
- the toy system 1 includes one or more characters existing in the real space.
- FIG. 1 two characters Ch1 and Ch2 are shown.
- a character refers to a real object that is the subject of a battle.
- a variable attribute value is associated with each character, and the attribute value can be used to determine whether or not the battle has been won or lost.
- a humanoid character is illustrated in FIG. 1, the character may have other shapes (for example, an animal type).
- the toy system 1 can include items other than characters. The type of item may vary.
- FIG. 1 is an explanatory view for explaining an outline of toy system 1 concerning one embodiment.
- the toy system 1 includes one or more characters existing in the real space.
- two characters Ch1 and Ch2 are shown.
- a character refers to a real object that is the subject of a battle.
- a variable attribute value is associated with each character, and the attribute value can be used to determine whether
- the control module is mounted on the information processing apparatus 100, for example.
- the control module controls a battle in the toy system 1.
- the battle proceeds according to various events that can occur in the real space according to dynamically set rules. Rules are also set according to events that can occur in real space.
- an event that is detected in order to advance a battle is called an interaction event.
- An event detected for setting a rule is called a rule event.
- the interaction event which character participates in the battle, which character and which character are in an enemy (or ally) relationship, what event is detected as an interaction event, It may include how the attribute value of the character changes.
- Event is typically detected using a captured image from a camera.
- input data from a sensor or microphone provided in the character or field may be used for event detection.
- a character viewpoint camera hereinafter referred to as a character camera
- a camera hereinafter referred to as a field camera
- a camera included in the information processing apparatus 100 may be used as a field camera.
- Each character has an actuator and operates as a so-called robot. Each character moves in response to an instruction from the user or autonomously, or executes an action for an attack.
- the actuator can also be driven to express a reaction in response to an interaction event.
- the battle conditions can be changed flexibly. Changes in character composition, hostile relationships, addition of new items to the field, etc. are allowed even during the battle.
- Each character is formed by assembling modularized blocks in order to be able to flexibly change the battle conditions. The user can enjoy a battle under various conditions by rearranging the blocks. Battle fields, or items other than characters may also be formed by assembling modularized blocks.
- FIG. 2 shows an example of the configuration of the casing of the character Ch1 illustrated in FIG.
- the character Ch1 is formed by assembling four modularized blocks M11, M12, M13, and M14.
- the head block M11 is a block corresponding to the head of the character.
- the head block M11 has a character camera Cm1 and protrusions Co11a and Co11b.
- the body block M12 is a block corresponding to the character's body.
- the body block M12 has a depression Co12a.
- the body block M12 includes a chest, a waist, a pair of arms, and a pair of legs. Each of the arm portions can be rotated in the R1 direction.
- the chest is rotatable in the R2 direction with respect to the waist.
- the leg can be bent in the R3 direction at the joint corresponding to the knee.
- Each arm portion of the body block M12 has a hole Co12b.
- the accessory block M13 has a recess Co13. By inserting the protrusion Co11a of the head block M11 into the recess Co13 of the accessory block M13, the head block M11 and the accessory block M13 are connected to each other.
- the weapon block M14 has a protrusion Co14. By inserting the protrusion Co14 of the weapon block M14 into the hole Co12b of the body block M12, the weapon block M14 is connected to the arm portion of the body block M12.
- FIG. 3 shows an example of the configuration of the casing of the character Ch2 illustrated in FIG.
- the character Ch2 is formed by assembling four modularized blocks M21, M22, M23 and M24.
- the head block M21 is a block corresponding to the head of the character.
- the body block M22 is a block corresponding to the character's body.
- the head block M21 and the body block M22 are connected to each other.
- the body block M22 includes a chest, a waist, a pair of arms, and a pair of legs. Each of the arm portions can be rotated in the R1 direction.
- the chest is rotatable in the R2 direction with respect to the waist.
- the leg can be bent in the R3 direction at the joint corresponding to the knee.
- the head block M21 and the accessory block M23 are connected to each other.
- the weapon block M24 is connected to the arm portion of the body block M22.
- FIG. 4 shows an example of the configuration of the field item Fi1 exemplified in FIG.
- the field item Fi1 is formed by assembling three modularized blocks M31, M32, and M33.
- the base block M31 has a large number of depressions Co31.
- the plant block M32 has a protrusion Co32. By inserting the protrusion Co32 of the plant block M32 into the recess Co31 of the base block M31, the base block M31 and the plant block M32 are connected to each other.
- the plant block M32 further includes an actuator Ac32 and an attachment At32. When the actuator Ac32 is driven, the attachment At32 leaves the plant block M32 and falls in the V1 direction.
- the fountain block M33 has a protrusion Co33. By inserting the protrusion Co33 of the fountain block M33 into the recess of the base block M31, the base block M31 and the fountain block M33 are connected to each other.
- the toy system 1 may include a block of a type not shown, such as a block on which a field camera is mounted or a block on which a control module for controlling a battle is mounted.
- a plurality of head blocks having character cameras having different performances may be prepared.
- the angle of view of the lens affects the range that can be attacked by a remote attack event described later. Therefore, if a plurality of head blocks having character cameras with different angles of view are prepared, the user can adjust the strength of the character through selection of the head blocks.
- the character camera may be exchangeable with another character camera having different performance.
- FIG. 5 is an explanatory diagram for explaining an example of a hardware configuration of a character.
- Each character includes at least a head block M01 and a body block M02. Further, an accessory block M03 and a weapon block M04 can be connected to each character.
- the head block M01 includes a bus 10, a character camera 11, a microphone 12, a speaker 13, a communication interface (I / F) 14, a memory 15, and a controller 16.
- the bus 10 connects the character camera 11, the microphone 12, the speaker 13, the communication I / F 14, the memory 15, and the controller 16 to each other.
- the microphone 12 senses sound and generates an input sound signal.
- the speaker reproduces sound from the output sound signal.
- the communication I / F 14 establishes a communication connection with the control module or other character according to any wireless communication protocol or wired communication protocol.
- the memory 15 stores an identifier for identifying the individual head block M01, and data and a program used by the controller 16 to control the head block M01.
- Controller 16 controls head block M01. For example, the controller 16 transmits a captured image captured by the character camera 11 to the control module. In addition, the controller 16 transmits an input audio signal generated by the microphone 12 to the control module. In addition, the controller 16 transfers the output audio signal received from the control module to the speaker 13 and causes the speaker 13 to reproduce the audio. Furthermore, the controller 16 recognizes the identifiers of other blocks directly or indirectly connected to the head block M01 via the bus 10, and notifies the control module of a list of identifiers of the blocks constituting the player character. May be.
- the body block M02 includes a bus 20, an actuator 21, a sensor 22, a memory 23, and a controller 24.
- the bus 20 connects the actuator 21, the sensor 22, the memory 23, and the controller 24 to each other.
- the actuator 21 drives the movable part of the body block M02 (for example, the shoulder, waist and knees of the character illustrated in FIGS. 2 and 3).
- the sensor 22 detects the contact of any real object with the character and generates a sensor signal.
- the memory 23 stores an identifier for identifying the individual body block M02, and data and programs used by the controller 24 to control the body block M02.
- Controller 24 controls body block M02. For example, the controller 24 transfers a drive signal received from the control module via the communication I / F 14 of the head block M01 to the actuator 21, and causes the character to execute the instructed action. Further, the controller 24 transmits sensor data generated by the sensor 22 to the control module.
- the accessory block M03 includes a bus 30 and a memory 31.
- the memory 31 stores an identifier for identifying the individual accessory block M03.
- the identifier stored by the memory 31 is read by the controller 16 of the head block M01 via the bus 30 and the bus 10.
- the accessory block M03 has a memory for storing an identifier for identifying the individual as in the example of FIG. It does not have to be provided.
- the weapon block M04 includes a bus 40 and a memory 41.
- the memory 41 stores an identifier for identifying an individual of the weapon block M04.
- the identifier stored by the memory 41 is read by the controller 16 of the head block M01 via the bus 40, the bus 20, and the bus 10.
- the weapon block M04 may not include a memory for storing the identifier.
- the information processing apparatus 100 illustrated in FIG. 1 includes a control module that controls a battle in the toy system 1.
- the information processing apparatus 100 may be a general-purpose device such as a PC (Personal Computer), a smartphone, a PDA (Personal Digital Assistants), or a game terminal, or a dedicated device that is mounted for a battle between characters. It may be.
- FIG. 6 is an explanatory diagram for describing an example of a hardware configuration of the information processing apparatus 100. Referring to FIG. 6, the information processing apparatus 100 includes a camera 102, a user interface 104, a storage 108, a display 110, a communication I / F 112, a bus 116, and a control unit 118.
- the camera 102 has an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and captures an image.
- the camera 102 may be used as the field camera described above.
- An imaging device installed separately from the information processing apparatus 100 may be used as a field camera.
- the user interface 104 includes an input device such as a touch sensor, a pointing device, a keyboard, a button, or a switch, for example, and provides a user interface for the user to operate the information processing apparatus 100.
- the storage 108 has a storage medium such as a semiconductor memory or a hard disk, and stores data and programs used by the control unit 118.
- the display 110 includes an LCD (Liquid Crystal Display), an OLED (Organic light-Emitting Diode), or a CRT (Cathode Ray Tube), and displays an output image of the toy system 1.
- a display device installed separately from the information processing apparatus 100 may be used for displaying an output image.
- the communication I / F 112 establishes a communication connection between characters and other items included in the toy system 1 according to an arbitrary wireless communication protocol or a wired communication protocol.
- the bus 116 interconnects the camera 102, the user interface 104, the storage 108, the display 110, the communication I / F 112, and the control unit 118.
- the control unit 118 corresponds to a processor such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor).
- the control unit 118 operates various functions of the control module by executing a program stored in the storage 108 or another storage medium.
- FIG. 7 is a block diagram illustrating an example of a functional configuration of a control module that can operate in the information processing apparatus 100 illustrated in FIG. 6.
- the information processing apparatus 100 includes a block database (DB) 120, an attribute DB 130, a rule DB 140, a setting unit 150, a detection unit 160, an attribute management unit 170, an item control unit 180, and a display control unit 190.
- DB block database
- the block DB 120 is a database that stores block data defined in advance for known blocks that can be used in the toy system 1.
- FIG. 8 shows a configuration of block data 121 as an example stored by the block DB 120.
- the block data 121 has five types of data items, “block ID”, “type”, “name”, “appearance”, and “action pattern”.
- “Block ID” is an identifier for uniquely identifying each block.
- “Type” represents the type of each block.
- the blocks M11 and M21 are head blocks.
- the block M12 is a body block.
- the block M13 is an accessory block.
- Block M14 is a weapon block.
- the block M24 is a weapon block for remote attack.
- the block M31 is a base block for fields.
- Blocks M32 and M33 are field blocks.
- “Name” represents the name of each block.
- “Appearance” is data including an image feature amount representing the appearance feature of each block.
- the image feature amount is used for recognizing a block shown in the captured image.
- “Action pattern” is data that identifies an action that each block can execute.
- the head blocks M11 and M21 can output sound and emit light.
- the body block M12 can rotate the right arm part, the left arm part, and the waist part, and can walk.
- the attribute DB 130 is a database that stores attribute data indicating variable attribute values associated with each character.
- a head block having a character camera has character identity. That is, even if the body block, accessory block, and weapon block are replaced, the character is the same if the head block is the same.
- other types of blocks may have character identity.
- FIG. 9A shows a first example of the configuration of the attribute data 131 stored by the attribute DB 130.
- the attribute data 131 has three types of data items: “head block ID”, “character ID”, and “life”.
- “Head block ID” represents a block ID of a head block linked to each character.
- the “character ID” is an identifier for uniquely identifying each character.
- “Life” is a variable attribute value and can be decreased in accordance with an interaction event described later.
- FIG. 9B shows a second example of the configuration of the attribute data 131 stored by the attribute DB 130.
- the attribute data 131 has five types of data items: “head block ID”, “character ID”, “display name”, “physical strength”, and “maximum physical strength”.
- Display name is the name of each character displayed on the screen.
- Physical strength is a variable attribute value, and decreases or increases (recovers) in response to an interaction event described later.
- Maximum physical strength is an upper limit value of physical strength of each character.
- attribute value associated with each character is not limited to the example described above.
- a simple 1-bit flag in which “1” represents ALIVE and “0” represents DEAD may be employed as the attribute value.
- the rule DB 140 is a database that stores a set of rules for determining how to advance the battle.
- the rule DB 140 stores block configuration data 141, party data 142, and interaction rules 143.
- the block configuration data 141 is data indicating the block configuration of an item formed from a plurality of blocks.
- FIG. 10 shows an example of the configuration of the block configuration data 141.
- the block configuration data 141 has three types of data items: “main block ID”, “type”, and “connected block”.
- “Main block ID” is a main block ID among blocks included in each item.
- the “main block ID” of the character is a head block ID.
- the “main block ID” of the field item may be, for example, the block ID of the base block.
- “Type” represents the type (character item, field item, etc.) of each item.
- the “connected block” represents a list of block identifiers constituting each item. In the example of FIG.
- blocks M12, M13, and M14 are connected to the head block M11 to form one character. Further, blocks M22, M23 and M24 are connected to the head block M21 to form one character.
- the block M32 is connected to the base block M31 to form one field item.
- Party data is data for identifying whether the characters are in an enemy or friendly relationship. Characters belonging to the same party are in a friendly relationship, and characters belonging to different parties are in an enemy relationship with each other.
- FIG. 11 shows an example of the configuration of the party data 142.
- party data 142 has three types of data items: “party ID”, “display name”, and “member”. “Party ID” is an identifier for uniquely identifying each party. “Display name” is the name of each party displayed on the screen. “Member” represents a list of character IDs of characters belonging to each party.
- characters Ch1 and Ch3 belong to the party P1 having the name “Earth Army”.
- the character Ch2 belongs to the party P2 having the name “Mars Army”.
- the interaction rule 143 is data that defines an interaction event to be detected by the detection unit 160 described later.
- 12A and 12B show a first example and a second example of the configuration of the interaction rule 143, respectively.
- the interaction rule 143 includes five types of data items, “first participating block”, “second participating block”, “type”, “influence block”, and “attribute change”. Have.
- the “first participating block” and the “second participating block” represent a combination of block IDs of blocks involved in each interaction event.
- “Type” represents the type of each interaction event.
- the interaction event between the weapon block M14 and the head block M21 or the body block M22 is a “direct attack” event.
- the interaction event between the weapon block M24 and the head block M11 or the body block M12 is a “range attack” event.
- the interaction event between the field block M32 and the head block M11 or M21 is a “damage” event.
- the interaction event between the field block M33 and the body block M12 or M22 is a “recovery” event.
- the “influence block” indicates which attribute value of the character of the participating block is changed according to each interaction event.
- the value of “influence block” is equal to the value of “second involved block”.
- “Attribute change” represents a change amount of an attribute value corresponding to each interaction event.
- the attribute value of the attacked character is decreased by X 1 due to the “direct attack” event by the weapon block M14.
- the weapon block M24 by "remote attack” event the attribute value of the attacked character is reduced by X 2.
- the interaction rule 143 has four types of data items: “participating object”, “participating block”, “type”, and “attribute change”.
- the “participating object” represents a real object that participates in each interaction event.
- not only items composed of known blocks, but also the user's body and general objects eg, miscellaneous goods such as pens, books or tableware, or floors or walls in a competitive environment
- “Involved block” represents a block ID of a block involved in each interaction event.
- the interaction event between the base block M31 and the body block M12 or M22 is an “accident” event.
- the interaction event between the user's body and the block M11, M12, M21 or M22 is a “damage” event.
- the interaction event between the general object and the block M11, M12, M21 or M22 is also a “damage” event.
- the rule set including the block configuration data 141, the party data 142, and the interaction rule 143 described above is dynamically set or updated by the setting unit 150 described later.
- the setting unit 150 sets a rule set stored by the rule DB 140 described above.
- the setting unit 150 can receive a list of identifiers of the blocks constituting the character from the controller 16 of the head block of each character, and can recognize the block configuration of each character from the received list. Instead, the setting unit 150 checks each item (character) by comparing the image feature amount of the block shown in the captured image from the character camera 11 or the field camera 102 with the known image feature amount stored in the block DB 120. The block configuration of items and field items) may be recognized.
- the setting unit 150 identifies individual blocks based on the characteristics (for example, color (wavelength) or light emission pattern, or a combination thereof) of light from a light emitter such as an LED provided in each block.
- the block configuration of each item may be recognized.
- the setting unit 150 sets the recognized block configuration in the block configuration data 141 illustrated in FIG.
- the setting unit 150 updates the party data 142 and sets the relationship between the characters or the friends.
- the rule event here may be, for example, a change in the block configuration of the character, recognition of a predetermined character gesture, or recognition of a predetermined voice command.
- FIG. 13 is an explanatory diagram for explaining a first method for setting a character party.
- a captured image Im1 is shown as an example.
- four characters Ch1, Ch2, Ch3, and Ch4 are shown.
- the characters Ch1 and Ch3 are each equipped with an accessory block M13.
- the characters Ch2 and Ch4 are each equipped with an accessory block M23.
- the setting unit 150 can classify each character into an enemy character or a friend character based on the appearance characteristics (color, shape, pattern, light emission pattern, etc.) of the accessory block.
- the setting unit 150 classifies the characters Ch1 and Ch3 into the party P1, and classifies the characters Ch2 and Ch4 into the party P2.
- the character Ch3 becomes a friend character of the character Ch1.
- Characters Ch2 and Ch4 are enemy characters of character Ch1.
- FIG. 14 is an explanatory diagram for explaining a second method for setting a character party.
- a captured image Im2 is shown as an example.
- the captured image Im2 is an image from the character camera of the character Ch1.
- the captured image Im2 shows that the arm portion of the character Ch1 and the arm portion of the character Ch3 are performing a gesture like a handshake.
- the setting unit 150 classifies the characters Ch1 and Ch3 into the party P1 based on such a gesture.
- the character Ch3 becomes a friend character of the character Ch1.
- the gesture described above is only an example.
- the two characters may be classified into different parties (that is, an enemy character relationship) based on a gesture in which the weapon blocks of the two characters come into contact with each other.
- the setting unit 150 also updates the interaction rule 143 in accordance with the update of the block configuration data 141 or the party data 142. For example, when a new weapon block is attached to a character participating in the battle, the setting unit 150 may add a rule related to an attack event involving the weapon block to the interaction rule 143. In addition, when a new field item is arranged, the setting unit 150 may add a rule related to a damage event or a recovery event related to the field item to the interaction rule 143. In addition, when the party of a certain character is changed to another party, the setting unit 150 deletes the rule regarding the interaction event between the character and the new ally character, and the character and the new enemy character. Rules for interaction events between them can be added. The battle proceeds according to the rules that can be changed dynamically.
- the detection unit 160 receives at least one of the captured images Im 1 , Im 2 ... From the character camera, and the captured image Im env from the field camera. Further, the detection unit 160 may receive sensor data Ss 1 , Ss 2 ... From the sensors and input audio signals Sp 1 , Sp 2 . And the detection part 160 detects the rule event mentioned above. For example, the detection unit 160 may detect a change in the block configuration of a character item or a field item using a captured image from a character camera or a field camera that captures real space.
- the block configuration includes recognition of a marker (such as a two-dimensional barcode) reflected in a captured image, more advanced three-dimensional shape recognition, reception of a block list from each item, and reading of information from an RFID (Radio Frequency IDentification) tag. It may be recognized using any method such as. Further, the detection unit 160 may recognize a gesture performed by the character using the captured image. The gesture may be performed by driving the character's actuator, or may be performed by the user moving the character directly (such as with a finger).
- a marker such as a two-dimensional barcode
- RFID Radio Frequency IDentification
- the detection unit 160 detects an interaction event between a certain character and a real object (another character, another item, a user's body, or a general object) using the captured image.
- the interaction event detected by the detection unit 160 includes physical contact.
- the direct attack event, the damage event, the recovery event, and the accident event illustrated in FIGS. 12A and 12B can be detected as physical contact between blocks (or between a block and a real object) that can be recognized from the captured image.
- sensor data received from the character may be utilized for physical contact detection.
- the remote attack event illustrated in FIGS. 12A and 12B does not require physical contact.
- the remote attack event is an attack event involving a character having a weapon block for remote attack. More specifically, it is assumed that an enemy character appears in a captured image from a character camera of a character having a weapon block for remote attack.
- the detection unit 160 detects a remote attack event.
- the predetermined user input here may be voice input (for example, “Bang” or the like if the weapon block is a rifle), or other types of input. Thereby, for example, a battle imitating a gun battle can be realized without requiring physical contact between characters.
- the detection unit 160 continuously monitors a series of input captured images. When detecting the rule event, the detection unit 160 notifies the setting unit 150 of the detected rule event. Further, when detecting the interaction event, the detection unit 160 notifies the attribute management unit 170 of the detected interaction event.
- the attribute management unit 170 manages attribute data stored in the attribute DB 130.
- the attribute data includes a variable attribute value associated with each of one or more characters existing in the real space. For example, when an interaction event is detected by the detection unit 160, the attribute management unit 170 changes the attribute value of the character involved in the detected interaction event according to the interaction rule 143 set in the rule DB 140.
- the attribute management unit 170 refers to the interaction rule 143 and can determine the amount of change in the attribute value according to the type of block involved in the interaction event.
- FIG. 15 is an explanatory diagram for describing a first example of a change in an attribute value according to an interaction event.
- a captured image Im3 from the character camera of the character Ch2 is shown.
- the weapon block M14 included in the character Ch1 which is an enemy character of the character Ch2, is reflected at a close distance.
- the detection unit 160 recognizes such a state from the captured image Im3, regards the recognized state as a physical contact, and detects a direct attack event from the character Ch1 to the character Ch2.
- the attribute management unit 170 decreases the attribute value of the character Ch2 attacked by the weapon block M14 according to the detected direct attack event.
- the physical strength of the character Ch2 is reduced from “80” to “70”.
- FIG. 16 is an explanatory diagram for describing a second example of the change of the attribute value according to the interaction event.
- a captured image Im4 from the character camera of the character Ch2 is shown.
- a weapon block M24 included in the character Ch2 and a character Ch1 that is an enemy character of the character Ch2 are shown.
- Detection unit 160 the input speech signal Sp 2 showing yet predetermined voice commands in this state is input, detects the ranged attack events from character Ch2 to characters Ch1.
- the attribute management unit 170 decreases the attribute value of the character Ch1 attacked by the weapon block M24 according to the detected remote attack event.
- the physical strength of the character Ch1 decreases from “90” to “60”.
- FIG. 17 is an explanatory diagram for explaining a third example of the change of the attribute value according to the interaction event.
- a captured image Im5 from the field camera is shown.
- a character Ch2 having a weapon block M24, a plant block M32, and a character Ch1 that is an enemy character of the character Ch2 are shown.
- the plant block M32 is a block for a damage item.
- the item control unit 180 described later drives the actuator of the plant block M32 that has been subjected to the remote attack, and drops the attachment At32.
- the dropped attachment At32 is in contact with the character Ch1.
- the detection unit 160 recognizes such physical contact and detects a damage event involving the character Ch1. Then, the attribute management unit 170 decreases the attribute value of the character Ch1 according to the detected damage event. In the example of FIG. 17, in the attribute data 131, the physical strength of the character Ch1 is reduced from “60” to “40”. The damage event may be detected not based on such a complicated scenario but based on a simple physical contact between a damage item or other real object and the character.
- FIG. 18 is an explanatory diagram for explaining a fourth example of the change of the attribute value according to the interaction event.
- a captured image Im6 from a character camera or a field camera is shown.
- the character Ch1 that has moved onto the field block M33 is shown.
- the field block M33 is a block for a recovery item.
- the detection unit 160 recognizes the contact state between the character Ch1 and the field block M33 from the captured image Im6, and detects a recovery event involving the character Ch1.
- the attribute management unit 170 recovers the attribute value of the character Ch1 according to the detected recovery event.
- the physical strength of the character Ch1 has recovered from “40” to “120”.
- FIG. 19 is an explanatory diagram for explaining a fifth example of the change of the attribute value according to the interaction event.
- a captured image Im7 from a character camera or a field camera is shown.
- the overturned character Ch1 is shown.
- the detection unit 160 recognizes the contact state between the character Ch1 and the base block M31 (or the floor surface) from the captured image Im7, and detects an accident event involving the character Ch1.
- the attribute management unit 170 decreases the attribute value of the character Ch1 according to the detected accident event.
- the physical strength of the character Ch1 decreases from “120” to “110”.
- the cause of the fall of the character that triggers the accident event may be any phenomenon such as an attack from another character, a failure to walk, an attack using the user's body (regular or irregular), and wind pressure.
- FIG. 20A is an explanatory diagram for describing a sixth example of a change in an attribute value according to an interaction event.
- a captured image Im8 from a character camera or a field camera is shown.
- the captured image Im8 shows the user's body Ub1 and the character Ch1.
- the detection unit 160 recognizes a contact state between the user's body Ub1 and the character Ch1 from the captured image Im8, and detects a damage event related to the character Ch1.
- the attribute management unit 170 decreases the attribute value of the character Ch1 according to the detected damage event.
- the physical strength of the character Ch1 is decreased from “110” to “60”.
- Such attacks from users seem unrealistic. However, for example, assuming that a user of a young age group enjoys a battle, there is a case where the fun of the battle is rather increased by allowing such an “anything ant” rule.
- FIG. 20B is an explanatory diagram for explaining an exception of an interaction event involving the user's body.
- a captured image Im9 from a character camera or a field camera is shown.
- the captured image Im9 shows the user's body Ub1 and the character Ch1.
- the user's body Ub1 shows a pose for grasping the character Ch1.
- the detection unit 160 recognizes such a pose of the user's body Ub1, it does not detect the damage event. Thereby, the user can move the character without damaging the character.
- the attribute management unit 170 changes the attribute of the character according to the interaction event as described above, and instructs the item control unit 180 to execute a reaction related to the change.
- the attribute management unit 170 can determine what kind of reaction each character can execute by referring to the control pattern of the block data 131.
- the item control unit 180 controls the execution of actions (including reactions) by each item by transmitting drive signals Ct 1 , Ct 2 ,... To each item. For example, the item control unit 180 moves each character or changes the posture of each character in accordance with a user input U in input via the user interface 104. Further, the item control unit 180 drives a character whose attribute value has changed in response to an instruction from the attribute management unit 170, and causes a reaction related to the change to be executed. For example, the item control unit 180 may cause the character whose attribute value has been recovered to execute a reaction that raises both hands. In addition, the item control unit 180 may cause the character whose attribute value has decreased to output a sound that seems to have been damaged. Further, the item control unit 180 may cause the character whose attribute value has become zero to execute a reaction that falls down.
- the type of action that each item can execute depends on the type of actuator that each item has.
- a hard actuator such as a stepping motor, a servo motor, or a vibration motor but also a soft actuator driven by an electrical or chemical reaction may be used.
- an action may be executed such that the part is detached from the block (for example, rocket punch as an attack action, explosion or collapse as a reaction).
- a reaction that changes the facial expression of the character may be executed using electronic paper attached to the surface of the block. Examples of additional blocks that can be introduced for these actions are described further below.
- the display control unit 190 controls the display of the output image of the toy system 1.
- the display control unit 190 may output a captured image from a character camera or a field camera to the display 110 as it is.
- the display control unit 190 generates an AR image by superimposing an augmented reality (AR) object on the captured image in order to support a richer match, and the generated AR image is displayed on the display 110. May be output.
- the display control unit 190 may cause the display 110 to display a graphical user interface (GUI) for the user to view or edit information such as character attributes, currently set rules, or block data.
- GUI graphical user interface
- FIG. 21 is an explanatory diagram for describing a first example of an image that can be displayed in the present embodiment.
- an AR image Im11 is shown as an example.
- the AR image Im11 is an image generated by superimposing the AR objects A11, A12, A13, A14, and A15 on the captured image.
- the AR objects A11 and A12 indicate the name of the character, the name of the party to which the character belongs, and the current attribute value of the character.
- the AR object A13 indicates the name of the weapon block that the character has and its attack power.
- the AR object A14 is a sight indicating a range that can be attacked by a weapon block for remote attack.
- the AR object A15 is an object that emphasizes the detected interaction event. An effect may be performed such that weapon items shine.
- FIG. 22 is an explanatory diagram for describing a second example of an image that can be displayed in the present embodiment.
- an AR image Im12 is shown as an example.
- the AR image Im12 includes a field camera image W1, a character camera image W2, and a button B1.
- the button B1 may be used for various purposes such as the user switching images, stopping the progress of the battle, or resetting the battle.
- the field camera image W1 is an AR image generated by superimposing the AR objects A21 and A22 on the captured image from the field camera.
- the character camera image W2 is a captured image from the character camera. According to the example of FIG. 22, while providing a clear captured image of the character viewpoint as it is and maintaining the realistic feeling of the battle, at the same time providing an AR image of an overhead viewpoint to make the battle richer. it can.
- FIG. 23 is a flowchart illustrating an example of the overall flow of information processing according to the present embodiment.
- the detection unit 160 acquires a captured image from the character camera or the field camera and other input data (step S100).
- the detection unit 160 recognizes the block configuration of each item existing in the battle environment using the acquired image or data (step S105).
- the detection unit 160 determines a rule event, and when a rule event is detected, notifies the detected rule event to the setting unit 150 (step S110).
- the setting unit 150 updates at least one of the block configuration data 141, the party data 142, and the interaction rule 143 stored in the rule DB 140 (step S115).
- the detection unit 160 determines an interaction event (step S120), and when the interaction event is detected, notifies the attribute management unit 170 of the detected interaction event (step S125).
- the attribute management unit 170 changes the attribute value of the involved character stored in the attribute DB 130 according to the notified interaction event (step S130). Further, the attribute management unit 170 determines whether a reaction should be performed in accordance with the change of the attribute value (step S135). If it is determined that a reaction should be performed, the item control unit 180 drives the character whose attribute value has changed, and executes a reaction related to the change (step S140).
- the display control unit 190 outputs the captured image or the AR image on which the AR object is superimposed to the display 110, and displays these images on the screen (step S145).
- step S100 the process returns to step S100, and the above-described process is repeated for a new captured image.
- FIGS. 2-4 examples of some typical blocks that may constitute character and field items have been described. In this section, further examples of blocks that may be included in the toy system 1 will be described.
- FIG. 24 is a first explanatory diagram for describing a further example of a block that can be included in the toy system 1.
- the body block M41 includes a controller Ctl41 built in its body part, a vibration motor Vm1 built in the right leg part, and a vibration motor Vm2 built in the left leg part.
- a large number of ciliary bodies Cp are disposed over the entire surface of the foot back surface Fb of both legs.
- the ciliary body Cp has an inclination angle ⁇ toward the rear in the traveling direction D1 with respect to the normal of the foot bottom surface Fb.
- the vibration motors Vm1 and Vm2 When the vibration motors Vm1 and Vm2 are driven and rotated by the controller Ctl41, the right leg portion and the left foot portion of the body block M41 vibrate.
- the vibration acts on the elasticity or flexibility of the ciliary body Cp on the back surface Fb to generate a forward force, and moves the body block M41 in the traveling direction D1.
- the controller Ctl41 can also turn the body block M41 leftward by rotating the vibration motor Vm1 faster than the vibration motor Vm2.
- the controller Ctl41 can turn the body block M41 rightward by rotating the vibration motor Vm2 faster than the vibration motor Vm1.
- a plate-like body may be used instead of the hair-like body.
- FIG. 25 is a second explanatory diagram for describing a further example of blocks that can be included in the toy system 1.
- the body block M42 includes a projector Pj42 (for example, a small pico projector) that emits projection light through a lens disposed on the front surface of the body portion.
- the projector Pj42 is typically used for projecting a projection image that produces a battle.
- the projected image may be an image in which a bullet hits when a remote attack is performed by a character.
- the projected image may be a smoke or flame image.
- the projector Pj42 may project the battle information that may include the attribute value of the character or the party to which the character belongs, using the projection image.
- the type of block different from a body block may have a projector.
- FIG. 26 is a third explanatory diagram for describing a further example of a block that can be included in the toy system 1.
- the accessory block M43 has a depression Co43 used for connection with other blocks.
- the accessory block M43 includes a controller Ctl43 and a cloak unit Mt43.
- the cloak part Mt43 includes a plurality of polymer actuators (EAP: Electro-Active Polymers) Pa1 to Pa5 and a plurality of insulators Is1 to Is4.
- EAP Electro-Active Polymers
- Is1 to Is4 Each of the polymer actuators Pa1 to Pa5, also called artificial muscles, is formed in a band shape and bends according to a potential difference applied from the controller Ctl43.
- Each of the insulators Is1 to Is4 joins between two polymer actuators adjacent to each other to insulate the polymer actuators.
- the controller Ctl43 can change the shape of the mantle portion Mt43 in various ways by controlling the pattern of the potential difference applied to the polymer actuators Pa1 to Pa5.
- the controller Ctl43 may change the shape of the cloak part Mt43 so as to fly in the wind as the action of the attacking character or the reaction of the damaged character.
- FIG. 27 is a fourth explanatory diagram for describing a further example of a block that can be included in the toy system 1.
- the head block M44 includes a controller Ctl44 and two polymer actuators Pa6 and Pa7.
- the polymer actuators Pa6 and Pa7 are each formed in a bar shape or a belt shape, and are arranged in parallel to each other so as to follow the lips of the character.
- Each of the polymer actuators Pa6 and Pa7 bends according to the potential difference applied from the controller Ctl44.
- the controller Ctl44 can change the shape of the lips in various ways by controlling the pattern of the potential difference applied to the polymer actuators Pa6 and Pa7.
- the controller Ctl44 may change the shape of the character's lips in response to an event such as identification of an enemy character or teammate character, successful attack, or attribute value decrease.
- FIG. 28 is a fifth explanatory diagram for describing a further example of blocks that can be included in the toy system 1.
- the head block M45 includes a controller Ctl45 and a display surface Fp.
- the display surface Fp is made of flexible electronic paper and is disposed so as to cover at least the face of the head block M45.
- the controller Ctl45 displays the character's face image on the display surface Fp.
- six types of face images that can be displayed on the display surface Fp are shown.
- the controller Ctl45 may change the face image (expression) of the character in accordance with an event such as identification of an enemy character or teammate character, successful attack, or attribute value decrease.
- FIG. 29 is a sixth explanatory diagram for describing a further example of a block that can be included in the toy system 1.
- the weapon block M46 has a grip portion and a blade portion.
- a vibration sensor Vs1, a light emitter Le1, an emission tube Tu1, a light receiver Pd1, and an incident tube Tu2 are incorporated in the grip portion.
- the casing of the blade portion is filled with the diffusing agent Da1.
- the vibration sensor Vs1 is composed of, for example, a piezo element, and detects vibration caused by contact between the weapon block M46 and another block.
- the light emitter Le1 is configured by an LED (Light Emitting Diode), for example, and emits emission light Lt1 (visible light, infrared light, or the like) having a first wavelength.
- LED Light Emitting Diode
- Lt1 visible light, infrared light, or the like
- the diffusing agent Da1 When another block that emits light having the second wavelength contacts the weapon block M46, the light from the other block enters the incident tube Tu2 as incident light Lt2.
- the light receiver Pd1 is configured by a photodiode, for example, and detects the incident light Lt2.
- the incident tube Tu2 has a predetermined length along the axial direction of the weapon block M46, and incident light Lt2 (directivity along the axial direction) from other blocks that contact the weapon block M46 with the light reaching the light receiver Pd1. (Limited light).
- the detection unit 160 detects a rule event or an interaction event corresponding to the contact between the weapon block M46 and another block when the vibration is detected by the vibration sensor Vs1 and the incident light Lt2 is detected by the light receiver Pd1. May be detected.
- the detection unit 160 detects a rule event or an interaction event corresponding to the contact between the weapon block M46 and another block when the vibration is detected by the vibration sensor Vs1 and the incident light Lt2 is detected by the light receiver Pd1. May be detected.
- the wavelength of the emitted light Lt1 emitted from the light emitter Le1 may be changeable according to user settings (for example, red light and green light). Thereby, the user can freely set the party through the setting of the wavelength of the weapon block M46. Further, the light receiver Pd1 may be able to identify incident light having a plurality of wavelengths. Thereby, both the contact of the enemy character with the weapon block and the contact of the friendly character with the weapon block can be detected separately from each other.
- FIG. 30 is a seventh explanatory diagram for describing a further example of a block that can be included in the toy system 1.
- the field block M47 includes two sub blocks Sb1 and Sb2. A part of the bottom surface of the sub-block Sb1 and a part of the top surface of the sub-block Sb2 form an inclined surface Sf having a gradient. In a state where the sub-block Sb1 is placed on the sub-block Sb2, the positions and gradients of the inclined surfaces coincide with each other.
- the sub block Sb1 includes a vibration motor Vm3 inside.
- the field block M47 may be destroyed according to the above-described mechanism as a reaction in response to an event such as an attack by a character in battle. Note that such a destruction mechanism may be adopted for the blocks constituting the character.
- FIG. 31 is an eighth explanatory diagram for describing a further example of a block that can be included in the toy system 1.
- the field block M48 includes two sub blocks Sb3 and Sb4. A part of the bottom surface of the sub-block Sb3 and a part of the top surface of the sub-block Sb4 form an inclined surface having a gradient. In a state where the sub-block Sb3 is placed on the sub-block Sb4, the positions and gradients of the inclined surfaces coincide with each other.
- the sub block Sb3 includes a vibration motor Vm4 inside.
- the sub-block Sb4 includes a film Fm and a column P1 that are wound in a roll shape and stored in the sub-block.
- the film Fm is colored red that simulates a flame.
- the support pillar Pl may be a linear object made of carbon steel, a shape memory alloy, or other elastic material.
- Such a restriction may be implemented as a physical mechanism of the camera or may be done on a software basis.
- a captured image may be automatically processed so that only known blocks and other real objects registered in advance are clearly displayed.
- a mechanism that clearly indicates to a third party that imaging has started or that imaging has been performed may be added to the block including the camera.
- a mechanism means such as emission of flash light, lighting of a warning lamp, display of a character string “under imaging”, or utterance of a warning sound may be employed.
- the head block M49 includes two sub blocks Sb5 and Sb6.
- the sub block Sb5 has a character camera Cm49.
- the sub block Sb6 has windows Wd1 and Wd2, and is rotatable in the R49 direction with respect to the sub block Sb5.
- the character camera Cm49 is switched on or off (for example, by means of a rotary switch or a magnetic encoder) according to the rotational position of the sub-block Sb6. For example, when the rotation position of the sub-block Sb6 is the position shown on the left in FIG.
- the window Wd1 exposes the lens of the character camera Cm49 to the outside and the character camera Cm49 is switched on.
- Window Wd2 exposes the face of sub-block Sb5.
- the user who sees the head block M49 can recognize that imaging can be performed by the camera.
- the rotation position of the sub-block Sb6 is the position shown on the right side of FIG. 32
- the position of the window Wd1 is shifted, so that the lens of the character camera Cm49 is shielded.
- the character camera Cm49 is switched off.
- the face of the sub-block Sb5 is also hidden. Thereby, the user can recognize that imaging is not performed.
- the on / off switching of the camera may be realized by a mechanism such as sliding or pressing instead of rotation of the sub-block.
- the attack event becomes effective by the interaction between the characters set in the relationship between the enemies.
- the hostile relationship of the character dynamically, it is possible to realize a richer variation of the battle conditions.
- the character can be damaged by the interaction with the real object other than the teammate character.
- various attack methods that are not known to the system, such as attacks using miscellaneous goods or the user's body, can be taken into the battle.
- a battle with a rule that is not adopted in common sense or a battle in which the rule is ignored is also possible.
- the battle is attractive even for a young user who does not understand the rules or a user who does not want to be caught by common sense rules.
- various events such as attribute value reduction or recovery based on the interaction between items and characters known to the system can be incorporated into the match. Therefore, by including various items in the item set, it is possible to freely expand the variations of the battle conditions. Also, the character can be damaged by an accident such as a fall of the character. Therefore, an event that is often treated as a disturbance in a general robot battle game, such as a collision with an obstacle, a strong wind, or a field shake, can be incorporated as a component of the game.
- the interaction between the user's body and the character showing the predetermined gesture or the predetermined pose is excluded from the attack event. Therefore, it is possible to satisfy the operational requirement of the battle that the user can move the character for purposes other than the attack.
- the classification of characters into enemies or allies may be performed based on the character's gestures or the appearance characteristics of accessories equipped on the character. Thereby, any age group user can set an enemy or a friend by intuitive handling of the character.
- the character is formed by assembling modularized blocks.
- the change amount of the attribute value can be determined according to the type of block involved in the interaction event. Therefore, the user can freely change the battle conditions by rearranging the blocks. For example, the user can change the ability of the character participating in the battle by exchanging weapons worn by the character. The user can also customize the battle field according to his / her preference.
- the above-described embodiment is also advantageous in terms of flexibility in the sales strategy of the toy manufacturer.
- the character when the attribute value of the character changes, the character is driven to execute a reaction related to the change of the attribute value. Therefore, even if the user does not pay attention to the output image, the progress of the battle can be easily visually understood and fed back to the user. Moreover, emotion transfer to a user's character can be promoted.
- an AR image generated by superimposing an AR object on a captured image can be provided to the user.
- the user can grasp the progress of the battle more accurately or can consider a more advanced battle strategy.
- a virtual performance that is not expressed in the real space can be performed through the AR object, thereby enhancing the entertainment characteristics of the battle.
- control processing described in this specification may be realized using any of software, hardware, and a combination of software and hardware.
- a program constituting the software is stored in advance in a storage medium provided inside or outside each device.
- Each program is read into a RAM (Random Access Memory) at the time of execution and executed by a processor such as a CPU.
- RAM Random Access Memory
- control module may be implemented on a device that exists in the cloud computing environment.
- An attribute management unit that manages variable attribute values associated with each of one or more characters existing in the real space;
- a detection unit that detects an interaction event between the first character and the real object using a captured image from a camera that captures the real space;
- a setting unit for setting a rule for changing the attribute value of the first character in response to the interaction event;
- the attribute management unit changes the attribute value of the first character according to the rule set by the setting unit when the interaction event is detected by the detection unit.
- Information processing device (2)
- the attribute management unit decreases the attribute value of the first character or the enemy character according to the interaction event between the first character and the enemy character set by the setting unit.
- the attribute management unit decreases the attribute value of the first character in response to the interaction event between the first character and a real object other than a teammate character set by the setting unit.
- the information processing apparatus according to (1).
- the attribute management unit changes the attribute value of the first character in response to the interaction event between the first character and a known item shown in the captured image.
- the information processing apparatus according to any one of 3).
- the attribute management unit decreases the attribute value of the first character when the item is a damage item, and reduces the attribute value of the first character when the item is a recovery item.
- the information processing apparatus according to (4), wherein the attribute value is recovered.
- the real object includes a user's body reflected in the captured image
- the attribute management unit decreases the attribute value of the first character in response to the interaction event between the first character and the user's body.
- the information processing apparatus according to any one of (1) to (5).
- Each character is formed by assembling modular blocks,
- the attribute management unit determines the amount of change in the attribute value according to the type of block involved in the interaction event.
- the information processing apparatus according to (8).
- the camera is disposed in a case of the enemy character,
- the interaction event includes a remote attack event detected when a predetermined user input is sensed in a state where the first character is reflected in the captured image.
- Each character is formed by assembling modular blocks,
- the remote attack event is detected when the enemy character has the type of block associated with the remote attack event.
- (12) The information processing apparatus according to (2) or (3), wherein the setting unit classifies each character into an enemy character or a friend character based on a gesture of each character recognized using the captured image.
- Each character is formed by assembling modular blocks,
- the setting unit classifies each character as an enemy character or a friend character based on the appearance characteristics of the block of each character shown in the captured image.
- the information processing apparatus according to (2) or (3).
- the information processing apparatus includes: A controller that drives the first character to perform a reaction related to the change when the attribute value of the first character changes;
- the information processing apparatus according to any one of (1) to (13), further including: (15)
- the detection unit detects the interaction event using the captured image from at least one of a character camera and a non-character camera disposed in the character casing.
- the information processing apparatus according to any one of claims.
- the information processing apparatus includes: A display control unit that outputs an augmented reality image generated by superimposing an augmented reality object on the captured image to a display;
- An information processing method including: (19) A computer that controls a system for a battle in which one or more characters in real space participate, An attribute management unit that manages variable attribute values associated with each of the one or more characters; A detection unit that detects an interaction event between the first character and the real object using a captured image from a camera that captures the real space; A setting unit for setting a rule for changing the attribute value of the first character in response to the interaction event; Function as The attribute management unit changes the attribute value of the first character according to the rule set by the setting unit when the interaction event is detected by the detection unit.
- Ch1, Ch2, Ch3, Ch4 Character Fi1 Field item Ub1 User's body M01, M02, M03, M04 block M11, M12, M13, M14 block M21, M22, M23, M24 block M31, M32, M33 block M41, M42, M43 , M44, M45, M46, M47, M48, M49 Block 11 Camera 100 Information processing device (control module) 102 Camera 120 Block DB 130 Attribute DB 140 Rule DB DESCRIPTION OF SYMBOLS 150 Setting part 160 Detection part 170 Attribute management part 180 Item control part 190 Display control part
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Educational Technology (AREA)
- Toys (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
1.システムの概要
2.アイテムの構成例
2-1.キャラクタの筐体
2-2.フィールドアイテム
2-3.キャラクタ内部のハードウェア
2-4.情報処理装置のハードウェア
3.機能構成例
3-1.ブロックDB
3-2.属性DB
3-3.ルールDB
3-4.設定部
3-5.検出部
3-6.属性管理部
3-7.アイテム制御部
3-8.表示制御部
4.処理の流れ
5.様々なブロック
6.まとめ
まず、一実施形態に係る玩具システムの概要を説明する。図1は、一実施形態に係る玩具システム1の概要について説明するための説明図である。玩具システム1は、実空間に存在する1つ以上のキャラクタを含む。図1には、2個のキャラクタCh1及びCh2が示されている。本明細書において、キャラクタとは、対戦の主体となる実物体をいう。各キャラクタには可変的な属性値が関連付けられ、当該属性値は対戦の勝敗を判定するために利用され得る。図1にはヒューマノイド型のキャラクタが例示されているが、キャラクタは他の形状(例えば、動物型など)を有していてもよい。さらに、玩具システム1は、キャラクタ以外のアイテムを含み得る。アイテムの種類は、様々であってよい。図1には、対戦のフィールドを構成するフィールドアイテムFi1が示されている。各キャラクタは、通信インタフェースを有し、制御モジュールと通信する。フィールドアイテムもまた、制御モジュールと通信してよい。制御モジュールは、例えば、情報処理装置100に搭載される。制御モジュールは、玩具システム1における対戦を制御する。
[2-1.キャラクタの筐体]
図2は、図1に例示したキャラクタCh1の筐体の構成の一例を示している。キャラクタCh1は、モジュール化された4個のブロックM11、M12、M13及びM14を組み立てることにより形成されている。ヘッドブロックM11は、キャラクタの頭部に相当するブロックである。ヘッドブロックM11は、キャラクタカメラCm1、並びに突起Co11a及びCo11bを有する。ボディブロックM12は、キャラクタの胴体に相当するブロックである。ボディブロックM12は、窪みCo12aを有する。ヘッドブロックM11の突起Co11bをボディブロックM12の窪みCo12aに挿し込むことにより、ヘッドブロックM11及びボディブロックM12が互いに連結される。図2の例では、ボディブロックM12は、胸部、腰部、一対の腕部及び一対の脚部を含む。腕部は、それぞれR1方向に回動可能である。胸部は、腰部に対してR2方向に回動可能である。脚部は、ひざに相当する関節部分でR3方向に折曲可能である。ボディブロックM12の各腕部は、穴Co12bを有する。アクセサリブロックM13は、窪みCo13を有する。ヘッドブロックM11の突起Co11aをアクセサリブロックM13の窪みCo13に挿し込むことにより、ヘッドブロックM11及びアクセサリブロックM13が互いに連結される。武器ブロックM14は、突起Co14を有する。武器ブロックM14の突起Co14をボディブロックM12の穴Co12bに挿し込むことにより、武器ブロックM14がボディブロックM12の腕部に連結される。
図4は、図1に例示したフィールドアイテムFi1の構成の一例を示している。フィールドアイテムFi1は、モジュール化された3個のブロックM31、M32及びM33を組み立てることにより形成されている。ベースブロックM31は、多数の窪みCo31を有する。植物ブロックM32は、突起Co32を有する。植物ブロックM32の突起Co32をベースブロックM31の窪みCo31に挿し込むことにより、ベースブロックM31及び植物ブロックM32が互いに連結される。植物ブロックM32は、さらに、アクチュエータAc32及びアタッチメントAt32を有する。アクチュエータAc32が駆動されると、アタッチメントAt32が植物ブロックM32から離れてV1方向に落下する。泉ブロックM33は、突起Co33を有する。泉ブロックM33の突起Co33をベースブロックM31の窪みに挿し込むことにより、ベースブロックM31及び泉ブロックM33が互いに連結される。
図5は、キャラクタのハードウェア構成の一例について説明するための説明図である。各キャラクタは、少なくともヘッドブロックM01及びボディブロックM02を含む。さらに、アクセサリブロックM03及び武器ブロックM04が各キャラクタに連結され得る。
ヘッドブロックM01は、バス10、キャラクタカメラ11、マイクロフォン12、スピーカ13、通信インタフェース(I/F)14、メモリ15及びコントローラ16を備える。
ボディブロックM02は、バス20、アクチュエータ21、センサ22、メモリ23及びコントローラ24を備える。
アクセサリブロックM03は、バス30及びメモリ31を備える。メモリ31は、アクセサリブロックM03の個体を識別する識別子を記憶する。メモリ31により記憶される識別子は、バス30及びバス10を介して、ヘッドブロックM01のコントローラ16により読み取られる。なお、キャラクタのブロック構成(当該キャラクタを構成するブロックのリスト)が画像から認識される場合には、アクセサリブロックM03は、図5の例のように個体を識別するための識別子を記憶するメモリを備えなくてもよい。
武器ブロックM04は、バス40及びメモリ41を備える。メモリ41は、武器ブロックM04の個体を識別する識別子を記憶する。メモリ41により記憶される識別子は、バス40、バス20及びバス10を介して、ヘッドブロックM01のコントローラ16により読み取られる。なお、アクセサリブロックM03と同様、キャラクタの構成が画像から認識される場合には、武器ブロックM04は、識別子を記憶するメモリを備えなくてもよい。
図1に例示した情報処理装置100は、玩具システム1における対戦を制御する制御モジュールを有する。情報処理装置100は、PC(Personal Computer)、スマートフォン、PDA(Personal Digital Assistants)若しくはゲーム端末のような汎用的な装置であってもよく、又はキャラクタ同士の対戦のために実装される専用の装置であってもよい。図6は、情報処理装置100のハードウェア構成の一例について説明するための説明図である。図6を参照すると、情報処理装置100は、カメラ102、ユーザインタフェース104、ストレージ108、ディスプレイ110、通信I/F112、バス116及び制御部118を備える。
図7は、図6に示した情報処理装置100において動作し得る制御モジュールの機能構成の一例を示すブロック図である。図7を参照すると、情報処理装置100は、ブロックデータベース(DB)120、属性DB130、ルールDB140、設定部150、検出部160、属性管理部170、アイテム制御部180及び表示制御部190を備える。
ブロックDB120は、玩具システム1において利用可能な既知のブロックについて予め定義されるブロックデータを記憶するデータベースである。
属性DB130は、各キャラクタと関連付けられる可変的な属性値を示す属性データを記憶するデータベースである。なお、本実施形態では、一例として、キャラクタカメラを有するヘッドブロックがキャラクタの同一性(identity)を有するものとする。即ち、ボディブロック、アクセサリブロック及び武器ブロックが交換されても、ヘッドブロックが同一であればキャラクタも同一である。しかしながら、かかる例に限定されず、他の種類のブロックがキャラクタの同一性を有してもよい。
ルールDB140は、対戦をどのように進行させるかを決定するためのルールのセットを記憶するデータベースである。本実施形態において、ルールDB140は、ブロック構成データ141、パーティデータ142及びインタラクションルール143を記憶する。
ブロック構成データ141は、複数のブロックから形成されるアイテムのブロック構成を示すデータである。図10は、ブロック構成データ141の構成の一例を示している。図10を参照すると、ブロック構成データ141は、「メインブロックID」、「タイプ」及び「連結ブロック」という3種類のデータ項目を有する。「メインブロックID」は、各アイテムに含まれるブロックのうち主となる1つのブロックIDである。キャラクタの「メインブロックID」は、ヘッドブロックIDである。フィールドアイテムの「メインブロックID」は、例えば、ベースブロックのブロックIDであってよい。「タイプ」は、各アイテムの種類(キャラクタアイテム、フィールドアイテムなど)を表す。「連結ブロック」は、各アイテムを構成するブロックの識別子のリストを表す。図10の例では、ヘッドブロックM11にブロックM12、M13及びM14が連結されて1つのキャラクタが形成されている。また、ヘッドブロックM21にブロックM22、M23及びM24が連結されて1つのキャラクタが形成されている。また、ベースブロックM31にブロックM32が連結されて1つのフィールドアイテムが形成されている。
パーティデータ142は、キャラクタ同士が敵又は味方のいずれの関係にあるのかを識別するためのデータである。同じパーティに属するキャラクタは味方の関係にあり、異なるパーティに属するキャラクタは互いに敵の関係にある。図11は、パーティデータ142の構成の一例を示している。図11を参照すると、パーティデータ142は、「パーティID」、「表示名」及び「メンバ」という3種類のデータ項目を有する。「パーティID」は、各パーティを一意に識別するための識別子である。「表示名」は、画面上で表示される各パーティの名称である。「メンバ」は、各パーティに属するキャラクタのキャラクタIDのリストを表す。図11の例では、「地球軍」という名称を有するパーティP1に、キャラクタCh1及びCh3が属している。また、「火星軍」という名称を有するパーティP2に、キャラクタCh2が属している。
インタラクションルール143は、後述する検出部160により検出されるべきインタラクションイベントを規定するデータである。図12A及び図12Bは、インタラクションルール143の構成の第1の例及び第2の例をそれぞれ示している。
設定部150は、上述したルールDB140により記憶されるルールセットを設定する。例えば、設定部150は、各キャラクタのヘッドブロックのコントローラ16から当該キャラクタを構成するブロックの識別子のリストを受信し、受信したリストから各キャラクタのブロック構成を認識し得る。その代わりに、設定部150は、キャラクタカメラ11又はフィールドカメラ102からの撮像画像に映るブロックの画像特徴量をブロックDB120により記憶されている既知の画像特徴量と照合することにより、各アイテム(キャラクタアイテム及びフィールドアイテム)のブロック構成を認識してもよい。また、設定部150は、各ブロックに設けられるLEDなどの発光器からの光の特徴(例えば、色(波長)若しくは発光パターン、又はそれらの組合せ)に基づいて各ブロックの個体を識別することにより、各アイテムのブロック構成を認識してもよい。そして、設定部150は、認識したブロック構成を、図10に例示したブロック構成データ141に設定する。
検出部160は、キャラクタカメラからの撮像画像Im1、Im2…、及びフィールドカメラからの撮像画像Imenvの少なくとも1つを受信する。また、検出部160は、センサからのセンサデータSs1、Ss2…及びマイクロフォンからの入力音声信号Sp1、Sp2…を受信してもよい。そして、検出部160は、上述したルールイベントを検出する。例えば、検出部160は、実空間を撮像するキャラクタカメラ又はフィールドカメラからの撮像画像を用いて、キャラクタアイテム又はフィールドアイテムのブロック構成の変更を検出してもよい。なお、ブロック構成は、撮像画像に映るマーカ(2次元バーコードなど)の認識、より高度な3次元形状認識、各アイテムからのブロックリストの受信、RFID(Radio Frequency IDentification)タグからの情報の読み取りなどのいかなる手法を利用して認識されてもよい。また、検出部160は、撮像画像を用いて、キャラクタが演じるジェスチャを認識してもよい。ジェスチャは、キャラクタのアクチュエータを駆動させることにより演じられてもよく、又はユーザがキャラクタを直接(指などで)動かすことにより演じられてもよい。
属性管理部170は、属性DB130により記憶される属性データを管理する。当該属性データは、実空間に存在する1つ以上のキャラクタの各々と関連付けられる可変的な属性値を含む。例えば、属性管理部170は、検出部160によりインタラクションイベントが検出された場合に、ルールDB140に設定されているインタラクションルール143に従って、検出されたインタラクションイベントに関与したキャラクタの属性値を変化させる。属性管理部170は、インタラクションルール143を参照し、インタラクションイベントに関与したブロックの種類に応じて属性値の変化量を決定し得る。
アイテム制御部180は、各アイテムに駆動信号Ct1、Ct2、…を送信することにより、各アイテムによるアクション(リアクションを含む)の実行を制御する。例えば、アイテム制御部180は、ユーザインタフェース104を介して入力されるユーザ入力Uinに応じて、各キャラクタを移動させ又は各キャラクタの姿勢を変化させる。また、アイテム制御部180は、属性管理部170からの指示に応じて、属性値の変化したキャラクタを駆動し、当該変化に関連するリアクションを実行させる。例えば、アイテム制御部180は、属性値が回復したキャラクタに、両手を上げるようなリアクションを実行させてもよい。また、アイテム制御部180は、属性値が減少したキャラクタに、ダメージを受けたような音声を出力させてもよい。また、アイテム制御部180は、属性値がゼロになったキャラクタに、倒れるようなリアクションを実行させてもよい。
表示制御部190は、玩具システム1の出力画像の表示を制御する。表示制御部190は、例えば、キャラクタカメラ又はフィールドカメラからの撮像画像をそのままディスプレイ110へ出力してもよい。その代わりに、表示制御部190は、よりリッチな対戦をサポートするために、撮像画像に拡張現実(AR:Augmented Reality)オブジェクトを重畳することによりAR画像を生成し、生成したAR画像をディスプレイ110へ出力してもよい。また、表示制御部190は、キャラクタの属性、現在設定されているルール又はブロックデータなどの情報をユーザが閲覧し又は編集するためのグラフィカルユーザインタフェース(GUI)をディスプレイ110に表示させてもよい。
図23は、本実施形態に係る情報処理の全体的な流れの一例を示すフローチャートである。
図2~図4では、キャラクタ及びフィールドアイテムを構成し得るいくつかの典型的なブロックの例を説明した。本節では、玩具システム1に含まれ得るブロックのさらなる例を説明する。
図24は、玩具システム1に含まれ得るブロックのさらなる例について説明するための第1の説明図である。図24を参照すると、ボディブロックM41は、その胴体部分に内蔵されるコントローラCtl41、右脚部分に内蔵される振動モータVm1及び左脚部分に内蔵される振動モータVm2を備える。両脚の足裏面Fbには、多数の毛状体Cpが一面にわたって配設される。毛状体Cpは、足裏面Fbの垂線に対し進行方向D1の後方に向けて傾斜角度φを有する。振動モータVm1及びVm2がコントローラCtl41により駆動されて回転すると、ボディブロックM41の右脚部分及び左足部分が振動する。その振動は、足裏面Fbの毛状体Cpの弾性又は可撓性に作用して前進力を生み出し、ボディブロックM41を進行方向D1へ移動させる。コントローラCtl41は、振動モータVm1を振動モータVm2よりも速く回転させることにより、ボディブロックM41を左方向へ旋回させることもできる。同様に、コントローラCtl41は、振動モータVm2を振動モータVm1よりも速く回転させることにより、ボディブロックM41を右方向へ旋回させることもできる。なお、毛状体の代わりに、板状体が使用されてもよい。
図25は、玩具システム1に含まれ得るブロックのさらなる例について説明するための第2の説明図である。図25を参照すると、ボディブロックM42は、その胴体部分の前面に配設されるレンズを介して投影光を射出するプロジェクタPj42(例えば、小型のピコプロジェクタ)を備える。プロジェクタPj42は、典型的には、対戦を演出する投影画像を投影するために使用される。例えば、投影画像は、キャラクタによる遠隔攻撃が行われる際の、銃弾が命中したような画像であってもよい。また、投影画像は、煙又は炎の画像であってもよい。その代わりに、プロジェクタPj42は、キャラクタの属性値又は所属パーティなどを含み得る対戦情報を、投影画像を用いて投影してもよい。なお、図25の例に限定されず、ボディブロックとは異なる種類のブロックがプロジェクタを有していてもよい。
図26は、玩具システム1に含まれ得るブロックのさらなる例について説明するための第3の説明図である。図26を参照すると、アクセサリブロックM43は、他のブロックとの連結のために使用される窪みCo43を有する。また、アクセサリブロックM43は、コントローラCtl43及びマント部Mt43を備える。マント部Mt43は、複数のポリマーアクチュエータ(EAP:Electro-Active Polymers)Pa1~Pa5及び複数の絶縁体Is1~Is4から構成される。人工筋肉とも呼ばれるポリマーアクチュエータPa1~Pa5の各々は、帯状に形成され、コントローラCtl43から印加される電位差に応じて屈曲する。絶縁体Is1~Is4の各々は、互いに隣接する2つのポリマーアクチュエータの間を接合し、それらポリマーアクチュエータを絶縁する。コントローラCtl43は、ポリマーアクチュエータPa1~Pa5に印加される電位差のパターンを制御することにより、マント部Mt43の形状を様々に変化させることができる。例えば、コントローラCtl43は、攻撃するキャラクタのアクション又はダメージを受けたキャラクタのリアクションとして、マント部Mt43の形状を風になびくように変化させてもよい。
図27は、玩具システム1に含まれ得るブロックのさらなる例について説明するための第4の説明図である。図27を参照すると、ヘッドブロックM44は、コントローラCtl44、並びに2つのポリマーアクチュエータPa6及びPa7を備える。ポリマーアクチュエータPa6、Pa7は、それぞれ棒状又は帯状に形成され、キャラクタの唇をかたどるように互いに平行に配設される。ポリマーアクチュエータPa6、Pa7の各々は、コントローラCtl44から印加される電位差に応じて屈曲する。コントローラCtl44は、ポリマーアクチュエータPa6、Pa7に印加される電位差のパターンを制御することにより、唇の形状を様々に変化させることができる。例えば、コントローラCtl44は、敵キャラクタ若しくは味方キャラクタの識別、攻撃の成功又は属性値の減少などのイベントに応じて、キャラクタの唇の形状を変化させてよい。
図28は、玩具システム1に含まれ得るブロックのさらなる例について説明するための第5の説明図である。図28を参照すると、ヘッドブロックM45は、コントローラCtl45及び表示面Fpを有する。表示面Fpは、フレキシブル電子ペーパーにより構成され、少なくともヘッドブロックM45の顔面を覆うように配設される。コントローラCtl45は、キャラクタの顔画像を表示面Fpに表示させる。図28の例では、表示面Fpに表示され得る6通りの顔画像が示されている。例えば、コントローラCtl45は、敵キャラクタ若しくは味方キャラクタの識別、攻撃の成功又は属性値の減少などのイベントに応じて、キャラクタの顔画像(表情)を変化させてよい。
図29は、玩具システム1に含まれ得るブロックのさらなる例について説明するための第6の説明図である。図29を参照すると、武器ブロックM46は、グリップ部分と刀身部分とを有する。グリップ部分には、振動センサVs1、発光器Le1、射出管Tu1、受光器Pd1及び入射管Tu2が内蔵される。刀身部分の筐体には、拡散剤Da1が充填される。振動センサVs1は、例えばピエゾ素子により構成され、武器ブロックM46と他のブロックとの接触により引き起こされる振動を検知する。発光器Le1は、例えばLED(Light Emitting Diode)により構成され、第1の波長を有する射出光Lt1(可視光又は赤外光など)を発する。射出光Lt1は、射出管Tu1を通過して刀身部分に達すると、拡散剤Da1により拡散される。第2の波長を有する光を発する他のブロックが武器ブロックM46に接触すると、当該他のブロックからの光は、入射光Lt2として入射管Tu2へ進入する。受光器Pd1は、例えばフォトダイオードにより構成され、入射光Lt2を検知する。入射管Tu2は、武器ブロックM46の軸方向に沿って所定の長さを有し、受光器Pd1に達する光を武器ブロックM46と接触した他のブロックからの入射光Lt2(軸方向に沿った指向性を有する光)のみに制限する。例えば、検出部160は、振動センサVs1により振動が検知されると同時に受光器Pd1により入射光Lt2が検知された場合に、武器ブロックM46と他のブロックとの接触に対応するルールイベント又はインタラクションイベントを検出してもよい。そうした二重の検出条件を採用することにより、ノイズとしての振動又は接触を伴わない光の進入などを原因とするイベントの誤検出を、低減することができる。
図30は、玩具システム1に含まれ得るブロックのさらなる例について説明するための第7の説明図である。図30を参照すると、フィールドブロックM47は、2つのサブブロックSb1及びSb2から構成される。サブブロックSb1の底面の一部及びサブブロックSb2の上面の一部は、勾配を有する傾斜面Sfを形成する。サブブロックSb1がサブブロックSb2の上に載置された状態で、互いの傾斜面の位置及び勾配は一致する。サブブロックSb1は、内部に振動モータVm3を備える。振動モータVm3が駆動されて回転すると、サブブロックSb1及びSb2の傾斜面が振動の影響でずれ、最終的にサブブロックSb1はサブブロックSb2から離脱して落下する。例えば、対戦中のキャラクターによる攻撃などのイベントに応じたリアクションとして、上述した仕組みに従ってフィールドブロックM47が破壊されてもよい。なお、このような破壊の仕組みは、キャラクタを構成するブロックのために採用されてもよい。
図31は、玩具システム1に含まれ得るブロックのさらなる例について説明するための第8の説明図である。図31を参照すると、フィールドブロックM48は、2つのサブブロックSb3及びSb4から構成される。サブブロックSb3の底面の一部及びサブブロックSb4の上面の一部は、勾配を有する傾斜面を形成する。サブブロックSb3がサブブロックSb4の上に載置された状態で、互いの傾斜面の位置及び勾配は一致する。サブブロックSb3は、内部に振動モータVm4を備える。サブブロックSb4は、ロール状に巻かれてサブブロック内に収納される、フィルムFm及び支柱Plを備える。フィルムFmは、炎を模した赤色に着色される。支柱Plは、炭素鋼、形状記憶合金又はその他の弾性を有する材料からなる線状物であってよい。振動モータVm4が駆動されて回転すると、サブブロックSb3及びSb4の傾斜面が振動の影響でずれ、最終的にサブブロックSb3はサブブロックSb4から離脱して落下する。すると、サブブロック内に収納されていたフィルムFm及び支柱Plは、支柱Plの復元力によってサブブロックSb4から立ち上がる。結果として、フィールドブロックM48が炎上したかのような演出が実現される。例えば、対戦中のキャラクターによる攻撃などのイベントに応じたリアクションとして、上述した仕組みに従ってフィールドブロックM48が炎上してもよい。
上述したいくつかのブロックは、カメラを備える。それらブロックは、盗撮などの望ましくない用途に小型のカメラが利用されることを防止するために、対戦に関与しない実物体の撮像を制限する仕組みを有していてもよい。例えば、対戦フィールドのサイズは、通常、数センチメートルから数十センチメートルの範囲内である。そこで、玩具システム1に含まれるカメラのフォーカスの調整を数十センチメートル以下の撮像距離に制限し、さらに被写界深度を浅い値に制限することで、対戦フィールドの範囲外の被写体が鮮明に撮像されることを防止することができる。そのような制限は、カメラの物理的な機構として実現されてもよく、又はソフトウェアベースで行われてもよい。また、画像処理分野の物体認識技術を応用し、既知のブロック及び予め登録されるその他の実物体のみが鮮明に映るように、撮像画像が自動的に加工されてもよい。
ここまで、図1~図32を用いて、本開示に係る技術の一実施形態について詳細に説明した。上述した実施形態によれば、カメラからの撮像画像を用いて実空間に存在するキャラクタと他のキャラクタ又は実物体との間のインタラクションイベントが検出され、検出されたインタラクションイベントに関与したキャラクタの属性値が、動的に設定されるルールに従って変更される。かかる構成によれば、対戦の条件を柔軟に変更することが可能となる。従って、幅広い年齢層のユーザが多様な対戦を楽しむことができる
(1)
実空間に存在する1つ以上のキャラクタの各々と関連付けられる可変的な属性値を管理する属性管理部と、
前記実空間を撮像するカメラからの撮像画像を用いて、第1のキャラクタと実物体との間のインタラクションイベントを検出する検出部と、
前記インタラクションイベントに応じて前記第1のキャラクタの前記属性値を変化させるためのルールを設定する設定部と、
を備え、
前記属性管理部は、前記検出部により前記インタラクションイベントが検出された場合に、前記設定部により設定される前記ルールに従って、前記第1のキャラクタの前記属性値を変化させる、
情報処理装置。
(2)
前記属性管理部は、前記第1のキャラクタと、前記設定部により設定される敵キャラクタとの間の前記インタラクションイベントに応じて、前記第1のキャラクタ又は前記敵キャラクタの前記属性値を減少させる、前記(1)に記載の情報処理装置。
(3)
前記属性管理部は、前記第1のキャラクタと、前記設定部により設定される味方キャラクタ以外の実物体との間の前記インタラクションイベントに応じて、前記第1のキャラクタの前記属性値を減少させる、前記(1)に記載の情報処理装置。
(4)
前記属性管理部は、前記第1のキャラクタと前記撮像画像に映る既知のアイテムとの間の前記インタラクションイベントに応じて、前記第1のキャラクタの前記属性値を変化させる、前記(1)~(3)のいずれか1項に記載の情報処理装置。
(5)
前記属性管理部は、前記アイテムがダメージ系アイテムである場合には、前記第1のキャラクタの前記属性値を減少させ、前記アイテムが回復系アイテムである場合には、前記第1のキャラクタの前記属性値を回復させる、前記(4)に記載の情報処理装置。
(6)
前記実物体は、前記撮像画像に映るユーザの身体を含み、
前記属性管理部は、前記第1のキャラクタと前記ユーザの身体との間の前記インタラクションイベントに応じて、前記第1のキャラクタの前記属性値を減少させる、
前記(1)~(5)のいずれか1項に記載の情報処理装置。
(7)
前記属性管理部は、前記ユーザの身体が所定のジェスチャ又は所定のポーズを示してる場合には、前記第1のキャラクタの前記属性値を減少させない、前記(6)に記載の情報処理装置。
(8)
前記インタラクションイベントは、前記第1のキャラクタと前記実物体との間の物理的接触を含む、前記(1)~(7)のいずれか1項に記載の情報処理装置。
(9)
各キャラクタは、モジュール化されたブロックを組み立てることにより形成され、
前記属性管理部は、前記インタラクションイベントに関与したブロックの種類に応じて、前記属性値の変化量を決定する、
前記(8)に記載の情報処理装置。
(10)
前記カメラは、前記敵キャラクタの筐体に配設され、
前記インタラクションイベントは、前記撮像画像に前記第1のキャラクタが映っている状態で所定のユーザ入力が感知されることにより検出される遠隔攻撃イベントを含む、
前記(2)に記載の情報処理装置。
(11)
各キャラクタは、モジュール化されたブロックを組み立てることにより形成され、
前記遠隔攻撃イベントは、当該遠隔攻撃イベントと関連付けられる種類の前記ブロックを前記敵キャラクタが有する場合に、検出される、
前記(10)に記載の情報処理装置。
(12)
前記設定部は、前記撮像画像を用いて認識される各キャラクタのジェスチャに基づいて、各キャラクタを敵キャラクタ又は味方キャラクタに分類する、前記(2)又は前記(3)に記載の情報処理装置。
(13)
各キャラクタは、モジュール化されたブロックを組み立てることにより形成され、
前記設定部は、前記撮像画像に映る各キャラクタが有する前記ブロックの外観上の特徴に基づいて、各キャラクタを敵キャラクタ又は味方キャラクタに分類する、
前記(2)又は前記(3)に記載の情報処理装置。
(14)
前記情報処理装置は、
前記第1のキャラクタの前記属性値が変化した場合に、前記第1のキャラクタを駆動して前記変化に関連するリアクションを行わせる制御部、
をさらに備える、前記(1)~(13)のいずれか1項に記載の情報処理装置。
(15)
前記検出部は、前記キャラクタの筐体に配設されるキャラクタカメラ及び非キャラクタカメラの少なくとも1つからの前記撮像画像を用いて、前記インタラクションイベントを検出する、前記(1)~(14)のいずれか1項に記載の情報処理装置。
(16)
前記情報処理装置は、
前記撮像画像に拡張現実オブジェクトを重畳することにより生成される拡張現実画像をディスプレイへ出力する表示制御部、
をさらに備える、前記(1)~(15)のいずれか1項に記載の情報処理装置。
(17)
前記カメラは、前記1つ以上のキャラクタが参加する対戦に関与しない実物体の撮像を制限する仕組みを有する、前記(1)~(16)のいずれか1項に記載の情報処理装置。
(18)
実空間に存在する1つ以上のキャラクタが参加する対戦のためのシステムを制御するコンピュータにより実行される情報処理方法であって、
第1のキャラクタと実物体との間のインタラクションイベントに応じて当該第1のキャラクタと関連付けられる可変的な属性値を変化させるための、ルールを設定することと、
前記実空間を撮像するカメラからの撮像画像を用いて、前記インタラクションイベントを検出することと、
前記インタラクションイベントが検出された場合に、設定された前記ルールに従って、前記第1のキャラクタの前記属性値を変化させることと、
を含む情報処理方法。
(19)
実空間に存在する1つ以上のキャラクタが参加する対戦のためのシステムを制御するコンピュータを、
前記1つ以上のキャラクタの各々と関連付けられる可変的な属性値を管理する属性管理部と、
前記実空間を撮像するカメラからの撮像画像を用いて、第1のキャラクタと実物体との間のインタラクションイベントを検出する検出部と、
前記インタラクションイベントに応じて前記第1のキャラクタの前記属性値を変化させるためのルールを設定する設定部と、
として機能させ、
前記属性管理部は、前記検出部により前記インタラクションイベントが検出された場合に、前記設定部により設定される前記ルールに従って、前記第1のキャラクタの前記属性値を変化させる、
プログラム。
(20)
モジュール化されたブロックを組み立てることによりそれぞれ形成されされる1つ以上のキャラクタの筐体と、
前記1つ以上のキャラクタの各々と関連付けられる可変的な属性値を管理する制御モジュールと、
を含み、
前記制御モジュールは、実空間を撮像するカメラからの撮像画像を用いて、第1のキャラクタと実物体との間のインタラクションイベントを検出し、前記インタラクションイベントに関与する前記ブロックの種類に応じて異なるルールに従って、前記第1のキャラクタの前記属性値を変化させる、
玩具システム。
Fi1 フィールドアイテム
Ub1 ユーザの身体
M01、M02、M03、M04 ブロック
M11、M12、M13、M14 ブロック
M21、M22、M23、M24 ブロック
M31、M32、M33 ブロック
M41、M42、M43、M44、M45、M46、M47、M48、M49 ブロック
11 カメラ
100 情報処理装置(制御モジュール)
102 カメラ
120 ブロックDB
130 属性DB
140 ルールDB
150 設定部
160 検出部
170 属性管理部
180 アイテム制御部
190 表示制御部
Claims (20)
- 実空間に存在する1つ以上のキャラクタの各々と関連付けられる可変的な属性値を管理する属性管理部と、
前記実空間を撮像するカメラからの撮像画像を用いて、第1のキャラクタと実物体との間のインタラクションイベントを検出する検出部と、
前記インタラクションイベントに応じて前記第1のキャラクタの前記属性値を変化させるためのルールを設定する設定部と、
を備え、
前記属性管理部は、前記検出部により前記インタラクションイベントが検出された場合に、前記設定部により設定される前記ルールに従って、前記第1のキャラクタの前記属性値を変化させる、
情報処理装置。 - 前記属性管理部は、前記第1のキャラクタと、前記設定部により設定される敵キャラクタとの間の前記インタラクションイベントに応じて、前記第1のキャラクタ又は前記敵キャラクタの前記属性値を減少させる、請求項1に記載の情報処理装置。
- 前記属性管理部は、前記第1のキャラクタと、前記設定部により設定される味方キャラクタ以外の実物体との間の前記インタラクションイベントに応じて、前記第1のキャラクタの前記属性値を減少させる、請求項1に記載の情報処理装置。
- 前記属性管理部は、前記第1のキャラクタと前記撮像画像に映る既知のアイテムとの間の前記インタラクションイベントに応じて、前記第1のキャラクタの前記属性値を変化させる、請求項1に記載の情報処理装置。
- 前記属性管理部は、前記アイテムがダメージ系アイテムである場合には、前記第1のキャラクタの前記属性値を減少させ、前記アイテムが回復系アイテムである場合には、前記第1のキャラクタの前記属性値を回復させる、請求項4に記載の情報処理装置。
- 前記実物体は、前記撮像画像に映るユーザの身体を含み、
前記属性管理部は、前記第1のキャラクタと前記ユーザの身体との間の前記インタラクションイベントに応じて、前記第1のキャラクタの前記属性値を減少させる、
請求項1に記載の情報処理装置。 - 前記属性管理部は、前記ユーザの身体が所定のジェスチャ又は所定のポーズを示してる場合には、前記第1のキャラクタの前記属性値を減少させない、請求項6に記載の情報処理装置。
- 前記インタラクションイベントは、前記第1のキャラクタと前記実物体との間の物理的接触を含む、請求項1に記載の情報処理装置。
- 各キャラクタは、モジュール化されたブロックを組み立てることにより形成され、
前記属性管理部は、前記インタラクションイベントに関与したブロックの種類に応じて、前記属性値の変化量を決定する、
請求項8に記載の情報処理装置。 - 前記カメラは、前記敵キャラクタの筐体に配設され、
前記インタラクションイベントは、前記撮像画像に前記第1のキャラクタが映っている状態で所定のユーザ入力が感知されることにより検出される遠隔攻撃イベントを含む、
請求項2に記載の情報処理装置。 - 各キャラクタは、モジュール化されたブロックを組み立てることにより形成され、
前記遠隔攻撃イベントは、当該遠隔攻撃イベントと関連付けられる種類の前記ブロックを前記敵キャラクタが有する場合に、検出される、
請求項10に記載の情報処理装置。 - 前記設定部は、前記撮像画像を用いて認識される各キャラクタのジェスチャに基づいて、各キャラクタを敵キャラクタ又は味方キャラクタに分類する、請求項2に記載の情報処理装置。
- 各キャラクタは、モジュール化されたブロックを組み立てることにより形成され、
前記設定部は、前記撮像画像に映る各キャラクタが有する前記ブロックの外観上の特徴に基づいて、各キャラクタを敵キャラクタ又は味方キャラクタに分類する、
請求項2に記載の情報処理装置。 - 前記情報処理装置は、
前記第1のキャラクタの前記属性値が変化した場合に、前記第1のキャラクタを駆動して前記変化に関連するリアクションを行わせる制御部、
をさらに備える、請求項1に記載の情報処理装置。 - 前記検出部は、前記キャラクタの筐体に配設されるキャラクタカメラ及び非キャラクタカメラの少なくとも1つからの前記撮像画像を用いて、前記インタラクションイベントを検出する、請求項1に記載の情報処理装置。
- 前記情報処理装置は、
前記撮像画像に拡張現実オブジェクトを重畳することにより生成される拡張現実画像をディスプレイへ出力する表示制御部、
をさらに備える、請求項1に記載の情報処理装置。 - 前記カメラは、前記1つ以上のキャラクタが参加する対戦に関与しない実物体の撮像を制限する仕組みを有する、請求項1に記載の情報処理装置。
- 実空間に存在する1つ以上のキャラクタが参加する対戦のためのシステムを制御するコンピュータにより実行される情報処理方法であって、
第1のキャラクタと実物体との間のインタラクションイベントに応じて当該第1のキャラクタと関連付けられる可変的な属性値を変化させるための、ルールを設定することと、
前記実空間を撮像するカメラからの撮像画像を用いて、前記インタラクションイベントを検出することと、
前記インタラクションイベントが検出された場合に、設定された前記ルールに従って、前記第1のキャラクタの前記属性値を変化させることと、
を含む情報処理方法。 - 実空間に存在する1つ以上のキャラクタが参加する対戦のためのシステムを制御するコンピュータを、
前記1つ以上のキャラクタの各々と関連付けられる可変的な属性値を管理する属性管理部と、
前記実空間を撮像するカメラからの撮像画像を用いて、第1のキャラクタと実物体との間のインタラクションイベントを検出する検出部と、
前記インタラクションイベントに応じて前記第1のキャラクタの前記属性値を変化させるためのルールを設定する設定部と、
として機能させ、
前記属性管理部は、前記検出部により前記インタラクションイベントが検出された場合に、前記設定部により設定される前記ルールに従って、前記第1のキャラクタの前記属性値を変化させる、
プログラム。 - モジュール化されたブロックを組み立てることによりそれぞれ形成されされる1つ以上のキャラクタの筐体と、
前記1つ以上のキャラクタの各々と関連付けられる可変的な属性値を管理する制御モジュールと、
を含み、
前記制御モジュールは、実空間を撮像するカメラからの撮像画像を用いて、第1のキャラクタと実物体との間のインタラクションイベントを検出し、前記インタラクションイベントに関与する前記ブロックの種類に応じて異なるルールに従って、前記第1のキャラクタの前記属性値を変化させる、
玩具システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/386,080 US9737808B2 (en) | 2012-06-05 | 2013-03-07 | Information processing apparatus, information processing method, program, and toy system |
EP13800845.3A EP2862604B1 (en) | 2012-06-05 | 2013-03-07 | Information processing device, information processing method, program and toy system |
CN201380028548.0A CN104334238A (zh) | 2012-06-05 | 2013-03-07 | 信息处理设备、信息处理方法、程序和玩具系统 |
JP2014519854A JP6036821B2 (ja) | 2012-06-05 | 2013-03-07 | 情報処理装置、情報処理方法、プログラム及び玩具システム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-127794 | 2012-06-05 | ||
JP2012127794 | 2012-06-05 | ||
JP2012-193355 | 2012-09-03 | ||
JP2012193355 | 2012-09-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013183328A1 true WO2013183328A1 (ja) | 2013-12-12 |
Family
ID=49711730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/056303 WO2013183328A1 (ja) | 2012-06-05 | 2013-03-07 | 情報処理装置、情報処理方法、プログラム及び玩具システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9737808B2 (ja) |
EP (1) | EP2862604B1 (ja) |
JP (1) | JP6036821B2 (ja) |
CN (1) | CN104334238A (ja) |
WO (1) | WO2013183328A1 (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015173246A1 (en) * | 2014-05-15 | 2015-11-19 | Lego A/S | A toy construction system with function construction elements |
WO2016039628A1 (en) * | 2014-09-12 | 2016-03-17 | Rnd By Us B.V. | Shape-shifting a configuraton of reusable elements |
WO2016067474A1 (ja) * | 2014-10-31 | 2016-05-06 | 株式会社タカラトミー | ロボット玩具 |
JP2017144217A (ja) * | 2016-02-19 | 2017-08-24 | 株式会社コーエーテクモゲームス | ゲームシステム、ゲーム装置、情報処理装置および制御プログラム |
CN107427724A (zh) * | 2015-03-02 | 2017-12-01 | 游戏联合有限公司 | 用于增强游戏体验的方法和设备 |
EP3146412A4 (en) * | 2014-05-23 | 2017-12-06 | Sphero, Inc. | Causing gesture responses on connected devices |
KR20170134644A (ko) * | 2015-04-08 | 2017-12-06 | 레고 에이/에스 | 게임 시스템 |
JP2017537669A (ja) * | 2014-10-02 | 2017-12-21 | レゴ エー/エス | ゲームシステム |
US9956494B2 (en) | 2013-03-15 | 2018-05-01 | Rnd By Us B.V. | Element comprising sensors for detecting grab motion or grab release motion for actuating inter-element holding or releasing |
US10093488B2 (en) | 2013-03-15 | 2018-10-09 | Rnd By Us B.V. | Shape-shifting a configuration of reusable elements |
KR20190032296A (ko) * | 2016-05-27 | 2019-03-27 | 스왑보츠 리미티드 | 증강 현실 장난감 |
JP2019525265A (ja) * | 2016-08-12 | 2019-09-05 | クボ・ロボティクス・エーピーエス | 教育目的用プログラマブルロボット |
US10583354B2 (en) | 2014-06-06 | 2020-03-10 | Lego A/S | Interactive game apparatus and toy construction system |
JP2022017478A (ja) * | 2018-12-25 | 2022-01-25 | グリー株式会社 | プログラム、ゲームの制御方法、及び情報処理装置 |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130288563A1 (en) * | 2005-10-21 | 2013-10-31 | Patent Category Corporation | Interactive toy system |
US8858339B2 (en) | 2012-12-11 | 2014-10-14 | Activision Publishing, Inc. | Interactive video game system comprising toys with rewritable memories |
US9205344B2 (en) * | 2013-02-08 | 2015-12-08 | Hasbro, Inc. | Toy figure assembly |
WO2015005639A1 (ko) * | 2013-07-08 | 2015-01-15 | Ji Seung Hwan | 완구 부착형 애드온 장치를 이용한 증강현실 컨텐츠 제공 시스템 |
US9802130B2 (en) * | 2013-12-20 | 2017-10-31 | Activision Publishing, Inc. | Interactive video game system comprising toys with rewritable memories |
US9910501B2 (en) * | 2014-01-07 | 2018-03-06 | Toshiba Global Commerce Solutions Holdings Corporation | Systems and methods for implementing retail processes based on machine-readable images and user gestures |
CA2949822A1 (en) * | 2014-05-23 | 2015-11-26 | Sphero, Inc. | Causing gesture responses on connected devices |
US20170189804A1 (en) * | 2014-06-23 | 2017-07-06 | Seebo Interactive Ltd. | Connected Toys System For Bridging Between Physical Interaction Of Toys In Reality To Virtual Events |
CN105288998B (zh) * | 2015-09-23 | 2019-01-08 | 腾讯科技(深圳)有限公司 | 智能硬件的交互方法及装置 |
PH12015000370A1 (en) | 2015-10-23 | 2017-05-03 | Power Oddette L | A display device and methods of displaying objects |
CN106919249A (zh) * | 2015-12-25 | 2017-07-04 | 施政 | 一种角色叠加的玩具及其运行的方法 |
US10969748B1 (en) | 2015-12-28 | 2021-04-06 | Disney Enterprises, Inc. | Systems and methods for using a vehicle as a motion base for a simulated experience |
CN108697938B (zh) * | 2016-01-06 | 2020-07-10 | 埃沃洛夫有限公司 | 具有可变角色的机器人 |
US10376776B2 (en) * | 2016-01-20 | 2019-08-13 | Disney Enterprises, Inc. | Systems and methods for providing a video game using information stored by physical objects |
US11524242B2 (en) | 2016-01-20 | 2022-12-13 | Disney Enterprises, Inc. | Systems and methods for providing customized instances of a game within a virtual space |
EP3436773B1 (en) | 2016-04-01 | 2021-04-28 | Lego A/S | Toy scanner |
CN110035807A (zh) * | 2016-10-14 | 2019-07-19 | 乐高公司 | 游戏系统 |
US11452935B2 (en) | 2016-11-11 | 2022-09-27 | Lego A/S | Virtual card game system |
WO2019010682A1 (zh) * | 2017-07-14 | 2019-01-17 | 深圳前海达闼云端智能科技有限公司 | 机器人性格设定方法、装置和机器人 |
JP6992342B2 (ja) * | 2017-09-13 | 2022-01-13 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
USD830743S1 (en) * | 2017-09-22 | 2018-10-16 | Tynies, Inc. | Display frame |
US10970560B2 (en) | 2018-01-12 | 2021-04-06 | Disney Enterprises, Inc. | Systems and methods to trigger presentation of in-vehicle content |
JP6636558B2 (ja) * | 2018-03-30 | 2020-01-29 | 株式会社バンダイナムコエンターテインメント | 遠隔操作システム及びプログラム |
US10841632B2 (en) | 2018-08-08 | 2020-11-17 | Disney Enterprises, Inc. | Sequential multiplayer storytelling in connected vehicles |
US11833441B2 (en) * | 2019-01-25 | 2023-12-05 | Sony Interactive Entertainment Inc. | Robot |
US10785621B1 (en) | 2019-07-30 | 2020-09-22 | Disney Enterprises, Inc. | Systems and methods to provide an interactive space based on vehicle-to-vehicle communications |
KR102324845B1 (ko) * | 2019-10-02 | 2021-11-11 | (주)케이시크 | 사용자 게임 연계 자율주행 방법 및 시스템 |
JP7344816B2 (ja) | 2020-03-11 | 2023-09-14 | 三協立山株式会社 | 換気システム |
US11076276B1 (en) | 2020-03-13 | 2021-07-27 | Disney Enterprises, Inc. | Systems and methods to provide wireless communication between computing platforms and articles |
DE102021106403A1 (de) * | 2021-03-16 | 2022-09-22 | Geobra Brandstätter Stiftung & Co. Kg | Spielsystem und Spiel mit dem Spielsystem |
CN113318449B (zh) * | 2021-06-17 | 2024-05-14 | 上海幻电信息科技有限公司 | 游戏元素交互数值化方法与系统 |
CN114028818B (zh) * | 2021-11-15 | 2024-10-18 | 网易(杭州)网络有限公司 | 游戏数据处理方法及装置、计算机存储介质、电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08215416A (ja) | 1995-02-15 | 1996-08-27 | Sony Corp | 対戦ロボット玩具システム |
JP2004105631A (ja) * | 2002-09-20 | 2004-04-08 | Takara Co Ltd | シュミレーションゲーム玩具 |
US20050186884A1 (en) * | 2004-02-19 | 2005-08-25 | Evans Janet E. | Remote control game system with selective component disablement |
WO2008081902A1 (ja) * | 2006-12-28 | 2008-07-10 | Konami Digital Entertainment Co., Ltd. | シューティング玩具 |
JP2010518354A (ja) * | 2007-02-13 | 2010-05-27 | パルロ | 遠隔操作玩具用のシューティング・ゲームにおいて対象を認識するための方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050105769A1 (en) * | 2003-11-19 | 2005-05-19 | Sloan Alan D. | Toy having image comprehension |
US20080184277A1 (en) * | 2007-01-26 | 2008-07-31 | Microsoft Corporation | Systems management policy validation, distribution and enactment |
WO2009113067A2 (en) * | 2008-03-11 | 2009-09-17 | In-Dot Ltd. | Systems and methods for communication |
US8939842B2 (en) * | 2009-01-13 | 2015-01-27 | Meimadtek Ltd. | Method and system for operating a self-propelled vehicle according to scene images |
US9573064B2 (en) * | 2010-06-24 | 2017-02-21 | Microsoft Technology Licensing, Llc | Virtual and location-based multiplayer gaming |
US8475284B1 (en) * | 2012-07-31 | 2013-07-02 | Scott Rudi | Dynamic views within gaming environments |
-
2013
- 2013-03-07 CN CN201380028548.0A patent/CN104334238A/zh active Pending
- 2013-03-07 WO PCT/JP2013/056303 patent/WO2013183328A1/ja active Application Filing
- 2013-03-07 US US14/386,080 patent/US9737808B2/en active Active
- 2013-03-07 JP JP2014519854A patent/JP6036821B2/ja active Active
- 2013-03-07 EP EP13800845.3A patent/EP2862604B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08215416A (ja) | 1995-02-15 | 1996-08-27 | Sony Corp | 対戦ロボット玩具システム |
JP2004105631A (ja) * | 2002-09-20 | 2004-04-08 | Takara Co Ltd | シュミレーションゲーム玩具 |
US20050186884A1 (en) * | 2004-02-19 | 2005-08-25 | Evans Janet E. | Remote control game system with selective component disablement |
WO2008081902A1 (ja) * | 2006-12-28 | 2008-07-10 | Konami Digital Entertainment Co., Ltd. | シューティング玩具 |
JP2010518354A (ja) * | 2007-02-13 | 2010-05-27 | パルロ | 遠隔操作玩具用のシューティング・ゲームにおいて対象を認識するための方法 |
Non-Patent Citations (1)
Title |
---|
See also references of EP2862604A4 |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9956494B2 (en) | 2013-03-15 | 2018-05-01 | Rnd By Us B.V. | Element comprising sensors for detecting grab motion or grab release motion for actuating inter-element holding or releasing |
US10093488B2 (en) | 2013-03-15 | 2018-10-09 | Rnd By Us B.V. | Shape-shifting a configuration of reusable elements |
EP3900803A1 (en) * | 2014-05-15 | 2021-10-27 | Lego A/S | Toy construction system with function construction elements |
US10625173B2 (en) | 2014-05-15 | 2020-04-21 | Lego A/S | Toy construction system with function construction elements |
KR20170005471A (ko) * | 2014-05-15 | 2017-01-13 | 레고 에이/에스 | 기능 구축 요소를 갖는 완구 구축 시스템 |
CN106457055A (zh) * | 2014-05-15 | 2017-02-22 | 乐高公司 | 具有功能构建单元的玩具构建系统 |
KR102494005B1 (ko) | 2014-05-15 | 2023-01-31 | 레고 에이/에스 | 기능 구축 요소를 갖는 완구 구축 시스템 |
JP7100086B2 (ja) | 2014-05-15 | 2022-07-12 | レゴ エー/エス | 機能構築要素を備える玩具構築システム |
CN106457055B (zh) * | 2014-05-15 | 2019-06-21 | 乐高公司 | 具有功能构建单元的玩具构建系统 |
EP3583987A1 (en) * | 2014-05-15 | 2019-12-25 | Lego A/S | A toy construction system with function construction elements |
JP2020127816A (ja) * | 2014-05-15 | 2020-08-27 | レゴ エー/エス | 機能構築要素を備える玩具構築システム |
WO2015173246A1 (en) * | 2014-05-15 | 2015-11-19 | Lego A/S | A toy construction system with function construction elements |
US12005372B2 (en) | 2014-05-15 | 2024-06-11 | Lego A/S | Toy construction system with function construction elements |
EP3146412A4 (en) * | 2014-05-23 | 2017-12-06 | Sphero, Inc. | Causing gesture responses on connected devices |
US10583354B2 (en) | 2014-06-06 | 2020-03-10 | Lego A/S | Interactive game apparatus and toy construction system |
NL2013466B1 (en) * | 2014-09-12 | 2016-09-28 | Rnd By Us B V | Shape-Shifting a Configuration of Reusable Elements. |
WO2016039628A1 (en) * | 2014-09-12 | 2016-03-17 | Rnd By Us B.V. | Shape-shifting a configuraton of reusable elements |
JP2017537669A (ja) * | 2014-10-02 | 2017-12-21 | レゴ エー/エス | ゲームシステム |
US10646780B2 (en) | 2014-10-02 | 2020-05-12 | Lego A/S | Game system |
WO2016067474A1 (ja) * | 2014-10-31 | 2016-05-06 | 株式会社タカラトミー | ロボット玩具 |
JPWO2016067474A1 (ja) * | 2014-10-31 | 2017-08-03 | 株式会社タカラトミー | ロボット玩具 |
US10933328B2 (en) | 2015-03-02 | 2021-03-02 | PlayFusion Limited | Method and apparatus for enhancing a gaming experience |
CN107427724A (zh) * | 2015-03-02 | 2017-12-01 | 游戏联合有限公司 | 用于增强游戏体验的方法和设备 |
JP2018509211A (ja) * | 2015-03-02 | 2018-04-05 | プレイフュージョン リミテッド | ゲーム体験を向上させるための方法および装置 |
KR102058468B1 (ko) * | 2015-03-02 | 2019-12-23 | 플레이퓨젼 리미티드 | 게임 경험을 향상시키기 위한 방법 및 장치 |
US10898810B2 (en) | 2015-03-02 | 2021-01-26 | PlayFusion Limited | Method and apparatus for enhancing a gaming experience |
CN107427724B (zh) * | 2015-03-02 | 2021-01-19 | 游戏联合有限公司 | 用于增强游戏体验的方法和设备 |
US10881970B2 (en) | 2015-04-08 | 2021-01-05 | Lego A/S | Game system |
US10799802B2 (en) | 2015-04-08 | 2020-10-13 | Lego A/S | Game system |
KR20170134644A (ko) * | 2015-04-08 | 2017-12-06 | 레고 에이/에스 | 게임 시스템 |
KR20230044322A (ko) * | 2015-04-08 | 2023-04-03 | 레고 에이/에스 | 게임 시스템 |
KR102513852B1 (ko) * | 2015-04-08 | 2023-03-27 | 레고 에이/에스 | 게임 시스템 |
KR102593302B1 (ko) | 2015-04-08 | 2023-10-25 | 레고 에이/에스 | 게임 시스템 |
JP2018516109A (ja) * | 2015-04-08 | 2018-06-21 | レゴ エー/エス | ゲームシステム |
JP2017144217A (ja) * | 2016-02-19 | 2017-08-24 | 株式会社コーエーテクモゲームス | ゲームシステム、ゲーム装置、情報処理装置および制御プログラム |
KR102458154B1 (ko) * | 2016-05-27 | 2022-10-24 | 스왑보츠 리미티드 | 증강 현실 장난감 |
JP7100023B2 (ja) | 2016-05-27 | 2022-07-12 | スワップボッツ・リミテッド | 拡張現実玩具 |
JP2019517902A (ja) * | 2016-05-27 | 2019-06-27 | スワップボッツ・リミテッド | 拡張現実玩具 |
KR20190032296A (ko) * | 2016-05-27 | 2019-03-27 | 스왑보츠 리미티드 | 증강 현실 장난감 |
US11345018B2 (en) | 2016-08-12 | 2022-05-31 | Kubo Robotics Aps | Programmable robot for educational purposes |
JP7073373B2 (ja) | 2016-08-12 | 2022-05-23 | クボ・ロボティクス・エーピーエス | 教育目的用プログラマブルロボット |
JP2019525265A (ja) * | 2016-08-12 | 2019-09-05 | クボ・ロボティクス・エーピーエス | 教育目的用プログラマブルロボット |
JP2022017478A (ja) * | 2018-12-25 | 2022-01-25 | グリー株式会社 | プログラム、ゲームの制御方法、及び情報処理装置 |
JP7383305B2 (ja) | 2018-12-25 | 2023-11-20 | グリー株式会社 | プログラム、ゲームの制御方法、及び情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
CN104334238A (zh) | 2015-02-04 |
US20150080125A1 (en) | 2015-03-19 |
US9737808B2 (en) | 2017-08-22 |
JP6036821B2 (ja) | 2016-11-30 |
EP2862604A1 (en) | 2015-04-22 |
EP2862604B1 (en) | 2018-05-02 |
JPWO2013183328A1 (ja) | 2016-01-28 |
EP2862604A4 (en) | 2016-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6036821B2 (ja) | 情報処理装置、情報処理方法、プログラム及び玩具システム | |
US9545571B2 (en) | Methods and apparatus for a video game magic system | |
CN101237915B (zh) | 交互娱乐系统及其操作方法 | |
US20090005167A1 (en) | Mobile Gaming with External Devices in Single and Multiplayer Games | |
Xu et al. | Pre-patterns for designing embodied interactions in handheld augmented reality games | |
JP2010253277A (ja) | ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム | |
Tanenbaum et al. | Envisioning the Future of Wearable Play: Conceptual Models for Props and Costumes as Game Controllers. | |
CN111921200B (zh) | 虚拟对象的控制方法、装置、电子设备及存储介质 | |
CN112402971B (zh) | 虚拟对象控制方法、装置、计算机设备及存储介质 | |
CN113101656B (zh) | 虚拟对象的控制方法、装置、终端及存储介质 | |
WO2020262331A1 (ja) | ゲームプログラム、ゲーム方法、および端末装置 | |
Schouten et al. | Human behavior analysis in ambient gaming and playful interaction | |
CN112316423B (zh) | 虚拟对象状态变化的显示方法、装置、设备及介质 | |
JP6580619B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
Paiva et al. | Towards tangibility in gameplay: building a tangible affective interface for a computer game | |
Buzeto et al. | Reconfigurable games: games that change with the environment | |
Lamberti et al. | Robotic gaming and user interaction: Impact of autonomous behaviors and emotional features | |
CN114307173A (zh) | 虚拟物品的信息显示方法、发送方法、装置、设备及介质 | |
KR102427209B1 (ko) | 스위칭 블록을 이용한 콘텐츠 제공 방법 및 시스템 | |
JP6326167B1 (ja) | 学習装置、学習方法、学習プログラム、動画配信装置、活動装置、活動プログラムおよび動画生成装置 | |
CN113521737B (zh) | 虚拟角色的锁定方法、装置、计算机设备及存储介质 | |
Hendricks et al. | EEG: the missing gap between controllers and gestures | |
JP2019103815A (ja) | ゲームプログラム、方法および情報処理装置 | |
McLoughlin | Sustained Intrusion | |
US20240299840A1 (en) | Play systems for ambient spaces with video controllers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13800845 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2014519854 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14386080 Country of ref document: US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2013800845 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |