WO2023157323A1 - ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法 - Google Patents

ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法 Download PDF

Info

Publication number
WO2023157323A1
WO2023157323A1 PCT/JP2022/009229 JP2022009229W WO2023157323A1 WO 2023157323 A1 WO2023157323 A1 WO 2023157323A1 JP 2022009229 W JP2022009229 W JP 2022009229W WO 2023157323 A1 WO2023157323 A1 WO 2023157323A1
Authority
WO
WIPO (PCT)
Prior art keywords
product
united
game
virtual space
objects
Prior art date
Application number
PCT/JP2022/009229
Other languages
English (en)
French (fr)
Inventor
直希 深田
匡 坂本
晴紀 佐藤
祐也 佐藤
Original Assignee
任天堂株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 任天堂株式会社 filed Critical 任天堂株式会社
Priority to PCT/JP2022/009229 priority Critical patent/WO2023157323A1/ja
Priority to JP2023523123A priority patent/JP7487415B2/ja
Priority to CN202280008439.1A priority patent/CN117015426A/zh
Priority to US18/302,336 priority patent/US20230277940A1/en
Publication of WO2023157323A1 publication Critical patent/WO2023157323A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games

Definitions

  • the present invention relates to a game program, a game device, a game system, and a game processing method that perform processing for generating products in virtual space.
  • one of the objects of the present invention is to provide a game program, a game device, a game system, and a game processing method that make it possible to generate products using materials in virtual space.
  • the present invention can adopt, for example, the following configuration.
  • a configuration example of the game program of the present invention is executed by a computer included in the information processing device.
  • the game program causes the computer to function as area setting means, object moving means, and product rendering means.
  • the area setting means sets an area at an arbitrary position in the virtual space based on a user's operation.
  • the object moving means moves the material object within the virtual space based on the user's operation.
  • the product rendering means uses at least a material object at least a part of which is included in the area, and makes a product corresponding to the plurality of material objects appear so that at least a part of the material object is included in the area. .
  • the material objects included in the area set by the user in the virtual space are used, it is possible to make the product appear while maintaining the game.
  • the area is a virtual space area in which material objects can be appropriately arranged, it is highly likely that the appearing product can also be appropriately arranged, resulting in excellent usability.
  • the product may be a united object in which multiple material objects are combined.
  • the game program may further cause the computer to function as united object generation means.
  • the united object generating means generates a united object by combining a plurality of material objects based on a user's operation.
  • the game program may further cause the computer to function as product setting means.
  • the product setting means sets the united object generated by the united object generating unit as a product that can be rendered by the product rendering unit.
  • the generated product setting means may automatically set the united object generated by the united object generating unit as the generated product.
  • the united object assembled based on the user's operation is automatically set as a product, so usability is excellent.
  • the product setting means can set a predetermined number of products, and when the united object generated by the united object generating unit is automatically set as a new product, when the predetermined number is exceeded, Of the products that have already been set, those whose setting time is relatively old may be automatically deleted.
  • the product setting means can set an arbitrary product among the set products as a specific product according to a user operation, and when setting a new product, a predetermined The settings for that particular product may be retained even when the number is exceeded.
  • the product setting means sets a product corresponding to the item as a product that can be made to appear by the product manifesting means.
  • searching for and acquiring predetermined items increases the interest of the game.
  • the user learns how to assemble the material objects from the generated product, thereby making it possible for the user to assemble and modify the material objects by himself, thereby increasing the interest of the game.
  • the generated product setting unit sets the united object as a product that can be displayed by the product displaying unit. You may
  • the product manifesting means may distinguishably display the material objects used for manifesting the product among the objects included in the area.
  • the product rendering means may display in the area an image showing a product to be displayed in which a plurality of material objects are combined.
  • the product manifestation means selects, from among the plurality of material objects constituting the product, the material objects that are lacking in order to make the product appear in the displayed product that is scheduled to appear. You may display so that distinction is possible.
  • the product manifesting means extracts other material objects from the product to appear, excluding the lacking material objects. may be made to appear while maintaining how the other material objects are combined.
  • the material objects may include a storable object that can be temporarily stored as a storage object by a player character operated by the user and a non-storable object that the player character cannot temporarily store as a storage object.
  • the product manifesting means uses the material object at least part of which is included in the area and the storage object temporarily stored by the player character operated by the user to make the product appear. good too.
  • the product rendering means displays the material object at least part of which is included in the region. May be used preferentially to reveal product.
  • a player character operated by the user may be placed in the virtual space.
  • the object moving means may move the material object within the virtual space according to the user's operation of the player character.
  • the game program may further cause the computer to function as united object generating means.
  • the united object generation means generates a united object by assembling a plurality of material objects based on movement.
  • the area setting means may set the area on the ground in front of the player character.
  • the product appearing means causes the product to appear in an area in front of the player character, and when the player character is placed in the air, the player character Artifacts may appear below the character.
  • the product it is possible to make the product appear on the ground in front of the player character in the virtual space, and to make the product appear below the player character even in the air in the virtual space. , while using the material object from the virtual space, the product can be made to appear at a position where the product can be easily used.
  • the present invention may be implemented in the form of a game device, a game system, and a game processing method.
  • FIG. 4 shows an example of a state in which the left controller 3 and the right controller 4 are attached to the main unit 2; A diagram showing an example of a state in which the left controller 3 and the right controller 4 are removed from the main unit 2.
  • Six views showing an example of the main unit 2 Six views showing an example of the left controller 3
  • Six views showing an example of the right controller 4 FIG. 2 is a block diagram showing an example of the internal configuration of the main unit 2; A block diagram showing an example of the internal configuration of the main unit 2 and the left controller 3 and right controller 4.
  • FIG. 4 shows an example of a game image displayed on the display 12; A diagram showing an example of a united object generated by combining a rock object OBJg and a box object OBJf.
  • FIG. 4 shows an example of a data area set in the DRAM 85 of the main unit 2 in the first embodiment
  • An example of a game system 1 in this embodiment includes a main body device (information processing device; in this embodiment, functions as a game device main body) 2 and a left controller 3 and a right controller 4 .
  • a left controller 3 and a right controller 4 are detachable from the main unit 2 .
  • the game system 1 can be used as an integrated device in which the left controller 3 and the right controller 4 are attached to the main unit 2 respectively.
  • the game system 1 can also use the main unit 2 and the left controller 3 and right controller 4 as separate bodies (see FIG. 2).
  • the hardware configuration of the game system 1 of this embodiment will be described below, and then the control of the game system 1 of this embodiment will be described.
  • FIG. 1 is a diagram showing an example of a state in which the left controller 3 and the right controller 4 are attached to the main unit 2.
  • FIG. 1 the left controller 3 and the right controller 4 are attached to and integrated with the main unit 2 respectively.
  • the main device 2 is a device that executes various types of processing (for example, game processing) in the game system 1 .
  • the main unit 2 has a display 12 .
  • the left controller 3 and the right controller 4 are devices provided with operation units for user input.
  • FIG. 2 is a diagram showing an example of a state in which the left controller 3 and right controller 4 are removed from the main unit 2.
  • FIG. 1 and 2 the left controller 3 and the right controller 4 are detachable from the main unit 2 .
  • the left controller 3 and the right controller 4 may be collectively referred to as "controllers”.
  • FIG. 3 are six views showing an example of the main unit 2.
  • the main unit 2 includes a substantially plate-shaped housing 11 .
  • the main surface of the housing 11 (in other words, the surface on the front side, that is, the surface on which the display 12 is provided) is generally rectangular.
  • the main unit 2 has a touch panel 13 on the screen of the display 12 .
  • the touch panel 13 is of a type capable of multi-touch input (for example, a capacitive type).
  • the touch panel 13 may be of any type, and for example, may be of a type capable of single-touch input (for example, a resistive film type).
  • the main unit 2 has slots 23 .
  • a slot 23 is provided in the upper surface of the housing 11 .
  • the slot 23 has a shape in which a predetermined type of storage medium can be loaded.
  • the predetermined type of storage medium is, for example, a storage medium dedicated to the game system 1 and an information processing device of the same type (eg, dedicated memory card).
  • the predetermined type of storage medium stores, for example, data used by the main unit 2 (for example, application save data, etc.) and/or programs executed by the main unit 2 (for example, application programs, etc.). used to The main unit 2 also includes a power button 28 .
  • the main unit 2 has lower terminals 27 .
  • the lower terminal 27 is a terminal for the main device 2 to communicate with the cradle.
  • the lower terminal 27 is a USB connector (more specifically, a female connector).
  • the game system 1 can display an image generated and output by the main device 2 on the stationary monitor.
  • the cradle has a function of charging the mounted integrated device or main device 2 alone.
  • the cradle has the function of a hub device (specifically, a USB hub).
  • FIG. 4 are six views showing an example of the left controller 3.
  • FIG. 4 is six views showing an example of the left controller 3.
  • the left controller 3 has an analog stick 32 .
  • the analog stick 32 is provided on the main surface of the housing 31.
  • the analog stick 32 can be used as a directional input unit capable of inputting directions. By tilting the analog stick 32, the user can input a direction according to the tilting direction (and input a magnitude according to the tilting angle).
  • the left controller 3 may be provided with a cross key or a slide stick capable of slide input as the direction input unit instead of the analog stick. Further, in this embodiment, an input by pressing the analog stick 32 is possible.
  • the left controller 3 has various operation buttons.
  • the left controller 3 has four operation buttons 33 to 36 (specifically, a right button 33 , a downward button 34 , an upward button 35 and a left button 36 ) on the main surface of the housing 31 . Further, the left controller 3 has a recording button 37 and a - (minus) button 47 .
  • the left controller 3 has a first L button 38 and a ZL button 39 on the upper left side of the housing 31 .
  • the left controller 3 also has a second L button 43 and a second R button 44 on the side surface of the housing 31 that is attached when attached to the main unit 2 .
  • These operation buttons are used to give instructions according to various programs (for example, an OS program and an application program) executed by the main device 2 .
  • the left controller 3 also includes a terminal 42 for wire communication between the left controller 3 and the main unit 2 .
  • FIG. 5 are six views showing an example of the right controller 4.
  • FIG. 6 is a block diagram showing an example of the internal configuration of the main unit 2.
  • the main unit 2 includes components 81 to 91, 97, and 98 shown in FIG. 6 in addition to the configuration shown in FIG. Some of these components 81 - 91 , 97 and 98 may be mounted on an electronic circuit board as electronic components and accommodated within housing 11 .
  • the main unit 2 has a processor 81 .
  • the processor 81 is an information processing section that executes various types of information processing executed in the main unit 2.
  • the processor 81 may be composed of only a CPU (Central Processing Unit), or may be composed of a CPU function and a GPU (Graphics Processing Unit). ) function, it may be configured from a SoC (System-on-a-chip) including multiple functions.
  • the processor 81 executes an information processing program (for example, a game program) stored in a storage unit (specifically, an internal storage medium such as the flash memory 84, or an external storage medium mounted in the slot 23, etc.). By doing so, various information processing is executed.
  • the main unit 2 includes a flash memory 84 and a DRAM (Dynamic Random Access Memory) 85 as examples of internal storage media built into itself. Flash memory 84 and DRAM 85 are connected to processor 81 . Flash memory 84 is a memory mainly used for storing various data (which may be programs) to be stored in main unit 2 .
  • the DRAM 85 is a memory used to temporarily store various data used in information processing.
  • the main unit 2 includes a slot interface (hereinafter abbreviated as "I/F") 91.
  • Slot I/F 91 is connected to processor 81 .
  • the slot I/F 91 is connected to the slot 23 and reads and writes data from/to a predetermined type of storage medium (for example, a dedicated memory card) attached to the slot 23 according to instructions from the processor 81 .
  • a predetermined type of storage medium for example, a dedicated memory card
  • the processor 81 appropriately reads and writes data from/to the flash memory 84 and the DRAM 85, as well as the above storage media, to execute the above information processing.
  • the main unit 2 includes a controller communication unit 83.
  • Controller communication unit 83 is connected to processor 81 .
  • the controller communication unit 83 wirelessly communicates with the left controller 3 and/or the right controller 4 .
  • the communication method between the main unit 2 and the left controller 3 and the right controller 4 is arbitrary. (registered trademark) standards.
  • the processor 81 is connected to the left terminal 17, right terminal 21, and lower terminal 27 described above.
  • the processor 81 transmits data to the left controller 3 via the left terminal 17 and receives operation data from the left controller 3 via the left terminal 17 .
  • the processor 81 transmits data to the right controller 4 via the right terminal 21 and receives operation data from the right controller 4 via the right terminal 21 .
  • the processor 81 transmits data to the cradle via the lower terminal 27 .
  • the main unit 2 can perform both wired communication and wireless communication with the left controller 3 and the right controller 4, respectively.
  • the main unit 2 transmits data (for example, image data, voice data, etc.) via the cradle. data) can be output to a stationary monitor or the like.
  • data for example, image data, voice data, etc.
  • the display 12 is connected to the processor 81 .
  • the processor 81 displays on the display 12 images generated (for example, by executing the information processing described above) and/or images obtained from the outside.
  • the main unit 2 also includes an acceleration sensor 89 and an angular velocity sensor 90 .
  • FIG. 7 is a block diagram showing an example of the internal configuration of the main unit 2 and the left controller 3 and right controller 4. As shown in FIG. The details of the internal configuration of the main unit 2 are omitted in FIG. 7 since they are shown in FIG. Since the left controller 3 and the right controller 4 basically have the same configuration, the left controller 3 will be described below.
  • the left controller 3 has a communication control section 101 that communicates with the main unit 2 .
  • the communication control section 101 is connected to each component including the terminal 42 .
  • the communication control unit 101 can communicate with the main unit 2 by both wired communication via the terminal 42 and wireless communication not via the terminal 42 .
  • the communication control unit 101 controls the method of communication performed by the left controller 3 with the main unit 2 . That is, when the left controller 3 is attached to the main unit 2 , the communication control section 101 communicates with the main unit 2 via the terminal 42 . Further, when the left controller 3 is detached from the main unit 2, the communication control unit 101 performs wireless communication with the main unit 2 (specifically, the controller communication unit 83). Wireless communication between the controller communication unit 83 and the communication control unit 101 is performed according to the Bluetooth (registered trademark) standard, for example.
  • the left controller 3 also includes a memory 102 such as a flash memory.
  • the communication control unit 101 is composed of, for example, a microcomputer (also referred to as a microprocessor), and executes various processes by executing firmware stored in the memory 102 .
  • the left controller 3 includes buttons 103 (specifically, buttons 33-39, 43, 44, and 47).
  • the left controller 3 also includes an analog stick (denoted as “stick” in FIG. 7) 32 .
  • Each of the buttons 103 and the analog stick 32 repeatedly outputs information about operations performed on itself to the communication control unit 101 at appropriate timings.
  • the left controller 3 is equipped with an inertial sensor. Specifically, the left controller 3 includes an acceleration sensor 104 .
  • the left controller 3 also includes an angular velocity sensor 105 .
  • the acceleration sensor 104 detects the magnitude of acceleration along predetermined three-axis (eg, xyz-axis shown in FIG. 4) directions. Note that the acceleration sensor 104 may detect acceleration in one or two axial directions.
  • the angular velocity sensor 105 detects angular velocities around predetermined three axes (eg, xyz axes shown in FIG. 4). The angular velocity sensor 105 may detect angular velocity about one axis or two axes. Acceleration sensor 104 and angular velocity sensor 105 are each connected to communication control unit 101 . The detection results of the acceleration sensor 104 and the angular velocity sensor 105 are repeatedly output to the communication control unit 101 at appropriate timings.
  • the communication control unit 101 receives information on input (specifically, information on operation or detection result by sensor) from each input unit (specifically, each button 103, analog stick 32, each sensor 104 and 105) to get The communication control unit 101 transmits operation data including the acquired information (or information obtained by performing predetermined processing on the acquired information) to the main unit 2 .
  • the operation data is repeatedly transmitted at a rate of once per predetermined time. It should be noted that the interval at which the information about the input is transmitted to the main unit 2 may or may not be the same for each input section.
  • the main unit 2 can obtain the input made to the left controller 3 . That is, the main unit 2 can determine the operation of each button 103 and the analog stick 32 based on the operation data. Main unit 2 can also calculate information about the movement and/or orientation of left controller 3 based on operation data (specifically, detection results of acceleration sensor 104 and angular velocity sensor 105).
  • a virtual space is defined.
  • a virtual camera and a player character PC are placed in the virtual space.
  • a virtual camera is set behind the player character PC, a game image including the player character PC is generated using the virtual camera, and displayed on the display 12 or a stationary monitor.
  • FIG. 8 is a diagram showing an example of a game image displayed on the display 12 when the game of this embodiment is executed.
  • the game image includes a player character PC and a plurality of material objects OBJ (OBJa to OBJg) as virtual objects placed in the virtual space.
  • the player character PC is a character operated by the user.
  • the player character PC moves in the virtual space according to user operations on the main unit 2, the left controller 3, and/or the right controller 4, and creates a united object (creation) by assembling a plurality of material objects OBJ. generate.
  • a plurality of material objects OBJ are objects that can move in the virtual space according to user's operation, and are objects that can constitute parts that become a part of the united object.
  • a plurality of material objects OBJ are arranged in advance on the ground in the virtual space.
  • a plurality of material objects OBJ may appear in the virtual space based on a user's operation.
  • the material object OBJ may appear in the virtual space when the player character PC defeats an enemy character or clears a predetermined task.
  • the user can generate a united object by combining multiple material objects OBJ.
  • the user can generate a vehicle object such as a vehicle, a tank, an airplane, a ship, or a weapon object for attacking an enemy character as a united object, and can proceed with the game using the generated united object.
  • the player character PC can move in the virtual space by riding on the generated vehicle object and moving the vehicle object, or attack the enemy character using the weapon object.
  • the user can arbitrarily set the position and/or posture to assemble a plurality of material objects OBJ. Therefore, by assembling a plurality of material objects OBJ, the user can generate a united object having no function, or can generate a virtual object as a mere object or decoration.
  • an engine object OBJa a wing object OBJb, a wheel object OBJc, a board object OBJd, a control stick object OBJe, a box object OBJf, and a rock object are examples of a plurality of material objects OBJ arranged in the virtual space.
  • OBJg is shown.
  • the engine object OBJa is a material object that functions as power to move the vehicle object. When configured as a part of the united object, the engine object OBJa applies acceleration, velocity, angular velocity, angular acceleration, etc. to the entire united object.
  • the wing object OBJb is a material object having a function of moving the vehicle object in the air in the virtual space.
  • the wheel object OBJc is a material object that functions as power to move the vehicle object, and can be configured as a vehicle wheel, for example.
  • a plate object OBJd is a material object that is a flat building material.
  • the board object OBJd can be used, for example, as the body of a vehicle object. Further, the board object OBJd can form a wall in the virtual space by vertically arranging a plurality of board objects OBJd, or can generate a three-dimensional object by combining a plurality of board objects OBJd.
  • the control stick object OBJe is a material object that has the function of controlling the moving direction of the vehicle object, and applies force in the direction in which the vehicle object rotates.
  • a box object OBJf is a material object that becomes a three-dimensional building material such as a cube or rectangular parallelepiped.
  • the box object OBJf can be configured as a building material of various combined objects (for example, part of the vehicle body).
  • the rock object OBJg is a material object imitating a block-shaped (for example, round or angular), plate-shaped, or rod-shaped rock that serves as a building material.
  • one or more bonding points BP may be set in the material object OBJ.
  • the bonding point BP is a position where material objects OBJ are preferentially bonded together when bonding (connecting) them.
  • the bonding point BP is preset for each material object OBJ by the game creator. For example, one adhesion point BP is set on the bottom surface of the engine object OBJa. Also, three bonding points BP are set on the upper surface of the wing object OBJb. One or more bonding points BP are set to the wheel object OBJc, the board object OBJd, and the control stick object OBJe. No adhesion point BP is set for the box object OBJf and the rock object OBJg.
  • the user selects one material object OBJ (stored object) stored by the player character PC or one of the material objects OBJ placed in the virtual space, and adheres it to other material objects OBJ to create a plurality of objects. Assemble the material object OBJ. As a result, the user can generate a united object configured by assembling a plurality of material objects OBJ as a product.
  • OBJ stored object
  • FIG. 9 is a diagram showing an example of a united object generated by combining a rock object OBJg and a box object OBJf.
  • FIG. 10 is a diagram showing an example of a united object generated by combining an engine object OBJa and a wing object OBJb.
  • a united object is generated by combining a rock object OBJg and a box object OBJf placed in the virtual space.
  • the rock object OBJg is moved so that the player character PC comes into contact with the box object OBJf according to the user's operation.
  • the player character PC uses the adhesive object B to attach the rock object OBJg and the box object OBJf to each other at an arbitrary position, thereby bonding the rock object OBJg and the box object OBJf.
  • a combined coalesced object is created.
  • a combined object (vehicle object) is generated by combining an engine object OBJa and a wing object OBJb.
  • the engine object OBJa is moved so that the player character PC is placed near the center of the upper surface of the wing object OBJb according to the user's operation.
  • the player character PC uses the adhesion object B to adhere the engine object OBJa and the wing object OBJb so that the adhesion points BP come into contact with each other.
  • a united object combined with the wing object OBJb is generated.
  • the player character PC rides on a vehicle object in which an engine object OBJa and a wing object OBJb are assembled, and moves in the air.
  • FIG. 11 is a diagram showing an example of a game image when registering a united object to appear in the virtual space.
  • a game is used as an example of an application executed in game system 1, but other applications may be executed in game system 1.
  • FIG. 11 is a diagram showing an example of a game image when registering a united object to appear in the virtual space.
  • a game is used as an example of an application executed in game system 1, but other applications may be executed in game system 1.
  • FIG. 11 is a diagram showing an example of a game image when registering a united object to appear in the virtual space.
  • the display 12 of the game system 1 displays a game image that is a subjective image of the virtual space seen from the player character PC.
  • This subjective image is a game image for registering the united object generated by the player character PC as a blueprint, and can be displayed after transitioning to the registration mode according to the user's operation.
  • a virtual space in which a united object OBJA and a plurality of material objects OBJa, OBJc, OBJf, and OBJg are arranged is displayed as the subjective image.
  • the united object OBJA is generated by the player character PC in the virtual space as described above, and is generated by assembling the stored objects temporarily stored by the player character PC and the material objects placed in the virtual space. It is Specifically, united object OBJA is generated as a vehicle object composed of four wheel objects OBJc, one board object OBJd, and one control stick object OBJe.
  • the design information of the united object displayed in the game image is registered according to the user's operation for registering the united object.
  • the design information is structure data of the united object for generating the united object again in the virtual space.
  • the design information describes the type of each material object that constitutes the united object, the position where the material objects are glued together, the orientation of each material object, and the like.
  • a game effect such as capturing the game image displayed at the time of the user operation (for example, a sound effect such as a shutter sound) is output, and the game image at that point in time is stopped and displayed. Then, a game effect indicating that the united object imaged in the game image is registered as a design drawing is performed, and the registered united object is notified to the user.
  • the design drawing is created based on the image obtained by the imaging, and indicates, for example, the appearance of the united object based on the design information.
  • an image showing a blueprint in which a united object is displayed and information indicating that the blueprint is to be registered are presented to the user by a character image, voice, etc., and the united object is registered as a setting drawing. is notified to the user.
  • the blueprint of the united object may be registered.
  • the united object closest to the viewpoint (virtual camera position) of the game image may be registered, or the imaged surface area may be the largest.
  • a large united object may be registered, or a united object having the largest number of material objects may be registered.
  • the example in which the game image displayed at the time of the user operation is captured as the imaging range is used, but instead of the entire game image being displayed, a part of the game image is captured as the imaging range.
  • a rectangular range near the center of the displayed image of the virtual space, which is part of the image may be set as the imaging range.
  • the image of the virtual space displayed in the rectangular range becomes the image pickup range instead of the entire image of the virtual space being displayed, and the game image within the image pickup range is treated as the game image in which the image pickup is produced.
  • a game effect is performed such that the game image displayed at the time of the user operation is captured, and registration is performed from the captured game image.
  • the registration target united object may be selected and registered in another manner.
  • a cursor for selecting a united object to be registered as a blueprint is displayed overlapping the game image, and is displayed overlapping with the cursor when a user operation indicating that the united object is to be registered is performed.
  • a united object may be registered as a blueprint. In this case, it is not necessary to perform a game effect such as capturing a game image as described above.
  • a process for registering the united object selected by the user as a design drawing can be performed using the same process as the registration process described above. Specifically, the center of gravity of the visible surface of the united object to be registered selected by the cursor in the game image, which is the subjective image of the player character PC, is set at the center of the angle of view. It is conceivable to create and register the game image as a blueprint. In addition, the mode of selecting and registering a united object using the cursor may be performed by another registration procedure or method.
  • FIG. 12 is a diagram showing an example of a game image in a game mode in which a united object appears in the virtual space.
  • FIG. 13 is a diagram showing an example of a game image in which a united object based on a registered blueprint appears in virtual space.
  • the display 12 of the game system 1 displays a game image showing a virtual space including the player character PC.
  • the game image shows the virtual space seen from the virtual camera by arranging the virtual camera behind the player character PC. Then, the game image is displayed after transitioning to the appearance mode in which the united object appears according to the user's operation.
  • the above game image shows the blueprints that the user can select and the blueprints currently selected by the user to appear.
  • the blueprint D1 is displayed as the object to appear, and the blueprints D2 and D3 are displayed as other selectable blueprints.
  • the design drawings D2 and D3 are grayed out and displayed in a display mode different from that of the design drawing D1, thereby distinguishing them from the design drawing D1 to be displayed.
  • captured images of the virtual space captured by the user are used in the registration process.
  • an image obtained by extracting the united object to be registered from the captured image is used.
  • a plurality of design drawings that can be selected by the user are presented, and each design drawing is generated based on the captured image of the virtual space captured by the user.
  • the captured image (design drawing) itself can be used as an option. It is possible to easily comprehend the product that appears from the captured image (design drawing).
  • the design drawings that can be selected by the user may include design drawings prepared in advance by a designer or the like.
  • the design drawing may be an item that the player character PC can acquire in the virtual space, or may be presented when the player character PC clears a predetermined game event.
  • the player character PC can temporarily store virtual objects and items.
  • the virtual objects that the player character PC can temporarily store include some types of material objects that can form a united object.
  • material objects temporarily stored by the player character PC are distinguished as stored objects.
  • the storage object may be temporarily stored when the player character PC picks up a material object placed in the virtual space, or may be newly stored when a predetermined event occurs in the player character PC.
  • the blueprint D1 to be revealed is accompanied by stored objects capable of constructing a united object generated based on the blueprint D1 among the storage objects currently stored by the player character PC. be done. In the example of FIG.
  • the player character PC contains a wheel object OBJc and a control stick object OBJe that can form a united object shown in the blueprint D1.
  • the design drawing D1 to be revealed contains the number of stored objects that can form a combined object, the maximum number that can be used for the combined object, and the minimum number required for the combined object at this time.
  • Numerical information such as (that is, the number obtained by subtracting the number of material objects that can be used from within the target area A of the virtual space, which will be described later, from the maximum number) may be additionally displayed.
  • the state in which the player character PC temporarily stores the storage object is a state in which the player character PC can carry the storage object without equipping or holding the storage object.
  • the accommodated objects are not displayed on the game field.
  • the stored object can basically be placed on the game field or used (including equipped and held) by being taken out by the player character PC in an appropriate situation.
  • the player character PC stores a storage object by putting the storage object in a storage body (for example, a pouch or an item box) worn by the player character PC. Note that such containers may not be displayed. Alternatively, such a storage body may simply have a function of storing storage objects without existing.
  • the target area A is displayed.
  • the target area A is a range indicating which material objects placed in the virtual space are used to construct the united object that is the current appearance target. Note that a material object only partially included in the target area A may or may not be used.
  • the target area A is set in a circular or elliptical ground range of a predetermined size centered on a position on the ground in front of the player character PC.
  • the player character PC uses the material objects arranged in the target area A among the material objects arranged in the virtual space to automatically generate a united object to be displayed and cause it to appear in the virtual space. can be done.
  • the united object can be revealed only when the material objects constituting the united object are sufficiently prepared.
  • a united object composed of four wheel objects OBJc, one board object OBJd, and one control stick object OBJe is to appear.
  • four wheel objects OBJc and one board object OBJd are arranged in the target area A, and the player character PC stores the control stick object OBJe as a storage object.
  • the united object can be completed by combining Therefore, when the user performs a user operation to make the united object appear, the united object will appear.
  • the combined object may appear with the storage object of the player character PC and the material objects arranged in the target area A.
  • Part of the united object may be able to appear even in a state in which the constituent material objects are insufficient.
  • the material objects excluding the missing material objects may appear in a state in which the way they are combined is maintained. In this case, if there are not enough material objects to connect the material objects, the material objects excluding the material objects in question will appear in a small group state that can be assembled only with the material objects, or will appear in a scattered state as a single material object.
  • material object A and material object A and material A united object in which the object B is assembled and a united object in which the material object D and the material object E are assembled appear.
  • material object B is insufficient for a united object that is assembled in the order of material object A, material object B, and material object C
  • material object A alone and material object C alone are combined.
  • the material objects A and C move to the place where they are scheduled to appear and appear separately.
  • the expected completion model object of the united object that is currently scheduled to appear is displayed.
  • the expected completion model object M1 is displayed in the center of the target area A, that is, on the ground in front of the player character PC.
  • the expected completion model object M1 indicates the expected shape when the united object based on the design drawing D1 currently selected is completed and appears, and has a different display mode from the actual united object (for example, a half model object). Skeleton objects that appear transparent). Note that the expected completion model object placed in the virtual space and the united object appearing based on the expected completion model object are placed in the center of the target area A as described above, but some of them are As long as it exists within the area A, it may be arranged at any position.
  • the expected completion model object M1 may be displayed floating above the ground in the virtual space.
  • the united object that appears based on the position and orientation of the expected completion model object M1 appears floating above the ground, then falls to the ground and is placed on the ground.
  • the expected completion model object M1 is positioned above the other object with a predetermined gap. may be displayed. In either case, the expected completion model object M1 is displayed at a position where the lower part of the expected completion model object M1 does not overlap with a part of the ground or a part of another object, and contact is avoided. Become.
  • the expected completion model object M1 when the expected completion model object M1 is placed in the virtual space, another object intersects with the inside of the expected completion model object M1 (for example, a wall provided in the center of the target area A or a wall provided in the upper part of the target area A). If there is a space for arranging the expected completion model object M1 in the target area A, the expected completion model object M1 is not displayed or grayed out, so that the united object is present. It is permissible to display the fact that it is not possible to do so.
  • the displayed expected completion model object M1 may be changeable in display position and display posture in accordance with user operations.
  • the expected completion model object M1 once placed and displayed in the virtual space may be changeable only in its posture in response to a user operation.
  • the expected completion model object M1 arranged and displayed in the virtual space may be able to change its position in the front, rear, left, and right directions within the target area A according to the user's operation.
  • the arrangement height (vertical position) from the ground inside may be changeable.
  • the expected completion model object M1 when material objects required for completion as a united object exist within the target area A and/or within the storage object, the display mode of the corresponding material object portion changes (for example, colored). to). On the other hand, in the expected completion model object M1, if the required material object is not in the target area A or in the storage object, the display mode of the corresponding material object portion remains in the default display mode (for example, half colorless). remain transparent). Therefore, the expected completion model object M1 changes its overall display mode depending on whether or not all the material objects required for completion as a united object are within the target area A and/or the storage object. , the user can be made aware of the lack of material objects for completing and appearing the united object. Further, the expected completion model object M1 can allow the user to recognize the predicted position in the virtual space when the united object is to appear.
  • material objects necessary to complete the united object are different in appearance from the material objects that constitute a part of the united object, if the shape is substantially the same, these materials Objects may be treated as the same object.
  • material objects of the same object category for example, logs, rocks, weapons, control sticks, etc.
  • shape approximation is within a predetermined value
  • material objects that have the same (substantially the same) shape only with different surface appearances for example, different textures and colors
  • Objects whose shapes can be regarded as equal may be set in advance, or the degree of approximation may be calculated each time to determine whether or not they are regarded as equal. Further, the materials of the objects (for example, wood, metal, etc.) may also be taken into consideration, and objects made of the same material may be treated as the same object.
  • those scheduled to be used in the united object change their display modes. For example, among the material objects in the target area A, the material objects scheduled to be used to complete the united object scheduled to appear at this time are changed in display mode (for example, colored). indicate.
  • display mode for example, colored
  • FIG. 12 among the material objects in the target area A, four wheel objects OBJc and one board object OBJd scheduled to be used for the united object to be displayed are displayed in The object is changed (hatched object in the example of FIG. 12) and displayed. This allows the user to recognize what material objects placed in the virtual space are consumed to generate the united object.
  • a predetermined priority may be set for consumption.
  • the material objects arranged near the player character PC may be preferentially consumed.
  • the material object placed in the target area A is given priority. can be consumed.
  • the material objects placed in the virtual space include those that the player character PC can temporarily store as storage objects and those that the player character PC cannot temporarily store as storage objects.
  • Non-storable objects that the player character PC cannot temporarily store as storage objects include material objects that are very large compared to the player character PC in the virtual space, material objects that are slightly different in shape and size, and the like (for example, rocks). or wood, etc.).
  • non-storable objects that the player character PC cannot temporarily store include a board object OBJd, a box object OBJf, a rock object OBJg, etc., or a treasure chest object (not shown).
  • Material objects that the player character PC can temporarily store as storage objects include an engine object OBJa, a wheel object OBJc, and a control stick object OBJe.
  • the material objects in the virtual space that can be used for the united object to be displayed may be used from at least part of the united object. For example, if a united object has already been placed in the target area A, a new united object may appear using at least part of the material objects that make up the united object. In other words, when at least a part of the united object including the material objects that can be used for the united object to be displayed is placed in the virtual space within the target area A, the materials constituting the united object placed in the virtual space Objects may be used to coalesce objects to be revealed. When a material object that is part of a united object placed in the virtual space is used, the connection between the material object and other objects in the united object is cut and the material object disappears. Other material objects fall to the ground from that position as the connection is cut and lost. Note that when other material objects are connected in the united object, the connection may be maintained.
  • a material object placed near the player character PC may be preferentially used, as in the case where the material object exists alone. However, in any case, it is used at least preferentially over the storage object.
  • a material object existing alone may be preferentially used over a material object existing as a part of a united object.
  • material objects that exist alone are used with the highest priority, then storage objects are used with priority, and finally material objects that exist as part of a united object are used. may be used.
  • the target area A may be set as a three-dimensional range in the virtual space.
  • the area of interest A may be defined as a cylindrical or elliptical cylinder of predetermined size.
  • a material object placed within the cylinder or the elliptical cylinder within a predetermined height range from the player character PC may be selected as the object to be used in the target area A.
  • a material object placed on the ground existing within the range may be selected as a target for use.
  • the target area A set as a three-dimensional range may be a three-dimensional shape with a limit in the height direction, or may be a three-dimensional shape with no limit in the height direction (that is, infinite).
  • FIG. 13 when the user performs a user operation to make the united object appear, the united object appears at the position and orientation where the expected completion model object was placed.
  • FIG. 13 shows a state in which the combined object OBJA appears at the position in the virtual space where the expected completion model object M1 was placed, in the posture in which the expected completion model object M1 was placed.
  • the material objects in the virtual space used to generate the united object to appear are erased from the virtual space upon the appearance.
  • a game effect may be performed in which the player character PC collects the material objects.
  • the stored object used to generate the appearing united object is deleted from the stored object of the player character PC.
  • the user operation to make the united object appear is possible only when all the material objects required to complete the united object are within the target area A and/or inside the storage object. In this case, only the completed state of the united object can be displayed, and the incomplete state of the united object cannot be displayed. Note that the user operation to make the united object appear may be allowed even when the material objects required to complete the united object are not enough in the target area A and in the possessed storage object. In this case, the united object can appear even in an incomplete state.
  • the above-described material object that is erased from the virtual space may be used for at least part of the united object that appears.
  • the material object when used for at least a part of the united object that appears, it can be used by moving the material object in the target area A to an appropriate position in the united object and assembling it into the united object.
  • it may be used by once erasing the material object from within the target area A and revealing a united object having substantially the same material object. That is, using a material object for at least a part of a united object that appears includes not only using the material object as it is, but also erasing it from the virtual space once and using substantially the same material object.
  • the process using the material object may be realized by any of the following processes (a) and (b).
  • (a) A process of deleting the material object from the virtual space and forming a united object composed of a polygon model different from the polygon model of the material object to appear
  • (b) Using at least a part of the polygon model of the material object A process of making a united object (specifically, a united object whose polygon model is composed of the polygon model of the material object and the polygon model of another object) appear in the game field. Then, it is possible to express how a united object is generated by combining the material object and another object.
  • the user designates the target area A at the position where the virtual object is arranged, or the user moves the virtual object within the target area A, thereby allowing the user to own or control those virtual objects.
  • the game field is generally set with terrain of various natures/shapes such as mountains, valleys, rivers, seas, etc., and there may be cases where the appearing united objects cannot be placed appropriately in the virtual space. could be.
  • the virtual space area in which the united object appears is a virtual space area in which the material object can be appropriately placed, the possibility that the appearing united object can also be appropriately placed increases. Usability is excellent because the possibility of the object dropping and being lost when it appears can be reduced.
  • FIG. 14 is a diagram showing an example of how the player character PC makes a united object appear in the air in the virtual space.
  • the expected completion model object of the united object that is scheduled to appear at the present time will be in the air below the player character PC in the virtual space. to be displayed.
  • an expected completion model object M2 is displayed in the air in the virtual space below the player character PC.
  • the expected completion model object M2 shows the expected shape when the united object based on the design drawing D2 currently selected is completed and appears, and is displayed differently from the actual united object as on the ground. displayed in a manner (eg, a skeleton object that appears translucent).
  • the united object appears at the position and posture where the expected completion model object M2 was placed.
  • a united object based on the design drawing D2 appears at the position in the virtual space where the expected completion model object M2 was placed, in the orientation in which the expected completion model object M2 was placed. Then, the player character PC jumps down from the position in the air, so that the game can progress while riding on the united object that has appeared.
  • the target area A is not displayed when the player character PC causes the united object to appear in the air in the virtual space, but the target area A is displayed when the united object appears in the air.
  • a three-dimensional target area (for example, cylindrical or elliptical) is set in a virtual space centered on the player character PC, and when the three-dimensional target area reaches the ground, A material object placed in the target area of the object or a material object placed in the air included in the three-dimensional target area may be made available.
  • the target area is set below the player character PC in the air.
  • the player character PC contains all the material objects forming the united object to be displayed
  • the user operation for making the united object appear may be enabled.
  • the target area set when the player character PC makes the united object appear in the air in the virtual space may be set in front of the player character PC in the air.
  • the united object may not appear.
  • a notification to the effect that the united object cannot appear may be given by a display image or sound.
  • the player character PC creates a united object (created product) by assembling a plurality of material objects OBJ according to the user's operation. Then, the united object generated by the player character PC is automatically registered as a design drawing of the united object.
  • the design drawing in the second embodiment is created based on the united object assembled according to the user's operation, and shows the appearance of the united object based on the design information described above. Then, in the second embodiment as well as in the first embodiment, it is possible to perform a process of making the united object appear in the virtual space based on the registered design drawing.
  • the design drawing in the second embodiment is automatically registered each time the player character PC constructs the material object OBJ.
  • a design drawing of a combined material object A and material object B is automatically registered.
  • material object C is further combined with the combination of material object A and material object B
  • the blueprint of the combination of material object A, material object B, and material object C is the combination of material object A and material object B. It is automatically registered separately from the blueprint of things. Therefore, in this case, two blueprints of a combined material object A-material object B and a combined material object A-material object B-material object C are registered.
  • a blueprint of a united object corresponding to the item (hereinafter referred to as a second type blueprint) may also be registered.
  • an upper limit may be provided for the number of each of the type 1 design drawing and the type 2 design drawing that can be registered.
  • the first type design drawing is automatically registered. Among them, those whose registration time is relatively old are automatically deleted.
  • a specific design drawing (hereinafter referred to as a third type design drawing) can be set from the above first type design drawing and the above second type design drawing.
  • the third type design drawing is registered by selecting and setting the "favorite" design drawing from the first type design drawing and the second type design drawing according to the user operation.
  • the registration of the third type design drawing is maintained.
  • an upper limit may be provided for the number of the third type design drawings that can be registered.
  • the selected design drawing is changed to the third type design drawing (i.e. , the design drawing may be registered by moving the design drawing from the registration list of the type 1 design drawing or the registration list of the type 2 design drawing to the registration list of the type 3 design drawing), or the selected design drawing may be duplicated as a type 3 design drawing (i.e., copied from the registration list of the type 1 design drawing or the registration list of the type 2 design drawing to the registration list of the type 3 design drawing and registered) .
  • the design drawing of the composite object registered as the type 3 design drawing may be deleted as the type 1 design drawing or the type 2 design drawing by the erasing process described above.
  • the registration is maintained as a third type design drawing.
  • the type 1 design drawing need not be automatically registered as described above when the player character PC separates the material object from the united object.
  • material object C is selected and separated from the combined object of material object A, material object B, material object C, material object D, and material object E, and material object A, material object B, material object C, and material object
  • D-material object E a united object of material object A-material object B and a united object of material object D-material object E are obtained.
  • the upper limit of the number of type 1 design drawings that can be registered is reached relatively quickly, There is a possibility that it is not the design drawing that the user wants to register. Such a situation can be avoided by not automatically registering the design drawing as the type 1 design drawing at the time of separation.
  • the design drawing of the united object may be registered as the type 1 design drawing when a user operation indicating that the united object has been completed is performed.
  • the design drawing is newly registered as the above type 1 design drawing, an image showing the design drawing in which the registered united object is displayed and information indicating that the design drawing is registered are displayed, such as a character image and a voice. is notified to the user by
  • the upper limit of the number that can be registered may not be set for the above Type 2 design drawings.
  • the second type blueprint can be registered without limitation according to the acquisition of a predetermined number of predetermined items prepared in the game, and can be erased by user operation or automatically erased. may not be performed.
  • a blueprint of a rare united object can be acquired as the type 2 blueprint, it is possible to prevent a situation in which the user unintentionally deletes the blueprint.
  • the game of the first embodiment and the game of the second embodiment may be appropriately combined.
  • the type 2 blueprints of the second embodiment may be registered.
  • a specific blueprint selected from the blueprints registered by performing the operation of capturing a game image in the first embodiment is the third type of blueprint in the second embodiment. It may be possible to further register as a design drawing.
  • a design drawing that is registered by performing an operation to capture a game image in the first embodiment and a type 1 design drawing that is automatically registered in the second embodiment. A game in which both can be registered may be played.
  • FIG. 15 is a diagram showing an example of data areas set in the DRAM 85 of the main unit 2 in the first embodiment.
  • the DRAM 85 also stores data used in other processes, but detailed description thereof will be omitted.
  • Various programs Pa to be executed by the game system 1 are stored in the program storage area of the DRAM 85 .
  • the various programs Pa store application programs (for example, game programs) for performing information processing based on data acquired from the left controller 3 and/or the right controller 4 or the main unit 2.
  • Various programs Pa may be pre-stored in the flash memory 84, or obtained from a storage medium removable from the game system 1 (for example, a predetermined type of storage medium installed in the slot 23) and stored in the DRAM 85. , or may be acquired from another device via a network such as the Internet and stored in the DRAM 85 .
  • the processor 81 executes various programs Pa stored in the DRAM 85 .
  • the DRAM 85 stores operation data Da, registration data Db, model data Dc, target area data Dd, player character data De, object data Df, registration processing flag data Dg, appearance processing flag data Dh, and Image data Di and the like are stored.
  • the operation data Da is operation data appropriately acquired from the left controller 3 and/or the right controller 4 or the main unit 2 respectively.
  • the operation data respectively acquired from the left controller 3 and/or the right controller 4 or the main unit 2 includes input from each input unit (specifically, each button, analog stick touch panel, each sensor). (Specifically, information on operations and detection results by each sensor) is included.
  • the operation data is obtained from the left controller 3 and/or the right controller 4 or the main unit 2 by wireless communication, and the operation data Da is appropriately updated using the obtained operation data.
  • the update cycle of the operation data Da may be updated for each frame, which is the cycle of processing executed by the game system 1 described later, or may be updated for each cycle in which the operation data is acquired. .
  • the registration data Db is data indicating design information for each registered united object.
  • the registration data Db is composed of data indicating design information that describes the type of material objects that constitute each united object, the position where the material objects are glued together, the orientation of each material object, and the like, for each registered united object. .
  • the model data Dc is data indicating the type, placement position, placement posture, display mode, etc. of the expected completion model object placed in the virtual space.
  • the target area data Dd is data indicating the position, size, shape, etc. of the target area arranged in the virtual space.
  • the player character data De is data indicating the arrangement position and orientation of the player character PC arranged in the virtual space, and the actions and states in the virtual space. Also, the player character data De includes data indicating the type and number of storage objects temporarily stored by the player character PC.
  • the object data Df is data indicating the object type, placement position, placement posture, placement state, adhesion state with other objects, display mode, and the like for each object placed in the virtual space.
  • the registration processing flag data Dg is data indicating a registration processing flag that is set to ON in the case of a game mode in which a united object is registered.
  • the appearance processing flag data Dh is data indicating the appearance processing flag that is set to ON in the case of the game mode in which the united object is made to appear.
  • the image data Di is data for displaying an image (eg, an image of a character or object, an image of a virtual space, a background image, etc.) on a display screen (eg, the display 12 of the main unit 2).
  • an image eg, an image of a character or object, an image of a virtual space, a background image, etc.
  • a display screen eg, the display 12 of the main unit 2.
  • FIG. 16 is a flow chart showing an example of information processing executed in the game system 1.
  • FIG. 17 is a subroutine showing a detailed example of the registration process performed in step S126 in FIG.
  • FIG. 18 is a subroutine showing a detailed example of the rendering process performed in step S128 in FIG.
  • the series of processes shown in FIGS. 16 to 18 are performed by the processor 81 executing a predetermined application program (game program) included in various programs Pa.
  • the timing at which the information processing shown in FIGS. 16 to 18 is started is arbitrary.
  • each step in the flowcharts shown in FIGS. 16 to 18 is merely an example.
  • the processor 81 executes the processing of each step of the above flowchart.
  • part of the processing executed in main device 2 may be executed by another information processing device that can communicate with main device 2 (for example, a server that can communicate with main device 2 via a network). That is, each process shown in FIGS. 16 to 18 may be executed by a plurality of information processing apparatuses including main unit 2 working together.
  • the processor 81 performs initial settings for information processing (step S121), and proceeds to the next step. For example, in the initialization, the processor 81 initializes parameters for performing the processing described below. As an example, the processor 81 initially arranges the player character PC and a plurality of objects in the virtual space based on preset virtual space settings, and initializes the player character data De and the object data Df.
  • the processor 81 acquires operation data from the left controller 3, the right controller 4, and/or the main unit 2, updates the operation data Da (step S122), and proceeds to the next step.
  • the processor 81 causes the player character PC to act in the virtual space (step S123), and proceeds to the next step. For example, the processor 81 moves the player character PC and updates the player character data De based on the operation data Da acquired in step S122.
  • the processor 81 operates each object in the virtual space (step S124), and proceeds to the next step. For example, the processor 81 performs virtual physics calculations in the virtual space based on actions of the player character PC (for example, the action of the player character PC moving a vehicle object), actions of the object itself and other objects, and virtual physical calculations in the virtual space. Each arranged object is operated to update the object data Df. Further, when an object is newly arranged in the virtual space according to a game event, the processor 81 newly adds data regarding the object and updates the object data Df. When the player character PC temporarily stores an object placed in the virtual space or a newly obtained object, the processor 81 updates the player character data De with the object as a stored object.
  • the processor 81 updates the player character data De with the object as a stored object.
  • the object data Df is updated according to the connection state.
  • the object moving means moves the material object in the virtual space based on the user's operation, and corresponds to the processor 81 that performs the process of step S124 as an example.
  • the united object generation means generates a united object by combining a plurality of material objects based on a user operation, and corresponds to the processor 81 that performs the process of step S124 as an example.
  • the processor 81 determines whether or not to perform registration processing (step 125). For example, if the operation data acquired in step S122 indicates a user instruction to shift to the game mode for performing the registration process, or if the registration process flag indicated by the registration process flag data Dg is set to ON, the processor 81 An affirmative determination is made in step S125. Then, when performing the registration process, the processor 81 advances the process to step S126. On the other hand, if the processor 81 does not perform the registration process, the process proceeds to step S127.
  • step S126 the processor 81 performs registration processing, and advances the processing to step S127.
  • the registration process performed in step S126 will be described below with reference to FIG.
  • the product setting means performs processing for setting a united object generated by assembling a plurality of material objects as a product that can be displayed. It corresponds to the processor 81 that performs
  • the processor 81 sets the registration processing flag to ON (step S140), and proceeds to the next step. For example, the processor 81 sets the registration processing flag to ON and updates the registration processing flag data Dg.
  • the processor 81 determines whether or not to end the game mode for registration processing (step S141).
  • the conditions for terminating the game mode for which the registration process is performed in step S141 include, for example, that the conditions for terminating the game mode are satisfied, or that the user performs an operation to terminate (cancel) the game mode. Alternatively, the user has performed an operation that determines not to register the united object to be registered as a blueprint.
  • the processor 81 advances the process to step S142 when not ending the game mode in which the registration process is performed, and advances the process to step S146 when ending the game mode in which the registration process is performed.
  • the processor 81 generates a subjective image of the virtual space viewed from the player character PC (step S142), and proceeds to the next step.
  • the processor 81 generates a subjective image of the player character PC by arranging the virtual camera in a position and direction with the player character PC as the viewpoint and the front of the player character PC as the gaze point.
  • the processor 81 selects a united object to be registered using the subjective image generated in step S142 (step S143), and proceeds to the next step. For example, the processor 81 selects a united object to be registered as a design drawing from objects in the virtual space included in the subjective image based on a predetermined selection rule. As an example, when the subjective image includes a plurality of united objects, the processor 81 selects the united object closest to the viewpoint of the subjective image as a registration target.
  • the processor 81 determines whether or not to register the united object to be registered as a blueprint (step S144). For example, if the operation data acquired in step S122 indicates an instruction to register a united object, the processor 81 makes an affirmative determination in step S144. If the united object to be registered is to be registered as a blueprint, the processor 81 advances the process to step S145. On the other hand, if the united object to be registered is not registered as a blueprint, the processor 81 ends the processing of the subroutine.
  • the processor 81 registers the design information of the united object to be registered (step S145), and advances the process to step S146. For example, the processor 81 adds design information indicating the configuration of the united object to be registered selected in step S144 to the registration data Db.
  • the processor 81 sets the registration processing flag to OFF, and terminates the processing by the subroutine. For example, the processor 81 sets the registration processing flag to OFF and updates the registration processing flag data Dg.
  • step S127 the processor 81 determines whether or not to perform the appearance process. For example, if the operation data acquired in step S122 indicates a user instruction to shift to a game mode in which appearance processing is performed, the processor 81 sets the appearance processing flag indicated by the appearance processing flag data Dh to ON. If so, an affirmative determination is made in step S127. Then, when performing the appearance process, the processor 81 advances the process to step S128. On the other hand, if the processor 81 does not perform the appearance process, the process proceeds to step S129.
  • step S1208 the processor 81 performs the appearance process and advances the process to step S129.
  • the appearance processing performed in step S128 will be described below with reference to FIG.
  • the processor 81 sets the appearance processing flag to ON (step S150), and proceeds to the next step. For example, the processor 81 sets the appearance processing flag to ON and updates the appearance processing flag data Dh.
  • the processor 81 determines whether or not to end the game mode in which the appearance process is performed (step S151).
  • the condition for ending the game mode for which the appearance process is performed in step S151 is, for example, that the condition for ending the game mode is satisfied, or that the user performs an operation to end (cancel) the game mode.
  • the processor 81 advances the process to step S152 when not ending the game mode in which the appearance process is performed, and advances the process to step S164 when ending the game mode in which the appearance process is performed.
  • the processor 81 determines whether or not the current stage is to prompt the user to select a design drawing (step S152). As an example, the processor 81 makes a negative determination in step S152 when the design drawing has already been determined at the present time. Then, if the present time is the stage of prompting the user to select a design drawing, the processor 81 advances the process to step S153. On the other hand, the processor 81 advances the process to step S156 when the present time is not the stage to prompt the user to select a design drawing.
  • step S153 the processor 81 displays a design drawing that the user can select, sets a game image prompting selection from the selection drawing, and proceeds to the next step.
  • the processor 81 extracts the design information of all united objects registered in the registration data Db, and generates a game image that displays a list of design drawings showing each united object generated based on the design information. prompts the user to make a selection from the design drawing.
  • the expected completion model (anticipated completion model object) based on the design drawing provisionally selected by the user and the target area may be displayed in the virtual space according to the current position and orientation of the player character PC. do not have.
  • an image showing a storage object of the player character PC that can be used for the united object indicated by the design drawing provisionally selected by the user may be displayed around the design drawing.
  • the processor 81 determines whether or not a user operation to determine the design drawing has been performed (step S154). For example, when the operation data acquired in step S122 indicates a user instruction to determine the design drawing, the processor 81 makes an affirmative determination in step S154. And the processor 81 advances a process to step S155, when user operation which determines a design drawing is performed. On the other hand, when the user operation to determine the design drawing has not been performed, the processor 81 advances the process to step S156.
  • step S155 the processor 81 determines the united object to appear, and advances the process to step S156. For example, the processor 81 determines a united object to be generated based on the design drawing currently selected as the united object to be displayed, and extracts design information related to the united object from the registration data Db. Then, the processor 81 sets data for displaying the expected completion model object based on the design information, and updates the model data Dc using the data.
  • step S156 the processor 81 determines whether or not the design drawing has been decided. Then, when the design drawing is determined, the processor 81 advances the process to step S157. On the other hand, the processor 81 terminates the processing by the subroutine when the design drawing is not determined. Even after reaching the stage where the design drawing is determined, the design drawing may be selected again. In this case, when the processor 81 makes an affirmative determination in the determination process of step S152, the design drawing can be reselected.
  • step S157 the processor 81 sets the target area in the virtual space, and proceeds to the next step.
  • the processor 81 sets a target area (see FIG. 12) whose center is a position on the ground that is a predetermined distance ahead of the player character PC, and updates the target area data Dd based on the target area.
  • the area setting means performs a process of setting an area at an arbitrary position in the virtual space based on the user's operation, and corresponds to the processor 81 that performs the process of step S157 as an example.
  • the processor 81 arranges the expected completion model object in the virtual space (step S158), and proceeds to the next step. For example, the processor 81 arranges the anticipated completion model object indicated by the model data Dc in the center of the target area set in step S157 in the virtual space.
  • the processor 81 performs a process of changing the display mode of the material object and the expected completion model object placed in the virtual space (step S159), and proceeds to the next step. For example, the processor 81 determines the display mode of the object actually used when the united object set as the appearance target appears among the material objects arranged in the target area set in step S157. is changed from the default display mode, and the object data Df is updated using the changed display mode. Further, if there is a material object that deviates from the target area due to the movement of the target area, the processor 81 returns the display mode of the material object to the default display mode, and uses the display mode after the change to display the object. Update data Df.
  • the processor 81 extracts an object that is actually used when the united object set as the object to appear appears among the storage objects of the player character PC, and inserts an image showing the object in the game image. (For example, around the selected blueprint) to set the display. Furthermore, if the material objects required to complete the united object corresponding to the currently set expected completion model object are present in the target area and/or the storage object, the processor 81 displays the corresponding material object portion. The mode is changed from the default display mode, and the model data Dc is updated using the changed display mode.
  • the processor 81 restores the display mode of the corresponding material object portion to the default display mode,
  • the model data Dc is updated using the changed display mode. If there is another object that intersects with the inside of the expected completion model object and there is no space for arranging the expected completion model object in the target area, the processor 81 does not display the expected completion model object or grays it out. You can display it.
  • the processor 81 determines whether or not the united object currently targeted for appearance can appear (step S160). For example, the processor 81 determines that the united object can appear when all the material objects required to complete the united object to be displayed are within the target area and/or within the storage object. Then, if the united object can appear, the processor 81 advances the process to step S161. On the other hand, if the united object cannot appear, the processor 81 terminates the processing of the subroutine. If there is another object that intersects with the interior of the expected completion model object and there is no space for arranging the expected completion model object in the target area, the processor 81 determines that the united object cannot appear. good too.
  • step S161 the processor 81 determines whether or not to cause the united object to appear to appear in the virtual space. For example, if the operation data acquired in step S122 indicates a user instruction to cause the united object to appear in the virtual space, the processor 81 makes an affirmative determination in step S161. If the united object to be displayed is to appear in the virtual space, the processor 81 advances the process to step S162. On the other hand, if the processor 81 does not cause the united object to appear in the virtual space, it terminates the processing of the subroutine.
  • step S162 the processor 81 erases the material objects used for the appearing united object from the virtual space, and proceeds to the next step. For example, the processor 81 deletes from the object data Df data relating to the material objects placed in the virtual space among the material objects used for the appearing united object. In addition, the processor 81 erases from the player character data De data relating to the material objects used from the storage object, among the material objects used for the appearing united object.
  • the processor 81 causes the united object to appear (step S163), and advances the process to step S164.
  • the processor 81 changes the expected completion model object indicated by the model data Dc to a normal display mode (for example, changes the translucent display mode to the same display mode as the virtual object placed in the virtual space).
  • object, and data relating to the united object is added to the object data Df so that the united object exists in the virtual space.
  • the product rendering means renders the product corresponding to the plurality of material objects so that at least a part of the material objects are included in the region, using at least the material objects at least a part of which are included in the region. It corresponds to the processor 81 that performs the process of step S163 as an example.
  • steps S162 and S163 data related to the material object used for the united object is erased from the object data Df, and data related to the united object is added to the object data Df.
  • the process of erasing the material object may be realized by either of the following processes (a) and (b).
  • the processor 81 sets the appearance processing flag to OFF, and ends the processing by the subroutine. For example, the processor 81 sets the emergence processing flag to off and updates the emergence processing flag data Dh.
  • step S129 the processor 81 performs display control processing, and proceeds to the next step.
  • the processor 81 creates a player character PC, material objects, united objects, etc. in the virtual space based on registration data Db, model data Dc, target area data Dd, player character data De, object data Df, and image data Di. Place virtual objects including , expected completion model objects, target areas, etc., respectively.
  • the processor 81 sets the position and/or orientation of the virtual camera for generating the display image based on the operation data Da, the position and orientation of the player character PC, etc., and arranges the virtual camera in the virtual space. .
  • An image of the virtual space viewed from the set virtual camera is generated, and control is performed to display the virtual space image on the display 12 .
  • step S130 determines whether or not to end the game processing.
  • the conditions for ending the game processing in step S130 include, for example, that the conditions for ending the game processing are satisfied, or that the user has performed an operation to end the game processing.
  • the processor 81 returns to step S122 and repeats the process when not ending the game process, and ends the process according to the flowchart when ending the game process. Thereafter, a series of processes from step S122 to step S130 are repeatedly executed until it is determined in step S130 that the process is finished.
  • the user designates the target area at the position where the material object is arranged in the virtual space, or the user moves the material object within the target area.
  • the virtual space area where the united object appears is a virtual space area where the material object can be appropriately placed, the possibility that the united object that appears will also be placed appropriately increases, and when the united object appears Usability is excellent because the possibility of dropping and losing can be reduced.
  • the united object once generated by the user operating the player character PC is reappeared in the virtual space. It may be a product without For example, a united object based on a blueprint prepared in advance by a designer or the like may appear according to a user's operation. Alternatively, a united object prepared in advance by a designer or the like may be made to appear based on a design drawing obtained by the user registering the united object. Alternatively, the united object may be made to appear using a design drawing of the united object once generated by another user. It should be noted that the blueprints prepared in advance by the designer or the like can be set as items that can be obtained by the player character PC during the progress of the game.
  • the "appearance" in the above-described embodiment does not necessarily mean that the united object is definitely placed there when it appears, and the united object is actually placed from the appearance position after the united object appears.
  • the united object that can appear is a storage object temporarily stored by the player character PC, an object that can be stored by the player character PC but is placed in the virtual space, and an object that cannot be stored by the player character PC. It is conceivable to use at least one material object belonging to any of the unstorable objects arranged in the virtual space. Therefore, the embodiment described above can be implemented even in a game in which at least one of the three types of objects does not exist. As an example, even in a game in which the player character PC cannot temporarily store objects, the embodiment described above can be realized by generating a united object by assembling only the objects that cannot be stored in the virtual space. . Further, the storage object may be owned by the user operating the player character PC instead of being stored by the player character PC.
  • a predetermined item for example, a special item for which the appearance right can be obtained
  • at least one of the items arranged in the target area A in the virtual space and/or the items owned by the player character PC may be consumed when the united object appears.
  • the usable gauge set for the item placed in the target area A in the virtual space and/or the item owned by the player character PC is displayed. It may be decreased by a predetermined amount.
  • a united object is generated as a product by assembling a plurality of material objects by gluing them together.
  • a mode in which a plurality of material objects are combined may be fixed by interposing inclusions between the material objects, or may be fixed without intervening the inclusions.
  • Adhesion in the above-described embodiments is a concept that includes both of the above-described fixing modes, and is combined and fixed by adsorption, electrodeposition, bonding, fusion, welding, crimping, screwing, fitting, adhesion, or the like. Includes aspects.
  • a product may be generated by changing a plurality of material objects into objects with different appearances without substantially maintaining their original appearances.
  • a single object (product) may be generated by synthesizing, synthesizing, or fusing a plurality of material objects.
  • the area for using the material object from the virtual space and the area indicating the position where the united object is to appear are indicated by the same target area A. You can indicate it with .
  • the area for using the material object from the virtual space may be set larger than the area indicating the position where the united object is to appear, or both may be set with different shapes.
  • the position at which the united object appears may be freely set by the user regardless of the area for using the material object.
  • the stored object temporarily stored by the player character PC cannot be used as the united object that can appear. That is, the material object belongs to either a storable object that can hold the player character PC but is placed in the virtual space, or an unstorable object that cannot hold the player character PC but is placed in the virtual space. may be used to generate a coalesced object.
  • the player character PC attempts to generate a united object using a storage object that is temporarily stored, it is necessary to temporarily place the storage object in the target area A in the virtual space. Since a united object is composed only of objects, it is easy to understand what is used in the united object.
  • a special object that can substitute for the missing material objects. For example, if a log object and a stone object are not enough to construct a united object, two special objects can be used to form a log object and a stone object (or an object with a shape similar to them). , and the united object may appear.
  • orientation of the object in the above-described embodiment may also include the concept of orientation and direction of the object.
  • the game system 1 may be any device, such as a portable game device, any portable electronic device (PDA (Personal Digital Assistant), mobile phone, personal computer, camera, tablet, etc.).
  • PDA Personal Digital Assistant
  • the input device for moving the object may not be the left controller 3 or the right controller 4, but may be another controller, mouse, touch pad, touch panel, trackball, keyboard, cross key, slide pad. etc.
  • the above processing steps may be performed by another device.
  • the above processing steps further include the It may be performed by cooperating with other devices.
  • the information processing described above can be executed by one processor included in an information processing system constituted by at least one information processing device or by cooperation between a plurality of processors.
  • the processor 81 of the game system 1 can perform information processing by executing a predetermined program. may be done.
  • a stationary information processing device (stationary game device) and a portable information processing device (portable game device) cooperate to execute the above processing. It is also possible to It goes without saying that in these system configurations, there is no particular limitation as to which device performs the above-described processing, and the present invention can be realized regardless of how the processing is shared.
  • processing order, set values, conditions used for determination, and the like used in the above-described information processing are merely examples, and it goes without saying that the above-described embodiment can be realized with other orders, values, and conditions. .
  • the program may be supplied to the game system 1 not only through an external storage medium such as an external memory, but also through a wired or wireless communication line. Further, the program may be recorded in advance in a non-volatile storage device inside the device.
  • information storage media for storing the above programs include CD-ROMs, DVDs, optical disk storage media similar to them, flexible disks, hard disks, magneto-optical disks, magnetic tapes, and the like. It's okay.
  • the information storage medium for storing the program may be a volatile memory for storing the program.
  • Such a storage medium can be called a computer-readable recording medium. For example, by causing a computer or the like to read and execute the programs stored in these recording media, the various functions described above can be provided.
  • the present invention can be used as a game program, a game device, a game system, a game processing method, and the like, which make it possible to create a product using materials in a virtual space.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

ユーザ操作に基づいて、仮想空間の任意の位置に領域を設定して素材オブジェクトを仮想空間内で移動させ、領域内に少なくともその一部が含まれる素材オブジェクトを少なくとも用いて、領域内に少なくともその一部が含まれるように、複数の素材オブジェクトに対応する生成物を現出させる。

Description

ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
 本発明は、仮想空間内において生成物を生成する処理を行うゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法に関する。
 従来、プレイヤキャラクタが仮想空間内において材料を入手して一時収納し、当該一時収納した材料を用いて仮想オブジェクト等の生成物を生成するゲーム処理を実行するゲーム装置がある(例えば、特許文献1参照)。
特開2019-76190号公報
 しかしながら、上記特許文献1で開示されたゲーム装置では、例えば、材料が収納されることなく仮想空間内に存在する場合にどのように生成を行うか考慮されていない。
 それ故に、本発明の目的の1つは、仮想空間内の材料を用いて生成物を生成することを可能とするゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法を提供することである。
 上記目的を達成するために、本発明は例えば以下のような構成を採用し得る。
 本発明のゲームプログラムの一構成例は、情報処理装置に含まれるコンピュータで実行される。ゲームプログラムは、コンピュータを、領域設定手段、オブジェクト移動手段、および生成物現出手段として機能させる。領域設定手段は、ユーザ操作に基づいて、仮想空間の任意の位置に領域を設定する。オブジェクト移動手段は、ユーザ操作に基づいて、素材オブジェクトを仮想空間内で移動させる。生成物現出手段は、領域内に少なくともその一部が含まれる素材オブジェクトを少なくとも用いて、領域内に少なくともその一部が含まれるように、複数の素材オブジェクトに対応する生成物を現出させる。
 上記によれば、仮想空間内においてユーザによって設定される領域内に含まれる素材オブジェクトが用いられるため、ゲーム性を維持しつつ生成物を現出させることができる。また、当該領域は、素材オブジェクトが適切に配置可能な仮想空間領域であるため、現出する生成物も適切に配置できる可能性が高くなり、ユーザビリティに優れるものとなる。
 また、上記生成物は、複数の素材オブジェクトが組まれた合体オブジェクトでもよい。
 上記によれば、複数の素材オブジェクトと生成物との対応関係をユーザが理解しやすい。
 また、上記ゲームプログラムは、合体オブジェクト生成手段として、さらにコンピュータを機能させてもよい。合体オブジェクト生成手段は、ユーザ操作に基づいて、複数の素材オブジェクトを組むことで合体オブジェクトを生成する。
 上記によれば、ユーザ操作に基づいて複数の素材オブジェクトが組まれた合体オブジェクトを生成することが可能となる。
 また、上記ゲームプログラムは、生成物設定手段として、さらにコンピュータを機能させてもよい。生成物設定手段は、合体オブジェクト生成手段によって生成された合体オブジェクトを、生成物現出手段によって現出されることが可能な生成物として設定する。
 上記によれば、複数の素材オブジェクトを組むことによって生成される合体オブジェクトを改めて生成し直すことが容易となる。
 また、上記生成物設定手段は、合体オブジェクト生成手段によって生成された合体オブジェクトを、自動的に生成物として設定してもよい。
 上記によれば、ユーザ操作に基づいて組まれた合体オブジェクトが自動的に生成物として設定されるため、ユーザビリティに優れる。
 また、上記生成物設定手段は、所定数の生成物を設定可能であり、合体オブジェクト生成手段によって生成された合体オブジェクトを自動的に生成物として新たに設定する場合に当該所定数を超えるときには、既に設定された生成物のうち設定時期が相対的に古いものを自動的に消去してもよい。
 上記によれば、合体オブジェクトを自動的に生成物として新たに設定するための記憶容量を制限することができる。また、最近生成された合体オブジェクトは、再度の生成や複製をユーザが希望する可能性があるところ、相対的に古い生成物を自動的に諸居することで、ユーザビリティに優れる。
 また、上記生成物設定手段は、ユーザ操作に応じて、設定された生成物の中から任意の生成物を特定生成物として設定することが可能であり、生成物を新たに設定する場合に所定数を越えるときでも当該特定生成物の設定を保持してもよい。
 上記によれば、消去したくない生成物の設定を保持しつつ、消去してもよい生成物については自動的に消去されるためユーザビリティに優れる。
 また、上記生成物設定手段は、ユーザがゲーム内において所定のアイテムを取得することで、当該アイテムに対応した生成物を、生成物現出手段によって現出させることが可能な生成物として設定してもよい。
 上記によれば、所定のアイテムを探索や取得することでゲームの興趣性が増す。また、例えば、現出した生成物から素材オブジェクトの組まれ方をユーザが学習することで、自身で組んだり手を加えたりといったことが可能となり、ゲームの興趣性が増す。
 また、上記生成物設定手段は、合体オブジェクト生成手段によって生成された合体オブジェクトがユーザに指定されることで、当該合体オブジェクトを生成物現出手段によって現出されることが可能な生成物として設定してもよい。
 上記によれば、例えばユーザが複数の素材オブジェクトを順次組んで合体オブジェクトを生成する際、ユーザ所望の進捗状態の合体オブジェクトを指定することにより、当該状態の合体オブジェクトを改めて生成し直すことが容易となる。
 また、上記生成物現出手段は、領域内に含まれるオブジェクトのうち生成物を現出させるために用いられる素材オブジェクトを区別可能に表示してもよい。
 上記によれば、生成物の生成にあたって、仮想空間の領域内で用いられる素材オブジェクトをユーザにわかりやすく示すことができる。
 また、上記生成物現出手段は、複数の素材オブジェクトが組まれた現出予定の生成物を示す画像を領域に表示してもよい。
 上記によれば、現出予定の生成物をユーザにわかりやすく示すことができる。
 また、上記生成物現出手段は、表示された現出予定の生成物において、当該生成物を構成する複数の素材オブジェクトのうち、当該生成物を現出させるために不足している素材オブジェクトを区別可能に表示してもよい。
 上記によれば、生成物の生成にあたって素材オブジェクトの不足を明示することができる。
 また、上記生成物現出手段は、現出予定の生成物を構成する素材オブジェクトが不足しているときには、当該現出予定の生成物から当該不足している素材オブジェクトを除いた他の素材オブジェクトを、当該他の素材オブジェクト同士の組まれ方を維持して現出させてもよい。
 上記によれば、素材オブジェクトが不足している状態で生成物が現出するため、当該不足状態をユーザに示すことができる。また、不足している素材オブジェクトを除いて組まれたオブジェクトが現出されるため、これを用いて別の合体オブジェクトを組むといったことが可能となる。
 また、上記素材オブジェクトは、ユーザによって操作されるプレイヤキャラクタが収納オブジェクトとして一時収納可能な収納可能オブジェクトと当該プレイヤキャラクタが当該収納オブジェクトとして一時収納できない収納不可オブジェクトとを含んでもよい。
 上記によれば、プレイヤキャラクタが収納オブジェクトとして一時収納できない収納不可オブジェクトを用いて、生成物の生成が可能となる。また、収納不可オブジェクトの所有権や支配権を有しているとすることでゲームにおける合理性を確保して、ゲーム性を維持しつつ当該収納不可オブジェクトを用いた生成物の生成が可能となる。
 また、上記生成物現出手段は、領域内に少なくともその一部が含まれる素材オブジェクトとユーザによって操作されるプレイヤキャラクタが一時収納している収納オブジェクトとを用いて、生成物を現出させてもよい。
 上記によれば、バリエーションに富んだオブジェクトを用いて生成物を現出させることができる。
 また、上記生成物現出手段は、領域内に少なくともその一部が含まれる素材オブジェクトと収納オブジェクトとの両方に同じオブジェクトが存在する場合、当該領域内に少なくともその一部が含まれる素材オブジェクトを優先して用いて、生成物を現出させてもよい。
 上記によれば、収納オブジェクトの収納を継続したい場合、収納オブジェクトが優先して用いられると、用いられた収納オブジェクトと同じオブジェクトを仮想空間から入手して再度収納状態にするような手順が必要となるが、領域内に含まれるオブジェクトが優先して用いられることにより、当該収納状態にするような手間を省くことができる。
 また、上記仮想空間内にはユーザによって操作されるプレイヤキャラクタが配置されてもよい。この場合、上記オブジェクト移動手段は、ユーザがプレイヤキャラクタを操作することに応じて素材オブジェクトを仮想空間内で移動させてもよい。上記ゲームプログラムは、合体オブジェクト生成手段として、さらにコンピュータを機能させてもよい。合体オブジェクト生成手段は、移動に基づいて複数の素材オブジェクトを組むことで合体オブジェクトを生成する。
 上記によれば、複数の素材オブジェクトを用いてプレイヤキャラクタが組んだ合体オブジェクトを現出させることが可能となる。
 また、上記領域設定手段は、ユーザによって操作されるプレイヤキャラクタが地面上に配置されている場合、当該プレイヤキャラクタの前方となる当該地面上に領域を設定してもよい。上記生成物現出手段は、プレイヤキャラクタが地面上に配置されている場合において当該プレイヤキャラクタの前方となる領域内に生成物を現出させ、プレイヤキャラクタが空中に配置されている場合において当該プレイヤキャラクタの下方に生成物を現出させてもよい。
 上記によれば、仮想空間におけるプレイヤキャラクタの前方となる地面上に生成物を現出させることができるとともに、仮想空間における空中であってもプレイヤキャラクタの下方に生成物を現出させることができ、仮想空間から素材オブジェクトを使用しながら、生成物を利用しやすい位置に当該生成物を現出させることができる。
 また、本発明は、ゲーム装置、ゲームシステム、およびゲーム処理方法の形態で実施されてもよい。
 本発明によれば、仮想空間内の材料を用いて生成物を生成することが可能となる。
本体装置2に左コントローラ3および右コントローラ4を装着した状態の一例を示す図 本体装置2から左コントローラ3および右コントローラ4をそれぞれ外した状態の一例を示す図 本体装置2の一例を示す六面図 左コントローラ3の一例を示す六面図 右コントローラ4の一例を示す六面図 本体装置2の内部構成の一例を示すブロック図 本体装置2と左コントローラ3および右コントローラ4との内部構成の一例を示すブロック図 ディスプレイ12に表示されるゲーム画像の一例を示す図 岩オブジェクトOBJgと箱オブジェクトOBJfとが組み合わせられることによって生成された合体オブジェクトの一例を示す図 エンジンオブジェクトOBJaと翼オブジェクトOBJbとが組み合わせられることによって生成された合体オブジェクトの一例を示す図 仮想空間に現出させる合体オブジェクトを登録する際のゲーム画像の一例を示す図 仮想空間に合体オブジェクトを現出させるゲームモードにおけるゲーム画像の一例を示す図 登録された設計図に基づいた合体オブジェクトを仮想空間に現出させたゲーム画像の一例を示す図 プレイヤキャラクタPCが仮想空間における空中で合体オブジェクトを現出させる様子の一例を示す図 第1の実施例において本体装置2のDRAM85に設定されるデータ領域の一例を示す図 ゲームシステム1で実行される情報処理の一例を示すフローチャート 図16におけるステップS126において行われる登録処理の詳細な一例を示すサブルーチン 図16におけるステップS128において行われる現出処理の詳細な一例を示すサブルーチン
 以下、本実施例に係るゲームシステムについて説明する。本実施例におけるゲームシステム1の一例は、本体装置(情報処理装置;本実施例ではゲーム装置本体として機能する)2と左コントローラ3および右コントローラ4とを含む。本体装置2は、左コントローラ3および右コントローラ4がそれぞれ着脱可能である。つまり、ゲームシステム1は、左コントローラ3および右コントローラ4をそれぞれ本体装置2に装着して一体化された装置として利用できる。また、ゲームシステム1は、本体装置2と左コントローラ3および右コントローラ4とを別体として利用することもできる(図2参照)。以下では、本実施例のゲームシステム1のハードウェア構成について説明し、その後に本実施例のゲームシステム1の制御について説明する。
 図1は、本体装置2に左コントローラ3および右コントローラ4を装着した状態の一例を示す図である。図1に示すように、左コントローラ3および右コントローラ4は、それぞれ本体装置2に装着されて一体化されている。本体装置2は、ゲームシステム1における各種の処理(例えば、ゲーム処理)を実行する装置である。本体装置2は、ディスプレイ12を備える。左コントローラ3および右コントローラ4は、ユーザが入力を行うための操作部を備える装置である。
 図2は、本体装置2から左コントローラ3および右コントローラ4をそれぞれ外した状態の一例を示す図である。図1および図2に示すように、左コントローラ3および右コントローラ4は、本体装置2に着脱可能である。なお、以下において、左コントローラ3および右コントローラ4の総称として「コントローラ」と記載することがある。
 図3は、本体装置2の一例を示す六面図である。図3に示すように、本体装置2は、略板状のハウジング11を備える。本実施例において、ハウジング11の主面(換言すれば、表側の面、すなわち、ディスプレイ12が設けられる面)は、大略的には矩形形状である。
 また、本体装置2は、ディスプレイ12の画面上にタッチパネル13を備える。本実施例においては、タッチパネル13は、マルチタッチ入力が可能な方式(例えば、静電容量方式)のものである。ただし、タッチパネル13は、任意の種類のものであってよく、例えば、シングルタッチ入力が可能な方式(例えば、抵抗膜方式)のものであってもよい。
 図3に示すように、本体装置2は、スロット23を備える。スロット23は、ハウジング11の上側面に設けられる。スロット23は、所定の種類の記憶媒体を装着可能な形状を有する。所定の種類の記憶媒体は、例えば、ゲームシステム1およびそれと同種の情報処理装置に専用の記憶媒体(例えば、専用メモリカード)である。所定の種類の記憶媒体は、例えば、本体装置2で利用されるデータ(例えば、アプリケーションのセーブデータ等)、および/または、本体装置2で実行されるプログラム(例えば、アプリケーションのプログラム等)を記憶するために用いられる。また、本体装置2は、電源ボタン28を備える。
 本体装置2は、下側端子27を備える。下側端子27は、本体装置2がクレードルと通信を行うための端子である。本実施例において、下側端子27は、USBコネクタ(より具体的には、メス側コネクタ)である。上記一体型装置または本体装置2単体をクレードルに載置した場合、ゲームシステム1は、本体装置2が生成して出力する画像を据置型モニタに表示することができる。また、本実施例においては、クレードルは、載置された上記一体型装置または本体装置2単体を充電する機能を有する。また、クレードルは、ハブ装置(具体的には、USBハブ)の機能を有する。
 図4は、左コントローラ3の一例を示す六面図である。
 左コントローラ3は、アナログスティック32を備える。図4に示すように、アナログスティック32は、ハウジング31の主面に設けられる。アナログスティック32は、方向を入力することが可能な方向入力部として用いることができる。ユーザは、アナログスティック32を傾倒することによって傾倒方向に応じた方向の入力(および、傾倒した角度に応じた大きさの入力)が可能である。なお、左コントローラ3は、方向入力部として、アナログスティックに代えて、十字キーまたはスライド入力が可能なスライドスティック等を備えるようにしてもよい。また、本実施例においては、アナログスティック32を押下する入力が可能である。
 左コントローラ3は、各種操作ボタンを備える。左コントローラ3は、ハウジング31の主面上に4つの操作ボタン33~36(具体的には、右方向ボタン33、下方向ボタン34、上方向ボタン35、および左方向ボタン36)を備える。さらに、左コントローラ3は、録画ボタン37および-(マイナス)ボタン47を備える。左コントローラ3は、ハウジング31の側面の左上に第1Lボタン38およびZLボタン39を備える。また、左コントローラ3は、ハウジング31の側面の、本体装置2に装着される際に装着される側の面に第2Lボタン43および第2Rボタン44を備える。これらの操作ボタンは、本体装置2で実行される各種プログラム(例えば、OSプログラムやアプリケーションプログラム)に応じた指示を行うために用いられる。
 また、左コントローラ3は、左コントローラ3が本体装置2と有線通信を行うための端子42を備える。
 図5は、右コントローラ4の一例を示す六面図である。左コントローラ3および右コントローラ4の構成は、基本的に共通のため、右コントローラ4についての詳細な説明は省略する。
 図6は、本体装置2の内部構成の一例を示すブロック図である。本体装置2は、図3に示す構成の他、図6に示す各構成要素81~91、97、および98を備える。これらの構成要素81~91、97、および98のいくつかは、電子部品として電子回路基板上に実装されてハウジング11内に収納されてもよい。
 本体装置2は、プロセッサ81を備える。プロセッサ81は、本体装置2において実行される各種の情報処理を実行する情報処理部であって、例えば、CPU(Central Processing Unit)のみから構成されてもよいし、CPU機能、GPU(Graphics Processing Unit)機能等の複数の機能を含むSoC(System-on-a-chip)から構成されてもよい。プロセッサ81は、記憶部(具体的には、フラッシュメモリ84等の内部記憶媒体、あるいは、スロット23に装着される外部記憶媒体等)に記憶される情報処理プログラム(例えば、ゲームプログラム)を実行することによって、各種の情報処理を実行する。
 本体装置2は、自身に内蔵される内部記憶媒体の一例として、フラッシュメモリ84およびDRAM(Dynamic Random Access Memory)85を備える。フラッシュメモリ84およびDRAM85は、プロセッサ81に接続される。フラッシュメモリ84は、主に、本体装置2に保存される各種のデータ(プログラムであってもよい)を記憶するために用いられるメモリである。DRAM85は、情報処理において用いられる各種のデータを一時的に記憶するために用いられるメモリである。
 本体装置2は、スロットインターフェース(以下、「I/F」と略記する。)91を備える。スロットI/F91は、プロセッサ81に接続される。スロットI/F91は、スロット23に接続され、スロット23に装着された所定の種類の記憶媒体(例えば、専用メモリカード)に対するデータの読み出しおよび書き込みを、プロセッサ81の指示に応じて行う。
 プロセッサ81は、フラッシュメモリ84およびDRAM85、ならびに上記各記憶媒体との間でデータを適宜読み出したり書き込んだりして、上記の情報処理を実行する。
 本体装置2は、コントローラ通信部83を備える。コントローラ通信部83は、プロセッサ81に接続される。コントローラ通信部83は、左コントローラ3および/または右コントローラ4と無線通信を行う。本体装置2と左コントローラ3および右コントローラ4との通信方式は任意であるが、本実施例においては、コントローラ通信部83は、左コントローラ3との間および右コントローラ4との間で、Bluetooth(登録商標)の規格に従った通信を行う。
 プロセッサ81は、上述の左側端子17、右側端子21、および下側端子27に接続される。プロセッサ81は、左コントローラ3と有線通信を行う場合、左側端子17を介して左コントローラ3へデータを送信するとともに、左側端子17を介して左コントローラ3から操作データを受信する。また、プロセッサ81は、右コントローラ4と有線通信を行う場合、右側端子21を介して右コントローラ4へデータを送信するとともに、右側端子21を介して右コントローラ4から操作データを受信する。また、プロセッサ81は、クレードルと通信を行う場合、下側端子27を介してクレードルへデータを送信する。このように、本実施例においては、本体装置2は、左コントローラ3および右コントローラ4との間で、それぞれ有線通信と無線通信との両方を行うことができる。また、左コントローラ3および右コントローラ4が本体装置2に装着された一体型装置または本体装置2単体がクレードルに装着された場合、本体装置2は、クレードルを介してデータ(例えば、画像データや音声データ)を据置型モニタ等に出力することができる。
 また、ディスプレイ12は、プロセッサ81に接続される。プロセッサ81は、(例えば、上記の情報処理の実行によって)生成した画像および/または外部から取得した画像をディスプレイ12に表示する。
 また、本体装置2は、加速度センサ89および角速度センサ90を備える。
 図7は、本体装置2と左コントローラ3および右コントローラ4との内部構成の一例を示すブロック図である。なお、本体装置2に関する内部構成の詳細については、図6で示しているため図7では省略している。左コントローラ3および右コントローラ4の構成は基本的に共通のため、以下、左コントローラ3について説明する。
 左コントローラ3は、本体装置2との間で通信を行う通信制御部101を備える。図7に示すように、通信制御部101は、端子42を含む各構成要素に接続される。本実施例においては、通信制御部101は、端子42を介した有線通信と、端子42を介さない無線通信との両方で本体装置2と通信を行うことが可能である。通信制御部101は、左コントローラ3が本体装置2に対して行う通信方法を制御する。すなわち、左コントローラ3が本体装置2に装着されている場合、通信制御部101は、端子42を介して本体装置2と通信を行う。また、左コントローラ3が本体装置2から外されている場合、通信制御部101は、本体装置2(具体的には、コントローラ通信部83)との間で無線通信を行う。コントローラ通信部83と通信制御部101との間の無線通信は、例えばBluetooth(登録商標)の規格に従って行われる。
 また、左コントローラ3は、例えばフラッシュメモリ等のメモリ102を備える。通信制御部101は、例えばマイコン(マイクロプロセッサとも言う)で構成され、メモリ102に記憶されるファームウェアを実行することによって各種の処理を実行する。
 左コントローラ3は、各ボタン103(具体的には、ボタン33~39、43、44、および47)を備える。また、左コントローラ3は、アナログスティック(図7では「スティック」と記載する)32を備える。各ボタン103およびアナログスティック32は、自身に対して行われた操作に関する情報を、適宜のタイミングで繰り返し通信制御部101へ出力する。
 左コントローラ3は、慣性センサを備える。具体的には、左コントローラ3は、加速度センサ104を備える。また、左コントローラ3は、角速度センサ105を備える。本実施例においては、加速度センサ104は、所定の3軸(例えば、図4に示すxyz軸)方向に沿った加速度の大きさを検出する。なお、加速度センサ104は、1軸方向あるいは2軸方向の加速度を検出するものであってもよい。本実施例においては、角速度センサ105は、所定の3軸(例えば、図4に示すxyz軸)回りの角速度を検出する。なお、角速度センサ105は、1軸回りあるいは2軸回りの角速度を検出するものであってもよい。加速度センサ104および角速度センサ105は、それぞれ通信制御部101に接続される。そして、加速度センサ104および角速度センサ105の検出結果は、適宜のタイミングで繰り返し通信制御部101へ出力される。
 通信制御部101は、各入力部(具体的には、各ボタン103、アナログスティック32、各センサ104および105)から、入力に関する情報(具体的には、操作に関する情報、またはセンサによる検出結果)を取得する。通信制御部101は、取得した情報(または取得した情報に所定の加工を行った情報)を含む操作データを本体装置2へ送信する。なお、操作データは、所定時間に1回の割合で繰り返し送信される。なお、入力に関する情報が本体装置2へ送信される間隔は、各入力部について同じであってもよいし、同じでなくてもよい。
 上記操作データが本体装置2へ送信されることによって、本体装置2は、左コントローラ3に対して行われた入力を得ることができる。すなわち、本体装置2は、各ボタン103およびアナログスティック32に対する操作を、操作データに基づいて判別することができる。また、本体装置2は、左コントローラ3の動きおよび/または姿勢に関する情報を、操作データ(具体的には、加速度センサ104および角速度センサ105の検出結果)に基づいて算出することができる。
 (第1の実施例)
 次に、第1の実施例のゲームについて説明する。本実施例のゲームが開始されると、仮想空間が定義される。仮想空間には、仮想カメラとプレイヤキャラクタPCとが配置される。仮想カメラは、プレイヤキャラクタPCの背後に設定され、当該仮想カメラを用いてプレイヤキャラクタPCを含むゲーム画像が生成されて、ディスプレイ12または据置型モニタに表示される。
 図8は、本実施例のゲームが実行された場合にディスプレイ12に表示されるゲーム画像の一例を示す図である。図8に示されるように、ゲーム画像は、プレイヤキャラクタPCと、仮想空間に配置される仮想オブジェクトとして複数の素材オブジェクトOBJ(OBJa~OBJg)とを含む。プレイヤキャラクタPCは、ユーザによって操作されるキャラクタである。プレイヤキャラクタPCは、本体装置2、左コントローラ3、および/または右コントローラ4に対するユーザ操作に応じて、仮想空間内を移動したり、複数の素材オブジェクトOBJを組むことで合体オブジェクト(生成物)を生成したりする。
 複数の素材オブジェクトOBJは、ユーザの操作に応じて仮想空間内を移動可能なオブジェクトであり、合体オブジェクトの一部となる部品を構成可能なオブジェクトである。例えば、複数の素材オブジェクトOBJは、予め仮想空間の地面上に配置されている。また、複数の素材オブジェクトOBJは、ユーザ操作に基づいて仮想空間に現出してもよい。例えば、プレイヤキャラクタPCが敵キャラクタを倒した場合や所定の課題をクリアした場合に、素材オブジェクトOBJが仮想空間に現出してもよい。
 ユーザは、複数の素材オブジェクトOBJを組むことにより、合体オブジェクトを生成することができる。例えば、ユーザは、合体オブジェクトとして、車両、戦車、飛行機、船等の乗り物オブジェクトや敵キャラクタを攻撃する武器オブジェクト等を生成することができ、生成した合体オブジェクトを用いてゲームを進めることができる。例えば、プレイヤキャラクタPCは、生成した乗り物オブジェクト上に乗って当該乗り物オブジェクトを動かすことによって仮想空間内を移動したり、武器オブジェクトを用いて敵キャラクタを攻撃したりすることができる。なお、ユーザは、位置および/または姿勢を任意に設定して複数の素材オブジェクトOBJを組むことが可能である。したがって、ユーザは、複数の素材オブジェクトOBJを組むことによって、機能を有しない合体オブジェクトを生成することも可能であり、単なる物体や飾り物としての仮想オブジェクトを生成することも可能である。
 図8の例では、仮想空間に配置されている複数の素材オブジェクトOBJの一例として、エンジンオブジェクトOBJa、翼オブジェクトOBJb、車輪オブジェクトOBJc、板オブジェクトOBJd、操縦桿オブジェクトOBJe、箱オブジェクトOBJf、および岩オブジェクトOBJgが示されている。
 エンジンオブジェクトOBJaは、乗り物オブジェクトを移動させる動力として機能する素材オブジェクトである。エンジンオブジェクトOBJaは、合体オブジェクトの一部として構成された場合、合体オブジェクト全体に対して加速度、速度、角速度、角加速度等を加える。翼オブジェクトOBJbは、乗り物オブジェクトを仮想空間において空中移動させる機能を有する素材オブジェクトである。
 車輪オブジェクトOBJcは、乗り物オブジェクトを移動させる動力として機能する素材オブジェクトであり、例えば車両の車輪として構成可能である。板オブジェクトOBJdは、平板状の建材となる素材オブジェクトである。板オブジェクトOBJdは、例えば乗り物オブジェクトの車体として利用可能である。また、板オブジェクトOBJdは、複数の板オブジェクトOBJdを縦にして並べることで仮想空間に壁を形成したり、複数の板オブジェクトOBJdを組んで立体物を生成したりすることができる。
 操縦桿オブジェクトOBJeは、乗り物オブジェクトの移動方向を制御する機能を有する素材オブジェクトであり、乗り物オブジェクトが回転する方向に力を加える。
 箱オブジェクトOBJfは、例えば立方体や直方体等の立体形状の建材となる素材オブジェクトである。箱オブジェクトOBJfは、様々な合体オブジェクトの建材(例えば、車体の一部)として構成可能である。岩オブジェクトOBJgは、塊状(例えば、丸状や角状)、板状、または棒状の建材となる岩を模した素材オブジェクトである。
 なお、合体オブジェクトを構成するための別の素材オブジェクトが、さらに用意されてもよい。
 図8に示されるように、素材オブジェクトOBJには、1または複数の接着ポイントBPが設定される場合がある。接着ポイントBPは、素材オブジェクトOBJ同士を接着(接続)する際に、優先的に互いに接着される位置である。接着ポイントBPは、ゲーム制作者によって各素材オブジェクトOBJに予め設定されている。例えば、エンジンオブジェクトOBJaの底面には、1つの接着ポイントBPが設定される。また、翼オブジェクトOBJbの上面には、3つの接着ポイントBPが設定される。また、車輪オブジェクトOBJc、板オブジェクトOBJd、および操縦桿オブジェクトOBJeには、1以上の接着ポイントBPが設定される。なお、箱オブジェクトOBJfや岩オブジェクトOBJgには、接着ポイントBPが設定されていない。
 ユーザは、プレイヤキャラクタPCが収納している素材オブジェクトOBJ(収納オブジェクト)や仮想空間に配置されている何れか1つの素材オブジェクトOBJを選択し、他の素材オブジェクトOBJと接着することで、複数の素材オブジェクトOBJを組む。これにより、ユーザは、複数の素材オブジェクトOBJを組むことで構成される合体オブジェクトを生成物として生成することができる。
 図9および図10を参照して、素材オブジェクトOBJ同士を組んで合体オブジェクトが生成される例について説明する。図9は、岩オブジェクトOBJgと箱オブジェクトOBJfとが組まれることによって生成された合体オブジェクトの一例を示す図である。図10は、エンジンオブジェクトOBJaと翼オブジェクトOBJbとが組まれることによって生成された合体オブジェクトの一例を示す図である。
 図9に示されるように、仮想空間に配置されている岩オブジェクトOBJgと箱オブジェクトOBJfとが組まれることによって、合体オブジェクトが生成されている。具体的には、ユーザ操作に応じて、プレイヤキャラクタPCが箱オブジェクトOBJfと接触するように岩オブジェクトOBJgを移動させる。そして、ユーザ操作に応じて、プレイヤキャラクタPCが接着オブジェクトBを用いて岩オブジェクトOBJgと箱オブジェクトOBJfとの間を任意の位置で接着させる動作を行うことによって、岩オブジェクトOBJgと箱オブジェクトOBJfとが組まれた合体オブジェクトが生成される。
 図10に示すように、エンジンオブジェクトOBJaと翼オブジェクトOBJbとが組まれることによって、合体オブジェクト(乗り物オブジェクト)が生成されている。具体的には、ユーザ操作に応じて、プレイヤキャラクタPCが翼オブジェクトOBJbの上面中央付近に載置されるようにエンジンオブジェクトOBJaを移動させる。そして、ユーザ操作に応じて、プレイヤキャラクタPCが接着オブジェクトBを用いてエンジンオブジェクトOBJaと翼オブジェクトOBJbとの間を接着ポイントBP同士が接触するように接着させる動作を行うことによって、エンジンオブジェクトOBJaと翼オブジェクトOBJbとが組まれた合体オブジェクトが生成される。図においては、プレイヤキャラクタPCがエンジンオブジェクトOBJaと翼オブジェクトOBJbとが組まれた乗り物オブジェクトに乗って、空中移動している様子が示されている。
 図11を用いて、仮想空間に現出させる合体オブジェクトを登録する処理について説明する。なお、図11は、仮想空間に現出させる合体オブジェクトを登録する際のゲーム画像の一例を示す図である。なお、以下の説明では、ゲームシステム1において実行するアプリケーションの一例としてゲームを用いているが、ゲームシステム1において他のアプリケーションを実行してもかまわない。
 図11において、ゲームシステム1のディスプレイ12には、プレイヤキャラクタPCから見た仮想空間の主観画像となるゲーム画像が表示されている。この主観画像は、プレイヤキャラクタPCが生成した合体オブジェクトを設計図として登録するためのゲーム画像であり、ユーザ操作に応じて当該登録モードに移行して表示することができる。
 図11の一例では、合体オブジェクトOBJAと複数の素材オブジェクトOBJa、OBJc、OBJf、およびOBJgとが配置された仮想空間が上記主観画像として表示されている。例えば、合体オブジェクトOBJAは、上述したように仮想空間においてプレイヤキャラクタPCが生成したものであり、プレイヤキャラクタPCが一時収納していた収納オブジェクトや仮想空間に配置されていた素材オブジェクトを組むことによって生成されている。具体的には、合体オブジェクトOBJAは、4つの車輪オブジェクトOBJc、1つの板オブジェクトOBJd、および1つの操縦桿オブジェクトOBJeから構成される乗り物オブジェクトとして生成されている。
 合体オブジェクトを登録するゲームモードにおいて、ゲーム画像に合体オブジェクトが表示されている場合、合体オブジェクトを登録するユーザ操作に応じて、ゲーム画像に表示されている合体オブジェクトの設計情報が登録される。ここで、設計情報とは、合体オブジェクトを再度仮想空間に生成するための当該合体オブジェクトの構造データである。例えば、上記設計情報は、合体オブジェクトを構成する各素材オブジェクトの種類、素材オブジェクト同士が接着される位置、および素材オブジェクトそれぞれの姿勢等が記述される。
 合体オブジェクトを登録するゲームモードにおいて、合体オブジェクトを登録するユーザ操作が行われた場合、当該ユーザ操作時点で表示されているゲーム画像を撮像するようなゲーム演出(例えば、シャッター音のような効果音を出力して、当該時点のゲーム画像を静止させて表示するゲーム演出)が行われる。そして、上記ゲーム画像内に撮像されている合体オブジェクトが設計図として登録される旨を示すゲーム演出が行われて、ユーザに登録された合体オブジェクトが報知される。ここで、設計図は、上記撮像によって得られる画像に基づいて作成され、例えば上記設計情報に基づく合体オブジェクトの外観を示すものである。一例として、合体オブジェクトが表示された設計図を示す画像とともに、当該設計図が登録されることを示す情報が文字画像や音声等によってユーザに示されて、当該合体オブジェクトが設定図として登録されたことがユーザに報知される。なお、上記撮像演出されたゲーム画像から合体オブジェクトの一部が逸脱している場合であっても、当該合体オブジェクトの設計図が登録されてもよい。また、上記撮像演出されたゲーム画像内に複数の合体オブジェクトが含まれる場合、当該ゲーム画像の視点(仮想カメラ位置)に最も近い合体オブジェクトを登録対象としてもよいし、撮像されている表面積が最も大きい合体オブジェクトを登録対象としてもよいし、構成されている素材オブジェクトの数が最も多い合体オブジェクトを登録対象としてもよい。
 なお、上述した説明では、ユーザ操作時点で表示されているゲーム画像が撮像範囲として撮像される例を用いたが、表示されているゲーム画像全体ではなく当該ゲーム画像の一部が撮像範囲として撮像されてもよい。一例として、表示されている仮想空間の画像の一部となる当該画像の中心付近の長方形範囲が撮像範囲として設定されてもよい。この場合、表示されている仮想空間の画像全体ではなく、当該長方形範囲に表示されている仮想空間の画像が撮像範囲となり、当該撮像範囲内のゲーム画像が撮像演出されたゲーム画像として取り扱われる。
 また、上述した説明では、合体オブジェクトを登録するユーザ操作が行われた場合、当該ユーザ操作時点で表示されているゲーム画像を撮像するようなゲーム演出を行って、当該撮像されたゲーム画像から登録対象となる合体オブジェクトが選択される例を用いたが、他の態様によって登録対象となる合体オブジェクトが選択および登録されてもかまわない。例えば、設計図として登録される合体オブジェクトを選択するためのカーソルをゲーム画像と重複して表示し、合体オブジェクトを登録することを示すユーザ操作が行われた時点で当該カーソルと重複表示されている合体オブジェクトを設計図として登録してもよい。この場合、上述したようなゲーム画像を撮像するようなゲーム演出が行われなくてもよいが、上記ユーザ操作が行われた時点のゲーム画像を上述した撮像されたゲーム画像として取り扱うことによって、上述した登録処理と同様の処理を用いて、ユーザが選択した合体オブジェクトを設計図として登録する処理を行うことができる。具体的には、プレイヤキャラクタPCの主観画像となるゲーム画像であってカーソルによって選択された登録対象の合体オブジェクトが、その見えている表面の重心が画角の中央に配置されるように設定されたゲーム画像を設計図として作成および登録することが考えられる。また、上記カーソルを用いた合体オブジェクトの選択および登録する態様は、他の登録手順や方式によって登録処理が行われてもよい。
 図12および図13を用いて、登録された設計図に基づいた合体オブジェクトを仮想空間に現出させる処理について説明する。なお、図12は、仮想空間に合体オブジェクトを現出させるゲームモードにおけるゲーム画像の一例を示す図である。図13は、登録された設計図に基づいた合体オブジェクトを仮想空間に現出させたゲーム画像の一例を示す図である。
 図12において、ゲームシステム1のディスプレイ12には、プレイヤキャラクタPCを含む仮想空間を示すゲーム画像が表示されている。例えば、上記ゲーム画像は、プレイヤキャラクタPCの背後に仮想カメラを配置することにより、当該仮想カメラから見た仮想空間を示している。そして、上記ゲーム画像は、ユーザ操作に応じて、合体オブジェクトを現出させる現出モードに移行して表示される。
 上記ゲーム画像には、ユーザが選択可能な設計図および現時点で現出対象としてユーザが選択している設計図が示される。例えば、図12の例では、現出対象として設計図D1が表示されており、選択可能な他の設計図として設計図D2およびD3が表示されている。一例として、設計図D2およびD3をグレーアウトして表示することにより設計図D1と異なる表示態様で表示することによって、現出対象となっている設計図D1と区別して表示されている。例えば、設計図D1~D3は、登録処理において、それぞれユーザが仮想空間を撮像した撮像画像が用いられる。あるいは、設計図D1~D3は、撮像画像から登録対象の合体オブジェクトを抜き出した画像が用いられる。
 ユーザが選択可能な設計図は、例えば複数提示され、それぞれの設計図が仮想空間をユーザが撮像した撮像画像に基づいて生成される。このように、撮像を介して現出対象となる合体オブジェクト(生成物)の選択/設定を行うため、当該撮像画像(設計図)自体を選択肢とすることができ、興趣性が生まれるとともに、ユーザ自身が撮像画像(設計図)によって現出される生成物を容易に把握することができる。なお、ユーザが選択可能な設計図には、設計者等において予め用意された設計図が含まれていてもよい。例えば、上記設計図は、プレイヤキャラクタPCが仮想空間において取得可能なアイテムであってもよいし、プレイヤキャラクタPCが所定のゲームイベントをクリアすることによって進呈されるものであってもよい。
 ここで、上述したように、プレイヤキャラクタPCは、仮想オブジェクトやアイテムを一時収納することができる。プレイヤキャラクタPCが一時収納可能な仮想オブジェクトには、合体オブジェクトを構成可能な素材オブジェクトの一部の種類が含まれている。以下では、プレイヤキャラクタPCが一時収納している素材オブジェクトを、収納オブジェクトとして区別して説明する。例えば、収納オブジェクトは、プレイヤキャラクタPCが仮想空間に配置されている素材オブジェクトを拾うことによって一時収納されてもよいし、プレイヤキャラクタPCに所定のイベントが生じた場合に新たに収納されてもよい。現出対象となっている設計図D1には、現時点でプレイヤキャラクタPCが収納している収納オブジェクトのうち、設計図D1に基づいて生成される合体オブジェクトを構成可能な収納オブジェクトが付随して表示される。図12の例では、設計図D1が示す合体オブジェクトを構成可能な車輪オブジェクトOBJcと操縦桿オブジェクトOBJeとを、プレイヤキャラクタPCが収納していることが示されている。なお、現出対象となっている設計図D1には、合体オブジェクトを構成可能な収納オブジェクトの収納数、合体オブジェクトのために使用され得る最大数、現時点で合体オブジェクトのために最低限必要な数(すなわち、後述する仮想空間の対象エリアA内から使用可能な素材オブジェクトの数を当該最大数から減算した数)等の数値情報がさらに付随して表示されてもよい。
 なお、プレイヤキャラクタPCが収納オブジェクトを一時収納する状態とは、プレイヤキャラクタPCが当該収納オブジェクトを装備や把持等せずに、当該収納オブジェクトを持ち運ぶことができる状態である。このとき、収納された収納オブジェクトは、ゲームフィールドには表示されないこととなる。収納した収納オブジェクトは、基本的には適宜の状況でプレイヤキャラクタPCによって取り出されることでゲームフィールドに配置したり、使用(装備や把持を含む)されたりすることができる。本実施例においては、プレイヤキャラクタPCは、身に付ける収容体(例えば、ポーチやアイテムボックス)に収納オブジェクトを入れることで収納オブジェクトを収納する。なお、そのような収容体は、表示されなくてもよい。また、そのような収容体は、存在せずに単に収納オブジェクトを収納する機能のみが存在してもよい。
 上記現出モードに移行するユーザ操作が行われた場合、対象エリアAが表示される。対象エリアAは、現時点の現出対象である合体オブジェクトを構成するために、仮想空間に配置されたどの素材オブジェクトが使用されるかを示す範囲である。なお、対象エリアAにその一部のみが含まれている素材オブジェクトは、使用対象としてもよいし、使用対象としなくてもよい。例えば、対象エリアAは、プレイヤキャラクタPCの前方の地面上の位置を中心として、所定サイズの円または楕円形状の地面上の範囲に設定される。プレイヤキャラクタPCは、仮想空間に配置されている素材オブジェクトのうち、対象エリアA内に配置されている素材オブジェクトを用いて、現出対象の合体オブジェクトを自動生成して仮想空間に現出させることができる。
 本実施例では、プレイヤキャラクタPCの収納オブジェクトと対象エリアA内に配置されている素材オブジェクトとから、現出対象の合体オブジェクトを完成することが可能である場合に限って、すなわち、現出対象の合体オブジェクトを構成する素材オブジェクトが不足なく用意されているような状態である場合に限って、当該合体オブジェクトを現出することができる。図12に示す一例では、4つの車輪オブジェクトOBJc、1つの板オブジェクトOBJd、および1つの操縦桿オブジェクトOBJeから構成される合体オブジェクトが現出対象となっている。これに対して、対象エリアA内には4つの車輪オブジェクトOBJcと1つの板オブジェクトOBJdとが配置されており、プレイヤキャラクタPCが収納オブジェクトとして操縦桿オブジェクトOBJeを収納しており、これらの素材オブジェクトを組むことによって上記合体オブジェクトが完成可能である。したがって、合体オブジェクトを現出させるユーザ操作が行われた場合、上記合体オブジェクトが現出することになる。
 なお、他の例として、プレイヤキャラクタPCの収納オブジェクトと対象エリアA内に配置されている素材オブジェクトとでは、現出対象の合体オブジェクトを完成することができない、すなわち、現出対象の合体オブジェクトを構成する素材オブジェクトが不足している状態であっても、当該合体オブジェクトの一部が現出可能であってもよい。例えば、合体オブジェクトの一部として、不足している素材オブジェクトを除いた素材オブジェクト同士の組まれ方が維持された状態で現出してもよい。この場合、素材オブジェクトを繋ぐ素材オブジェクトが不足している場合には、当該素材オブジェクトを除いた素材オブジェクトだけで組むことができる小群状態や単体でばらばらに分散して現出する。一例として、素材オブジェクトA-素材オブジェクトB-素材オブジェクトC-素材オブジェクトD-素材オブジェクトEの順に組まれて完成する合体オブジェクトに対して、素材オブジェクトCが不足している場合、素材オブジェクトAと素材オブジェクトBとが組まれた合体物および素材オブジェクトDと素材オブジェクトEとが組まれた合体物が現出する。他の例として、素材オブジェクトA-素材オブジェクトB-素材オブジェクトCの順に組まれて完成する合体オブジェクトに対して、素材オブジェクトBが不足している場合、素材オブジェクトA単体と素材オブジェクトC単体とが、素材オブジェクトAおよびCが現出予定場所に移動してばらばらに現出する。
 また、上記ゲーム画像には、現時点で現出予定となっている合体オブジェクトの完成予想モデルオブジェクトが表示される。例えば、図12に示す一例では、対象エリアAの中心、すなわちプレイヤキャラクタPCの前方となる地面上に、完成予想モデルオブジェクトM1が表示されている。完成予想モデルオブジェクトM1は、現在選択されている設計図D1に基づいた合体オブジェクトが完成して現出する場合の予想形状を示すものであり、現実の合体オブジェクトとは異なる表示態様(例えば、半透明で表示されるスケルトンオブジェクト)で表示される。なお、仮想空間に配置される完成予想モデルオブジェクトや当該完成予想モデルオブジェクトに基づいて現出する合体オブジェクトは、上述したように対象エリアAの中心に配置されるが、それらの一部が当該対象エリアA内に存在すればどのような位置に配置されてもよい。
 第1の例として、完成予想モデルオブジェクトM1は、仮想空間の地面から浮いた状態で表示されてもよい。この場合、完成予想モデルオブジェクトM1の位置や姿勢に基づいて現出する合体オブジェクトは、地面から浮いた状態で現出した後、当該地面まで落下して当該地面上に配置されることになる。第2の例として、完成予想モデルオブジェクトM1が配置される仮想空間の地面に他のオブジェクトが配置されている場合、当該他のオブジェクトの上部に所定の隙間を形成した位置に完成予想モデルオブジェクトM1が表示されてもよい。何れの場合であっても、完成予想モデルオブジェクトM1の下部が地面の一部や他のオブジェクトの一部と重複することなく、接触も避けた位置に完成予想モデルオブジェクトM1が表示されることになる。第3の例として、仮想空間に完成予想モデルオブジェクトM1が配置された場合に完成予想モデルオブジェクトM1の内部と交差する他のオブジェクト(例えば、対象エリアAの中央に設けられた壁や上部に設けられた屋根等)が存在して、対象エリアA内に完成予想モデルオブジェクトM1を配置するスペースが場合、完成予想モデルオブジェクトM1を未表示としたり、グレーアウト表示したりすることによって、合体オブジェクトが現出できない旨がわかるように表示してもかまわない。
 また、表示された完成予想モデルオブジェクトM1は、ユーザ操作に応じて、表示位置や表示姿勢が変更可能であってもよい。一例として、一旦、仮想空間に配置されて表示された完成予想モデルオブジェクトM1は、ユーザ操作に応じて、その姿勢のみが変更可能であってもよい。他の例として、仮想空間に配置されて表示された完成予想モデルオブジェクトM1は、ユーザ操作に応じて、対象エリアA内における前後左右方向の位置が変更可能であってもよいし、対象エリアA内の地面からの配置高さ(上下方向の位置)が変更可能であってもよい。
 また、完成予想モデルオブジェクトM1は、合体オブジェクトとして完成するために必要な素材オブジェクトが対象エリアA内および/または収納オブジェクト内にある場合、該当する素材オブジェクト部分の表示態様が変化(例えば、着色される)する。一方、完成予想モデルオブジェクトM1は、上記必要な素材オブジェクトが対象エリアA内および収納オブジェクト内の何れにもない場合、該当する素材オブジェクト部分の表示態様はデフォルトの表示態様のまま(例えば、無色半透明のまま)表示される。したがって、完成予想モデルオブジェクトM1は、合体オブジェクトとして完成するために必要な素材オブジェクト全てが対象エリアA内および/または収納オブジェクト内にある場合と不足する場合とで、全体の表示態様が変化するため、合体オブジェクトを完成させて現出させるための素材オブジェクトの不足をユーザに認識させることができる。また、完成予想モデルオブジェクトM1は、合体オブジェクトを現出させる際の仮想空間における予測位置をユーザに認識させることができる。
 なお、合体オブジェクトとして完成するために必要な素材オブジェクトは、当該合体オブジェクトの一部として構成されている素材オブジェクトとの外見が異なる場合であっても、形状が実質的に等しい場合、これらの素材オブジェクトを同じオブジェクトとして扱ってもよい。例えば、オブジェクトのカテゴリ(例えば、丸太、岩、武器、操縦桿など)が同一で形状の近似度が所定値以内の素材オブジェクトは、合体オブジェクトを構成する処理においては同じオブジェクトとして見なしてもよい。一例として、表面の見た目が異なる(例えば、テクスチャーや彩色が異なる)だけで形状が等しい(実質的に等しい)素材オブジェクトは、同じオブジェクトとして扱ってもよい。なお、形状が等しいと見なせるオブジェクト同士は、事前に設定されていてもよいし、近似度として都度演算されて等しいと見なすか否かを判定もよい。また、オブジェクトの材質(例えば、木材や金属など)もさらに考慮し、同じ材質のときには同じオブジェクトとして扱うこととしてもよい。
 また、仮想空間内に配置されている素材オブジェクトについても、上記合体オブジェクトに使用される予定のもの(合体オブジェクトが現出した場合に使用されるオブジェクト)は、表示態様を変化させる。例えば、対象エリアA内の素材オブジェクトのうち、現時点で現出予定となっている合体オブジェクトを完成させるために用いられる予定の素材オブジェクトについては、表示態様を変化(例えば、着色される)させて表示する。図12に示す一例では、対象エリアA内の素材オブジェクトのうち、現出対象の合体オブジェクトに使用される予定となっている4つの車輪オブジェクトOBJcと1つの板オブジェクトOBJdとについては、表示態様を変化(図12の例では、ハッチングされているオブジェクト)させて表示されている。これによって、仮想空間に配置されている素材オブジェクトにおいて合体オブジェクトの生成に消費されるものをユーザに認識させることができる。
 なお、現出対象の合体オブジェクトに使用可能な素材オブジェクトが必要数以上存在する場合、所定の優先度を設定して消費してもよい。一例として、対象エリアA内に必要数以上の素材オブジェクトが配置されている場合、プレイヤキャラクタPCの近くに配置されている素材オブジェクトを優先して消費してもかまわない。他の例として、実質的に同じオブジェクトが、対象エリアA内に配置されている素材オブジェクトと収納オブジェクトとの両方に存在している場合、対象エリアA内に配置されている素材オブジェクトを優先して消費してもかまわない。
 ここで、仮想空間に配置されている素材オブジェクトには、プレイヤキャラクタPCが収納オブジェクトとして一時収納できるものと、プレイヤキャラクタPCが収納オブジェクトとして一時収納できないものとが含まれている。プレイヤキャラクタPCが収納オブジェクトとして一時収納できない収納不可ブジェクトは、仮想空間においてプレイヤキャラクタPCに比べて非常に大きな素材オブジェクトやわずかに形状や大きさが異なるものが多数存在する素材オブジェクト等(例えば、岩や木等)であってもよい。本実施例では、プレイヤキャラクタPCが収納オブジェクトとして一時収納できない収納不可オブジェクトは、板オブジェクトOBJd、箱オブジェクトOBJf、岩オブジェクトOBJg等や、あるいは図示しない宝箱オブジェクト等がある。なお、プレイヤキャラクタPCが収納オブジェクトとして一時収納できる素材オブジェクトは、エンジンオブジェクトOBJa、車輪オブジェクトOBJc、および操縦桿オブジェクトOBJe等がある。
 なお、現出対象の合体オブジェクトに使用可能な仮想空間の素材オブジェクトは、合体オブジェクトの少なくとも一部から使用されてもよい。例えば、対象エリアA内にすでに合体オブジェクトが配置されている場合、当該合体オブジェクトを構成している素材オブジェクトの少なくとも一部を使用して、新たな合体オブジェクトを現出させてもかまわない。つまり、現出対象の合体オブジェクトに使用可能な素材オブジェクトを含む合体オブジェクトの少なくとも一部が対象エリアA内の仮想空間に配置されている場合、仮想空間に配置されている合体オブジェクトを構成する素材オブジェクトが現出対象の合体オブジェクトに使用されてもよい。仮想空間に配置されている合体オブジェクトの一部となる素材オブジェクトが使用された場合、当該合体オブジェクト内において当該素材オブジェクトと他のオブジェクトとの接続が切断されて当該素材オブジェクトが消失するため、当該他の素材オブジェクトは当該接続の切断および消失に伴ってその位置から地面に落下する。なお、合体オブジェクトにおいて他の素材オブジェクト間が接続されている場合、当該接続は維持された状態としてもよい。
 上記において、対象エリアA内に配置されている素材オブジェクトのどれを使用するかについては、当該素材オブジェクトが合体オブジェクトの一部であるか否かは考慮されない。すなわち、素材オブジェクトが単体で存在しているときと同様に、例えば、プレイヤキャラクタPCの近くに配置されている素材オブジェクトが優先的に使用されてもかまわない。ただし、いずれにしても少なくとも収納オブジェクトよりは優先的に使用される。なお、別の例では、合体オブジェクトの一部として存在している素材オブジェクトよりも単体で存在している素材オブジェクトが優先して使用されてもよい。また、さらに別の例では、単体で存在している素材オブジェクトが最も優先して使用され、次に収納オブジェクトが優先して使用され、最後に合体オブジェクトの一部として存在している素材オブジェクトが使用されてもよい。
 また、対象エリアAは、仮想空間における立体的な範囲として設定されてもよい。例えば、対象エリアAは、所定サイズの円柱または楕円柱として定義されてもよい。この場合、プレイヤキャラクタPCから所定の高さ範囲内となる当該円柱内または当該楕円柱内に配置されている素材オブジェクトを、対象エリアA内の使用対象として選択してもかまわないし、その高さ範囲内に存在する地面上に配置された素材オブジェクトが使用対象として選択されても構わない。なお、立体的な範囲として設定される対象エリアAは、高さ方向の制限がある立体形状でもよいし、高さ方向の制限がない(すなわち、無限)の立体形状でもよい。
 図13において、合体オブジェクトを現出させるユーザ操作が行われると、完成予想モデルオブジェクトが配置されていた位置および姿勢に、合体オブジェクトが現出する。例えば、図13の一例では、完成予想モデルオブジェクトM1が配置されていた仮想空間における位置に、完成予想モデルオブジェクトM1が配置されていた姿勢で、合体オブジェクトOBJAが現出している様子を示している。このとき、現出する合体オブジェクトの生成に使用された仮想空間内の素材オブジェクトは、当該現出を契機として仮想空間内から消去される。なお、仮想空間内の素材オブジェクトが消去される際、プレイヤキャラクタPCが当該素材オブジェクトを収集するようなゲーム演出が行われてもかまわない。また、現出する合体オブジェクトの生成に使用された収納オブジェクトは、プレイヤキャラクタPCの収納オブジェクトから消去される。ここで、合体オブジェクトを現出させるユーザ操作は、当該合体オブジェクトとして完成するために必要な素材オブジェクト全てが対象エリアA内および/または収納オブジェクト内にある場合にのみ可能としている。この場合、合体オブジェクトは、完成状態のみ現出させることが可能となり、未完成状態の合体オブジェクトを現出させることはできないことになる。なお、合体オブジェクトを現出させるユーザ操作は、当該合体オブジェクトとして完成するために必要な素材オブジェクトが対象エリアA内および保有収納オブジェクト内にあるものでは足りない場合であっても可能としてもよい。この場合、合体オブジェクトは、未完成状態でも現出させることが可能となる。
 なお、上述した仮想空間内から消去される素材オブジェクトは、現出する合体オブジェクトの少なくとも一部に用いられてもよい。ここで、素材オブジェクトを現出する合体オブジェクトの少なくとも一部に用いる場合、対象エリアA内にある素材オブジェクトを合体オブジェクトにおける適切な位置に移動させて合体オブジェクト内に組ませることによって用いられてもよいし、一旦対象エリアA内から素材オブジェクトを消去させて実質的に同じ素材オブジェクトを有する合体オブジェクトを現出させることによって用いられてもよい。つまり、素材オブジェクトを現出する合体オブジェクトの少なくとも一部に用いるとは、そのまま素材オブジェクトを用いるだけでなく、一旦仮想空間から消去して実質的に同じ素材オブジェクトを用いることも含んでいる。一例として、下記(a)および(b)のいずれの処理によって素材オブジェクトを用いる処理が実現されてもよい。
(a)素材オブジェクトを仮想空間から削除し、素材オブジェクトのポリゴンモデルとは別のポリゴンモデルで構成される合体オブジェクトを組んで登場させる処理
(b)素材オブジェクトのポリゴンモデルの少なくとも一部を用いた合体オブジェクト(具体的には、素材オブジェクトのポリゴンモデルおよび他のオブジェクトのポリゴンモデルによってポリゴンモデルが構成される合体オブジェクト)をゲームフィールドに登場させる処理
 上記(b)の処理によっても、素材オブジェクトが消去されて、当該素材オブジェクトと他のオブジェクトとを組んだ合体オブジェクトが生成される様子を表現することができる。
 このように、仮想空間に配置されている仮想オブジェクトを合体オブジェクトの素材として用いるにあたっては、ユーザが当該仮想オブジェクトに対して所有権や支配権を有していることがゲーム性の維持に必要となる。本実施例では、仮想オブジェクトが配置されている位置に対象エリアAをユーザが指定する、または対象エリアA内に仮想オブジェクトをユーザが移動させることによって、ユーザがそれらの仮想オブジェクトの所有権や支配権を有しているとすることで、ゲーム性を維持しつつ当該仮想オブジェクトを素材とした合体オブジェクトの生成が可能となる。さらに、ゲームフィールドは、山、谷、川、海等、種々の性質/形状の地形が設定されることが一般的であり、現出された合体オブジェクトが適切に仮想空間内に配置できない場合もあり得る。しかしながら、本実施例では、合体オブジェクトが現出する仮想空間領域は、素材オブジェクトが適切に配置可能な仮想空間領域であるため、現出する合体オブジェクトも適切に配置できる可能性が高くなり、合体オブジェクトが現出時に落下して失われるといった可能性を低減できるため、ユーザビリティに優れるものとなる。
 なお、プレイヤキャラクタPCが仮想空間における空中に配置されている状態において、設計図に基づいた合体オブジェクトを現出させる場合、上述した地上とは異なる態様で当該合体オブジェクトを現出させてもかまわない。図14は、プレイヤキャラクタPCが仮想空間における空中で合体オブジェクトを現出させる様子の一例を示す図である。
 図14において、プレイヤキャラクタPCが仮想空間における空中で合体オブジェクトを現出させる場合、現時点で現出予定となっている合体オブジェクトの完成予想モデルオブジェクトが、仮想空間におけるプレイヤキャラクタPCの下方となる空中に表示される。例えば、図14に示す一例では、プレイヤキャラクタPCの下方となる仮想空間における空中に、完成予想モデルオブジェクトM2が表示されている。完成予想モデルオブジェクトM2は、現在選択されている設計図D2に基づいた合体オブジェクトが完成して現出する場合の予想形状を示すものであり、地面上と同様に現実の合体オブジェクトとは異なる表示態様(例えば、半透明で表示されるスケルトンオブジェクト)で表示される。
 そして、プレイヤキャラクタPCが仮想空間における空中において、合体オブジェクトを現出させるユーザ操作が行われると、完成予想モデルオブジェクトM2が配置されていた位置および姿勢に、合体オブジェクトが現出する。例えば、図14の一例では、完成予想モデルオブジェクトM2が配置されていた仮想空間における位置に、完成予想モデルオブジェクトM2が配置されていた姿勢で、設計図D2に基づいた合体オブジェクトが現出する。そして、プレイヤキャラクタPCは、上記空中の位置から飛び降りる動作を行うことによって、現出した合体オブジェクトに乗ってゲームを進めることができる。
 なお、図14に示す一例では、プレイヤキャラクタPCが仮想空間における空中で合体オブジェクトを現出させる場合に、対象エリアAが表示されていないが、空中で合体オブジェクトを現出させる場合に対象エリアAを設定してもよいし設定しなくてもよい。前者の場合は、プレイヤキャラクタPCを中心とする仮想空間に立体状の対象エリア(例えば、円柱状や楕円柱状)を設定し、当該立体状の対象エリアが地上まで到達している場合に当該地上の対象エリア内に配置されている素材オブジェクトや当該立体状の対象エリアに含まれる空中に配置されている素材オブジェクトを利用可能にしてもよい。この場合、対象エリアは、空中のプレイヤキャラクタPCの下方に設定されることになる。後者の場合は、現出対象の合体オブジェクトを構成する素材オブジェクトをプレイヤキャラクタPCが全て収納している場合に、当該合体オブジェクトを現出するためのユーザ操作が可能としてもよい。なお、プレイヤキャラクタPCが仮想空間における空中で合体オブジェクトを現出させる場合に設定される対象エリアは、空中のプレイヤキャラクタPCの前方に設定されてもよい。
 また、プレイヤキャラクタPCが仮想空間における空中に配置されている場合は、合体オブジェクトを現出させることができないようにしてもよい。この場合、プレイヤキャラクタPCが仮想空間における空中において、合体オブジェクトを現出させるユーザ操作が行われると、合体オブジェクトを現出できない旨の通知が表示画像または音声で行われてもよい。
 (第2の実施例)
 次に、第2の実施例のゲームについて説明する。第2の実施例におけるゲームにおいても、ユーザ操作に応じて、プレイヤキャラクタPCが複数の素材オブジェクトOBJを組むことで合体オブジェクト(生成物)を生成する。そして、プレイヤキャラクタPCが生成した合体オブジェクトが自動的に当該合体オブジェクトの設計図として登録される。ここで、第2の実施例における設計図は、ユーザ操作に応じて組まれた合体オブジェクトに基づいて作成され、上述した設計情報に基づく合体オブジェクトの外観を示すものである。そして、第1の実施例と同様に第2の実施例においても、登録された設計図に基づいた合体オブジェクトを仮想空間に現出させる処理を行うことができる。
 一例として、第2の実施例における設計図は、プレイヤキャラクタPCが素材オブジェクトOBJを組む毎に、自動的に登録される。例えば、素材オブジェクトAと素材オブジェクトBとが組まれた場合、素材オブジェクトA-素材オブジェクトBの合体物の設計図が自動的に登録される。そして、素材オブジェクトA-素材オブジェクトBの合体物に素材オブジェクトCがさらに組まれた場合、素材オブジェクトA-素材オブジェクトB-素材オブジェクトCの合体物の設計図が素材オブジェクトA-素材オブジェクトBの合体物の設計図とは別に自動的に登録される。したがって、この場合、素材オブジェクトA-素材オブジェクトBの合体物と素材オブジェクトA-素材オブジェクトB-素材オブジェクトCの合体物の2つの設計図が登録されることになる。
 ここで、第2の実施例のゲームでは、上述した自動的に登録される設計図(以下、第1種設計図とする)の他に、ゲーム内において所定のアイテムを取得することによって、当該アイテムに対応する合体オブジェクトの設計図(以下、第2種設計図とする)も登録可能であってもよい。また、上記第1種設計図および上記第2種設計図それぞれの登録可能数に上限が設けられてもよい。この場合、プレイヤキャラクタPCが素材オブジェクトを組む毎に、上記第1種設計図が自動的に登録されることにより第1種設計図の上限を越えるときには、既に登録されている第1種設計図のうち登録時期が相対的に古いものが自動的に消去される。また、プレイヤキャラクタPCが上記所定のアイテムを取得して当該アイテムに対応する第2種設計図が登録されることにより第2種設計図の上限を越えるときには、既に登録されている第2種設計図のうちユーザ操作に応じて選択されたものや登録時期が相対的に古いものが消去される。
 このような自動的な消去が行われないように、上記第1種設計図および上記第2種設計図の中から特定の設計図(以下、第3種設計図とする)が設定可能であってもよい。一例として、ユーザ操作に応じて、上記第1種設計図および上記第2種設計図の中から「お気に入り」の設計図が選択されて設定されることにより、上記第3種設計図が登録されてもよい。上記登録処理により、上記第1種設計図の登録数が第1種設計図の上限を越える場合や上記第2種設計図の登録数が第2種設計図の上限を越える場合であっても、第3種設計図の登録が保持される。なお、上記第3種設計図の登録可能数にも上限が設けられてもよい。ユーザが第3種設計図を新たに登録することにより第3種設計図の上限を越えるときには、既に登録されている第3種設計図のうちユーザ操作に応じて選択されたものが消去される。
 なお、上記第1種設計図および上記第2種設計図の中から上記第3種設計図が選択されて登録される際には、選択された設計図が第3種設計図に変更(すなわち、上記第1種設計図の登録リストまたは上記第2種設計図の登録リストから上記第3種設計図の登録リストに設計図を移動して登録)されてもよいし、選択された設計図が第3種設計図として複製(すなわち、上記第1種設計図の登録リストまたは上記第2種設計図の登録リストから上記第3種設計図の登録リストにコピーして登録)されてもよい。後者の場合、第3種設計図として登録された合成オブジェクトの設計図は、上述した消去処理により上記第1種設計図または上記第2種設計図としては消去されることがあり得るが、上記第3種設計図としては登録が保持されることになる。
 また、上記第1種設計図は、プレイヤキャラクタPCが合体オブジェクトから素材オブジェクトを分離する場合は、上述した自動的な登録が行われなくてもよい。例えば、素材オブジェクトA-素材オブジェクトB-素材オブジェクトC-素材オブジェクトD-素材オブジェクトEの合体オブジェクトから素材オブジェクトCを選択して分離させて、素材オブジェクトA-素材オブジェクトBと素材オブジェクトCと素材オブジェクトD-素材オブジェクトEとに分離した場合、素材オブジェクトA-素材オブジェクトBの合体オブジェクトと素材オブジェクトD-素材オブジェクトEの合体オブジェクトとが得られる。しかしながら、このような分離した合体物まで当該分離毎に第1種設計図として自動的に登録した場合、第1種設計図の登録可能数の上限に到達することが相対的に早くなる一方、ユーザにとって登録したい設計図ではない可能性がある。上記分離の際には、上記第1種設計図として自動的に登録しないことにより、このような状況を避けることができる。
 また、他の例として、合体オブジェクトが完成したことを示すユーザ操作が行われたことを契機として、当該合体オブジェクトの設計図が上記第1種設計図として登録されてもよい。この場合、上記第1種設計図として新たに登録されると、登録された合体オブジェクトが表示された設計図を示す画像とともに、当該設計図が登録されることを示す情報が文字画像や音声等によってユーザに報知される。
 また、上記第2種設計図は、登録可能数の上限が設けられなくてもよい。この場合、例えば、上記第2種設計図は、ゲーム内において所定数用意された所定のアイテムを取得することに応じて制限なく登録されることが可能となり、ユーザ操作による消去や自動的な消去が行われない仕様であってもよい。これにより、上記第2種設計図としてレアな合体オブジェクトの設計図が取得可能である場合に、ユーザが意図せずに当該設計図を消去してしまうような状況を防止することができる。
 また、上記第1の実施例のゲームと上記第2の実施例のゲームとが適宜組み合わされた態様であってもよい。第1の例として、上記第1の実施例のゲームにおいて、上記第2の実施例における第2種設計図が登録可能であってもよい。第2の例として、上記第1の実施例においてゲーム画像を撮像する操作を行うことにより登録される設計図の中から選択された特定の設計図が、上記第2の実施例における第3種設計図としてさらに登録可能であってもよい。第3の例として、上記第1の実施例においてゲーム画像を撮像する操作を行うことにより登録される設計図と、上記第2の実施例において自動的に登録される第1種設計図との両方が登録可能なゲームが行われてもよい。
 次に、図15~図18を参照して、上記第1の実施例においてゲームシステム1で実行される具体的な処理の一例について説明する。図15は、上記第1の実施例において本体装置2のDRAM85に設定されるデータ領域の一例を示す図である。なお、DRAM85には、図15に示すデータの他、他の処理で用いられるデータも記憶されるが、詳細な説明を省略する。
 DRAM85のプログラム記憶領域には、ゲームシステム1で実行される各種プログラムPaが記憶される。本実施例においては、各種プログラムPaは、左コントローラ3および/または右コントローラ4や本体装置2から取得したデータに基づいた情報処理を行うためのアプリケーションプログラム(例えば、ゲームプログラム)等が記憶される。なお、各種プログラムPaは、フラッシュメモリ84に予め記憶されていてもよいし、ゲームシステム1に着脱可能な記憶媒体(例えば、スロット23に装着された所定の種類の記憶媒体)から取得されてDRAM85に記憶されてもよいし、インターネット等のネットワークを介して他の装置から取得されてDRAM85に記憶されてもよい。プロセッサ81は、DRAM85に記憶された各種プログラムPaを実行する。
 また、DRAM85のデータ記憶領域には、ゲームシステム1において実行される情報処理等の処理において用いられる各種のデータが記憶される。本実施例においては、DRAM85には、操作データDa、登録データDb、モデルデータDc、対象エリアデータDd、プレイヤキャラクタデータDe、オブジェクトデータDf、登録処理フラグデータDg、現出処理フラグデータDh、および画像データDi等が記憶される。
 操作データDaは、左コントローラ3および/または右コントローラ4や本体装置2からそれぞれ適宜取得した操作データである。上述したように、左コントローラ3および/または右コントローラ4や本体装置2からそれぞれ取得される操作データには、各入力部(具体的には、各ボタン、アナログスティックタッチパネル、各センサ)からの入力に関する情報(具体的には、操作に関する情報や各センサによる検出結果)が含まれている。本実施例では、無線通信によって左コントローラ3および/または右コントローラ4や本体装置2からそれぞれ操作データを取得しており、当該取得した操作データを用いて操作データDaが適宜更新される。なお、操作データDaの更新周期は、後述するゲームシステム1で実行される処理の周期である1フレーム毎に更新されてもよいし、上記操作データが取得される周期毎に更新されてもよい。
 登録データDbは、登録された合体オブジェクト毎の設計情報を示すデータである。例えば、登録データDbは、登録された合体オブジェクト毎に、構成する素材オブジェクトの種類、素材オブジェクト同士が接着される位置、素材オブジェクトそれぞれの姿勢等が記述された設計情報を示すデータで構成される。
 モデルデータDcは、仮想空間に配置される完成予想モデルオブジェクトの種類、配置位置、配置姿勢、および表示態様等を示すデータである。
 対象エリアデータDdは、仮想空間に配置される対象エリアの位置、サイズ、および形状等を示すデータである。
 プレイヤキャラクタデータDeは、仮想空間に配置されているプレイヤキャラクタPCの配置位置および配置姿勢や、仮想空間における動作や状態等を示すデータである。また、プレイヤキャラクタデータDeは、プレイヤキャラクタPCが一時収納している収納オブジェクトの種別および数等を示すデータを含んでいる。オブジェクトデータDfは、仮想空間にそれぞれ配置されているオブジェクト毎のオブジェクトの種別、配置位置、配置姿勢、配置状態、他のオブジェクトとの間の接着状況、および表示態様等を示すデータである。
 登録処理フラグデータDgは、合体オブジェクトを登録するゲームモードの場合にオンに設定される登録処理フラグを示すデータである。現出処理フラグデータDhは、合体オブジェクトを現出させるゲームモードの場合にオンに設定される現出処理フラグを示すデータである。
 画像データDiは、表示画面(例えば、本体装置2のディスプレイ12)に画像(例えば、キャラクタやオブジェクトの画像、仮想空間の画像、背景画像等)を表示するためのデータである。
 次に、図16~図18を参照して、上記第1の実施例における情報処理の詳細な一例を説明する。図16は、ゲームシステム1で実行される情報処理の一例を示すフローチャートである。図17は、図16におけるステップS126において行われる登録処理の詳細な一例を示すサブルーチンである。図18は、図16におけるステップS128において行われる現出処理の詳細な一例を示すサブルーチンである。本実施例においては、図16~図18に示す一連の処理は、プロセッサ81が各種プログラムPaに含まれる所定のアプリケーションプログラム(ゲームプログラム)を実行することによって行われる。また、図16~図18に示す情報処理が開始されるタイミングは任意である。
 なお、図16~図18に示すフローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えて(または代えて)別の処理が実行されてもよい。また、本実施例では、上記フローチャートの各ステップの処理をプロセッサ81が実行するものとして説明するが、上記フローチャートにおける一部のステップの処理を、プロセッサ81以外のプロセッサや専用回路が実行するようにしてもよい。また、本体装置2において実行される処理の一部は、本体装置2と通信可能な他の情報処理装置(例えば、本体装置2とネットワークを介して通信可能なサーバ)によって実行されてもよい。すなわち、図16~図18に示す各処理は、本体装置2を含む複数の情報処理装置が協働することによって実行されてもよい。
 図16において、プロセッサ81は、情報処理における初期設定を行い(ステップS121)、次のステップに処理を進める。例えば、上記初期設定では、プロセッサ81は、以下に説明する処理を行うためのパラメータを初期化する。一例として、プロセッサ81は、予め設定されている仮想空間の設定に基づいて、プレイヤキャラクタPCや複数のオブジェクトを仮想空間に初期配置して、プレイヤキャラクタデータDeおよびオブジェクトデータDfを初期設定する。
 次に、プロセッサ81は、左コントローラ3、右コントローラ4、および/または本体装置2から操作データを取得して操作データDaを更新し(ステップS122)、次のステップに処理を進める。
 次に、プロセッサ81は、仮想空間において、プレイヤキャラクタPCを動作させ(ステップS123)、次のステップに処理を進める。例えば、プロセッサ81は、ステップS122において取得した操作データDaに基づいて、プレイヤキャラクタPCを動作させ、プレイヤキャラクタデータDeを更新する。
 次に、プロセッサ81は、仮想空間において各オブジェクトを動作させ(ステップS124)、次のステップに処理を進める。例えば、プロセッサ81は、プレイヤキャラクタPCの動作(例えば、プレイヤキャラクタPCが乗り物オブジェクトを動かす動作)、オブジェクト自身や他のオブジェクトの動作、および仮想空間における仮想的な物理演算に基づいて、仮想空間に配置された各オブジェクトを動作させ、オブジェクトデータDfを更新する。また、プロセッサ81は、ゲームイベントに応じて仮想空間にオブジェクトを新たに配置する場合、当該オブジェクトに関するデータを新たに追加してオブジェクトデータDfを更新する。また、プロセッサ81は、仮想空間に配置されているオブジェクトまたは新たに取得されたオブジェクトを、プレイヤキャラクタPCに一時収納させる場合、当該オブジェクトを収納オブジェクトとしてプレイヤキャラクタデータDeを更新する。さらに、プレイヤキャラクタPCに応じて、オブジェクト同士が接続状態となる、またはオブジェクト同士の接続状態が解除される場合、当該接続状態に応じてオブジェクトデータDfを更新する。なお、オブジェクト移動手段は、ユーザ操作に基づいて、素材オブジェクトを仮想空間内で移動させるものであり、一例としてステップS124の処理を行うプロセッサ81に相当する。また、合体オブジェクト生成手段は、ユーザ操作に基づいて、複数の素材オブジェクトを組むことで合体オブジェクトを生成するものであり、一例としてステップS124の処理を行うプロセッサ81に相当する。
 次に、プロセッサ81は、登録処理を行うか否かを判定する(ステップ125)。例えば、プロセッサ81は、上記ステップS122において取得した操作データが登録処理を行うゲームモードに移行するユーザ指示を示す場合や登録処理フラグデータDgが示す登録処理フラグがオンに設定されている場合、上記ステップS125において肯定判定する。そして、プロセッサ81は、登録処理を行う場合、ステップS126に処理を進める。一方、プロセッサ81は、登録処理を行わない場合、ステップS127に処理を進める。
 ステップS126において、プロセッサ81は、登録処理を行い、ステップS127に処理を進める。以下、図17を参照して、上記ステップS126で行われる登録処理について説明する。なお、生成物設定手段は、複数の素材オブジェクトを組むことで生成された合体オブジェクトを、現出されることが可能な生成物として設定する処理を行うものであり、一例としてステップS126の処理を行うプロセッサ81に相当する。
 図17において、プロセッサ81は、登録処理フラグをオンに設定して(ステップS140)、次のステップに処理を進める。例えば、プロセッサ81は、登録処理フラグをオンに設定して登録処理フラグデータDgを更新する。
 次に、プロセッサ81は、登録処理を行うゲームモードを終了するか否かを判定する(ステップS141)。上記ステップS141において登録処理を行うゲームモードを終了する条件としては、例えば、当該ゲームモードが終了される条件が満たされたことや、ユーザが当該ゲームモードを終了する(キャンセルする)操作を行ったことや、ユーザが登録対象となっている合体オブジェクトを設計図として登録しないことを決定した操作を行ったこと等がある。プロセッサ81は、登録処理を行うゲームモードを終了しない場合にステップS142に処理を進め、登録処理を行うゲームモードを終了する場合にステップS146に処理を進める。
 次に、プロセッサ81は、プレイヤキャラクタPCから仮想空間を見た主観画像を生成し(ステップS142)、次のステップに処理を進める。例えば、プロセッサ81は、プレイヤキャラクタPCを視点としてプレイヤキャラクタPCの前方を注視点とする位置および向きに仮想カメラを配置することによって、プレイヤキャラクタPCの主観画像を生成する。
 次に、プロセッサ81は、上記ステップS142において生成された主観画像を用いて、登録対象となる合体オブジェクトを選択し(ステップS143)、次のステップに処理を進める。例えば、プロセッサ81は、所定の選択ルールに基づいて、上記主観画像に含まれる仮想空間におけるオブジェクトから、設計図として登録する合体オブジェクトを選択する。一例として、プロセッサ81は、上記主観画像内に複数の合体オブジェクトが含まれる場合、当該主観画像の視点に最も近い合体オブジェクトを登録対象として選択する。
 次に、プロセッサ81は、登録対象となっている合体オブジェクトを設計図として登録するか否かを判定する(ステップS144)。例えば、プロセッサ81は、上記ステップS122において取得した操作データが合体オブジェクトを登録する指示を示している場合、上記ステップS144において肯定判定する。そして、プロセッサ81は、登録対象となっている合体オブジェクトを設計図として登録する場合、ステップS145に処理を進める。一方、プロセッサ81は、登録対象となっている合体オブジェクトを設計図として登録しない場合、当該サブルーチンによる処理を終了する。
 次に、プロセッサ81は、登録対象となる合体オブジェクトの設計情報を登録し(ステップS145)、ステップS146に処理を進める。例えば、プロセッサ81は、上記ステップS144において選択された登録対象の合体オブジェクトの構成を示す設計情報を登録データDbに追加する。
 ステップS146において、プロセッサ81は、登録処理フラグをオフに設定して、当該サブルーチンによる処理を終了する。例えば、プロセッサ81は、登録処理フラグをオフに設定して登録処理フラグデータDgを更新する。
 図16に戻り、ステップS127において、プロセッサ81は、現出処理を行うか否かを判定する。例えば、プロセッサ81は、上記ステップS122において取得した操作データが現出処理を行うゲームモードに移行するユーザ指示を示す場合や現出処理フラグデータDhが示す現出処理フラグがオンに設定されている場合、上記ステップS127において肯定判定する。そして、プロセッサ81は、現出処理を行う場合、ステップS128に処理を進める。一方、プロセッサ81は、現出処理を行わない場合、ステップS129に処理を進める。
 ステップS128において、プロセッサ81は、現出処理を行い、ステップS129に処理を進める。以下、図18を参照して、上記ステップS128で行われる現出処理について説明する。
 図18において、プロセッサ81は、現出処理フラグをオンに設定して(ステップS150)、次のステップに処理を進める。例えば、プロセッサ81は、現出処理フラグをオンに設定して現出処理フラグデータDhを更新する。
 次に、プロセッサ81は、現出処理を行うゲームモードを終了するか否かを判定する(ステップS151)。上記ステップS151において現出処理を行うゲームモードを終了する条件としては、例えば、当該ゲームモードが終了される条件が満たされたことや、ユーザが当該ゲームモードを終了する(キャンセルする)操作を行ったこと等がある。プロセッサ81は、現出処理を行うゲームモードを終了しない場合にステップS152に処理を進め、現出処理を行うゲームモードを終了する場合にステップS164に処理を進める。
 次に、プロセッサ81は、現時点がユーザに設計図の選択を促す段階か否かを判定する(ステップS152)。一例として、プロセッサ81は、現時点が既に設計図が決定されている段階である場合、上記ステップS152において否定判定する。そして、プロセッサ81は、現時点がユーザに設計図の選択を促す段階である場合、ステップS153に処理を進める。一方、プロセッサ81は、現時点がユーザに設計図の選択を促す段階でない場合、ステップS156に処理を進める。
 ステップS153において、プロセッサ81は、ユーザが選択可能な設計図を表示して、当該選択図からの選択を促すゲーム画像を設定して、次のステップに処理を進める。例えば、プロセッサ81は、登録データDbに登録されている全ての合体オブジェクトの設計情報を抽出し、当該設計情報に基づいて生成される合体オブジェクトそれぞれを示す設計図を一覧表示するゲーム画像を生成して、当該設計図からの選択をユーザに促す。このとき、ユーザによって仮選択された設計図に基づく完成予想モデル(完成予想モデルオブジェクト)および対象エリアを、現時点のプレイヤキャラクタPCの配置位置および向きに応じて、仮想空間内に表示してもかまわない。また、ユーザによって仮選択された設計図が示す合体オブジェクトに使用できるプレイヤキャラクタPCの収納オブジェクトを示す画像を、当該設計図周辺に表示してもかまわない。
 次に、プロセッサ81は、設計図を決定するユーザ操作が行われたか否かを判定する(ステップS154)。例えば、プロセッサ81は、上記ステップS122において取得した操作データが設計図を決定するユーザ指示を示す場合、上記ステップS154において肯定判定する。そして、プロセッサ81は、設計図を決定するユーザ操作が行われた場合、ステップS155に処理を進める。一方、プロセッサ81は、設計図を決定するユーザ操作が行われていない場合、ステップS156に処理を進める。
 ステップS155において、プロセッサ81は、現出させる合体オブジェクトを決定し、ステップS156に処理を進める。例えば、プロセッサ81は、現時点で選択されている設計図に基づいて生成される合体オブジェクトを、現出対象の合体オブジェクトに決定し、登録データDbから当該合体オブジェクトに関連する設計情報を抽出する。そして、プロセッサ81は、上記設計情報に基づいて、完成予想モデルオブジェクトを表示するためのデータを設定し、当該データを用いてモデルデータDcを更新する。
 ステップS156において、プロセッサ81は、設計図が決定されている段階か否かを判定する。そして、プロセッサ81は、設計図が決定されている段階である場合、ステップS157に処理を進める。一方、プロセッサ81は、設計図が決定されている段階でない場合、当該サブルーチンによる処理を終了する。なお、設計図が決定されている段階となった後であっても、再度、設計図の選択をやり直してもかまわない。この場合、上記ステップS152の判定処理においてプロセッサ81が肯定判定することによって、設計図の再選択が可能となる。
 ステップS157において、プロセッサ81は、仮想空間に対象エリアを設定し、次のステップに処理を進める。例えば、プロセッサ81は、プレイヤキャラクタPCから所定の距離前方となる地面上の位置を中心とする対象エリア(図12参照)を設定し、当該対象エリアに基づいて対象エリアデータDdを更新する。なお、領域設定手段は、ユーザ操作に基づいて、仮想空間の任意の位置に領域を設定する処理を行うものであり、一例としてステップS157の処理を行うプロセッサ81に相当する。  
 次に、プロセッサ81は、仮想空間に完成予想モデルオブジェクトを配置して(ステップS158)、次のステップに処理を進める。例えば、プロセッサ81は、仮想空間における上記ステップS157において設定した対象エリアの中央に、モデルデータDcが示す完成予想モデルオブジェクトを配置する。
 次に、プロセッサ81は、仮想空間に配置されている素材オブジェクトおよび完成予想モデルオブジェクトの表示態様を変更する処理を行い(ステップS159)、次のステップに処理を進める。例えば、プロセッサ81は、上記ステップS157において設定した対象エリア内に配置されている素材オブジェクトのうち、現出対象として設定されている合体オブジェクトが現出した場合に実際に使用されるオブジェクトの表示態様をデフォルトの表示態様から変更し、当該変更後の表示態様を用いてオブジェクトデータDfを更新する。また、プロセッサ81は、対象エリアが移動することによって、当該対象エリアから逸脱した素材オブジェクトがある場合、当該素材オブジェクトの表示態様をデフォルトの表示態様に戻し、当該変更後の表示態様を用いてオブジェクトデータDfを更新する。また、プロセッサ81は、プレイヤキャラクタPCの収納オブジェクトのうち、現出対象として設定されている合体オブジェクトが現出した場合に実際に使用されるオブジェクトを抽出し、当該オブジェクトを示す画像をゲーム画像内(例えば、選択されている設計図周辺)に表示する設定を行う。さらに、プロセッサ81は、現在設定されている完成予想モデルオブジェクトに対応する合体オブジェクトを完成するために必要な素材オブジェクトが対象エリア内および/または収納オブジェクト内にある場合、該当する素材オブジェクト部分の表示態様をデフォルトの表示態様から変更し、当該変更後の表示態様を用いてモデルデータDcを更新する。また、プロセッサ81は、合体オブジェクトを完成するために必要な素材オブジェクトが対象エリア内から逸脱して不足する状態となった場合、該当する素材オブジェクト部分の表示態様をデフォルトの表示態様に戻し、当該変更後の表示態様を用いてモデルデータDcを更新する。なお、完成予想モデルオブジェクトの内部と交差する他のオブジェクトが存在して、対象エリア上に完成予想モデルオブジェクトを配置するスペースがない場合、プロセッサ81は、完成予想モデルオブジェクトを未表示としたり、グレーアウト表示したりしてもかまわない。
 次に、プロセッサ81は、現在現出対象となっている合体オブジェクトが現出可能か否かを判定する(ステップS160)。例えば、プロセッサ81は、現出対象の合体オブジェクトとして完成するために必要な素材オブジェクト全てが対象エリア内および/または収納オブジェクト内にある場合、当該合体オブジェクトを現出可能であると判定する。そして、プロセッサ81は、合体オブジェクトが現出可能である場合、ステップS161に処理を進める。一方、プロセッサ81は、合体オブジェクトが現出可能でない場合、当該サブルーチンによる処理を終了する。なお、完成予想モデルオブジェクトの内部と交差する他のオブジェクトが存在して、対象エリア上に完成予想モデルオブジェクトを配置するスペースがない場合、プロセッサ81は、合体オブジェクトが現出可能でないと判定してもよい。
 ステップS161において、プロセッサ81は、現出対象の合体オブジェクトを仮想空間に現出させるか否かを判定する。例えば、プロセッサ81は、上記ステップS122において取得した操作データが、現出対象の合体オブジェクトを仮想空間に現出させるユーザ指示を示す場合、上記ステップS161において肯定判定する。そして、プロセッサ81は、現出対象の合体オブジェクトを仮想空間に現出させる場合、ステップS162に処理を進める。一方、プロセッサ81は、現出対象の合体オブジェクトを仮想空間に現出させない場合、当該サブルーチンによる処理を終了する。
 ステップS162において、プロセッサ81は、現出する合体オブジェクトに用いられた素材オブジェクトを仮想空間から消去し、次のステップに処理を進める。例えば、プロセッサ81は、現出する合体オブジェクトに用いられた素材オブジェクトのうち、仮想空間に配置されている素材オブジェクトに関連するデータを、オブジェクトデータDfから消去する。また、プロセッサ81は、現出する合体オブジェクトに用いられた素材オブジェクトのうち、収納オブジェクトから用いられた素材オブジェクトに関連するデータを、プレイヤキャラクタデータDeから消去する。
 次に、プロセッサ81は、現出対象の合体オブジェクトを現出させ(ステップS163)、ステップS164に処理を進める。例えば、プロセッサ81は、モデルデータDcが示す完成予想モデルオブジェクトを通常の表示態様に変更(例えば、半透明の表示態様を、仮想空間に配置されている仮想オブジェクトと同じ表示態様に変更)した合体オブジェクトに遷移させ、当該合体オブジェクトが仮想空間内に存在するように当該合体オブジェクトに関するデータをオブジェクトデータDfに追加する。なお、生成物現出手段は、領域内に少なくともその一部が含まれる素材オブジェクトを少なくとも用いて、領域内に少なくともその一部が含まれるように、複数の素材オブジェクトに対応する生成物を現出させるものであり、一例としてステップS163の処理を行うプロセッサ81に相当する。
 なお、上記ステップS162およびS163では、合体オブジェクトに用いられる素材オブジェクトに関連するデータをオブジェクトデータDfから消去し、当該合体オブジェクトに関するデータをオブジェクトデータDfに追加する処理が行われているが、上述したように、素材オブジェクトを消去する処理は、下記(a)および(b)のいずれの処理によって実現されてもよい。
(a)合体オブジェクトに組まれる素材オブジェクトのデータをオブジェクトデータDfから一旦削除し、合体オブジェクトに組まれる素材オブジェクトのデータを新たに構成した合体オブジェクトのデータをオブジェクトデータDfに追加する処理
(b)合体オブジェクトに組まれる素材オブジェクトのデータの少なくとも一部(位置データ、姿勢データ、接着情報等)を合体オブジェクトに組まれた状態に更新し、当該合体オブジェクトのデータとしてオブジェクトデータDfに残す処理
 上記(b)の処理によれば、オブジェクトデータDfにおける素材オブジェクトのデータを、当該素材オブジェクトが組まれた合体オブジェクトのデータの一部としてオブジェクトデータDfに記憶することができる。以上のように、「素材オブジェクトのデータを消去する」とは、当該素材オブジェクトのデータ消去後において、他のオブジェクト(具体的には、合体オブジェクト)のデータの一部として当該素材オブジェクトのデータが用いられることを排除しない意味である。
 ステップS164において、プロセッサ81は、現出処理フラグをオフに設定して、当該サブルーチンによる処理を終了する。例えば、プロセッサ81は、現出処理フラグをオフに設定して現出処理フラグデータDhを更新する。
 図16に戻り、ステップS129において、プロセッサ81は、表示制御処理を行い、次のステップに処理を進める。例えば、プロセッサ81は、登録データDb、モデルデータDc、対象エリアデータDd、プレイヤキャラクタデータDe、オブジェクトデータDf、および画像データDi等に基づいて、仮想空間にプレイヤキャラクタPC、素材オブジェクトや合体オブジェクト等を含む仮想オブジェクト、完成予想モデルオブジェクト、対象エリア等をそれぞれ配置する。また、プロセッサ81は、操作データDaやプレイヤキャラクタPCの位置および向き等に基づいて、表示画像を生成するための仮想カメラの位置および/または姿勢を設定し、当該仮想カメラを仮想空間に配置する。そして、設定した仮想カメラから見た仮想空間の画像を生成して、当該仮想空間画像をディスプレイ12に表示する制御を行う。
 次に、プロセッサ81は、ゲーム処理を終了するか否かを判定する(ステップS130)。上記ステップS130においてゲーム処理を終了する条件としては、例えば、ゲーム処理が終了される条件が満たされたことや、ユーザがゲーム処理を終了する操作を行ったこと等がある。プロセッサ81は、ゲーム処理を終了しない場合に上記ステップS122に戻って処理を繰り返し、ゲーム処理を終了する場合に当該フローチャートによる処理を終了する。以降、ステップS122~ステップS130の一連の処理は、ステップS130で処理を終了すると判定されるまで繰り返し実行される。
 このように、上述した実施例においては、仮想空間における素材オブジェクトが配置されている位置に対象エリアをユーザが指定する、または対象エリア内に素材オブジェクトをユーザが移動させることによって、ユーザが素材オブジェクトの所有権や支配権を有しているとすることで、ゲーム性を維持しつつ当該素材オブジェクトを用いた合体オブジェクトの生成が可能となる。また、合体オブジェクトが現出する仮想空間領域は、素材オブジェクトが適切に配置可能な仮想空間領域であるため、現出する合体オブジェクトも適切に配置できる可能性が高くなり、合体オブジェクトが現出時に落下して失われるといった可能性を低減できるため、ユーザビリティに優れるものとなる。
 なお、上述した実施例では、ユーザがプレイヤキャラクタPCを操作して一度生成した合体オブジェクトを、再度仮想空間に現出させる例を用いたが、現出させる合体オブジェクトは、ユーザが生成したことのない生成物であってもよい。例えば、設計者等において予め用意された設計図に基づいた合体オブジェクトを、ユーザ操作に応じて現出させるものであってもよい。また、設計者等において予め用意された合体オブジェクトをユーザが登録することによって取得した設計図に基づいて、合体オブジェクトを現出させ得るものであってもよい。また、他のユーザが一度生成した合体オブジェクトの設計図を用いて当該合体オブジェクトを現出させるものであってもよい。なお、設計者等において予め用意された上記設計図は、ゲーム進行中においてプレイヤキャラクタPCが取得可能なアイテムとして設定することも可能である。
 また、上述した実施例における「現出」は、合体オブジェクトが現出した段階で確定的にそこに載置されなくてもよく、合体オブジェクトが現出後に現出位置から実際に当該合体オブジェクトを載置する位置決めを行うプロセスがあってもよい。例えば、完成予想モデルオブジェクトが表示されていた仮想空間における位置に合体オブジェクトを現出させた後、当該合体オブジェクトを仮想空間において載置する位置がユーザ操作に応じて調整されて、当該調整後の位置に当該合体オブジェクトが載置されることにより当該合体オブジェクトの現出が完了してもよい。
 また、現出可能な合体オブジェクトは、プレイヤキャラクタPCが一時収納している収納オブジェクト、プレイヤキャラクタPCが収納可能であるが仮想空間に配置されているオブジェクト、およびプレイヤキャラクタPCが収納できないオブジェクトであって仮想空間に配置されている収納不可オブジェクトの何れかに属する素材オブジェクトを少なくとも1つ用いて構成することが考えられる。したがって、上述した実施例は、上記3種類のオブジェクトのうち、少なくとも1つが存在しないゲームであっても実現することができる。一例として、プレイヤキャラクタPCがオブジェクトを一時収納できないゲームであっても、仮想空間に配置されている収納不可オブジェクトのみを組んで合体オブジェクトを生成することによって、上述した実施例を実現することができる。また、上記収納オブジェクトは、プレイヤキャラクタPCが収納する態様ではなく、プレイヤキャラクタPCを操作するユーザが所有する態様であってもよい。
 また、合体オブジェクトを現出させる際、上述した素材オブジェクトに加えて所定のアイテム(例えば、現出権利が得られる特殊アイテム)が必要とされてもよい。一例として、合体オブジェクトを現出させる際に、仮想空間における対象エリアA内に配置されている上記アイテムおよび/またはプレイヤキャラクタPCが所有している上記アイテムが少なくとも1つ消費されてもよい。他の例として、合体オブジェクトを現出させる際に、仮想空間における対象エリアA内に配置されている上記アイテムおよび/またはプレイヤキャラクタPCが所有している上記アイテムに設定されている使用可能ゲージを所定量減少させてもよい。
 また、上述した実施例では、複数の素材オブジェクトを互いに接着する等によって組むことで合体オブジェクトを生成物として生成する例を用いた。複数の素材オブジェクトを組み合わせる態様は、素材オブジェクト間に介在物が介在することによって固定されるものでもよいし、当該介在物を介さずに固定されるものであってもよい。上述した実施例における接着は、上記両方の固定態様を含んだ概念であり、吸着、電着、接合、融着、溶接、圧着、螺合、嵌合、貼着等によって互いに組んで固定される態様を含んでいる。また、複数の素材オブジェクトが元の外観を実質的に維持することなく別の外観のオブジェクトに変化して生成物が生成されてもかまわない。例えば、複数の素材オブジェクトを錬成、合成、融合等をさせることによって一体のオブジェクト(生成物)が生成されてもかまわない。
 また、上述した実施例では、仮想空間から素材オブジェクトを使用するための領域と、合体オブジェクトを現出させる位置を示す領域とを、同じ対象エリアAで示したが、両者の領域をそれぞれ異なる領域で示してもかまわない。一例として、合体オブジェクトを現出させる位置を示す領域より仮想空間から素材オブジェクトを使用するための領域を大きく設定してもよいし、両者を異なる形状で設定してもかまわない。また、合体オブジェクトを現出させる位置は、素材オブジェクトを使用するための領域とは無関係に、ユーザが自在に設定可能であってもかまわない。
 また、現出可能な合体オブジェクトは、プレイヤキャラクタPCが一時収納している収納オブジェクトを用いることができないこととしてもよい。すなわち、プレイヤキャラクタPCが収納可能であるが仮想空間に配置されている収納可能オブジェクト、およびプレイヤキャラクタPCが収納できないオブジェクトであって仮想空間に配置されている収納不可オブジェクトの何れかに属する素材オブジェクトのみを用いて、合体オブジェクトが生成されるようにしてもよい。プレイヤキャラクタPCが一時収納している収納オブジェクトを用いて合体オブジェクトを生成しようとする場合、当該収納オブジェクトを一旦仮想空間における対象エリアA内に配置する必要があるが、対象エリアA内にある素材オブジェクトのみで合体オブジェクトが組まれるため、当該合体オブジェクトに何が用いられているのかわかりやすくなる。
 また、現出させる合体オブジェクトに対して素材オブジェクトが不足している場合、不足している素材オブジェクトを代替することができる特殊オブジェクトがあってもよい。例えば、合体オブジェクトを構成するために丸太オブジェクトと石オブジェクトとが不足している場合、特殊オブジェクトを2つ用いることで、それぞれ丸太オブジェクトと石オブジェクト(あるいは、それらと類似する形状を有するオブジェクト)とに変化して合体オブジェクトが現出されてもよい。
 また、上述した実施例におけるオブジェクトの姿勢には、オブジェクトの向きや方向の概念も含まれるものであってもよい。
 また、ゲームシステム1は、どのような装置であってもよく、携帯型のゲーム装置、任意の携帯型電子機器(PDA(Personal Digital Assistant)、携帯電話、パーソナルコンピュータ、カメラ、タブレット等)等であってもよい。この場合、オブジェクトを移動する操作を行うための入力装置は、左コントローラ3や右コントローラ4でなくてもよく、別のコントローラ、マウス、タッチパッド、タッチパネル、トラックボール、キーボード、十字キー、スライドパッド等であってもよい。
 また、上述した説明では情報処理をゲームシステム1でそれぞれ行う例を用いたが、上記処理ステップの少なくとも一部を他の装置で行ってもかまわない。例えば、ゲームシステム1がさらに他の装置(例えば、別のサーバ、他の画像表示装置、他のゲーム装置、他の携帯端末)と通信可能に構成されている場合、上記処理ステップは、さらに当該他の装置が協働することによって実行してもよい。このように、上記処理ステップの少なくとも一部を他の装置で行うことによって、上述した処理と同様の処理が可能となる。また、上述した情報処理は、少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行されることが可能である。また、上記実施例においては、ゲームシステム1のプロセッサ81が所定のプログラムを実行することによって情報処理を行うことが可能であるが、ゲームシステム1が備える専用回路によって上記処理の一部または全部が行われてもよい。
 ここで、上述した変形例によれば、いわゆるクラウドコンピューティングのシステム形態や分散型の広域ネットワークおよびローカルネットワークのシステム形態でも本発明を実現することが可能となる。例えば、分散型のローカルネットワークのシステム形態では、据置型の情報処理装置(据置型のゲーム装置)と携帯型の情報処理装置(携帯型のゲーム装置)との間で上記処理を協働により実行することも可能となる。なお、これらのシステム形態では、上述した処理をどの装置で行うかについては特に限定されず、どのような処理分担をしたとしても本発明を実現できることは言うまでもない。
 また、上述した情報処理で用いられる処理順序、設定値、判定に用いられる条件等は、単なる一例に過ぎず他の順序、値、条件であっても、上述した実施例を実現できることは言うまでもない。
 また、上記プログラムは、外部メモリ等の外部記憶媒体を通じてゲームシステム1に供給されるだけでなく、有線または無線の通信回線を通じて当該装置に供給されてもよい。また、上記プログラムは、当該装置内部の不揮発性記憶装置に予め記録されていてもよい。なお、上記プログラムを記憶する情報記憶媒体としては、不揮発性メモリの他に、CD-ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体、フレキシブルディスク、ハードディスク、光磁気ディスク、磁気テープ、などでもよい。また、上記プログラムを記憶する情報記憶媒体としては、上記プログラムを記憶する揮発性メモリでもよい。このような記憶媒体は、コンピュータ等が読み取り可能な記録媒体ということができる。例えば、コンピュータ等に、これらの記録媒体のプログラムを読み込ませて実行させることにより、上述で説明した各種機能を提供させることができる。
 以上、いくつかのシステム例、方法例、デバイス例、および装置例を詳細に説明してきたが、前述の説明はあらゆる点において例示に過ぎず、その範囲を限定しようとするものではない。添付されたクレームの精神および範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。添付されたクレームの範囲によってのみその範囲が解釈されるべきであることが理解される。また、当業者は、具体的な実施例の記載から、本実施例の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。本明細書で使用する場合、単数形で「a」や「an」の語を前に付けて記載した要素等は、これに関する複数の要素も排除していないと理解されるべきである。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。したがって、他に定義されない限り、本明細書中で使用される全ての専門用語および技術用語は、本実施例の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。
 以上のように、本発明は、仮想空間内の材料を用いて生成物等を生成することを可能とするゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法等として利用することができる。
1…情報処理システム
2…本体装置
3…左コントローラ
4…右コントローラ
11…ハウジング
12…ディスプレイ
13…タッチパネル
32、52…アナログスティック
42、64…端子
81…プロセッサ
82…ネットワーク通信部
83…コントローラ通信部
85…DRAM
101、111…通信制御部

Claims (21)

  1.  情報処理装置に含まれるコンピュータで実行されるゲームプログラムであって、
     前記コンピュータを、
      ユーザ操作に基づいて、仮想空間の任意の位置に領域を設定する領域設定手段と、
      ユーザ操作に基づいて、素材オブジェクトを前記仮想空間内で移動させるオブジェクト移動手段と、
      前記領域内に少なくともその一部が含まれる前記素材オブジェクトを少なくとも用いて、前記領域内に少なくともその一部が含まれるように、複数の素材オブジェクトに対応する生成物を現出させる生成物現出手段として機能させる、ゲームプログラム。
  2.  前記生成物は、前記複数の素材オブジェクトが組まれた合体オブジェクトである、請求項1に記載のゲームプログラム。
  3.  ユーザ操作に基づいて、前記複数の素材オブジェクトを組むことで前記合体オブジェクトを生成する合体オブジェクト生成手段として、さらに前記コンピュータを機能させる、請求項2に記載のゲームプログラム。
  4.  前記合体オブジェクト生成手段によって生成された合体オブジェクトを、前記生成物現出手段によって現出されることが可能な前記生成物として設定する生成物設定手段として、さらに前記コンピュータを機能させる、請求項3に記載のゲームプログラム。
  5.  前記生成物設定手段は、前記合体オブジェクト生成手段によって生成された合体オブジェクトを、自動的に前記生成物として設定する、請求項4に記載のゲームプログラム。
  6.  前記生成物設定手段は、所定数の前記生成物を設定可能であり、前記合体オブジェクト生成手段によって生成された合体オブジェクトを自動的に前記生成物として新たに設定する場合に当該所定数を超えるときには、既に設定された前記生成物のうち設定時期が相対的に古いものを自動的に消去する、請求項5に記載のゲームプログラム。
  7.  前記生成物設定手段は、ユーザ操作に応じて、設定された前記生成物の中から任意の生成物を特定生成物として設定することが可能であり、前記生成物を新たに設定する場合に前記所定数を越えるときでも当該特定生成物の設定を保持する、請求項6に記載のゲームプログラム。
  8.  前記生成物設定手段は、前記ユーザがゲーム内において所定のアイテムを取得することで、当該アイテムに対応した生成物を、前記生成物現出手段によって現出させることが可能な前記生成物として設定する、請求項2乃至7の何れか1つに記載のゲームプログラム。
  9.  前記生成物設定手段は、前記合体オブジェクト生成手段によって生成された合体オブジェクトが前記ユーザに指定されることで、当該合体オブジェクトを前記生成物現出手段によって現出されることが可能な前記生成物として設定する、請求項4に記載のゲームプログラム。
  10.  前記生成物現出手段は、前記領域内に含まれるオブジェクトのうち前記生成物を現出させるために用いられる前記素材オブジェクトを区別可能に表示する、請求項2乃至9の何れか1つに記載のゲームプログラム。
  11.  前記生成物現出手段は、複数の素材オブジェクトが組まれた現出予定の前記生成物を示す画像を前記領域に表示する、請求項2乃至10の何れか1つに記載のゲームプログラム。
  12.  前記生成物現出手段は、表示された前記現出予定の生成物において、当該生成物を構成する複数の前記素材オブジェクトのうち、当該生成物を現出させるために不足している前記素材オブジェクトを区別可能に表示する、請求項11に記載のゲームプログラム。
  13.  前記生成物現出手段は、前記現出予定の生成物を構成する素材オブジェクトが不足しているときには、当該現出予定の生成物から当該不足している素材オブジェクトを除いた他の素材オブジェクトを、当該他の素材オブジェクト同士の組まれ方を維持して現出させる、請求項2乃至12の何れか1つに記載のゲームプログラム。
  14.  前記素材オブジェクトは、前記ユーザによって操作されるプレイヤキャラクタが収納オブジェクトとして一時収納可能な収納可能オブジェクトと当該プレイヤキャラクタが当該収納オブジェクトとして一時収納できない収納不可オブジェクトとを含む、請求項1乃至13の何れか1つに記載のゲームプログラム。
  15.  前記生成物現出手段は、前記領域内に少なくともその一部が含まれる前記素材オブジェクトと前記ユーザによって操作されるプレイヤキャラクタが一時収納している収納オブジェクトとを用いて、前記生成物を現出させる、請求項1乃至14の何れか1つに記載のゲームプログラム。
  16.  前記生成物現出手段は、前記領域内に少なくともその一部が含まれる前記素材オブジェクトと前記収納オブジェクトとの両方に同じオブジェクトが存在する場合、当該領域内に少なくともその一部が含まれる前記素材オブジェクトを優先して用いて、前記生成物を現出させる、請求項15に記載のゲームプログラム。
  17.  前記仮想空間内には前記ユーザによって操作されるプレイヤキャラクタが配置され、
     前記オブジェクト移動手段は、前記ユーザが前記プレイヤキャラクタを操作することに応じて前記素材オブジェクトを前記仮想空間内で移動させ、
     前記移動に基づいて前記複数の素材オブジェクトを組むことで前記合体オブジェクトを生成する合体オブジェクト生成手段として、さらに前記コンピュータを機能させる、請求項2乃至16の何れか1つに記載のゲームプログラム。
  18.  前記領域設定手段は、前記ユーザによって操作されるプレイヤキャラクタが地面上に配置されている場合、当該プレイヤキャラクタの前方となる当該地面上に前記領域を設定し、
     前記生成物現出手段は、
      前記プレイヤキャラクタが地面上に配置されている場合において当該プレイヤキャラクタの前方となる前記領域内に前記生成物を現出させ、
      前記プレイヤキャラクタが空中に配置されている場合において当該プレイヤキャラクタの下方に前記生成物を現出させる、請求項1乃至17の何れか1つに記載のゲームプログラム。
  19.  ユーザ操作に基づいて、仮想空間の任意の位置に領域を設定する領域設定手段と、
     ユーザ操作に基づいて、素材オブジェクトを前記仮想空間内で移動させるオブジェクト移動手段と、
     前記領域内に少なくともその一部が含まれる前記素材オブジェクトを少なくとも用いて、前記領域内に少なくともその一部が含まれるように、複数の素材オブジェクトに対応する生成物を現出させる生成物現出手段とを備える、ゲーム装置。
  20.  ユーザ操作に基づいて、仮想空間の任意の位置に領域を設定する領域設定手段と、
     ユーザ操作に基づいて、素材オブジェクトを前記仮想空間内で移動させるオブジェクト移動手段と、
     前記領域内に少なくともその一部が含まれる前記素材オブジェクトを少なくとも用いて、前記領域内に少なくともその一部が含まれるように、複数の素材オブジェクトに対応する生成物を現出させる生成物現出手段とを備える、ゲームシステム。
  21.  ユーザ操作に基づいて、仮想空間の任意の位置に領域を設定する領域設定ステップと、
     ユーザ操作に基づいて、素材オブジェクトを前記仮想空間内で移動させるオブジェクト移動ステップと、
     前記領域内に少なくともその一部が含まれる前記素材オブジェクトを少なくとも用いて、前記領域内に少なくともその一部が含まれるように、複数の素材オブジェクトに対応する生成物を現出させる生成物現出ステップとを含む、ゲーム処理方法。
PCT/JP2022/009229 2022-03-03 2022-03-03 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法 WO2023157323A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2022/009229 WO2023157323A1 (ja) 2022-03-03 2022-03-03 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP2023523123A JP7487415B2 (ja) 2022-03-03 2022-03-03 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
CN202280008439.1A CN117015426A (zh) 2022-03-03 2022-03-03 游戏程序、游戏装置、游戏系统以及游戏处理方法
US18/302,336 US20230277940A1 (en) 2022-03-03 2023-04-18 Storage medium storing game program, game apparatus, game system, and game processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/009229 WO2023157323A1 (ja) 2022-03-03 2022-03-03 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/302,336 Continuation US20230277940A1 (en) 2022-03-03 2023-04-18 Storage medium storing game program, game apparatus, game system, and game processing method

Publications (1)

Publication Number Publication Date
WO2023157323A1 true WO2023157323A1 (ja) 2023-08-24

Family

ID=87577822

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/009229 WO2023157323A1 (ja) 2022-03-03 2022-03-03 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法

Country Status (4)

Country Link
US (1) US20230277940A1 (ja)
JP (1) JP7487415B2 (ja)
CN (1) CN117015426A (ja)
WO (1) WO2023157323A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038303A (ja) * 2003-07-18 2005-02-10 Sony Corp 3次元モデル処理装置、および3次元モデル処理方法、並びにコンピュータ・プログラム
JP2010231364A (ja) * 2009-03-26 2010-10-14 Namco Bandai Games Inc 画像生成システム、プログラム及び情報記憶媒体
JP2018102745A (ja) * 2016-12-27 2018-07-05 株式会社バンダイナムコエンターテインメント プログラム、ゲーム装置及びサーバ装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038303A (ja) * 2003-07-18 2005-02-10 Sony Corp 3次元モデル処理装置、および3次元モデル処理方法、並びにコンピュータ・プログラム
JP2010231364A (ja) * 2009-03-26 2010-10-14 Namco Bandai Games Inc 画像生成システム、プログラム及び情報記憶媒体
JP2018102745A (ja) * 2016-12-27 2018-07-05 株式会社バンダイナムコエンターテインメント プログラム、ゲーム装置及びサーバ装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
88 GAMING GEN: "New Merge Puzzle | Merge County (Tutorial)", YOUTUBE, XP009549162, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=s7RreDo_xpc> *
TIROPINO: "Arbitrarily operating on a cow and remodeling it into a new animal! [Minecraft] [Minecraft Relay 2021] [Game commentary]", YOUTUBE, 28 December 2021 (2021-12-28), XP093091094, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=kDYWlY7qWAM> [retrieved on 20231012] *

Also Published As

Publication number Publication date
US20230277940A1 (en) 2023-09-07
JPWO2023157323A1 (ja) 2023-08-24
JP7487415B2 (ja) 2024-05-20
CN117015426A (zh) 2023-11-07

Similar Documents

Publication Publication Date Title
US10300383B2 (en) Game system, game device, storage medium storing game program, and game process method
JP5289031B2 (ja) ゲーム装置およびゲームプログラム
JP7371104B2 (ja) 仮想オブジェクトによる仮想物品の廃棄制御方法、装置、端末及びコンピュータプログラム
JP7374313B2 (ja) 仮想環境における乗り物の運転方法、装置、端末及びプログラム
JP5780755B2 (ja) ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法
US20120119992A1 (en) Input system, information processing apparatus, information processing program, and specified position calculation method
JP5038465B2 (ja) 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
CN102441276A (zh) 使用便携式游戏装置来记录或修改在主游戏系统上实时运行的游戏或应用
US8628391B2 (en) Video game with helper role or obstructer role for second player having separate display
US8430751B2 (en) Computer-readable storage medium having game program stored therein and game apparatus
TW202210147A (zh) 應用程式內的控制項位置調整方法及裝置、設備及存儲介質
JP7232223B2 (ja) ゲームプログラム、ゲームシステム、情報処理装置、および、情報処理方法
JP2021186373A (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US8913010B2 (en) Pointing system, information processing system, method for setting coordinate system, etc., information processing device, and storage medium storing information processing program
CN113694526A (zh) 虚拟对象的控制方法、系统、装置、设备、介质及程序
WO2023157323A1 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US20230277941A1 (en) Information processing system, non-transitory computer-readable storage medium having stored therein information processing program, information processing method, and information processing apparatus
JP7173927B2 (ja) ゲームシステム、ゲームプログラム、情報処理装置、および、ゲーム処理方法
JP2023098556A (ja) ゲームプログラム、ゲームシステム、ゲーム装置、およびゲーム処理方法
JP7479541B2 (ja) ゲームプログラム、ゲームシステム、ゲーム装置、およびゲーム処理方法
JP7491977B2 (ja) ゲームプログラム、ゲームシステム、ゲーム装置、およびゲーム処理方法
JP7487379B2 (ja) ゲームプログラム、ゲームシステム、ゲーム装置、およびゲーム処理方法
US20230277935A1 (en) Information processing system, non-transitory computer-readable storage medium having stored therein information processing program, information processing method, and information processing apparatus
JP7496012B2 (ja) ゲームプログラム、情報処理システム、情報処理装置、および情報処理方法
JP7449347B2 (ja) ゲームプログラム、情報処理システム、情報処理装置、および情報処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2023523123

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280008439.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22927221

Country of ref document: EP

Kind code of ref document: A1