WO2015198646A1 - ゲーム装置、効果音加工方法及び記録媒体 - Google Patents

ゲーム装置、効果音加工方法及び記録媒体 Download PDF

Info

Publication number
WO2015198646A1
WO2015198646A1 PCT/JP2015/057310 JP2015057310W WO2015198646A1 WO 2015198646 A1 WO2015198646 A1 WO 2015198646A1 JP 2015057310 W JP2015057310 W JP 2015057310W WO 2015198646 A1 WO2015198646 A1 WO 2015198646A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
game
unit
map
distance
Prior art date
Application number
PCT/JP2015/057310
Other languages
English (en)
French (fr)
Inventor
一樹 北村
秀基 細井
佑一 酒谷
和樹 榊原
Original Assignee
株式会社カプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社カプコン filed Critical 株式会社カプコン
Priority to US15/320,983 priority Critical patent/US11027200B2/en
Priority to CA2953077A priority patent/CA2953077A1/en
Publication of WO2015198646A1 publication Critical patent/WO2015198646A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game

Definitions

  • the present invention relates to a technique for expressing sound effects realistically.
  • the sound effect can be realistically expressed by attenuating the volume level according to the distance between the sound source (sound generator) and the listening position.
  • sound effects are expressed more realistically by applying attenuation processing according to the distance and reverberation processing according to the characteristics of the transmission medium between the sounding body and the listening position to the sound effect. is doing.
  • the present invention has been made in view of the above, and an object of the present invention is to attenuate a game sound according to a distance that the sound is transmitted by simple calculation even when the sound wraps around an object that blocks the transmission of the sound.
  • a game apparatus is a game apparatus that processes and outputs a game sound in a virtual game space divided by a map unit, and stores an accumulation unit that accumulates the game sound data, and a listening position from a sounding body.
  • the shortest route through which sound is transmitted is obtained, and the number of map units existing between the map unit in which the sounding body is present and the map unit at the listening position in the shortest route is counted, and the pronunciation is based on the number of map units.
  • a measurement unit for calculating a distance from a body to the listening position, and data corresponding to a game sound emitted by the sounding body is read from the storage unit, and a volume level of the game sound is determined based on the distance calculated by the measurement unit. And a processing portion to be attenuated.
  • the shortest route through which sound from the sounding body to the listening position is transmitted is obtained, the number of map units existing in the shortest route is counted, and the attenuation amount of the game sound is determined based on the number of map units. Even when the sound wraps around an object that blocks sound transmission, the attenuation amount according to the distance can be obtained more easily.
  • FIG. 1 is a diagram showing a hardware configuration of a game system that executes a game program according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of a game screen in which the player character is searching for a dungeon.
  • FIG. 3 is a plan view of an automatically generated dungeon map.
  • FIG. 4 is a functional block diagram showing a configuration of a game device constituted by the game program in the present embodiment.
  • FIG. 5 is a flowchart showing the flow of sound effect attenuation processing.
  • FIG. 6 is a diagram showing attenuation characteristics of the reverb, the overall volume, and the bass.
  • FIG. 7 is an explanatory diagram showing how the distance between the listening position and the sounding body is obtained by the number of map units.
  • FIG. 1 is a diagram showing a hardware configuration of a game system that executes a game program according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of a game
  • FIG. 8 is an explanatory diagram showing another state in which the distance between the listening position and the sounding body is obtained by the number of map units.
  • FIG. 9 is a diagram illustrating an example in which a plurality of routes that bypass the wall exist.
  • FIG. 10 is a diagram for explaining another method of determining a route used for calculating the distance between the listening position and the sounding body.
  • FIG. 11 is a plan view showing a passage and a room of the dungeon map.
  • FIG. 12 is a flowchart showing the flow of processing for processing the game sound for the speaker of the controller.
  • FIG. 13 is a diagram showing an example of the ratio of the character's action and the equipment material for each part.
  • the game system 100 includes a game machine (computer) 1, a controller 120, a monitor 138, an external memory 145, a speaker 144, and a recording medium 148.
  • the game machine 1 includes a CPU (Central Processing Unit) 131, a RAM (Random Access Memory) 132, a bus 133, a GPU (Graphics Processing Unit) 134, a decoder 137, an I / O port 139, a DRV (Drive) 140, and an SP (Sound). It is a general game device including a processor (Processor) 142, an amplifier 143, a ROM (Read Only Memory) 146, and a communication control unit 147.
  • the CPU 131 controls the overall operation.
  • the RAM 132 stores various data according to the progress of the game.
  • the ROM 146 stores a system program for starting the game machine 1 and realizing basic functions.
  • the GPU 134 includes a GP (Graphics Processor) 136 and a RAM 135 to draw a game space.
  • the game program is executed by the game machine 1
  • the present invention is not limited to this.
  • the game program may be executed by any device as long as the computer includes a CPU, a memory, and the like.
  • the game program according to the embodiment of the present invention is recorded on the recording medium 148.
  • the GPU 134 draws an image of the game space and outputs it to the monitor 138 via the decoder 137, and the SP 142 processes the game sound.
  • the signal is output to the speaker 144 via the amplifier 143.
  • the recording medium 148 may be a DVD, CD, hard disk, or the like.
  • the recording medium 148 may be a recording medium on the communication network.
  • the communication control unit 147 controls communication with the communication network.
  • the controller 120 is connected to the game machine 1 wirelessly or by wire.
  • an operation button group 121 such as an operation button or a stick of the controller 120
  • the CPU 131 acquires user operation information via the I / O port 139, and based on the operation information, the player character and the game space are acquired. Control etc.
  • the operation information of the user is, for example, an instruction related to the progress of the game, such as an instruction related to the action of the player character, such as walking, holding a sword, turning around, obtaining an item, etc.
  • the controller 120 includes a speaker 122 and outputs a game sound received from the game machine 1.
  • the progress of the game can be saved as save data in the external memory 145.
  • the CPU 131 can read the save data from the external memory 145 and play the game halfway.
  • the game progresses when the game system 100 including the game program and the game machine 1 executes a process according to a user operation.
  • This game is a game in which a player character operated by a user searches a dungeon or a building (hereinafter collectively referred to as “dungeon”) that is a three-dimensional virtual space.
  • FIG. 2 shows an example of a game screen in which the player character is searching for a dungeon.
  • the game screen shown in the figure shows a player character 50 and an item 51 arranged in the dungeon.
  • the player character 50 searches the dungeon, acquires the item 51 and the like, and aims for a goal.
  • NPCs non-player characters
  • the monster obstructs the player character's dungeon search.
  • memento object There is a memento object called memento in the dungeon. Memento sends a message to the player character.
  • memento memento in the dungeon.
  • FIG. 3 shows an example of a plan view of an automatically generated dungeon map.
  • this game uses a square cell (map unit) as a basic unit and connects the map units to form a map.
  • the joint between the map unit and the map unit is not displayed on the game screen.
  • the dungeon of this game is a three-dimensional space that can move not only in a plane but also in the height direction.
  • the basic unit map unit is a three-dimensional rectangular parallelepiped or cube, and a map is formed by connecting the faces of the rectangular parallelepiped or cube.
  • the map unit is described as a two-dimensional square for simplicity.
  • Game device Next, a game apparatus configured by a game machine executing the game program in the present embodiment will be described.
  • FIG. 4 is a functional block diagram showing a configuration of a game device constituted by the game program in the present embodiment.
  • the game apparatus shown in the figure includes a map generation unit 31, a game progress control unit 32, a sound processing unit 33, a drawing processing unit 34, and a game data storage unit 35.
  • the map generation unit 31 generates a virtual three-dimensional game space in which the player character acts. Specifically, the map generation unit 31 generates an activity space (dungeon) that is a range in which the player character can move by arranging map units, pastes a texture according to the theme in the dungeon, installs a light source, Or NPC. Then, the map generation unit 31 sets sound characteristics such as environmental sound and reverberation characteristics according to the attribute of the map unit. The setting of the sound characteristics will be described later.
  • an activity space dungeon
  • NPC light source
  • the game progress control unit 32 controls the player character in accordance with the user's operation input by the controller 120, and controls the NPC and the like with preset processing contents to advance the game.
  • the sound processing unit 33 outputs game sounds such as sound effects, BGM, and voice to the speakers 122 and 144 as the game progresses.
  • the sound processing unit 33 includes a distance measurement unit 331, an effect unit 332, and an output unit 333.
  • the sound processing unit 33 attenuates the sound effect produced by the sounding body according to the distance between the player character at the listening position and the sounding body such as NPC.
  • the user can select whether to output the game sound from the speaker 144 provided in the TV or from the speaker 122 provided in the controller 120.
  • the sound processing unit 33 processes the game sound so as to match the characteristics of the speaker 122 and outputs the game sound. The sound effect attenuation process and the process of outputting the sound effect to the speaker 122 will be described later.
  • the rendering processing unit 34 renders the game space, the player character, and the NPC, generates an image, and outputs the image to the monitor 138.
  • the game data storage unit 35 stores data necessary for the progress of the game, such as player character, monster character modeling data, texture data, sound effect data, and BGM data.
  • the game data accumulation unit 35 accumulates original sound data for each material, which is a source of sound effects synthesized according to equipment and weapon materials. The sound effect synthesis process will be described later.
  • the sound processing unit 33 adjusts the volume of the sound effect according to the distance between the player character and the sounding body with respect to the sound effect generated by the sounding body (screaming, footsteps, etc.).
  • the sound may be blocked by walls.
  • the sound processing unit 33 calculates the distance that the sound is transmitted through the space in the dungeon, and attenuates the sound effect according to the calculated distance. In the following description, it is assumed that the position of the player character in the virtual game space is the listening position.
  • FIG. 5 is a flowchart showing the flow of sound effect attenuation processing by the sound processing unit 33.
  • the distance measuring unit 331 measures the distance between the player character and the sounding body (step S11).
  • the distance measuring unit 331 obtains the shortest route through which sound is transmitted from the sounding body to the player character, counts the number of map units on the shortest route, and pronounces the player character and the sound based on the number of map units. Find the distance between the bodies.
  • the straight line connecting the player character and the sounding body passes through a map unit that blocks sound such as a wall, the shortest route that bypasses the map unit is searched for, and the distance is obtained based on the number of map units that the route passes through. Details of the distance measurement will be described later.
  • the effect unit 332 reads game sound data corresponding to the sound effect generated by the sounding body from the game data storage unit 35, and performs attenuation processing corresponding to the distance with respect to the game sound data. (Step S12).
  • the sound is attenuated by using different attenuation characteristics for the reverb (reverberation sound), the entire volume, and the bass shown in FIG.
  • the horizontal axis in FIG. 6 indicates the distance between the player character and the sounding body, and the vertical axis indicates the volume level. Compared to the overall volume, the reverb is less likely to attenuate and the bass is more likely to attenuate.
  • the effect unit 332 obtains the respective attenuation amounts of the reverb, the overall volume, and the bass corresponding to the distance obtained by the distance measuring unit 331, and attenuates the respective components of the generated sound effect according to the obtained attenuation amount.
  • the effect unit 332 performs an effect process for silencing the game sound data (step S13). Specifically, the effect unit 332 uses a filter to lower the volume level of the treble component of the game sound data.
  • the sound effect subjected to the attenuation process and the effect process is output from the output unit 333.
  • FIGS. 7 and 8 are explanatory diagrams showing how the distance between the player character and the sounding body in the dungeon is obtained by the number of map units.
  • Fig.7 (a) and FIG.8 (a) are the top views which looked at the dungeon from the top.
  • FIGS. 7B and 8B are cross-sectional views of the dungeon seen from the side in the map unit of the player character and the map unit of the sounding body.
  • Each of the map units shown in FIGS. 7 and 8 is a rectangular parallelepiped having a bottom surface of 8 ⁇ 8 m and a height of about 3 times the player character (about 6 to 7 m) in the virtual game space.
  • 8 m ⁇ 8 m square is an 8 m ⁇ 8 m square.
  • a wall exists on the dotted line connecting the player character P and the sounding body S1.
  • a sound impermissible attribute is set on the wall, or there is no virtual game space at the wall position, and characters and sounds in the game cannot pass. Therefore, the distance between the player character P and the sound generator S1 is obtained based on the shortest route passing through the map unit in which the voice passable attribute bypassing the wall is set.
  • the shortest route connecting the player character P and the sounding body S1 passes through five map units.
  • the distance from the player character P to the adjacent map unit on the route is 6 m.
  • the distance from the sound generator S1 to the adjacent map unit on the route is 4 m.
  • the distance to the adjacent map unit is 4 m
  • FIG. 8 shows the player character P and the sounding body S1.
  • the hole is a map unit that the player character cannot pass, like the wall.
  • the hole map unit has a sound passable attribute and transmits a sound. Since the map unit between the player character P and the sounding body S1 in FIG. 8 is a map unit of a hole for transmitting sound, the distance between the player character P and the sounding body S1 is a straight line connecting the player character P and the sounding body S1. Based on this, one map unit is obtained.
  • the distance from the player character P to the adjacent map unit is 4 m.
  • the distance from the sound generator S1 to the adjacent map unit is 4 m. Therefore, in the example of FIG. 8, one map unit ⁇ 8 m + 4 m + 4 m is calculated, and the distance between the player character P and the sound generator S1 is 16 m.
  • FIG. 9 is a diagram showing an example in which there are a plurality of routes that bypass the wall.
  • there is a wall between the player character P and the sounding body S1.
  • a route indicated by a dotted line passes through 5 map units from the sounding body S1 to the player character P
  • the route indicated by the solid line passes 3 map units. Therefore, a route indicated by a solid line is used as a route for calculating a distance used for sound attenuation processing.
  • the distance may be obtained by setting a route so that the distance from the sounding body S1 to the player character P is the shortest.
  • the upper left and upper right map units in FIG. 10 are regarded as not included in the shortest route, and the shortest route passes through three map units.
  • the distance may be obtained by adding 3 map units ⁇ 8 m, the distance from the player character P to the adjacent map unit, and the distance from the sound generator S1 to the adjacent map unit.
  • the distance may be obtained by adding the distance from the sound generator S1 to the corner of the upper right map unit, 1 map unit ⁇ 8 m, and the distance from the corner of the upper left map unit to the player character P.
  • the distance measuring unit 331 transmits sound based on the number of map units between the map unit where the player character exists and the map unit where the sounding body exists. The distance is obtained, and the effect unit 332 performs an attenuation process on the sound effect according to the distance measured by the distance measurement unit 331. Thereby, even when the sound wraps around an object that blocks sound transmission, the sound effect can be attenuated according to the distance that the sound is transmitted.
  • the processing of the sound processing unit 33 described above can be applied in the same manner as long as it is not a map that is automatically generated, but a map that is classified by a map unit of a predetermined size.
  • Sound characteristics such as environmental sound and reverberation characteristics vary depending on the size of the space.
  • sound characteristics can be set in advance in the fixed map.
  • it is necessary to determine the size of the space at each point (map unit) on the map.
  • a map unit included in a space having a size of 2 ⁇ 2 map units or more is regarded as a room, and other map units are regarded as a passage.
  • a certain map unit hereinafter referred to as a determination target map unit
  • a passage is determined as follows.
  • the 2 ⁇ 2 map unit patterns are four patterns in which map units to be determined exist on the upper right, lower right, lower left, and upper left of the 2 ⁇ 2 map unit. It is determined whether or not all the three map units excluding the map unit to be determined among the selected 2 ⁇ 2 map units are spaces (not wall map units). If all three map units are spaces, all four map units including the map unit to be determined are determined as rooms. If any of the three map units is not space, another 2 ⁇ 2 map unit is selected and the same processing is performed. As a result of processing all four patterns, if the map unit to be determined is not determined to be a room in any case, the map unit to be determined is determined to be a passage.
  • Fig. 11 shows the automatically generated map passages and rooms.
  • the map units in the squares denoted by reference numerals 71 and 73 are passages because the width is one map unit.
  • the map unit in the square indicated by reference numeral 72 is a room because it is a 2 ⁇ 3 space.
  • the sound characteristics for the passage are set in the map units belonging to the passage.
  • the sound characteristics for the room are set in the map units belonging to the room. For example, the sound characteristics of the sound effect generated in the map unit belonging to the room are set such that the reverberant sound is stronger than the sound effect generated in the map unit belonging to the passage.
  • the sound characteristics of those spaces may be synthesized. For example, if a player character is present at position A in the passage of FIG. 11 and a sounding body is present at position B in the room, the sound characteristics for the room are represented by sound effects produced by the sounding body at position B. After applying, apply the sound characteristics in the passage. In another example, when a player character exists at position A in the passage in FIG. 11 and a sounding body exists at position C in the room, the sound effect produced by the sounding body at position B is added to the sound effect in the passage. After applying the sound characteristics and applying the sound characteristics for the room, the sound characteristics in the passage are further applied.
  • the sound processing unit 33 determines the space size of the automatically generated map, and sets the sound characteristics according to the space size on the map. Thus, it is possible to appropriately set the acoustic effect according to the size of the map space.
  • the performance of the speaker 122 built in the controller 120 is inferior to that of the external speaker 144. Therefore, if the game sound created on the assumption that it is output from the speaker 144 is output from the cheap speaker 122, the speaker 122 cannot output the sound intended by the developer.
  • the game sound output from the speaker 122 is limited to the operation sound, and the sound for the speaker 144 and the sound for the speaker 122 are prepared separately.
  • it takes time and effort to prepare game sounds for the speaker 122 it is not realistic in terms of data capacity.
  • the sound that the memento object talks about its feelings is output from both speakers 122 and 144.
  • the number of voices of the memento object is very large, and it is not realistic to prepare data for each of the speakers 122 and 144.
  • the game sound prepared for the speaker 144 is processed for the speaker 122 and output.
  • the game sound processing will be described below.
  • FIG. 12 is a flowchart showing a flow of processing for processing the game sound for the speaker of the controller.
  • the sound processing unit 33 reads the game sound output from the speaker 122 from the game data storage unit 35, and applies a compressor to the read game sound (step S20).
  • the sound processing unit 33 increases the volume level of the entire game sound processed in step S20 (step S21). At this time, the volume level of a specific frequency region (for example, the frequency region of the sound of the memento object) may be further increased.
  • a specific frequency region for example, the frequency region of the sound of the memento object
  • the sound processing unit 33 transmits the processed game sound data to the controller 120 (step S22).
  • the dynamic range is increased by applying a compressor to the output game sound.
  • the volume is narrowed and the volume level of the entire game sound is increased and transmitted to the controller 120. Accordingly, it is possible to output game sound that meets the developer's intention from the speaker 122 without preparing game sound data for the speaker 122.
  • the online game is upgraded in a predetermined cycle. New equipment and new weapons may be added when upgrading.
  • FIG. 13 is a diagram showing an example of the ratio of the material of the equipment and the action of the character for each part.
  • the equipment parts are classified into the upper body, lower body, and feet, and the equipment materials are classified into iron, leather, cloth, and wood.
  • the sound processing unit 33 outputs a sound effect corresponding to the ratio of the material of each part in accordance with the character's action (motion). For example, when the character walks, the sound effect is generated by synthesizing the sound effects of the upper body, the lower body, and the feet of the walking motion according to the ratio of the materials of the upper body, the lower body, and the feet.
  • the game data storage unit 35 stores the data indicating the ratio of the material for each equipment and weapon, and the original sound data of each material for each part of the equipment and weapon for each motion. For example, if there are three types of equipment, upper body, lower body, and feet, and the material is iron, leather, cloth, and wood, for each motion, the upper body is iron, the upper body is leather, the upper body is cloth, and the upper body is Stores 12 original sound data when wood, lower body is iron, lower body is leather, lower body is cloth, lower body is wood, foot is iron, foot is leather, foot is cloth, and foot is wood.
  • the sound processing unit 33 When the sound processing unit 33 outputs a sound effect in accordance with the motion of the character, the sound processing unit 33 refers to the game data storage unit 35 to acquire the ratio of the material of the equipment of each part of the character, and for each part, The original sound data of each material is synthesized by setting the volume level of the original sound data in accordance with the ratio of the material.
  • the sound processing unit 33 synthesizes the original sound data in accordance with the ratio of the material of the equipment after the change and saves it in a memory or the like.
  • the sound processing unit 33 may call the original sound data of each material simultaneously after setting the volume level of the original sound data corresponding to the material according to the ratio of the material during the motion of the character.
  • the material composition of the upper body equipment of FIG. 13 is 80% for iron and 20% for leather.
  • a sound effect is created by synthesizing the original sound data of the upper body of iron with a volume level of 80% and the upper body of the original sound data of leather with a volume level of 20%.
  • the sound processing unit 33 plays the sound effect during the motion of the character at the rate corresponding to the material composition of the character equipment during the game. Synthesize. This eliminates the need for a sound effect for each piece of equipment.
  • the attenuation amount according to the distance can be obtained more easily.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Optics & Photonics (AREA)
  • Stereophonic System (AREA)

Abstract

距離測定部331が、プレイヤキャラクタの存在するマスと発音体の存在するマスとの間のマスの数に基づいて音の伝達する距離を求め、エフェクト部332が、距離測定部331の測定した距離に応じた減衰処理を効果音に施すこと。これにより、音が音の伝達を遮る物体を回り込む場合でも音が伝達する距離に応じて効果音を減衰させることができる。

Description

ゲーム装置、効果音加工方法及び記録媒体
 本発明は、効果音をリアルに表現する技術に関する。
 音の発生源(発音体)と聴音位置との距離に応じて音量レベルを減衰させることで、効果音をリアルに表現することができる。特開2011-028169号公報では、距離に応じた減衰処理と、発音体と聴音位置との間の伝達媒体の特性に応じた残響処理を効果音に施すことで、効果音をよりリアルに表現している。
 しかしながら、発音体と聴音位置との間に壁などの音を遮る物体が存在する場合、音はその物体を回り込んで伝達するので、音が伝達する距離は発音体と聴音位置を結ぶ直線距離とは異なる。そのため、距離に応じた音の減衰量を簡単に求めることができないという問題があった。
 本発明は、上記に鑑みてなされたものであり、音が音の伝達を遮る物体を回り込む場合でも、簡単な計算で音が伝達する距離に応じてゲーム音を減衰させることを目的とする。
 本発明に係るゲーム装置は、マップユニットによって区分される仮想のゲーム空間においてゲーム音を加工して出力するゲーム装置であって、前記ゲーム音のデータを蓄積する蓄積部と、発音体から聴音位置まで音が伝達する最短ルートを求め、当該最短ルートにおいて前記発音体が存在するマップユニットと前記聴音位置のマップユニットの間に存在するマップユニット数をカウントし、当該マップユニット数に基づいて前記発音体から前記聴音位置までの距離を算出する測定部と、前記蓄積部から前記発音体が発するゲーム音に対応するデータを読み出し、前記測定部が算出した距離に基づいて前記ゲーム音の音量レベルを減衰させる加工部と、を有することを特徴とする。
 本発明によれば、発音体から聴音位置までの音が伝達する最短ルートを求め、最短ルート内に存在するマップユニット数をカウントし、マップユニット数に基づいてゲーム音の減衰量を決めることにより、音が音の伝達を遮る物体を回り込む場合でも、距離に応じた減衰量をより簡単に求めることができる。
図1は、本発明の実施の形態に係るゲームプログラムを実行するゲームシステムのハードウェア構成を示す図である。 図2は、プレイヤキャラクタがダンジョンを探索しているゲーム画面の例を示す図である。 図3は、自動的に生成されたダンジョンマップの平面図である。 図4は、本実施の形態におけるゲームプログラムによって構成されるゲーム装置の構成を示す機能ブロック図である。 図5は、効果音の減衰処理の流れを示すフローチャートである。 図6は、リバーブ、全体の音量、低音それぞれの減衰特性を示す図である。 図7は、聴音位置と発音体との距離をマップユニットの数により求める様子を示す説明図である。 図8は、聴音位置と発音体との距離をマップユニットの数により求める別の様子を示す説明図である。 図9は、壁を迂回するルートが複数存在する例を示す図である。 図10は、聴音位置と発音体との距離の算出に用いるルートの別の決め方について説明する図である。 図11は、ダンジョンマップの通路と部屋を示す平面図である。 図12は、ゲーム音をコントローラのスピーカ用に加工する処理の流れを示すフローチャートである。 図13は、キャラクタの行動と部位ごとの装備の素材の比率の例を示した図である。
 以下、本発明の実施の形態について図面を用いて説明する。
 (ゲームシステム)
 図1を参照して、本発明の実施の形態に係るゲームプログラムを実行するゲームシステム100を説明する。ゲームシステム100は、ゲーム機(コンピュータ)1、コントローラ120、モニタ138、外部メモリ145、スピーカ144および記録媒体148を備える。
 ゲーム機1は、CPU(Central Processing Unit)131、RAM(Random Access Memory)132、バス133、GPU(Graphics Processing Unit)134、デコーダ137、I/Oポート139、DRV(Drive)140、SP(Sound Processor)142、増幅器143、ROM(Read Only Memory)146、および通信制御部147を備える一般的なゲーム装置である。CPU131は、全体の動作を制御する。RAM132は、ゲームの進行に応じて各種のデータを記憶する。ROM146は、このゲーム機1の起動や基本的な機能を実現するためのシステムプログラムを記憶する。GPU134は、GP(Graphics Processor)136とRAM135を備えてゲーム空間を描画する。
 本発明の実施の形態において、ゲームプログラムがゲーム機1で実行される場合について説明するがこれに限られない。ゲームプログラムは、CPU、メモリなどを備えるコンピュータであればどのような装置で実行されても良い。
 本発明の実施の形態に係るゲームプログラムは、記録媒体148に記録される。ゲーム機1がDRV140に挿入された記録媒体148からゲームプログラムを読み出して実行すると、GPU134がゲーム空間の画像を描画してデコーダ137を介してモニタ138に出力し、SP142がゲーム音を処理して増幅器143を介してスピーカ144に出力する。記録媒体148は、DVD、CD、ハードディスクなどが考えられる。ゲーム機1が通信ネットワークに接続されている場合、記録媒体148は、通信ネットワーク上の記録媒体であっても良い。ゲーム機1が通信ネットワークに接続される場合、通信制御部147が通信ネットワークとの通信を制御する。
 コントローラ120は無線あるいは有線でゲーム機1に接続される。ユーザがコントローラ120の操作ボタンやスティックなどの操作子群121を操作すると、CPU131は、I/Oポート139を介してユーザの操作情報を取得し、その操作情報に基づいて、プレイヤキャラクタ、ゲーム空間などを制御する。ユーザの操作情報は例えば、歩く、剣を構える、振り向く、アイテムを取得するなどの、プレイヤキャラクタの動作に関する指示や、メニューの操作などの、ゲームの進行に関する指示である。コントローラ120はスピーカ122を備えて、ゲーム機1から受信したゲーム音を出力する。
 ゲームの進行度合いは外部メモリ145にセーブデータとして保存することができる。CPU131は外部メモリ145からセーブデータを読み出して、ゲームを途中からプレイさせることができる。
 ゲームは、ゲームプログラムおよびゲーム機1で構成されるゲームシステム100が、ユーザの操作に応じた処理を実行することで進行する。
 (ゲーム内容)
 次に、本実施の形態におけるゲームプログラムによって提供されるゲームについて説明する。
 本ゲームは、ユーザにより操作されるプレイヤキャラクタが3次元の仮想空間であるダンジョンあるいは建物内等(以下まとめて「ダンジョン」とする)を探索するゲームである。図2に、プレイヤキャラクタがダンジョンを探索しているゲーム画面の例を示す。同図に示すゲーム画面には、プレイヤキャラクタ50とダンジョン内に配置されたアイテム51が示されている。プレイヤキャラクタ50は、ダンジョン内を探索してアイテム51などを取得し、ゴールを目指す。図示していないが、プレイヤキャラクタを攻撃してくるモンスターなどのNPC(ノンプレイヤーキャラクター)がダンジョン内に配置される。モンスターはプレイヤキャラクタのダンジョン探索を妨害する。ダンジョン内にはメメントと呼ばれるメメントオブジェクトが存在する。メメントはプレイヤキャラクタにメッセージを伝えてくる。オンラインプレイ時には、同じダンジョン内に他のユーザが操作する他のプレイヤキャラクタが存在する。
 プレイヤキャラクタが探索するダンジョンは、プレイヤキャラクタがダンジョン内に入る度に自動的に生成される。図3に、自動的に生成されたダンジョンのマップの平面図の例を示す。図3に示すように、本ゲームは、正方形のマス(マップユニット)を基本単位とし、マップユニットをつなげてマップを構成する。ユーザに不自然さを感じさせないために、マップユニットとマップユニットのつなぎ目はゲーム画面上に表示しない。本ゲームのダンジョンは、平面的に移動可能なだけでなく、高さ方向にも移動可能な3次元的に広がる空間である。したがって、基本単位のマップユニットは3次元の直方体または立方体であり、直方体または立方体の面同士をつなげてマップを構成する。以下の説明では、簡単のためマップユニットを2次元の正方形として説明する。
 (ゲーム装置)
 次に、本実施の形態におけるゲームプログラムをゲーム機が実行することで構成されるゲーム装置について説明する。
 図4は、本実施の形態におけるゲームプログラムによって構成されるゲーム装置の構成を示す機能ブロック図である。同図に示すゲーム装置は、マップ生成部31、ゲーム進行制御部32、サウンド処理部33、描画処理部34、およびゲームデータ蓄積部35を備える。
 マップ生成部31は、プレイヤキャラクタが行動する仮想の3次元ゲーム空間を生成する。具体的には、マップ生成部31は、マップユニットを並べてプレイヤキャラクタが移動可能な範囲である活動空間(ダンジョン)を生成し、ダンジョン内にテーマに沿ったテクスチャを貼り、光源を設置し、アイテムやNPCを配置する。そして、マップ生成部31は、マップユニットの属性に応じて環境音や残響特性などの音の特性を設定する。音の特性の設定については後述する。
 ゲーム進行制御部32は、コントローラ120で入力されたユーザの操作に応じてプレイヤキャラクタを制御するとともに、予め設定された処理内容でNPC等を制御し、ゲームを進行させる。
 サウンド処理部33は、ゲームの進行に合わせて効果音、BGM、音声などのゲーム音をスピーカ122,144に出力する。サウンド処理部33は、距離測定部331、エフェクト部332、および出力部333を備える。サウンド処理部33は、聴音位置であるプレイヤキャラクタとNPCなどの発音体までの距離に応じて発音体が発する効果音を減衰させる。本実施の形態では、ユーザは、ゲーム音をTVが備えたスピーカ144から出力するか、コントローラ120が備えたスピーカ122から出力するかを選択可能である。スピーカ122からゲーム音を出力するときは、サウンド処理部33は、スピーカ122の特性に合うようにゲーム音を加工して出力する。効果音の減衰処理と、効果音をスピーカ122に出力する処理については後述する。
 描画処理部34は、ゲーム空間、プレイヤキャラクタ、NPCをレンダリングして画像を生成しモニタ138に出力する。
 ゲームデータ蓄積部35は、プレイヤキャラクタ、モンスターキャラクタのモデリングデータ、テクスチャデータ、効果音データ、BGMデータなどのゲームの進行に必要なデータを蓄積する。ゲームデータ蓄積部35は、装備や武器の素材に応じて合成する効果音の元となる素材ごとの元の音データを蓄積する。効果音の合成処理については後述する。
 (効果音の減衰処理)
 次に、効果音の減衰処理について説明する。
 本実施の形態では、サウンド処理部33は、発音体が発生する効果音(鳴き声や足音など)について、プレイヤキャラクタと発音体との間の距離に応じて効果音の音量を調節する。ダンジョン内では、壁などで音が遮られる場合もある。サウンド処理部33は、音がダンジョン内の空間中を伝達する距離を算出し、算出した距離に応じて効果音を減衰させる。以下の説明では、仮想ゲーム空間上のプレイヤキャラクタの位置が聴音位置であるものとする。
 図5は、サウンド処理部33による効果音の減衰処理の流れを示すフローチャートである。
 NPCなどの発音体が音を発して効果音が再生されるとき、距離測定部331はプレイヤキャラクタと発音体との距離を測定する(ステップS11)。本実施の形態では、距離測定部331は、発音体からプレイヤキャラクタまで音が伝達する最短ルートを求め、最短ルート上のマップユニットの数をカウントし、マップユニットの数に基づいてプレイヤキャラクタと発音体間の距離を求める。プレイヤキャラクタと発音体とを結んだ直線が壁などの音を遮るマップユニットを通る場合は、そのマップユニットを迂回する最短ルートを探し、そのルートが通るマップユニットの数に基づいて距離を求める。距離の測定の詳細については後述する。
 プレイヤキャラクタと発音体間の距離が求まると、エフェクト部332はゲームデータ蓄積部35から発音体が発生する効果音に対応するゲーム音データを読み出し、ゲーム音データに対して距離に応じた減衰処理を施す(ステップS12)。本実施の形態では、図6に示すリバーブ(残響音)、全体の音量、低音それぞれについて異なる減衰特性を用いて音を減衰させる。図6の横軸がプレイヤキャラクタと発音体間の距離を示し、縦軸が音量レベルを示している。全体の音量と比較して、リバーブは減衰しにくく、低音は減衰しやすくなっている。エフェクト部332は、距離測定部331が求めた距離に応じたリバーブ、全体の音量、低音のそれぞれの減衰量を得て、発生する効果音のそれぞれの成分を得られた減衰量に応じて減衰させる。
 プレイヤキャラクタと発音体との間に壁が存在する場合は、エフェクト部332はゲーム音データに対して音をこもらせるエフェクト処理を施す(ステップS13)。具体的には、エフェクト部332は、フィルタを用いてゲーム音データの高音成分の音量レベルを下げる。
 以上の処理により、減衰処理、エフェクト処理が施された効果音が出力部333から出力される。
 (距離の測定)
 図7,8は、ダンジョン内のプレイヤキャラクタと発音体との距離をマップユニットの数により求める様子を示す説明図である。図7(a)及び図8(a)は、ダンジョンを上から見た平面図である。図7(b)及び図8(b)は、プレイヤキャラクタのマップユニットと発音体のマップユニットにおいてダンジョンを横から見た断面図である。図7,8に示す1マップユニットは、仮想ゲーム空間上において底面が8×8mで、高さがプレイヤキャラクタの3倍程度(6~7m程度)の直方体である。以下では、1マップユニットを8m×8mの正方形として説明する。
 まず、図7のプレイヤキャラクタPから発音体S1までの距離について説明する。プレイヤキャラクタPと発音体S1とを結ぶ点線上には壁が存在する。壁には音声通行不可の属性が設定される、あるいは壁の位置には仮想ゲーム空間が存在せずゲーム内のキャラクタや音声が通行できない。したがって、プレイヤキャラクタPと発音体S1との距離は壁を迂回した音声通行可の属性が設定されたマップユニットを通る最短ルートに基づいて求める。プレイヤキャラクタPと発音体S1とを結ぶ最短ルートは5つのマップユニットを通過している。プレイヤキャラクタPからルート上の隣接するマップユニットまでの距離は6mである。発音体S1からルート上の隣接するマップユニットまでの距離は4mである。距離を求めるときは、最短ルート上のマップユニットの数にマップユニットの一辺の長さ(8m)をかけたものに、プレイヤキャラクタから隣接するマップユニットまでの距離と、発音体から隣接するマップユニットまでの距離を加算する。図7の例では、プレイヤキャラクタPと発音体S1と間の距離は5マップユニット×8m+6m+4m=50mとなる。
 プレイヤキャラクタと発音体とを結ぶルート上のマップユニットの数だけを用いて、プレイヤキャラクタPと発音体S1との距離を5マップユニット×8m=40mとしてもよい。あるいは、プレイヤキャラクタ、発音体はマップユニットの中央に存在するものとみなして、隣接するマップユニットまでの距離をいずれも4mとし、プレイヤキャラクタPと発音体S1との距離を5マップユニット×8m+4m+4m=48mとしてもよい。
 続いて、図7のプレイヤキャラクタPから発音体S2までの距離について説明する。プレイヤキャラクタPと発音体S2とを結ぶ直線上には音を遮るものが存在しないので、図7(a)に示すように、プレイヤキャラクタPと発音体S2とを結ぶ直線が通過するマップユニットの数に基づいて距離を計算する。プレイヤキャラクタPと発音体S2とを結ぶ直線は1つのマップユニットを通過する。プレイヤキャラクタPから隣接するマップユニットまでの距離は6mである。発音体S2から隣接するマップユニットまでの距離は6mである。プレイヤキャラクタPと発音体S2と間の距離は1マップユニット×8m+6m+6m=20mとなる。プレイヤキャラクタと発音体との間に音を遮るものが存在しない場合は、プレイヤキャラクタと発音体とを結ぶ直線の長さを音の減衰処理に用いる距離としてもよい。
 次に、プレイヤキャラクタは通行できないが音を伝達するマップユニットがプレイヤキャラクタと発音体との間に存在する例について説明する。図8には、プレイヤキャラクタPと発音体S1を示している。プレイヤキャラクタPと発音体S1とを結ぶ直線上にはプレイヤキャラクタが通行不可な穴が存在する。穴は、壁と同様にプレイヤキャラクタが通行不可のマップユニットであるが、穴のマップユニットには音声通行可の属性が設定されており、音を伝える。図8のプレイヤキャラクタPと発音体S1との間のマップユニットは音を伝える穴のマップユニットであるので、プレイヤキャラクタPと発音体S1との距離はプレイヤキャラクタPと発音体S1を結ぶ直線に基づいて求めて1マップユニットとなる。プレイヤキャラクタPから隣接するマップユニットまでの距離は4mである。発音体S1から隣接するマップユニットまでの距離は4mである。したがって、図8の例では、1マップユニット×8m+4m+4mを計算し、プレイヤキャラクタPと発音体S1との距離は16mとなる。
 図9は、壁を迂回するルートが複数存在する例を示す図である。同図に示す例では、プレイヤキャラクタPと発音体S1との間に壁が存在する。壁を迂回するルートは、点線で示すルートと実線で示すルートがある。迂回するルートが複数存在する場合は、通過するマップユニットの数の少ないルートを音の減衰処理に用いる距離を算出するためのルートとする。図9に示す例では、発音体S1からプレイヤキャラクタPに至るまで間に点線で示すルートは5マップユニット通過し、実線で示すルートは3マップユニット通過する。したがって、実線で示すルートを音の減衰処理に用いる距離を算出するためのルートとする。
 距離の算出に用いる別のルートの決め方について説明する。図7から図9の例では、マップユニットの中心をつなげて最短ルートとしていた。図10に示すように、発音体S1からプレイヤキャラクタPまでの距離がより最短となるようにルートを設定して距離を求めてもよい。マップユニット内の自由な位置を通るようにルートを設定した場合、図10の左上と右上のマップユニットは最短ルートに含まれないものとみなして、最短ルートは3つのマップユニットを通過しているとする。このとき、3マップユニット×8mと、プレイヤキャラクタPから隣接するマップユニットまでの距離と、発音体S1から隣接するマップユニットまでの距離を加算して距離を求めてもよい。発音体S1から右上のマップユニットの角までの距離と、1マップユニット×8mと、左上のマップユニットの角からプレイヤキャラクタPまでの距離を加算して距離を求めてもよい。
 以上説明したように、本実施の形態によれば、距離測定部331が、プレイヤキャラクタの存在するマップユニットと発音体の存在するマップユニットとの間のマップユニットの数に基づいて音の伝達する距離を求め、エフェクト部332が、距離測定部331の測定した距離に応じた減衰処理を効果音に施す。これにより、音が音の伝達を遮る物体を回り込む場合でも音が伝達する距離に応じて効果音を減衰させることができる。
 なお、上記で説明したサウンド処理部33の処理は、自動生成されるマップでなくても、所定の大きさのマップユニットによって区分されるマップであれば同様に適用できる。
 (エフェクト設定)
 次に、マップの各地点における音の特性の設定について説明する。
 環境音や残響特性などの音の特性は空間の広さによって異なる。予めマップを生成しておく固定マップの場合は、固定マップ中に音の特性を予め設定しておくことができる。しかしながら、ゲーム中でマップを自動生成する場合は、マップの各地点(マップユニット)の空間の広さを判定する必要がある。
 本実施の形態では、自動生成されたマップにおいて、2×2マップユニット以上の大きさの空間に含まれるマップユニットは部屋とみなし、それ以外のマップユニットは通路とみなす。あるマップユニット(以下、判定対象のマップユニットとする)が部屋であるか通路であるかは以下のように判定する。
 まず、判定対象のマップユニットを角に持つ2×2マップユニットを1つ選ぶ。この2×2マップユニットのパターンは、判定対象のマップユニットが2×2マップユニットの右上、右下、左下、左上に存在する4パターンである。選んだ2×2マップユニットのうち判定対象のマップユニットを除く3つのマップユニットの全てが空間(壁のマップユニットではない)であるか否かを判定する。3つのマップユニットの全てが空間であった場合は判定対象のマップユニットを含む4つのマップユニットを全て部屋と判定する。3つのマップユニットのいずれかが空間でない場合は別の2×2マップユニットを選択して同様の処理を行う。4つのパターンの全てについて処理した結果、いずれの場合でも判定対象のマップユニットが部屋と判定されなかった場合は、判定対象のマップユニットを通路と判定する。
 図11に、自動生成されたマップの通路と部屋を示す。符号71,73で示された四角内のマップユニットは幅が1マップユニットであるので通路である。符号72で示された四角内のマップユニットは2×3の空間であるので部屋である。通路に属するマップユニットには通路用の音の特性が設定される。部屋に属するマップユニットには部屋用の音の特性が設定される。例えば、部屋に属するマップユニット内で発せられた効果音は通路に属するマップユニット内で発せられた効果音よりも残響音が強くなるように音の特性が設定される。
 プレイヤキャラクタと発音体が別々の空間に存在する場合は、それらの空間の音の特性を合成してもよい。例えば、図11の通路内のAの位置にプレイヤキャラクタが存在し、部屋内のBの位置に発音体が存在した場合、Bの位置の発音体が発した効果音に部屋用の音の特性を適用した後、通路内の音の特性を適用する。別の例では、図11の通路内のAの位置にプレイヤキャラクタが存在し、部屋内のCの位置に発音体が存在した場合、Bの位置の発音体が発した効果音に通路内の音の特性を適用し、部屋用の音の特性を適用した後、さらに通路内の音の特性を適用する。
 部屋あるいは通路などのマップユニットの属性に応じて音の特性を設定するだけでなく、イベントが発生する場所には、予め他の音の特性を設定しておいてもよい。
 以上説明したように、本実施の形態によれば、サウンド処理部33が、自動生成されたマップの空間の広さを判定し、空間の広さに応じた音の特性をマップ上に設定することにより、マップの空間の広さに応じた音響効果を適切に設定することが可能となる。
 (コントローラから出力)
 次に、コントローラ120のスピーカ122から出力するゲーム音について説明する。
 近年、コントローラ120に内蔵されたスピーカ122とゲーム機1に接続したスピーカ144の双方から出力可能なゲーム機1が存在する。
 しかしながら、コントローラ120に内蔵されたスピーカ122は外部のスピーカ144と比較して性能が劣る。そのため、スピーカ144から出力することを前提に作成したゲーム音をチープなスピーカ122から出力すると、スピーカ122からは開発者の意図する音が出力できないという問題があった。
 スピーカ122から出力するゲーム音を操作音などに限定し、スピーカ144用の音とスピーカ122用の音を別々に用意することが考えられる。しかしながら、多くのゲーム音をスピーカ122から出力したい場合は、スピーカ122用のゲーム音を用意する手間がかかり、またデータ容量の面でも現実的ではない。
 本ゲームでは、メメントオブジェクトが自分の思いを語る音声を両方のスピーカ122,144から出力する。メメントオブジェクトの音声の数は非常に多く、スピーカ122,144ごとにデータを用意することは現実的ではない。
 そこで、本実施の形態では、スピーカ144用に用意したゲーム音をスピーカ122用に加工して出力する。以下、ゲーム音の加工処理について説明する。
 図12は、ゲーム音をコントローラのスピーカ用に加工する処理の流れを示すフローチャートである。
 サウンド処理部33は、スピーカ122から出力するゲーム音をゲームデータ蓄積部35から読み出し、読み出したゲーム音にコンプレッサーをかける(ステップS20)。
 続いて、サウンド処理部33は、ステップS20で処理したゲーム音全体の音量レベルを上げる(ステップS21)。このとき、さらに特定の周波数領域(例えばメメントオブジェクトの音声の周波数領域)の音量レベルを上げてもよい。
 そして、サウンド処理部33は、加工したゲーム音データをコントローラ120へ送信する(ステップS22)。
 以上説明したように、本実施の形態によれば、TVなどのスピーカ144用に用意したゲーム音をコントローラ120内蔵のスピーカ122から出力するときに、出力するゲーム音にコンプレッサーをかけてダイナミックレンジを狭くし、ゲーム音全体の音量レベルを上げてコントローラ120へ送信する。これにより、スピーカ122用のゲーム音データを用意することなく、開発者の意図にあうゲーム音をスピーカ122から出力することが可能となる。
 (効果音の合成)
 次に、効果音の合成について説明する。
 オンラインゲームは所定のサイクルでバージョンアップが行われる。バージョンアップのときに新しい装備や新しい武器が追加されることがある。
 新しい装備や新しい武器の見た目に合った効果音が再生されることが望ましいが、バージョンアップ毎に新しい装備や新しい武器に対応した効果音を用意することは手間がかかるという問題があった。
 そこで、本実施の形態では、装備や武器に対応した効果音を装備や武器の素材に基づいて合成する。
 図13は、キャラクタの行動と部位ごとの装備の素材の比率の例を示した図である。同図では、装備の部位を上半身、下半身、足元の3つに分類し、装備の素材を鉄、革、布、木の4つに分類した。サウンド処理部33は、キャラクタの行動(モーション)に合わせて各部位の素材の比率に応じた効果音を出力する。例えば、キャラクタが歩くときは歩くモーション用の上半身、下半身、足元の3つの効果音を、上半身、下半身、足元のそれぞれの装備の素材の比率に応じて合成した効果音を出力する。
 ゲームデータ蓄積部35は、装備や武器ごとに素材の比率を示すデータと、各モーションについて、装備の部位や武器ごとに各素材の元の音データを格納する。例えば装備の部位が上半身、下半身、足元の3種類で、素材が鉄、革、布、木の4種類であった場合、各モーションについて、上半身が鉄、上半身が革、上半身が布、上半身が木、下半身が鉄、下半身が革、下半身が布、下半身が木、足元が鉄、足元が革、足元が布、足元が木であったときの12個の元の音データを格納する。
 サウンド処理部33は、キャラクタのモーションに合わせて効果音を出力するときに、ゲームデータ蓄積部35を参照してキャラクタの各部位の装備の素材の比率を取得し、部位ごとに、各素材の元の音データの音量レベルを素材の比率に応じて設定して各素材の元の音データを合成する。サウンド処理部33は、キャラクタが装備を変更したときに、変更後の装備の素材の比率に合わせて元の音データを合成してメモリなどに保存しておく。サウンド処理部33は、キャラクタのモーション時に、素材に対応した元の音データの音量レベルを素材の比率に応じて設定した後、各素材の元の音データを同時にコールしてもよい。
 具体的例を用いて説明すると、図13の上半身の装備の素材の構成は、鉄が80%、革が20%である。この上半身の装備をつけたキャラクタが歩くときは、上半身が鉄の元の音データを80%の音量レベル、上半身が革の元の音データを20%の音量レベルで合成した効果音をコールする。下半身、足元の効果音についても同様に装備の組成に応じた割合で合成した効果音をコールする。
 以上説明したように、本実施の形態によれば、サウンド処理部33が、キャラクタのモーション時の効果音を、キャラクタの装備の素材の組成に応じた割合で素材の元の音をゲーム中に合成する。これにより、装備ごとに効果音を用意するが必要がなくなる。
 以上説明したように、本発明によれば、音が音の伝達を遮る物体を回り込む場合でも、距離に応じた減衰量をより簡単に求めることができる。

Claims (15)

  1.  マップユニットによって区分される仮想のゲーム空間においてゲーム音を加工して出力するゲーム装置であって、
     前記ゲーム音のデータを蓄積する蓄積部と、
     発音体から聴音位置まで音が伝達する最短ルートを求め、当該最短ルートにおいて前記発音体が存在するマップユニットと前記聴音位置のマップユニットの間に存在するマップユニット数をカウントし、当該マップユニット数に基づいて前記発音体から前記聴音位置までの距離を算出する測定部と、
     前記蓄積部から前記発音体が発するゲーム音に対応するデータを読み出し、前記測定部が算出した距離に基づいて前記ゲーム音の音量レベルを減衰させる加工部と、
     を有することを特徴とするゲーム装置。
  2.  前記測定部は、前記マップユニット数に基づいて算出した距離に、前記発音体から隣接するマップユニットまでの距離と前記聴音位置から隣接するマップユニットまでの距離を加算することを特徴とする請求項1記載のゲーム装置。
  3.  前記加工部は、前記マップユニットが属する空間の広さを求め、当該空間の広さに応じて前記マップユニットで発せられるゲーム音の特性を変えることを特徴とする請求項1記載のゲーム装置。
  4.  前記ゲーム音のデータは第1のスピーカから出力させることを想定したデータであって、
     前記加工部は、前記ゲーム音にコンプレッサーをかけた後、全体の音量レベルを上げる処理を行い、
     前記加工部が加工した前記ゲーム音を前記第1のスピーカよりも性能が低い第2のスピーカに出力する出力部を有することを特徴とする請求項1記載のゲーム装置。
  5.  前記蓄積部は、キャラクタが装着する装備の素材の比率を示す比率データ、および前記素材ごとのゲーム音のデータを蓄積しており、
     前記キャラクタの行動により前記装備から発せられる効果音について、当該装備の比率データと前記素材ごとのゲーム音のデータを前記蓄積部から読み出し、前記比率データに基づいて前記素材ごとのゲーム音の音量レベルをそれぞれ設定し、音量レベルを設定した前記素材ごとのゲーム音を合成する合成部を有することを特徴とする請求項1記載のゲーム装置。
  6.  マップユニットによって区分される仮想のゲーム空間においてゲーム音を加工して出力する効果音加工方法であって、
     発音体から聴音位置まで音が伝達する最短ルートを求めるステップと、
     前記最短ルートにおいて前記発音体が存在するマップユニットと前記聴音位置のマップユニットの間に存在するマップユニット数をカウントするステップと、
     前記マップユニット数に基づいて前記発音体から前記聴音位置までの距離を算出するステップと、
     前記ゲーム音のデータを蓄積する蓄積部から前記発音体が発するゲーム音に対応するデータを読み出し、前記距離に基づいて前記ゲーム音の音量レベルを減衰させるステップと、
     を有することを特徴とする効果音加工方法。
  7.  前記距離を算出するステップは、前記マップユニット数に基づいて算出した距離に、前記発音体から隣接するマップユニットまでの距離と前記聴音位置から隣接するマップユニットまでの距離を加算して前記距離を算出することを特徴とする請求項6記載の効果音加工方法。
  8.  前記マップユニットが属する空間の広さを求め、当該空間の広さに応じて前記マップユニットで発せられるゲーム音の特性を変えるステップを有することを特徴とする請求項6記載の効果音加工方法。
  9.  前記ゲーム音のデータは第1のスピーカから出力させることを想定したデータであって、
     前記ゲーム音にコンプレッサーをかけた後、全体の音量レベルを上げるステップと、
     前記ゲーム音を前記第1のスピーカよりも性能が低い第2のスピーカに出力するステップと、
     を有することを特徴とする請求項6記載の効果音加工方法。
  10.  前記蓄積部は、キャラクタが装着する装備の素材の比率を示す比率データ、および前記素材ごとのゲーム音のデータを蓄積しており、
     前記キャラクタの行動により前記装備から発せられる効果音について、当該装備の比率データと前記素材ごとのゲーム音のデータを前記蓄積部から読み出し、前記比率データに基づいて前記素材ごとのゲーム音の音量レベルをそれぞれ設定し、音量レベルを設定した前記素材ごとのゲーム音を合成するステップを有することを特徴とする請求項6記載の効果音加工方法。
  11.  マップユニットによって区分される仮想のゲーム空間においてゲーム音を加工して出力する効果音加工方法をコンピュータに実行させる指令を記録した記録媒体であって、
     発音体から聴音位置まで音が伝達する最短ルートを求める処理と、
     前記最短ルートにおいて前記発音体が存在するマップユニットと前記聴音位置のマップユニットの間に存在するマップユニット数をカウントする処理と、
     前記マップユニット数に基づいて前記発音体から前記聴音位置までの距離を算出する処理と、
     前記ゲーム音のデータを蓄積する蓄積部から前記発音体が発するゲーム音に対応するデータを読み出し、前記距離に基づいて前記ゲーム音の音量レベルを減衰させる処理と、
     を前記コンピュータに実行させる指令を記録した記録媒体。
  12.  前記距離を算出する処理は、前記マップユニット数に基づいて算出した距離に、前記発音体から隣接するマップユニットまでの距離と前記聴音位置から隣接するマップユニットまでの距離を加算して前記距離を算出することを特徴とする請求項11記載の記録媒体。
  13.  前記マップユニットが属する空間の広さを求め、当該空間の広さに応じて前記マップユニットで発せられるゲーム音の特性を変える処理を前記コンピュータに実行させる指令を記録した請求項11記載の記録媒体。
  14.  前記ゲーム音のデータは第1のスピーカから出力させることを想定したデータであって、
     前記ゲーム音にコンプレッサーをかけた後、全体の音量レベルを上げる処理と、
     前記ゲーム音を前記第1のスピーカよりも性能が低い第2のスピーカに出力する処理と、
     を前記コンピュータに実行させる指令を記録した請求項11記載の記録媒体。
  15.  前記蓄積部は、キャラクタが装着する装備の素材の比率を示す比率データ、および前記素材ごとのゲーム音のデータを蓄積しており、
     前記キャラクタの行動により前記装備から発せられる効果音について、当該装備の比率データと前記素材ごとのゲーム音のデータを前記蓄積部から読み出し、前記比率データに基づいて前記素材ごとのゲーム音の音量レベルをそれぞれ設定し、音量レベルを設定した前記素材ごとのゲーム音を合成する処理を前記コンピュータに実行させる指令を記録した請求項11記載の記録媒体。
PCT/JP2015/057310 2014-06-25 2015-03-12 ゲーム装置、効果音加工方法及び記録媒体 WO2015198646A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/320,983 US11027200B2 (en) 2014-06-25 2015-03-12 Game device, method and non-transitory computer-readable storage medium
CA2953077A CA2953077A1 (en) 2014-06-25 2015-03-12 Game device, method and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-130016 2014-06-25
JP2014130016A JP5882403B2 (ja) 2014-06-25 2014-06-25 効果音加工プログラム及びゲーム装置

Publications (1)

Publication Number Publication Date
WO2015198646A1 true WO2015198646A1 (ja) 2015-12-30

Family

ID=54937749

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/057310 WO2015198646A1 (ja) 2014-06-25 2015-03-12 ゲーム装置、効果音加工方法及び記録媒体

Country Status (4)

Country Link
US (1) US11027200B2 (ja)
JP (1) JP5882403B2 (ja)
CA (1) CA2953077A1 (ja)
WO (1) WO2015198646A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106658219A (zh) * 2016-12-29 2017-05-10 微鲸科技有限公司 一种音效设置方法及系统
CN109192193A (zh) * 2018-08-14 2019-01-11 四川虹美智能科技有限公司 一种语音识别产品测试方法和测试装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10672171B2 (en) * 2017-03-07 2020-06-02 Lamplight Forest Holdings Pty Ltd System and method for dynamic content generation in a virtual space
CN108744517B (zh) * 2018-04-27 2022-02-22 网易(杭州)网络有限公司 音频处理方法、装置、终端和存储介质
JP7003024B2 (ja) 2018-10-12 2022-01-20 三菱電機株式会社 バルブタイミング調整装置
JP6974750B2 (ja) * 2019-06-04 2021-12-01 株式会社カプコン 音声制御プログラム、および音声制御装置
CN112295226B (zh) * 2020-11-25 2022-05-10 腾讯科技(深圳)有限公司 一种音效播放控制方法、装置、计算机设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000267675A (ja) * 1999-03-16 2000-09-29 Sega Enterp Ltd 音響信号処理装置
JP2002085831A (ja) * 2000-09-20 2002-03-26 Namco Ltd ゲーム装置及び情報記憶媒体
JP2007180935A (ja) * 2005-12-28 2007-07-12 Konami Digital Entertainment:Kk 音声処理装置、音声処理方法、ならびに、プログラム
JP2007236833A (ja) * 2006-03-13 2007-09-20 Konami Digital Entertainment:Kk ゲーム音出力装置、ゲーム音制御方法、および、プログラム
JP2007289713A (ja) * 2007-04-27 2007-11-08 Sega Corp 仮想三次元音像生成装置及びその方法並びに媒体
JP2008188308A (ja) * 2007-02-06 2008-08-21 Copcom Co Ltd ゲーム装置、ゲームプログラムおよび記憶媒体
JP2010029375A (ja) * 2008-07-28 2010-02-12 Namco Bandai Games Inc ゲームシステム、プログラム、及び情報記憶媒体
JP2010035978A (ja) * 2008-08-08 2010-02-18 Sega Corp ゲームプログラムおよびゲーム装置
JP2011518366A (ja) * 2008-03-18 2011-06-23 アバイア インク. コンピュータで生成された三次元仮想環境へのウエブ・コンテンツの取り込み
JP2013102411A (ja) * 2011-10-14 2013-05-23 Sony Corp 音声信号処理装置、および音声信号処理方法、並びにプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063470A (ja) * 1996-06-12 1998-03-06 Nintendo Co Ltd 画像表示に連動する音響発生装置
JPH10137445A (ja) * 1996-11-07 1998-05-26 Sega Enterp Ltd ゲーム装置、画像音響処理装置および記録媒体
JPH10211358A (ja) * 1997-01-28 1998-08-11 Sega Enterp Ltd ゲーム装置
JPH11327569A (ja) * 1998-05-11 1999-11-26 Koei:Kk 自動音場補正を用いたゲーム装置の制御方法
JP2004144912A (ja) * 2002-10-23 2004-05-20 Matsushita Electric Ind Co Ltd 音声情報変換方法、音声情報変換プログラム、および音声情報変換装置
JP2004151229A (ja) * 2002-10-29 2004-05-27 Matsushita Electric Ind Co Ltd 音声情報変換方法、映像・音声フォーマット、エンコーダ、音声情報変換プログラム、および音声情報変換装置
JP3639280B2 (ja) * 2003-02-12 2005-04-20 任天堂株式会社 ゲームメッセージ表示方法およびゲームプログラム
JP4007255B2 (ja) * 2003-06-02 2007-11-14 ヤマハ株式会社 アレースピーカーシステム
JP4541744B2 (ja) * 2004-03-31 2010-09-08 ヤマハ株式会社 音像移動処理装置およびプログラム
US8360887B2 (en) * 2006-02-09 2013-01-29 Wms Gaming Inc. Wagering game server availability broadcast message system
US8558100B2 (en) * 2008-06-24 2013-10-15 Sony Corporation Music production apparatus and method of producing music by combining plural music elements
JP5468326B2 (ja) 2009-07-29 2014-04-09 株式会社カプコン 効果音生成装置及びその効果音生成装置を実現するための効果音生成プログラム
JP5036797B2 (ja) * 2009-12-11 2012-09-26 株式会社スクウェア・エニックス 発音処理装置、発音処理方法、及び発音処理プログラム
WO2013184215A2 (en) * 2012-03-22 2013-12-12 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for simulating sound propagation in large scenes using equivalent sources

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000267675A (ja) * 1999-03-16 2000-09-29 Sega Enterp Ltd 音響信号処理装置
JP2002085831A (ja) * 2000-09-20 2002-03-26 Namco Ltd ゲーム装置及び情報記憶媒体
JP2007180935A (ja) * 2005-12-28 2007-07-12 Konami Digital Entertainment:Kk 音声処理装置、音声処理方法、ならびに、プログラム
JP2007236833A (ja) * 2006-03-13 2007-09-20 Konami Digital Entertainment:Kk ゲーム音出力装置、ゲーム音制御方法、および、プログラム
JP2008188308A (ja) * 2007-02-06 2008-08-21 Copcom Co Ltd ゲーム装置、ゲームプログラムおよび記憶媒体
JP2007289713A (ja) * 2007-04-27 2007-11-08 Sega Corp 仮想三次元音像生成装置及びその方法並びに媒体
JP2011518366A (ja) * 2008-03-18 2011-06-23 アバイア インク. コンピュータで生成された三次元仮想環境へのウエブ・コンテンツの取り込み
JP2010029375A (ja) * 2008-07-28 2010-02-12 Namco Bandai Games Inc ゲームシステム、プログラム、及び情報記憶媒体
JP2010035978A (ja) * 2008-08-08 2010-02-18 Sega Corp ゲームプログラムおよびゲーム装置
JP2013102411A (ja) * 2011-10-14 2013-05-23 Sony Corp 音声信号処理装置、および音声信号処理方法、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106658219A (zh) * 2016-12-29 2017-05-10 微鲸科技有限公司 一种音效设置方法及系统
CN109192193A (zh) * 2018-08-14 2019-01-11 四川虹美智能科技有限公司 一种语音识别产品测试方法和测试装置

Also Published As

Publication number Publication date
JP2016007399A (ja) 2016-01-18
US20170151501A1 (en) 2017-06-01
US11027200B2 (en) 2021-06-08
JP5882403B2 (ja) 2016-03-09
CA2953077A1 (en) 2015-12-30

Similar Documents

Publication Publication Date Title
WO2015198646A1 (ja) ゲーム装置、効果音加工方法及び記録媒体
JP6461850B2 (ja) シミュレーションシステム及びプログラム
JP2017119033A (ja) ゲーム装置及びプログラム
US20130123962A1 (en) Computer-readable storage medium storing information processing program, information processing device, information processing system, and information processing method
JP2017119032A (ja) ゲーム装置及びプログラム
JP2017176728A (ja) シミュレーションシステム及びプログラム
JP2020031303A (ja) 仮想空間における音声生成プログラム、および音声生成装置
JP2020018620A (ja) 仮想空間における音声生成プログラム、四分木の生成方法、および音声生成装置
JP6294899B2 (ja) 効果音加工プログラム及びゲーム装置
US20150378667A1 (en) Precognitive interactive music system
JP7339512B2 (ja) 音声再生プログラム、および音声再生装置
JP6286405B2 (ja) 効果音加工プログラム及びゲーム装置
JP6046759B2 (ja) 効果音加工プログラム及びゲーム装置
JP5352628B2 (ja) 近接通過音発生装置
JP7348505B2 (ja) 音声再生プログラム、および音声再生装置
JP6740297B2 (ja) ゲームプログラム、およびゲーム装置
JP3822883B2 (ja) ゲームソフトウエア及びゲーム装置
JP6817280B2 (ja) 音声制御プログラム、および音声制御装置
Beig Scalable immersive audio for virtual environments
Wallin Evaluation of Physically Inspired Models in Video Game Melee Weapon SFX
JP6737842B2 (ja) ゲームプログラム、およびゲーム装置
JP2022125665A (ja) 音声再生プログラムおよび音声再生装置
JP2024041357A (ja) ゲームプログラム、およびゲーム装置
JP6325016B2 (ja) シミュレーションシステム及びプログラム
JP2019198512A (ja) ゲームプログラム、およびゲーム装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15812279

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2953077

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 15320983

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15812279

Country of ref document: EP

Kind code of ref document: A1