WO2007111224A1 - 音声処理装置、音声処理方法、情報記録媒体、ならびに、プログラム - Google Patents

音声処理装置、音声処理方法、情報記録媒体、ならびに、プログラム Download PDF

Info

Publication number
WO2007111224A1
WO2007111224A1 PCT/JP2007/055912 JP2007055912W WO2007111224A1 WO 2007111224 A1 WO2007111224 A1 WO 2007111224A1 JP 2007055912 W JP2007055912 W JP 2007055912W WO 2007111224 A1 WO2007111224 A1 WO 2007111224A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
sound source
distance
unit
point
Prior art date
Application number
PCT/JP2007/055912
Other languages
English (en)
French (fr)
Inventor
Kazuki Muraoka
Ryoji Makimura
Original Assignee
Konami Digital Entertainment Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co., Ltd. filed Critical Konami Digital Entertainment Co., Ltd.
Priority to US12/294,736 priority Critical patent/US8189813B2/en
Priority to EP07739355A priority patent/EP2000187A4/en
Priority to CN2007800110546A priority patent/CN101410157B/zh
Publication of WO2007111224A1 publication Critical patent/WO2007111224A1/ja

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car

Definitions

  • the present invention relates to a sound processing device, a sound processing method, an information recording medium, and a program suitable for efficiently reproducing sound according to the distance between the sound source in the virtual space and the position where the sound is heard. Concerning Gram.
  • Patent Document 1 discloses a game device that reproduces sounds heard at the position of a virtual camera by changing the mixing ratio of two different sound data based on the distance between the sound effect source and the virtual camera. Yes. According to this, when the distance between the sound source and the virtual camera approaches, the game device can reproduce the sound data for a short distance by increasing the ratio of the short-distance sound data, and output a more realistic sound effect.
  • Patent Document 1 Japanese Patent Laid-Open No. 2005-046270
  • a sound processing device has hardware or software limitations on the number of sound effects that can be played back simultaneously (the number of playback tracks).
  • the sound effect reproduced by a conventional sound processing device is controlled so that the sound effect sound volume decreases as the distance between the sound effect source and the position where the sound effect is heard increases. It is common.
  • the present invention solves such a problem, and is a sound processing device suitable for efficiently reproducing sound according to the distance between the sound source in the virtual space and the position where the sound is heard,
  • the purpose is to provide an audio processing method, an information recording medium, and a program.
  • a speech processing device includes a storage unit, a determination unit, a change unit, and a playback unit.
  • the storage unit stores an area associated with a sound source arranged in the virtual space.
  • the determination unit determines whether or not the sound source includes a point of interest arranged in the virtual space in an area stored in the storage unit.
  • the changing unit changes the sound that is generated by the sound source based on the distance between the sound source and the target point.
  • the reproducing unit reproduces the sound changed by the changing unit.
  • the sound processing device can generate sound generated from the character object based on the distance between the character object and the user character object. It is possible to appropriately change the voice every time. That is, it can be efficiently played back according to the distance between the sound source in the virtual space and the position where the sound is heard.
  • An audio processing apparatus includes a storage unit, a determination unit, a change unit, and a playback unit.
  • the storage unit generates a sound source for each of a plurality of sound sources arranged in the virtual space. Stores the position of the sound source, the reference distance that defines the area associated with the sound source, and the predetermined minimum volume of the sound that is sounded from the sound source, and the position of the point of interest placed in the virtual space Remember.
  • the determination unit calculates the distance between the sound source and the point of interest for each of the plurality of sound sources based on the position of the sound source and the position of the point of interest stored in the storage unit. Whether or not the attention point is included in the region associated with the sound source is determined based on whether or not the calculated distance force is smaller than the reference distance of the sound source.
  • the changing unit When the determination unit determines that the target point is included in the region, the changing unit generates a sound generated from each of the plurality of sound source sources with a large distance between the sound source and the target point. If it is judged that the volume is not included, it is changed to the lowest volume of the sound source.
  • the reproducing unit reproduces the sound changed by the changing unit.
  • the sound processing device can generate sound generated from the character object based on the distance between the character object and the user character object. It is possible to appropriately change the voice every time. That is, it is possible to efficiently reproduce the sound according to the distance between the sound source in the virtual space and the position of the point of interest where the sound is heard.
  • the storage unit further stores information of a combination of a plurality of pronunciation sources
  • the change unit may change the volume of the sound produced from each of the sound sources indicated by the combination information together.
  • the speech processing apparatus can reduce the memory capacity to be used.
  • An audio processing method is an audio processing method executed by an audio processing device having a storage unit, and includes a determination step, a change step, and a reproduction step.
  • the storage unit stores a region associated with the sound source arranged in the virtual space, and the determination step is arranged in the region stored in the storage unit for the sound source in the virtual space. It is determined whether or not the point of interest is included.
  • the change step it is determined by the determination step that the attention point is included in the region.
  • the sound produced from the sound source is changed based on the distance between the sound source and the point of interest.
  • the reproduction step reproduces the sound changed by the changing step.
  • the sound processing apparatus using this sound processing method uses the character object based on the distance between the character object and the user character object.
  • the sound can be changed appropriately for each sound produced from the sound. In other words, it is possible to efficiently reproduce the sound according to the distance between the sound source in the virtual space and the position where the sound is heard.
  • a speech processing method is a speech processing method executed by a speech processing apparatus having a storage unit, and includes a determination step, a change step, and a reproduction step.
  • the storage unit stores, for each of a plurality of sound sources arranged in the virtual space, the position of the sound source, a reference distance that defines an area associated with the sound source, and the sound source.
  • the predetermined minimum volume is stored, and the position of the point of interest arranged in the virtual space is stored.
  • the distance between the sound source and the target point is calculated based on the position of the sound source and the target point stored in the storage unit. Whether the attention point is included in the region associated with the source is determined based on whether the calculated distance is smaller than the reference distance of the sound source.
  • the sound generated from each of the plurality of sound source sources increases the distance between the sound source and the target point. If it is determined that the volume is not included, it is changed to the lowest volume of the sound source.
  • the reproduction step reproduces the sound changed by the changing step.
  • the sound processing apparatus using this sound processing method uses the character object based on the distance between the character object and the user character object. Or The sound can be changed appropriately for each sound that is pronounced. In other words, it is possible to efficiently reproduce the sound according to the distance between the sound source in the virtual space and the position where the sound is heard.
  • An information recording medium stores a program that causes a computer to function as a storage unit, a determination unit, a change unit, and a playback unit.
  • the storage unit stores an area associated with a sound source arranged in the virtual space.
  • the determination unit determines whether or not the sound source includes a point of interest arranged in the virtual space in an area stored in the storage unit.
  • the changing unit changes the sound that is generated by the sound source based on the distance between the sound source and the target point.
  • the reproducing unit reproduces the sound changed by the changing unit.
  • the information recording medium allows the computer to execute the program based on the distance between the character object and the user character object when the user character object exists in the area set for each character object. It is possible to function as a device that appropriately changes the sound for each sound generated from the character object.
  • An information recording medium stores a program that causes a computer to function as a storage unit, a determination unit, a change unit, and a playback unit.
  • the storage unit for each of a plurality of sound sources arranged in the virtual space, a position of the sound source, a reference distance that defines an area associated with the sound source, and a predetermined sound to be sounded from the sound source Is stored, and the position of the point of interest placed in the virtual space is stored.
  • the determination unit calculates the distance between the sound source and the point of interest for each of the plurality of sound sources based on the position of the sound source and the position of the point of interest stored in the storage unit. Whether or not the attention point is included in the region associated with the sound source is determined based on whether or not the calculated distance force is smaller than the reference distance of the sound source.
  • the change unit When the sound produced from the sound source is changed to a volume that has been previously associated with the sound source so as to decrease as the distance between the sound source and the attention point increases, Change to the lowest volume of the source.
  • the reproducing unit reproduces the sound changed by the changing unit.
  • the information recording medium allows the computer to execute the program based on the distance between the character object and the user character object when the user character object exists in the area set for each character object. It is possible to function as a device that appropriately changes the sound for each sound generated from the character object.
  • a program according to another aspect of the present invention causes a computer to function as a storage unit, a determination unit, a change unit, and a playback unit.
  • the storage unit stores an area associated with a sound source arranged in the virtual space.
  • the determination unit determines whether or not the sound source includes a point of interest arranged in the virtual space in an area stored in the storage unit.
  • the changing unit changes the sound that is generated by the sound source based on the distance between the sound source and the target point.
  • the reproducing unit reproduces the sound changed by the changing unit.
  • the program when the user character object exists in the area set for each character object, the program generates a sound from the character object based on the distance between the character object and the user character object. It is possible to function as a device that appropriately changes the sound for each.
  • a program according to another aspect of the present invention causes a computer to function as a storage unit, a determination unit, a change unit, and a playback unit.
  • the storage unit for each of a plurality of sound sources arranged in the virtual space, a position of the sound source, a reference distance that defines an area associated with the sound source, and a predetermined sound to be sounded from the sound source Is stored, and the position of the point of interest placed in the virtual space is stored.
  • the determination unit calculates the distance between the sound source and the point of interest for each of the plurality of sound sources based on the position of the sound source and the position of the point of interest stored in the storage unit. Whether or not the attention point is included in the region associated with the sound source is determined based on whether or not the calculated distance force is smaller than the reference distance of the sound source.
  • the changing unit reduces the sound generated from the sound source as the distance between the sound source and the target point increases. If it is determined that the volume is not included, the volume is changed to the minimum volume of the sound source.
  • the program when the user character object exists in the area set for each character object, the program generates a sound from the character object based on the distance between the character object and the user character object. It is possible to function as a device that appropriately changes the sound for each.
  • the program of the present invention can be recorded on a computer-readable information storage medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.
  • a computer-readable information storage medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.
  • the above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed.
  • the information storage medium can be distributed and sold independently of the computer.
  • FIG. 1 is a diagram showing a schematic configuration of a typical information processing apparatus in which a sound processing apparatus of the present invention is realized.
  • FIG. 2 is a diagram showing a configuration of a speech processing apparatus according to the present invention.
  • FIG. 3 is a diagram for explaining the positional relationship between a sound source and a point of interest.
  • FIG. 4A is a diagram illustrating an example of information stored in a storage unit according to the first and second embodiments.
  • FIG. 4B is a diagram illustrating an example of information stored in the storage unit according to the first and second embodiments.
  • FIG. 4C is a diagram showing an example of information stored in the storage unit of the first and second embodiments.
  • FIG. 5A is a diagram showing an example of the relationship between the distance between the sound source and the point of interest and the volume of the sound changed by the changing unit.
  • FIG. 5B is a diagram showing an example of the relationship between the distance between the sound source and the point of interest and the sound volume changed by the changing unit.
  • FIG. 6 is a flowchart for explaining voice control processing.
  • FIG. 7A is a diagram showing an example of the relationship between the distance between the sound source and the point of interest, the volume of the sound changed by the changing unit, and the Z non-reproduced area reproduced by the reproducing unit.
  • FIG. 7B is a diagram showing an example of the relationship between the distance between the sound source and the point of interest, the volume of the sound changed by the changing unit, and the Z non-reproduced region reproduced by the reproducing unit.
  • FIG. 8 is a flowchart for explaining audio control processing according to the second embodiment.
  • FIG. 9A is a diagram illustrating an example of information stored in a storage unit according to the third embodiment.
  • FIG. 9B is a diagram showing an example of information stored in the storage unit of the third embodiment.
  • FIG. 10A is a diagram showing an example of the relationship between the distance between the sound source and the point of interest and the sound volume changed by the changing unit in the third embodiment.
  • FIG. 10B is a diagram showing an example of the relationship between the distance between the sound source and the point of interest and the sound volume changed by the changing unit in the third embodiment.
  • FIG. 11A is a diagram illustrating an example of information stored in a storage unit according to the fourth embodiment.
  • FIG. 11B is a diagram showing an example of information stored in the storage unit of the fourth embodiment.
  • FIG. 12A is a diagram illustrating an example of information stored in a storage unit according to the fifth embodiment.
  • FIG. 12B is a diagram showing an example of information stored in the storage unit of the fifth embodiment.
  • FIG. 12C is a diagram showing an example of information stored in the storage unit of the fifth embodiment.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a typical information processing apparatus that performs the function of the speech processing apparatus of the present invention by executing a program. This will be described below with reference to this figure.
  • the information processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an interface 104, a controller 105, an external memory 106, Image processor 107, DVD-ROM (Digital Versa tile Disk-Read Onlv Memory) drive 108, NIC (Network Interface Card) 109 An audio processing unit 110.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • controller 105 an external memory 106
  • Image processor 107 Digital Versa tile Disk-Read Onlv Memory
  • DVD-ROM Digital Versa tile Disk-Read Onlv Memory
  • NIC Network Interface Card
  • a DVD-ROM storing a game program and data is loaded into the DVD-ROM drive 108, and the information processing apparatus 100 is turned on to execute the program.
  • a processing device is realized.
  • the CPU 101 controls the overall operation of the information processing apparatus 100 and is connected to each component to exchange control signals and data.
  • the CPU 101 uses an arithmetic logic unit (ALU) (not shown), an arithmetic operation such as addition / subtraction / division / division, logical sum, logical product, etc. for a storage area called a register (not shown) that can be accessed at high speed.
  • ALU arithmetic logic unit
  • logical operations such as logical negation, bit operations such as bit sum, bit product, bit inversion, bit shift, and bit rotation can be performed.
  • the CPU 101 itself is configured and equipped with a coprocessor so that saturation operations such as addition, subtraction, multiplication, and division for multimedia processing and trigonometric functions can be performed at high speed. There is something to do.
  • the ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on, and when this is executed, the program recorded on the DVD-ROM is read out to the RAM 103 and the CPU 101 Execution starts.
  • the ROM 102 stores an operating system program and various types of data necessary for operation control of the entire information processing apparatus 100.
  • the RAM 103 is for temporarily storing data and programs, and holds programs and data from which the DVD-ROM power is also read and other data necessary for game progress and chat communication.
  • the CPU 101 provides a variable area in the RAM 103 and performs an arithmetic operation by directly applying an ALU to the value stored in the variable, or stores the value stored in the RAM 103 in a register. Performs operations such as performing an operation on the register and writing the operation result back into the memory.
  • the controller 105 connected via the interface 104 receives an operation input performed by the user when executing a game such as a mahjong game or a card game.
  • the external memory 106 which is detachably connected via the interface 104, has data indicating the play status (such as past results) of the mahjong game, data indicating the progress of the game, and network play. Chat communication log data can be rewritten Remembered. The user can record these data in the external memory 106 as appropriate by inputting an instruction via the controller 105.
  • a DVD-ROM loaded in the DVD-ROM drive 108 records a program for realizing the game and image data and sound data associated with the game.
  • the DVD-ROM drive 108 Under the control of 01, the DVD-ROM drive 108 performs a reading process on the DVD-ROM loaded in the DVD-ROM drive 108, reads out necessary programs and data, and these are temporarily stored in the RAM 103 or the like.
  • the image processing unit 107 performs cache processing on data read from the DVD-ROM by an image arithmetic processor (not shown) included in the CPU 101 or the image processing unit 107, and then processes the processed data.
  • the data is recorded in a frame memory (not shown) included in 107.
  • the image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing and output to a monitor (not shown) connected to the image processing unit 107.
  • various image displays are possible.
  • the image calculation processor can execute a two-dimensional image overlay calculation, a transparency calculation such as alpha blending, and various saturation calculations at high speed.
  • Polygon information arranged in a virtual three-dimensional space and added with various texture information is rendered by the Z buffer method, and polygons arranged in the virtual three-dimensional space from a predetermined viewpoint position are rendered. It is also possible to execute a calculation at a high speed to obtain a rendering image viewed from a predetermined line of sight.
  • the CPU 101 and the image arithmetic processor work together to draw a character string as a two-dimensional image in the frame memory or draw it on the surface of each polygon according to the font information that defines the character shape. Is possible.
  • information such as mahjong game cards and card game card images is prepared on a DVD-ROM, and this is expanded in the frame memory so that the current card and hand can be displayed on the screen. It can be displayed.
  • the NIC 109 is used to connect the information processing apparatus 100 to a computer communication network (not shown) such as the Internet, and is used when configuring a LAN (Local Area Network). Interfacing with T-standard or telephone lines Analog modem for connecting to a single network, ISDN (Integrated Services Digital Network) modem, ADSL (Asymmetric Digital Subscriber Line) modem, cable modem for connecting to the Internet using a cable television line, etc. An interface (not shown) that mediates with the CPU 101 is configured.
  • the audio processing unit 110 converts the audio data that has also been read from the DVD-ROM power into an analog audio signal, and outputs the analog audio signal from a speaker (not shown) connected thereto.
  • a speaker not shown
  • the music data of the sound effects that should be generated during the progress of the game is read and the sound is output from the speaker.
  • the audio processing unit 110 converts the MIDI data into PCM data with reference to the sound source data included in the audio data. Also, if the compressed audio data is ADPCM (Adaptive Differential Pulse Code Modulation) open type or Ogg Vorbis format, it is expanded and converted to PCM data.
  • the PCM data can be output as audio by performing DZA (Digital / Analog) conversion at a timing corresponding to the sampling frequency and outputting it to a speaker.
  • DZA Digital / Analog
  • the information processing apparatus 100 uses a large-capacity external storage device such as a hard disk, and has the same function as a DVD-ROM or the like installed in the ROM 102, RAM 103, external memory 106, or DVD-ROM drive 108. It may be configured to fulfill
  • FIG. 2 is a schematic diagram showing a schematic configuration of the audio processing device 200 of the present embodiment.
  • the audio processing device 200 includes a storage unit 201, a determination unit 202, a change unit 203, and a playback unit 204.
  • FIG. 3 is a diagram showing a positional relationship between the sound source 301 arranged in the three-dimensional virtual space and the attention point 302 to which the sound emitted from the sound source 301 arrives.
  • the sound source 301 is a character object that can move in this virtual space, and is a sound source that produces sound and sound effects at a predetermined timing while the game is in progress.
  • the sound processing device 200 starts the reproduction of predetermined sound data so that the sound from the sound source 3 01 can be heard while the game is in progress, or stops the sound data reproduction so that the sound from the sound source 3 01 cannot be heard. To do.
  • the attention point 302 is typically a position where the user character object is arranged. In this way, the user of the speech processing device 200 can position the user character object placed in the virtual space. The voice emitted from the sound source 301 can be heard.
  • the sound processing device 200 can increase the sound volume produced by the sound source 301 at the position of the user character object placed in the virtual space, and the distance L between the sound source 301 and the point of interest 302 can be increased. Make it as small as possible. Further, as will be described later, the sound processing device 200 controls the sound generated from the sound source 301 based on the information indicating the region set in advance for each character object that is the sound source 301 and the distance L. By performing this process (hereinafter referred to as “audio control process”), control is performed so that audio can be efficiently reproduced.
  • the storage unit 201 stores information indicating a region in association with the sound source 301 arranged in the virtual space.
  • the storage unit 201 stores information indicating the distance range between the sound source 301 and the attention point 302 in association with the sound source 301.
  • this information is stored in advance in a DVD-ROM mounted on the DVD-ROM drive 108 and is read out as needed under the control of the CPU 101.
  • the CPU 101 and the DVD-ROM drive 108 work together to function as the storage unit 201.
  • the storage unit 201 stores a reference distance that determines an area associated with the sound source 301 with a virtual distance in the virtual space as a unit.
  • the storage unit 201 associates a sound source 301 (engine of a traveling car object) and a point of interest 302 (engine sound of a traveling car object) in association with the sound “car engine sound” to be generated.
  • the distance force with the user character object is within the range of S0 to 100 meters
  • information indicating that this sound is reproduced is stored.
  • the storage unit 201 stores information indicating that playback by the playback unit 204 is stopped when the distance between the sound source 301 and the point of interest 302 exceeds 100 meters.
  • the storage unit 201 stores information indicating the distance range separately for each sound source 301 or sound to be sounded.
  • the storage unit 201 may store a reference distance in units of a virtual distance in the virtual space in association with the file name of the audio data.
  • the storage unit 201 takes note of the sound source 301 (for example, the traveling vehicle object) in association with the sound data of the file name “onsei01.wav” (for example, the engine sound of the traveling vehicle object).
  • Point 302 (For example, a user character listening to the engine sound of a traveling car object The distance to the (Kuta object) is 0 ⁇ : Stores the information to be played back when it is within the LOO meter range. In this way, the storage unit 201 may store information indicating the distance range separately for each piece of audio data.
  • the sound from the sound source 301 is to be played back regardless of the position of the sound source 301 in the virtual space (regardless of the distance between the sound source 301 and the point of interest 302), the sound is stored in the storage unit 201.
  • the information to be played should be set using Linl ⁇ which is sufficiently large as the distance range to be reproduced, so that the distance can be regarded as virtually infinite.
  • the storage unit 201 may assign a unique number to each sound effect and store the reference distance in association with the unique number.
  • the reference distance may be stored in association with the individual sound source 301 or the type of character object that can be the sound source 301.
  • the reference distance associated with the sound source 301 stored in the storage unit 201 is not limited to the information indicating the distance range between the sound source 301 and the point of interest 302 described above.
  • the storage unit 201 may store a sound transmission region, direction, transmission speed, or the like in consideration of sound shielding or reflection by an obstacle. As a result, a more realistic sound effect can be obtained efficiently.
  • a predetermined format of audio data that stores information indicating the distance range to be reproduced may be defined and used. Thereby, management of data stored in the storage unit 201 can be simplified. Further, when audio data using a predetermined format is reproduced, it can be controlled to be reproduced by the audio control process of the present invention described later, and the audio control process of the present invention is not performed in other formats. .
  • the storage unit 201 may be configured to store these pieces of information in other storage media such as the ROM 102 and the external memory 106.
  • the present invention may be realized as a program provided in advance with data indicating the distance range between the sound source 301 and the point of interest 302.
  • the determination unit 202 Based on the coordinate value of the sound source 301 arranged in the virtual space and the coordinate value of the attention point 302 of the sound that is sounded from the sound source 301, the determination unit 202 focuses on the sound source 301 and the sound source 301. The distance to the point 302 is obtained, and it is determined whether or not the force includes the attention point 302 in the distance range stored in the storage unit 201.
  • the determination unit 20 2 obtains the distance between the sound source 301 and the attention point 302 for each sound source 301 and determines whether or not the attention point 302 is included in the distance range stored in the storage unit 201.
  • the determination unit 202 inputs this determination result to the change unit 203.
  • CPU 101 and the image processing unit 107 operate in cooperation to function as the determination unit 202.
  • each coordinate value is expressed using a generally used coordinate system.
  • the virtual space is represented by a polar coordinate system such as an orthogonal coordinate system using three orthogonal axes, or a spherical coordinate system using one radius and two declinations.
  • a configuration may be adopted in which coordinate calculation is performed by separately setting a global coordinate system (world coordinate system) that represents the entire virtual space and a local coordinate system (body coordinate system) for each character object. Good.
  • the changing unit 203 changes the sound produced from the sound source 301 based on the distance between the sound source 301 and the point of interest 302 obtained by the determining unit 202. That is, the change unit 203 obtains a volume corresponding to the distance obtained by the determination unit 202 at a predetermined timing for producing a sound effect or the like from the sound source 301 while the game is in progress.
  • CPU 101 and the audio processing unit 110 operate in cooperation to function as the changing unit 203.
  • the format of the audio data is arbitrary.
  • the audio processing device 200 should be able to read and execute a DVD-ROM or ROM102, which stores a predetermined program for audio reproduction corresponding to this format, and reproduce the audio data!
  • the changing unit 203 increases the distance from the sound source 301 acquired at the point of interest 302 as the distance between the sound source 301 and the point of interest 302 increases. Reduce the volume of the audio.
  • the changing unit 203 sets the sound volume from the sound source 301 near the predetermined sound volume value Vc (a range between Vc_low and V high). To maintain.
  • the changing unit 203 increases the volume of the sound from the sound source 301 acquired at the point of interest 302 as the distance between the sound source 301 and the point of interest 302 increases. Reduce.
  • the changing unit 203 maintains the predetermined minimum volume. Typical Specifically, the changing unit 203 maintains the volume at or near zero. As described above, the changing unit 203 changes the volume when the distance is in the area 510, and does not change the volume when the distance is in the area 520.
  • the reproduction unit 204 reproduces the sound changed by the changing unit 203. That is, the playback unit 204 obtains sound data corresponding to the sound produced from the sound source 301, decodes it with a predetermined program corresponding to this sound data, and the change unit 203 changes the volume and the like. Play the recorded audio.
  • the timing at which the audio data is read is before the playback unit 204 starts playback of the audio data.
  • the present invention can also be applied to a case where music data stored in an information recording medium such as a DVD-ROM is stream-reproduced.
  • the sound power from the sound source 301 acquired at the point of interest 302 is changed by the changing unit 203 as shown in FIG. 5A.
  • the reproduction unit 204 gradually decreases the volume when the distance between the sound source 301 and the attention point 302 is greater than SO and less than the threshold Lth.
  • the volume is maintained within a predetermined volume range near the volume value Vc. Thereby, the volume of the sound reproduced by the reproducing unit 204 is substantially constant near the volume Vc.
  • the playback unit 204 sets the volume value to zero.
  • the playback unit 204 can prevent the user from hearing the sound from the sound source 301.
  • the change in volume is shown linearly, but it is not limited to this and can be set arbitrarily. It is desirable that the volume decreases monotonically with distance.
  • the determination unit 202 includes the character object that is the sound source 301 and the attention point 302. A distance from the user character object is obtained (step S601).
  • the determination unit 202 determines whether or not the attention point 302 is included in a predetermined area (step S602). For example, the determination unit 202 obtains information indicating the distance range associated with the traveling car object that is the sound source 301 from the storage unit 201, and the distance obtained in step S601 is included in this distance range. Judge whether it is power or not.
  • the information indicating the predetermined area stored in the storage unit 201 is not limited to the information indicating the distance range from the point of interest 302. For example, it may be information indicating an area in consideration of sound shielding or reflection by an obstacle.
  • step S602 When the attention point 302 is not included in the predetermined region (step S602; NO), the determination unit 202 ends the voice control process. That is, in this case, the sound from the sound source 301 is not reproduced. If the sound sounded from the sound source 302 is being played back, the playback unit 204 stops playback.
  • step S602 When the attention point 302 is included in the predetermined region (step S602; YES), the changing unit 203 determines whether or not the distance obtained in step S601 is larger than the predetermined threshold Lth (step S601). S603).
  • step S603 When the obtained distance is larger than the predetermined threshold Lth (step S603; YES), the changing unit 203 determines the volume of the sound (engine sound of the traveling car object) that is sounded from the sound source 301. It is maintained within a predetermined volume range (step S604).
  • step S603 when the obtained distance is equal to or smaller than the predetermined threshold Lth (step S603; NO), the changing unit 203 acquires audio data corresponding to the sound produced from the sound source 301 (step S605). It should be noted that this step can be omitted when the audio data has already been acquired, such as when the same audio data is reproduced immediately before and remains as cache data in the RAM 103 or the like.
  • the changing unit 203 changes the volume based on the distance obtained in step S601 (step S606). For example, the changing unit 203 changes the sound volume smaller as the distance between the sound source 301 and the attention point 302 is larger.
  • the playback unit 204 plays back and outputs the sound changed in step S604 or S606 (step S607).
  • the sound processing apparatus 200 changes the sound that is sounded from the sound source 301 based on the region that is stored in the storage unit 201 and that is associated with the sound source 301. That is, the sound processing device 200 can efficiently reproduce the sound heard at the point of interest 302 by changing the volume according to the distance between the sound source 301 in the virtual space and the point of interest 302 where the sound is heard. .
  • the sound reproducing device 200 reproduces the sound by changing the sound for each sound source 301.
  • the storage unit 201 further stores attribute information of the sound source 301 in association with the sound source 301 (for example, whether it is an enemy or a friend, whether to play preferentially, etc.), the change unit 203, etc. Based on this attribute information, control whether or not to reproduce by the above-described voice control processing.
  • the changing unit 203 and the reproducing unit 204 stop processing the sound produced from the sound source 301 when the distance between the sound source 301 and the attention point 302 is larger than the predetermined reference distance Lc.
  • the other configuration of the audio processing device 200 of the present embodiment is the same as that of the above-described embodiment, and thus description thereof is omitted. Details will be described below.
  • the storage unit 201 stores an area in which the sound is reproduced in association with the sound generated from the sound source 301.
  • the storage unit 201 stores information as illustrated in FIG. 4A.
  • the storage unit 201 associates a sound source 301 (engine of a traveling car object) and a point of interest 302 (engine sound of a traveling car object) in association with the sound “car engine sound” to be pronounced.
  • the distance power with the listening user character object) Stores information that this sound is reproduced when it is within the range of S0 to 100 meters. However, the distance is a virtual distance in the virtual space.
  • the storage unit 201 stores information indicating the distance range for each sound source 301 separately.
  • this figure is only an example of information stored in the storage unit 201, and can be arbitrarily changed and set.
  • the changing unit 203 stops the process of changing the sound produced from the sound source 301. That is, in this case, the changing unit 203 does not change the volume.
  • the playback unit 204 When the distance between the sound source 301 and the point of interest 302 is greater than the predetermined reference distance Lc, the playback unit 204 does not perform the process of playing back the sound changed by the change unit 203. That is, in this case, the reproducing unit 204 does not reproduce the sound from the sound source 302.
  • the playback unit 204 reproduces an engine sound in which a car object (pronunciation source 301) that runs near the point of interest 302 is also generated, and the sound source 301 moves so as to gradually move away from the point of interest 302.
  • the playback unit 204 stops the playback of the engine sound generated from the car object.
  • FIG. 7A is an example of a diagram showing the volume of the sound produced by the sound source 301 that is output by the sound control process of the present embodiment.
  • the changing unit 203 acquires information indicating the region (distance range in the figure) associated with the sound source 301 from the storage unit 201. If the point of interest 302 is within this area and the distance is greater than or equal to 0 and less than or equal to Lth, the volume is reduced with the distance. When the distance becomes larger than the threshold value Lth, the changing unit 203 maintains the volume of this sound near the predetermined volume Vth. Furthermore, when the distance between the sound source 301 and the point of interest 302 becomes larger than the predetermined reference distance Lc, the playback unit 204 stops playback of this sound. That is, the reproduction unit 204 reproduces the sound from the sound source 301 if the distance is within the region 710, and does not reproduce the sound from the sound source 301 if it is within the region 720.
  • the audio processing device 200 can efficiently reproduce sound even when there is a limit to the number of sounds that can be reproduced simultaneously (number of reproduction tracks) due to hardware or software limitations. In other words, when the number of sounds played simultaneously increases by occupying the playback track in order to play substantially inaudible sound, other sound effects that should be played at a high volume cannot be played correctly. There is no.
  • the sound processing device 200 efficiently controls the sound to be played or not played back according to the distance between the sound source 301 in the virtual space and the point of interest 302 where the sound is heard. can do.
  • the sound processing device 200 may omit the process of changing the sound produced from the sound source 301 when the distance between the sound source 301 and the point of interest 302 is greater than a predetermined reference distance Lc.
  • a predetermined calculation for example, calculation that considers the influence of sound reflection or shielding
  • the result of the calculation Control was made so that playback was not performed if the volume obtained was lower than a predetermined amount.
  • the predetermined reference distance Lc information indicating an area associated with the sound source 301 stored in the storage unit 201 may be used.
  • the information indicating the region is information indicating the distance range in which the sound from the sound source 301 is reproduced.
  • the sound processing device 200 does not change the sound from the changing unit 203 and does not perform the reproduction by the reproducing unit 204 unless the point of interest 302 is within the distance range associated with the sound source 301.
  • the voice control process can be simplified.
  • FIG. 7B shows a threshold Lth used for determining whether or not the changing unit 203 changes the sound and a reference distance Lc used for determining whether or not the reproducing unit 204 reproduces the sound.
  • FIG. 5 is an example of a diagram showing the volume of sound produced from the sound source 301 when the two are matched.
  • the changing unit 203 gradually changes the volume of the sound, and the reproducing unit 204 reproduces the changed sound.
  • the reference distance Lc is exceeded, the changing unit 203 does not change this sound, and the reproducing unit 204 does not reproduce this sound! /.
  • the sound generated from the sound source 301 is not played back by the playback unit 204.
  • the voice may or may not be changed.
  • the changing unit 203 does not perform a process of changing the voice.
  • the determination unit 202 obtains the distance between the sound source 301 and the point of interest 302 (step S801).
  • the determination unit 202 determines whether or not the attention point 302 is included in the area stored in the storage unit 201 (step S802).
  • step S802 When the attention point 302 is not included in the region (step S802; NO), the determination unit 202 performs the audio The control process ends. That is, in this case, the sound from the sound source 301 is not reproduced. If the sound generated from the point of interest 302 is being played back, the playback unit 204 stops playback.
  • step S802 When the attention point 302 is included in the region (step S802; YES), the changing unit 203 determines whether or not the distance obtained in step S801 is larger than a predetermined reference distance Lc (step S803). ).
  • step S803 When the distance is larger than the reference distance Lc (step S803; YES), the playback unit 204 sets the sound source.
  • Playback of the sound produced from 301 is stopped (step S804).
  • the changing unit 203 determines whether or not the distance between the sound source 301 and the point of interest 302 is greater than a predetermined threshold Lth (step S803).
  • step S805 when the distance is equal to or smaller than the threshold value Lth (step S805; NO), the changing unit 203 acquires sound data corresponding to the sound that is sounded from the sound source 301 (step S807).
  • changing unit 203 changes the volume based on the distance obtained in step S801 (step S808). For example, the changing unit 203 changes the sound volume smaller as the distance between the sound source 301 and the attention point 302 is larger.
  • the playback unit 204 plays back and outputs the sound from the sound source 302 (step S809).
  • the sound processing device 200 reproduces sound if the sound source 301 is closer than the predetermined reference distance Lc, and stops sound reproduction if it is farther than the reference distance Lc.
  • the sound processing device 200 can efficiently reproduce the sound according to the distance between the sound source 301 in the virtual space and the point of interest 302 where the sound is heard. If the distance between the sound source 301 and the point of interest 302 is larger than the predetermined threshold Lth, the sound processing device 200 does not need to perform a process of changing the sound. Further, if the distance between the sound source 301 and the point of interest 302 is larger than the reference distance, the sound is not reproduced. Therefore, the voice control process can be greatly simplified.
  • the changing unit 203 changes the sound produced from the sound source 301 to the predetermined minimum volume Vmin when the distance between the sound source 301 and the point of interest 302 is greater than the predetermined threshold Lth.
  • the other structure of the speech processing apparatus 200 of this embodiment is the same as that of embodiment mentioned above, description is abbreviate
  • the storage unit 201 stores a distance range in which the sound is changed in units of a virtual distance in the virtual space in association with the sound generated from the sound source 301.
  • the storage unit 201 stores information as illustrated in FIG. 9A.
  • the storage unit 201 associates the sound source 301 (engine of the traveling car object) and the point of interest 302 (engine sound of the traveling car object) in association with the sound “car engine sound” that is produced.
  • Distance power with the listening user character object (SO ⁇ ): Stores information to change this sound when within the range of L00 meters.
  • the storage unit 201 stores information indicating the distance range for each sound source 301 separately. This figure is merely an example of information stored in the storage unit 201, and can be arbitrarily changed and set.
  • the storage unit 201 stores a distance range for changing the sound in units of a virtual distance in the virtual space in association with the file name of the audio data to be reproduced. Also good.
  • the storage unit 201 associates a sound source 301 (for example, a traveling car object) with a point of interest in association with the sound data of the file name “onsei01.wav” (for example, the engine sound of the traveling car object).
  • 302 for example, a user character object that listens to the engine sound of a traveling car object
  • Information that changes when the distance force is within the range of S0 to 100 meters.
  • the storage unit 201 may store information indicating the distance range separately for each audio data! / ⁇ .
  • the changing unit 203 changes the sound emitted from the sound source 301 based on the distance between the sound source 301 and the point of interest 302 obtained by the determination unit 202. For example, as illustrated in FIG. 10A, the changing unit 203 decreases the volume of the sound acquired at the attention point 302 as the distance between the sound source 301 and the attention point 302 increases. In addition, when the distance between the sound source 301 and the attention point 302 becomes larger than a predetermined threshold Lth, the changing unit 203 sets the sound volume acquired at the attention point 302 to a predetermined minimum volume Vmin. Alternatively, as shown in FIG.
  • the changing unit 203 when the distance between the sound source 301 and the point of interest 302 is greater than a predetermined threshold Lth, Minimum volume Keep within the specified volume range near Vmin (Vminjow or more, Vmin_high or less). Note that in FIGS. 10A and 10B, the force shows a linear change in volume, but the present invention is not limited to this.
  • the sound processing device 200 has a sound effect that must be heard by the user for the production even if the distance between the sound source 301 and the point of interest 302 in the virtual space is sufficiently far away.
  • the sound effect can be played at an optimum volume without performing special control for the sound effect. Even if there are limits to the number of sounds that can be played simultaneously (number of playback tracks) due to hardware or software limitations, it is possible to play back audio efficiently.
  • the storage unit 201 may store the playback priority in advance in association with the sound source 301. If the priority of the sound source 301 is high, it is possible to prevent the playback from being stopped even if the distance between the sound source 301 and the point of interest 302 is long. For example, in a racing game, by setting the priority of the engine sound of a car relatively high, even if there is a limit on the number of playback tracks, the engine sound is played incorrectly when other sound effects are played. None stop.
  • step S604 of Fig. 6 described above instead of changing unit 203 within the predetermined volume range, changing unit 203 sets the volume to the predetermined minimum volume. Just make it. Since the other steps are the same, details of the flowchart are omitted.
  • the storage unit 201 further stores information indicating a combination of specific character objects.
  • FIG. 11A is a configuration example of information indicating combinations of character objects that can be the sound source 301.
  • the set information is information for identifying a combination and is typically represented by a number, but any symbol, number, code, or the like may be used.
  • the storage unit 201 stores a combination of character objects in association with this set information. For example, in this figure, character objects OBJ (2) and OBJ (3) are a set. The number of combinations stored in the storage unit 201 and the number of character objects included in one combination are arbitrary.
  • FIG. 11B is an example of a reference distance that defines an area associated with the sound source 301 and stored in the storage unit 201.
  • the storage unit 201 stores voices sounded from a character object that can be the sound source 301, a reference distance that defines an area associated with the sound source 301, and a predetermined minimum volume in association with each other.
  • a common reference distance “D2min ⁇ D ⁇ D2max” is defined for the character objects OBJ (2) and OBJ (3).
  • the character object OBJ (2) and OBJ (3) have a common minimum volume V2.
  • the storage unit 201 is included in the combinations shown in FIG. 11A, instead of storing the reference distance and the minimum volume in association with each sound source 301. As shown in FIG. 11B, the character object stores the common reference distance and the minimum volume in association with each other. As a result, the memory capacity used by the storage unit 201 can be reduced.
  • both the reference distance and the minimum volume are defined as common data, but only one of them may be common data!
  • the determination unit 202 calculates the distance between the sound source 301 and the point of interest 302 based on the coordinate value of the sound source 301 and the coordinate value of the point of interest 302, and stores the same as in the above embodiments. It is determined whether or not the attention point 302 is included in the distance range indicated by the reference distance stored in the unit 201.
  • the changing unit 203 changes the sound produced from the sound source 301 based on the distance between the sound source 301 and the point of interest 302 calculated by the determination unit 202. In other words, the change unit 203 changes the sound volume to the volume corresponding to the distance calculated by the determination unit 202 at a predetermined timing for generating a sound effect or the like from the sound source 301 while the game is in progress. Further, when the calculated distance is not included in the range indicated by the reference distance, the changing unit 203 changes the sound volume to the lowest volume stored in the storage unit 201.
  • the playback unit 204 plays back the sound changed by the changing unit 203.
  • This embodiment is a combination of the above-described embodiments.
  • the storage unit 201 stops reproduction as in the second embodiment or implements it.
  • a flag for designating whether or not to continue playback at the minimum volume as in form 3 may be stored in association with the sound source 301.
  • this flag is set to “0” when controlling as in the second embodiment and “1” when controlling as in the third embodiment.
  • the changing unit 203 and the reproducing unit 204 may be configured to use the voice control processing of the above-described embodiment based on the flag value.
  • the storage unit 201 may store this flag in association with the file name of the audio data to be reproduced. Also, as shown in FIG. 12C, even when the playback distance range is set to a value that is sufficiently large so that the distance can be regarded as substantially infinite, it is associated with the file name or sound source 301 of the playback audio data. This flag can be stored.
  • the sound source 301 is described as a moving car object.
  • An arbitrary character object may be a sound source regardless of whether the object itself moves. It goes without saying that it can be 301.
  • the attention point 302 has been described as the position where the user character object is placed. However, the attention point 302 is not limited to this, but the position of the virtual camera placed in the virtual space, the first-person viewpoint in the virtual space, and the like. May be.
  • the changing unit 203 is a force that changes the volume of the sound produced from the sound source 301.
  • the present invention is not limited to this.
  • the changing unit 203 performs other sound control such as an effect of echoing sound and an effect of attenuating or amplifying a specific frequency component. May be configured. Thereby, a more realistic sound effect can be realized.
  • the changing unit 203 may perform the voice control process in consideration of the line-of-sight direction at the point of interest 302 where the voice is heard in the virtual space. For example, when the direction vector from the point of interest 302 toward the sound source 301 is in the predetermined range near or coincides with the line-of-sight vector, the sound volume generated from the sound source 301 is changed to increase. It can also be made. As a result, it is possible to realize a more realistic performance by combining the visual effect and the sound effect. [0123] In addition, the storage unit 201 sets the same priority for specific character objects, and the changing unit 203 sets the character objects when the character objects having the same priority become the sound source 301.
  • a program for operating the audio processing device 200 as all or part of the device is recorded on a computer-readable recording medium such as a memory card, CD-ROM, DVD, or MO (Magneto Optical disk). It may be stored and distributed, installed in another computer, operated as the above-mentioned means, or the above-mentioned steps may be executed.
  • a computer-readable recording medium such as a memory card, CD-ROM, DVD, or MO (Magneto Optical disk). It may be stored and distributed, installed in another computer, operated as the above-mentioned means, or the above-mentioned steps may be executed.
  • the program is stored in a disk device or the like of a server device on the Internet, and is downloaded onto a computer, for example, superimposed on a carrier wave.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

音声処理装置(200)において、記憶部(201)は発音源に対応づけられる領域を示す情報として例えば発音源から発音される音声を変化させる距離範囲を記憶する。判断部(202)は発音源とこの発音源から発音される音声を聴く位置である注目点との距離を求めて、注目点が記憶部(201)に記憶された距離範囲に存在するか否かを判断する。変化部(203)は注目点がこの距離範囲にある場合に音声を変化させる。再生部(204)は変化部(203)により変化された音声を再生する。

Description

明 細 書
音声処理装置、音声処理方法、情報記録媒体、ならびに、プログラム 技術分野
[0001] 本発明は、仮想空間内の発音源と音を聞く位置との距離に応じて効率よく音を再 生するために好適な音声処理装置、音声処理方法、情報記録媒体、ならびに、プロ グラムに関する。
背景技術
[0002] 仮想空間内のある位置に視点を置き、この視点からの仮想画像を合成して表示す るシミュレーションゲームがよく知られている。このようなゲームでは、仮想空間内にォ ブジェクトを配置し、視点力 オブジェクトまでの距離や方向などに基づ 、て視点から のオブジェクトの仮想画像を表示することによって、あた力もユーザに仮想空間内に V、るかのような現実感を起こさせる。ゲームの現実感を高める演出のひとつとして音 響効果があり、様々な工夫がなされている。例えば、特許文献 1には、効果音の発音 源と仮想カメラとの距離に基づいて異なる 2つのサウンドデータのミキシング比率を変 えて、仮想カメラの位置で聞こえる音を再生するゲーム装置が開示されている。これ によれば、ゲーム装置は、発音源と仮想カメラとの距離が近づくと近距離用サウンド データの比率を大きくして再生して、よりリアリティのある効果音を出力することができ る。
特許文献 1:特開 2005— 046270号公報
発明の開示
発明が解決しょうとする課題
[0003] ところで、音声処理装置には効果音等を同時に再生できる数 (再生トラック数)のハ 一ドウ ア的あるいはソフトウェア的な制限がある。一方、従来の音声処理装置で再 生される効果音は、効果音の発音源とその効果音を聞く位置との距離が離れれば離 れるほど、その効果音の音量を小さくするように制御されるのが一般的である。そして
、その音量がゼロになる距離に達するまで再生を続ける場合が多い。そのため、実質 的にユーザに聞こえない程度まで効果音の音量を下げて再生する場合にもその効 果音の再生のために再生トラックを占有しまい、同時再生する音数が増えたときに本 来大きな音量で再生すべき他の効果音が正しく再生できないことがあった。また、発 音源と音を聞く位置との距離が十分遠く離れても、演出上ユーザに聞こえるようにし なければならな!/、場合には、その効果音の再生のための特別な制御を行う必要があ り面倒であった。
[0004] 本発明は、このような課題を解決するものであり、仮想空間内の発音源と音を聞く位 置との距離に応じて効率よく音を再生するために好適な音声処理装置、音声処理方 法、情報記録媒体、ならびに、プログラムを提供することを目的とする。
課題を解決するための手段
[0005] 以上の目的を達成するため、本発明の原理にしたがって、下記の発明を開示する
[0006] 本発明の第 1の観点に係る音声処理装置は、記憶部と判断部と変化部と再生部と を備える。
記憶部は、仮想空間内に配置された発音源に対応づけられる領域を記憶する。 判断部は、当該発音源について、記憶部に記憶された領域に、当該仮想空間内に 配置された注目点が含まれるカゝ否かを判断する。
変化部は、判断部により当該注目点が当該領域に含まれると判断された場合、当 該発音源と当該注目点との距離に基づいて、当該発音源力 発音される音声を変化 させる。
再生部は、変化部により変化された音声を再生する。
これにより、音声処理装置は、例えばキャラクタオブジェクトごとに設定された領域 の中にユーザキャラクタオブジェクトが存在すると、キャラクタオブジェクトとユーザキ ャラクタオブジェクトとの距離に基づ 、て、キャラクタオブジェクトから発音される音声 ごとに適切に音声を変化させることができる。すなわち、仮想空間内の発音源とその 音を聞く位置との距離に応じて効率よく再生することができる。
[0007] 本発明のその他の観点に係る音声処理装置は、記憶部と判断部と変化部と再生部 とを備える。
記憶部は、仮想空間内に配置された複数の発音源のそれぞれについて、当該発 音源の位置と、当該発音源に対応付けられる領域を定める基準距離と、当該発音源 から発音される音声の所定の最低音量とを記憶し、当該仮想空間内に配置された注 目点の位置を記憶する。
判断部は、当該複数の発音源のそれぞれについて、記憶部に記憶された発音源 の位置と注目点の位置とに基づ 、て当該発音源と当該注目点との距離を計算し、当 該発音源に対応付けられる領域に当該注目点が含まれるか否かを、計算された距離 力当該発音源の基準距離より小さいか否かにより判断する。
変化部は、判断部により当該注目点が当該領域に含まれると判断された場合、当 該複数の発音源のそれぞれから発音される音声を、当該発音源と当該注目点との距 離が大きくなると減少するように予め対応づけられた音量に変化させ、含まれないと 判断された場合、当該発音源の当該最低音量に変化させる。
再生部は、変化部により変化された音声を再生する。
これにより、音声処理装置は、例えばキャラクタオブジェクトごとに設定された領域 の中にユーザキャラクタオブジェクトが存在すると、キャラクタオブジェクトとユーザキ ャラクタオブジェクトとの距離に基づ 、て、キャラクタオブジェクトから発音される音声 ごとに適切に音声を変化させることができる。すなわち、仮想空間内の発音源とその 音を聞く注目点の位置との距離に応じて効率よく音声を再生することができる。
[0008] 記憶部は、複数の発音源の組み合わせの情報を更に記憶し、
変化部は、当該組み合わせの情報が示す発音源のそれぞれから発音される音声 の音量を一緒に変化させてもょ 、。
これにより、音声処理装置は、使用するメモリ容量を減らすことができる。
[0009] 本発明のその他の観点に係る音声処理方法は、記憶部を有する音声処理装置に て実行される音声処理方法であって、判断ステップと変ィ匕ステップと再生ステップとを 備える。
記憶部には、仮想空間内に配置された発音源に対応づけられる領域が記憶され、 判断ステップは、当該発音源について、記憶部に記憶された領域に、当該仮想空 間内に配置された注目点が含まれるカゝ否かを判断する。
変化ステップは、判断ステップにより当該注目点が当該領域に含まれると判断され た場合、当該発音源と当該注目点との距離に基づいて、当該発音源から発音される 音声を変化させる。
再生ステップは、変化ステップにより変化された音声を再生する。
これにより、この音声処理方法を用いた音声処理装置は、キャラクタオブジェクトごと に設定された領域の中にユーザキャラクタオブジェクトが存在すると、キャラクタォブ ジェタトとユーザキャラクタオブジェクトとの距離に基づ 、て、キャラクタオブジェクトか ら発音される音声ごとに適切に音声を変化させることができる。すなわち、仮想空間 内の発音源とその音を聞く位置との距離に応じて効率よく音声を再生することができ る。
本発明のその他の観点に係る音声処理方法は、記憶部を有する音声処理装置に て実行される音声処理方法であって、判断ステップと変ィ匕ステップと再生ステップとを 備える。
記憶部には、仮想空間内に配置された複数の発音源のそれぞれについて、当該 発音源の位置と、当該発音源に対応付けられる領域を定める基準距離と、当該発音 源力 発音される音声の所定の最低音量とが記憶され、当該仮想空間内に配置され た注目点の位置が記憶される。
判断ステップは、当該複数の発音源のそれぞれについて、記憶部に記憶された発 音源の位置と注目点の位置とに基づ 、て当該発音源と当該注目点との距離を計算 し、当該発音源に対応付けられる領域に当該注目点が含まれる力否かを、計算され た距離が当該発音源の基準距離より小さいか否かにより判断する。
変化ステップは、判断ステップにより当該注目点が当該領域に含まれると判断され た場合、当該複数の発音源のそれぞれから発音される音声を、当該発音源と当該注 目点との距離が大きくなると減少するように予め対応づけられた音量に変化させ、含 まれないと判断された場合、当該発音源の当該最低音量に変化させる。
再生ステップは、変化ステップにより変化された音声を再生する。
これにより、この音声処理方法を用いた音声処理装置は、キャラクタオブジェクトごと に設定された領域の中にユーザキャラクタオブジェクトが存在すると、キャラクタォブ ジェタトとユーザキャラクタオブジェクトとの距離に基づ 、て、キャラクタオブジェクトか ら発音される音声ごとに適切に音声を変化させることができる。すなわち、仮想空間 内の発音源とその音を聞く位置との距離に応じて効率よく音声を再生することができ る。
[0011] 本発明のその他の観点に係る情報記録媒体は、コンピュータを、記憶部と判断部と 変化部と再生部として機能させるプログラムを記憶する。
記憶部は、仮想空間内に配置された発音源に対応づけられる領域を記憶する。 判断部は、当該発音源について、記憶部に記憶された領域に、当該仮想空間内に 配置された注目点が含まれるカゝ否かを判断する。
変化部は、判断部により当該注目点が当該領域に含まれると判断された場合、当 該発音源と当該注目点との距離に基づいて、当該発音源力 発音される音声を変化 させる。
再生部は、変化部により変化された音声を再生する。
これにより、情報記録媒体は、このプログラムによって、コンピュータを、キャラクタォ ブジェクトごとに設定された領域の中にユーザキャラクタオブジェクトが存在すると、キ ャラクタオブジェクトとユーザキャラクタオブジェクトとの距離に基づ 、て、キャラクタォ ブジェクトから発音される音声ごとに適切に音声を変化させる装置として機能させるこ とがでさる。
[0012] 本発明のその他の観点に係る情報記録媒体は、コンピュータを、記憶部と判断部と 変化部と再生部として機能させるプログラムを記憶する。
記憶部は、仮想空間内に配置された複数の発音源のそれぞれについて、当該発 音源の位置と、当該発音源に対応付けられる領域を定める基準距離と、当該発音源 から発音される音声の所定の最低音量とを記憶し、当該仮想空間内に配置された注 目点の位置を記憶する。
判断部は、当該複数の発音源のそれぞれについて、記憶部に記憶された発音源 の位置と注目点の位置とに基づ 、て当該発音源と当該注目点との距離を計算し、当 該発音源に対応付けられる領域に当該注目点が含まれるか否かを、計算された距離 力当該発音源の基準距離より小さいか否かにより判断する。
変化部は、判断部により当該注目点が当該領域に含まれると判断された場合、当 該発音源から発音される音声を、当該発音源と当該注目点との距離が大きくなると減 少するように予め対応づけられた音量に変化させ、含まれないと判断された場合、当 該発音源の当該最低音量に変化させる。
再生部は、変化部により変化された音声を再生する。
これにより、情報記録媒体は、このプログラムによって、コンピュータを、キャラクタォ ブジェクトごとに設定された領域の中にユーザキャラクタオブジェクトが存在すると、キ ャラクタオブジェクトとユーザキャラクタオブジェクトとの距離に基づ 、て、キャラクタォ ブジェクトから発音される音声ごとに適切に音声を変化させる装置として機能させるこ とがでさる。
[0013] 本発明のその他の観点に係るプログラムは、コンピュータを、記憶部と判断部と変 化部と再生部として機能させる。
記憶部は、仮想空間内に配置された発音源に対応づけられる領域を記憶する。 判断部は、当該発音源について、記憶部に記憶された領域に、当該仮想空間内に 配置された注目点が含まれるカゝ否かを判断する。
変化部は、判断部により当該注目点が当該領域に含まれると判断された場合、当 該発音源と当該注目点との距離に基づいて、当該発音源力 発音される音声を変化 させる。
再生部は、変化部により変化された音声を再生する。
これにより、プログラムは、コンピュータを、キャラクタオブジェクトごとに設定された 領域の中にユーザキャラクタオブジェクトが存在すると、キャラクタオブジェクトとユー ザキャラクタオブジェクトとの距離に基づ 、て、キャラクタオブジェクトから発音される 音声ごとに適切に音声を変化させる装置として機能させることができる。
[0014] 本発明のその他の観点に係るプログラムは、コンピュータを、記憶部と判断部と変 化部と再生部として機能させる。
記憶部は、仮想空間内に配置された複数の発音源のそれぞれについて、当該発 音源の位置と、当該発音源に対応付けられる領域を定める基準距離と、当該発音源 から発音される音声の所定の最低音量とを記憶し、当該仮想空間内に配置された注 目点の位置を記憶する。 判断部は、当該複数の発音源のそれぞれについて、記憶部に記憶された発音源 の位置と注目点の位置とに基づ 、て当該発音源と当該注目点との距離を計算し、当 該発音源に対応付けられる領域に当該注目点が含まれるか否かを、計算された距離 力当該発音源の基準距離より小さいか否かにより判断する。
変化部は、判断部により当該注目点が当該領域に含まれると判断された場合、当 該発音源から発音される音声を、当該発音源と当該注目点との距離が大きくなると減 少するように予め対応づけられた音量に変化させ、含まれないと判断された場合、当 該発音源の当該最低音量に変化させる。
これにより、プログラムは、コンピュータを、キャラクタオブジェクトごとに設定された 領域の中にユーザキャラクタオブジェクトが存在すると、キャラクタオブジェクトとユー ザキャラクタオブジェクトとの距離に基づ 、て、キャラクタオブジェクトから発音される 音声ごとに適切に音声を変化させる装置として機能させることができる。
[0015] また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディ スク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコン ピュータ読取可能な情報記憶媒体に記録することができる。
上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ 通信網を介して配布 '販売することができる。また、上記情報記憶媒体は、コンビユー タとは独立して配布 ·販売することができる。
発明の効果
[0016] 本発明によれば、仮想空間内の発音源と音を聞く位置との距離に応じて効率よく音 を再生することができる。
図面の簡単な説明
[0017] [図 1]本発明の音声処理装置が実現される典型的な情報処理装置の概要構成を示 す図である。
[図 2]本発明の音声処理装置の構成を示す図である。
[図 3]発音源と注目点との位置関係を説明するための図である。
[図 4A]実施形態 1, 2の記憶部に記憶される情報の例を示す図である。
[図 4B]実施形態 1, 2の記憶部に記憶される情報の例を示す図である。 [図 4C]実施形態 1, 2の記憶部に記憶される情報の例を示す図である。
[図 5A]発音源と注目点との距離と、変化部により変化された音声の音量との関係の 例を示す図である。
[図 5B]発音源と注目点との距離と、変化部により変化された音声の音量との関係の 例を示す図である。
[図 6]音声制御処理を説明するためのフローチャートである。
[図 7A]発音源と注目点との距離と、変化部により変化された音声の音量と、再生部に より再生される Z再生されない領域との関係の例を示す図である。
[図 7B]発音源と注目点との距離と、変化部により変化された音声の音量と、再生部に より再生される Z再生されない領域との関係の例を示す図である。
[図 8]実施形態 2の音声制御処理を説明するためのフローチャートである。
[図 9A]実施形態 3の記憶部に記憶される情報の例を示す図である。
[図 9B]実施形態 3の記憶部に記憶される情報の例を示す図である。
[図 10A]実施形態 3の、発音源と注目点との距離と、変化部により変化された音声の 音量との関係の例を示す図である。
[図 10B]実施形態 3の、発音源と注目点との距離と、変化部により変化された音声の 音量との関係の例を示す図である。
[図 11A]実施形態 4の記憶部に記憶される情報の例を示す図である。
[図 11B]実施形態 4の記憶部に記憶される情報の例を示す図である。
[図 12A]実施形態 5の記憶部に記憶される情報の例を示す図である。
[図 12B]実施形態 5の記憶部に記憶される情報の例を示す図である。
[図 12C]実施形態 5の記憶部に記憶される情報の例を示す図である。
符号の説明
100 情報処理装置
101 CPU
102 ROM
103 RAM
104 インターフェイス 105 コントローラ
106 外部メモリ
107 画像処理部
108 DVD— ROMドライブ
109 NIC
110 音声処理部
200 音声処理装置
201 じ' 1思 p:[5
202 判断部
203 変化部
204 再生部
301 発音源
302 注目点
発明を実施するための最良の形態
[0019] 以下に本発明の実施形態を説明する。以下では、理解を容易にするため、ゲーム 用の情報処理装置を利用して本発明が実現される実施形態を説明するが、以下に 説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものでは ない。したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なもの に置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の 範囲に含まれる。
[0020] (実施形態 1)
図 1は、プログラムを実行することにより、本発明の音声処理装置の機能を果たす典 型的な情報処理装置の概要構成を示す模式図である。以下、本図を参照して説明 する。
[0021] 情報処理装置 100は、 CPU (Central Processing Unit) 101と、 ROM (Read Only Memory) 102と、 RAM (Random Access Memory) 103と、インターフェイス 104と、コ ントローラ 105と、外部メモリ 106と、画像処理部 107と、 DVD-ROM (Digital Versa tile Disk - Read Onlv Memory)ドライブ 108と、 NIC (Network Interface Card) 109と 、音声処理部 110と、を備える。
[0022] ゲーム用のプログラムおよびデータを記憶した DVD— ROMを DVD— ROMドライ ブ 108に装着して、情報処理装置 100の電源を投入することにより、当該プログラム が実行され、本実施形態の音声処理装置が実現される。
[0023] CPU 101は、情報処理装置 100全体の動作を制御し、各構成要素と接続され制 御信号やデータをやりとりする。また、 CPU 101は、レジスタ(図示せず)という高速 アクセスが可能な記憶域に対して ALU (Arithmetic Logic Unit) (図示せず)を用いて 加減乗除等の算術演算や、論理和、論理積、論理否定等の論理演算、ビット和、ビ ット積、ビット反転、ビットシフト、ビット回転等のビット演算などを行うことができる。さら に、マルチメディア処理対応のための加減乗除等の飽和演算や、三角関数等、ベタ トル演算などを高速に行えるように、 CPU 101自身が構成されているものや、コプロ セッサを備えて実現するものがある。
[0024] ROM 102には、電源投入直後に実行される IPL (Initial Program Loader)が記録 され、これが実行されることにより、 DVD— ROMに記録されたプログラムを RAM 1 03に読み出して CPU 101による実行が開始される。また、 ROM 102には、情報 処理装置 100全体の動作制御に必要なオペレーティングシステムのプログラムや各 種のデータが記録される。
[0025] RAM 103は、データやプログラムを一時的に記憶するためのもので、 DVD—R OM力も読み出したプログラムやデータ、その他ゲームの進行やチャット通信に必要 なデータが保持される。また、 CPU 101は、 RAM 103に変数領域を設け、当該 変数に格納された値に対して直接 ALUを作用させて演算を行ったり、 RAM 103 に格納された値をー且レジスタに格納してからレジスタに対して演算を行 、、演算結 果をメモリに書き戻す、などの処理を行う。
[0026] インターフェイス 104を介して接続されたコントローラ 105は、ユーザが麻雀ゲーム やトランプゲームなどのゲーム実行の際に行う操作入力を受け付ける。
[0027] インターフェイス 104を介して着脱自在に接続された外部メモリ 106には、麻雀ゲー ム等のプレイ状況 (過去の成績等)を示すデータ、ゲームの進行状態を示すデータ、 ネットワーク対戦の場合のチャット通信のログ (記録)のデータなどが書き換え可能に 記憶される。ユーザは、コントローラ 105を介して指示入力を行うことにより、これらの データを適宜外部メモリ 106に記録することができる。
[0028] DVD— ROMドライブ 108に装着される DVD— ROMには、ゲームを実現するた めのプログラムとゲームに付随する画像データや音声データが記録される。 CPU 1
01の制御によって、 DVD— ROMドライブ 108は、これに装着された DVD— ROM に対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらは R AM 103等に一時的に記憶される。
[0029] 画像処理部 107は、 DVD— ROMから読み出されたデータを CPU 101や画像処 理部 107が備える画像演算プロセッサ(図示せず)によってカ卩ェ処理した後、これを 画像処理部 107が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記 録された画像情報は、所定の同期タイミングでビデオ信号に変換され画像処理部 10 7に接続されるモニタ(図示せず)へ出力される。これにより、各種の画像表示が可能 となる。
[0030] 画像演算プロセッサは、 2次元の画像の重ね合わせ演算やアルファブレンデイング 等の透過演算、各種の飽和演算を高速に実行できる。
[0031] また、仮想 3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情 報を、 Zバッファ法によりレンダリングして、所定の視点位置から仮想 3次元空間に配 置されたポリゴンを所定の視線の方向へ俯瞰したレンダリング画像を得る演算の高速 実行も可能である。
[0032] さらに、 CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を 定義するフォント情報にしたがって、文字列を 2次元画像としてフレームメモリへ描画 したり、各ポリゴン表面へ描画することが可能である。
[0033] また、麻雀ゲームの牌の画像やトランプゲームのカードの画像などの情報を DVD —ROMに用意しておき、これをフレームメモリに展開することによって、現在の手牌 や手札を画面に表示することができるようになる。
[0034] NIC 109は、情報処理装置 100をインターネット等のコンピュータ通信網(図示せ ず)に接続するためのものであり、 LAN (Local Area Network)を構成する際に用いら れる 10BASE—TZ100BASE—T規格にしたがうものや、電話回線を用いてインタ 一ネットに接続するためのアナログモデム、 ISDN (Integrated Services Digital Netwo rk)モデム、 ADSL (Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョ ン回線を用いてインターネットに接続するためのケーブルモデム等と、これらと CPU 101との仲立ちを行うインターフェース(図示せず)により構成される。
[0035] 音声処理部 110は、 DVD— ROM力も読み出した音声データをアナログ音声信号 に変換し、これに接続されたスピーカ(図示せず)から出力させる。また、 CPU 101 の制御の下、ゲームの進行の中で発生させるべき効果音の楽曲データを読み出し、 音声をスピーカから出力させる。
[0036] 音声処理部 110では、 DVD— ROMに記録された音声データが MIDIデータであ る場合には、これが有する音源データを参照して、 MIDIデータを PCMデータに変 換する。また、 ADPCM (Adaptive Differential Pulse Code Modulation)开式や Ogg V orbis形式等の圧縮済音声データである場合には、これを展開して PCMデータに変 換する。 PCMデータは、そのサンプリング周波数に応じたタイミングで DZA (Digital /Analog)変換を行って、スピーカに出力することにより、音声出力が可能となる。
[0037] このほか、情報処理装置 100は、ハードディスク等の大容量外部記憶装置を用い て、 ROM 102、 RAM 103、外部メモリ 106、 DVD— ROMドライブ 108に装着さ れる DVD— ROM等と同じ機能を果たすように構成してもよ ヽ。
[0038] 次に、本実施形態の音声処理装置 200が行う処理について説明する。
[0039] 図 2は、本実施形態の音声処理装置 200の概要構成を示す模式図である。音声処 理装置 200は、記憶部 201と判断部 202と変化部 203と再生部 204とを備える。
[0040] 図 3は、 3次元仮想空間内に配置された発音源 301と、発音源 301から発せられる 音声が到達する注目点 302との位置関係を示す図である。発音源 301は、この仮想 空間内で移動可能なキャラクタオブジェクトであり、ゲーム進行中の所定のタイミング で音声や効果音を出す音源である。音声処理装置 200は、ゲーム進行中に発音源 3 01からの音声が聞こえるように所定の音声データの再生を開始し、あるいは発音源 3 01からの音声が聞こえないように音声データの再生を停止する。注目点 302は、典 型的にはユーザキャラクタオブジェクトが配置される位置である。このように、音声処 理装置 200のユーザは、仮想空間内に配置されたユーザキャラクタオブジェクトの位 置における、発音源 301から発せられる音声を聞くことができる。
[0041] 音声処理装置 200は、仮想空間内に配置されたユーザキャラクタオブジェクトの位 置における、発音源 301から発音される音声の音量を、発音源 301と注目点 302と の距離 Lが大きくなればなるほど小さくする。また、後述するように、音声処理装置 20 0は、発音源 301であるキャラクタオブジェクトごとに予め設定された領域を示す情報 と、距離 Lとに基づいて、発音源 301から発音される音声を制御する処理 (以下、「音 声制御処理」と呼ぶ)を行うことにより、音声を効率よく再生できるように制御する。
[0042] 記憶部 201は、仮想空間内に配置された発音源 301に対応づけて領域を示す情 報を記憶する。例えば、記憶部 201は、発音源 301に対応づけて、発音源 301と注 目点 302との距離範囲を示す情報を記憶する。本実施形態では、この情報は DVD —ROMドライブ 108に装着される DVD— ROMに予め記憶されており、 CPU 101 による制御により随時読み出される。
なお、 CPU 101と DVD— ROMドライブ 108とが協働して動作することにより、記 憶部 201として機能する。
[0043] 具体的には、例えば、記憶部 201は、図 4Aに示すように、仮想空間内における仮 想距離を単位として、発音源 301に対応付けられる領域を定める基準距離を記憶す る。本図の場合、記憶部 201は、発音される音声「車のエンジン音」に対応づけて、 発音源 301 (走行する車オブジェクトのエンジン)と注目点 302 (走行する車オブジェ タトのエンジン音を聞くユーザキャラクタオブジェクト)との距離力 S〇〜 100メートルの範 囲内のとき、この音声が再生される旨の情報を記憶する。言い換えれば、記憶部 201 は、発音源 301と注目点 302との距離が 100メートルを超えると再生部 204による再 生を停止する旨の情報を記憶する。このように、記憶部 201は、個々の発音源 301又 は発音される音声について別々に距離範囲を示す情報を記憶する。
[0044] あるいは、記憶部 201は、図 4Bに示すように、音声データのファイル名に対応づけ て、仮想空間内における仮想距離を単位として基準距離を記憶してもよい。本図の 場合、記憶部 201は、ファイル名「onsei01.wav」の音声データ (例えば、走行する車 オブジェクトのエンジン音)に対応づけて、発音源 301 (例えば、走行する車オブジェ タト)と注目点 302 (例えば、走行する車オブジェクトのエンジン音を聞くユーザキャラ クタオブジェクト)との距離が 0〜: LOOメートルの範囲内のときに再生される旨の情報 を記憶する。このように、記憶部 201は、個々の音声データについて別々に距離範 囲を示す情報を記憶してもよ ヽ。
[0045] また、発音源 301の仮想空間内での位置に関係なく(発音源 301と注目点 302との 距離に関係なく)発音源 301からの音声を再生させたい場合、記憶部 201に記憶さ れる情報は、図 4Cに示すように、再生する距離範囲として実質的に距離が無限遠と 見なせるほど十分大きな値 Linl^用いて設定されればょ 、。
[0046] 例えば、記憶部 201は、各々の効果音等に固有番号を付して、この固有番号に対 応づけて基準距離を記憶してもよい。また、個々の発音源 301や、発音源 301となり 得るキャラクタオブジェクトの種類に対応づけて、基準距離を記憶してもよ ヽ。
[0047] 記憶部 201に記憶される、発音源 301に対応づけられる基準距離は、上述した発 音源 301と注目点 302との距離範囲を示す情報に限られない。例えば、記憶部 201 は、障害物による音の遮蔽や反射を考慮した、音声を伝達させる領域、方向、あるい は伝達速度などを記憶してもよい。これにより、更に現実感のある音響効果を効率よ く得ることがでさる。
[0048] また、再生する距離範囲を示す情報を記憶する、音声データの所定のフォーマット を定義して用いてもよい。これにより、記憶部 201に記憶するデータの管理を簡略ィ匕 することができる。また、所定のフォーマットを用いた音声データを再生する場合には 後述する本発明の音声制御処理によって再生を行い、他のフォーマットでは本発明 の音声制御処理を行わな 、ように制御することができる。
[0049] 記憶部 201は、これらの情報を ROM 102や外部メモリ 106等の他の記憶媒体に 記憶するように構成してもよ 、。
[0050] また、発音源 301と注目点 302との距離範囲を示すデータを予め備えるプログラム として実現されるものであってもよ 、。
[0051] 判断部 202は、仮想空間内に配置された発音源 301の座標値と、発音源 301から 発音される音声の注目点 302の座標値とに基づ 、て、発音源 301と注目点 302との 距離を求め、記憶部 201に記憶された距離範囲に注目点 302が含まれる力否かを 判断する。仮想空間内に複数の発音源 301が配置されている場合には、判断部 20 2は、発音源 301ごとに発音源 301と注目点 302との距離を求めて、記憶部 201に記 憶された距離範囲に注目点 302が含まれるカゝ否かを判断する。判断部 202は、この 判断結果を変化部 203に入力する。
なお、 CPU 101と画像処理部 107とが協働して動作することにより、判断部 202と して機能する。
[0052] ここで、各々の座標値は一般に広く用いられている座標系を用いて表現される。例 えば、仮想空間は、直交する 3軸を用いた直交座標系や、 1個の動径と 2個の偏角を 用いた球座標のような極座標系で表現される。あるいは、仮想空間の全体を表現す るグローバル座標系(ワールド座標系)と、キャラクタオブジェクトごとのローカル座標 系 (ボディ座標系)とを別々に設定して座標計算等を行う構成を採用してもよい。
[0053] 変化部 203は、判断部 202によって求められた発音源 301と注目点 302との距離 に基づいて、発音源 301から発音される音声を変化させる。すなわち、変化部 203は 、ゲーム進行中に発音源 301から効果音等を発音させる所定のタイミングになると、 判断部 202によって求められた距離に対応する音量を求める。
なお、 CPU 101と音声処理部 110とが協働して動作することにより、変化部 203と して機能する。
[0054] 音声データのフォーマットは任意である。音声処理装置 200は、このフォーマットに 対応した音声再生用の所定のプログラム等を予め記憶した DVD— ROMや ROM1 02等力もこのプログラム等を読み出して実行し、音声データを再生できればよ!、。
[0055] 具体的には、例えば、変化部 203は、図 5Aに示すように、発音源 301と注目点 30 2との距離が大きくなるにつれて、注目点 302で取得される発音源 301からの音声の 音量を小さくする。発音源 301と注目点 302との距離が所定のしきい値 Lthより大きく なると、変化部 203は発音源 301からの音声の音量を所定の音量値 Vc近傍 (Vc_low 以上、 V high以下の範囲)に維持する。
[0056] また、例えば、変化部 203は、図 5Bに示すように、発音源 301と注目点 302との距 離が大きくなるにつれて、注目点 302で取得される発音源 301からの音声の音量を 小さくする。発音源 301と注目点 302との距離が、発音源 301から発音される音声が 聞こえない程度に十分離れると、変化部 203は、所定の最低音量に維持する。典型 的には、変化部 203は、音量をゼロあるいはゼロの近傍に維持する。このように、変 化部 203は、距離が領域 510内であれば音量を変化させ、距離が領域 520内であ れば音量を変化させない。
[0057] 再生部 204は、変化部 203により変化された音声を再生する。すなわち、再生部 2 04は、発音源 301から発音される音声に対応する音声データを取得し、この音声デ ータに対応した所定のプログラム等でデコードして、変化部 203によって音量などが 変化された音声を再生する。
[0058] 音声データを読み出すタイミングは再生部 204が音声データの再生を開始する前 であればょ 、。 DVD— ROMなどの情報記録媒体に格納されて 、る音楽データをス トリーム再生する場合にも本発明を適用することができる。
[0059] 例えば、注目点 302で取得される発音源 301からの音声力 図 5Aに示すように変 化部 203により変化されたとする。再生部 204は、発音源 301と注目点 302との距離 力 SO以上しきい値 Lth以下のとき、音量をだんだんと小さくする。一方、発音源 301と 注目点 302との距離がしきい値 Lthを超えると、音量値 Vc近傍の所定の音量範囲内 に音量を維持する。これにより、再生部 204により再生されるこの音声の音量は、実 質的に音量 Vc付近で一定になる。
[0060] また、例えば、注目点 302で取得される発音源 301からの音声が、図 5Bに示すよう に変化部 203により変化されたとする。再生部 204は、発音源 301と注目点 302との 距離がしきい値 Lthを超えると、音量値をゼロにする。これにより、再生部 204は、発 音源 301からの音声をユーザに聞こえないようにすることができる。なお、図 5Aと図 5 Bでは音量の変化を直線的に示しているが、これに限られず任意に設定することがで きる。音量は距離とともに単調減少することが望ましい。
[0061] 次に、本実施形態の CPU 101等が実行する音声制御処理について、図 6のフロ 一チャートを用いて説明する。以下の説明では、仮想空間内を走行する車オブジェ タト (キャラクタオブジェクト)力も発音される音声 (例えば、エンジン音)を、同じく仮想 空間内に配置されるユーザキャラクタオブジェクトの位置で聞く場合を例に説明する
[0062] まず、判断部 202は、発音源 301であるキャラクタオブジェクトと、注目点 302である ユーザキャラクタオブジェクトとの距離を求める(ステップ S601)。
[0063] 次に、判断部 202は、注目点 302が所定の領域内に含まれる力否かを判断する (ス テツプ S602)。例えば、判断部 202は、発音源 301である走行する車オブジェクトに 対応づけられて 、る距離範囲を示す情報を記憶部 201から取得して、ステップ S601 で求めた距離がこの距離範囲に含まれる力否かを判断する。ただし、記憶部 201〖こ 記憶される、所定の領域を示す情報は、注目点 302からの距離範囲を示す情報に限 られない。例えば、障害物による音の遮蔽や反射を考慮した領域を示す情報でもよ い。
[0064] 注目点 302が所定の領域内に含まれない場合 (ステップ S602 ; NO)、判断部 202 は音声制御処理を終了する。つまり、この場合には発音源 301からの音声は再生さ れない。発音源 302から発音される音声を再生中であれば、再生部 204は再生を停 止する。
[0065] 注目点 302が所定の領域内に含まれる場合 (ステップ S602 ; YES)、変化部 203 は、ステップ S601で求めた距離が所定のしきい値 Lthより大きいか否かを判定する( ステップ S603)。
[0066] 求めた距離が所定のしきい値 Lthより大きい場合 (ステップ S603 ; YES)、変化部 2 03は、発音源 301から発音される音声(走行する車オブジェクトのエンジン音)の音 量を所定の音量範囲内に維持する (ステップ S604)。
[0067] 一方、求めた距離が所定のしきい値 Lth以下の場合 (ステップ S603 ; NO)、変化部 203は、発音源 301から発音される音声に対応する音声データを取得する (ステップ S605)。なお、直前に同じ音声データを再生し RAM 103などにキャッシュデータと して残っている場合など、すでに音声データを取得しているときにはこのステップを省 略することができる。
[0068] さらに、変化部 203は、ステップ S601で求めた距離に基づいて音量を変化させる( ステップ S606)。例えば、変化部 203は、発音源 301と注目点 302との距離が大きけ れば大きいほど、音量を小さく変化させる。
[0069] そして、再生部 204は、ステップ S604又は S606で変化された音声を再生して出 力する(ステップ S607)。 [0070] このように、音声処理装置 200は、記憶部 201に記憶された、発音源 301に対応づ けられた領域に基づいて、発音源 301から発音される音声を変化させる。すなわち、 音声処理装置 200は、仮想空間内の発音源 301とその音を聞く注目点 302との距離 に応じて音量を変えることで、注目点 302で聞こえる音を効率よく再生することができ る。
[0071] なお、本実施形態では、音声再生装置 200は発音源 301ごとに音声を変化させて 再生しているが、発音源 301の種類 (例えば敵キャラクタか味方キャラクタか等)ごと に、上述の音声制御処理によって再生する力否かを制御することもできる。この場合 、例えば、記憶部 201は発音源 301に対応づけて発音源 301の属性情報 (例えば、 敵か味方か、優先的に再生するか否力、など)を更に記憶し、変化部 203等はこの属 性情報に基づ 、て上述の音声制御処理によって再生するか否かを制御すればょ 、 。あるいは、音声データの種類やファイル形式に基づいて、上述の音声制御処理を 行うか否かを制御してもよ!/、。
[0072] (実施形態 2)
次に、本発明の他の実施形態について説明する。本実施形態では、変化部 203及 び再生部 204は、発音源 301と注目点 302との距離が所定の基準距離 Lcより大きい 場合に、発音源 301から発音される音声の処理を停止する。なお、本実施形態の音 声処理装置 200のその他の構成は上述した実施形態と同様であるため説明を省略 する。以下、詳述する。
[0073] 記憶部 201は、発音源 301から発音される音声に対応づけて、その音声を再生さ せる領域を記憶する。例えば、記憶部 201は、図 4Aに示されるような情報を記憶す る。本図の場合、記憶部 201は、発音される音声「車のエンジン音」に対応づけて、 発音源 301 (走行する車オブジェクトのエンジン)と注目点 302 (走行する車オブジェ タトのエンジン音を聞くユーザキャラクタオブジェクト)との距離力 S〇〜 100メートルの範 囲内のとき、この音声が再生される旨の情報を記憶する。ただし、距離は仮想空間内 における仮想距離である。記憶部 201は、個々の発音源 301について別々に距離 範囲を示す情報を記憶する。なお、本図は記憶部 201に記憶される情報の一例にす ぎず、任意に変えて設定することができる。 [0074] 変化部 203は、発音源 301と注目点 302との距離が所定の基準距離 Lcより大きい 場合に、発音源 301から発音される音声を変化させる処理を停止する。すなわち、こ の場合、変化部 203は音量を変化させない。
[0075] 再生部 204は、発音源 301と注目点 302との距離が所定の基準距離 Lcより大きい 場合に、変化部 203によって変化された音声を再生する処理を行わない。すなわち 、この場合、再生部 204は発音源 302からの音声を再生しない。例えば、再生部 204 が注目点 302の近くを走行する車オブジェクト (発音源 301)力も発音されるエンジン 音を再生し、この発音源 301が注目点 302からだんだん遠ざ力るように移動している とする。このとき、再生部 204は、発音源 301と注目点 302との距離が所定の基準距 離 Lcよりも大きくなると、車オブジェクトから発音されるエンジン音の再生を停止する。
[0076] 図 7Aは、本実施形態の音声制御処理により出力される、発音源 301から発音され る音声の音量を示す図の例である。変化部 203は、この発音源 301に対応づけられ た領域 (本図では距離範囲)を示す情報を記憶部 201から取得する。注目点 302が この領域内にあり、且つ、距離が 0以上、 Lth以下の場合、音量を距離とともに小さく する。そして、距離がしきい値 Lthより大きくなると、変化部 203は、この音声の音量を 所定の音量 Vth近傍に維持する。さらに、発音源 301と注目点 302の距離が所定の 基準距離 Lcより大きくなると、再生部 204はこの音声の再生を停止する。すなわち、 再生部 204は、距離が領域 710内にあれば発音源 301からの音声を再生し、領域 7 20内にあれば、発音源 301からの音声を再生しない。
[0077] これにより、音声処理装置 200は、ハードウェア的あるいはソフトウェア的な制限に より同時に再生できる音数 (再生トラック数)に限界がある場合でも効率よく音を再生 できる。すなわち、実質的に聞こえない音声を再生するために再生トラックを占有して しまうことにより同時再生する音数が増えたときに本来大きな音量で再生すべき他の 効果音が正しく再生できない、ということがない。音声処理装置 200は、仮想空間内 の発音源 301とその音を聞く注目点 302との距離に応じて音声を再生する力あるい は再生しな 、ように制御して、効率よく音を再生することができる。
[0078] また、音声処理装置 200は、発音源 301と注目点 302との距離が所定の基準距離 Lcより大きい場合に、発音源 301から発音される音声を変化させる処理を省略するこ とができる。すなわち、従来は、発音源 301と注目点 302との距離に基づいて音声を 変化させる所定の演算 (例えば、音の反射や遮蔽などの影響を考慮する演算)を行 V、、その演算の結果得られる音量が所定量より小さければ再生しな 、ように制御して いた。しかし、本発明によれば、この所定の演算を行わずに音声を再生する力否かを 判断でき、音声を再生する処理を大幅に簡略ィ匕することができる。
[0079] この所定の基準距離 Lcとして、記憶部 201に記憶された、発音源 301に対応づけ られる領域を示す情報を用いてもよい。この場合、領域を示す情報は、発音源 301か らの音声を再生する距離範囲を示す情報である。これにより、音声処理装置 200は、 発音源 301に対応づけられる距離範囲内に注目点 302がなければ、変化部 203〖こ より音声を変化させず、且つ、再生部 204による再生を行わないので、更に音声制御 処理を簡略ィ匕することができる。
[0080] 図 7Bは、変化部 203が音声を変化させる力否かの判定に用いられるしきい値 Lthと 、再生部 204がこの音声を再生する力否かの判定に用いられる基準距離 Lcとを一致 させた場合の、発音源 301から発音される音声の音量を示す図の例である。発音源 301と注目点 302との距離が所定の基準距離 Lc以内のとき、変化部 203はこの音声 の音量をだんだん小さく変化させ、再生部 204は変化された音声を再生する。そして 、この基準距離 Lcを超えると、変化部 203はこの音声を変化させず、かつ、再生部 2 04はこの音声の再生を行わな!/、。
[0081] なお、発音源 301と注目点 302との距離がこの所定の基準距離 Lcより大きい場合 には、発音源 301から発音される音声は再生部 204により再生されないので、変化 部 203はこの音声を変化させても変化させなくてもよい。音声制御処理を簡略化する ためには、変化部 203は音声を変化させる処理も行わないことが望ましい。
[0082] 次に、本実施形態の CPU 101等が実行する音声制御処理について、図 8のフロ 一チャートを用いて説明する。
[0083] まず、判断部 202は、発音源 301と注目点 302との距離を求める(ステップ S801)。
[0084] 次に、判断部 202は、注目点 302が記憶部 201に記憶された領域内に含まれるか 否かを判断する (ステップ S802)。
[0085] 注目点 302が領域内に含まれない場合 (ステップ S802 ; NO)、判断部 202は音声 制御処理を終了する。つまり、この場合には発音源 301からの音声は再生されない。 注目点 302から発音される音声を再生中であれば、再生部 204は再生を停止する。
[0086] 注目点 302が領域内に含まれる場合 (ステップ S802 ; YES)、変化部 203は、ステ ップ S801で求めた距離が所定の基準距離 Lcより大きいか否かを判定する (ステップ S803)。
[0087] 距離が基準距離 Lcより大き 、場合 (ステップ S803; YES)、再生部 204は、発音源
301から発音される音声の再生を停止する (ステップ S804)。
[0088] 距離が基準距離 Lc以下の場合 (ステップ S803 ; NO)、変化部 203は、発音源 301 と注目点 302との距離が所定のしきい値 Lthより大きいか否かを判定する (ステップ S
805)。
[0089] 距離がしきい値 Lthより大きい場合 (ステップ S805 ; YES)、変化部 203は、発音源
301から発音される音声を変化させな 、 (ステップ S806)。
[0090] 一方、距離がしきい値 Lth以下の場合 (ステップ S805 ; NO)、変化部 203は、発音 源 301から発音される音声に対応する音声データを取得する (ステップ S807)。
[0091] さらに、変化部 203は、ステップ S801で求めた距離に基づいて音量を変化させる( ステップ S808)。例えば、変化部 203は、発音源 301と注目点 302との距離が大きけ れば大きいほど、音量を小さく変化させる。
[0092] そして、再生部 204は、発音源 302からの音声を再生して出力する (ステップ S809
) o
[0093] このように、音声処理装置 200は、発音源 301が所定の基準距離 Lcより近くにあれ ば音声の再生を行い、この基準距離 Lcより遠くにあれば音声の再生を停止する。こ れにより、音声処理装置 200は、仮想空間内の発音源 301とその音を聞く注目点 30 2との距離に応じて効率よく音を再生することができる。音声処理装置 200は、発音 源 301と注目点 302との距離が所定のしきい値 Lthより大きければ音声を変化させる 処理を行う必要がない。さらに、発音源 301と注目点 302との距離が基準距離 ょり 大きければ音声を再生しない。そのため、音声制御処理を大幅に簡略化することが できる。
[0094] (実施形態 3) 次に、本発明の他の実施形態について説明する。本実施形態では、変化部 203は 、発音源 301と注目点 302との距離が前述の所定のしきい値 Lthより大きい場合に、 発音源 301から発音される音声を所定の最低音量 Vminに変化させる。なお、本実施 形態の音声処理装置 200のその他の構成は上述した実施形態と同様であるため、 重複する部分については説明を省略する。以下、詳述する。
[0095] 記憶部 201は、発音源 301から発音される音声に対応づけて、仮想空間内におけ る仮想距離を単位として、その音声を変化させる距離範囲を記憶する。例えば、記憶 部 201は、図 9Aに示されるような情報を記憶する。本図の場合、記憶部 201は、発 音される音声「車のエンジン音」に対応づけて、発音源 301 (走行する車オブジェクト のエンジン)と注目点 302 (走行する車オブジェクトのエンジン音を聞くユーザキャラク タオブジェクト)との距離力 SO〜: L00メートルの範囲内のとき、この音声を変化させる旨 の情報を記憶する。記憶部 201は、個々の発音源 301について別々に距離範囲を 示す情報を記憶する。なお、本図は記憶部 201に記憶される情報の一例にすぎず、 任意に変えて設定することができる。
[0096] あるいは、記憶部 201は、図 9Bに示すように、再生する音声データのファイル名に 対応づけて、仮想空間内における仮想距離を単位として、音声を変化させる距離範 囲を記憶してもよい。本図の場合、記憶部 201は、ファイル名「onsei01.wav」の音声 データ(例えば、走行する車オブジェクトのエンジン音)に対応づけて、発音源 301 ( 例えば、走行する車オブジェクト)と注目点 302 (例えば、走行する車オブジェクトの エンジン音を聞くユーザキャラクタオブジェクト)との距離力 S0〜 100メートルの範囲内 のときに変化される旨の情報を記憶する。このように、記憶部 201は、個々の音声デ ータにつ ヽて別々に距離範囲を示す情報を記憶してもよ!/ヽ。
[0097] 変化部 203は、判断部 202によって求められた発音源 301と注目点 302との距離 に基づいて、発音源 301から発せられる音声を変化させる。例えば、図 10Aに示す ように、変化部 203は、発音源 301と注目点 302との距離が大きくなるにつれて、注 目点 302で取得される音声の音量を小さくする。また、変化部 203は、発音源 301と 注目点 302との距離が所定のしきい値 Lthより大きくなると、注目点 302で取得される 音声の音量を所定の最低音量 Vminにする。 [0098] あるいは、変化部 203は、図 10Bに示すように、発音源 301と注目点 302との距離 が所定のしきい値 Lthより大きくなると、注目点 302で取得される音声の音量を、最低 音量 Vmin近傍の所定の音量範囲内(Vminjow以上、 Vmin_high以下)に維持する。な お、図 10Aと図 10Bでは音量の変化を直線的に示している力 これに限られるもので はない。
[0099] 本実施形態では、上述の実施形態と異なり、発音源 301と注目点 302との距離が 大きくなつても、再生部 204による音声の再生が停止されることはなぐ少なくとも所 定の最低音量以上の音量で再生される。
[0100] これにより、音声処理装置 200は、仮想空間内の発音源 301と注目点 302との距 離が十分遠く離れても演出上ユーザに聞こえるようにしなければならない効果音があ る場合に、その効果音のための特別な制御を行うことなぐ最適な音量で効果音を再 生することができる。そして、ハードウェア的あるいはソフトウェア的な制限により同時 に再生できる音数 (再生トラック数)に限界がある場合でも、効率よく音声を再生する ことができる。
[0101] 記憶部 201は、発音源 301に対応づけて再生の優先度を予め記憶してもよい。発 音源 301の優先度が高ければ発音源 301と注目点 302との距離が離れても再生を 停止させないようにすることができる。例えば、レーシングゲームで、車のエンジン音 の優先度を相対的に高くしておくことにより、再生トラック数に制限があっても他の効 果音を再生したときに誤ってエンジン音の再生が停止してしまうことがない。
[0102] また、再生の優先度が設定された発音源 301が仮想空間内に複数個存在する場 合、これらの発音源 301のうち優先度の高!、順に所定数 (例えば再生トラック数)の 発音源 301を抽出し、抽出された発音源 301から発音される音声のみを変化させる 力あるいは再生するように構成することもできる。
[0103] なお、本実施形態では、上述の図 6のステップ S604で、変化部 203が音量を所定 の音量範囲内にする代わりに、変化部 203が音量を所定の最低音量にするように構 成すればよい。その他のステップは同様であるため、フローチャートの詳細は省略す る。
[0104] (実施形態 4) 次に、本発明の他の実施形態について説明する。本実施形態は、キャラクタォブジ ヱタトから発音される音声の音声制御処理をまとめて管理できる点で、上述の各実施 形態と異なる。以下詳述する。
[0105] 記憶部 201は、特定のキャラクタオブジェクト同士の組み合わせを示す情報をさら
B己 ΐ す 0
[0106] 図 11Aは、発音源 301と成り得るキャラクタオブジェクトの組み合わせを示す情報の 構成例である。セット情報は、組み合わせを識別するための情報であり、典型的には 番号で表されるが、任意の記号、番号、符号などを用いてもよい。記憶部 201は、こ のセット情報に対応付けてキャラクタオブジェクトの組み合わせを記憶する。例えば 本図では、キャラクタオブジェクト OBJ (2)と OBJ (3)がー緒のセットになっている。記 憶部 201が記憶する組み合わせの数や、 1つの組み合わせに含まれるキャラクタォ ブジエタトの数は任意である。
[0107] 図 11Bは、記憶部 201に記憶される、発音源 301に対応付けられる領域を定める 基準距離の例である。記憶部 201は、発音源 301と成り得るキャラクタオブジェクトか ら発音される音声と、発音源 301に対応付けられる領域を定める基準距離と、所定の 最低音量とを対応付けて記憶する。例えば、キャラクタオブジェクト OBJ (2)と OBJ (3 )には、共通の基準距離「D2min≤D≤D2max」が定義されている。また、キャラクタ オブジェクト OBJ (2)と OBJ (3)には、共通の最低音量 V2が定義されて 、る。
[0108] このように、本実施形態では、記憶部 201は、各々の発音源 301に対応付けて基 準距離と最低音量を記憶する代わりに、図 11 Aに示すような組み合わせに含まれる 各キャラクタオブジェクトには図 11Bに示すように共通の基準距離と最低音量とを対 応付けて記憶する。これによつて、記憶部 201が使用するメモリ容量を減らすことがで きる。
[0109] 本実施形態では基準距離と最低音量の両方を共通データとして定義しているが、 どちらか一方のみを共通データとしてもよ!、。
[0110] 判断部 202は、上述の各実施形態と同様に、発音源 301の座標値と注目点 302の 座標値とに基づいて、発音源 301と注目点 302との距離を計算し、記憶部 201に記 憶された基準距離が示す距離範囲に注目点 302が含まれるか否かを判断する。 [0111] 変化部 203は、判断部 202によって計算された発音源 301と注目点 302との距離 に基づいて、発音源 301から発音される音声を変化させる。すなわち、変化部 203は 、ゲーム進行中に発音源 301から効果音等を発音させる所定のタイミングになると、 判断部 202によって計算された距離に対応する音量に変化させる。また、計算された 距離が基準距離が示す範囲に含まれない場合には、変化部 203は記憶部 201に記 憶された最低音量に変化させる。
[0112] そして、再生部 204は、変化部 203により変化された音声を再生する。
[0113] 例えば、仮想空間内を走行する車オブジェクトと、この車オブジェクトに搭乗するキ ャラクタオブジェクトとが存在する場合、車オブジェクトから発音される音声 (例えば、 エンジン音など)と搭乗するキャラクタオブジェクトから発音される音声 (例えば、セリフ 、銃声など)の両方の音量を一緒に変化させることができる。
例えば、複数の発音源 301が接近していたり、接近していなくても注目点 302から ほぼ同じ距離の場所にあったりする場合には、それらの発音源 301を予め 1つの組 み合わせにしておけば、同じように音量を変化させることができる。
[0114] これにより、演出上両方一緒に再生されるべき音声が片方しか再生されず音響効 果に違和感を与えるようなことはない。すなわち、発音源 301の組み合わせを予め定 義しておけば、容易に音量を同じように大きくさせたり、小さくさせたり、停止させたり、 再生し続けさせたりすることができる。
[0115] (実施形態 5)
本実施形態は、上述の実施形態を組み合わせたものである。
記憶部 201は、図 12Aに示すように、発音源 301と注目点 302との距離が所定のし きい値より大きくなつたときに、実施形態 2のように再生を停止するか、あるいは、実施 形態 3のように最低音量で再生を続けるか、を指定するフラグを、発音源 301に対応 づけて記憶してもよい。
[0116] 例えば、このフラグには、実施形態 2のように制御する場合には「0」、実施形態 3の ように制御する場合には「1」が設定される。そして、変化部 203及び再生部 204は、 このフラグ値に基づ ヽて上述の実施形態の音声制御処理を使 、分けるように構成し てもよい。 [0117] 記憶部 201は、図 12Bに示すように、再生する音声データのファイル名に対応づけ てこのフラグを記憶するようにしてもよい。また、図 12Cに示すように、再生する距離 範囲として実質的に距離が無限遠と見なせるほど十分大きな値 Linl¾¾いて設定さ れる場合にも、再生する音声データのファイル名あるいは発音源 301に対応づけて このフラグを記憶することができる。
[0118] これにより、上述の実施形態を容易に組み合わせて実施することができる。なお、こ のフラグにより使い分けられる音声制御処理は上述の実施形態の内容に限られず、 このフラグを他の実施形態や他の任意の変形例と組み合わせて使 、分けるために用 V、ることができるのは言うまでもな!/、。
[0119] 本発明は、上述した実施形態に限定されず、種々の変形及び応用が可能である。
また、上述した実施形態を自由に組み合わせることも可能である。
[0120] 上述の実施形態では、発音源 301が移動する車オブジェクトであるものとして説明 したが、これに限られるものではなぐオブジェクト自身が移動する Zしないに関わら ず、任意のキャラクタオブジェクトが発音源 301と成りうることは言うまでもない。また、 注目点 302はユーザキャラクタオブジェクトが配置される位置であるとして説明したが 、これに限られるものではなぐ仮想空間内に配置された仮想カメラの位置や、仮想 空間内の一人称視点などであつてもよい。
[0121] 上述の実施形態では、変化部 203は発音源 301から発音される音声の音量を変化 させる力 これに限られるものではない。例えば、変化部 203は、発音源 301に対応 づけられた領域に注目点 302が存在する場合に、音声を反響させるエフェクト、特定 周波数成分を減衰あるいは増幅させるエフェクトなど他の音声制御を行うように構成 してもよい。これにより、より現実感のある音響効果を実現することができる。
[0122] 変化部 203は、仮想空間内で音声を聴く注目点 302における視線方向も考慮して 音声制御処理を行ってもよい。例えば、注目点 302から発音源 301方向への方向べ タトルが視線方向ベクトルと一致あるいはその近傍の所定範囲内にある場合に、この 発音源 301から発音される音声の音量を大きくするように変化させることもできる。こ れにより、視覚効果と音響効果とを併せてより現実感のある演出を実現することがで きる。 [0123] また、記憶部 201は、特定のキャラクタオブジェクト同士に同じ優先度を設定し、変 化部 203は、優先度が同じキャラクタオブジェクト同士が発音源 301となる場合には、 これらのキャラクタオブジェクトから発音される音声の変化量を同じにしてもょ 、。例え ば、仮想空間内を走行する車オブジェクトと、この車オブジェクトに搭乗するキャラクタ オブジェクトとに同じ優先度を設定することで、両方から発音される音声の音量を同じ よう〖こ増減させることができる。
[0124] 例えば、音声処理装置 200を装置の全部又は一部として動作させるためのプログ ラムを、メモリカード、 CD-ROM, DVD, MO (Magneto Optical disk)などのコンビ ユータ読み取り可能な記録媒体に格納して配布し、これを別のコンピュータにインスト ールし、上述の手段として動作させ、あるいは、上述の工程を実行させてもよい。
[0125] さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納 しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとして ちょい。
[0126] なお、本願については、日本国特許願 特願 2006— 085123号を基礎とする優先 権を主張し、当該基礎出願の内容をすベて本願にとりこむものとする。
産業上の利用可能性
[0127] 以上説明したように、本発明によれば、仮想空間内の発音源と音を聞く位置との距 離に応じて効率よく音を再生することができる。

Claims

請求の範囲
[1] 仮想空間内に配置された発音源に対応づけられる領域を記憶する記憶部 (201)と、 当該発音源について、前記記憶部 (201)に記憶された領域に、当該仮想空間内に 配置された注目点が含まれるカゝ否かを判断する判断部 (202)と、
前記判断部 (202)により当該注目点が当該領域に含まれると判断された場合、当該 発音源と当該注目点との距離に基づいて、当該発音源力 発音される音声を変化さ せる変化部 (203)と、
前記変化部 (203)により変化された音声を再生する再生部 (204)と、
を備えることを特徴とする音声処理装置。
[2] 仮想空間内に配置された複数の発音源のそれぞれについて、当該発音源の位置 と、当該発音源に対応付けられる領域を定める基準距離と、当該発音源から発音さ れる音声の所定の最低音量とを記憶し、当該仮想空間内に配置された注目点の位 置を記憶する記憶部 (201)と、
当該複数の発音源のそれぞれにつ 、て、前記記憶部 (201)に記憶された発音源の 位置と注目点の位置とに基づ!、て当該発音源と当該注目点との距離を計算し、当該 発音源に対応付けられる領域に当該注目点が含まれるか否かを、前記計算された距 離が当該発音源の基準距離より小さいか否かにより判断する判断部 (202)と、 前記判断部 (202)により当該注目点が当該領域に含まれると判断された場合、当該 複数の発音源のそれぞれから発音される音声を、当該発音源と当該注目点との距離 が大きくなると減少するように予め対応づけられた音量に変化させ、含まれないと判 断された場合、当該発音源の当該最低音量に変化させる変化部 (203)と、
前記変化部 (203)により変化された音声を再生する再生部 (204)と、
を備えることを特徴とする音声処理装置。
[3] 請求項 1に記載の音声処理装置であって、
前記記憶部 (201)は、複数の発音源の組み合わせの情報を更に記憶し、 前記変化部 (203)は、当該組み合わせの情報が示す発音源のそれぞれから発音さ れる音声の音量を一緒に変化させる
ことを特徴とする音声処理装置。
[4] 記憶部 (201)を有する音声処理装置にて実行される音声処理方法であって、 前記記憶部 (201)には、仮想空間内に配置された発音源に対応づけられる領域が
SC fedれ、
当該発音源について、前記記憶部 (201)に記憶された領域に、当該仮想空間内に 配置された注目点が含まれるカゝ否かを判断する判断ステップと、
前記判断ステップにより当該注目点が当該領域に含まれると判断された場合、当該 発音源と当該注目点との距離に基づいて、当該発音源力 発音される音声を変化さ せる変化ステップと、
前記変化ステップにより変化された音声を再生する再生ステップと、
を備えることを特徴とする音声処理方法。
[5] 記憶部 (201)を有する音声処理装置にて実行される音声処理方法であって、
前記記憶部 (201)には、仮想空間内に配置された複数の発音源のそれぞれについ て、当該発音源の位置と、当該発音源に対応付けられる領域を定める基準距離と、 当該発音源力 発音される音声の所定の最低音量とが記憶され、当該仮想空間内 に配置された注目点の位置が記憶され、
当該複数の発音源のそれぞれにつ 、て、前記記憶部 (201)に記憶された発音源の 位置と注目点の位置とに基づ!、て当該発音源と当該注目点との距離を計算し、当該 発音源に対応付けられる領域に当該注目点が含まれるか否かを、前記計算された距 離が当該発音源の基準距離より小さいか否かにより判断する判断ステップと、 前記判断ステップにより当該注目点が当該領域に含まれると判断された場合、当該 複数の発音源のそれぞれから発音される音声を、当該発音源と当該注目点との距離 が大きくなると減少するように予め対応づけられた音量に変化させ、含まれないと判 断された場合、当該発音源の当該最低音量に変化させる変化ステップと、
前記変化ステップにより変化された音声を再生する再生ステップと、
を備えることを特徴とする音声処理方法。
[6] コンピュータを、
仮想空間内に配置された発音源に対応づけられる領域を記憶する記憶部 (201)、 当該発音源について、前記記憶部 (201)に記憶された領域に、当該仮想空間内に 配置された注目点が含まれるカゝ否かを判断する判断部 (202)、
前記判断部 (202)により当該注目点が当該領域に含まれると判断された場合、当該 発音源と当該注目点との距離に基づいて、当該発音源力 発音される音声を変化さ せる変化部 (203)、
前記変化部 (203)により変化された音声を再生する再生部 (204)、
として機能させるプログラムを記憶することを特徴とする、コンピュータ読み取り可能な 情報記録媒体。
[7] コンピュータを、
仮想空間内に配置された複数の発音源のそれぞれについて、当該発音源の位置 と、当該発音源に対応付けられる領域を定める基準距離と、当該発音源から発音さ れる音声の所定の最低音量とを記憶し、当該仮想空間内に配置された注目点の位 置を記憶する記憶部 (201)、
当該複数の発音源のそれぞれにつ 、て、前記記憶部 (201)に記憶された発音源の 位置と注目点の位置とに基づ!、て当該発音源と当該注目点との距離を計算し、当該 発音源に対応付けられる領域に当該注目点が含まれるか否かを、前記計算された距 離が当該発音源の基準距離より小さいか否かにより判断する判断部 (202)、
前記判断部 (202)により当該注目点が当該領域に含まれると判断された場合、当該 発音源カゝら発音される音声を、当該発音源と当該注目点との距離が大きくなると減少 するように予め対応づけられた音量に変化させ、含まれないと判断された場合、当該 発音源の当該最低音量に変化させる変化部 (203)、
前記変化部 (203)により変化された音声を再生する再生部 (204)、
として機能させるプログラムを記憶することを特徴とする、コンピュータ読み取り可能な 情報記録媒体。
[8] コンピュータを、
仮想空間内に配置された発音源に対応づけられる領域を記憶する記憶部 (201)、 当該発音源について、前記記憶部 (201)に記憶された領域に、当該仮想空間内に 配置された注目点が含まれるカゝ否かを判断する判断部 (202)、
前記判断部 (202)により当該注目点が当該領域に含まれると判断された場合、当該 発音源と当該注目点との距離に基づいて、当該発音源力 発音される音声を変化さ せる変化部 (203)、
前記変化部 (203)により変化された音声を再生する再生部 (204)、
として機能させることを特徴とするプログラム。
コンピュータを、
仮想空間内に配置された複数の発音源のそれぞれについて、当該発音源の位置 と、当該発音源に対応付けられる領域を定める基準距離と、当該発音源から発音さ れる音声の所定の最低音量とを記憶し、当該仮想空間内に配置された注目点の位 置を記憶する記憶部 (201)、
当該複数の発音源のそれぞれにつ 、て、前記記憶部 (201)に記憶された発音源の 位置と注目点の位置とに基づ!、て当該発音源と当該注目点との距離を計算し、当該 発音源に対応付けられる領域に当該注目点が含まれるか否かを、前記計算された距 離が当該発音源の基準距離より小さいか否かにより判断する判断部 (202)、
前記判断部 (202)により当該注目点が当該領域に含まれると判断された場合、当該 発音源カゝら発音される音声を、当該発音源と当該注目点との距離が大きくなると減少 するように予め対応づけられた音量に変化させ、含まれないと判断された場合、当該 発音源の当該最低音量に変化させる変化部 (203)、
前記変化部 (203)により変化された音声を再生する再生部 (204)、
として機能させることを特徴とするプログラム。
PCT/JP2007/055912 2006-03-27 2007-03-22 音声処理装置、音声処理方法、情報記録媒体、ならびに、プログラム WO2007111224A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/294,736 US8189813B2 (en) 2006-03-27 2007-03-22 Audio system and method for effectively reproducing sound in accordance with the distance between a source and a position where the sound is heard in virtual space
EP07739355A EP2000187A4 (en) 2006-03-27 2007-03-22 SOUND PROCESSING APPARATUS, SOUND PROCESSING METHOD, INFORMATION RECORDING MEDIUM, AND PROGRAM
CN2007800110546A CN101410157B (zh) 2006-03-27 2007-03-22 声音处理装置和声音处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006085123A JP3949701B1 (ja) 2006-03-27 2006-03-27 音声処理装置、音声処理方法、ならびに、プログラム
JP2006-085123 2006-03-27

Publications (1)

Publication Number Publication Date
WO2007111224A1 true WO2007111224A1 (ja) 2007-10-04

Family

ID=38344712

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/055912 WO2007111224A1 (ja) 2006-03-27 2007-03-22 音声処理装置、音声処理方法、情報記録媒体、ならびに、プログラム

Country Status (7)

Country Link
US (1) US8189813B2 (ja)
EP (1) EP2000187A4 (ja)
JP (1) JP3949701B1 (ja)
KR (1) KR100995735B1 (ja)
CN (1) CN101410157B (ja)
TW (1) TWI327481B (ja)
WO (1) WO2007111224A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222306A (ja) * 2013-05-14 2014-11-27 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1027156A (ja) * 1996-07-10 1998-01-27 Nec Eng Ltd バスアービタ制御装置
JP2008188308A (ja) * 2007-02-06 2008-08-21 Copcom Co Ltd ゲーム装置、ゲームプログラムおよび記憶媒体
KR102083219B1 (ko) * 2007-09-26 2020-03-02 에이큐 미디어 인크 오디오-비주얼 내비게이션 및 통신
JP2010035978A (ja) * 2008-08-08 2010-02-18 Sega Corp ゲームプログラムおよびゲーム装置
US8520872B2 (en) * 2008-08-14 2013-08-27 Samsung Electronics Co., Ltd. Apparatus and method for sound processing in a virtual reality system
US10737185B2 (en) * 2009-03-18 2020-08-11 Microsoft Technology Licensing, Llc Virtual environment controls based on voice chat audio inputs
JP5036797B2 (ja) 2009-12-11 2012-09-26 株式会社スクウェア・エニックス 発音処理装置、発音処理方法、及び発音処理プログラム
JP5538148B2 (ja) * 2010-09-08 2014-07-02 株式会社カプコン ゲームプログラム及びゲーム装置
JP5641834B2 (ja) * 2010-09-08 2014-12-17 株式会社カプコン ゲームプログラム及びゲーム装置
JP5437317B2 (ja) * 2011-06-10 2014-03-12 株式会社スクウェア・エニックス ゲーム音場生成装置
JP2013102842A (ja) * 2011-11-11 2013-05-30 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5969200B2 (ja) 2011-11-11 2016-08-17 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP6159515B2 (ja) * 2012-09-19 2017-07-05 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理制御方法
JP6154597B2 (ja) * 2012-11-16 2017-06-28 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
CN104808962B (zh) * 2014-01-23 2019-02-05 腾讯科技(深圳)有限公司 处理播放请求的方法和装置
JP5813172B2 (ja) * 2014-04-28 2015-11-17 株式会社カプコン ゲームプログラム及びゲーム装置
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
EP3209036A1 (en) * 2016-02-19 2017-08-23 Thomson Licensing Method, computer readable storage medium, and apparatus for determining a target sound scene at a target position from two or more source sound scenes
KR101870865B1 (ko) 2016-04-15 2018-06-26 재단법인 실감교류인체감응솔루션연구단 삼차원 정보증강 비디오 씨쓰루 디스플레이 장치 및 방법, 렉티피케이션 장치
WO2017179912A1 (ko) * 2016-04-15 2017-10-19 재단법인 실감교류인체감응솔루션연구단 삼차원 정보증강 비디오 씨쓰루 디스플레이 장치 및 방법, 렉티피케이션 장치
JP6540600B2 (ja) * 2016-05-25 2019-07-10 ヤマハ株式会社 効果音生成装置、効果音生成方法およびプログラム
EP3264259A1 (en) * 2016-06-30 2018-01-03 Nokia Technologies Oy Audio volume handling
JP6670202B2 (ja) * 2016-08-10 2020-03-18 任天堂株式会社 音声処理プログラム、情報処理プログラム、音声処理方法、音声処理装置、及びゲームプログラム
EP3287867A1 (en) * 2016-08-26 2018-02-28 Nokia Technologies Oy Audio processing
EP3297298B1 (en) * 2016-09-19 2020-05-06 A-Volute Method for reproducing spatially distributed sounds
CN106531178B (zh) * 2016-11-14 2019-08-02 浪潮金融信息技术有限公司 一种音频处理方法及装置
US11096004B2 (en) 2017-01-23 2021-08-17 Nokia Technologies Oy Spatial audio rendering point extension
US11543521B2 (en) * 2017-03-09 2023-01-03 Sony Corporation Information processing apparatus, information processing method, and recording medium
US10531219B2 (en) 2017-03-20 2020-01-07 Nokia Technologies Oy Smooth rendering of overlapping audio-object interactions
US11074036B2 (en) 2017-05-05 2021-07-27 Nokia Technologies Oy Metadata-free audio-object interactions
US10165386B2 (en) 2017-05-16 2018-12-25 Nokia Technologies Oy VR audio superzoom
JP6245567B1 (ja) * 2017-06-08 2017-12-13 裕 橋本 仮想現実体験システム
US10319228B2 (en) * 2017-06-27 2019-06-11 Waymo Llc Detecting and responding to sirens
US11395087B2 (en) 2017-09-29 2022-07-19 Nokia Technologies Oy Level-based audio-object interactions
US10542368B2 (en) 2018-03-27 2020-01-21 Nokia Technologies Oy Audio content modification for playback audio
CN109550248B (zh) * 2018-11-09 2021-05-04 Oppo广东移动通信有限公司 虚拟对象位置识别方法、装置、移动终端及存储介质
JP7399623B2 (ja) 2019-03-25 2023-12-18 株式会社バンダイナムコエンターテインメント ゲームシステム、プログラム及びゲーム装置
CN110534105B (zh) * 2019-07-24 2021-10-15 珠海格力电器股份有限公司 一种语音控制方法及装置
CN114049871A (zh) * 2022-01-13 2022-02-15 腾讯科技(深圳)有限公司 基于虚拟空间的音频处理方法、装置和计算机设备
CN114627890A (zh) * 2022-05-16 2022-06-14 宏景科技股份有限公司 一种虚拟环境下多种声音的辨识方法、系统、设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11347250A (ja) 1998-06-04 1999-12-21 Enix Corp ビデオゲーム装置およびプログラムを格納した記録媒体
US20010023202A1 (en) 2000-03-13 2001-09-20 Konami Corporation Video game apparatus, background sound output setting method in video game, and computer-readable recording medium storing background sound output setting program
EP1413340A1 (en) 2002-10-22 2004-04-28 Konami Corporation Game software and game machine
JP2004242728A (ja) * 2003-02-12 2004-09-02 Nintendo Co Ltd ゲームメッセージ表示方法およびゲームプログラム
JP2004351229A (ja) * 2004-09-07 2004-12-16 Sega Corp 画像表示方法、コンピュータゲーム処理方法及び記録媒体
JP2005046282A (ja) * 2003-07-31 2005-02-24 Konami Computer Entertainment Yokyo Inc ゲーム装置、コンピュータの制御方法及びプログラム
JP2005192878A (ja) * 2004-01-08 2005-07-21 Konami Computer Entertainment Yokyo Inc ゲーム装置、ゲーム装置の制御方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3740518B2 (ja) 2003-07-31 2006-02-01 コナミ株式会社 ゲーム装置、コンピュータの制御方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11347250A (ja) 1998-06-04 1999-12-21 Enix Corp ビデオゲーム装置およびプログラムを格納した記録媒体
US20010023202A1 (en) 2000-03-13 2001-09-20 Konami Corporation Video game apparatus, background sound output setting method in video game, and computer-readable recording medium storing background sound output setting program
EP1413340A1 (en) 2002-10-22 2004-04-28 Konami Corporation Game software and game machine
JP2004242728A (ja) * 2003-02-12 2004-09-02 Nintendo Co Ltd ゲームメッセージ表示方法およびゲームプログラム
JP2005046282A (ja) * 2003-07-31 2005-02-24 Konami Computer Entertainment Yokyo Inc ゲーム装置、コンピュータの制御方法及びプログラム
JP2005192878A (ja) * 2004-01-08 2005-07-21 Konami Computer Entertainment Yokyo Inc ゲーム装置、ゲーム装置の制御方法及びプログラム
JP2004351229A (ja) * 2004-09-07 2004-12-16 Sega Corp 画像表示方法、コンピュータゲーム処理方法及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2000187A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222306A (ja) * 2013-05-14 2014-11-27 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム

Also Published As

Publication number Publication date
CN101410157A (zh) 2009-04-15
TW200744719A (en) 2007-12-16
KR20080086500A (ko) 2008-09-25
TWI327481B (en) 2010-07-21
EP2000187A4 (en) 2009-08-12
KR100995735B1 (ko) 2010-11-19
US20100260355A1 (en) 2010-10-14
JP2007259888A (ja) 2007-10-11
CN101410157B (zh) 2012-05-30
EP2000187A1 (en) 2008-12-10
US8189813B2 (en) 2012-05-29
JP3949701B1 (ja) 2007-07-25

Similar Documents

Publication Publication Date Title
WO2007111224A1 (ja) 音声処理装置、音声処理方法、情報記録媒体、ならびに、プログラム
KR101042892B1 (ko) 게임 소리 출력장치, 게임 소리 제어 방법 및 정보 기록 매체
JP3977405B1 (ja) ゲーム音出力装置、ゲーム音制御方法、および、プログラム
JP3863165B2 (ja) 音声出力装置、音声出力方法、ならびに、プログラム
JP4221035B2 (ja) ゲーム音出力装置、音像定位制御方法、および、プログラム
US8155324B2 (en) Voice processor, voice processing method, program, and information recording medium
JP5351674B2 (ja) ゲーム装置、ゲーム制御方法、ならびに、プログラム
JP2012050791A (ja) キャラクター表示装置、キャラクター表示方法、ならびに、プログラム
JP4977737B2 (ja) 音声処理装置、音声処理方法、ならびに、プログラム
WO2010084830A1 (ja) 音声処理装置、チャットシステム、音声処理方法、情報記憶媒体、ならびに、プログラム
JP4607210B2 (ja) 再生装置、再生方法、ならびに、プログラム
JP2004240065A (ja) カラオケ装置、音声出力制御方法、ならびに、プログラム
JP4437993B2 (ja) 音声処理装置、音声処理方法、ならびに、プログラム
JP4880298B2 (ja) プログラム、情報記憶媒体、及びデータ再生システム
JP4152988B2 (ja) 音声再生装置、音声再生方法、プログラム、ならびに、情報記録媒体
JPH11275700A (ja) 三次元サウンド再生プログラムが記録されたコンピュータ読み取り可能な記録媒体、及びコンピュータを利用したゲームシステム
WO2011010596A1 (ja) ゲーム装置、ゲーム制御方法、情報記憶媒体、ならびに、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07739355

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 1020087016871

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2007739355

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200780011054.6

Country of ref document: CN

Ref document number: 12294736

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE