JP2018130282A - Game program and game device - Google Patents

Game program and game device Download PDF

Info

Publication number
JP2018130282A
JP2018130282A JP2017025670A JP2017025670A JP2018130282A JP 2018130282 A JP2018130282 A JP 2018130282A JP 2017025670 A JP2017025670 A JP 2017025670A JP 2017025670 A JP2017025670 A JP 2017025670A JP 2018130282 A JP2018130282 A JP 2018130282A
Authority
JP
Japan
Prior art keywords
effect expression
feature point
game
virtual
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017025670A
Other languages
Japanese (ja)
Other versions
JP6407324B2 (en
Inventor
秀基 細井
Hideki Hosoi
秀基 細井
健二 小島
Kenji Kojima
健二 小島
佑樹 五十嵐
Yuki Igarashi
佑樹 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2017025670A priority Critical patent/JP6407324B2/en
Publication of JP2018130282A publication Critical patent/JP2018130282A/en
Application granted granted Critical
Publication of JP6407324B2 publication Critical patent/JP6407324B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a game program and a game device capable of performing various kinds of performances using game sounds, while suppressing increase of a processing load for a performance using the game sounds.SOLUTION: A game program causes a computer to function as: virtual space generation means; virtual camera control means; effect expression means for executing an effect expression; and feature point information acquisition means for acquiring information of a feature point which is at a position closest to an acquisition position of the effect expression which is set according to a position of a virtual camera, out of the plural feature points arranged in a virtual space, in which the effect expression means includes effect expression change means for processing the effect expression data on the basis of information of the acquired feature points, information of the feature point includes a reference direction where a shield which is closest to the position of the feature point is positioned, and the effect expression change means processes the effect expression data according to the reference direction in the acquired feature point.SELECTED DRAWING: Figure 6

Description

本発明は、ゲームプログラムおよびゲーム装置に関する。   The present invention relates to a game program and a game device.

近年、仮想空間内にて、プレイヤキャラクタを操作してゲームを進行させるアクションゲームが市販されている。この種のアクションゲームでは、ゲームの面白さ、興奮度、リアル感などの向上のために背景音楽(BGM)、仮想空間に応じた環境音(例えば雨、風などの周囲の音)等のゲーム音による演出が行われる。   In recent years, an action game in which a game is progressed by operating a player character in a virtual space is commercially available. In this type of action game, games such as background music (BGM) and environmental sounds (for example, ambient sounds such as rain and wind) according to the virtual space are used to improve the fun, excitement, and realism of the game. Production by sound is performed.

このようなゲーム音による演出をより効果的に行うために、プレイヤキャラクタが位置している領域に応じて、その都度、環境音等の所定のゲーム音を加工する処理を行う構成が知られている(例えば、特許文献1参照)。   In order to perform such a game sound effect more effectively, a configuration is known in which processing for processing a predetermined game sound such as an environmental sound is performed each time in accordance with the area where the player character is located. (For example, refer to Patent Document 1).

特開2013−057862号公報JP 2013-057862 A

しかし、特許文献1のような構成では、例えば、プレイヤキャラクタの位置から壁等の遮蔽物までの距離、天井までの高さ、地面または遮蔽物の材質(吸音率等)といった領域内におけるより詳細な環境の変化をゲーム音に反映することが難しい。プレイヤキャラクタの位置に応じてその周囲の状況(遮蔽物までの距離等)をレイキャストして取得することもできるが、処理負荷が大きくなってしまう。ゲーム音による演出のために処理負荷が大きくなると、ゲーム音以外の処理にも影響を与えてしまいゲーム全体の進行を阻害するおそれもある。   However, in the configuration as in Patent Document 1, for example, the details of the area such as the distance from the position of the player character to a shielding object such as a wall, the height to the ceiling, and the material of the ground or the shielding object (such as sound absorption coefficient) are more detailed. Difficult environment changes are difficult to reflect in game sounds. Depending on the position of the player character, the surrounding situation (distance to the shield, etc.) can be obtained by ray casting, but the processing load increases. If the processing load increases due to the effect of the game sound, processing other than the game sound may be affected, and the progress of the entire game may be hindered.

このような問題は、ゲーム音だけでなく、光の照射、風、雨等のエフェクト表現においても同様に生じ得る。   Such a problem may occur not only in the game sound but also in the effect expression such as light irradiation, wind, and rain.

そこで本発明は、エフェクト表現による演出のための処理負荷の増大を抑制しつつ、エフェクト表現による多彩な演出を行うことができるゲームプログラムおよびゲーム装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide a game program and a game apparatus capable of performing various effects by effect expression while suppressing an increase in processing load for effects by effect expression.

本発明の一の態様に係るゲームプログラムは、仮想空間に配置した仮想カメラで撮像した画像をゲーム画面として表示する表示部と、ゲームを進行させるコンピュータとを備えたゲームシステムにおいて前記コンピュータに実行させるゲームプログラムであって、前記コンピュータを、前記仮想空間を生成する仮想空間生成手段、前記仮想カメラの向きまたは位置を制御する仮想カメラ制御手段、予め記憶された少なくとも1つのエフェクト表現データを用いてエフェクト表現を実行するエフェクト表現手段、および前記仮想空間上に配置された複数の特徴点のうち、少なくとも、前記仮想カメラの位置に付随して設定されるエフェクト表現の取得位置に最も近い位置にある特徴点の情報を取得する特徴点情報取得手段、として機能させ、前記エフェクト表現手段は、取得した特徴点の情報に基づいて、前記エフェクト表現データを加工するエフェクト表現変更手段を含み、前記特徴点の情報は、当該特徴点の位置から最も近い遮蔽物が位置する基準方向を含み、前記エフェクト表現変更手段は、取得した特徴点における前記基準方向と前記仮想カメラの向きとの角度に応じて前記エフェクト表現データを加工する。   A game program according to an aspect of the present invention causes a computer to execute in a game system including a display unit that displays an image captured by a virtual camera arranged in a virtual space as a game screen, and a computer that advances the game. A game program, wherein the computer uses virtual space generation means for generating the virtual space, virtual camera control means for controlling the orientation or position of the virtual camera, and at least one effect expression data stored in advance. Of the plurality of feature points arranged in the virtual space, the effect expression means for executing the expression, and at least the feature closest to the acquisition position of the effect expression set in association with the position of the virtual camera Function as a feature point information acquisition means for acquiring point information, and The effect expression means includes effect expression change means for processing the effect expression data based on the acquired feature point information, and the feature point information is a reference on which a shield closest to the position of the feature point is located. The effect expression changing means processes the effect expression data according to an angle between the reference direction at the acquired feature point and the orientation of the virtual camera.

前記エフェクト表現変更手段は、取得した特徴点における前記基準方向と前記仮想カメラの向きとの角度に応じて前記エフェクト表現データを加工してもよい。   The effect expression changing unit may process the effect expression data according to an angle between the reference direction and the direction of the virtual camera at the acquired feature point.

前記エフェクト表現変更手段は、前記基準方向と前記仮想カメラの向きとの角度が小さいほど前記エフェクト表現データに基づくエフェクト表現の出力を大きくしてもよい。   The effect expression changing means may increase the output of the effect expression based on the effect expression data as the angle between the reference direction and the orientation of the virtual camera is smaller.

前記特徴点の情報は、当該特徴点に対して前記基準方向を含む所定の複数の方向において対向する遮蔽物の複数の表面位置に基づいて画される所定の基準領域の位置情報を含み、前記エフェクト表現変更手段は、前記エフェクト表現の取得位置の前記仮想カメラの向きを基準とする所定の方向における前記エフェクト表現の取得位置が含まれる基準領域の境界までの距離に基づいて前記エフェクト表現データを加工してもよい。   The feature point information includes position information of a predetermined reference area defined based on a plurality of surface positions of a shielding object facing the feature point in a plurality of predetermined directions including the reference direction, The effect expression changing means is configured to convert the effect expression data based on a distance to a boundary of a reference area including the acquisition position of the effect expression in a predetermined direction with respect to the orientation of the virtual camera of the acquisition position of the effect expression. It may be processed.

前記基準領域は、前記複数の表面位置のうち、前記特徴点と対向する遮蔽物の表面位置との距離が所定の規定距離以上である場合、前記特徴点から当該対向する方向に前記規定距離離れた位置が前記基準領域を画する境界線に含まれるように設定されてもよい。   The reference region is separated from the feature point in the facing direction when the distance between the surface position of the shielding object facing the feature point is equal to or greater than a predetermined specified distance among the plurality of surface positions. The position may be set so as to be included in the boundary line defining the reference area.

前記基準領域の境界は、前記基準方向に直交する線分を一辺に含む矩形状に形成されてもよい。   The boundary of the reference region may be formed in a rectangular shape including a line segment orthogonal to the reference direction on one side.

前記エフェクト表現変更手段は、前記音の聴取位置から前記仮想カメラの向きを含む直交する4方向において前記基準領域の境界までの距離を取得し、取得した4つの距離に基づいて前記エフェクト表現データを加工してもよい。   The effect expression changing means acquires a distance from the sound listening position to a boundary of the reference area in four orthogonal directions including the direction of the virtual camera, and the effect expression data is obtained based on the acquired four distances. It may be processed.

また、本発明の他の態様に係るゲーム装置は、上記のゲームプログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶されたプログラムを実行するコンピュータとを備えている。   A game device according to another aspect of the present invention includes a program storage unit that stores the above-described game program, and a computer that executes the program stored in the program storage unit.

本発明によれば、エフェクト表現による演出のための処理負荷の増大を抑制しつつ、エフェクト表現による多彩な演出を行うことができるゲームプログラムおよびゲーム装置を提供することができる。   According to the present invention, it is possible to provide a game program and a game apparatus capable of performing various effects by effect expression while suppressing an increase in processing load for effects by effect expression.

本発明の一実施の形態に係るゲーム装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the game device which concerns on one embodiment of this invention. 図1に示すゲーム装置が備える制御部の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the control part with which the game device shown in FIG. 1 is provided. 本実施の形態における仮想空間に配置された特徴点の一例を示す仮想空間の平面図である。It is a top view of the virtual space which shows an example of the feature point arrange | positioned in the virtual space in this Embodiment. 本実施の形態の特徴点における平均吸音率の求め方を説明するための仮想空間の平面図である。It is a top view of virtual space for demonstrating how to obtain | require the average sound absorption rate in the feature point of this Embodiment. 本実施の形態における補間処理の一例を説明するための仮想空間の平面図である。It is a top view of the virtual space for demonstrating an example of the interpolation process in this Embodiment. 本実施の形態における仮想空間における仮想カメラの向きに基づくエフェクト表現の加工処理を説明するための仮想空間の平面図である。It is a top view of the virtual space for demonstrating the processing of the effect expression based on the direction of the virtual camera in the virtual space in this Embodiment. 本実施の形態の仮想空間において隣り合う領域におけるエフェクト表現の移行処理を説明するための仮想空間の平面図である。It is a top view of the virtual space for demonstrating the transition process of the effect expression in the area | region adjacent in the virtual space of this Embodiment.

以下、本発明の実施の形態に係るゲームプログラムおよびゲーム装置について、図面を参照しつつ説明する。以下の説明では、家庭用ゲーム装置において実行されるアクションゲームを例として説明する。本実施の形態に係るアクションゲームは、仮想のゲーム空間内でプレイヤキャラクタを操作して、敵キャラクタを討伐する、アイテムを探索する、所定のイベントを攻略する等の所定のクエストを攻略することにより進行する。   Hereinafter, a game program and a game apparatus according to embodiments of the present invention will be described with reference to the drawings. In the following description, an action game executed in a home game device will be described as an example. In the action game according to the present embodiment, a player character is manipulated in a virtual game space to defeat an enemy character, search for an item, and capture a predetermined event. proceed.

[ハードウェアの構成]
図1は、本発明の一実施の形態に係るゲーム装置1の内部構成を示すブロック図である。図1に示すようにゲーム装置1は制御部30を備えている。該制御部30は、CPU11、描画データ生成プロセッサ12、RAM(Random Access Memory)13、ROM(Read Only Memory)14、描画処理プロセッサ15、および音声処理プロセッサ18を含んでいる。さらに、ゲーム装置1は、この他にもVRAM(Video-RAM)16、アンプ19、スピーカ20、イヤホン端子21、操作部22、メディアインタフェース23、無線LANモジュール24、およびバス25を備えている。そして、これらのうちCPU11、描画データ生成プロセッサ12、RAM13、ROM14、描画処理プロセッサ15、音声処理プロセッサ18、操作部22、メディアインタフェース23、および無線LANモジュール24が、バス25によって相互にデータ伝送可能に接続されている。
[Hardware configuration]
FIG. 1 is a block diagram showing an internal configuration of a game apparatus 1 according to an embodiment of the present invention. As shown in FIG. 1, the game apparatus 1 includes a control unit 30. The control unit 30 includes a CPU 11, a drawing data generation processor 12, a RAM (Random Access Memory) 13, a ROM (Read Only Memory) 14, a drawing processing processor 15, and a sound processing processor 18. The game apparatus 1 further includes a VRAM (Video-RAM) 16, an amplifier 19, a speaker 20, an earphone terminal 21, an operation unit 22, a media interface 23, a wireless LAN module 24, and a bus 25. Of these, the CPU 11, the drawing data generation processor 12, the RAM 13, the ROM 14, the drawing processing processor 15, the voice processing processor 18, the operation unit 22, the media interface 23, and the wireless LAN module 24 can mutually transmit data via the bus 25. It is connected to the.

操作部22は、方向キーおよびその他のボタン群(図示せず)を含んでおり、ユーザの操作を受け付けて、その操作内容に応じた操作情報(操作信号)をCPU11に入力する。また、方向キーおよびボタン群が有する各種のボタンは、プレイヤキャラクタの特定の動作を指示するための操作子である。また、操作部22には、これら操作子以外にゲーム装置1の電源の入/切を行うための電源スイッチ等が含まれる。   The operation unit 22 includes direction keys and other button groups (not shown), accepts a user operation, and inputs operation information (operation signal) according to the operation content to the CPU 11. In addition, various buttons included in the direction key and the button group are operators for instructing a specific action of the player character. The operation unit 22 includes a power switch for turning on / off the power of the game apparatus 1 in addition to these operators.

メディアインタフェース23は、図示しないメディア装着部にセットされたゲームメディア5にアクセスしてゲームプログラム5aおよびゲームデータ5bを読み出す。このうちゲームプログラム5aは、例えば、プレイヤキャラクタと敵キャラクタとが仮想空間にて対戦する内容のゲームを、ゲーム装置1に実行させるものである。   The media interface 23 accesses the game media 5 set in a media mounting unit (not shown) and reads the game program 5a and the game data 5b. Among these, the game program 5a is for causing the game apparatus 1 to execute a game in which, for example, a player character and an enemy character battle each other in a virtual space.

また、ゲームデータ5bには、上記ゲームを実行する上で必要なデータとして、キャラクタや背景の画像データ、ステータスなどの情報表示用の画像データ、効果音やBGMなどの音声データ、文字や記号によるメッセージデータ等が含まれている。なお、記録媒体であるゲームメディア5は、半導体メモリのほか、光ディスクの一種であるUMD(Universal Media Disc)(登録商標)を採用することができる。   The game data 5b includes data necessary for executing the game, such as character and background image data, image data for displaying information such as status, sound data such as sound effects and BGM, characters and symbols. Message data etc. are included. The game media 5 that is a recording medium can employ UMD (Universal Media Disc) (registered trademark), which is a kind of optical disc, in addition to a semiconductor memory.

RAM13には、ゲームの進行に応じてゲームメディア5から読み込まれたゲームプログラム5aおよびゲームデータ5bを格納するロードエリア、ならびに、CPU11がゲームプログラム5aを処理する際に使用するためのワークエリアが設定されている。ROM14には、ディスクローディング機能などのゲーム装置1の基本的機能、ゲームメディア5に記憶されているゲームプログラム5aおよびゲームデータ5bの読み出し処理を制御する基本プログラムが記憶されている。   In the RAM 13, a load area for storing the game program 5a and game data 5b read from the game media 5 according to the progress of the game, and a work area for use when the CPU 11 processes the game program 5a are set. Has been. The ROM 14 stores basic functions of the game apparatus 1 such as a disk loading function, and a basic program for controlling the reading process of the game program 5a and game data 5b stored in the game media 5.

CPU11は、ゲームメディア5に記録されているゲームプログラム5aおよびゲームデータ5bの全部または一部を、メディアインタフェース23を通じてRAM13に読み込む。CPU11は、ユーザによる操作部22の操作に応じてゲームプログラム5aを実行し、ゲーム進行を制御する。より具体的には、ユーザに操作されることによって操作部22から操作信号が入力されると、CPU11は、ゲームプログラム5aに従ってその操作信号に対応する所定のゲーム進行処理を行う。   The CPU 11 reads all or part of the game program 5 a and the game data 5 b recorded on the game media 5 into the RAM 13 through the media interface 23. CPU11 runs game program 5a according to operation of operation part 22 by a user, and controls game progress. More specifically, when an operation signal is input from the operation unit 22 by being operated by the user, the CPU 11 performs a predetermined game progress process corresponding to the operation signal in accordance with the game program 5a.

CPU11は、処理結果に基づいて、ゲーム進行を示す画像(以下、「ゲーム画面」)としてディスプレイ(表示部)2に表示する。さらに、CPU11は、処理結果に基づいて、ゲーム進行を示す音声信号(以下、「ゲーム音声」)を音声出力部(スピーカ20またはイヤホン端子21)に出力する。   The CPU 11 displays on the display (display unit) 2 as an image indicating the progress of the game (hereinafter, “game screen”) based on the processing result. Further, the CPU 11 outputs an audio signal indicating the game progress (hereinafter referred to as “game audio”) to the audio output unit (the speaker 20 or the earphone terminal 21) based on the processing result.

上記ゲーム画面の描画は、CPU11の指示により、描画処理プロセッサ15が行う。すなわち、CPU11は、操作部22から入力される操作信号に基づき、ディスプレイ2に表示すべきゲーム画面の内容を決定する。描画データ生成プロセッサ12は、その内容に対して必要な描画データを生成する。そして、その描画データは、描画処理プロセッサ15に転送される。   Drawing of the game screen is performed by the drawing processor 15 in accordance with an instruction from the CPU 11. That is, the CPU 11 determines the content of the game screen to be displayed on the display 2 based on the operation signal input from the operation unit 22. The drawing data generation processor 12 generates necessary drawing data for the contents. Then, the drawing data is transferred to the drawing processor 15.

描画処理プロセッサ15は、描画データに基づいて描画処理を行う。描画処理プロセッサ15は、描画データに基づいて1/60秒毎にゲーム画面を生成し、生成したゲーム画面をVRAM16に書き込む。ディスプレイ2は、半透過型カラー液晶ディスプレイとバックライトLED(Light Emitting Diode)とを有し、VRAM16に書き込まれたゲーム画面を表示する。   The drawing processor 15 performs drawing processing based on the drawing data. The drawing processor 15 generates a game screen every 1/60 seconds based on the drawing data, and writes the generated game screen in the VRAM 16. The display 2 includes a transflective color liquid crystal display and a backlight LED (Light Emitting Diode), and displays a game screen written in the VRAM 16.

また、CPU11は、ゲームの進行に応じて、スピーカ20から出力すべき効果音やBGM等の音声を決定する。CPU11は、決定した音声を出力するための音声データをRAM13から読み出して音声処理プロセッサ18に入力する。すなわち、CPU11は、ゲームの進行に伴って発音イベントが発生すると、その発音イベントに応じた音声データ(ゲームメディア5からロードされた音声データ)をRAM13から読み出して音声処理プロセッサ18に入力する。   Further, the CPU 11 determines sound effects such as sound effects and BGM to be output from the speaker 20 according to the progress of the game. The CPU 11 reads out audio data for outputting the determined audio from the RAM 13 and inputs it to the audio processor 18. That is, when a sound generation event occurs with the progress of the game, the CPU 11 reads out sound data corresponding to the sound generation event (voice data loaded from the game media 5) from the RAM 13 and inputs it to the sound processing processor 18.

音声処理プロセッサ18は、DSP(Digital Signal Processor)で構成されている。音声処理プロセッサ18は、CPU11によって入力された音声データに対して所定の効果(例えば、リバーブ、コーラスなど)を付与したのちアナログ信号に変換して、アンプ19に出力する。アンプ19は、音声処理プロセッサ18から入力された音声信号を増幅したのち、スピーカ20およびイヤホン端子21に出力する。   The audio processor 18 is constituted by a DSP (Digital Signal Processor). The audio processor 18 gives a predetermined effect (for example, reverb, chorus) to the audio data input by the CPU 11, converts it to an analog signal, and outputs it to the amplifier 19. The amplifier 19 amplifies the audio signal input from the audio processor 18 and then outputs it to the speaker 20 and the earphone terminal 21.

無線LANモジュール24は、通信規格IEEE802.11b(使用周波数帯2.4GHz、通信速度11Mbps)に準拠した無線LANによって他のゲーム装置1とデータ通信を行い、ネットワークを構成するための通信モジュールである。   The wireless LAN module 24 is a communication module for configuring a network by performing data communication with another game device 1 through a wireless LAN compliant with the communication standard IEEE802.11b (used frequency band 2.4 GHz, communication speed 11 Mbps). .

[制御部の機能的構成]
図2は、図1に示すゲーム装置1が備える制御部30の機能的な構成を示すブロック図である。図2は、主に、上述したゲームシステムを実現するのに必要な機能を示している。前述したとおり、制御部30は、CPU11、描画データ生成プロセッサ12、RAM13、ROM14、描画処理プロセッサ15、および音声処理プロセッサ18を含むコンピュータとして動作する。そして、このコンピュータとして動作する制御部30は、ゲームメディア5から読み込んだゲームプログラム5aおよびゲームデータ5bを実行することによって、以下に説明するような機能を備える。
[Functional configuration of control unit]
FIG. 2 is a block diagram showing a functional configuration of the control unit 30 provided in the game apparatus 1 shown in FIG. FIG. 2 mainly shows functions necessary for realizing the above-described game system. As described above, the control unit 30 operates as a computer including the CPU 11, the drawing data generation processor 12, the RAM 13, the ROM 14, the drawing processing processor 15, and the sound processing processor 18. And the control part 30 which operate | moves as this computer is provided with the function which is demonstrated below by executing the game program 5a and the game data 5b which were read from the game media 5. FIG.

すなわち、制御部30は、例えば、仮想空間生成手段31、特徴点情報取得手段32、エフェクト表現手段33、仮想カメラ制御手段34、キャラクタ制御手段35、および仮想出力源設定手段36といった機能を発揮する。   That is, the control unit 30 exhibits functions such as a virtual space generation unit 31, a feature point information acquisition unit 32, an effect expression unit 33, a virtual camera control unit 34, a character control unit 35, and a virtual output source setting unit 36. .

このうち、仮想空間生成手段31は、キャラクタが行動する仮想空間Sを生成する。仮想空間Sには、プレイヤキャラクタおよび敵キャラクタが対戦する仮想空間も含まれる。   Among these, the virtual space generation unit 31 generates a virtual space S in which the character acts. The virtual space S includes a virtual space where the player character and the enemy character battle each other.

キャラクタ制御手段35は、仮想空間SにおけるプレイヤキャラクタCおよび敵キャラクタを含む様々なキャラクタの動作を制御する。例えば、キャラクタ制御手段35は、ユーザによる操作部22の操作に応じて、プレイヤキャラクタCの移動、攻撃、および防御を含む各種動作を制御する。また、キャラクタ制御手段35は、敵キャラクタによる移動、攻撃、および防御等の各種の動作も制御する。   The character control means 35 controls the actions of various characters including the player character C and the enemy character in the virtual space S. For example, the character control means 35 controls various actions including movement, attack, and defense of the player character C according to the operation of the operation unit 22 by the user. The character control means 35 also controls various actions such as movement, attack and defense by the enemy character.

特徴点情報取得手段32は、仮想空間S上に配置された複数の特徴点のうち、少なくとも、キャラクタの位置に最も近い位置にある特徴点の情報を取得する。   The feature point information acquisition unit 32 acquires information on at least the feature point located closest to the character position among the plurality of feature points arranged in the virtual space S.

エフェクト表現手段33は、予め記憶されたエフェクト表現データを用いてキャラクタの位置におけるエフェクト表現を実行する。エフェクト表現には、例えば、音声の反響表現または光の照射表現等が含まれる。エフェクト表現手段33は、例えば、音の場合、周囲の遮蔽物における音の吸収または反射等の効果を表現し、光の場合、複数の光源の重なりまたは陰影等の効果を表現する。   The effect expression means 33 executes effect expression at the character position using effect expression data stored in advance. The effect expression includes, for example, a sound echo expression or a light irradiation expression. For example, in the case of sound, the effect expression means 33 expresses an effect such as absorption or reflection of sound in a surrounding shielding object, and in the case of light, an effect such as overlapping or shading of a plurality of light sources.

本実施の形態では、エフェクト表現として音が用いられる場合を例示する。この場合、エフェクト表現手段33は、ゲームメディア5から読み込んでRAM13に予め記憶されたゲームデータ5bに含まれる少なくとも1つの音声データを再生する。エフェクト表現手段33は、エフェクト表現変更手段331を含む。   In this embodiment, a case where sound is used as an effect expression is illustrated. In this case, the effect expression means 33 reproduces at least one audio data included in the game data 5b read from the game media 5 and stored in the RAM 13 in advance. The effect expression unit 33 includes an effect expression change unit 331.

エフェクト表現変更手段331は、取得した特徴点の情報(環境情報)に基づいてエフェクト表現データを加工する。本実施の形態において、エフェクト表現変更手段331は、再生される少なくとも1つの音声データのうちの少なくとも1つの所定の音声データ(以下、特定音声データ)を加工する。エフェクト表現手段33は、加工した特定音声データを出力する。   The effect expression changing means 331 processes the effect expression data based on the acquired feature point information (environment information). In the present embodiment, the effect expression changing unit 331 processes at least one predetermined audio data (hereinafter, specific audio data) among at least one audio data to be reproduced. The effect expression means 33 outputs the processed specific audio data.

仮想カメラ制御手段34は、ユーザによる操作部22の操作に基づいて仮想カメラの向きまたは位置を制御する。仮想出力源設定手段36は、キャラクタの位置に付随してエフェクト表現の仮想出力源を設定する。   The virtual camera control unit 34 controls the orientation or position of the virtual camera based on the operation of the operation unit 22 by the user. The virtual output source setting means 36 sets a virtual output source for effect expression accompanying the position of the character.

[特徴点の配置態様]
図3は、本実施の形態における仮想空間に配置された特徴点の一例を示す仮想空間の平面図である。3次元の仮想空間Sには、地形がポリゴン、テクスチャ等で描画され、当該地形上に各種のオブジェクト、キャラクタ等が配置される。また、複数の特徴点Pi(i=1,2,…)が、仮想空間SにおけるプレイヤキャラクタCの移動可能領域SM上に配置されている。
[Arrangement mode of feature points]
FIG. 3 is a plan view of the virtual space showing an example of the feature points arranged in the virtual space in the present embodiment. In the three-dimensional virtual space S, the terrain is drawn with polygons, textures, and the like, and various objects, characters, and the like are arranged on the terrain. Further, a plurality of feature points Pi (i = 1, 2,...) Are arranged on the movable area SM of the player character C in the virtual space S.

複数の特徴点は、後述する環境情報を取得するための仮想の点であって仮想空間S上には表示されない。複数の特徴点のうちの少なくとも1つは、移動可能領域SMの境界線Bが折れ線状となる角部または曲線における変曲点BCj(j=1,2,…)の近傍に配置される。   The plurality of feature points are virtual points for acquiring environment information described later, and are not displayed on the virtual space S. At least one of the plurality of feature points is arranged in the vicinity of the inflection point BCj (j = 1, 2,...) In the corner or curve where the boundary line B of the movable region SM is broken.

図3の例では、仮想空間Sにおいて途中で折れ曲がる通路が移動可能領域SMとして配置されている。図3には、当該通路を画する遮蔽物である壁が仮想空間Sの平面視における境界線Bとして表されている。この通路の曲がり角における境界線Bの変曲点BC1の近傍の移動可能領域SM上に特徴点P2が配置され、変曲点BC2の近傍移動可能領域SM上に特徴点P5が配置されている。   In the example of FIG. 3, a path that is bent halfway in the virtual space S is arranged as the movable region SM. In FIG. 3, a wall that is a shielding object that defines the passage is represented as a boundary line B in a plan view of the virtual space S. A feature point P2 is arranged on the movable area SM in the vicinity of the inflection point BC1 of the boundary line B at the corner of the passage, and a feature point P5 is arranged on the movable area SM in the vicinity of the inflection point BC2.

特徴点P1,P3,P4,P6は、それぞれ、移動可能領域SM上の境界線Bの近傍(直線状部分の近傍)に配置されている。また、特徴点P7,P8は、それぞれ、移動可能領域SMの境界線Bの近傍から離れた位置(移動可能領域SMの中央領域等)に配置されている。なお、境界線Bの角部または変曲点の近傍から離れた位置の特徴点P7,P8は、なくてもよい。   The feature points P1, P3, P4, and P6 are respectively disposed in the vicinity of the boundary line B (in the vicinity of the linear portion) on the movable region SM. Further, the feature points P7 and P8 are respectively arranged at positions away from the vicinity of the boundary line B of the movable region SM (such as the central region of the movable region SM). Note that the feature points P7 and P8 at positions away from the corner of the boundary line B or the vicinity of the inflection point may be omitted.

[特徴点を利用したエフェクト表現の加工処理]
各特徴点Piには、当該特徴点Piの位置において音に影響を与える所定の環境情報がゲームデータ5bとして含まれる。所定の環境情報は、例えば、各特徴点Piの周囲の遮蔽物(壁、床、地面、天井等)による平均吸音率を含む。
[Processing of effect expression using feature points]
Each feature point Pi includes, as game data 5b, predetermined environment information that affects the sound at the position of the feature point Pi. The predetermined environment information includes, for example, an average sound absorption rate by a shielding object (wall, floor, ground, ceiling, etc.) around each feature point Pi.

図4は、本実施の形態の特徴点における平均吸音率の求め方を説明するための仮想空間の平面図である。特徴点Piは、周囲三方が遮蔽物により囲まれている。本例において、遮蔽物には、砂利による遮蔽物Dgと、石による遮蔽物Dsとが含まれる。   FIG. 4 is a plan view of a virtual space for explaining how to obtain the average sound absorption coefficient at the feature point of the present embodiment. The feature point Pi is surrounded by a shield on three sides. In this example, the shield includes a shield Dg made of gravel and a shield Ds made of stone.

まず、例えば、特徴点Piの情報設定時(ゲームデータ5bの作成時)において、仮想空間Sに配置された特徴点Piから所定の方向にレイキャストを行うこと等により、特徴点Piから当該所定の方向における遮蔽物までの距離が取得される。図4においては水平8方向にレイキャストして、特徴点Piから当該8方向における遮蔽物Bg,Bsまでの距離および当接した遮蔽物の種別情報(遮蔽物の有無を含む)が取得される。なお、遮蔽物までの距離が所定の基準距離以上の場合、当接していないとして扱ってもよい。   First, for example, at the time of setting information on the feature point Pi (when creating the game data 5b), by performing ray casting in a predetermined direction from the feature point Pi arranged in the virtual space S, the predetermined point from the feature point Pi is set. The distance to the shield in the direction is obtained. In FIG. 4, the distance from the feature point Pi to the shielding objects Bg and Bs in the eight directions and the type information of the contacting shielding object (including the presence or absence of the shielding object) are acquired by ray casting in the eight horizontal directions. . In addition, when the distance to the shield is equal to or greater than a predetermined reference distance, it may be handled as not contacting.

さらに、高さ方向にもレイキャストを行い、天井までの距離等が取得される。なお、高さ方向についても、真上、真上から所定角度前方、真上から所定角度後方、真上から所定角度右方および真上から所定角度左方等、複数の方向における距離を取得してもよい。さらに、これら複数の方向における距離を平均して1つの高さ情報としてもよい。   Furthermore, ray casting is also performed in the height direction, and the distance to the ceiling and the like are acquired. As for the height direction, the distance in a plurality of directions is acquired, such as a predetermined angle forward from directly above, a predetermined angle backward from directly above, a right angle from right above and a predetermined angle to the left from above. May be. Furthermore, the distances in the plurality of directions may be averaged to form one height information.

以上より得られた情報に基づいて、平均吸音率αavが求められる。例えば、平均吸音率αavは、αav=α・(x/8)・(1/L)+α・(x/8)・(1/L)+…という式で表される。ここで、αは、砂利における吸音率(例えば0.5)を表し、αは、石における吸音率(例えば0.02)を表す。また、xは、8つのレイキャストのうち砂利に当接したレイの数(図4においては5)を表す。xは、8つのレイキャストのうち石に当接したレイの数(図4においては2)を表す。また、Lは、砂利の遮蔽物までの平均距離を表す。Lは、石の遮蔽物までの平均距離を表す。他の材料による遮蔽物が存在する場合には、当該他の材料による同様の項が加算される。 Based on the information obtained as described above, the average sound absorption coefficient α av is obtained. For example, the average sound absorption coefficient α av is expressed by an equation : α av = α g · (x g / 8) · (1 / L g ) + α s · (x s / 8) · (1 / L s ) +. Is done. Here, α g represents a sound absorption coefficient (for example, 0.5) in gravel, and α s represents a sound absorption coefficient (for example, 0.02) in stone. Further, x g represents the number of rays that have come into contact with gravel among the eight ray casts (5 in FIG. 4). x s represents the number of rays (2 in FIG. 4) in contact with the stone among the eight ray casts. L g represents the average distance to the gravel shield. L s represents the average distance to the stone shield. When there is a shield made of another material, a similar term for the other material is added.

なお、遮蔽物がない方向は、空気の吸音率を0として平均吸音率を算出してもよいし、空気の吸音率を別途設定して、上記式に含めてもよい。この場合、距離は上記基準距離としてもよい。   In the direction where there is no shielding object, the average sound absorption coefficient may be calculated with the sound absorption coefficient of air set to 0, or the sound absorption coefficient of air may be set separately and included in the above equation. In this case, the distance may be the reference distance.

また、平均吸音率αavを求める式は、上記式に限られない。例えば、αav=α・(x/8)+α・(x/8)+…という式を用いてもよい。この場合、遮蔽物があるか(近いか)ないか(遠いか)によって遮蔽物の吸音率α,α等の項が追加されるか否かが決定される。 Further, the formula for obtaining the average sound absorption coefficient α av is not limited to the above formula. For example, the following equation may be used: αav = α g · (x g / 8) + α s · (x s / 8) +. In this case, whether or not a term such as the sound absorption coefficient α g , α s of the shielding object is added is determined depending on whether the shielding object is present (closer) or not (distant).

このようにして、平均吸音率αavが特徴点Piごとに決定され、特徴点Piの環境情報として特徴点Piの位置情報に関連付けて記憶される。 In this way, the average sound absorption rate α av is determined for each feature point Pi, and is stored as environment information of the feature point Pi in association with the position information of the feature point Pi.

本実施の形態において、音に関するエフェクト表現の取得位置(以下、音の聴取位置)Lは、プレイヤキャラクタの位置に付随して設定される。より具体的には、音の聴取位置Lは、プレイヤキャラクタCの中心(頭部)に設定される。これに代えて、音の聴取位置LがプレイヤキャラクタCから離間した位置に設定されてもよい。この場合、音の聴取位置Lが、例えばプレイヤキャラクタCより所定距離前方または後方に設定されてもよいし、仮想カメラ(後述する図7の符号V)の位置に設定されてもよい。   In the present embodiment, the acquisition position (hereinafter referred to as the sound listening position) L of the effect expression relating to the sound is set in association with the position of the player character. More specifically, the sound listening position L is set at the center (head) of the player character C. Instead, the sound listening position L may be set at a position separated from the player character C. In this case, the sound listening position L may be set, for example, a predetermined distance forward or backward from the player character C, or may be set to a position of a virtual camera (reference V in FIG. 7 described later).

特徴点情報取得手段32は、仮想空間S上に配置された複数の特徴点Piのうち、少なくとも、プレイヤキャラクタCの位置(本例では音の聴取位置Lでもある)に最も近い位置にある特徴点Pnの環境情報(本実施の形態においては特徴点Pn=P2における平均吸音率αav)を取得する。エフェクト表現変更手段331は、取得した特徴点Pnの環境情報に基づいて、再生される特定音声データを加工する。例えば、エフェクト表現変更手段331は、特徴点Pnにおける平均吸音率αavに基づいて特定音声データが再生された際のリバーブの長さまたは大きさを設定する。 The feature point information acquisition means 32 is a feature that is at least closest to the position of the player character C (which is also the sound listening position L in this example) among the plurality of feature points Pi arranged in the virtual space S. The environmental information of the point Pn (in this embodiment, the average sound absorption coefficient α av at the characteristic point Pn = P2) is acquired. The effect expression changing unit 331 processes the specific audio data to be reproduced based on the acquired environment information of the feature point Pn. For example, the effect expression changing unit 331 sets the length or size of the reverb when the specific sound data is reproduced based on the average sound absorption rate α av at the feature point Pn.

なお、特徴点Piの環境情報は、当該特徴点Piにおける平均吸音率αavに限られない。例えば、平均吸音率αavに加えてまたはこれに代えて、各特徴点Piにおける一番近い遮蔽物までの距離、空間属性(例えば室内、洞窟、原野、森等)、または、高さ等の情報が、当該特徴点Piの環境情報として設定されてもよい。 Note that the environment information of the feature point Pi is not limited to the average sound absorption rate α av at the feature point Pi. For example, in addition to or instead of the average sound absorption coefficient α av , the distance to the nearest shielding object at each feature point Pi, spatial attributes (for example, indoors, caves, wilderness, forests, etc.), height, etc. Information may be set as environment information of the feature point Pi.

例えば、一番近い遮蔽物までの距離を環境情報とした場合、エフェクト表現変更手段331は、当該距離が近いほどリバーブの大きさを大きくしたり、リバーブの長さを短くしたりする。   For example, when the distance to the nearest shield is used as the environment information, the effect expression changing unit 331 increases the reverb size or shortens the reverb length as the distance is shorter.

空間属性は、エフェクト表現に影響を与えるパラメータを含んでいる。例えば、空間属性に含まれるパラメータには、リバーブの長さのパラメータおよび/またはリバーブの大きさのパラメータ等が含まれる。空間属性には、室内、洞窟、原野、森等、パラメータの値が予め設定されている複数種類の属性が含まれる。空間属性を環境情報とした場合、エフェクト表現変更手段331は、取得した特徴点Piの空間属性に応じた音響効果を特定音声データに適用する。   The spatial attribute includes parameters that affect the effect expression. For example, the parameters included in the spatial attribute include a reverb length parameter and / or a reverb size parameter. The space attribute includes a plurality of types of attributes whose parameter values are set in advance, such as a room, a cave, a wilderness, and a forest. When the spatial attribute is environment information, the effect expression changing unit 331 applies the acoustic effect corresponding to the acquired spatial attribute of the feature point Pi to the specific sound data.

また、高さを環境情報とした場合、エフェクト表現変更手段331は、当該高さが高い程リバーブの長さを長くしたり、リバーブの大きさを小さくしたりする。   When the height is the environment information, the effect expression changing unit 331 increases the length of the reverb or decreases the size of the reverb as the height is higher.

また、特徴点Piの環境情報として、当該特徴点Piから所定距離内に位置する遮蔽物の方向が設定されてもよい。   Moreover, the direction of the shielding object located within a predetermined distance from the feature point Pi may be set as the environment information of the feature point Pi.

特定音声データは、仮想空間における特定の音源が発する音、特定の音源が存在しない環境音、または、背景音楽が含まれ得る。仮想空間における特定の音源が発する音には、例えば、武器の使用音、斬撃の音、銃声、足音、声、敵キャラクタのブレス音、滝の音、薪の爆ぜる音、機械の動作音、ファンの回転音等が含まれ得る。また、環境音には、例えば、雨あるいは風の音、鳥あるいは虫の鳴き声等が含まれ得る。   The specific sound data may include a sound emitted from a specific sound source in the virtual space, an environmental sound without a specific sound source, or background music. Sounds generated by a specific sound source in the virtual space include, for example, weapon use sounds, slashing sounds, gunshots, footsteps, voices, enemy character breath sounds, waterfall sounds, spear explosion sounds, machine operation sounds, A fan rotation sound or the like may be included. In addition, the environmental sound can include, for example, rain or wind sounds, birds or insects.

エフェクト表現手段33は、再生すべき音声データを再生してエフェクト表現を実行する。このとき、再生すべき音声データに含まれる特定音声データは、プレイヤキャラクタCの位置に最も近い位置にある特徴点Pnの情報に基づいて加工された音声となる。   The effect expression means 33 reproduces audio data to be reproduced and executes effect expression. At this time, the specific sound data included in the sound data to be reproduced is a sound processed based on the information of the feature point Pn located closest to the position of the player character C.

上記態様によれば、仮想空間Sにおける音の鳴り方等のエフェクト表現に関する環境情報が、プレイヤキャラクタCの移動範囲内の複数の位置である各特徴点Piの情報として記憶される。これにより、プレイヤキャラクタCの位置に近い特徴点Piの環境情報を取得することにより、処理負荷の増大を抑制しつつその場所に応じた音の加工処理を行うことができる。   According to the above aspect, the environment information related to the effect expression such as how to sound in the virtual space S is stored as information of each feature point Pi that is a plurality of positions within the movement range of the player character C. Thereby, by acquiring the environment information of the feature point Pi close to the position of the player character C, it is possible to perform a sound processing process according to the location while suppressing an increase in processing load.

ここで、特徴点Piを仮想空間Sの地形(特に、キャラクタの移動可能領域SM)に関係なく等間隔に配置することも考えられる。すなわち、例えば所定の格子配列の頂点を特徴点とすることも考えられる。しかし、このような態様では、キャラクタが移動できない箇所にも特徴点Piが配置され、特徴点Piの環境情報が無駄になる場合が生じる。   Here, it is also conceivable to arrange the feature points Pi at equal intervals regardless of the terrain of the virtual space S (in particular, the character movable region SM). That is, for example, it is conceivable to use the vertex of a predetermined lattice arrangement as a feature point. However, in such an aspect, the feature points Pi are also arranged at locations where the character cannot move, and the environment information of the feature points Pi may be wasted.

また、移動可能領域SMの境界線Bの近傍には遮蔽物が設置されている場合が多く、音への影響が局所的に変化する。しかし、特徴点Piを等間隔に配置した場合、音への影響が大きい当該境界線Bの近傍に必ずしも特徴点Piが配置されないため、音の加工を、キャラクタの周囲の局所的な変化に対応させることができない。   Further, there are many cases where a shield is installed in the vicinity of the boundary line B of the movable region SM, and the influence on the sound changes locally. However, when the feature points Pi are arranged at equal intervals, the feature points Pi are not necessarily arranged in the vicinity of the boundary line B that has a large influence on the sound, so that the sound processing corresponds to local changes around the character. I can't let you.

そこで、上記構成においては、複数の特徴点Piの少なくとも1つがキャラクタの移動可能領域SMの境界線Bの角部または変曲点BCjの近傍に配置される。これにより、特徴点Piの配置に無駄がなくなり、データ量の増大を抑制しつつキャラクタの移動範囲における特徴点Piの数を増加させることができる。したがって、プレイヤキャラクタCの位置によって異なる仮想空間Sの環境に応じたよりリアルなエフェクト表現を実現することができる。以上より、本実施の形態によれば、エフェクト表現による演出のための処理負荷の増大を抑制しつつ、エフェクト表現による多彩な演出を行うことができる。   Therefore, in the above configuration, at least one of the plurality of feature points Pi is arranged in the vicinity of the corner portion of the boundary line B of the character movable region SM or the inflection point BCj. Thereby, there is no waste in the arrangement of the feature points Pi, and the number of feature points Pi in the character movement range can be increased while suppressing an increase in the data amount. Therefore, a more realistic effect expression according to the environment of the virtual space S that varies depending on the position of the player character C can be realized. As described above, according to the present embodiment, it is possible to perform various effects by effect expression while suppressing an increase in processing load for effects by effect expression.

本実施の形態における複数の特徴点Piは、移動可能領域SMに設定されるナビメッシュNを構成する複数の頂点の少なくとも一部に配置される。ナビメッシュNは、ノンプレイヤキャラクタの経路探索用に設けられるものであり、複数の頂点(図3においては特徴点Piと同じ位置)と、当該複数の頂点間を網目状に繋ぐ経路とを含む。   The plurality of feature points Pi in the present embodiment are arranged at least at a part of the plurality of vertices constituting the navigation mesh N set in the movable region SM. The Navimesh N is provided for route search of the non-player character and includes a plurality of vertices (the same position as the feature point Pi in FIG. 3) and a route connecting the plurality of vertices in a mesh shape. .

ナビメッシュNは、ノンプレイヤキャラクタが移動可能領域SMを移動する経路の基準となるため、移動可能領域SMを網羅するように複数の頂点が配置されている。すなわち、ナビメッシュNの複数の頂点は、移動可能領域SMの境界線Bが折れ線状となる角部または曲線における変曲点BCjの近傍に配置される頂点を含むように設定される。   Since the Navimesh N serves as a reference for a route along which the non-player character moves in the movable area SM, a plurality of vertices are arranged so as to cover the movable area SM. That is, the plurality of vertices of the navigation mesh N are set so as to include vertices arranged in the vicinity of the inflection point BCj in the corner or curve where the boundary line B of the movable region SM becomes a polygonal line.

このように、特徴点Piの座標としてノンプレイヤキャラクタの経路探索に利用されるナビメッシュNの頂点の座標を流用することにより、特徴点Piのマップデータを追加することによる容量増を防止することができる。   In this way, by using the coordinates of the vertices of the navigation mesh N used for the route search of the non-player character as the coordinates of the feature points Pi, it is possible to prevent an increase in capacity due to the addition of the map data of the feature points Pi. Can do.

なお、ナビメッシュNの頂点の位置を流用して特徴点Piの位置を設定する場合、ナビメッシュNのすべての頂点が複数の特徴点Piとして設定されてもよいし、ナビメッシュNの一部の頂点が複数の特徴点Piとして設定されてもよい。また、ナビメッシュNの少なくとも一部の頂点が複数の特徴点Piの一部として設定され、かつ、ナビメッシュNの頂点ではない位置にも特徴点Piが設定されてもよい。   When the position of the feature point Pi is set using the position of the vertex of the Navimesh N, all the vertices of the Navimesh N may be set as a plurality of feature points Pi, or a part of the Navimesh N May be set as a plurality of feature points Pi. Further, at least some of the vertices of the navigation mesh N may be set as a part of the plurality of feature points Pi, and the feature points Pi may be set at positions that are not the vertices of the navigation mesh N.

さらに、複数の特徴点Piの少なくとも一部は、隣接する特徴点Pi間の距離が不等間隔となるように配置される。特に、複雑に入り組んだ形状を有する遮蔽物があるような箇所(境界線Bが複雑な箇所)は間隔が狭く、コンクリートの壁が長く直線的に延びるような箇所(境界線Bが単純な箇所)および移動可能領域SMの中央領域は間隔が広くなるように設定される。このように、移動可能領域SMの形状に応じて特徴点Pi間の間隔を狭めたり広げたりすることにより、必要なデータ量の増大を低減しつつよりリアルなエフェクト表現を実現することができる。   Furthermore, at least some of the plurality of feature points Pi are arranged such that the distances between adjacent feature points Pi are unequal. In particular, a place where there is a shield having a complicated shape (a place where the boundary line B is complicated) is narrow, and a place where the concrete wall is long and linearly extended (a place where the boundary line B is simple) ) And the central region of the movable region SM are set so that the interval is wide. As described above, by narrowing or widening the interval between the feature points Pi in accordance with the shape of the movable region SM, it is possible to realize a more realistic effect expression while reducing an increase in necessary data amount.

エフェクト表現変更手段331は、プレイヤキャラクタCの位置に最も近い特徴点Pnの情報のみに基づいて特定音声データを加工してもよい。この場合、エフェクト表現変更手段331は、プレイヤキャラクタCの位置と当該プレイヤキャラクタCの位置に最も近い特徴点Pnとの間の距離に拘わらず、プレイヤキャラクタCの位置に最も近い特徴点Pnの環境情報をそのまま利用して特定音声データを加工してもよい。   The effect expression changing unit 331 may process the specific audio data based only on the information of the feature point Pn closest to the position of the player character C. In this case, the effect expression changing unit 331 has the environment of the feature point Pn closest to the position of the player character C regardless of the distance between the position of the player character C and the feature point Pn closest to the position of the player character C. The specific voice data may be processed using the information as it is.

これに代えて、エフェクト表現変更手段331は、プレイヤキャラクタCの位置と当該プレイヤキャラクタCの位置に最も近い特徴点Pnとの間の偏差に応じて、プレイヤキャラクタCの位置に最も近い特徴点Pnの環境情報を補間し、補間後の環境情報に基づいて特定音声データを加工してもよい。位置偏差による補間を行う場合、エフェクト表現変更手段331は、特定音声データを加工するために取得した特徴点Pnの位置と、プレイヤキャラクタCの位置との間の偏差に基づいてプレイヤキャラクタCの位置における環境情報を特徴点Pnの情報から補間する補間処理実行手段332を含む。   Instead, the effect expression changing unit 331 determines the feature point Pn closest to the position of the player character C according to the deviation between the position of the player character C and the feature point Pn closest to the position of the player character C. May be interpolated and the specific audio data may be processed based on the interpolated environment information. When performing the interpolation based on the position deviation, the effect expression changing unit 331 determines the position of the player character C based on the deviation between the position of the feature point Pn acquired to process the specific audio data and the position of the player character C. Interpolation processing execution means 332 for interpolating the environmental information at the feature point Pn information is included.

補間処理について、特徴点Pnの環境情報が、一番近い遮蔽物までの距離および当該遮蔽物の方向である場合を例示する。図5は、本実施の形態における補間処理の一例を説明するための仮想空間の平面図である。図5には、プレイヤキャラクタCの位置に最も近い特徴点Pnのみが示されている。図5において、特徴点Pnから最も近い遮蔽物(境界線B)までの距離がy方向にQであり、この情報が特徴点Pnにおける環境情報として記憶されている。 As for the interpolation processing, a case where the environment information of the feature point Pn is the distance to the nearest shield and the direction of the shield is illustrated. FIG. 5 is a plan view of a virtual space for explaining an example of the interpolation processing in the present embodiment. In FIG. 5, only the feature point Pn closest to the position of the player character C is shown. 5, the distance to the nearest obstacle from the feature point Pn (border B) is Q P in the y-direction, this information is stored as the environmental information in the feature point Pn.

このとき、補間処理実行手段332は、プレイヤキャラクタCの位置に最も近い特徴点PnとプレイヤキャラクタCの位置との位置の偏差(どの方向にどれだけの距離離れているか)を算出する。図5において、補間処理実行手段332は、(−y)方向に対して角度θだけ(−x)方向側に傾いた方向に距離R離れていることを偏差の情報として取得する。さらに、補間処理実行手段332は、取得した偏差の情報に基づいて、プレイヤキャラクタCの位置に最も近い遮蔽物までの距離Qを算出する。図5において、距離Qは、Q=Q+Rcosθで表される。 At this time, the interpolation processing execution means 332 calculates the positional deviation (how far and in what direction) the feature point Pn closest to the position of the player character C and the position of the player character C are. In FIG. 5, the interpolation processing execution unit 332 acquires, as deviation information, information indicating that the distance R is away from the (−y) direction by an angle θ toward the (−x) direction. Further, the interpolation processing execution means 332 calculates a distance Q L to the shield closest to the position of the player character C based on the acquired deviation information. In FIG. 5, the distance Q L is expressed as Q L = Q P + R cos θ.

エフェクト表現変更手段331は、このようにして補間された環境情報(距離Q)に基づいて特定音声データを加工する。これにより、プレイヤキャラクタCが特徴点Pi以外の位置に存在する場合であっても、当該プレイヤキャラクタCの位置に応じた環境情報を得ることができ、よりリアルなエフェクト表現を実現することができる。 The effect expression changing unit 331 processes the specific sound data based on the environment information (distance Q L ) interpolated in this way. Thereby, even when the player character C exists at a position other than the feature point Pi, the environment information corresponding to the position of the player character C can be obtained, and a more realistic effect expression can be realized. .

また、例えば、特徴点情報取得手段32は、特定音声データを加工するために、プレイヤキャラクタCの位置に最も近い特徴点Pn(=P2)を含む、当該プレイヤキャラクタCの周囲の複数の特徴点Piの環境情報を取得してもよい。例えば、特徴点情報取得手段32は、プレイヤキャラクタCの位置と各特徴点Piとの間の距離から近い順に所定数(例えば3つ)の特徴点Pi(図3の例では、P2,P5,P8)の情報を取得してもよい。これに代えて、特徴点情報取得手段32は、プレイヤキャラクタCの位置から所定距離内にある特徴点Piを抽出し、当該抽出された一または複数の特徴点Piの情報を取得してもよい。   Further, for example, the feature point information acquisition unit 32 includes a plurality of feature points around the player character C including the feature point Pn (= P2) closest to the position of the player character C in order to process the specific audio data. Pi environment information may be acquired. For example, the feature point information acquisition means 32 has a predetermined number (for example, three) of feature points Pi (in the example of FIG. 3, P2, P5, etc.) in ascending order from the distance between the position of the player character C and each feature point Pi. Information of P8) may be acquired. Instead, the feature point information acquisition unit 32 may extract a feature point Pi within a predetermined distance from the position of the player character C, and acquire information of the extracted one or more feature points Pi. .

このように、特徴点情報取得手段32が複数の特徴点Piの環境情報を取得した場合、補間処理実行手段332は、取得した複数の特徴点Piの位置とプレイヤキャラクタCの位置との間の距離に基づいて各特徴点Piについて重み付けを行うことにより、プレイヤキャラクタCの位置における環境情報を得てもよい。この際、補間処理実行手段332は、当該距離が近い程重みを大きくし、距離が遠い程重みを小さく設定する。これにより、プレイヤキャラクタCの位置に近い特徴点Piほど特定音声データへの影響が大きくなる。   As described above, when the feature point information acquisition unit 32 acquires the environment information of the plurality of feature points Pi, the interpolation processing execution unit 332 determines that the position between the acquired plurality of feature points Pi and the position of the player character C is between. The environment information at the position of the player character C may be obtained by weighting each feature point Pi based on the distance. At this time, the interpolation processing execution unit 332 increases the weight as the distance is shorter, and sets the weight as the distance is longer. As a result, the feature point Pi closer to the position of the player character C has a greater influence on the specific audio data.

これにより、複数の特徴点Piの情報を用いてプレイヤキャラクタCの位置における環境情報を補間することにより、よりリアルなエフェクト表現を実現することができる。また、複数の特徴点Piを用いることにより、各特徴点Piにおける環境情報が平滑化される。したがって、プレイヤキャラクタCの移動に伴ってプレイヤキャラクタCの位置に最も近い特徴点Pnが切り替わるタイミングで特定音声データの再生音が急激に変化することを防止することができる。   Thereby, a more realistic effect expression can be realized by interpolating the environment information at the position of the player character C using the information of the plurality of feature points Pi. Further, by using a plurality of feature points Pi, the environment information at each feature point Pi is smoothed. Therefore, it is possible to prevent the reproduction sound of the specific audio data from changing suddenly at the timing when the feature point Pn closest to the position of the player character C is switched as the player character C moves.

なお、このように複数の特徴点Piを用いて環境情報を平滑化するのに加えてまたはこれに代えて、各特徴点Piにおける環境情報を近接する複数の特徴点Piの環境情報間で予め平滑化しておいてもよい。例えば、環境情報として各特徴点Piにおける高さを含む場合、まず、各特徴点Piからレイキャストを行い、各特徴点Piにおける高さ情報を求める。そして、一の特徴点Piから所定の範囲内にある複数の特徴点Piの高さ情報を平均化し、当該一の特徴点Piにおける環境情報として記憶する。   In addition to or instead of smoothing the environment information using the plurality of feature points Pi in this way, the environment information at each feature point Pi is previously set between the environment information of the plurality of feature points Pi. It may be smoothed. For example, when the environmental information includes the height at each feature point Pi, first, ray casting is performed from each feature point Pi to obtain height information at each feature point Pi. Then, the height information of a plurality of feature points Pi within a predetermined range from one feature point Pi is averaged and stored as environment information at the one feature point Pi.

このような方法によっても環境情報が平滑化され、特定音声データの再生音が急激に変化することを防止することができる。   Also by such a method, environment information is smoothed and it can prevent that the reproduction | regeneration sound of specific audio | voice data changes rapidly.

本実施の形態においては、取得する特徴点Piの基準となる位置を、プレイヤキャラクタCの位置としている。これに代えて、取得する特徴点Piを、プレイヤキャラクタCの位置に付随する音の聴取位置Lに基づいて決定してもよい。すなわち、エフェクト表現変更手段331は、プレイヤキャラクタCの位置に付随する音の聴取位置Lの位置に最も近い特徴点Pnの情報に基づいて特定音声データを加工してもよい。また、取得する特徴点Piを、仮想カメラVの位置に基づいて決定してもよい。   In the present embodiment, the position serving as a reference for the feature point Pi to be acquired is the position of the player character C. Instead, the feature point Pi to be acquired may be determined based on the listening position L of the sound accompanying the position of the player character C. That is, the effect expression changing unit 331 may process the specific audio data based on the information of the feature point Pn closest to the position of the sound listening position L accompanying the position of the player character C. Further, the feature point Pi to be acquired may be determined based on the position of the virtual camera V.

[仮想カメラの向きに基づくエフェクト表現の加工処理]
特定音声データについて、上記加工を行うのに加えて、または、これに代えて、エフェクト表現変更手段331は、ゲーム画面を表示するために仮想空間Sに配置された仮想カメラVの向きまたは位置に基づいて、特定音声データを加工または補正してもよい。
[Processing of effect expression based on virtual camera direction]
In addition to or instead of performing the above processing on the specific audio data, the effect expression changing unit 331 changes the orientation or position of the virtual camera V arranged in the virtual space S to display the game screen. Based on this, the specific audio data may be processed or corrected.

図6は、本実施の形態における仮想空間における仮想カメラの向きに基づく音の加工処理を説明するための仮想空間の平面図である。図6に示すように、仮想空間Sには仮想カメラVが配置され、仮想カメラVの撮像範囲Aが二次元画像としてゲーム画面に表示される。図6には、音の聴取位置Lに最も近い特徴点Pnのみが示されている。   FIG. 6 is a plan view of the virtual space for explaining the sound processing based on the orientation of the virtual camera in the virtual space according to the present embodiment. As shown in FIG. 6, the virtual camera V is arranged in the virtual space S, and the imaging range A of the virtual camera V is displayed on the game screen as a two-dimensional image. In FIG. 6, only the feature point Pn closest to the sound listening position L is shown.

本実施の形態において、仮想カメラVは、プレイヤキャラクタCから所定距離後方に配置される。仮想カメラVの位置および向きは、ユーザの操作部22の操作に基づくプレイヤキャラクタCの移動に伴って変化する。さらに、仮想カメラVは、ユーザの操作部22の操作によってプレイヤキャラクタCとは独立して、移動または向きの変更が可能である。   In the present embodiment, the virtual camera V is arranged behind the player character C by a predetermined distance. The position and orientation of the virtual camera V change as the player character C moves based on the operation of the operation unit 22 by the user. Further, the virtual camera V can be moved or changed in direction independently of the player character C by the operation of the operation unit 22 of the user.

なお、仮想カメラVの位置は、これに限られず、種々の態様が採用可能である。例えば、仮想カメラVの位置をプレイヤキャラクタC上に位置してもよい。仮想カメラVの位置と音の聴取位置Lの位置とを一致させてもよい。   Note that the position of the virtual camera V is not limited to this, and various modes can be adopted. For example, the position of the virtual camera V may be positioned on the player character C. The position of the virtual camera V and the position of the sound listening position L may be matched.

本実施の形態において、特徴点Piの情報には、各特徴点Piの位置から最も近い遮蔽物が位置する方向を示す基準方向Kを含んでいる。図6の例において、音の聴取位置Lに最も近い特徴点Pnの基準方向Kは、y方向に一致する。エフェクト表現変更手段331は、取得した特徴点Pnにおける基準方向KBに応じて特定音声データを加工する。より具体的には、エフェクト表現変更手段331は、取得した特徴点Pnにおける基準方向KBと仮想カメラVの向きKVとの角度φに応じて特定音声データを加工する。   In the present embodiment, the information on the feature points Pi includes a reference direction K that indicates the direction in which the shield closest to the position of each feature point Pi is located. In the example of FIG. 6, the reference direction K of the feature point Pn closest to the sound listening position L coincides with the y direction. The effect expression changing unit 331 processes the specific audio data according to the reference direction KB at the acquired feature point Pn. More specifically, the effect expression changing unit 331 processes the specific audio data according to the angle φ between the reference direction KB and the orientation KV of the virtual camera V at the acquired feature point Pn.

例えば、特徴点Piの環境情報として上記基準方向KBおよび平均吸音率αavが含まれる場合、エフェクト表現変更手段331は、角度φが小さいほど(φ=0°が最小)平均吸音率αavによる特定音声データへの影響を大きくし、角度φが大きいほど(φ=180°が最大)平均吸音率αavによる特定音声データの影響を小さくするように加工してもよい。 For example, when the environment information of the feature point Pi includes the reference direction KB and the average sound absorption rate α av , the effect expression changing unit 331 uses the average sound absorption rate α av as the angle φ is smaller (φ = 0 ° is the minimum). You may process so that the influence on specific audio | voice data may be enlarged and the influence of specific audio | voice data by average sound absorption coefficient (alpha) av may be made small, so that angle (phi) is large (phi = 180 degrees is the maximum).

このように、本実施の形態においては、仮想空間Sに配された複数の特徴点Piの各位置において当該位置から最も近い遮蔽物が位置する基準方向KBの情報が特徴点Piごとに記憶される。さらに、仮想空間Sにおける音の聴取位置Lに近接する特徴点Pnにおける基準方向KBと、音の聴取位置Lに対応する仮想カメラVの向きKVとの角度φに応じて特定音声データが加工される。   Thus, in the present embodiment, information on the reference direction KB in which the shielding object closest to the position is located at each position of the plurality of feature points Pi arranged in the virtual space S is stored for each feature point Pi. The Further, the specific audio data is processed according to the angle φ between the reference direction KB at the feature point Pn close to the sound listening position L in the virtual space S and the direction KV of the virtual camera V corresponding to the sound listening position L. The

これにより、ゲーム画面として表示される仮想空間Sの部分に応じて所定の音の反射または吸収等のエフェクト表現への影響が反映される。したがって、音の聴取位置Lによって異なる仮想空間Sの環境に応じたエフェクト表現を、ゲーム画面に表示される可能性の高い遮蔽物を強調して行うことができ、より臨場感の高いエフェクト表現を実現することができる。   Thereby, the influence on the effect expression such as reflection or absorption of a predetermined sound is reflected according to the portion of the virtual space S displayed as the game screen. Therefore, the effect expression according to the environment of the virtual space S, which varies depending on the sound listening position L, can be performed with emphasis on the shield that is likely to be displayed on the game screen, and the effect expression with a higher sense of reality can be achieved. Can be realized.

例えば、エフェクト表現変更手段331は、角度φが小さいほど特定音声データによるエフェクト表現の再生音量を大きくし、角度φが大きいほど特定音声データの再生音量を小さくする。これにより、仮想カメラVの向きKVが最も近い遮蔽物の位置に正対する方向に近づく(角度φが0に近づく)程、音の反射(リバーブ)が大きくなるような表現を実現することができる。したがって、より臨場感の高いエフェクト表現を実現することができる。なお、これに加えて、または、これに代えて、特定音声データに付加されるリバーブの大きさまたは長さを変更してもよい。   For example, the effect expression changing unit 331 increases the reproduction volume of the effect expression based on the specific audio data as the angle φ is small, and decreases the reproduction volume of the specific audio data as the angle φ is large. As a result, it is possible to realize an expression in which the reflection (reverb) of sound increases as the direction KV of the virtual camera V approaches the direction of the closest object (the angle φ approaches 0). . Accordingly, it is possible to realize effect expression with higher presence. In addition to this, or instead of this, the size or length of the reverb added to the specific audio data may be changed.

さらに、エフェクト表現変更手段331は、より詳細な周囲の情報に応じて特定音声データを加工してもよい。例えば、特徴点Piの情報は、当該特徴点Piに対して基準方向KBを含む所定の複数の方向において対向する遮蔽物の複数の表面位置(境界線B)に基づいて画される所定の基準領域SBの位置情報を含む。さらに、エフェクト表現変更手段331は、音の聴取位置Lの仮想カメラVの向きKVを基準とする所定の方向における音の聴取位置Lが含まれる基準領域SBの境界までの距離に基づいて特定音声データを加工する。   Further, the effect expression changing unit 331 may process the specific audio data according to more detailed surrounding information. For example, the information of the feature point Pi is a predetermined reference drawn based on a plurality of surface positions (boundary lines B) of the shielding object facing the feature point Pi in a plurality of predetermined directions including the reference direction KB. The position information of the area SB is included. Further, the effect expression changing unit 331 specifies the specific sound based on the distance to the boundary of the reference area SB including the sound listening position L in a predetermined direction with respect to the direction KV of the virtual camera V at the sound listening position L. Process the data.

図6の例において、基準領域SBは、特徴点Pnから基準方向KBにおける遮蔽物の表面位置U1において基準方向KBと直交する方向に延びる仮想の境界線分J1と、特徴点Pnから基準方向KBとは反対方向K2における遮蔽物の仮想表面位置U2(後述)において方向K2に直交する方向に延びる仮想の境界線分J2と、特徴点Pnから基準方向KBに直交する方向K3,K4における遮蔽物の表面位置U3,U4において方向K3,K4に直交する方向にそれぞれ延びる仮想の境界線分J3,J4とによって区画される。   In the example of FIG. 6, the reference region SB includes a virtual boundary line segment J1 extending in a direction orthogonal to the reference direction KB at the surface position U1 of the shielding object in the reference direction KB from the feature point Pn, and the reference direction KB from the feature point Pn. A virtual boundary line J2 extending in a direction perpendicular to the direction K2 at a virtual surface position U2 (described later) of the shield in the opposite direction K2, and a shield in directions K3 and K4 perpendicular to the reference direction KB from the feature point Pn. Are defined by virtual boundary line segments J3 and J4 extending in directions orthogonal to the directions K3 and K4, respectively.

このように、本実施の形態において、基準領域SBの境界線分J1〜J4は、基準方向KBに直交する仮想線分J1を一辺に含む矩形状に形成される。なお、基準領域SBの画定の方法は、これに限られず、種々適用可能である。   Thus, in the present embodiment, the boundary line segments J1 to J4 of the reference region SB are formed in a rectangular shape including the virtual line segment J1 orthogonal to the reference direction KB on one side. The method for defining the reference region SB is not limited to this, and various methods can be applied.

ここで、仮想表面位置U2は、特徴点Pnから所定の規定距離離れた位置として設定される。すなわち、基準領域SBは、複数の表面位置U1〜U4のうち、特徴点Pnと対向する遮蔽物の表面位置U1〜U4との距離が所定の規定距離以上である場合、特徴点Piから当該対向する方向に規定距離離れた位置が基準領域SBを画する境界線分J1〜J4に含まれるように設定される。   Here, the virtual surface position U2 is set as a position away from the feature point Pn by a predetermined specified distance. That is, the reference region SB is opposed to the feature point Pi when the distance from the surface positions U1 to U4 of the shielding object facing the feature point Pn among the plurality of surface positions U1 to U4 is equal to or greater than a predetermined specified distance. A position that is a predetermined distance away in the direction to be included is set to be included in the boundary line segments J1 to J4 that define the reference area SB.

特徴点Pnからの距離が遠い遮蔽物による当該特徴点Pnでの音への影響は小さいため、特徴点Pnから所定の規定距離以上離れた位置にある遮蔽物による環境情報は当該規定距離に遮蔽物があると仮定して基準領域SBを画定する。規定距離以上の情報を省略することにより、データ量の増大を抑えつつ臨場感の高い音の表現を行うことができる。   Since the influence of the shielding object far from the feature point Pn on the sound at the feature point Pn is small, the environmental information by the shielding object located at a predetermined distance or more away from the feature point Pn is shielded at the prescribed distance. A reference region SB is defined assuming that there is an object. By omitting information beyond the specified distance, it is possible to express sound with a high sense of presence while suppressing an increase in the amount of data.

エフェクト表現変更手段331は、音の聴取位置Lから仮想カメラVの向きKVを含む直交する4方向において基準領域SBの境界線分J1〜J4までの距離を取得し、取得した4つの距離に基づいて特定音声データを加工する。図6の例において、エフェクト表現変更手段331は、音の聴取位置Lから仮想カメラVの向きKVに延ばした仮想線と基準領域SBの境界線分J4との交点M1の位置情報を取得し、音の聴取位置Lと交点M1との距離を算出する。   The effect expression changing unit 331 acquires distances from the sound listening position L to the boundary line segments J1 to J4 of the reference area SB in four orthogonal directions including the direction KV of the virtual camera V, and based on the acquired four distances. To process specific audio data. In the example of FIG. 6, the effect expression changing unit 331 acquires the position information of the intersection M1 between the virtual line extending from the sound listening position L in the direction KV of the virtual camera V and the boundary line segment J4 of the reference area SB, The distance between the sound listening position L and the intersection M1 is calculated.

同様に、エフェクト表現変更手段331は、音の聴取位置Lから仮想カメラVの向きKVとは反対方向に延ばした仮想線と基準領域SBの境界線分J3との交点M2の位置情報を取得し、音の聴取位置Lと交点M2との距離を算出する。さらに、エフェクト表現変更手段331は、音の聴取位置Lから仮想カメラVの向きKVに直交する左右両方向に延ばした仮想線と基準領域SBの境界線分J2,J1との交点M3,M4の位置情報をそれぞれ取得し、音の聴取位置Lと交点M3,M4との距離をそれぞれ算出する。   Similarly, the effect expression changing unit 331 acquires position information of the intersection M2 between the virtual line extending from the sound listening position L in the direction opposite to the direction KV of the virtual camera V and the boundary line segment J3 of the reference area SB. The distance between the sound listening position L and the intersection M2 is calculated. Further, the effect expression changing unit 331 is configured to detect the positions of the intersections M3 and M4 between the virtual line extending from the sound listening position L in both the left and right directions orthogonal to the direction KV of the virtual camera V and the boundary line segments J2 and J1 of the reference area SB. Information is acquired, and the distance between the sound listening position L and the intersections M3 and M4 is calculated.

エフェクト表現変更手段331は、得られた各距離と、その方向とに基づいて取得した特徴点Pi(Pn等)の環境情報を補正し、補正後の環境情報に基づいて特定音声データを加工する。図6の例では、プレイヤキャラクタCの右側からの反響が大きくなるように特定音声データを加工(サラウンド化)する。   The effect expression changing unit 331 corrects the environment information of the feature points Pi (Pn and the like) acquired based on the obtained distances and directions, and processes the specific audio data based on the corrected environment information. . In the example of FIG. 6, the specific audio data is processed (surrounded) so that the reverberation from the right side of the player character C increases.

この場合、エフェクト表現変更手段331は、音の聴取位置Lからの距離に応じて連続的に特定音声データの加工量(変更するパラメータの値)を変更してもよい。これに代えて、音の聴取位置Lを距離範囲に応じた複数のグループに予め分けておき、エフェクト表現変更手段331は、音の聴取位置Lからの距離が含まれるグループごとに設定された特定音声データの加工量で加工する(すなわち、離散的に特定音声データの加工量を変更する)としてもよい。   In this case, the effect expression changing unit 331 may continuously change the processing amount (value of the parameter to be changed) of the specific sound data according to the distance from the sound listening position L. Instead, the sound listening position L is divided into a plurality of groups corresponding to the distance range in advance, and the effect expression changing means 331 is set for each group including the distance from the sound listening position L. The processing may be performed with the processing amount of the sound data (that is, the processing amount of the specific sound data is changed discretely).

このように、各特徴点Piの周囲にある遮蔽物の特徴点Piからの距離についての情報が、それぞれ離散化したデータとして記憶され、このデータに基づいて特定音声データが加工される。これにより、データ量を抑えつつ臨場感の高い音の表現を実現することができ、ゲーム音による多彩な演出を行うことができる。   In this way, information about the distance from the feature point Pi of the shield around each feature point Pi is stored as discrete data, and specific voice data is processed based on this data. As a result, it is possible to realize a highly realistic sound expression while suppressing the amount of data, and to perform various effects using game sounds.

上記説明においては、複数の特徴点Piにおいて再生する特定音声データは同じ特定音声データであるとの想定に基づいているが、特徴点情報取得手段32が取得する特徴点Piに応じて再生する特定音声データが異なってもよい。この場合、特徴点Piの情報として、再生する特定音声データの情報が関連付けられる。また、再生する特定音声データの異同に応じて特徴点Piを複数の特定音声グループにグループ分けしてもよい。   In the above description, the specific audio data to be reproduced at a plurality of feature points Pi is based on the assumption that the same specific audio data is the same, but the specific audio data to be reproduced according to the feature points Pi acquired by the feature point information acquisition unit 32. The audio data may be different. In this case, the information of the specific audio data to be reproduced is associated as the information of the feature point Pi. Further, the feature points Pi may be grouped into a plurality of specific sound groups according to the difference between the specific sound data to be reproduced.

この場合、仮想空間Sには、再生される特定音声データが異なる複数の特定音声グループが隣接する領域が生じる。このため、例えば、プレイヤキャラクタCの移動に伴って音の聴取位置Lが一の特定音声グループに属する特徴点Piの情報を取得した後、他の特定音声グループに属する特徴点Piの情報を取得する状況が生じ得る。   In this case, in the virtual space S, there is an area where a plurality of specific sound groups having different specific sound data to be reproduced are adjacent. For this reason, for example, after acquiring the information of the feature point Pi belonging to one specific sound group with the listening position L of the sound as the player character C moves, the information of the feature point Pi belonging to another specific sound group is acquired. Situations can occur.

この場合、再生される特定音声データが取得する特徴点Piが属する特定音声グループが切り替わる前後で急に変更されるため、音の不連続がユーザに知覚される場合がある。そこで、本実施の形態においては、以下のような態様でこのような音の不連続をユーザに知覚され難くしている。   In this case, since the specific sound group to which the feature point Pi acquired by the specific sound data to be reproduced belongs is suddenly changed, the discontinuity of the sound may be perceived by the user. Therefore, in this embodiment, such discontinuity of sound is made difficult to be perceived by the user in the following manner.

[隣接する出力源領域間におけるエフェクト表現の移行処理]
図7は、本実施の形態の仮想空間において隣り合う領域におけるエフェクト表現の移行処理を説明するための仮想空間の平面図である。図7に示すように、仮想空間Sは、実行されるエフェクト表現(特定音声データに基づくエフェクト表現)の少なくとも一部が互いに異なる複数の領域(複数の特定音声領域)Ek(k=1,2,…)と、隣り合う領域Ek同士を接続する境界領域EBとを含んでいる。
[Transition processing of effect expression between adjacent output source areas]
FIG. 7 is a plan view of the virtual space for explaining the effect expression transition processing in the adjacent regions in the virtual space of the present embodiment. As shown in FIG. 7, the virtual space S includes a plurality of areas (a plurality of specific sound areas) Ek (k = 1, 2) in which at least some of the effect expressions to be executed (effect expressions based on the specific sound data) are different from each other. ,...) And a boundary region EB connecting adjacent regions Ek.

まず、例えば、ゲームデータ5bの作成時に、まず、各特徴点Piにおいて実行されるエフェクト表現のための特定音声データが設定され、複数の出力源領域Ekが設定される。例えば、図7においては、第1の特定音声データを用いた第1のエフェクト表現が実行される第1の特徴点群による第1領域E1と、第1の特定音声データとは異なる第2の特定音声データを用いた第2のエフェクト表現が実行される第2の特徴点群による第2領域E2とが設定されている。図7においては、第1領域E1に属する特徴点をPi(1)で示し、第2領域E2に属する特徴点をPi(2)で示している。   First, for example, when creating the game data 5b, first, specific audio data for effect expression executed at each feature point Pi is set, and a plurality of output source regions Ek are set. For example, in FIG. 7, the first region E1 by the first feature point group in which the first effect expression using the first specific sound data is executed, and the second different from the first specific sound data. A second region E2 by a second feature point group in which the second effect expression using the specific audio data is executed is set. In FIG. 7, feature points belonging to the first region E1 are indicated by Pi (1), and feature points belonging to the second region E2 are indicated by Pi (2).

さらに、複数の領域Ekが隣接する領域において、基準位置領域EAが設定される。図7において、基準位置領域EAは、隣接する第1領域E1と第2領域E2との境界部に設けられている。図7において、基準位置領域EAは、複数の特徴点Piを含む領域として構成されている。これに代えて、基準位置領域EAには、特徴点Piを含まなくてもよい。また、基準位置領域EAは、所定の面積を有しない構成、例えば、単なる境界線または基準点でもよい。   Further, a reference position area EA is set in an area where a plurality of areas Ek are adjacent. In FIG. 7, the reference position area EA is provided at the boundary between the adjacent first area E1 and second area E2. In FIG. 7, the reference position area EA is configured as an area including a plurality of feature points Pi. Instead, the reference position area EA may not include the feature point Pi. Further, the reference position area EA may be a configuration that does not have a predetermined area, for example, a simple boundary line or a reference point.

さらに、基準位置領域EAを含むように境界領域EBが設定される。境界領域EBは、基準位置領域EAを含む限り、どのように設定されてもよい。例えば、基準位置領域EAの位置に関連付けて境界領域EBが設定されてもよい。例えば、基準位置領域EAに含まれる基準点から所定の距離範囲内の領域が境界領域EBとして設定されてもよい。また、境界領域EBが基準位置領域EAとの位置関係にはかかわらず任意に設定されてもよい。例えば基準位置領域EAが境界領域EBの中央部に位置しなくてもよい。   Further, the boundary area EB is set so as to include the reference position area EA. The boundary area EB may be set in any way as long as it includes the reference position area EA. For example, the boundary area EB may be set in association with the position of the reference position area EA. For example, an area within a predetermined distance range from the reference point included in the reference position area EA may be set as the boundary area EB. Further, the boundary area EB may be arbitrarily set regardless of the positional relationship with the reference position area EA. For example, the reference position area EA may not be located at the center of the boundary area EB.

境界領域EB内の特徴点において実行されるエフェクト表現のための特定音声データは、隣接する第1領域E1および第2領域E2の双方に対応する第1および第2のエフェクト表現のための第1および第2の特定音声データを含む。図7においては、境界領域EBに属する特徴点をPi(B)で示している。   The specific sound data for effect expression executed at the feature points in the boundary area EB is the first sound expression for the first and second effect expressions corresponding to both the adjacent first area E1 and second area E2. And second specific audio data. In FIG. 7, feature points belonging to the boundary region EB are indicated by Pi (B).

ここで、境界領域EBに属する特徴点Pi(B)において第1および第2の特定音声データに基づく第1および第2のエフェクト表現を同時に実行した場合に、より自然な表現とするために、本実施の形態においては、少なくとも1つ(図7においては4つ)の仮想出力源(仮想音源)T1〜T4が各特徴点Pi(B)の情報として設定される。仮想出力源T1〜T4は、プレイヤキャラクタCの位置またはエフェクト表現の取得位置Lに付随して設定される。図7の例において、4つの仮想出力源T1〜T4は、プレイヤキャラクタCの位置から直交する4方向に所定距離離れた位置に設定される。   Here, in order to obtain a more natural expression when the first and second effect expressions based on the first and second specific sound data are simultaneously executed at the feature point Pi (B) belonging to the boundary region EB, In the present embodiment, at least one (four in FIG. 7) virtual output sources (virtual sound sources) T1 to T4 are set as information of each feature point Pi (B). The virtual output sources T1 to T4 are set in association with the position of the player character C or the acquisition position L of the effect expression. In the example of FIG. 7, the four virtual output sources T <b> 1 to T <b> 4 are set at positions separated from the position of the player character C by a predetermined distance in four directions orthogonal to each other.

各特徴点Pi(B)における仮想出力源T1〜T4の方向および/または特徴点Pi(B)からの距離は、すべての特徴点Pi(B)において共通であってもよいし、特徴点Pi(B)ごとに異なっていてもよい。また、仮想出力源の数は、1つ以上3つ以下でもよいし、4つより多くてもよい。また、複数の仮想出力源を設定する場合、特徴点Pi(B)回りに等間隔に配置してもよいし、非等間隔に配置してもよい。   The direction of the virtual output sources T1 to T4 and / or the distance from the feature point Pi (B) at each feature point Pi (B) may be common to all feature points Pi (B), or the feature point Pi. It may be different for each (B). Further, the number of virtual output sources may be one or more and three or less, or may be more than four. When a plurality of virtual output sources are set, they may be arranged at equal intervals around the feature point Pi (B) or may be arranged at non-equal intervals.

ここで、プレイヤキャラクタCの位置と仮想出力源T1との間に所定の遮蔽物が存在する場合、当該仮想出力源が遮蔽物よりプレイヤキャラクタCの位置側の位置(移動可能領域SM内)に設定変更される。図7の例では、境界領域EBに含まれる特徴点Pxにおいて、仮想出力源T3,T4と、特徴点Pxとの間にそれぞれ境界線Bが存在する。このため、当該特徴点Pxにおける特定音声データの音源位置として特徴点Pxと仮想出力源T3,T4との間の線分上かつ交差する境界線Bの内側(特徴点Px側)に補正後の出力源位置T3’,T4’がそれぞれ設定される。   Here, when a predetermined shielding object exists between the position of the player character C and the virtual output source T1, the virtual output source is located at a position on the position of the player character C from the shielding object (in the movable region SM). The setting is changed. In the example of FIG. 7, boundary lines B exist between the virtual output sources T3 and T4 and the feature point Px at the feature point Px included in the boundary region EB. Therefore, the sound source position of the specific sound data at the feature point Px is corrected on the line segment between the feature point Px and the virtual output sources T3 and T4 and inside the boundary line B intersecting (the feature point Px side). Output source positions T3 ′ and T4 ′ are set.

例えば、図7の例において、プレイヤキャラクタCの位置が特徴点Pxに位置した場合、特徴点情報取得手段32は、プレイヤキャラクタCの位置に最も近い位置にある特徴点Pnとして境界領域EBに含まれる特徴点Pxの情報を取得する。この場合、仮想出力源設定手段36は、プレイヤキャラクタCの位置を基準とする4つの仮想出力源として、特徴点Pxにおける仮想出力源T1,T2および補正後の仮想出力源T3’,T4’を設定する。以下、単に仮想出力源T1,T2,T3’,T4’と称して説明する。   For example, in the example of FIG. 7, when the position of the player character C is located at the feature point Px, the feature point information acquisition unit 32 is included in the boundary region EB as the feature point Pn closest to the position of the player character C. The information of the feature point Px to be acquired is acquired. In this case, the virtual output source setting means 36 uses the virtual output sources T1 and T2 at the feature point Px and the corrected virtual output sources T3 ′ and T4 ′ as four virtual output sources based on the position of the player character C. Set. Hereinafter, description will be made simply by referring to the virtual output sources T1, T2, T3 ', and T4'.

例えば、図7の例において、移動可能領域SMが洞窟の内部である場合、境界線Bより外側は洞窟の外側となる。この場合、仮想出力源T3,T4の位置では、洞窟の外の情報が取得されてしまい、洞窟の中なのに洞窟の外の音(例えば鳥のさえずり等)が聞こえてくるという矛盾が生じ得る。したがって、このような場合には、上述したように、仮想出力源T3,T4を洞窟内(境界線Bより内側)に配置するように設定変更することにより、このような矛盾を防ぎ、よりリアルな表現を行うことができる。   For example, in the example of FIG. 7, when the movable region SM is inside the cave, the outside of the boundary line B is the outside of the cave. In this case, at the positions of the virtual output sources T3 and T4, information outside the cave is acquired, and there may be a contradiction that sounds outside the cave (for example, a bird's tweet) can be heard in the cave. Therefore, in such a case, as described above, by changing the setting so that the virtual output sources T3 and T4 are arranged in the cave (inside the boundary line B), such contradiction can be prevented and more realistic Can be expressed.

エフェクト表現変更手段331は、仮想出力源が第1領域E1または第2領域E2に位置する場合は(図7の例では仮想出力源T1が該当する)、対応する第1領域E1に対応する第1のエフェクト表現の出力源が当該仮想出力源T1に存在すると仮定して対応する特定音声データ(第1の特定音声データ)を加工する。   When the virtual output source is located in the first region E1 or the second region E2 (in the example of FIG. 7, this corresponds to the virtual output source T1), the effect expression changing unit 331 corresponds to the corresponding first region E1. Assuming that the output source of one effect expression exists in the virtual output source T1, the corresponding specific audio data (first specific audio data) is processed.

また、仮想出力源が境界領域EBに位置する場合は(図7の例では仮想出力源T2,T3’,T4’が該当する)、境界領域EBに接続される第1領域E1および第2領域E2の双方に対応する第1および第2のエフェクト表現の出力源が当該境界領域EBに位置する仮想出力源T2,T3’,T4’に存在すると仮定して、対応する特定音声データ(第1の特定音声データおよび第2の特定音声データ)を加工する。エフェクト表現変更手段331は、これらを加えることにより、プレイヤキャラクタCの位置における音声出力表現(エフェクト表現)を実行する。   When the virtual output source is located in the boundary region EB (in the example of FIG. 7, the virtual output sources T2, T3 ′, and T4 ′ correspond), the first region E1 and the second region connected to the boundary region EB Assuming that the output sources of the first and second effect expressions corresponding to both E2 exist in the virtual output sources T2, T3 ′, T4 ′ located in the boundary region EB, the corresponding specific audio data (first The specific audio data and the second specific audio data) are processed. By adding these, the effect expression changing means 331 executes the sound output expression (effect expression) at the position of the player character C.

このように、仮想空間Sにおいて異なるエフェクト表現が出力される領域E1,E2間に両方のエフェクト表現が出力される境界領域EBが設けられる。したがって、異なるエフェクト表現が出力される領域E1,E2間におけるエフェクト表現の変化を滑らかに行うことができる。この結果、エフェクト表現による演出のための処理負荷の増大を抑制しつつ、ゲーム音による多彩な演出を行うことができる。   Thus, the boundary area EB in which both effect expressions are output is provided between the areas E1 and E2 in which different effect expressions are output in the virtual space S. Therefore, the effect expression can be smoothly changed between the areas E1 and E2 where different effect expressions are output. As a result, it is possible to perform a variety of effects using game sounds while suppressing an increase in processing load for effects expressed by effects.

さらに、エフェクト表現変更手段331は、境界領域EBに含まれる仮想出力源T2,T3’,T4’における境界領域EB内の所定の基準位置との位置関係に応じて第1のエフェクト表現に対する第2のエフェクト表現の出力比を変化させて出力する。本実施の形態において、所定の基準位置は、基準位置領域EAに設定される。これに代えて、所定の基準位置は、基準位置領域EA内に設定される所定の基準点でもよいし、基準位置領域EAに含まれる一の特徴点Pi(B)の位置でもよい。   Furthermore, the effect expression changing means 331 performs the second operation on the first effect expression according to the positional relationship with the predetermined reference position in the boundary area EB in the virtual output sources T2, T3 ′, T4 ′ included in the boundary area EB. The output ratio of the effect expression is changed and output. In the present embodiment, the predetermined reference position is set in the reference position area EA. Instead, the predetermined reference position may be a predetermined reference point set in the reference position area EA, or may be the position of one feature point Pi (B) included in the reference position area EA.

エフェクト表現変更手段331は、基準位置領域EAから境界領域EBに含まれる各仮想出力源T2,T3’,T4’までの距離および基準位置領域EAから隣り合う出力源領域E1,E2の何れの側に位置するかを取得する。図7の例において、仮想出力源T2は、第2領域E2側に位置し、仮想出力源T3’,T4’は、第1領域E1側に位置する。基準位置領域EAからの距離は、仮想出力源T4’が最も短く、仮想出力源T3’,T2は同じ距離となっている。すなわち、(T4’までの距離)<(T3’までの距離)=(T2までの距離)となっている。   The effect expression changing unit 331 is configured to determine the distance from the reference position area EA to each virtual output source T2, T3 ′, T4 ′ included in the boundary area EB and any side of the output source areas E1, E2 adjacent to the reference position area EA. Get what is located at. In the example of FIG. 7, the virtual output source T2 is located on the second region E2 side, and the virtual output sources T3 'and T4' are located on the first region E1 side. The distance from the reference position area EA is the shortest for the virtual output source T4 ', and the virtual output sources T3' and T2 are the same distance. That is, (distance to T4 ') <(distance to T3') = (distance to T2).

エフェクト表現変更手段331は、境界領域EBに含まれる仮想出力源T2,T3’,T4’が基準位置に対して第1領域E1側に離れる程、第1のエフェクト表現の出力(例えば音量、反響の長さ等)を第2のエフェクト表現の出力に対して大きくする。また、エフェクト表現変更手段331は、境界領域EBに含まれる仮想出力源T2,T3’,T4’が基準位置に対して第2領域E2側に離れる程、第2のエフェクト表現の出力を第1のエフェクト表現の出力に対して大きくする。   The effect expression changing means 331 outputs the first effect expression (for example, volume, reverberation) as the virtual output sources T2, T3 ′, T4 ′ included in the boundary area EB move away from the reference position toward the first area E1. Is increased with respect to the output of the second effect expression. Further, the effect expression changing unit 331 outputs the second effect expression as the first output as the virtual output sources T2, T3 ′, T4 ′ included in the boundary area EB move away from the reference position toward the second area E2. Increase the output of the effect expression.

例えば、図7の例では、エフェクト表現変更手段331は、仮想出力源T4’において(第1のエフェクト表現の出力):(第2のエフェクト表現の出力)=70:30とする。また、エフェクト表現変更手段331は、仮想出力源T3’において(第1のエフェクト表現の出力):(第2のエフェクト表現の出力)=60:40とする。また、エフェクト表現変更手段331は、仮想出力源T2において(第1のエフェクト表現の出力):(第2のエフェクト表現の出力)=40:60とする。また、仮想出力源が基準位置領域EA内にある場合は、(第1のエフェクト表現の出力):(第2のエフェクト表現の出力)=50:50としてもよい。   For example, in the example of FIG. 7, the effect expression changing unit 331 sets (output of the first effect expression) :( output of the second effect expression) = 70: 30 in the virtual output source T4 '. The effect expression changing means 331 sets (output of the first effect expression) :( output of the second effect expression) = 60: 40 in the virtual output source T3 '. The effect expression changing unit 331 sets (output of the first effect expression) :( output of the second effect expression) = 40: 60 in the virtual output source T2. Further, when the virtual output source is in the reference position area EA, (output of first effect expression) :( output of second effect expression) = 50: 50 may be set.

このように、境界領域EBに仮想出力源T2,T3’,T4’が位置した場合における特定音声データに基づくエフェクト表現の出力を、境界領域EB内に設定された基準位置(基準位置領域EA)と仮想出力源T2,T3’,T4’との位置関係に応じて隣り合う領域E1,E2に対応する複数種類の特定音声データに基づくエフェクト表現の出力の強弱が調整される。したがって、異なる特定音声データに基づくエフェクト表現が実行される複数の領域E1,E2間における音響効果の変化をより滑らかに行うことができる。   As described above, the output of the effect expression based on the specific audio data when the virtual output sources T2, T3 ′, T4 ′ are located in the boundary area EB is the reference position (reference position area EA) set in the boundary area EB. And the output level of the effect expression based on a plurality of types of specific audio data corresponding to the adjacent regions E1 and E2 are adjusted according to the positional relationship between the virtual output sources T2, T3 ′, and T4 ′. Therefore, it is possible to smoothly change the acoustic effect between the plurality of regions E1 and E2 in which the effect expression based on different specific audio data is executed.

なお、本実施の形態においては、仮想出力源T1〜T4の情報を、特徴点Pi(B)の環境情報に含めることにより、音の聴取位置Lを基準として設定される仮想出力源を間接的に設定する態様について説明した。すなわち、本実施の形態においては、プレイヤキャラクタCが移動した位置に最も近い位置の特徴点Pi(B)の環境情報として設定されている仮想音源位置の情報を取得することにより、プレイヤキャラクタCの位置における仮想音源位置が設定されている。   In the present embodiment, the virtual output source set on the basis of the listening position L of sound is indirectly determined by including the information of the virtual output sources T1 to T4 in the environment information of the feature point Pi (B). The mode to set to has been described. That is, in the present embodiment, by acquiring the information on the virtual sound source position set as the environment information of the feature point Pi (B) at the position closest to the position where the player character C has moved, The virtual sound source position in the position is set.

この場合、さらに、特徴点情報取得手段32は、プレイヤキャラクタCの位置と情報を取得した特徴点Pi(B)との位置関係に基づいて仮想出力源T1〜T4の位置を補間することにより、プレイヤキャラクタCの位置における仮想出力源T1〜T4を算出してもよい。また、特徴点情報取得手段32は、複数の特徴点Pi(B)の情報に基づいてプレイヤキャラクタCの位置における仮想出力源T1〜T4を算出してもよい。   In this case, the feature point information acquisition unit 32 further interpolates the positions of the virtual output sources T1 to T4 based on the positional relationship between the position of the player character C and the feature point Pi (B) from which the information is acquired. The virtual output sources T1 to T4 at the position of the player character C may be calculated. Further, the feature point information acquisition unit 32 may calculate the virtual output sources T1 to T4 at the position of the player character C based on the information of the plurality of feature points Pi (B).

これに代えて、プレイヤキャラクタCの位置から所定の方向に所定距離離れた位置が仮想出力源として直接的に設定されてもよい。すなわち、プレイヤキャラクタCの移動に伴って、仮想出力源も移動するようにしてもよい。   Instead, a position that is a predetermined distance away from the position of the player character C in a predetermined direction may be directly set as the virtual output source. That is, as the player character C moves, the virtual output source may move.

以上、本発明の実施の形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない範囲内で種々の改良、変更、修正が可能である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various improvements, changes, and modifications can be made without departing from the spirit of the present invention.

例えば、上記実施の形態においては、「特徴点を利用したエフェクト表現の加工処理」、「仮想カメラの向きに基づくエフェクト表現の加工処理」、および「隣接する出力源領域間におけるエフェクト表現の移行処理」を何れも備えた例を示したが、各処理はそれぞれ独立してゲームプログラムに適用可能である。   For example, in the above-mentioned embodiment, “effect expression processing using feature points”, “effect expression processing based on virtual camera orientation”, and “effect expression transition processing between adjacent output source regions” However, each process can be independently applied to a game program.

例えば、「仮想カメラの向きに基づくエフェクト表現の加工処理」を、仮想空間Sに等間隔の格子状に配置された複数の特徴点を有する構成に適用しても上記効果を奏する。また、例えば、「隣接する出力源領域間におけるエフェクト表現の移行処理」を、複数の特徴点Piを用いない従来の構成(領域ごとに音声データが設定される構成)に適用しても上記効果を奏する。   For example, the above effect can be obtained even when “processing of effect expression based on the orientation of the virtual camera” is applied to a configuration having a plurality of feature points arranged in the virtual space S in an equidistant grid. Further, for example, the above-described effect can be achieved even if “effect effect transition processing between adjacent output source regions” is applied to a conventional configuration (a configuration in which audio data is set for each region) that does not use a plurality of feature points Pi. Play.

また、上記実施の形態においては、エフェクト表現の取得位置(音の聴取位置L)の設定基準となるキャラクタがプレイヤキャラクタCである場合について説明したが、これに代えて、敵キャラクタ等のノンプレイヤキャラクタの位置に基づいてエフェクト表現の取得位置が設定されてもよい。   In the above-described embodiment, the case where the character serving as the reference for setting the effect expression acquisition position (sound listening position L) is the player character C. Instead, a non-player such as an enemy character is used. The acquisition position of the effect expression may be set based on the position of the character.

また、上記実施の形態においては、エフェクト表現として、周囲の環境に応じて特定音声データの加工を行うことによる音声出力表現を行う例を示したが、これに限られない。例えば、音声出力表現に加えてまたはこれに代えて、エフェクト表現として、周囲の環境に応じた特定の光の照射データの加工を行うことによる光の照射表現を行ってもよい。また、エフェクト表現として、風、雨等の周囲の環境によって影響され得るエフェクト表現の演出に適用してもよい。   In the above-described embodiment, as an effect expression, an example in which sound output expression is performed by processing specific sound data according to the surrounding environment is shown, but the effect expression is not limited thereto. For example, in addition to or instead of the audio output expression, light irradiation expression by processing specific light irradiation data according to the surrounding environment may be performed as an effect expression. Further, the effect expression may be applied to the effect expression that can be influenced by the surrounding environment such as wind and rain.

また、上述した説明では、一人のユーザがオフラインゲームを行う場合について例示したが、本発明は、複数のユーザが各自のプレイヤキャラクタを同一の仮想ゲーム空間内に登場させ、これらを協力させて行動させるオンラインゲームにおいても適用することができる。   In the above description, the case where one user plays an offline game has been exemplified. However, in the present invention, a plurality of users make their player characters appear in the same virtual game space and cooperate with each other to act. The present invention can also be applied to online games.

また、上記実施の形態では携帯型のゲーム装置について説明したが、据え置き型のゲーム装置、携帯電話機、およびパーソナルコンピュータなどのコンピュータについても、本発明を好適に適用することができる。   Although the portable game device has been described in the above embodiment, the present invention can be suitably applied to computers such as a stationary game device, a mobile phone, and a personal computer.

本発明は、ゲームプログラムおよびゲーム装置において、ゲーム音による演出のための処理負荷の増大を抑制しつつ、ゲーム音による多彩な演出を行うために有用である。   INDUSTRIAL APPLICABILITY The present invention is useful for performing a variety of effects using game sounds while suppressing an increase in processing load for effects using game sounds in a game program and a game device.

1 ゲーム装置
2 ディスプレイ(表示部)
30 制御部
31 仮想空間生成手段
32 特徴点情報取得手段
33 エフェクト表現手段
331 エフェクト表現変更手段
34 仮想カメラ制御手段
L 音の聴取位置(エフェクト表現の取得位置)
Pi(i=1,2,…) 特徴点
S 仮想空間
SB 基準領域
V 仮想カメラ
1 game device 2 display (display unit)
DESCRIPTION OF SYMBOLS 30 Control part 31 Virtual space production | generation means 32 Feature point information acquisition means 33 Effect expression means 331 Effect expression change means 34 Virtual camera control means L Sound listening position (effect expression acquisition position)
Pi (i = 1, 2,...) Feature point S Virtual space SB Reference area V Virtual camera

Claims (8)

仮想空間に配置した仮想カメラで撮像した画像をゲーム画面として表示する表示部と、ゲームを進行させるコンピュータとを備えたゲームシステムにおいて前記コンピュータに実行させるゲームプログラムであって、
前記コンピュータを、
前記仮想空間を生成する仮想空間生成手段、
前記仮想カメラの向きまたは位置を制御する仮想カメラ制御手段、
予め記憶された少なくとも1つのエフェクト表現データを用いてエフェクト表現を実行するエフェクト表現手段、および
前記仮想空間上に配置された複数の特徴点のうち、少なくとも、前記仮想カメラの位置に付随して設定されるエフェクト表現の取得位置に最も近い位置にある特徴点の情報を取得する特徴点情報取得手段、として機能させ、
前記エフェクト表現手段は、取得した特徴点の情報に基づいて、前記エフェクト表現データを加工するエフェクト表現変更手段を含み、
前記特徴点の情報は、当該特徴点の位置から最も近い遮蔽物が位置する基準方向を含み、
前記エフェクト表現変更手段は、取得した特徴点における前記基準方向に応じて前記エフェクト表現データを加工する、ゲームプログラム。
A game program to be executed by the computer in a game system including a display unit that displays an image captured by a virtual camera arranged in a virtual space as a game screen, and a computer that advances the game,
The computer,
Virtual space generation means for generating the virtual space;
Virtual camera control means for controlling the orientation or position of the virtual camera;
Effect expression means for executing effect expression using at least one effect expression data stored in advance, and among the plurality of feature points arranged in the virtual space, set at least in association with the position of the virtual camera Function point information acquisition means for acquiring feature point information at a position closest to the acquisition position of the effect expression,
The effect expression means includes effect expression change means for processing the effect expression data based on the acquired feature point information,
The feature point information includes a reference direction in which a shield closest to the position of the feature point is located,
The effect expression changing means is a game program for processing the effect expression data in accordance with the reference direction at the acquired feature point.
前記エフェクト表現変更手段は、取得した特徴点における前記基準方向と前記仮想カメラの向きとの角度に応じて前記エフェクト表現データを加工する、請求項1に記載のゲームプログラム。 The game program according to claim 1, wherein the effect expression changing unit processes the effect expression data according to an angle between the reference direction and the direction of the virtual camera at the acquired feature point. 前記エフェクト表現変更手段は、前記基準方向と前記仮想カメラの向きとの角度が小さいほど前記エフェクト表現データに基づくエフェクト表現の出力を大きくする、請求項2に記載のゲームプログラム。   The game program according to claim 2, wherein the effect expression changing unit increases the output of the effect expression based on the effect expression data as the angle between the reference direction and the direction of the virtual camera is smaller. 前記特徴点の情報は、当該特徴点に対して前記基準方向を含む所定の複数の方向において対向する遮蔽物の複数の表面位置に基づいて画される所定の基準領域の位置情報を含み、
前記エフェクト表現変更手段は、前記エフェクト表現の取得位置の前記仮想カメラの向きを基準とする所定の方向における前記エフェクト表現の取得位置が含まれる基準領域の境界までの距離に基づいて前記エフェクト表現データを加工する、請求項2または3に記載のゲームプログラム。
The feature point information includes position information of a predetermined reference region defined based on a plurality of surface positions of a shielding object facing the feature point in a plurality of predetermined directions including the reference direction,
The effect expression changing means is configured to determine the effect expression data based on a distance to a boundary of a reference area including the acquisition position of the effect expression in a predetermined direction with reference to an orientation of the virtual camera of the acquisition position of the effect expression. The game program according to claim 2, wherein the game program is processed.
前記基準領域は、前記複数の表面位置のうち、前記特徴点と対向する遮蔽物の表面位置との距離が所定の規定距離以上である場合、前記特徴点から当該対向する方向に前記規定距離離れた位置が前記基準領域を画する境界線に含まれるように設定される、請求項4に記載のゲームプログラム。   The reference region is separated from the feature point in the facing direction when the distance between the surface position of the shielding object facing the feature point is equal to or greater than a predetermined specified distance among the plurality of surface positions. The game program according to claim 4, wherein the determined position is set to be included in a boundary line that defines the reference area. 前記基準領域の境界は、前記基準方向に直交する線分を一辺に含む矩形状に形成される、請求項4または5に記載のゲームプログラム。   The game program according to claim 4 or 5, wherein a boundary of the reference region is formed in a rectangular shape including a line segment orthogonal to the reference direction on one side. 前記エフェクト表現変更手段は、前記音の聴取位置から前記仮想カメラの向きを含む直交する4方向において前記基準領域の境界までの距離を取得し、取得した4つの距離に基づいて前記エフェクト表現データを加工する、請求項4から6の何れかに記載のゲームプログラム。   The effect expression changing means acquires a distance from the sound listening position to a boundary of the reference area in four orthogonal directions including the direction of the virtual camera, and the effect expression data is obtained based on the acquired four distances. The game program according to claim 4, which is processed. 請求項1から7の何れかに記載のゲームプログラムを記憶したプログラム記憶部と、
前記プログラム記憶部に記憶されたプログラムを実行するコンピュータと、を備えた、ゲーム装置。
A program storage unit storing the game program according to claim 1;
A game apparatus comprising: a computer that executes a program stored in the program storage unit.
JP2017025670A 2017-02-15 2017-02-15 GAME PROGRAM AND GAME DEVICE Active JP6407324B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017025670A JP6407324B2 (en) 2017-02-15 2017-02-15 GAME PROGRAM AND GAME DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017025670A JP6407324B2 (en) 2017-02-15 2017-02-15 GAME PROGRAM AND GAME DEVICE

Publications (2)

Publication Number Publication Date
JP2018130282A true JP2018130282A (en) 2018-08-23
JP6407324B2 JP6407324B2 (en) 2018-10-17

Family

ID=63247765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017025670A Active JP6407324B2 (en) 2017-02-15 2017-02-15 GAME PROGRAM AND GAME DEVICE

Country Status (1)

Country Link
JP (1) JP6407324B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022141054A (en) * 2021-03-15 2022-09-29 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000267675A (en) * 1999-03-16 2000-09-29 Sega Enterp Ltd Acoustical signal processor
JP2003062327A (en) * 2001-08-27 2003-03-04 Nintendo Co Ltd Game equipment and program
JP2006230578A (en) * 2005-02-23 2006-09-07 Namco Bandai Games Inc Program, information storage medium and game apparatus
JP2007236833A (en) * 2006-03-13 2007-09-20 Konami Digital Entertainment:Kk Output device and control method for game sound, and program
JP2013017568A (en) * 2011-07-08 2013-01-31 Square Enix Co Ltd Echo processing device
JP2013102843A (en) * 2011-11-11 2013-05-30 Nintendo Co Ltd Information processing program, information processor, information processing system, and information processing method
JP2017221554A (en) * 2016-06-17 2017-12-21 株式会社カプコン Game program and game system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000267675A (en) * 1999-03-16 2000-09-29 Sega Enterp Ltd Acoustical signal processor
JP2003062327A (en) * 2001-08-27 2003-03-04 Nintendo Co Ltd Game equipment and program
JP2006230578A (en) * 2005-02-23 2006-09-07 Namco Bandai Games Inc Program, information storage medium and game apparatus
JP2007236833A (en) * 2006-03-13 2007-09-20 Konami Digital Entertainment:Kk Output device and control method for game sound, and program
JP2013017568A (en) * 2011-07-08 2013-01-31 Square Enix Co Ltd Echo processing device
JP2013102843A (en) * 2011-11-11 2013-05-30 Nintendo Co Ltd Information processing program, information processor, information processing system, and information processing method
JP2017221554A (en) * 2016-06-17 2017-12-21 株式会社カプコン Game program and game system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022141054A (en) * 2021-03-15 2022-09-29 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
JP7252998B2 (en) 2021-03-15 2023-04-05 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
US11871206B2 (en) 2021-03-15 2024-01-09 Nintendo Co., Ltd. Computer-readable non-transitory storage medium having information processing program stored therein, information processing apparatus, information processing system, and information processing method

Also Published As

Publication number Publication date
JP6407324B2 (en) 2018-10-17

Similar Documents

Publication Publication Date Title
JP3977405B1 (en) GAME SOUND OUTPUT DEVICE, GAME SOUND CONTROL METHOD, AND PROGRAM
JP4221035B2 (en) Game sound output device, sound image localization control method, and program
EP1795240B1 (en) Game machine, game machine control method, information recording medium, and program
JP6343048B1 (en) GAME PROGRAM AND GAME DEVICE
JP3853329B2 (en) GAME PROGRAM AND GAME DEVICE
JPH11272156A (en) Virtual three-dimensional sound image generating device and method and medium thereof
JP6427212B2 (en) Game program and game apparatus
JP2006209240A (en) Program, light arrangement method and image generation device
JP5046531B2 (en) Program, information storage medium, and game system
JP6407324B2 (en) GAME PROGRAM AND GAME DEVICE
JP2019000138A (en) Game program, game device, and server device
JP3974135B2 (en) Program, automatic arrangement method, and image generation apparatus
JP2020018620A (en) Voice generation program in virtual space, generation method of quadtree, and voice generation device
JP5677050B2 (en) GAME PROGRAM AND GAME DEVICE
JP2008200255A (en) Game device, game program, and storage medium
JP6538112B2 (en) Game program and game apparatus
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
JP2004287504A (en) Image generating device, image processing method, and program
US10102677B2 (en) Computer-readable recording medium for drawing processing, drawing processing apparatus, drawing processing method, computer-readable recording medium for sound processing, sound processing apparatus, and sound processing method
JP2024007703A (en) Virtual space creation program, and virtual space creation device
Beig Scalable immersive audio for virtual environments
JP2009247555A (en) Image generating system, program, and information storage medium
JP2024041355A (en) Program, virtual space generation device, and virtual space generation method
JP6740297B2 (en) Game program and game device
JP2010277121A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180918

R150 Certificate of patent or registration of utility model

Ref document number: 6407324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802