JP6840715B2 - Game programs and game devices - Google Patents

Game programs and game devices Download PDF

Info

Publication number
JP6840715B2
JP6840715B2 JP2018229616A JP2018229616A JP6840715B2 JP 6840715 B2 JP6840715 B2 JP 6840715B2 JP 2018229616 A JP2018229616 A JP 2018229616A JP 2018229616 A JP2018229616 A JP 2018229616A JP 6840715 B2 JP6840715 B2 JP 6840715B2
Authority
JP
Japan
Prior art keywords
state
pronunciation
tag
control means
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018229616A
Other languages
Japanese (ja)
Other versions
JP2020089614A (en
Inventor
中島 健太郎
健太郎 中島
木下 裕介
裕介 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2018229616A priority Critical patent/JP6840715B2/en
Publication of JP2020089614A publication Critical patent/JP2020089614A/en
Application granted granted Critical
Publication of JP6840715B2 publication Critical patent/JP6840715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ゲームプログラム、およびゲーム装置に関する。 The present invention relates to a game program and a game device.

ゲームプログラムには、キャラクタの動作に合わせて効果音を発生させるものがある(例えば特許文献1を参照)。特許文献1の例では、ビデオ映像のフレームに対応づけて効果音を発生させている。 Some game programs generate sound effects according to the movement of a character (see, for example, Patent Document 1). In the example of Patent Document 1, a sound effect is generated in association with a frame of a video image.

WO2017/099098WO2017 / 099098

しかしながら、ビデオ映像のフレームに対応づけて効果音の発生を行う方式では、プログラムの開発中にキャラクタの動作が変更されると、効果音の発生タイミングも変更する必要がある。 However, in the method of generating the sound effect in association with the frame of the video image, if the movement of the character is changed during the development of the program, it is necessary to change the timing of generating the sound effect.

そこで、本発明の目的は、ゲームプログラム、およびゲーム装置において、オブジェクトの動作変更に影響されない発音制御ができるようにすることを目的とする。 Therefore, an object of the present invention is to enable a game program and a game device to control pronunciation without being affected by a change in the operation of an object.

第1の発明は、コンピュータを、仮想空間におけるオブジェクトの動作を有限状態機械によって決定する動作決定手段と、前記仮想空間内の音として音声データを再生する再生手段と、前記有限状態機械の状態遷移に応じて、前記再生手段における前記音声データの発音状態を制御する発音制御手段と、して機能させることを特徴とするゲームプログラムである。 The first invention is an operation determining means for determining the operation of an object in a virtual space by a finite state machine, a reproducing means for reproducing voice data as sound in the virtual space, and a state transition of the finite state machine. The game program is characterized in that it functions as a pronunciation control means for controlling the pronunciation state of the voice data in the reproduction means according to the above.

そして、第1発明においては、前記コンピュータを、前記有限状態機械が所定の状態に遷移するとき又は到達したときに、前記発音状態を特定するための情報であるタグを出力するタグ出力手段として機能させ、前記発音制御手段は、前記タグに応じて、前記発音状態を制御する Then , in the first invention, the computer functions as a tag output means for outputting a tag which is information for specifying the sounding state when the finite state machine transitions to or reaches a predetermined state. The pronunciation control means controls the pronunciation state according to the tag.

また、前記発明においては、前記タグは、複数のグループに分類されており、前記タグ出力手段は、前記有限状態機械が所定の状態に遷移するとき又は到達したときに、1または複数の前記タグを、属するグループを識別できるように出力し、前記発音制御手段は、前記グループ毎に独立して、前記発音状態を制御してもよい。 Further, in the present invention, the tags are classified into a plurality of groups, and the tag output means is one or a plurality of the tags when the finite state machine transitions to or reaches a predetermined state. Is output so that the group to which it belongs can be identified, and the pronunciation control means may control the pronunciation state independently for each group.

また、前記発明においては、前記コンピュータを、前記オブジェクトと他のオブジェクトとの当たり判定を、予め定めた所定状態に前記有限状態機械が遷移するとき又は到達したときに行う当たり判定手段として機能させ、前記発音制御手段は、前記当たり判定手段の判定結果に応じて、前記発音状態を制御してもよい。 Further, in the present invention, the computer is made to function as a collision determination means for performing collision determination between the object and another object when the finite state machine transitions to or reaches a predetermined predetermined state. The pronunciation control means may control the pronunciation state according to the determination result of the hit determination means.

また、前記発明においては、前記発音制御手段は、前記発音状態の制御として、前記音声データの、発音開始、発音停止、音量、及び音色の少なくとも一つの制御が可能に構成するとよい。 Further, in the present invention, the pronunciation control means may be configured to be capable of controlling at least one of the pronunciation start, pronunciation stop, volume, and timbre of the voice data as the control of the pronunciation state.

また、第2の発明は、前記発明の何れかのゲームプログラムを記憶した記憶部と、前記ゲームプログラムを実行する制御部と、を備えたことを特徴とするゲーム装置である。 The second invention is a game device including a storage unit that stores any of the game programs of the present invention and a control unit that executes the game program.

本発明によれば、オブジェクトの動作変更に影響されない発音制御が可能になる。 According to the present invention, it is possible to control the pronunciation without being affected by the change in the operation of the object.

実施形態1のゲーム装置の構成を示すブロック図である。It is a block diagram which shows the structure of the game apparatus of Embodiment 1. FIG. プレイヤキャラクタのFSMに対応する状態遷移図(抜粋)である。It is a state transition diagram (excerpt) corresponding to the FSM of the player character. 実施形態1の発音制御手段が持つテーブル(抜粋)を例示している。An example is a table (excerpt) included in the pronunciation control means of the first embodiment. 実施形態2の発音制御手段が持つテーブル(抜粋)を例示している。An example is a table (excerpt) included in the pronunciation control means of the second embodiment. 関連グループの規定例をプレイヤキャラクタの状態遷移図(抜粋)を用いて示す。A rule example of the related group is shown using a state transition diagram (excerpt) of the player character. 実施形態3のゲーム装置の構成を示すブロック図である。It is a block diagram which shows the structure of the game apparatus of Embodiment 3.

[実施形態1]
以下、本発明の実施形態1にかかるゲーム装置、およびゲームプログラムについて、図面を参照して説明する。
[Embodiment 1]
Hereinafter, the game device and the game program according to the first embodiment of the present invention will be described with reference to the drawings.

本実施形態で説明するゲームプログラムは、例えば、パーソナルコンピュータ、プレイステーション(登録商標)、XBox(登録商標)、PlayStation Vita(登録商標)などのゲーム装置において実行される。 The game program described in this embodiment is executed on a game device such as a personal computer, a PlayStation (registered trademark), an XBox (registered trademark), or a PlayStation Vita (registered trademark).

このゲームプログラムによるゲームでは、各ユーザの操作を受けて、プレイヤキャラクタを三次元の仮想ゲーム空間(以下、単に仮想空間という)で活動(例えば移動)させたり、プレイヤキャラクタ同士でグループを編成して様々なアクションを行わせたりする。 In a game based on this game program, a player character is activated (for example, moved) in a three-dimensional virtual game space (hereinafter, simply referred to as a virtual space) in response to an operation of each user, or a group is formed between player characters. Have them perform various actions.

〈ゲーム装置の構成〉
ゲーム装置5は、ユーザの操作に基づいて所定のゲームを実行する。図1は、本実施形態のゲーム装置5の構成を示すブロック図である。ゲーム装置5には、ディスプレイ61、スピーカ62およびコントローラ63が外部接続または内蔵される。ゲーム装置5では、インストールされたゲームプログラムおよびゲームデータに基づいてゲームが進行する。なお、ゲーム装置5同士も、通信ネットワーク(図示を省略)または近距離無線通信装置(図示せず)を用いて、互いにデータ通信を行うことができる。
<Configuration of game device>
The game device 5 executes a predetermined game based on the operation of the user. FIG. 1 is a block diagram showing the configuration of the game device 5 of the present embodiment. A display 61, a speaker 62, and a controller 63 are externally connected or built in the game device 5. In the game device 5, the game progresses based on the installed game program and game data. The game devices 5 can also perform data communication with each other using a communication network (not shown) or a short-range wireless communication device (not shown).

ゲーム装置5は、ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54、記憶部55および制御部56を有する。ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54および記憶部55は、バス59を介して制御部56と電気的に接続されている。 The game device 5 includes a network interface 51, a graphic processing unit 52, an audio processing unit 53, an operation unit 54, a storage unit 55, and a control unit 56. The network interface 51, the graphic processing unit 52, the audio processing unit 53, the operation unit 54, and the storage unit 55 are electrically connected to the control unit 56 via the bus 59.

ネットワークインターフェース51は、例えばゲーム装置5や外部のサーバ装置(図示を省略)との間で各種データを送受信するために、前記通信ネットワークに通信可能に接続される。 The network interface 51 is communicably connected to the communication network, for example, in order to transmit and receive various data to and from a game device 5 and an external server device (not shown).

グラフィック処理部52は、制御部56から出力されるゲーム画像情報に従って、プレイヤキャラクタおよびゲーム空間に関する各種オブジェクトを含むゲーム画像を、動画形式で描画する。グラフィック処理部52はディスプレイ61と接続されており、動画形式に描画されたゲーム画像は、ゲーム画面としてディスプレイ61上に表示される。 The graphic processing unit 52 draws a game image including various objects related to the player character and the game space in a moving image format according to the game image information output from the control unit 56. The graphic processing unit 52 is connected to the display 61, and the game image drawn in the moving image format is displayed on the display 61 as a game screen.

オーディオ処理部53は、制御部56の指示に従ってデジタルの音声データを再生および合成する。オーディオ処理部53はスピーカ62と接続されており、再生および合成された音声データは、アナログ信号に変換された後、スピーカ62から出力される。オーディオ処理部53の機能の詳細については後に詳述する。 The audio processing unit 53 reproduces and synthesizes digital audio data according to the instructions of the control unit 56. The audio processing unit 53 is connected to the speaker 62, and the reproduced and synthesized audio data is converted into an analog signal and then output from the speaker 62. The details of the function of the audio processing unit 53 will be described in detail later.

操作部54は、コントローラ63と接続され、操作入力に関するデータをコントローラ63との間で送受信する。例えば、ユーザは、コントローラ63に設けられたボタン等の操作子(図示略)を操作することにより、ゲーム装置5に操作信号を入力する。 The operation unit 54 is connected to the controller 63 and transmits / receives data related to the operation input to / from the controller 63. For example, the user inputs an operation signal to the game device 5 by operating an operator (not shown) such as a button provided on the controller 63.

記憶部55は、HDD、RAMおよびROM等で構成される。記憶部55は、ゲームプログラムおよびゲームデータを記憶することができる。また、記憶部55には、他のゲーム装置5から受信した他アカウント情報なども記憶される。 The storage unit 55 is composed of an HDD, a RAM, a ROM, and the like. The storage unit 55 can store the game program and the game data. In addition, other account information received from the other game device 5 is also stored in the storage unit 55.

制御部56は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、ゲーム装置5自身の動作を制御する。例えば、制御部56は、前記ゲームプログラムを実行することにより、グラフィック処理部52およびオーディオ処理部53を動作させる。制御部56の機能の詳細についても後に詳述する。 The control unit 56 is composed of a microcomputer including a CPU and a semiconductor memory, and controls the operation of the game device 5 itself. For example, the control unit 56 operates the graphic processing unit 52 and the audio processing unit 53 by executing the game program. The details of the function of the control unit 56 will also be described in detail later.

〈オーディオ処理部の機能的構成〉
オーディオ処理部53は、音声データの再生や合成の機能を発揮する、いわゆるミドルウエアを実行する。オーディオ処理部53は、ミドルウエアを実行することにより、仮想空間内の音として音声データの再生(発音)を行う再生手段として機能する。
<Functional configuration of audio processing unit>
The audio processing unit 53 executes so-called middleware that exerts functions of reproducing and synthesizing audio data. The audio processing unit 53 functions as a reproduction means for reproducing (pronunciation) audio data as sound in the virtual space by executing middleware.

ここで、音声データとは、ゲーム中にスピーカ62から流れる音声であり、一例として、BGM(Background Music)や、ユーザの操作に応じて流れる効果音、各キャラクタが発する声(キャラクタ同士の会話)、モンスターの咆号、環境音などの種々の音声を含む。環境音としては、洞窟において入口から出口に向かう風の音、町の雑踏の音、森や草原に吹く風の音、鳥や虫など小動物の鳴き声等が挙げられる。 Here, the voice data is a voice flowing from the speaker 62 during the game, and as an example, BGM (Background Music), a sound effect flowing according to a user's operation, and a voice emitted by each character (conversation between characters). Includes various sounds such as, monster's roar, and environmental sounds. Environmental sounds include the sound of wind from the entrance to the exit in a cave, the sound of crowds in the town, the sound of wind blowing in forests and grasslands, and the sounds of small animals such as birds and insects.

また、前記ミドルウエアは、他のソフトウエア等の指示に従って、音声データの加工を行う機能を有している。具体的に、前記ミドルウエアは、音声データの加工として、反響(Reverb)効果を付加する処理、フィルター処理(例えばローパスフィルターによる処理)等の処理を行うことができる。また、前記ミドルウエアは、音声データの音量の調整を行うこともできる。 Further, the middleware has a function of processing voice data according to instructions of other software or the like. Specifically, the middleware can perform processing such as adding a reverb effect and filtering processing (for example, processing by a low-pass filter) as processing of audio data. The middleware can also adjust the volume of audio data.

〈制御部の機能的構成〉
制御部56は、ゲームプログラムを実行することにより、動作決定手段561、タグ出力手段562、および発音制御手段563として機能する。
<Functional configuration of control unit>
By executing the game program, the control unit 56 functions as an operation determining means 561, a tag output means 562, and a sounding control means 563.

動作決定手段561は、仮想空間におけるオブジェクトの動作を有限状態機械(以下、FSMと略記する)によって決定する。図2は、プレイヤキャラクタ(これもオブジェクトの一例である)のFSMに対応する状態遷移図(抜粋)である。図2に示すように、プレイヤキャラクタは、少なくとも「走り状態(以下、Runともいう)」、「歩き状態(以下、Walkともいう)」、および「待機状態(以下、Idleともいう)」の3つの状態をとることができ、且つこれらの状態間を遷移できる。 The motion determining means 561 determines the motion of the object in the virtual space by a finite state machine (hereinafter, abbreviated as FSM). FIG. 2 is a state transition diagram (excerpt) corresponding to the FSM of the player character (which is also an example of an object). As shown in FIG. 2, the player character has at least three of "running state (hereinafter, also referred to as Run)", "walking state (hereinafter, also referred to as Walk)", and "standby state (hereinafter, also referred to as Idle)". It can take one state and can transition between these states.

タグ出力手段562は、FSMの状態が遷移するときに、タグを生成して出力する。タグは、オーディオ処理部53における発音状態を特定するための情報である。なお、「状態が遷移するとき」とは、ある程度の時間幅を持った概念であり、このゲームプログラムでは、状態遷移することが決まった瞬間から、状態遷移が完了する直前までの時間幅の内の何れかの時点である。 The tag output means 562 generates and outputs a tag when the FSM state changes. The tag is information for specifying the sounding state in the audio processing unit 53. In addition, "when the state transitions" is a concept having a certain time width, and in this game program, within the time width from the moment when the state transition is decided to just before the state transition is completed. At any point in time.

本実施形態のタグは、FSMにおける遷移前の状態を表す情報と、到達時の状態を表す情報のペアで構成されている。本実施形態では、FSMが状態Xから状態Yへ遷移する場合におけるタグを次のように表すことにする。 The tag of the present embodiment is composed of a pair of information representing the state before the transition in FSM and information representing the state at the time of arrival. In the present embodiment, the tag when the FSM transitions from the state X to the state Y is represented as follows.

{From=X,To=Y}
ここで、「From」は、例えばプログラムにおけるプロパティとして実装され、FSMにおける遷移前の状態を示す値を保持している。この例では、遷移前の状態が状態Xであることを表している。また、「To」も例えばプログラムにおけるプロパティとして実装され、FSMにおける遷移後(到達後)の状態を示す値を保持している。この例では、遷移後の状態が状態Yであることを表している。
{From = X, To = Y}
Here, "From" is implemented as a property in a program, for example, and holds a value indicating a state before the transition in FSM. In this example, the state before the transition is the state X. Further, "To" is also implemented as a property in the program, for example, and holds a value indicating the state after the transition (after reaching) in the FSM. In this example, the state after the transition is the state Y.

例えば、プレイヤキャラクタのFSMの状態がRun(走り状態)からWalk(歩き状態)へと遷移する場合にタグ出力手段562が生成するタグ(Tag1とする)は、次のように表せる。 For example, a tag (referred to as Tag1) generated by the tag output means 562 when the FSM state of the player character changes from Run (running state) to Walk (walking state) can be expressed as follows.

Tag1={From=Run,To=Walk}
タグ出力手段562は、このようにして生成したタグを発音制御手段563に出力している。
Tag1 = {From = Run, To = Walk}
The tag output means 562 outputs the tag generated in this way to the sound control means 563.

発音制御手段563は、FSMの状態遷移に応じてオーディオ処理部53のミドルウエアに所定の指示を送ることによって、オーディオ処理部53における音声データの発音状態を制御する。ここでは、発音制御手段563は、発音状態の制御として、オーディオ処理部53における、発音開始、発音停止、音量、及び音声データの加工(例えば音色の制御)の制御が可能に構成されている。 The sounding control means 563 controls the sounding state of the voice data in the audio processing unit 53 by sending a predetermined instruction to the middleware of the audio processing unit 53 according to the state transition of the FSM. Here, the pronunciation control means 563 is configured so that the audio processing unit 53 can control the start of pronunciation, the stop of pronunciation, the volume, and the processing of voice data (for example, control of timbre) as the control of the pronunciation state.

具体的に発音制御手段563は、タグ出力手段562が出力したタグを、オーディオ処理部53における発音状態を特定するための情報として用いて、オーディオ処理部53の発音状態を制御する。この制御を実現するために、発音制御手段563は、タグと、そのタグに対応したオーディオ処理部53等の動作を規定する情報(以下、動作情報という)とを対応づけたテーブルを持っている。このテーブルにおけるタグと動作情報との対応関係は、プログラマが任意に定めることができる。 Specifically, the sound control means 563 controls the sound state of the audio processing unit 53 by using the tag output by the tag output means 562 as information for specifying the sound state in the audio processing unit 53. In order to realize this control, the pronunciation control means 563 has a table in which a tag is associated with information (hereinafter, referred to as operation information) that defines the operation of the audio processing unit 53 or the like corresponding to the tag. .. The programmer can arbitrarily determine the correspondence between the tags and the operation information in this table.

このテーブルは、タグをキーとして動作情報を検索できるようになっている。発音制御手段563は、このテーブルを検索した結果、キー(タグ)に対応する動作情報が見つかった場合には、動作情報に対応した動作がオーディオ処理部53で行われるように、オーディオ処理部53のミドルウエアに対して所定の指示(コマンドの送信など)を行う。 This table allows you to search for operation information using tags as keys. When the sound control means 563 finds the operation information corresponding to the key (tag) as a result of searching this table, the audio processing unit 53 so that the operation corresponding to the operation information is performed by the audio processing unit 53. Gives a predetermined instruction (such as sending a command) to the middleware of.

図3に発音制御手段563が持つテーブルの一例(抜粋)を示す。図3の例では、テーブルの先頭行には、タグ{From=Idle,To=Run}に対応した動作、すなわちidleからRunに遷移した場合の動作が規定されている。この例では、発音制御手段563は、オーディオ処理部53に対して、「走り始めの音の再生」(例えば、徐々に早くなる足音の再生)の指示を行う。 FIG. 3 shows an example (excerpt) of the table of the sound control means 563. In the example of FIG. 3, the first row of the table defines the operation corresponding to the tag {From = Idle, To = Run}, that is, the operation when transitioning from idle to Run. In this example, the sound control means 563 instructs the audio processing unit 53 to "reproduce the sound at the beginning of running" (for example, reproduce the footsteps that gradually become faster).

また、テーブルの上から2行目行では、「To」に対しては、Runが規定されているが、「From」に対応する状態は設定されていない。これは、遷移後の状態が「To」に規定されている状態であれば、遷移前の状態が何であっても動作情報に対応した動作が指示されることを示している。図3の例では、何れの状態からWalkに遷移しても、発音制御手段563は、オーディオ処理部53に対して、「歩きのループ音の再生」(例えば所定の音源データを繰り返し再生する動作)を指示する。 Further, in the second row from the top of the table, Run is specified for "To", but the state corresponding to "From" is not set. This indicates that if the state after the transition is the state specified in "To", the operation corresponding to the operation information is instructed regardless of the state before the transition. In the example of FIG. 3, regardless of the transition from any state to Walk, the sound control means 563 causes the audio processing unit 53 to "reproduce the loop sound of walking" (for example, the operation of repeatedly reproducing predetermined sound source data). ) Is instructed.

〈動作例〉
例えば、図3がプレイヤキャラクタのFSMに対応するテーブルであるとする。そうすると、プレイヤキャラクタがIdleからRunに状態遷移するときには、タグ出力手段562は、タグとして{From=Idle,To=Run}を発音制御手段563に出力する。
<Operation example>
For example, it is assumed that FIG. 3 is a table corresponding to the FSM of the player character. Then, when the player character makes a state transition from Idle to Run, the tag output means 562 outputs {From = Idle, To = Run} as a tag to the sound control means 563.

このタグを受け取った発音制御手段563は、そのタグをキーとしてテーブル(図3参照)を検索する。この例では、検索によって同テーブルの先頭行がタグ(キー)にヒットする。したがって、発音制御手段563は、走り始めの音の再生をオーディオ処理部53に指示する。より具体的には、発音制御手段563は、走り始めの音の音源データの情報、音量値、ローパスフィルタのカットオフ周波数などを、オーディオ処理部53に指示する。その結果、オーディオ処理部53が動作し、スピーカ62からは、走り始めの音が流れる。 Upon receiving this tag, the pronunciation control means 563 searches the table (see FIG. 3) using the tag as a key. In this example, the search hits the tag (key) in the first row of the table. Therefore, the sound control means 563 instructs the audio processing unit 53 to reproduce the sound at the start of running. More specifically, the sound control means 563 instructs the audio processing unit 53 of information on the sound source data of the sound at the start of running, the volume value, the cutoff frequency of the low-pass filter, and the like. As a result, the audio processing unit 53 operates, and the sound at the start of running flows from the speaker 62.

以上をまとめると、本件発明は、コンピュータを、仮想空間におけるオブジェクトの動作を有限状態機械によって決定する動作決定手段(制御部56)と、前記仮想空間内の音として音声データを再生する再生手段(オーディオ処理部53)と、前記有限状態機械の状態遷移に応じて、前記再生手段における前記音声データの発音状態を制御する発音制御手段(制御部56)と、して機能させることを特徴とするゲームプログラムである。 Summarizing the above, the present invention presents a motion determining means (control unit 56) for determining the motion of an object in a virtual space by a finite state machine, and a reproducing means for reproducing audio data as sound in the virtual space (control unit 56). It is characterized in that it functions as an audio processing unit 53) and a sounding control means (control unit 56) that controls the sounding state of the voice data in the reproducing means according to the state transition of the finite state machine. It is a game program.

〈本実施形態の効果〉
以上のように、本実施形態によれば、FSMの状態変化に応じて、音声データの発音状態が制御される。ゲームプログラムの開発中に、キャラクタ(オブジェクト)の動作が変更されても、FSMの構成自体は変化しないので、音声出力に関わるプログラムを書き換える必要がない。すなわち、本実施形態によれば、オブジェクトの動作変更に影響されない発音制御が可能になる。
<Effect of this embodiment>
As described above, according to the present embodiment, the sounding state of the voice data is controlled according to the state change of the FSM. Even if the operation of the character (object) is changed during the development of the game program, the FSM configuration itself does not change, so that it is not necessary to rewrite the program related to the audio output. That is, according to the present embodiment, it is possible to control the pronunciation without being affected by the change in the operation of the object.

[実施形態2]
実施形態2のゲームプログラムの下では、ゲーム装置5は、FSMの状態変化に応じて、複数種類の発音制御を並列的に行えるようになっている。これを実現するため、実施形態2では、タグ出力手段562と発音制御手段563の構成が実施形態1とは異なっている。
[Embodiment 2]
Under the game program of the second embodiment, the game device 5 can perform a plurality of types of sound control in parallel according to the state change of the FSM. In order to realize this, in the second embodiment, the configurations of the tag output means 562 and the sound control means 563 are different from those of the first embodiment.

タグ出力手段562は、FSMが所定の状態に遷移するときに、1または複数のタグを出力する。このタグは、FSMにおける遷移前の状態を表す情報と、到達時の状態を表す情報を含み、複数のグループに分類されている。FSMが、状態Xから状態Yへ遷移するときに、タグ出力手段562から出力されるタグを本実施形態では次のように表すことにする。 The tag output means 562 outputs one or more tags when the FSM transitions to a predetermined state. This tag includes information representing the state before the transition in FSM and information representing the state at the time of arrival, and is classified into a plurality of groups. In the present embodiment, the tag output from the tag output means 562 when the FSM transitions from the state X to the state Y is expressed as follows.

{From=X(G),To=Y(G)}
このタグも、「From」は、例えばプログラムにおけるプロパティとして実装され、FSMにおける遷移前の状態を示す値を保持している。この例では、遷移前の状態が状態Xであることを表している。また、「To」も例えばプログラムにおけるプロパティとして実装され、FSMにおける遷移後(到達後)の状態を示す値を保持している。この例では、遷移後の状態が状態Yであることを表している。
{From = X (G), To = Y (G)}
In this tag as well, "From" is implemented as a property in the program, for example, and holds a value indicating the state before the transition in the FSM. In this example, the state before the transition is the state X. Further, "To" is also implemented as a property in the program, for example, and holds a value indicating the state after the transition (after reaching) in the FSM. In this example, the state after the transition is the state Y.

また、「From」や「To」の値(ここでは、XやY)に並んで記載されているカッコ内の文字(ここではG)は、このタグの所属グループを示している。すなわち、タグ出力手段562では、出力するタグの所属グループを識別できるようにタグを生成している。 In addition, the characters in parentheses (G in this case) listed alongside the values of "From" and "To" (X and Y in this case) indicate the group to which this tag belongs. That is, the tag output means 562 generates a tag so that the group to which the output tag belongs can be identified.

タグ出力手段562において何れのグループのタグが生成されるのかは、遷移前後の状態が何であるかによって異なってくる。本実施形態では、FSMの状態毎に、関連するグループ(以下、関連グループという)が規定されており、タグ出力手段562は、遷移前の状態と遷移後の状態とに共通する関連グループに関わるタグを出力する。この点については、後に具体例を用いて詳述する。 Which group of tags is generated in the tag output means 562 depends on what the state before and after the transition is. In the present embodiment, a related group (hereinafter referred to as a related group) is defined for each state of the FSM, and the tag output means 562 relates to a related group common to the state before the transition and the state after the transition. Output the tag. This point will be described in detail later with reference to specific examples.

発音制御手段563は、タグと動作情報とを対応づけるテーブルを複数備えている。図4は、発音制御手段563が持っているテーブルを例示している。この例では、発音制御手段563は、2つのテーブルを持っている。図4において、左側のテーブルがグループAのタグに対応し、右側のテーブルがグループBのタグに対応している。発音制御手段563は、タグの所属グループに応じて、使用するテーブルを使い分けている。その際、複数のタグをタグ出力手段562から受け取った場合には、発音制御手段563は、それらを並列的に処理する。 The pronunciation control means 563 includes a plurality of tables for associating tags with operation information. FIG. 4 illustrates a table included in the pronunciation control means 563. In this example, the pronunciation control means 563 has two tables. In FIG. 4, the table on the left corresponds to the tag of group A, and the table on the right corresponds to the tag of group B. The pronunciation control means 563 properly uses the table to be used according to the group to which the tag belongs. At that time, when a plurality of tags are received from the tag output means 562, the sound control means 563 processes them in parallel.

〈タグの出力例(動作例)〉
図5に関連グループの規定例を、プレイヤキャラクタの状態遷移図(抜粋)を用いて示す。図5では、「Run」が対応するノードには、「Run(A)」、「Run(B)」と記載されている。これは、「Run」に関しては、クループAおよびBが関連グループであることを示している。また、「Walk」のノードには、「Walk(A)」のみが記載されている。これは、「Walk」に関しては、グループAのみが関連グループであることを示している。
<Tag output example (operation example)>
FIG. 5 shows a defined example of the related group using a state transition diagram (excerpt) of the player character. In FIG. 5, the nodes corresponding to “Run” are described as “Run (A)” and “Run (B)”. This indicates that for "Run", croups A and B are related groups. Moreover, only "Walk (A)" is described in the node of "Walk". This indicates that for "Walk", only Group A is a related group.

既述の通り、タグ出力手段562は、遷移前の状態と遷移後の状態とで共通する関連グループに関わるタグを出力する。図5の状態遷移図では、「Run」と「Walk」とに共通する関連グループは、Aのみである。したがって、この状態遷移図において、「Run」から「Walk」に状態遷移する場合には、グループAに属するタグである{From=Run(A),To=Walk(A)}のみが出力される。 As described above, the tag output means 562 outputs a tag related to the related group common to the state before the transition and the state after the transition. In the state transition diagram of FIG. 5, the only related group common to "Run" and "Walk" is A. Therefore, in this state transition diagram, when the state transitions from "Run" to "Walk", only the tags belonging to group A {From = Run (A), To = Walk (A)} are output. ..

また、図5では、「Idle」のノードに「Idle(A)」、「Idle(B)」と記載されている。これは、「Idle」の関連グループが、クループAおよびBであることを示している。図5の例では、「Idle」と「Run」の2つの状態に共通する関連グループは、AおよびBである。したがって、「Idle」から「Run」に状態遷移する場合には、タグ出力手段562からは、グループAに属するタグである{From=Idle(A),To=Run(A)}と、グループBに属するタグである{From=Idle(B),To=Run(B)}の2つが出力される。 Further, in FIG. 5, "Idle (A)" and "Idle (B)" are described in the node of "Idle". This indicates that the related groups of "Idle" are croups A and B. In the example of FIG. 5, the related groups common to the two states "Idle" and "Run" are A and B. Therefore, when the state transitions from "Idle" to "Run", the tag output means 562 gives the tags belonging to group A {From = Idle (A), To = Run (A)} and group B. Two tags belonging to {From = Idle (B), To = Run (B)} are output.

以上のようにタグが出力されると、発音制御手段563は、グループ毎に独立して、発音状態を制御する。例えば、タグ出力手段562から、{From=Run(A),To=Walk(A)}のみが出力された場合には、発音制御手段563は、グループAに対応したテーブルのみを検索し、他のテーブルの検索は行わない。検索したテーブルにおいて、タグに対応する動作情報が見つかった場合には、発音制御手段563は、見つかった動作情報に対応した指示をオーディオ処理部53に送信する。 When the tag is output as described above, the pronunciation control means 563 controls the pronunciation state independently for each group. For example, when only {From = Run (A), To = Walk (A)} is output from the tag output means 562, the sound control means 563 searches only the table corresponding to the group A, and other Does not search the table. When the operation information corresponding to the tag is found in the searched table, the sound control means 563 transmits an instruction corresponding to the found operation information to the audio processing unit 53.

また、タグ出力手段562から{From=Idle(A),To=Run(A)}と、{From=Idle(B),To=Run(B)}の2つのタグが出力された場合には、発音制御手段563は、それぞれのタグをテーブルの検索に用いる。このとき、発音制御手段563は、{From=Idle(A),To=Run(A)}をグループAに対応したテーブルの検索にのみに用い、他のテーブルの検索には使用しない。また、発音制御手段563は、{From=Idle(B),To=Run(B)}をグループBに対応したテーブルの検索にのみ用い、他のテーブルの検索には使用しない。 Further, when two tags {From = Idle (A), To = Run (A)} and {From = Idle (B), To = Run (B)} are output from the tag output means 562, , The pronunciation control means 563 uses each tag to search the table. At this time, the pronunciation control means 563 uses {From = Idle (A), To = Run (A)} only for searching the table corresponding to the group A, and does not use it for searching other tables. Further, the pronunciation control means 563 uses {From = Idle (B), To = Run (B)} only for the search of the table corresponding to the group B, and does not use it for the search of other tables.

そして、発音制御手段563は、見つかったそれぞれの動作情報に対応した指示を並列的にオーディオ処理部53に送信する。すなわち、ここでは、複数種類の発音制御が並列的に行われる。 Then, the sound control means 563 transmits the instructions corresponding to the found operation information to the audio processing unit 53 in parallel. That is, here, a plurality of types of pronunciation control are performed in parallel.

〈本実施形態の効果〉
以上の通り、本実施形態によれば、FSMの状態変化に応じて、複数種類の発音制御を並列的に行うことが可能になる。
<Effect of this embodiment>
As described above, according to the present embodiment, it is possible to perform a plurality of types of sound control in parallel according to the state change of the FSM.

[実施形態3]
ゲームによっては、発音の制御を行う場合に、オブジェクト同士の当たり判定が必要な場合がある。例えば、キャラクタが倒れて地面に当たった時に、転倒した音を発音させる場合などである。当たり判定には、種々のアルゴリズム(例えばレイキャストによる当たり判定)が提案されているが、オブジェクトの数が多いと、多くの計算時間(CPUの占有時間)を要する。そこで、本実施形態では、タグを利用して、当たり判定の負荷を低減する例を説明する。
[Embodiment 3]
Depending on the game, it may be necessary to determine the collision between objects when controlling pronunciation. For example, when the character falls and hits the ground, the fallen sound is produced. Various algorithms (for example, collision determination by raycasting) have been proposed for collision determination, but if the number of objects is large, a large amount of calculation time (CPU occupancy time) is required. Therefore, in the present embodiment, an example of reducing the load of hit determination by using the tag will be described.

本実施形態では、制御部56が、ゲームプログラムを実行することにより、以下に説明する、当たり判定手段564としても機能する(図6参照)。 In the present embodiment, the control unit 56 also functions as the hit determination means 564 described below by executing the game program (see FIG. 6).

当たり判定手段564は、仮想空間内のオブジェクト(例えばプレイヤキャラクタ)と他のオブジェクトとの当たり判定を、FSMが予め定めた所定状態に遷移するときに行う。すなわち、当たり判定手段564は、オブジェクトの動きに合わせて常に当たり判定を行っているわけではない。 The hit determination means 564 performs a collision determination between an object (for example, a player character) in the virtual space and another object when the FSM transitions to a predetermined state predetermined. That is, the hit determination means 564 does not always perform the hit determination according to the movement of the object.

ここで、プレイヤキャラクタのFSMの状態として「倒れ」が規定され、プレイヤキャラクタが転倒して地面に当たった場合に音を流したいとプログラマが考えたとする。これを実装するには、例えば、発音制御手段563が持つテーブルに、キーとしてタグ{From=規定無し,To=転倒}を登録し、動作情報として「当たり時に発音」を登録しておく。 Here, it is assumed that "falling down" is defined as the FSM state of the player character, and the programmer wants to play a sound when the player character falls and hits the ground. To implement this, for example, a tag {From = no specification, To = fall} is registered as a key in the table of the pronunciation control means 563, and "pronunciation at the time of hit" is registered as operation information.

なお、「当たり時に発音」という動作情報は、当たり判定手段564に対する当たり判定の実行の指示と、プレイヤキャラクタが地面に当たった場合の「転倒した音」の再生指示を意味しているものとする。また、「規定無し」とは、任意の状態が該当することを意味しているものとする。 It should be noted that the operation information "pronounced when hit" means an instruction to execute the hit determination to the hit determination means 564 and an instruction to reproduce the "falling sound" when the player character hits the ground. .. In addition, "no regulation" means that an arbitrary state is applicable.

ゲームプログラムの動作中は、プレイヤキャラクタのFSMの状態が遷移した場合に、発音制御手段563は、タグに基づいて取得した動作情報によって、当たり判定の要否を判断する。例えば、タグに対応する動作情報に「当たり判定」が含まれていない場合には、発音制御手段563が当たり判定手段564に対して当たり判定を指示することはない。 During the operation of the game program, when the FSM state of the player character changes, the sound control means 563 determines the necessity of the hit determination based on the operation information acquired based on the tag. For example, when the operation information corresponding to the tag does not include the "hit determination", the sound control means 563 does not instruct the hit determination means 564 to make a hit determination.

一方、タグに対応する動作情報に「当たり判定」が含まれている場合には、発音制御手段563によって当たり判定が指示される。例えば、プレイヤキャラクタのFSMが何らかの状態から「転倒」の状態に遷移したら、当たり判定が行われる。具体的には、まず、タグ出力手段562がタグとして{From=規定無し,To=転倒}を出力する。それにより、発音制御手段563は、このタグをキーとしてテーブルを検索する。 On the other hand, when the operation information corresponding to the tag includes the "hit determination", the sound control means 563 instructs the hit determination. For example, when the FSM of the player character changes from some state to the "falling" state, a collision determination is performed. Specifically, first, the tag output means 562 outputs {From = no specification, To = fall} as a tag. As a result, the pronunciation control means 563 searches the table using this tag as a key.

本実施形態のテーブルには、タグ{From=規定無し,To=転倒}に対応する動作情報として「当たり時に発音」が登録されているので、発音制御手段563は、当たり判定手段564に対して、当たり判定の実行を指示する。当たり判定手段564による判定の結果、プレイヤキャラクタが地面に当たっていれば、発音制御手段563は、オーディオ処理部53に対して、「転倒した音」の再生を指示する。プレイヤキャラクタが地面に当たっていない場合には、「転倒した音」の再生の指示は行われない。 In the table of the present embodiment, "pronunciation at the time of hit" is registered as the operation information corresponding to the tag {From = no specification, To = fall}, so that the pronunciation control means 563 refers to the hit determination means 564. , Instructs the execution of collision detection. If the player character hits the ground as a result of the determination by the hit determination means 564, the sound control means 563 instructs the audio processing unit 53 to reproduce the "falling sound". If the player character does not hit the ground, the instruction to play the "falling sound" is not given.

〈本実施形態の効果〉
以上のように、本実施形態では、FSMを利用することによって、当たり判定の頻度を減らすことができる。すなわち、本実施形態によれば、当たり判定の負荷を低減することが可能になる。
<Effect of this embodiment>
As described above, in the present embodiment, the frequency of collision detection can be reduced by using FSM. That is, according to the present embodiment, it is possible to reduce the load of collision detection.

[その他の実施形態]
なお、タグに基づく発音状態の制御に関わるオブジェクトは、プレイヤキャラクタには限定されない。有限状態機械で動作が決定されるオブジェクトであれば前記実施形態の技術を適用できる。例えば、オブジェクトには、モンスター等のノンプレイヤキャラクタや扉などの、種々の可動オブジェクトが含まれる。
[Other Embodiments]
The object related to the control of the sounding state based on the tag is not limited to the player character. The technique of the above embodiment can be applied to an object whose motion is determined by a finite state machine. For example, objects include various movable objects such as non-player characters such as monsters and doors.

また、タグ出力手段562は、FSMが所定の状態に到達したときに、タグを出力するようにしてもよい。ここで、「状態に到達したとき」とは、ある程度の時間幅を持った概念であり、このゲームプログラムでは、所定の状態に到達した瞬間から、次の状態遷移が必要になるまでの時間幅の内の何れかの時点である。 Further, the tag output means 562 may output the tag when the FSM reaches a predetermined state. Here, "when a state is reached" is a concept having a certain time width, and in this game program, the time width from the moment when a predetermined state is reached until the next state transition is required. At any point in.

また、発音制御手段563は、オーディオ処理部53における機能や動作(例えば、発音開始、発音停止、音量調整、及び音色制御など)の全てを制御可能に実装する必要はない。何れの機能等に対する制御機能を実装するかは任意である。 Further, the sound control means 563 does not need to be controllably implemented with all the functions and operations (for example, sound start, sound stop, volume adjustment, tone color control, etc.) in the audio processing unit 53. It is optional to implement the control function for which function or the like.

また、タグをグループ分けする場合(実施形態2参照)には、3つ以上のグループに分類してもよい。 Further, when the tags are grouped (see the second embodiment), the tags may be classified into three or more groups.

また、テーブルの構成は例示である。例えば、タグをグループ分けする場合(実施形態2参照)には、タグがグループを識別するための情報を含んでいるので、その情報も検索のキーに含めれば、1つのテーブルでも実装できる。 Moreover, the structure of the table is an example. For example, when the tags are grouped (see the second embodiment), since the tags include information for identifying the group, if the information is also included in the search key, it can be implemented in one table.

また、制御部56とオーディオ処理部53の機能分担は例示である。例えば、制御部56で行っていた処理をオーディオ処理部53で行うようにゲームプログラムを実装してもよいし、オーディオ処理部53で行っていた処理を制御部56で行うようにゲームプログラムを実装してもよい。 Further, the division of functions between the control unit 56 and the audio processing unit 53 is an example. For example, the game program may be implemented so that the processing performed by the control unit 56 is performed by the audio processing unit 53, or the game program is implemented so that the processing performed by the audio processing unit 53 is performed by the control unit 56. You may.

また、ゲームプログラムは、いわゆるオンラインゲーム用のゲームプログラムとして実装してもよい。ゲームプログラムがオンラインゲーム用である場合には、グラフィック処理部52やオーディオ処理部53で行っていた処理をそれらに代わってサーバ側で行ってもよいし、サーバ側とクライアント(ゲーム装置5)側とで分担してもよい。 Further, the game program may be implemented as a game program for a so-called online game. When the game program is for an online game, the processing performed by the graphic processing unit 52 or the audio processing unit 53 may be performed on the server side instead of them, or the server side and the client (game device 5) side. You may share it with.

これらの他の実施形態を採用した場合においても、本発明の作用効果は発揮される。また、本実施形態と他の実施形態、および他の実施形態同士を適宜組み合わせることも可能である。 Even when these other embodiments are adopted, the effects of the present invention are exhibited. It is also possible to appropriately combine this embodiment with other embodiments and other embodiments.

5 ゲーム装置
53 オーディオ処理部(再生手段)
55 記憶部
56 制御部
561 動作決定手段
562 タグ出力手段
563 発音制御手段
564 当たり判定手段
5 Game device 53 Audio processing unit (playback means)
55 Storage unit 56 Control unit 561 Operation determination means 562 Tag output means 563 Sound control means 564 Collision detection means

Claims (5)

コンピュータを、
仮想空間におけるオブジェクトの動作を有限状態機械によって決定する動作決定手段と、
前記仮想空間内の音として音声データを再生する再生手段と、
前記有限状態機械の状態遷移に応じて、前記再生手段における前記音声データの発音状態を制御する発音制御手段と、
前記有限状態機械が所定の状態に遷移するとき又は到達したときに、前記発音状態を特定するための情報であるタグを出力するタグ出力手段として機能させ、
前記発音制御手段は、前記タグに応じて、前記発音状態を制御することを特徴とするゲームプログラム。
Computer,
An action determining means that determines the action of an object in virtual space by a finite state machine,
A reproduction means for reproducing audio data as sound in the virtual space, and
A sound control means for controlling the sound state of the voice data in the reproduction means according to the state transition of the finite state machine, and a sound control means.
When the finite state machine transitions to or reaches a predetermined state, it functions as a tag output means for outputting a tag which is information for specifying the sounding state.
The pronunciation control means is a game program characterized in that the pronunciation state is controlled according to the tag.
請求項において、
前記タグは、複数のグループに分類されており、
前記タグ出力手段は、前記有限状態機械が所定の状態に遷移するとき又は到達したときに、1または複数の前記タグを、属するグループを識別できるように出力し、
前記発音制御手段は、前記グループ毎に独立して、前記発音状態を制御することを特徴とするゲームプログラム。
In claim 1 ,
The tags are classified into a plurality of groups, and the tags are classified into a plurality of groups.
The tag output means outputs one or more of the tags when the finite state machine transitions to or reaches a predetermined state so that the group to which the finite state machine belongs can be identified.
The pronunciation control means is a game program characterized in that the pronunciation state is controlled independently for each group.
請求項1または請求項2において、
前記コンピュータを、前記オブジェクトと他のオブジェクトとの当たり判定を、予め定めた所定状態に前記有限状態機械が遷移するとき又は到達したときに行う当たり判定手段として機能させ、
前記発音制御手段は、前記当たり判定手段の判定結果に応じて、前記発音状態の制御を行うことを特徴とするゲームプログラム。
In claim 1 or 2 ,
The computer is made to function as a collision determination means for performing collision determination between the object and another object when the finite state machine transitions to or reaches a predetermined predetermined state.
The pronunciation control means is a game program characterized in that the pronunciation state is controlled according to the determination result of the hit determination means.
請求項1から請求項の何れかにおいて、
前記発音制御手段は、前記発音状態の制御として、前記音声データの、発音開始、発音停止、音量、及び音色の少なくとも一つの制御が可能に構成されていることを特徴とするゲームプログラム。
In any of claims 1 to 3 ,
The pronunciation control means is a game program characterized in that at least one of the pronunciation start, pronunciation stop, volume, and timbre of the voice data can be controlled as the control of the pronunciation state.
請求項1から請求項の何れかのゲームプログラムを記憶した記憶部と、
前記ゲームプログラムを実行する制御部と、
を備えたことを特徴とするゲーム装置。
A storage unit that stores the game program according to any one of claims 1 to 4.
A control unit that executes the game program and
A game device characterized by being equipped with.
JP2018229616A 2018-12-07 2018-12-07 Game programs and game devices Active JP6840715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018229616A JP6840715B2 (en) 2018-12-07 2018-12-07 Game programs and game devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018229616A JP6840715B2 (en) 2018-12-07 2018-12-07 Game programs and game devices

Publications (2)

Publication Number Publication Date
JP2020089614A JP2020089614A (en) 2020-06-11
JP6840715B2 true JP6840715B2 (en) 2021-03-10

Family

ID=71013446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018229616A Active JP6840715B2 (en) 2018-12-07 2018-12-07 Game programs and game devices

Country Status (1)

Country Link
JP (1) JP6840715B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5081120B2 (en) * 2008-10-01 2012-11-21 株式会社バンダイナムコゲームス PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP6514352B2 (en) * 2015-03-13 2019-05-15 株式会社スクウェア・エニックス Information processing apparatus, information processing method, non-transitory computer readable storage medium

Also Published As

Publication number Publication date
JP2020089614A (en) 2020-06-11

Similar Documents

Publication Publication Date Title
WO2006006274A1 (en) Game apparatus and game program
JP2001190844A (en) Game system and computer readable recording medium for storing game program
JP2003122358A (en) Sound signal output method, and sound signal generating device and program
JP6905826B2 (en) Programs, game machines, and server devices
JP5087292B2 (en) Game program and game system
JP6840715B2 (en) Game programs and game devices
JP7339512B2 (en) Audio playback program and audio playback device
US8958895B2 (en) Information storage medium and information processing system
JP7381856B2 (en) Audio playback program, audio playback device, and audio generation method
JP6817281B2 (en) Voice generator and voice generator
JP7277777B2 (en) Sound reproduction program, sound reproduction device and sound generation method
JP6740297B2 (en) Game program and game device
JP2013046661A (en) Music switching device in game machine
JP3822883B2 (en) Game software and game device
JP2021076768A (en) Audio reproduction program and audio reproduction device
JP2001046734A (en) Control method of game development, game device and recording medium
JP2019198416A (en) Game program and game device
JP6978694B2 (en) Game programs and game equipment
JP6817280B2 (en) Voice control program and voice control device
JP6797867B2 (en) Game program and game equipment
JP6974750B2 (en) Voice control program and voice control device
JP7492104B2 (en) Audio playback program, audio playback device, and audio generation method
JP5374436B2 (en) GAME DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP2024041373A (en) Game program and game device
JP2023056907A (en) Game program, game apparatus, game system, and game processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210217

R150 Certificate of patent or registration of utility model

Ref document number: 6840715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250