JPWO2016039122A1 - Program, recording medium, information processing apparatus, and notification method - Google Patents

Program, recording medium, information processing apparatus, and notification method Download PDF

Info

Publication number
JPWO2016039122A1
JPWO2016039122A1 JP2016547338A JP2016547338A JPWO2016039122A1 JP WO2016039122 A1 JPWO2016039122 A1 JP WO2016039122A1 JP 2016547338 A JP2016547338 A JP 2016547338A JP 2016547338 A JP2016547338 A JP 2016547338A JP WO2016039122 A1 JPWO2016039122 A1 JP WO2016039122A1
Authority
JP
Japan
Prior art keywords
touch input
input
operation input
detection area
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016547338A
Other languages
Japanese (ja)
Other versions
JP6630277B2 (en
Inventor
秀俊 青柳
秀俊 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Publication of JPWO2016039122A1 publication Critical patent/JPWO2016039122A1/en
Application granted granted Critical
Publication of JP6630277B2 publication Critical patent/JP6630277B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/358Adapting the game course according to the network or server load, e.g. for reducing latency due to different connection speeds between clients
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

コンピュータにおいて実行されるプログラムは、なされた操作入力を示す情報を取得する処理と、取得された情報により示される操作入力に対応する操作内容を、所定の時間遅らせて通知させる処理と、を実行させる。A program executed in a computer executes a process of acquiring information indicating an operation input made, and a process of notifying operation contents corresponding to the operation input indicated by the acquired information after a predetermined time delay .

Description

本発明は、プログラム、記録媒体、情報処理装置及び通知方法に関し、特に操作入力に対するレスポンスを考慮して操作性を向上させる技術に関する。   The present invention relates to a program, a recording medium, an information processing apparatus, and a notification method, and more particularly to a technique for improving operability in consideration of a response to an operation input.

ゲーム機等を含む情報処理装置は、一般に、ユーザ等によりなされた操作入力に応じて対応する所定の動作が実行されるように構成されている。通常、操作入力がなされたことが検出されると該入力に対応する処理が一定時間内に行われ、例えば画面表示としてその処理結果がユーザに提示されることで、ユーザは操作入力に対するレスポンス(応答)があったことを理解できる。   An information processing apparatus including a game machine or the like is generally configured to execute a predetermined operation corresponding to an operation input made by a user or the like. Normally, when it is detected that an operation input has been made, a process corresponding to the input is performed within a certain time. For example, the process result is presented to the user as a screen display, so that the user can respond to the operation input ( I understand that there was a response.

しかしながら、操作入力インタフェースが無線接続されている場合や、操作入力を受け付ける機器と対応する処理を行う機器とが異なり、それらが通信接続している場合等、操作入力に係る情報の通信遅延が生じる際は、レスポンス性が低下している印象をユーザに与えうる。   However, when the operation input interface is wirelessly connected, or when the device that accepts the operation input is different from the device that performs the corresponding processing and they are connected for communication, communication delay of information related to the operation input occurs. At this time, the user may be given an impression that the responsiveness is lowered.

このような処理上あるいは通信によるレスポンス遅延を吸収すべく、従来様々な技術が開発されてきている。特許文献1では、複数のゲーム機器を使用して通信対戦ゲームプレイ時に、互いの機器において操作されるキャラクタの位置等が通信遅延により矛盾することを回避すべく、対戦相手のゲーム機器からの位置情報の受信履歴に基づいて、遅延時間を加味した対戦相手キャラクタの位置等の情報を予測し、擬似的に整合させる技術が開示されている。   Various techniques have been developed in the past in order to absorb such response delay due to processing or communication. In Patent Document 1, when playing a battle game using a plurality of game devices, the position of the character operated by each other device is prevented from being inconsistent due to a communication delay. A technique for predicting information such as the position of an opponent character that takes into account a delay time based on the reception history of information and making it match in a pseudo manner is disclosed.

特開2006−320502号公報JP 2006-320502 A

ところで、上述した特許文献1には、他のゲーム機器においてなされた操作入力の処理結果に基づいて対戦相手キャラクタの位置予測を行うことは開示されているが、自身のゲーム機器においてなされた操作入力に係るレスポンス遅延は考慮されていなかった。   By the way, although the above-mentioned patent document 1 discloses that the position of the opponent character is predicted based on the processing result of the operation input made on another game device, the operation input made on the game device of the player is disclosed. The response delay related to was not considered.

操作入力に対するレスポンス性は、上述したような通信遅延に基づくものに限られるものではない。例えば様々な処理が並行して実行されているような場合、情報処理装置の処理能力によっては、操作入力に対応する処理結果が提示されるまでの時間が遅延し得、ユーザにレスポンス性が低下している印象を与えうる。あるいは、操作入力に係る情報を外部機器に送信し、該外部機器においてなされた処理結果を応答として受信するような場合、該外部機器の処理能力、該機器において並行して実行されている処理、さらにはデータの送受信における通信遅延等、様々な要因により操作入力に対応する処理結果が提示されるまでの時間が遅延し得、ユーザにレスポンス性が低下している印象を与えうる。   Responsiveness to the operation input is not limited to that based on the communication delay as described above. For example, when various processes are executed in parallel, depending on the processing capability of the information processing device, the time until the processing result corresponding to the operation input is presented may be delayed, and the response to the user is reduced. Can give the impression. Alternatively, when information related to operation input is transmitted to an external device and a result of processing performed in the external device is received as a response, the processing capability of the external device, processing executed in parallel in the device, Furthermore, the time until the processing result corresponding to the operation input is presented may be delayed due to various factors such as a communication delay in data transmission / reception, which may give the user an impression that the responsiveness is lowered.

このように、ユーザが行った操作入力に対するレスポンス性は、操作性の観点において重要な要素であるが、処理上あるいは通信により発生した遅延を許容しつつ操作性を向上する技術はこれまでなかった。   As described above, the responsiveness to the operation input performed by the user is an important element from the viewpoint of operability, but there has been no technology for improving the operability while allowing a delay caused by processing or communication. .

本発明の少なくとも1つの実施形態は、上述の問題点に鑑みてなされたものであり、操作入力に対するレスポンスを考慮して操作性を向上させるプログラム、記録媒体、情報処理装置及び通知方法を提供することを目的とする。   At least one embodiment of the present invention has been made in view of the above-described problems, and provides a program, a recording medium, an information processing apparatus, and a notification method that improve operability in consideration of a response to an operation input. For the purpose.

前述の目的を達成するために、本発明の少なくとも1つの実施形態に係るプログラムは、なされた操作入力に対応する操作内容を通知する通知手段を有するコンピュータに、なされた操作入力を示す情報を取得する処理と、取得された情報により示される操作入力に対応する操作内容を、所定の時間遅らせて通知手段に通知させる処理と、を実行させる。   In order to achieve the above object, a program according to at least one embodiment of the present invention obtains information indicating an operation input made by a computer having a notification means for notifying an operation content corresponding to the operation input made. And a process for causing the notification means to notify the operation content corresponding to the operation input indicated by the acquired information with a predetermined time delay.

このような構成により本発明の少なくとも1つの実施形態によれば、操作入力に対するレスポンスを考慮して操作性を向上させることが可能となる。   With such a configuration, according to at least one embodiment of the present invention, operability can be improved in consideration of a response to an operation input.

本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。   Other features and advantages of the present invention will become apparent from the following description with reference to the accompanying drawings. In the accompanying drawings, the same or similar components are denoted by the same reference numerals.

添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
本発明の実施形態に係るゲームシステムのシステム構成を示した図 本発明の実施形態に係るサーバ100の機能構成を示したブロック図 本発明の実施形態に係るクライアント装置200の機構構成を示したブロック図 本発明の実施形態に係るクライアント装置200における操作内容の通知を説明するための図 本発明の実施形態に係るサーバ100において実行される反映時間取得処理を例示したフローチャート 本発明の実施形態に係るクライアント装置200において実行される出力画面生成処理を例示したフローチャート 本発明の実施形態に係る操作入力履歴テーブルを例示した図 本発明の実施形態2に係るクライアント装置200において実行されるタッチ入力判断処理を例示したフローチャート タッチ入力判断処理における対象検出領域の移動を説明するための図
The accompanying drawings are included in the specification, constitute a part thereof, show an embodiment of the present invention, and are used to explain the principle of the present invention together with the description.
The figure which showed the system configuration | structure of the game system which concerns on embodiment of this invention. The block diagram which showed the function structure of the server 100 which concerns on embodiment of this invention. The block diagram which showed the mechanism structure of the client apparatus 200 which concerns on embodiment of this invention. , , , , The figure for demonstrating the notification of the operation content in the client apparatus 200 which concerns on embodiment of this invention. The flowchart which illustrated the reflection time acquisition process performed in the server 100 which concerns on embodiment of this invention. The flowchart which illustrated the output screen generation process performed in the client apparatus 200 which concerns on embodiment of this invention The figure which illustrated the operation input history table concerning the embodiment of the present invention The flowchart which illustrated the touch input judgment processing performed in the client apparatus 200 which concerns on Embodiment 2 of this invention. , The figure for demonstrating the movement of the object detection area | region in a touch input judgment process

[実施形態1]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、情報処理装置の一例としての、クライアント装置においてなされた操作入力に基づいてゲーム画面を描画してクライアント装置に提供するサーバと、なされた操作入力対応する操作内容の通知をゲーム画面に重畳して表示することが可能なクライアント装置を含むゲームシステムに、本発明を適用した例を説明する。しかし、本発明は、表示出力(画面)に限らず、なされた操作入力に対応する操作内容を通知することが可能な任意の機器に適用可能である。
[Embodiment 1]
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. Note that an embodiment described below is an example of an information processing apparatus, a server that renders a game screen based on an operation input made in a client device and provides the game device to the client device, and an operation corresponding to the operation input made An example will be described in which the present invention is applied to a game system including a client device capable of displaying a content notification superimposed on a game screen. However, the present invention is not limited to display output (screen), and can be applied to any device capable of notifying operation content corresponding to an operation input made.

また、本実施形態では操作入力がなされてから、ゲーム画面に該操作入力に対応する処理結果が反映されるまでに要する時間(遅延量、応答遅延)が比較的顕著な例として、ネットワークを通じた通信を含む例を説明するが、本発明の実施はこれに限られるものではない。即ち、上述したように操作入力に対応する処理結果が反映されるまでの遅延は、通信を要しない場合であっても、並行実行されている処理や操作入力に基づく処理の演算量等によっても生じ得るため、本発明は本実施形態のシステム構成に限定されるものでないことは容易に理解されよう。   Also, in this embodiment, the time (delay amount, response delay) required from when an operation input is made until the processing result corresponding to the operation input is reflected on the game screen is a relatively remarkable example. An example including communication will be described, but the implementation of the present invention is not limited to this. That is, as described above, the delay until the processing result corresponding to the operation input is reflected depends on the amount of processing executed in parallel or the amount of processing based on the operation input, even when communication is not required. Since it may occur, it will be easily understood that the present invention is not limited to the system configuration of the present embodiment.

本明細書において、「操作内容」とは、ゲームコンテンツの利用においてユーザが使用したユーザインタフェースについて、例えばいずれのボタンが使用されたことを示す情報、いずれのコマンドが受け付けられたことを示す情報、あるいは所謂アナログスティックの入力位置や入力方向がいずれであるかを示す情報等、操作入力に係り処理上判定される入力内容を示すものとする。   In this specification, “operation content” means, for example, information indicating which button is used, information indicating which command is received, and the like regarding the user interface used by the user in the use of the game content, Alternatively, the input content determined in the processing in relation to the operation input, such as information indicating the input position or input direction of the so-called analog stick, is indicated.

《ゲームシステムの構成》
図1は、本発明の実施形態に係るゲームシステムのシステム構成を示した図である。
《Game system configuration》
FIG. 1 is a diagram showing a system configuration of a game system according to an embodiment of the present invention.

本実施形態のゲームシステムでは、クライアント装置200を使用するユーザは、該装置をサーバ100に接続させることで、ゲームコンテンツの利用に係るサービス提供を受けることができる。本実施形態のゲームシステムでは、クライアント装置200に表示されるゲームコンテンツに係るゲーム画面は、サーバ100により描画され、ネットワーク300を介してクライアント装置200に提供される。即ち、ゲームコンテンツに係る各種処理及びゲーム画面の描画処理はサーバ100において実行され、クライアント装置200ではユーザによりなされた操作入力の検出及び該操作入力を示す情報のサーバ100への送信と、サーバ100から受信したゲーム画面の表示処理が行われる。   In the game system of the present embodiment, a user who uses the client device 200 can receive service provision related to the use of game content by connecting the device to the server 100. In the game system of the present embodiment, a game screen related to game content displayed on the client device 200 is drawn by the server 100 and provided to the client device 200 via the network 300. That is, various processes relating to game content and drawing processing of the game screen are executed in the server 100, and the client device 200 detects operation input made by the user, transmits information indicating the operation input to the server 100, and server 100 The game screen received from is displayed.

また、図示されるように本実施形態のゲームシステムではサーバ100には複数のクライアント装置200が接続可能であり、サーバ100においてその複数のクライアント装置200の各々から受信した操作入力を示す情報を並行して処理可能に構成されてよい。各クライアント装置200について行われる処理は、該クライアント装置200のユーザのみがプレイするゲームコンテンツに係るものであってもよいし、複数のクライアント装置200のユーザが同時期にプレイするゲームコンテンツに係るものであってもよい。   Further, as shown in the figure, in the game system of the present embodiment, a plurality of client devices 200 can be connected to the server 100, and information indicating operation inputs received from each of the plurality of client devices 200 in the server 100 in parallel. And may be configured to be processable. The processing performed for each client device 200 may be related to game content played only by the user of the client device 200, or related to game content played by users of the plurality of client devices 200 at the same time. It may be.

〈サーバ100の構成〉
以下、サーバ100の機能構成について、図2のブロック図を参照して説明する。
<Configuration of Server 100>
Hereinafter, the functional configuration of the server 100 will be described with reference to the block diagram of FIG.

サーバ制御部101は、例えばCPU等の制御装置であり、サーバ100が有する各ブロックの動作を制御する。サーバ制御部101は、例えばサーバ記憶媒体102に記憶されている各ブロックの動作プログラムを読み出し、サーバメモリ103に展開して実行することにより各ブロックの動作を制御する。   The server control unit 101 is a control device such as a CPU, and controls the operation of each block included in the server 100. The server control unit 101 controls the operation of each block by reading out the operation program of each block stored in the server storage medium 102, for example, and expanding and executing it in the server memory 103.

サーバ記憶媒体102は、例えば不揮発性メモリやHDD等の恒久的に情報を記憶する記憶装置である。サーバ記憶媒体102は、サーバ100が有する各ブロックの動作プログラムに加え、クライアント装置200に対して提供するゲームコンテンツに係るプログラム、該ゲームコンテンツに係るゲーム画面を生成するための各種データ、またサービス利用者を管理するための情報等を記憶する。サーバメモリ103は、例えばRAM等の一時的なデータの記憶領域として用いられる記憶装置である。サーバメモリ103は、各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力された中間データの格納領域として用いられてもよい。またサーバメモリ103は、サーバ描画部104によるゲーム画面生成用の領域としての用途を兼ねるものであってもよい。   The server storage medium 102 is a storage device that permanently stores information, such as a nonvolatile memory or an HDD. In addition to the operation program for each block of the server 100, the server storage medium 102 includes a program related to game content provided to the client device 200, various data for generating a game screen related to the game content, and service usage Information for managing a person is stored. The server memory 103 is a storage device used as a temporary data storage area such as a RAM. The server memory 103 may be used not only as a development area for the operation program of each block, but also as a storage area for intermediate data output in the operation of each block. The server memory 103 may also serve as a game screen generation area by the server drawing unit 104.

サーバ描画部104は、例えばGPU等の描画装置である。サーバ描画部104は、サーバ制御部101により実行されたゲームコンテンツに係る処理(ゲーム処理)の演算結果に基づいて発行された描画命令に基づき、各クライアント装置200に送信するゲーム画面の描画処理を行う。ゲーム画面の生成において必要なデータは、例えばサーバ制御部101よりサーバ記憶媒体102から読み出されて、不図示のサーバ描画部104のキャッシュメモリ等に格納され、サーバ描画部104は該データを描画命令に基づき演算した結果をゲーム画面として描画する。   The server drawing unit 104 is a drawing device such as a GPU. The server drawing unit 104 performs a game screen drawing process to be transmitted to each client device 200 based on a drawing command issued based on a calculation result of a process (game process) related to the game content executed by the server control unit 101. Do. For example, data necessary for generating the game screen is read from the server storage medium 102 by the server control unit 101 and stored in a cache memory or the like of the server drawing unit 104 (not shown), and the server drawing unit 104 draws the data. The result calculated based on the command is rendered as a game screen.

なお、本実施形態では簡単のため、サーバ100においてゲーム画面の描画処理が行われるものとして説明するが、描画処理は描画サーバ等の外部装置に描画命令及びデータを送信することにより行われるものであってもよい。この場合、ゲーム画面は該外部装置からクライアント装置200に送信されるものであってもよい。   In this embodiment, for the sake of simplicity, it is assumed that the game screen is drawn on the server 100. However, the drawing process is performed by sending a drawing command and data to an external device such as a drawing server. There may be. In this case, the game screen may be transmitted from the external device to the client device 200.

サーバ計測部105は、各クライアント装置200においてなされた操作入力について、該操作入力がゲーム画面に反映されるまでの時間を計測する。操作入力がゲーム画面に反映されるまでの時間は、本実施形態では簡単のため、「クライアント装置200において操作入力が検出されてから、サーバ100が該操作入力を示す情報に基づく処理結果が反映されたゲーム画面を生成し、送信が完了するまでの時間」により定義されるものとして説明するが、本発明の実施はこれに限られるものではない。例えば、操作入力がゲーム画面に反映されるまでの時間は、「クライアント装置200において操作入力が検出されてから、該操作入力を示す情報に基づく処理結果が反映されたゲーム画面がクライアント装置200において表示されるまでの時間」として定義されてもよい。この場合、該時間の計測はクライアント装置200において行われるものであってもよい。あるいは、操作入力を示す情報に対応するフレーム番号やタイムスタンプ等の取得したタイミングを識別する情報を付して送信し、処理結果が反映された操作入力の該情報がゲーム画面のヘッダ等に付されて送信されることで計測されるものであってもよい。あるいは、操作入力がゲーム画面に反映されるまでの時間は、現在の通信状況やサーバ100における並行処理数を考慮して、最大遅延量を考慮した固定値として定義されてもよい。この場合、クライアント装置200において受信されたゲーム画面は、操作入力がなされてから所定の時間が経過した後に表示されるように、強制的に表示タイミングが制御されればよい。あるいは、同地域から接続している、同一のサービスプロバイダを経由してサーバ100にアクセスしている、あるいは同一のゲームコンテンツを利用しているクライアント装置200については、他のクライアント装置200について予め計測されたあるいは定められた時間が、操作入力がゲーム画面に反映されるまでの時間として設定されるものであってもよい。   The server measuring unit 105 measures the time until the operation input is reflected on the game screen for the operation input made in each client device 200. Since the time until the operation input is reflected on the game screen is simple in the present embodiment, “after the operation input is detected in the client apparatus 200, the server 100 reflects the processing result based on the information indicating the operation input. However, the embodiment of the present invention is not limited to this. For example, the time until the operation input is reflected on the game screen is “the game screen on which the processing result based on the information indicating the operation input is reflected on the client device 200 after the operation input is detected on the client device 200. It may be defined as “time until display”. In this case, the time measurement may be performed in the client device 200. Alternatively, information identifying the acquired timing such as a frame number or a time stamp corresponding to the information indicating the operation input is transmitted and the information of the operation input reflecting the processing result is added to the header of the game screen or the like. And may be measured by being transmitted. Alternatively, the time until the operation input is reflected on the game screen may be defined as a fixed value in consideration of the maximum delay amount in consideration of the current communication state and the number of parallel processes in the server 100. In this case, the display timing may be forcibly controlled so that the game screen received by the client device 200 is displayed after a predetermined time has elapsed since the operation input was made. Alternatively, for client devices 200 connected from the same area, accessing the server 100 via the same service provider, or using the same game content, the other client devices 200 are measured in advance. The set or set time may be set as the time until the operation input is reflected on the game screen.

サーバ通信部106は、サーバ100が有する通信インタフェースである。サーバ通信部106は、ネットワーク300を介してクライアント装置200と接続し、クライアント装置200との間でデータの送受信を行う。なお、ゲーム画面の送信にあたり、サーバ通信部106は複数のフレームのゲーム画面に基づいて、対象のゲーム画面の符号化を行い送信してもよい。   The server communication unit 106 is a communication interface that the server 100 has. The server communication unit 106 is connected to the client device 200 via the network 300 and transmits / receives data to / from the client device 200. In transmitting the game screen, the server communication unit 106 may encode and transmit the target game screen based on the game screen of a plurality of frames.

〈クライアント装置200の構成〉
次にクライアント装置200の機能構成について、図3のブロック図を参照して説明する。
<Configuration of Client Device 200>
Next, the functional configuration of the client apparatus 200 will be described with reference to the block diagram of FIG.

制御部201は、例えばCPU等の制御装置であり、クライアント装置200が有する各ブロックの動作を制御する。制御部201は、例えば記憶媒体202に記憶されている各ブロックの動作プログラムを読み出し、メモリ203に展開して実行することにより各ブロックの動作を制御する。なお、サーバ100から受信するゲーム画面が符号化されている場合、制御部201は復号処理を行い、フレームに係るゲーム画像を生成するよう構成されていてもよい。   The control unit 201 is a control device such as a CPU, for example, and controls the operation of each block included in the client device 200. The control unit 201 controls the operation of each block by, for example, reading the operation program of each block stored in the storage medium 202 and developing it in the memory 203 and executing it. Note that when the game screen received from the server 100 is encoded, the control unit 201 may perform a decoding process to generate a game image related to the frame.

記憶媒体202は、例えば不揮発性メモリやHDD等の恒久的に情報を記憶する記憶装置である。記憶媒体202は、クライアント装置200が有する各ブロックの動作プログラムに加え、サーバ100から受信したゲーム画面に対して重畳する用の、なされた操作入力に対応する操作内容を通知するためのグラフィックユーザインタフェース(GUI)画像等を記憶する。メモリ203は、例えばRAM等の一時的なデータの記憶領域として用いられる記憶装置である。メモリ203は、各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力された中間データの格納領域として用いられてもよい。またメモリ203は、描画部204によるゲーム画面生成用の領域としての用途を兼ねるものであってもよい。   The storage medium 202 is a storage device that permanently stores information, such as a nonvolatile memory or an HDD. The storage medium 202 is a graphic user interface for notifying the operation content corresponding to the operation input made for superimposing on the game screen received from the server 100 in addition to the operation program of each block of the client device 200. (GUI) Images and the like are stored. The memory 203 is a storage device used as a temporary data storage area such as a RAM. The memory 203 may be used not only as a development area for the operation program of each block, but also as a storage area for intermediate data output in the operation of each block. The memory 203 may also serve as a game screen generation area by the drawing unit 204.

描画部204は、例えばGPU等の描画装置である。描画部204は、サーバ100から受信したゲーム画面に対して、所定のGUI画像を重畳する等の簡易的な描画処理を行うものであればよく、サーバ100のサーバ描画部104と同等の描画性能を持つものである必要はない。描画部204は、所謂オンボードGPU等であってもよい。   The drawing unit 204 is a drawing device such as a GPU. The drawing unit 204 only needs to perform a simple drawing process such as superimposing a predetermined GUI image on the game screen received from the server 100, and has the same drawing performance as the server drawing unit 104 of the server 100. There is no need to have something. The drawing unit 204 may be a so-called on-board GPU or the like.

表示部205は、例えばLCD等の表示装置である。表示部205は、クライアント装置200と一体型のものであってもよいし、クライアント装置200に着脱可能にされる外部の表示装置であってもよい。   The display unit 205 is a display device such as an LCD. The display unit 205 may be integrated with the client device 200 or may be an external display device that is detachable from the client device 200.

操作入力部206は、所定のゲームパッドやキーボード等、クライアント装置200が有するユーザインタフェースである。本実施形態ではクライアント装置200には、入力装置としてのハードウェアが接続されており、該ハードウェア上のボタンやアナログスティック(スティック状部材の上下左右等の傾斜により示されるxy座標をアナログ値として出力)等の物理的な操作部材が、各々ユーザインタフェースとして機能する。操作入力部206は、各種ユーザインタフェースに対してなされた操作入力を検出すると、該操作入力に対応する制御信号を制御部201に出力する。   The operation input unit 206 is a user interface that the client device 200 has, such as a predetermined game pad and a keyboard. In the present embodiment, hardware as an input device is connected to the client device 200, and the buttons and analog sticks on the hardware (the xy coordinates indicated by the inclination of the stick-like member up and down, left and right, etc.) are used as analog values. Each of the physical operation members such as (output) functions as a user interface. When the operation input unit 206 detects an operation input made on various user interfaces, the operation input unit 206 outputs a control signal corresponding to the operation input to the control unit 201.

通信部207は、クライアント装置200が有する通信インタフェースである。通信部207は、ネットワーク300を介してサーバ100と接続し、サーバ100との間でデータの送受信を行う。   The communication unit 207 is a communication interface that the client device 200 has. The communication unit 207 is connected to the server 100 via the network 300 and transmits / receives data to / from the server 100.

《操作内容の通知態様》
次に、本実施形態のゲームシステムにおけるサービス提供において、各クライアント装置200のユーザに対して提示されるゲーム画面における操作内容の通知態様について、図面を用いて説明する。
<< Notification mode of operation contents >>
Next, in the service provision in the game system according to the present embodiment, an operation content notification mode on the game screen presented to the user of each client device 200 will be described with reference to the drawings.

上述したように、本実施形態のクライアント装置200では、サーバ100から受信したゲーム画面に対して、なされた操作入力に対応する操作内容を通知するGUI画像を重畳した画面が出力画面として表示部205に表示される。通信遅延やサーバ100における処理負荷等により操作入力に対応する処理結果が反映されるまでの時間が遅延するため、受信したゲーム画面に反映されている操作入力は、現在の判断時点(フレーム)において操作入力部206に検出された操作入力とは異なる。従って、本実施形態では描画部204は、受信したゲーム画面に反映されている操作入力に対応する操作内容を通知するGUI画像を該ゲーム画面に重畳する。即ち、現在のフレームにおけるゲーム画面には、該ゲーム画面に処理結果が反映された操作入力に対応する操作内容を通知するGUI画像が重畳されるため、ユーザによりなされた操作入力に対応する操作内容は遅延して出力画面上に通知されることになる。このようにすることで、ユーザが行った操作入力のうちのいずれの入力が現在のフレームのゲーム画面に反映されているかを、ユーザに少なくとも通知することができる。   As described above, in the client device 200 according to the present embodiment, a screen in which a GUI image for notifying operation content corresponding to the operation input made on the game screen received from the server 100 is superimposed as the output screen. Is displayed. Since the time until the processing result corresponding to the operation input is reflected is delayed due to the communication delay or the processing load on the server 100, the operation input reflected on the received game screen is the current determination time point (frame). This is different from the operation input detected by the operation input unit 206. Accordingly, in the present embodiment, the drawing unit 204 superimposes on the game screen a GUI image that notifies the operation content corresponding to the operation input reflected on the received game screen. That is, since the GUI image for notifying the operation content corresponding to the operation input reflecting the processing result is superimposed on the game screen in the current frame, the operation content corresponding to the operation input made by the user Will be delayed and notified on the output screen. By doing so, it is possible to at least notify the user which input among the operation inputs performed by the user is reflected on the game screen of the current frame.

また本実施形態ではこれに加え、現在のフレームにおいて検出された操作入力に対応する操作内容も出力画面において通知する。即ち、出力画面では、少なくとも現在なされた操作入力に対応する操作内容と、現在のフレームのゲーム画面に反映されている操作入力に対応する操作内容とが、識別可能な態様で通知される。このようにすることで、ユーザが表示されたゲーム画像を観て行った操作入力が受け付けられていることを、ユーザにさらに通知することができる。なお、現在のフレームにおいて検出される操作入力とは、現在のフレームにおいて検出されたものとして扱われる操作入力であってもよく、この場合操作入力がなされた時点は、例えば1フレーム前等、現在のフレームと異なる期間内になされた操作入力であってもよい。   In the present embodiment, in addition to this, the operation content corresponding to the operation input detected in the current frame is also notified on the output screen. That is, on the output screen, at least the operation content corresponding to the operation input made at present and the operation content corresponding to the operation input reflected on the game screen of the current frame are notified in an identifiable manner. By doing in this way, it can be further notified to the user that the operation input performed by the user viewing the displayed game image is accepted. The operation input detected in the current frame may be an operation input that is treated as detected in the current frame. In this case, the time when the operation input is made is, for example, one frame before or the like. It may be an operation input made within a period different from the frame.

さらに、本実施形態では操作入力がなされてから、該操作入力に対応する処理結果がゲーム画面に反映されるまでの時間や処理状況、あるいは遅延時間をユーザに通知するために、該操作入力に対応する操作内容の通知に係るGUI画像を、時間経過とともに順次その通知態様を異ならせながら出力画面において表示させる。このようにすることで、ユーザが行った1つの操作入力に対応する処理結果が反映されるまでの時間や処理遅延状況を、ユーザにさらに通知することができる。   Furthermore, in this embodiment, in order to notify the user of the time, processing status, or delay time from when the operation input is made until the processing result corresponding to the operation input is reflected on the game screen, The GUI image related to the notification of the corresponding operation content is displayed on the output screen while the notification mode is sequentially changed over time. By doing so, it is possible to further notify the user of the time until the processing result corresponding to one operation input performed by the user is reflected and the processing delay state.

これらの通知態様を総合することで、本実施形態のゲームシステムでは、操作入力に対応する処理結果が反映されるまでに処理や通信による遅延を生じるものであったとしても、ユーザに処理結果の反映の遅延を示す情報を通知することができる。故に、反映されるまでの遅延を考慮し、処理結果を予測しながら操作を行うことをユーザに通知することが可能であるため、操作性を向上させることができる。   By combining these notification modes, the game system according to the present embodiment allows the user to receive the processing result even if a processing or communication delay occurs until the processing result corresponding to the operation input is reflected. Information indicating the reflection delay can be notified. Therefore, it is possible to notify the user that the operation is performed while predicting the processing result in consideration of the delay until the reflection, so that the operability can be improved.

例えば、本実施形態のクライアント装置200においてユーザによるアナログスティックを左方向に傾斜させる操作入力がなされた場合、操作入力部206により検出された該操作入力の操作内容、即ち左方向への位置移動や方向選択等の通知に係る図4AのようなGUI画像が、現在のフレームのゲーム画面に重畳される。図4Aの例では、GUI画像は入力がなされたことを示すために、円形のサークル400内の左方向に相当する位置に、所定の面積及び輝度を有するGUI画像401が表示される。その後、描画部204は、取得した処理結果が反映されるまでの時間(反映時間)の情報に基づいて、例えば図4B→4Cのように順次面積及び輝度を変化(増大)させたGUI画像402及び403を通知する。そして最終的に処理結果が反映されたフレームのゲーム画像について、反映がなされたことを明示するような面積及び輝度を有するGUI画像404(図4D)が表示されるように通知態様を変化させた後、次のフレームあるいは予め定められたフレーム経過後の出力画面においてその通知が消去される(図4E)ようにすればよい。図4Aから図4Dまでの通知態様の変化は、サーバ100より受信した反映時間の情報に基づいて、操作入力の受け付けから該操作入力に対応する処理結果がゲーム画面に反映されるまでの期間において段階的に通知態様が変化するように制御される。この一連の通知態様の変化により、なされた操作入力が受け付けられていること、操作入力に対応する処理結果が反映されるまでの時間間隔、及び該処理結果が反映されたことをユーザに通知することができる。   For example, when an operation input for tilting the analog stick to the left by the user is performed in the client device 200 of the present embodiment, the operation content of the operation input detected by the operation input unit 206, that is, position movement in the left direction, A GUI image as shown in FIG. 4A related to notification of direction selection or the like is superimposed on the game screen of the current frame. In the example of FIG. 4A, a GUI image 401 having a predetermined area and brightness is displayed at a position corresponding to the left direction in the circular circle 400 in order to indicate that the GUI image has been input. After that, the rendering unit 204 sequentially changes (increases) the area and the luminance as shown in FIGS. 4B to 4C based on the information on the time until the acquired processing result is reflected (reflection time), for example. And 403 are notified. Then, the notification mode is changed so that the GUI image 404 (FIG. 4D) having an area and brightness that clearly indicate that the game image of the frame in which the processing result is reflected is finally displayed. Thereafter, the notification may be deleted on the next frame or the output screen after a predetermined frame has elapsed (FIG. 4E). 4A to 4D are based on the reflection time information received from the server 100 during the period from when the operation input is received until the processing result corresponding to the operation input is reflected on the game screen. Control is made so that the notification mode changes step by step. With this series of notification mode changes, the user is notified that the operation input made is accepted, the time interval until the processing result corresponding to the operation input is reflected, and the processing result is reflected. be able to.

なお、図4A〜4Eに示した例は、説明を簡単にするため、1度の操作入力がなされてから該操作入力が反映されるまでに他の入力がなされなかったものとしているが、本発明の実施はこれに限られるものではない。即ち、連続したフレームについて、あるいは間欠的に操作入力がなされる場合、各フレーム期間や、操作入力部206のサンプリングレートによって定まる各入力期間等、各判断時点において検出された操作入力が順次、対応するフレームのゲーム画像に入力されたことを示す通知に係るGUI画像を重畳するようにしてもよい。またこのようにして順次検出された操作入力が、所定の反映時間の経過後に反映されたことの通知が順次なされるため、ユーザは通知される操作内容から自身の行ったいずれの操作入力が反映されているかを容易に理解することができる。   In the example shown in FIGS. 4A to 4E, for the sake of simplicity, it is assumed that no other input is made after the operation input is reflected until the operation input is reflected. Implementation of the invention is not limited to this. That is, when operation input is performed for continuous frames or intermittently, the operation input detected at each determination time, such as each frame period or each input period determined by the sampling rate of the operation input unit 206, is sequentially handled. You may make it superimpose the GUI image which concerns on the notification which shows having been input into the game image of the frame to perform. In addition, since the notification that the operation input sequentially detected in this way has been reflected after the predetermined reflection time has elapsed, the user reflects any operation input performed by the user from the notified operation content. You can easily understand what is being done.

また、通知態様は図4A〜4Eに示される態様に限られるものである必要はないことは言うまでもない。即ち、本発明の実施においてなされた操作入力に対応する操作内容の通知態様は、対応する操作入力がなされてから処理結果の反映までに所定の時間分遅延して反映されることをユーザに認識可能ならしめるものであればどのようなものであってもよい。つまり、例えばユーザが間欠的に異なる操作入力を行うような場合では、所定の時間遅延して図4Dのように操作入力に対応する操作内容を通知する構成であっても、ユーザにはその遅延時間を把握させることができる。また、遅延に係る時間経過に応じて通知態様を異ならせる場合は、図4A〜4Eに示したような遷移手法やGUI画像に限らず、操作入力がなされてから対応する処理結果が反映されるまでをユーザに知覚させることが可能ないずれの遷移手法やGUI画像が用いられてよい。また、図4A〜4Eの例では反映されたことを明示するような面積及び輝度を有する図4DのようなGUI画像404を表示させることで、反映がなされたことをユーザに通知するとしたが、さらにGUI画像の色変化や、反映がなされたことを示す文字列や記号等を用いて明示させるようにしてもよい。   Needless to say, the notification mode need not be limited to the mode shown in FIGS. That is, it is recognized by the user that the notification mode of the operation content corresponding to the operation input made in the implementation of the present invention is reflected with a predetermined time delay after the corresponding operation input is made until the processing result is reflected. Anything can be used if possible. That is, for example, when the user intermittently performs different operation inputs, even if the operation content corresponding to the operation input is notified as shown in FIG. You can keep track of time. Further, when the notification mode is changed according to the elapsed time relating to the delay, not only the transition method and the GUI image as illustrated in FIGS. 4A to 4E but the corresponding processing result is reflected after the operation input is made. Any transition method or GUI image that allows the user to perceive up to may be used. In addition, in the example of FIGS. 4A to 4E, the GUI image 404 as shown in FIG. 4D having an area and brightness that clearly indicates that the reflection has been performed is displayed to notify the user that the reflection has been made. Further, it may be explicitly indicated by using a character string, a symbol, or the like indicating that the GUI image has a color change or reflection.

《反映時間取得処理》
ここで、上述の構成をもつ本実施形態のサーバ100において実行される反映時間取得処理について、図5のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、サーバ制御部101が、例えばサーバ記憶媒体102に記憶されている対応する処理プログラムを読み出し、サーバメモリ103に展開して実行することにより実現することができる。なお、本反映時間取得処理は、例えば反映時間の取得タイミングであるものとサーバ制御部101が判断した際に開始されるものとして説明する。反映時間の取得タイミングは、例えばクライアント装置200の各々からサービス提供要求がなされた際またはサービス提供の開始後に最初の操作入力を示す情報を受信した際、サーバ100のサービス提供するクライアント装置200の数に変動があった際、サーバ100における総演算量の変動があった際、反映時間の計測を行うとして予め定められた時間が経過した際等であってよい。
<< Reflection time acquisition process >>
Here, specific processing of the reflection time acquisition processing executed in the server 100 of the present embodiment having the above-described configuration will be described using the flowchart of FIG. The processing corresponding to the flowchart can be realized by the server control unit 101 reading, for example, a corresponding processing program stored in the server storage medium 102, developing it in the server memory 103, and executing it. The reflection time acquisition process will be described as being started when the server control unit 101 determines that the reflection time is acquired, for example. The reflection time acquisition timing is the number of client devices 200 that provide the service of the server 100 when, for example, a service provision request is made from each of the client devices 200 or when information indicating the first operation input is received after the service provision is started. May be when the total amount of computation in the server 100 has changed, when a predetermined time has passed for measurement of the reflection time, or the like.

S501で、サーバ計測部105はサーバ制御部101の制御の下、現在サーバ100において行われている処理を考慮し、なされた操作入力を示す情報が新たに受信された場合に、操作入力に対応する処理結果を反映したゲーム画面を生成するまでに要する時間(反映画面生成時間)を取得する。該時間は、例えば予め定められた関数等により算出される推定値であってもよいし、実際に処理を行って計測される実測値であってもよい。   In step S <b> 501, the server measurement unit 105 responds to an operation input when information indicating an operation input made is newly received in consideration of processing currently performed in the server 100 under the control of the server control unit 101. The time required to generate the game screen reflecting the processing result to be performed (reflection screen generation time) is acquired. The time may be, for example, an estimated value calculated by a predetermined function or the like, or may be an actually measured value that is actually measured and measured.

S502で、サーバ計測部105は、操作入力を示す情報に対応するクライアント機器についての通信により生じる遅延時間を取得する。通信により生じる遅延時間は、例えばなされた操作入力を示す情報の受信、及び該情報により示される操作入力に基づいて生成されたゲーム画面の送信に要する時間を算出し、加算することで得られるものであってよい。なお、遅延時間の情報の取得はこれに限られるものである必要はなく、上述したように操作入力を示す情報に含まれるタイムスタンプの参照や、ping発信等、クライアント装置200からの通信に要した実測時間のフィードバック等により取得されるものであってもよい。   In step S <b> 502, the server measurement unit 105 acquires a delay time caused by communication with the client device corresponding to the information indicating the operation input. The delay time caused by communication is obtained, for example, by calculating and adding the time required to receive information indicating the operation input made and to transmit the game screen generated based on the operation input indicated by the information. It may be. The acquisition of delay time information is not limited to this, and is necessary for communication from the client device 200, such as referring to the time stamp included in the information indicating the operation input and ping transmission as described above. It may be acquired by feedback of the actual measurement time.

S503で、サーバ計測部105は、S501において取得した反映画面生成時間とS502において取得した遅延時間とを加算し、反映時間としてサーバメモリ103に格納する。   In step S503, the server measurement unit 105 adds the reflection screen generation time acquired in step S501 and the delay time acquired in step S502, and stores the addition time in the server memory 103.

S504で、サーバ制御部101は、サーバメモリ103に格納された反映時間の情報を読み出してサーバ通信部106に伝送し、対応するクライアント装置200に送信させ、本反映時間取得処理を完了する。   In step S504, the server control unit 101 reads the reflection time information stored in the server memory 103, transmits the information to the server communication unit 106, and transmits the information to the corresponding client device 200, thereby completing the reflection time acquisition process.

なお、上述したように本反映時間取得処理により得られた反映時間の情報は、使用するクライアント機器の種別が同一、通信環境が同一、あるいはサービス利用するゲームコンテンツが同一等、流用が可能な一部のクライアント装置200に対しても提供されるものとしてもよい。   As described above, the reflection time information obtained by the reflection time acquisition process is one that can be diverted, for example, the same client device type, the same communication environment, or the same game content for service use. It may also be provided to the client device 200 of the part.

また、本実施形態の反映時間取得処理では、サーバ100側にて反映時間の計測を行うものとして説明したが、例えばping発信のように、ダミーの操作入力を示す情報を送信し、該情報に対応する処理結果が反映されたダミー画面が受信されるまでの時刻を計測できるような応答プロトコルがゲームシステムに設けられていてもよい。この場合、クライアント装置200とサーバ100との初回通信時等、上述したような取得タイミングにクライアント装置200が該プロトコルを用いて反映時間の計測を行ってメモリ203に情報を格納するものであってもよい。   Further, in the reflection time acquisition process of the present embodiment, it has been described that the reflection time is measured on the server 100 side. However, information indicating a dummy operation input is transmitted, for example, ping transmission, and the information is transmitted to the information. A response protocol may be provided in the game system so that the time until the dummy screen reflecting the corresponding processing result is received can be measured. In this case, the client device 200 measures the reflection time using the protocol and stores the information in the memory 203 at the acquisition timing as described above, such as during the initial communication between the client device 200 and the server 100. Also good.

《出力画面生成処理》
次に、本実施形態のクライアント装置200において実行される出力画面生成処理について、図6のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部201が、例えば記憶媒体202に記憶されている対応する処理プログラムを読み出し、メモリ203に展開して実行することにより実現することができる。なお、本出力画面生成処理は、表示部205への表示に係る画面のリフレッシュレートに基づいて、各フレームについての処理を実行するタイミングで開始されるものとする。
<< Output screen generation processing >>
Next, specific processing of the output screen generation processing executed in the client device 200 of the present embodiment will be described using the flowchart of FIG. The processing corresponding to the flowchart can be realized by the control unit 201 reading, for example, a corresponding processing program stored in the storage medium 202, developing it in the memory 203, and executing it. Note that the output screen generation process is started at the timing of executing the process for each frame based on the refresh rate of the screen related to the display on the display unit 205.

S601で、制御部201は、現在のフレームの出力画像に対応する期間内になされた操作入力を示す情報と該操作入力がなされた時刻(処理上の経過時間であってもよい)の情報とを取得する。なお、本実施形態では説明を簡単にするため、操作入力部206のサンプリングレートが表示リフレッシュレートより高い場合であっても、クライアント装置200からサーバ100には所定の期間内になされた操作入力の情報がまとめて送信されるものとして説明する。   In step S <b> 601, the control unit 201 includes information indicating an operation input made within a period corresponding to the output image of the current frame, information on the time when the operation input was made (may be an elapsed time in processing), and To get. In the present embodiment, for the sake of simplicity of explanation, even when the sampling rate of the operation input unit 206 is higher than the display refresh rate, the operation input made from the client device 200 to the server 100 within a predetermined period is received. A description will be given assuming that information is transmitted collectively.

S602で、制御部201は、S601において取得した操作入力を示す情報とそのなされた時刻の情報とを関連付けて、メモリ203内の操作入力履歴テーブルに記憶する。操作入力履歴テーブルは、例えば図7に示されるように、まだゲーム画面にその操作入力に対応する処理結果の反映がなされていない操作入力の一覧を管理するテーブルであり、例えば1つの操作入力について1レコードが生成され、操作入力がなされた時刻(検出時刻)の順に管理される情報であってよい。なお、本実施形態では実測値に基づく遅延がなるべく操作内容の通知に反映されるよう、図7に示したような操作入力がなされた時刻を操作入力履歴テーブルに含めるものとして説明するが、これらは例えばフレーム番号や同時期に表示されるゲーム画面のタイムコード等を用いるものであってもよいことは言うまあでもない。   In step S <b> 602, the control unit 201 associates the information indicating the operation input acquired in step S <b> 601 with information on the time at which the control input is performed, and stores the information in the operation input history table in the memory 203. For example, as shown in FIG. 7, the operation input history table is a table for managing a list of operation inputs for which the processing results corresponding to the operation inputs are not yet reflected on the game screen. It may be information managed in the order of time (detection time) when one record is generated and an operation input is made. In the present embodiment, it is assumed that the operation input history table includes the time when the operation input as shown in FIG. 7 is made so that the delay based on the actual measurement value is reflected in the notification of the operation content as much as possible. Needless to say, for example, a frame number or a time code of a game screen displayed at the same time may be used.

S603で、制御部201は、サーバ100からの現在のフレームのゲーム画面が所定の時間内に受信されたか否かを判断する。サーバ100において生成されたゲーム画面は通信部207により受信され、メモリ203に格納されるものとする。1フレームに係る出力画面の生成をフレーム時間内に完了させるために、本ステップにおいて制御部201は、所定の時間内にゲーム画面が受信されたかを判断する。制御部201は、現在のフレームのゲーム画面が所定の時間内に受信されたと判断した場合は、S604でメモリ203に新たに格納されたゲーム画面を出力画面用のゲーム画面として選択して処理をS606に移す。また制御部201は、現在のフレームのゲーム画面が所定の時間内に受信されていないと判断した場合は、S605でメモリ203に直近に格納されたゲーム画面を出力画面用のゲーム画面として選択して処理をS606に移す。   In step S <b> 603, the control unit 201 determines whether the game screen of the current frame from the server 100 has been received within a predetermined time. It is assumed that the game screen generated in the server 100 is received by the communication unit 207 and stored in the memory 203. In order to complete the generation of the output screen related to one frame within the frame time, in this step, the control unit 201 determines whether the game screen is received within a predetermined time. If the control unit 201 determines that the game screen of the current frame has been received within a predetermined time, the control unit 201 selects the game screen newly stored in the memory 203 in S604 as the game screen for the output screen, and performs processing. Move to S606. If the control unit 201 determines that the game screen of the current frame has not been received within a predetermined time, the control unit 201 selects the game screen stored most recently in the memory 203 in S605 as the game screen for the output screen. The process proceeds to S606.

S606で、描画部204は制御部201の制御の下、操作入力履歴テーブルに格納されている各操作入力の操作内容を通知するためのGUI画像をゲーム画面に対して重畳し、出力画面を生成する。操作内容を通知するためのGUI画像は、上述したように操作入力がなされてからの経過時間に応じてその表示態様が異なせるように制御されてよい。例えば操作内容を通知するためのGUI画像が図4A〜4Eのように円形画像(401、402、403、404)として生成される場合、その半径r(i)(iは操作入力履歴テーブル上のレコードID)は、経過時間telapsedとサーバ100から受信した反映時間treflectを用いて、
(1)telapsed≦treflectの場合
r(i) = rdefault * (1 - (telapsed - treflect) / treflect)
(2)telapsed>treflectの場合
r(i) = rdefault
として算出されてもよい。なお、本実施形態ではGUI画像はゲーム画面に重畳されるものとして説明するが、出力画面の構成はこれに限られるものではない。例えば出力画面の領域内においてゲーム画面とGUI画像とを表示させる領域は分離されており、本ステップにおいて描画部204は、ゲーム画面とは重複しない領域にGUI画像を表示させるようにしてもよい。
In step S <b> 606, under the control of the control unit 201, the drawing unit 204 generates an output screen by superimposing a GUI image for notifying operation details of each operation input stored in the operation input history table on the game screen. To do. The GUI image for notifying the operation content may be controlled so that the display mode varies depending on the elapsed time after the operation input is made as described above. For example, when the GUI image for notifying the operation content is generated as a circular image (401, 402, 403, 404) as shown in FIGS. 4A to 4E, the radius r (i) (i is the value on the operation input history table). Record ID) uses elapsed time lapsed and reflection time treflect received from server 100,
(1) When elapsedd ≦ treflect r (i) = rdefault * (1-(tlapsed-treflect) / treflect)
(2) When elapsed> treflect r (i) = rdefault
May be calculated as In the present embodiment, the GUI image is described as being superimposed on the game screen, but the configuration of the output screen is not limited to this. For example, the area for displaying the game screen and the GUI image is separated in the area of the output screen, and the drawing unit 204 may display the GUI image in an area that does not overlap with the game screen in this step.

S607で、制御部201は、S606において生成された出力画面を表示部205に伝送し、表示させる。   In step S <b> 607, the control unit 201 transmits the output screen generated in step S <b> 606 to the display unit 205 for display.

S608で、制御部201は、操作入力履歴テーブルに格納されている各操作入力の入力がなされた時刻を参照し、サーバ100から受信した反映時間を越えているレコードを削除し、再度操作入力履歴テーブルを時系列順に更新して本出力画面生成処理を完了する。   In step S <b> 608, the control unit 201 refers to the time at which each operation input is stored, which is stored in the operation input history table, deletes the record exceeding the reflection time received from the server 100, and re-operates the operation input history. The table is updated in chronological order to complete the output screen generation process.

なお、本実施形態ではサーバ100において反映時間の情報を取得し、クライアント装置200において操作内容を通知するGUI画像をゲーム画面に重畳して出力画像を生成する処理を行うものとして説明したが、本発明の実施はこれに限られるものではない。上述したように反映時間の計測や判断は、クライアント装置200において行ってもよい。また、現在の判断時点においてなされている操作入力に対応する操作内容の通知以外は、サーバ100においても可能であり、例えば反映時間を考慮した操作内容の通知を含んだ出力画面がサーバ100において生成されてクライアント装置200に送信されるものであってもよい。   In the present embodiment, the server 100 acquires the reflection time information, and the client device 200 has been described as performing the process of generating the output image by superimposing the GUI image notifying the operation content on the game screen. Implementation of the invention is not limited to this. As described above, the reflection time may be measured and determined by the client device 200. In addition to the notification of the operation content corresponding to the operation input made at the current determination time, it is also possible in the server 100. For example, an output screen including the notification of the operation content considering the reflection time is generated in the server 100. And may be transmitted to the client device 200.

また、本発明の実施は図1に示したようなクラウド型のゲーム提供サービスを行うゲームシステムに限定されるものである必要がないことは容易に理解されよう。即ち、本発明の実施においてゲーム画面や出力画面の生成を行うエンティティはいずれであってもよく、単になされた操作入力が遅延して反映されることを示す通知を表示装置等の通知機器にさせることが可能な装置であれば本発明は適用可能である。   In addition, it will be easily understood that the present invention need not be limited to a game system that provides a cloud-type game providing service as shown in FIG. In other words, any entity that generates a game screen or an output screen may be used in the implementation of the present invention, and a notification device such as a display device is made to notify that a simple operation input is reflected with a delay. The present invention can be applied to any apparatus that can be used.

以上説明したように、本実施形態に係るプログラムでは、操作入力に対するレスポンスを考慮してユーザの操作性を向上させることができる。具体的にはコンピュータにおいて実行されるプログラムは、なされた操作入力を示す情報を取得する処理と、取得された情報により示される操作入力に対応する操作内容を、所定の時間遅らせて通知させる処理と、を実行させる。   As described above, in the program according to the present embodiment, user operability can be improved in consideration of a response to an operation input. Specifically, the program executed in the computer includes a process of acquiring information indicating the operation input made, and a process of notifying the operation content corresponding to the operation input indicated by the acquired information after a predetermined time delay. , Execute.

[実施形態2]
ところで近年、表示装置の表示領域上へのタッチ入力検出インタフェースを備える電子機器等も普及してきており、このような機器において操作入力インタフェースを示すGUI画像をゲーム画面等に重畳するような表示態様は一般的になってきている。しかしながら、このように操作入力インタフェースを示すGUI画像が実行されるコンテンツに係る画面上に配置されて表示される場合、タッチ入力中は操作に係る運指によって画面の一部が遮蔽されることになるため、画面の視認性が低減し、ひいてはユーザの操作性が低減し得る。
[Embodiment 2]
Incidentally, in recent years, electronic devices and the like having a touch input detection interface on a display area of a display device have also become widespread, and such a display mode in which a GUI image indicating an operation input interface is superimposed on a game screen or the like is used. It is becoming common. However, when the GUI image indicating the operation input interface is arranged and displayed on the screen related to the content to be executed, a part of the screen is blocked by the fingering related to the operation during the touch input. Therefore, the visibility of the screen can be reduced, and the user operability can be reduced.

一方で、実施形態1において上述したように、なされた操作入力に対応する操作内容の通知に際し、出力画面においてゲーム画面に重畳される該通知に係るGUI画像の面積を低減するように構成することで、ゲーム画面の視認性は担保することができる。   On the other hand, as described above in the first embodiment, when an operation content corresponding to an operation input made is notified, the area of the GUI image related to the notification superimposed on the game screen on the output screen is reduced. Thus, the visibility of the game screen can be ensured.

しかしながら、タッチ入力検出インタフェースを有する電子機器の多くは小型の表示装置を備えるものであるため、ゲーム画面の視認性を担保した場合、操作入力インタフェースに係る画像を表示する領域は制限されることになる。つまり、例えば所謂アナログスティックに相当するような継続したタッチ入力が用いられる操作入力は、ゲーム画面上あるいは画面外の、従来よりも狭い検出領域内でユーザはタッチ入力に係る運指を行わなければならない。この場合、所望の操作が困難になる、あるいは検出領域が狭いが故にゲームプレイに集中している際には無意識に非検出領域に指が移動し、そもそも操作が不能な状態となってしまう等の問題が発生し得る。   However, since many electronic devices having a touch input detection interface are provided with a small display device, when the visibility of the game screen is ensured, an area for displaying an image related to the operation input interface is limited. Become. In other words, for example, an operation input using a continuous touch input corresponding to a so-called analog stick requires that the user does not perform fingering related to the touch input within a detection area narrower than before on or off the game screen. Don't be. In this case, the desired operation becomes difficult, or when the focus is on the game play because the detection area is narrow, the finger unconsciously moves to the non-detection area, and the operation becomes impossible in the first place. Problems can occur.

従って、本実施形態ではこのように操作入力インタフェースに係る画像が、表示領域内の限定的なタッチ入力の検出領域に配置される場合であったとしても、ユーザの操作性を担保し得る態様について説明する。以下では、実施形態1と同様の機能構成を有するクライアント装置200を例に、該態様を説明する。なお、本実施形態ではクライアント装置200の表示部205上には、表示領域上のいずれの位置にタッチ入力がなされたかを検出するセンサが配置され、操作入力部206が該センサによる検出結果を取得するものとする。   Therefore, in this embodiment, even if the image related to the operation input interface is arranged in a limited touch input detection area in the display area as described above, it is possible to ensure user operability. explain. Hereinafter, this aspect will be described by taking a client device 200 having the same functional configuration as that of the first embodiment as an example. In the present embodiment, a sensor for detecting where a touch input is made on the display area is arranged on the display unit 205 of the client device 200, and the operation input unit 206 acquires a detection result by the sensor. It shall be.

《タッチ入力判断処理》
以下、本実施形態のクライアント装置200において実行されるタッチ入力判断処理について、図8のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部201が、例えば記憶媒体202に記憶されている対応する処理プログラムを読み出し、メモリ203に展開して実行することにより実現することができる。なお、本タッチ入力判断処理は、表示部205の表示領域内に設けられた所定の操作入力に係る検出領域(対象検出領域)内に対するタッチ入力がなされた際に開始されるものとして説明する。
《Touch input judgment processing》
Hereinafter, specific processing of touch input determination processing executed in the client device 200 of the present embodiment will be described with reference to the flowchart of FIG. The processing corresponding to the flowchart can be realized by the control unit 201 reading, for example, a corresponding processing program stored in the storage medium 202, developing it in the memory 203, and executing it. The touch input determination process will be described as being started when a touch input is made in a detection area (target detection area) related to a predetermined operation input provided in the display area of the display unit 205.

また、以下の説明では説明を簡単にするため、操作入力インタフェースに係り設定される検出領域は対象検出領域のみであるものとする。また、対象検出領域内に対してなされたタッチ入力は、該領域の中心とタッチ入力位置との位置関係に応じて入力方向が定まる、アナログスティックに係る操作入力として判断されるものとして説明する。しかしながら、本発明の実施はアナログスティックに係るタッチ入力に限定されるものでなく、継続したタッチ入力がなされる特定の操作入力インタフェースに係る画像について設けられた検出領域についても同様に適用可能であることは容易に理解されよう。   In the following description, for the sake of simplicity, it is assumed that the detection area set for the operation input interface is only the target detection area. Further, the description will be made assuming that the touch input made in the target detection area is determined as an operation input related to an analog stick whose input direction is determined according to the positional relationship between the center of the area and the touch input position. However, the embodiment of the present invention is not limited to touch input related to an analog stick, and can be similarly applied to a detection region provided for an image related to a specific operation input interface where continuous touch input is performed. That will be easily understood.

S801で、制御部201は、操作入力部206によりタッチ入力が検出されたか否かを判断する。制御部201は、タッチ入力が検出されたと判断した場合は処理をS802に移し、なされていないと判断した場合は処理をS806に移す。   In step S <b> 801, the control unit 201 determines whether a touch input is detected by the operation input unit 206. If the control unit 201 determines that a touch input has been detected, the process proceeds to S802. If the control unit 201 determines that a touch input has not been detected, the control unit 201 proceeds to S806.

S802で、制御部201は、検出されたタッチ入力が、それ以前になされた対象検出領域内へのタッチ入力が継続していることによる入力であるか否かを判断する。制御部201は、対象検出領域内のタッチ入力が継続していることによるタッチ入力であると判断した場合は処理をS803に移し、継続していることによるタッチ入力ではないと判断した場合は処理をS808に移す。   In step S <b> 802, the control unit 201 determines whether the detected touch input is an input due to the continued touch input in the target detection area made before that time. If the control unit 201 determines that the touch input in the target detection area is a touch input due to continuing, the control unit 201 moves the process to S803, and if the control unit 201 determines that it is not a touch input due to continuing, the process Is moved to S808.

S803で、制御部201は、継続しているタッチ入力に対応する検出位置が、対象検出領域内であるか否かを判断する。対象検出領域の情報は、例えば記憶媒体202に予め定められているものであってよい。また後述するように対象検出領域を移動する処理がなされる場合は例えばメモリ203に移動後の対象検出領域の情報が格納されるため、メモリ203内に移動後の対象検出領域の情報が格納されている場合、本ステップで制御部201は該情報を参照してタッチ入力の有無を判断するものであってよい。なお、この対象検出領域の判断は以降のステップにおいても同様であり、移動前の対象検出領域の情報を参照する必要がある場合は、「予め定められた対象検出領域」と都度明示することとする。制御部201は、検出位置が対象検出領域内であると判断した場合は処理をS805に移し、対象検出領域外であると判断した場合は処理をS804に移す。   In step S803, the control unit 201 determines whether the detection position corresponding to the continued touch input is within the target detection area. The information on the target detection area may be predetermined in the storage medium 202, for example. In addition, when processing for moving the target detection area is performed as will be described later, for example, information on the target detection area after movement is stored in the memory 203, so information on the target detection area after movement is stored in the memory 203. In this step, the control unit 201 may determine whether or not there is a touch input with reference to the information in this step. This determination of the target detection area is the same in the subsequent steps. When it is necessary to refer to the information of the target detection area before the movement, it is clearly indicated as “predetermined target detection area”. To do. If the control unit 201 determines that the detection position is within the target detection region, the process proceeds to S805. If the control unit 201 determines that the detection position is outside the target detection region, the control unit 201 proceeds to S804.

S804で、制御部201は、継続しているタッチ入力がそれ以前になされた対象検出領域内へのタッチ入力と同様に判断されるように、継続しているタッチ入力に対応する検出位置に応じて対象検出領域の位置を移動させる。即ち、出力画面内の図9Aに示されるような位置に対象検出領域901が配置されている場合、本ステップにおいて制御部201は、同種の操作入力に係るタッチ入力がなされているものと判断できるように、図9Bに示されるように対象検出領域901の位置を、タッチ入力の検出位置902に応じて移動する。なお、対象検出領域の位置の移動とは、例えば図9A及び9Bのように対象検出領域が矩形領域である場合、メモリ203に移動後の対象検出領域を規定するための対角頂点の座標の情報を一時的に格納あるいは更新することにより行われてよい。このようにすることで、継続しているタッチ入力を行っている最中にユーザが無意識に対象検出領域外への運指を行ってしまった場合であっても、後述の入力内容を判断する処理において操作入力が継続しているものと判断することが可能となる。また、移動後の対象検出領域の位置は、例えば予め定められた対象検出領域の中心位置と、タッチ入力の検出位置とで規定されるベクトルの方向及び大きさに応じて、該検出位置が移動後の対象検出領域内に含まれるように決定されるものであってよい。   In step S <b> 804, the control unit 201 responds to the detection position corresponding to the continued touch input so that the continued touch input is determined in the same manner as the previous touch input to the target detection area. To move the position of the target detection area. That is, when the target detection area 901 is arranged at the position shown in FIG. 9A in the output screen, in this step, the control unit 201 can determine that a touch input related to the same type of operation input is made. As shown in FIG. 9B, the position of the target detection area 901 is moved according to the touch input detection position 902. Note that the movement of the position of the target detection area is, for example, when the target detection area is a rectangular area as shown in FIGS. 9A and 9B, with the coordinates of the diagonal vertices for defining the target detection area after moving in the memory 203. This may be done by temporarily storing or updating information. By doing in this way, even if the user unintentionally performs fingering outside the target detection area during continuous touch input, the input content described later is determined. It can be determined that the operation input continues in the process. Further, the position of the target detection area after the movement is moved according to the direction and size of a vector defined by the center position of the target detection area determined in advance and the detection position of the touch input, for example. It may be determined so as to be included in a later target detection area.

S805で、制御部201は、予め定められた対象検出領域の中心位置と、タッチ入力の検出位置とに応じて、アナログスティック操作入力に係る入力方向及び必要に応じてその大きさを判断し、判断結果として出力する。その後、制御部201はタッチ入力のサンプリングレート基づいて次のサンプリング時間まで待機した後、処理をS801に戻す。   In step S805, the control unit 201 determines the input direction related to the analog stick operation input and the size thereof as necessary according to the predetermined center position of the target detection region and the detection position of the touch input, Output as judgment result. Thereafter, the control unit 201 waits until the next sampling time based on the sampling rate of the touch input, and then returns the process to S801.

一方、S801において対象検出領域へのタッチ入力がなされていないと判断した場合、制御部201はS806で、対象検出領域が予め定められた位置から移動されているか否かを判断する。制御部201は、対象検出領域が予め定められた位置から移動していると判断した場合は処理をS807に移し、移動していないと判断した場合は次のサンプリング時間まで待機した後、処理をS801に戻す。   On the other hand, if it is determined in S801 that no touch input has been made to the target detection area, the control unit 201 determines in S806 whether the target detection area has been moved from a predetermined position. If the control unit 201 determines that the target detection area has moved from a predetermined position, the control unit 201 moves the process to S807. If the control unit 201 determines that the target detection area has not moved, the control unit 201 waits until the next sampling time, and then performs the process. Return to S801.

S807で、制御部201は、対象検出領域を予め定められた位置に順次戻すための移動関数を設定し、該移動関数に基づいてメモリ203に格納されている対象検出領域の位置を更新する処理を実行する。あるいは既に移動関数が定められている場合は、制御部201は同様に該移動関数に基づいてメモリ203に格納されている対象検出領域の位置を更新する処理を実行する。移動関数は、例えば対象検出領域の中心位置と予め定められた対象検出領域の中心位置とを結ぶ直線上を指数関数的に移動するよう定められるものであってもよい。また、誤って運指が中断された場合等の再度の中断位置付近へのタッチ入力を検出可能なように、移動関数は中断時から所定の期間、予め定められた位置への移動を行わないよう構成されてもよい。なお、本ステップにおいて対象検出領域の位置が予め定められた位置に戻ったものと判断する場合、制御部201はメモリ203から対象検出領域の位置の情報を削除すればよい。その後、制御部201は、次のサンプリング時間まで待機した後、処理をS801に戻す。   In step S807, the control unit 201 sets a movement function for sequentially returning the target detection area to a predetermined position, and updates the position of the target detection area stored in the memory 203 based on the movement function. Execute. Alternatively, if a movement function has already been determined, the control unit 201 similarly executes a process of updating the position of the target detection area stored in the memory 203 based on the movement function. For example, the movement function may be determined so as to move exponentially on a straight line connecting the center position of the target detection area and the center position of the predetermined target detection area. In addition, the movement function does not move to a predetermined position for a predetermined period from the time of interruption so that it is possible to detect a touch input near the position of the interruption again when the fingering is interrupted by mistake. It may be configured as follows. If it is determined in this step that the position of the target detection area has returned to a predetermined position, the control unit 201 may delete the information on the position of the target detection area from the memory 203. Thereafter, the control unit 201 waits until the next sampling time, and then returns the process to S801.

一方、S802において検出されたタッチ入力が、以前になされた対象検出領域内へのタッチ入力が継続していることによる入力ではないと判断した場合、制御部201はS808で、継続しているタッチ入力に対応する検出位置が、対象検出領域内であるか否かを判断する。制御部201は、検出位置が対象検出領域内であると判断した場合は処理をS805に移し、対象検出領域外であると判断した場合は処理をS806に移す。   On the other hand, when it is determined that the touch input detected in S802 is not an input due to the continued touch input in the target detection area, the control unit 201 continues the touch in S808. It is determined whether or not the detection position corresponding to the input is within the target detection area. If the control unit 201 determines that the detection position is within the target detection region, the process proceeds to S805. If the control unit 201 determines that the detection position is outside the target detection region, the control unit 201 proceeds to S806.

なお、本実施形態のタッチ入力判断処理では、対象検出領域が移動している場合は該移動後の領域にタッチ入力がなされなければ、対応する操作入力がなされたものと判断しないものとしてフローチャートを構成したが、対象検出領域が移動されている状態であっても、予め定められた対象検出領域へのタッチ入力がなされた場合、制御部201はメモリ203に格納されている移動後の対象検出領域の情報を削除し、予め定められた対象検出領域の情報に基づいて判断処理を行えばよい。   In the touch input determination process according to the present embodiment, when the target detection area is moved, unless the touch input is performed on the moved area, it is determined that the corresponding operation input is not performed. Although configured, even when the target detection area is being moved, when a touch input is made to a predetermined target detection area, the control unit 201 detects the target after movement stored in the memory 203. The area information may be deleted, and the determination process may be performed based on information on a predetermined target detection area.

また、このように判断されたタッチ入力に係る操作入力についても、実施形態1と同様に出力画面生成処理を行うことで、操作入力に対するレスポンスを考慮してユーザの操作性を向上させることができる。この場合、移動後の対象検出領域周辺に操作入力の操作内容を通知するGUI画像を配置することはゲーム画像の視認性を低減することにもなり得るため、操作内容を通知するGUI画像は、予め定められた対象検出領域周辺に重畳されるようにすればよい。このように、操作内容を通知するGUI画像の表示位置は固定であるため、画面の視認性が確保され、ユーザの操作性を向上させることができる。またGUI画像の表示位置が固定であっても対応するタッチ入力の対象検出領域は運指に応じて移動し、検出を可能ならしめるものであるため、ユーザの操作性は同様に向上させることができる。   For the operation input related to the touch input determined as described above, by performing the output screen generation process in the same manner as in the first embodiment, the user operability can be improved in consideration of the response to the operation input. . In this case, disposing the GUI image for notifying the operation content of the operation input around the target detection area after the movement can also reduce the visibility of the game image. Therefore, the GUI image for notifying the operation content is: What is necessary is just to make it superimpose on the periphery of a predetermined object detection area | region. Thus, since the display position of the GUI image for notifying the operation content is fixed, the visibility of the screen is ensured and the operability for the user can be improved. Further, even if the display position of the GUI image is fixed, the corresponding touch input target detection area moves according to fingering and enables detection, so that the operability for the user can be similarly improved. it can.

また、本実施形態では予め定められた対象検出領域の中心位置を基準として、タッチ入力によりいずれの操作入力がなされたか否かを判断するものとして説明するが、本発明の実施はこれに限られるものではない。例えば、図9Aのように出力画面左下に予め定められた対象検出領域が配置される場合、アナログスティック操作入力に係る左あるいは下方向の入力を行うためには、対象検出領域が移動している場合、ユーザはタッチ入力を行っている位置を大幅に変更するような運指を行わなければならない可能性がある。この場合、クライアント装置200の持ち替えを行う必要がある等ユーザにとって煩雑な操作を強いることになり得るため、例えば連続するサンプリング時点間でタッチ入力の検出位置の左方向あるいは下方向への移動成分が大きい場合には、制御部201は移動後の対象検出領域の中心を基準に操作入力の判断を行うように制御してもよい。   Further, in the present embodiment, the description will be made on the basis of the center position of a predetermined target detection region as a reference, and it is described as determining which operation input has been made by touch input. However, the present invention is not limited to this. It is not a thing. For example, when a predetermined target detection area is arranged at the lower left of the output screen as shown in FIG. 9A, the target detection area is moved in order to perform a left or downward input related to an analog stick operation input. In some cases, the user may have to perform a fingering that significantly changes the position where touch input is performed. In this case, since the user may be forced to carry out complicated operations such as having to change the client device 200, for example, the movement component of the touch input detection position in the leftward or downward direction between successive sampling points is generated. If it is larger, the control unit 201 may perform control so that the operation input is determined based on the center of the target detection area after movement.

[変形例1]
上述した実施形態2では、対象検出領域をタッチ入力がなされている位置に応じて移動させる例について説明したが、本発明の実施はこれに限られず、例えばタッチ入力がなされている位置に応じて、タッチ入力が継続してなされているものである場合は該位置を含むように、対象検出領域の大きさを一時的に拡張するものであってもよい。
[Modification 1]
In the second embodiment described above, the example in which the target detection area is moved according to the position where the touch input is made has been described. However, the embodiment of the present invention is not limited to this, for example, according to the position where the touch input is made. When the touch input is made continuously, the size of the target detection area may be temporarily expanded so as to include the position.

[変形例2]
上述した実施形態2では、簡単のため操作入力インタフェースに係り設定される検出領域が対象検出領域のみであるものとして説明したが、本発明の実施はこれに限られるものではない。複数種別の操作入力インタフェースに係るGUI画像が出力画面上に配置される場合、通常その各々について検出領域が重複しないように設定される。
[Modification 2]
In the second embodiment described above, for the sake of simplicity, the detection area set for the operation input interface is described as being only the target detection area. However, the embodiment of the present invention is not limited to this. When GUI images related to a plurality of types of operation input interfaces are arranged on the output screen, the detection areas are usually set so as not to overlap each other.

しかしながら実施形態2では、検出されたタッチ入力が、以前になされた対象検出領域内へのタッチ入力が継続していることによる入力であると判断された場合は、対象検出領域外に検出位置があったとしても対象検出領域を移動させて入力判断を行うものとした。このように対象検出領域を移動させる場合、移動後の対象検出領域が他の種別の操作入力インタフェースに係るGUI画像の検出領域と重複する可能性がある。即ち、対象検出領域の移動後に一度タッチ入力が中断され、再びタッチ入力がなされた場合に、2つの検出領域のいずれに対するタッチ入力であるかが判断不能となる可能性がある。   However, in the second embodiment, when it is determined that the detected touch input is an input due to the continued touch input into the target detection area, the detection position is outside the target detection area. Even if there is, the input detection is performed by moving the target detection area. When the target detection area is moved in this way, the target detection area after movement may overlap with the detection area of the GUI image related to another type of operation input interface. That is, when the touch input is interrupted once after the movement of the target detection area and the touch input is performed again, it may be impossible to determine which of the two detection areas is the touch input.

この場合、制御部201は例えば、検出されたタッチ入力が継続してなされている時間が所定の閾値時間を超えるか否かに応じてユーザがいずれの検出領域に係る操作入力を所望しているかを判別するようにしてもよい。即ち、タッチ入力が継続してなされている時間が閾値時間を超えない場合は、ユーザが所定の操作入力インタフェースに係るGUI画像を単に1回タッチする操作を所望しているものと考えられるため、制御部201は該タッチ入力を対象検出領域ではない検出領域、つまり他の種別の操作入力に係るタッチ入力であるものとして判断すればよい。またタッチ入力が継続してなされている時間が閾値時間を超える場合は、継続させていたタッチ入力がユーザの意図に反して中断され、再びユーザが継続させていた操作入力を所望しているものと考えられるため、制御部201は該タッチ入力を対象検出領域に対するタッチ入力であるものとして判断すればよい。   In this case, for example, the control unit 201 determines which operation area the user desires to operate according to whether or not the time during which the detected touch input is continuously performed exceeds a predetermined threshold time. You may make it discriminate | determine. That is, when the time that the touch input is continuously performed does not exceed the threshold time, it is considered that the user desires an operation of simply touching the GUI image related to the predetermined operation input interface once. The control unit 201 may determine that the touch input is a detection area that is not a target detection area, that is, a touch input related to another type of operation input. In addition, when the time for which touch input is continued exceeds the threshold time, the touch input that has been continued is interrupted against the user's intention, and the operation input that the user has continued is desired again Therefore, the control unit 201 may determine that the touch input is a touch input for the target detection area.

[変形例3]
上述した実施形態2では、タッチ入力検出インタフェースが設けられた表示装置を有する電子機器では、出力画像において操作入力インタフェースに係るGUI画像がゲーム画像に重畳された場合に、ゲーム画面の視認性が低下し、操作性を低減し得る。
[Modification 3]
In the second embodiment described above, in an electronic apparatus having a display device provided with a touch input detection interface, the visibility of the game screen is reduced when the GUI image related to the operation input interface is superimposed on the game image in the output image. In addition, operability can be reduced.

一方で、ゲームプレイ時間や所望の行動をとるために適切なタッチ入力を行っている等、ユーザがタッチ入力検出インタフェースを使用した操作入力を習熟したと判断した場合には、操作入力インタフェースに係るGUI画像を面積の小さな簡易表示に切り替える、あるいは透過度を増大させる等、制御部201はゲーム画面の視認性を向上させるためにGUI画像の表示態様を異ならせるよう、描画部204を制御してもよい。あるいは、頻繁に操作入力の誤入力と思われる操作を行っており、操作入力を習熟していないと判断した場合には、ゲーム画面ではなく特定の操作入力インタフェースのGUI画像の視認性が向上するように、制御部201は描画部204を制御してもよい。   On the other hand, if it is determined that the user has mastered the operation input using the touch input detection interface, such as performing appropriate touch input to take game play time or a desired action, the operation input interface The control unit 201 controls the drawing unit 204 to change the display mode of the GUI image in order to improve the visibility of the game screen, such as switching the GUI image to a simple display with a small area or increasing the transparency. Also good. Alternatively, when an operation that seems to be an erroneous input of the operation input is frequently performed and it is determined that the operation input is not familiar, the visibility of the GUI image of the specific operation input interface is improved instead of the game screen. As described above, the control unit 201 may control the drawing unit 204.

[変形例4]
変形例3では、ユーザの操作入力に係る習熟度に応じてGUI画像の表示態様を変更するものとして説明したが、本発明の実施はこれに限られるものではない。
[Modification 4]
In modification 3, although it demonstrated as what changes the display mode of a GUI image according to the skill level which concerns on a user's operation input, implementation of this invention is not limited to this.

例えば、ゲームコンテンツについて設けられている操作入力には、重要度や使用頻度が予め定められており、特定のシーンにおいては出力画面に表示している必要性が少ないGUI画像も存在し得、このようなGUI画像は単に視認性を低減させるだけの存在との印象をユーザに与える可能性がある。また、例えば配置されるGUI画像の面積が大きいほどゲーム画面の視認性を低減させうる。   For example, the operation input provided for the game content has a predetermined importance and frequency of use, and there may be a GUI image that is less necessary to be displayed on the output screen in a specific scene. Such a GUI image may give the user an impression that it simply reduces visibility. For example, the visibility of the game screen can be reduced as the area of the arranged GUI image is larger.

従って、制御部201はさらに、GUI画像に対応する操作内容について予め定められた重要度、操作内容のタッチ入力の使用頻度、及び操作内容のタッチ入力の検出領域を示す画像の大きさの少なくともいずれかに応じて、変形例2と同様にGUI画像の表示態様を変化させるよう描画部204を制御してもよい。また、これらの変更はコンテンツ内で設定されるモードやユーザ設定等により段階的に変更可能なように構成されてもよい。   Accordingly, the control unit 201 further includes at least one of a predetermined importance level for the operation content corresponding to the GUI image, a use frequency of the touch input for the operation content, and an image size indicating the detection area for the touch input for the operation content. Accordingly, the drawing unit 204 may be controlled to change the display mode of the GUI image as in the second modification. Further, these changes may be configured so that they can be changed in stages according to the mode set in the content, user settings, and the like.

[その他の実施形態]
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。また本発明に係る情報処理装置は、1以上のコンピュータを該情報処理装置として機能させるプログラムによっても実現可能である。該プログラムは、コンピュータが読み取り可能な記録媒体に記録されることにより、あるいは電気通信回線を通じて、提供/配布することができる。従って、本発明の範囲を公にするために、以下の請求項を添付する。
[Other Embodiments]
The present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the spirit and scope of the present invention. The information processing apparatus according to the present invention can also be realized by a program that causes one or more computers to function as the information processing apparatus. The program can be provided / distributed by being recorded on a computer-readable recording medium or through a telecommunication line. Therefore, in order to make the scope of the present invention public, the following claims are attached.

本願は、2014年9月10日提出の日本国特許出願特願2014−184621を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。   This application claims priority based on Japanese Patent Application No. 2014-184621 filed on Sep. 10, 2014, the entire contents of which are incorporated herein by reference.

Claims (23)

なされた操作入力に対応する操作内容を通知する通知手段を有するコンピュータに、
なされた操作入力を示す情報を取得する処理と、
前記取得された情報により示される操作入力に対応する操作内容を、所定の時間遅らせて前記通知手段に通知させる処理と、
を実行させるプログラム。
A computer having notification means for notifying the operation content corresponding to the operation input made;
Processing to obtain information indicating the operation input made;
Processing for notifying the notification means of the operation content corresponding to the operation input indicated by the acquired information with a predetermined time delay;
A program that executes
前記通知させる処理は、前記取得された情報により示される操作入力に対応する処理結果が前記所定の時間の経過後に反映されることを前記通知手段にさらに通知させる請求項1に記載のプログラム。   The program according to claim 1, wherein the notifying process further notifies the notifying unit that a processing result corresponding to an operation input indicated by the acquired information is reflected after the predetermined time has elapsed. 前記通知させる処理は、前記取得された情報により示される操作入力に対応する処理結果が反映されるまで、該操作入力に対応する操作内容の通知態様を順次異ならせながら前記通知手段に通知させる請求項1または2に記載のプログラム。   The notifying process is configured to notify the notifying unit while sequentially changing a notification mode of an operation content corresponding to the operation input until a processing result corresponding to the operation input indicated by the acquired information is reflected. Item 3. The program according to item 1 or 2. 前記通知させる処理は、第1の時点においてなされた操作入力に対応する操作内容と、前記第1の時点より後の第2の時点においてなされた操作入力に対応する操作内容とを、前記通知手段に通知させる請求項1乃至3のいずれか1項に記載のプログラム。   The notification means includes the notification content of an operation content corresponding to an operation input made at a first time point and an operation content corresponding to an operation input made at a second time point after the first time point. The program according to any one of claims 1 to 3, wherein the program is notified. 前記第2の時点においてなされた操作入力は、現在の判断時点においてなされている操作入力を含む請求項4に記載のプログラム。   The program according to claim 4, wherein the operation input made at the second time point includes an operation input made at the current determination time point. 前記第1の時点においてなされた操作入力は、前記所定の時間前になされた操作入力を含む請求項4または5に記載のプログラム。   6. The program according to claim 4, wherein the operation input made at the first time point includes an operation input made before the predetermined time. 前記第1の時点においてなされた操作入力は、対応する処理結果が現在の判断時点において反映された操作入力を含む請求項4乃至6のいずれか1項に記載のプログラム。   The program according to any one of claims 4 to 6, wherein the operation input made at the first time includes an operation input in which a corresponding processing result is reflected at a current determination time. 前記通知手段による通知は、なされた操作入力に対応する操作内容を表示装置の表示領域中にオブジェクトを表示させることにより行われ、
前記通知させる処理は、前記所定の時間の間になされた操作入力に対応する前記表示領域中の位置に前記オブジェクトが表示されるように前記通知手段に通知させる請求項1乃至7のいずれか1項に記載のプログラム。
The notification by the notification means is performed by displaying an operation content corresponding to the operation input made in the display area of the display device,
8. The notification unit according to claim 1, wherein the notifying process notifies the notifying unit so that the object is displayed at a position in the display area corresponding to an operation input performed during the predetermined time. The program described in the section.
前記所定の時間は、前記取得された情報により示される操作入力に対応する処理結果が反映されるまでに要する時間である請求項1乃至8のいずれか1項に記載のプログラム。   The program according to any one of claims 1 to 8, wherein the predetermined time is a time required until a processing result corresponding to an operation input indicated by the acquired information is reflected. 前記コンピュータは、接続された表示装置の表示領域中になされたタッチ入力を検出する検出手段をさらに有し、
前記取得する処理は、
所定の検出領域内になされたタッチ入力を示す情報を取得し、
前記検出手段により継続していると判断されるタッチ入力がなされている間に、該タッチ入力に対応する位置が前記所定の検出領域外に移動する場合に、該移動前になされていたタッチ入力がなされているものと判断して、前記タッチ入力を示す情報を取得する請求項1乃至9のいずれか1項に記載のプログラム。
The computer further includes detection means for detecting a touch input made in a display area of a connected display device,
The process to obtain is
Obtain information indicating the touch input made within a given detection area,
While the touch input that is determined to be continued by the detection means is being made, when the position corresponding to the touch input moves out of the predetermined detection area, the touch input that was made before the movement is performed The program according to any one of claims 1 to 9, wherein information indicating the touch input is acquired by determining that the operation is performed.
タッチ入力に対応する位置が前記所定の検出領域外に移動する場合に、前記所定の検出領域を該タッチ入力に対応する位置に応じて変更する処理を、前記コンピュータにさらに実行させる請求項10に記載のプログラム。   The computer according to claim 10, further causing the computer to execute a process of changing the predetermined detection area according to a position corresponding to the touch input when a position corresponding to the touch input moves outside the predetermined detection area. The program described. 前記所定の検出領域がタッチ入力に対応する位置に応じて変更された後に、前記継続していると判断するタッチ入力が前記検出手段により検出されなくなった場合に、位置を変更した前記所定の検出領域を変更前の位置に戻す処理を、前記コンピュータにさらに実行させる請求項11に記載のプログラム。   After the predetermined detection area is changed according to the position corresponding to the touch input, when the touch input that is determined to be continued is no longer detected by the detection means, the predetermined detection whose position has been changed The program according to claim 11, further causing the computer to execute a process of returning the area to the position before the change. 前記所定の検出領域を変更前の位置に戻す処理は、該変更前の位置まで前記所定の検出領域の位置を順次変更することを含む請求項12に記載のプログラム。   The program according to claim 12, wherein the process of returning the predetermined detection area to the position before the change includes sequentially changing the position of the predetermined detection area to the position before the change. 前記取得する処理は、前記所定の検出領域をタッチ入力に対応する位置に応じて変更した後に、前記継続していると判断するタッチ入力が前記検出手段により検出されなくなり、該位置を変更した前記所定の検出領域へのタッチ入力が前記検出手段によりさらに検出された場合に、前記継続していると判断するタッチ入力と同一の種別のタッチ入力がなされているものと判断して、前記タッチ入力を示す情報を取得する請求項11乃至13のいずれか1項に記載のプログラム。   In the acquisition process, after the predetermined detection area is changed according to the position corresponding to the touch input, the touch input that is determined to be continued is not detected by the detection means, and the position is changed. When the touch input to a predetermined detection area is further detected by the detection means, it is determined that the touch input of the same type as the touch input determined to be continued is made, and the touch input The program according to any one of claims 11 to 13, which acquires information indicating 前記取得する処理は、位置を変更した前記所定の検出領域へのタッチ入力が前記検出手段によりさらに検出された際に、該タッチ入力に対応する位置に別の操作内容のタッチ入力に係る検出領域が割り当てられている場合に、該タッチ入力の種別に応じて取得するタッチ入力を示す情報を異ならせる請求項14に記載のプログラム。   The acquisition process includes: a detection area related to a touch input of another operation content at a position corresponding to the touch input when a touch input to the predetermined detection area whose position has been changed is further detected by the detection unit; The program according to claim 14, wherein information indicating a touch input acquired according to a type of the touch input is made different. 前記取得する処理は、位置を変更した前記所定の検出領域へのタッチ入力が前記検出手段によりさらに検出された際に、該タッチ入力に対応する位置に別の操作内容のタッチ入力に係る検出領域が割り当てられている場合に、該タッチ入力が継続していると判断される時間の長さに応じて取得するタッチ入力を示す情報を異ならせる請求項14または15に記載のプログラム。   The acquisition process includes: a detection area related to a touch input of another operation content at a position corresponding to the touch input when a touch input to the predetermined detection area whose position has been changed is further detected by the detection unit; 16. The program according to claim 14, wherein information indicating the touch input to be acquired is made different according to a length of time when it is determined that the touch input is continued. 前記通知させる処理は、
前記表示装置の前記所定の検出領域内に、該検出領域に対応するタッチ入力がなされていることを示す画像を表示させ、
前記所定の検出領域がタッチ入力に対応する位置に応じて変更される場合に、該変更前の位置に、該タッチ入力がなされていることを示す画像を表示させる請求項11乃至16のいずれか1項に記載のプログラム。
The notification process is as follows:
Displaying an image indicating that a touch input corresponding to the detection area is made in the predetermined detection area of the display device;
17. When the predetermined detection area is changed according to a position corresponding to a touch input, an image indicating that the touch input is made is displayed at a position before the change. The program according to item 1.
前記プログラムは、
タッチ入力に係るユーザの習熟度を判定する処理と、
前記表示装置の表示領域中に、対象となる操作内容のタッチ入力の検出領域を示す画像あるいは該操作内容のタッチ入力がなされていることを示す画像を表示させる処理と、
を前記コンピュータにさらに実行させ、
前記表示させる処理は、前記判定する処理においてユーザの習熟度が所定の基準を満たした操作内容については、該操作内容のタッチ入力の検出領域を示す画像あるいは該操作内容のタッチ入力がなされていることを示す画像の表示態様を変更させる請求項10乃至17のいずれか1項に記載のプログラム。
The program is
A process of determining a user's proficiency level related to touch input;
A process of displaying an image indicating a touch input detection area of the target operation content or an image indicating that the touch input of the operation content is made in the display area of the display device;
Further executing on the computer,
In the processing to be displayed, for the operation content whose user proficiency satisfies a predetermined standard in the determination processing, an image indicating a touch input detection area of the operation content or touch input of the operation content is performed. The program of any one of Claims 10 thru | or 17 which changes the display mode of the image which shows this.
前記プログラムは、前記表示装置の表示領域中に、対象となる操作内容のタッチ入力の検出領域を示す画像を表示させる処理を前記コンピュータにさらに実行させ、
前記表示させる処理は、操作内容について予め定められた重要度、操作内容のタッチ入力の使用頻度、及び操作内容のタッチ入力の検出領域を示す画像の大きさの少なくともいずれかに応じて、該操作内容のタッチ入力の検出領域を示す画像の表示態様を変更させる請求項10乃至18のいずれか1項に記載のプログラム。
The program further causes the computer to execute a process of displaying an image indicating a touch input detection area of a target operation content in a display area of the display device,
The display process is performed according to at least one of a predetermined importance level for the operation content, a use frequency of the touch input for the operation content, and a size of an image indicating a detection area of the touch input for the operation content. The program according to any one of claims 10 to 18, wherein a display mode of an image indicating a detection area of touch input of content is changed.
前記画像の透過度変更は、経過時間または所定の操作入力がなされた回数に応じて上昇あるいは低下するよう制御される請求項18または19に記載のプログラム。   The program according to claim 18 or 19, wherein the image transparency change is controlled to increase or decrease according to an elapsed time or the number of times a predetermined operation input is made. 請求項1乃至20のいずれか1項に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to any one of claims 1 to 20 is recorded. なされた操作入力を示す情報を取得する取得手段と、
なされた操作入力に対応する操作内容を通知する通知手段と、を有する情報処理装置であって、
前記通知手段は、前記取得手段により取得された情報により示される操作入力に対応する操作内容を、所定の時間遅らせて通知する情報処理装置。
Obtaining means for obtaining information indicating the operation input made;
An information processing apparatus having notification means for notifying the operation content corresponding to the operation input made,
The information processing apparatus that notifies the operation content corresponding to the operation input indicated by the information acquired by the acquisition unit with a predetermined time delay.
なされた操作入力を示す情報を取得し、
なされた操作入力に対応する操作内容を通知する通知方法であって、
取得された情報により示される操作入力に対応する操作内容を、所定の時間遅らせて通知する通知方法。
Obtain information indicating the operation input made,
A notification method for notifying the operation content corresponding to the operation input made,
A notification method for notifying the operation content corresponding to the operation input indicated by the acquired information with a predetermined time delay.
JP2016547338A 2014-09-10 2015-08-21 Program, recording medium, information processing device and notification method Active JP6630277B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014184621 2014-09-10
JP2014184621 2014-09-10
PCT/JP2015/073602 WO2016039122A1 (en) 2014-09-10 2015-08-21 Program, recording medium, information-processing device, and notification method

Publications (2)

Publication Number Publication Date
JPWO2016039122A1 true JPWO2016039122A1 (en) 2017-06-22
JP6630277B2 JP6630277B2 (en) 2020-01-15

Family

ID=55458878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016547338A Active JP6630277B2 (en) 2014-09-10 2015-08-21 Program, recording medium, information processing device and notification method

Country Status (2)

Country Link
JP (1) JP6630277B2 (en)
WO (1) WO2016039122A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6255526B1 (en) * 2017-06-14 2017-12-27 株式会社 ディー・エヌ・エー Information processing apparatus, game program, and information processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4624531B2 (en) * 2000-09-18 2011-02-02 株式会社バンダイナムコゲームス GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4047874B2 (en) * 2005-06-28 2008-02-13 株式会社コナミデジタルエンタテインメント GAME SYSTEM, ITS CONTROL METHOD, GAME DEVICE, AND PROGRAM
JP5066055B2 (en) * 2008-10-28 2012-11-07 富士フイルム株式会社 Image display device, image display method, and program

Also Published As

Publication number Publication date
WO2016039122A1 (en) 2016-03-17
JP6630277B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
JP6628443B2 (en) Information processing method, terminal, and computer storage medium
CN110115837B (en) Signal generation method, display method, device, equipment and medium in game
JP2019072478A (en) Information processing method and device, storage medium, and electronic apparatus
JP2019072482A (en) Information processing method and device, storage medium, and electronic apparatus
CN111760272B (en) Game information display method and device, computer storage medium and electronic equipment
CN108815843B (en) Control method and device of virtual rocker
KR20140062679A (en) Method of providing game replay, game replay server performing the same and storage media storing the same
JP5845547B1 (en) Program, game system, electronic device, server, and game control method for improving user input operability
WO2016039122A1 (en) Program, recording medium, information-processing device, and notification method
WO2024007675A1 (en) Virtual object switching method and apparatus, storage medium, and electronic apparatus
JP6311048B1 (en) Program, control method, and information processing apparatus
CN107783748B (en) Method for synchronous playing of multiple virtual reality devices and virtual reality device
CN116351060A (en) Game control method, game control device, electronic terminal and computer readable storage medium
JP6924564B2 (en) Game program
KR101944454B1 (en) Information processing program and information processing method
JP6023037B2 (en) Video game processing program, video game processing system, and video game processing apparatus
JP6553228B2 (en) Program, control method, and information processing apparatus
JP5938131B1 (en) Program, game system, electronic device, server, and game control method for improving user input operability
JP6410429B2 (en) Video game processing program and video game processing system
JP6955423B2 (en) Programs, game processing methods, information processing devices and game systems
JP6926152B2 (en) Programs, information processing devices and control methods
JP6577481B2 (en) Program, conversion device, conversion method, server, recording medium, and control method
CN110401868B (en) Material display method and device
JP7135176B2 (en) Game program, information processing device and control method
JP2017056213A (en) Video game processing program and video game processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191206

R150 Certificate of patent or registration of utility model

Ref document number: 6630277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250