JP2017176764A - Game program, method, and information processor including touch screen - Google Patents

Game program, method, and information processor including touch screen Download PDF

Info

Publication number
JP2017176764A
JP2017176764A JP2016073379A JP2016073379A JP2017176764A JP 2017176764 A JP2017176764 A JP 2017176764A JP 2016073379 A JP2016073379 A JP 2016073379A JP 2016073379 A JP2016073379 A JP 2016073379A JP 2017176764 A JP2017176764 A JP 2017176764A
Authority
JP
Japan
Prior art keywords
game
character
touch screen
game character
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016073379A
Other languages
Japanese (ja)
Other versions
JP6002344B1 (en
Inventor
大祐 阿部
Daisuke Abe
大祐 阿部
岡田 厚志
Atsushi Okada
厚志 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016073379A priority Critical patent/JP6002344B1/en
Application granted granted Critical
Publication of JP6002344B1 publication Critical patent/JP6002344B1/en
Priority to PCT/JP2017/010258 priority patent/WO2017169748A1/en
Publication of JP2017176764A publication Critical patent/JP2017176764A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball

Abstract

PROBLEM TO BE SOLVED: To further enhance interest in a game for displaying a screen corresponding to layout of a virtual camera within a virtual space in an information processor including a touch screen.SOLUTION: When a game program is executed by an information processor, the game program allows the information processor to determine camera work of a virtual camera so as to dispose an own character 134 around this side of a touch screen 130 when receiving input operation for allowing a game character to perform serve control as first operation. When receiving tap operation for allowing the own character 134 to perform first operation from a user, the information processor moves the virtual camera such that the own character 134 performs first operation and room is made for a fixed area 139. The own character 134 is moved based on inputted drag operation to achieve a rally of an object 138 to be hit with a target side character 136.SELECTED DRAWING: Figure 5

Description

本発明は、タッチ操作による入力操作を受け付けてゲームを進行させるゲームプログラムの技術に関し、特に、仮想空間内の仮想カメラの配置に応じた画面をディスプレイに表示することでゲームを進行させる技術に関する。   The present invention relates to a technique of a game program that accepts an input operation by a touch operation and advances a game, and particularly relates to a technique that advances a game by displaying a screen according to the arrangement of virtual cameras in a virtual space on a display.

仮想空間内にゲームキャラクタを表示させてゲームを進行させるゲームプログラムが、様々な事業者によって提供されている。例えば、テニス、卓球、ホッケー、サッカーなどのスポーツを題材としたスポーツゲームが提供されている。   Various business operators provide game programs that display game characters in a virtual space and advance the game. For example, sports games related to sports such as tennis, table tennis, hockey, and soccer are provided.

これらゲームでは、例えば、仮想空間内にゲームキャラクタおよび対戦相手となるキャラクタを配置させ、仮想空間内に仮想カメラを配置して、仮想カメラの撮影範囲の画像をディスプレイに表示することでゲームを進行させる。ユーザは、例えば、仮想空間内のゲームキャラクタを操作して、ゲームキャラクタを移動させつつ、対戦相手となるキャラクタとの間で、ボールなどの対象物を打球させる等の操作を行うことでゲームを進行させることができる。   In these games, for example, a game character and an opponent character are arranged in the virtual space, a virtual camera is arranged in the virtual space, and an image of the shooting range of the virtual camera is displayed on the display. Let For example, the user operates the game character in the virtual space, moves the game character, and performs an operation such as hitting an object such as a ball with the opponent character. Can be advanced.

特許文献1には、携帯型のゲーム装置において、ユーザが操作するゲーム装置の操作姿勢を考慮してゲーム処理を変更する技術が記載されている。特許文献1には、具体的には、ユーザが操作するゲーム装置の姿勢データをセンサが取得して、操作姿勢に応じて、仮想カメラの配置を決定するための視点モードを切り替えることが記載されている。例えば、特許文献1には、仮想カメラの配置を決定するための視点モードとして、俯瞰視点モードとユーザ視点モードとがあることが記載されている。特許文献1によると、視点モードとして、テニスゲームにおいて、テニスコートオブジェクト全体を俯瞰して見ることができる位置に仮想カメラを配置する俯瞰視点モードと、プレイヤオブジェクトの後方に仮想カメラを配置するユーザ視点モードとを、ゲーム装置の姿勢に応じて切り替えることが記載されている。   Japanese Patent Application Laid-Open No. 2004-151561 describes a technique for changing game processing in a portable game device in consideration of the operation posture of the game device operated by the user. Specifically, Patent Literature 1 describes that a sensor acquires attitude data of a game device operated by a user, and switches a viewpoint mode for determining the placement of a virtual camera according to the operation attitude. ing. For example, Patent Literature 1 describes that there are an overhead viewpoint mode and a user viewpoint mode as viewpoint modes for determining the arrangement of virtual cameras. According to Patent Literature 1, as a viewpoint mode, in a tennis game, a bird's-eye viewpoint mode in which a virtual camera is arranged at a position where the entire tennis court object can be seen from above, and a user viewpoint in which a virtual camera is arranged behind the player object. It is described that the mode is switched according to the attitude of the game device.

特許文献1の技術は、このような構成を有することにより、ユーザがボタン操作を行うことなく、ゲーム装置の姿勢を変えることで、ユーザの好みの視点モードに容易に設定可能とすることができる。これにより、特許文献1の技術は、視点を切り替えるためのユーザの操作をいっそう容易なものとしている。   The technology of Patent Document 1 has such a configuration, so that the user can easily set the user's favorite viewpoint mode by changing the attitude of the game device without performing a button operation by the user. . Thereby, the technique of patent document 1 makes it easier for the user to switch the viewpoint.

特許文献1には、物理的な十字型のキーによりユーザの入力操作を受け付けるゲーム装置が記載されている。これに対し、近年は、タッチスクリーンを備えた端末(スマートフォン、タブレットその他の端末)が広く普及しており、この端末に対応した多様なゲームプログラムが事業者等によって提供されている。これらタッチスクリーンを備えた端末では、タッチスクリーンに対してユーザがタッチする操作を端末が検出することで、ゲームキャラクタをユーザが仮想空間内で移動させるための入力操作をユーザから受け付ける。   Patent Document 1 describes a game device that accepts a user input operation using a physical cross-shaped key. On the other hand, in recent years, terminals (smartphones, tablets, and other terminals) equipped with a touch screen have become widespread, and various game programs corresponding to these terminals are provided by businesses and the like. In a terminal equipped with these touch screens, the terminal detects an operation in which the user touches the touch screen, and receives an input operation for the user to move the game character in the virtual space from the user.

特開2013−56095号公報JP 2013-56095 A

タッチスクリーンは、ユーザが指などをタッチスクリーンに接近させることによるユーザの入力操作を受け付けるとともに、ゲームの進行に伴う画面表示をする。そのため、ユーザがタッチスクリーンに対しタッチ操作等による入力操作を行っている間、この入力操作によってディスプレイを覆ってしまい、タッチスクリーンを視認可能な領域が、ユーザ自身のタッチ操作によって減少することがある。そのため、タッチスクリーンに表示されるゲームキャラクタの操作を、よりいっそう容易にする技術が必要とされている。   The touch screen accepts a user input operation when the user brings a finger or the like close to the touch screen, and displays a screen as the game progresses. Therefore, while the user is performing an input operation such as a touch operation on the touch screen, the input operation covers the display, and the area where the touch screen can be viewed may be reduced by the user's own touch operation. . Therefore, there is a need for a technique that makes it easier to operate game characters displayed on a touch screen.

本開示は、タッチスクリーンを備えるコンピュータにおいて、仮想空間内の仮想カメラの配置に応じた画面を表示させるゲームプログラムを実行する場合に、ゲームキャラクタを操作するためのユーザの操作をいっそう容易にすることで、ゲームに対する興趣性をいっそう向上させる技術を提供することを目的とする。   The present disclosure further facilitates a user's operation for operating a game character when a game program for displaying a screen corresponding to the arrangement of a virtual camera in a virtual space is executed on a computer having a touch screen. Therefore, an object of the present invention is to provide a technique for further enhancing the interest in games.

本開示に示す一実施形態によれば、タッチ操作による入力操作を受け付けるタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行されるゲームプログラムが提供される。ゲームプログラムは、仮想空間内の仮想カメラの配置に応じた画面をタッチスクリーンに表示させるものである。ゲームプログラムは、プロセッサに、ゲームキャラクタに第1の動作を行わせる場合に、ゲームキャラクタを、タッチスクリーンに表示させるよう仮想カメラを配置するステップと、ゲームキャラクタに第1の動作を行わせる画面表示をし、タッチスクリーンの少なくとも1つの辺から中央部に向かう一定領域を空けてゲームキャラクタを表示させるよう仮想カメラを移動させるステップと、第1の動作に後続する第2の動作をゲームキャラクタに行わせるための入力操作を受け付けて、受け付けた入力操作に応じて、ゲームキャラクタをタッチスクリーンに表示させるよう仮想カメラを移動させるステップと、を実行させる。   According to an embodiment shown in the present disclosure, a game program that is executed on a computer including a touch screen that accepts an input operation by a touch operation, a processor, and a memory is provided. The game program displays a screen corresponding to the placement of the virtual camera in the virtual space on the touch screen. When the game program causes the processor to perform a first action on the game character, a step of arranging a virtual camera so that the game character is displayed on the touch screen, and a screen display that causes the game character to perform the first action And moving the virtual camera so that the game character is displayed in a certain area from at least one side of the touch screen toward the center, and a second action subsequent to the first action is performed on the game character. And a step of moving the virtual camera to display the game character on the touch screen according to the received input operation.

別の実施形態によると、タッチ操作による入力操作を受け付けるタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータが、タッチスクリーンに仮想空間内の仮想カメラの配置に応じた画面を表示させる方法が提供される。方法は、プロセッサが、ゲームキャラクタに第1の動作を行わせる場合に、ゲームキャラクタを、タッチスクリーンに表示させるよう仮想カメラを配置するステップと、ゲームキャラクタに第1の動作を行わせる画面表示をし、タッチスクリーンの少なくとも1つの辺から中央部に向かう一定領域を空けてゲームキャラクタを表示させるよう仮想カメラを移動させるステップと、第1の動作に後続する第2の動作をゲームキャラクタに行わせるための入力操作をタッチスクリーンにより受け付けて、受け付けた入力操作に応じて、ゲームキャラクタをタッチスクリーンに表示させるよう仮想カメラを移動させるステップとを実行することを含む。   According to another embodiment, there is provided a method in which a computer including a touch screen that accepts an input operation by a touch operation, a processor, and a memory displays a screen according to the arrangement of a virtual camera in a virtual space on the touch screen. The In the method, when the processor causes the game character to perform the first action, a step of arranging a virtual camera so that the game character is displayed on the touch screen and a screen display for causing the game character to perform the first action are provided. Then, the game character is caused to move the virtual camera so that the game character is displayed in a certain area from the at least one side of the touch screen toward the center, and the second action following the first action. Receiving an input operation for touching the touch screen and moving the virtual camera to display the game character on the touch screen according to the received input operation.

別の実施形態によると、タッチ操作による入力操作を受け付けるタッチスクリーンを備える情報処理装置が提供される。情報処理装置は、記憶部と、制御部とを備える。記憶部は、ゲームプログラムを記憶するように構成されている。制御部は、情報処理装置の動作を制御するように構成され、ゲームプログラムを実行することにより、仮想空間内の仮想カメラの配置に応じた画面をタッチスクリーンに表示させるように構成されている。制御部は、タッチスクリーンに対する入力操作に基づいて、ゲームキャラクタを移動させる入力操作の操作内容を検出する移動操作検出部と、ゲームキャラクタに第1の動作を行わせる場合に、ゲームキャラクタを、タッチスクリーンに表示させるよう仮想カメラを配置し、ゲームキャラクタに第1の動作を行わせる画面表示をし、タッチスクリーンの少なくとも1つの辺から中央部に向かう一定領域を空けてゲームキャラクタを表示させるよう仮想カメラを移動させ、第1の動作に後続する第2の動作をゲームキャラクタに行わせるための入力操作を受け付けて、受け付けた入力操作に応じて、ゲームキャラクタをタッチスクリーンに表示させるよう仮想カメラを移動させるカメラ配置制御部とを含む。   According to another embodiment, an information processing apparatus including a touch screen that receives an input operation by a touch operation is provided. The information processing apparatus includes a storage unit and a control unit. The storage unit is configured to store a game program. The control unit is configured to control the operation of the information processing apparatus, and is configured to display a screen corresponding to the arrangement of the virtual camera in the virtual space on the touch screen by executing the game program. The control unit touches the game character in the case of causing the game character to perform the first action on the basis of the input operation on the touch screen and detecting the operation content of the input operation for moving the game character. A virtual camera is arranged so as to be displayed on the screen, a screen display is performed to cause the game character to perform the first action, and a virtual character is displayed so as to open a certain area from at least one side of the touch screen toward the center. The virtual camera is moved so as to move the camera, accept an input operation for causing the game character to perform the second action subsequent to the first action, and display the game character on the touch screen in accordance with the accepted input operation. And a camera arrangement control unit to be moved.

一実施形態によると、タッチスクリーンを備えるコンピュータにおいて、タッチスクリーンに表示されるゲームキャラクタの操作を、より一層容易にすることができ、ゲームの興趣性を向上させることができる。   According to one embodiment, in a computer having a touch screen, the operation of the game character displayed on the touch screen can be further facilitated, and the fun of the game can be improved.

実施の形態のゲーム配信システム1の構成を示す図である。It is a figure which shows the structure of the game delivery system 1 of embodiment. 携帯端末10の構成を示すブロック図である。2 is a block diagram showing a configuration of a mobile terminal 10. FIG. サーバ20の機能的な構成を示すブロック図である。3 is a block diagram showing a functional configuration of a server 20. FIG. 移動操作検出部193が、ユーザの入力操作に応じてゲームキャラクタを移動させる方向を検出する処理を示す図である。It is a figure which shows the process in which the movement operation detection part 193 detects the direction which moves a game character according to a user's input operation. ゲームキャラクタに、第1の動作としてサーブ動作を行わせた後、第2の動作として、相手側キャラクタとの間でボールを交互に打ち返すためにゲームキャラクタを移動させるための入力操作を受け付けるゲーム画面の遷移を示す図である。A game screen for accepting an input operation for moving the game character in order to alternately strike back the ball with the opponent character as the second action after the game character performs the serve action as the first action It is a figure which shows no transition. 実施の形態1の制御部190がゲームプログラム151を実行することにより、カメラ配置制御部194により決定されるカメラワークに従って、スポーツゲームの試合を進行させる処理を示すフローチャートである。6 is a flowchart showing a process of advancing a game of a sports game according to camera work determined by a camera arrangement control unit 194 when the control unit 190 of Embodiment 1 executes a game program 151. カメラ配置制御部194がゲームの進行に応じて仮想カメラを平行に移動させる処理を示す図である。It is a figure which shows the process which the camera arrangement | positioning control part 194 moves a virtual camera in parallel according to progress of a game. 実施の形態2のカメラ配置制御部194が、ゲームキャラクタの位置に応じてカメラワークを決定する処理を示す図である。It is a figure which shows the process which the camera arrangement | positioning control part 194 of Embodiment 2 determines a camera work according to the position of a game character. 実施の形態2の制御部190がゲームプログラム151を実行することにより、カメラ配置制御部194により決定されるカメラワークに従って、スポーツゲームの試合を進行させる処理を示すフローチャートである。10 is a flowchart showing a process for advancing a game of a sports game according to camera work determined by a camera arrangement control unit 194 by executing a game program 151 by a control unit 190 according to the second embodiment. 実施の形態3のカメラ配置制御部194が、自キャラクタ134を移動させる方向および自キャラクタ134の打球動作に従って、仮想カメラを配置している処理を示す図である。It is a figure which shows the process which the camera arrangement | positioning control part 194 of Embodiment 3 has arrange | positioned the virtual camera according to the direction to which the own character 134 is moved, and the ball-hitting action of the own character 134. 自キャラクタ134が打球対象オブジェクト138を打球することが可能な範囲の設定を示す図である。It is a figure which shows the setting of the range in which the own character 134 can hit the hitting target object 138. FIG. 実施の形態4の制御部190が、移動操作検出部193の検出結果に基づき、ゲームキャラクタを移動させる方向に応じたオブジェクトをディスプレイ132に表示させる処理を示す図である。FIG. 18 is a diagram illustrating processing in which a control unit 190 according to the fourth embodiment displays an object on the display 132 according to a direction in which a game character is moved based on a detection result of a movement operation detection unit 193.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<技術思想>
実施の形態で説明する技術思想の概要を説明する。スマートフォンなどのタッチスクリーンを備える情報処理装置でゲームプログラムを実行する場合、タッチスクリーンには、ゲームの画面が表示され、その画面上で、ユーザによる入力操作を受け付ける。このように、ユーザがタッチスクリーンを押下する操作、タッチスクリーン上で指をドラッグさせる操作等で、ゲームに登場するキャラクタを操作するゲームにおいては、ユーザがゲームを進行させるにあたり、ユーザの指によってタッチスクリーンの表示内容が覆われることがある。実施の形態では、ゲームの進行に応じて、タッチスクリーンに対してユーザが行う入力操作がいっそう容易になるよう、仮想空間内に配置される仮想カメラのカメラワークを制御する技術を説明する。
<Technology>
An outline of the technical idea described in the embodiment will be described. When a game program is executed by an information processing apparatus including a touch screen such as a smartphone, a game screen is displayed on the touch screen, and an input operation by a user is accepted on the screen. As described above, in a game in which a user operates a character appearing in the game by an operation of pressing the touch screen, an operation of dragging a finger on the touch screen, or the like, the user touches with the user's finger as the game progresses. The display content of the screen may be covered. In the embodiment, a technique for controlling camera work of a virtual camera arranged in a virtual space so that an input operation performed by a user on the touch screen becomes easier as the game progresses will be described.

<実施の形態1>
本実施形態において、ユーザは、例えばスマートフォンなどの、タッチスクリーンを搭載した情報処理装置を操作して、ゲームサーバと、スマートフォンとの間でゲームに関するデータを送受信しながらゲームを進行させる。ゲームは、ユーザが一人でプレイするシングルプレイと、ユーザが他のユーザとともにプレイするマルチプレイとに対応する。
<Embodiment 1>
In the present embodiment, a user operates an information processing apparatus equipped with a touch screen such as a smartphone, for example, and advances the game while transmitting and receiving data related to the game between the game server and the smartphone. The game corresponds to single play where the user plays alone and multi-play where the user plays with other users.

図1は、実施の形態のゲーム配信システム1の構成を示す図である。図1に示すように、ゲーム配信システム1は、ユーザが使用する情報処理装置と、サーバ20とを含み、これらの装置がネットワーク80によって互いに通信可能に接続されている。   FIG. 1 is a diagram illustrating a configuration of a game distribution system 1 according to the embodiment. As shown in FIG. 1, the game distribution system 1 includes an information processing device used by a user and a server 20, and these devices are connected to each other via a network 80 so as to communicate with each other.

図1の例では、ユーザが使用する情報処理装置として、携帯端末10A、携帯端末10Bおよび携帯端末10C(以下、携帯端末10A、10B、10Cなどの携帯端末を総称して「携帯端末10」と記載することもある)など複数の携帯端末を示している。携帯端末10Aと携帯端末10Bとは、無線基地局81と通信することにより、ネットワーク80と接続する。携帯端末10Cは、家屋などの施設に設置される無線ルータ82と通信することにより、ネットワーク80と接続する。携帯端末10は、タッチスクリーンを備える端末であり、例えば、スマートフォン、ファブレット、タブレットなどである。   In the example of FIG. 1, as information processing devices used by a user, portable terminals 10 </ b> A, 10 </ b> B, and 10 </ b> C (hereinafter, portable terminals such as the portable terminals 10 </ b> A, 10 </ b> B, and 10 </ b> C are collectively referred to as “mobile terminal 10”). A plurality of portable terminals are shown. The mobile terminal 10 </ b> A and the mobile terminal 10 </ b> B are connected to the network 80 by communicating with the radio base station 81. The mobile terminal 10C is connected to the network 80 by communicating with a wireless router 82 installed in a facility such as a house. The mobile terminal 10 is a terminal provided with a touch screen, and is, for example, a smartphone, a fablet, a tablet, or the like.

携帯端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。携帯端末10は、例えば、アプリ等を配信するプラットフォームを介してゲームプログラムをインストールする。携帯端末10は、携帯端末10にインストールされたゲームプログラム、または、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。携帯端末10は、ゲームプログラムを読み込んで実行することにより、携帯端末10と、サーバ20とを通信接続して、ゲームの進行に応じてゲームに関連するデータを携帯端末10とサーバ20との間で送受信する。   The mobile terminal 10 provides a user with an environment for playing a game according to the game program by executing the game program. For example, the mobile terminal 10 installs a game program via a platform that distributes applications and the like. The mobile terminal 10 enables a user to play a game by executing a game program installed in the mobile terminal 10 or a game program preinstalled in advance. The mobile terminal 10 reads and executes the game program to establish communication connection between the mobile terminal 10 and the server 20 and transfer data related to the game between the mobile terminal 10 and the server 20 according to the progress of the game. Send and receive with.

サーバ20は、ゲームのプレイに必要なデータを、適宜、携帯端末10へ送信することで、携帯端末10でのゲームのプレイを進行させる。サーバ20は、ゲームをプレイする各ユーザの、ゲームに関連する各種データを管理する。サーバ20は、携帯端末10と通信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータその他のデータを携帯端末10へ送信する。   The server 20 advances the game play on the mobile terminal 10 by appropriately transmitting data necessary for the game play to the mobile terminal 10. The server 20 manages various data related to the game of each user who plays the game. The server 20 communicates with the mobile terminal 10 and transmits images, sounds, text data, and other data to the mobile terminal 10 in accordance with the progress of each user's game.

例えば、サーバ20は、各ユーザがゲームのストーリーを進行させた進行状況、ゲーム内に登場するゲームキャラクタのうち各ユーザが使用可能なゲームキャラクタの情報、ゲームキャラクタの能力を示すパラメータ、ゲームキャラクタが使用する道具の性能を示すパラメータその他の各種データを管理する。また、サーバ20は、ゲームの運営者がユーザに対してキャンペーン、ゲームの進行における不具合の発生、不具合の解消その他のゲームの運営に関連する情報等をユーザに通知する処理を行う。   For example, the server 20 includes a progress status of each user progressing a game story, game character information that can be used by each user among game characters appearing in the game, parameters indicating the game character's ability, It manages parameters and other various data indicating the performance of the tool used. In addition, the server 20 performs a process in which the game operator notifies the user of campaigns, occurrence of problems in the progress of the game, resolution of problems, and other information related to game management.

ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレイする場合(シングルプレイ)と、複数人のユーザが協同してプレイする場合(マルチプレイ)とに対応している。例えば、ゲーム配信システム1において、サーバ20が、マルチプレイに参加するユーザを特定して各ユーザの各携帯端末10と通信すること等により、マルチプレイでゲームをプレイする環境を各ユーザに提供する。   The game program corresponds to a mode in which a user plays a game when a single user plays (single play) and when a plurality of users play in cooperation (multiplay). For example, in the game distribution system 1, the server 20 provides each user with an environment for playing a game in multi-play by specifying users participating in multi-play and communicating with each mobile terminal 10 of each user.

ゲーム配信システム1は、マルチプレイに対応することにより、例えば、テニスゲームであれば、各ユーザでチームを結成してダブルスの試合を行うことを可能とする。また、ゲーム配信システム1は、サッカーゲームであれば、各ユーザが同一のサッカーチームのメンバーとなって試合を行うことを可能とする。また、ゲーム配信システム1は、アクションゲームであれば、各ユーザでチームを結成して、クエストモードなど比較的強力なキャラクタと対戦するゲームモードを複数のユーザがプレイすることを可能とする。   The game distribution system 1 is capable of playing a doubles game by forming a team with each user in the case of a tennis game, for example, by supporting multiplayer. Moreover, if it is a soccer game, the game delivery system 1 will enable each user to become a member of the same soccer team, and to play a game. Moreover, if the game delivery system 1 is an action game, a team will be formed by each user, and a plurality of users will be able to play the game mode which battles comparatively powerful characters, such as quest mode.

<構成>
サーバ20のハードウェアの構成を説明する。サーバ20は、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続する。
<Configuration>
The hardware configuration of the server 20 will be described. The server 20 includes a communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26, and a processor 29, which are connected to each other via a communication bus.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、携帯端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。   The communication IF 22 corresponds to various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from an external communication device such as the mobile terminal 10.

入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含む。   The input / output IF 23 functions as an interface for receiving information input to the server 20 and outputting information to the outside of the server 20. The input / output IF 23 includes an input receiving unit that accepts connection of an information input device such as a mouse and a keyboard, and an output unit that accepts connection of an information output device such as a display for displaying an image or the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。   The memory 25 is a storage device for storing data used for processing. For example, the memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing. The memory 25 includes a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報は、ゲームプログラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されている。   The storage 26 is a storage device for storing various programs and data that the processor 29 reads and executes. The information stored in the storage 26 includes a game program, information related to the game program, information on a user who plays the game program, and other information. The storage 26 includes a storage device such as an HDD (Hard Disk Drive) and a flash memory.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成される。   The processor 29 controls the operation of the server 20 by reading and executing a program or the like stored in the storage 26. The processor 29 includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like.

図2は、携帯端末10の構成を示すブロック図である。図2を参照して、携帯端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190とを含む。   FIG. 2 is a block diagram illustrating a configuration of the mobile terminal 10. With reference to FIG. 2, the mobile terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input / output IF 140, a storage unit 150, a sound processing unit 160, a microphone 170, a speaker 180, And a control unit 190.

アンテナ110は、携帯端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。   The antenna 110 radiates a signal emitted from the mobile terminal 10 to space as a radio wave. Further, the antenna 110 receives radio waves from the space and gives a received signal to the wireless communication IF 120.

無線通信IF120は、携帯端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、携帯端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。   The wireless communication IF 120 performs modulation / demodulation processing for transmitting and receiving signals via the antenna 110 and the like so that the mobile terminal 10 communicates with other communication devices. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, and the like, performs modulation / demodulation and frequency conversion of a wireless signal transmitted / received by the mobile terminal 10, and provides a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるための部材(タッチパネル131)を含む。また、タッチスクリーン130は、メニュー画面や、ゲームの進行を画面に表示するための部材(ディスプレイ132)を含む。タッチパネル131は、例えば静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。   The touch screen 130 receives an input from the user and outputs information to the display 132 to the user. Touch screen 130 includes a member (touch panel 131) for accepting a user's input operation. The touch screen 130 includes a menu screen and a member (display 132) for displaying the progress of the game on the screen. The touch panel 131 detects that the user's finger or the like has approached by using, for example, a capacitive type. The display 132 is realized by a display device such as an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or the like.

入出力IF140は、携帯端末10への情報の入力を受け付けるとともに、携帯端末10の外部へ情報を出力するためのインタフェースとして機能する。   The input / output IF 140 functions as an interface for receiving information input to the mobile terminal 10 and outputting information to the outside of the mobile terminal 10.

記憶部150は、フラッシュメモリ、RAM(Random Access Memory)等により構成され、携帯端末10が使用するプログラム、および、携帯端末10がサーバ20から受信する各種データ等を記憶する。   The storage unit 150 includes a flash memory, a RAM (Random Access Memory), and the like, and stores programs used by the mobile terminal 10 and various data received by the mobile terminal 10 from the server 20.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、携帯端末10の外部へ出力するための音声出力部として機能する。   The audio processing unit 160 performs modulation / demodulation of the audio signal. The audio processing unit 160 modulates the signal given from the microphone 170 and gives the modulated signal to the control unit 190. In addition, the audio processing unit 160 provides an audio signal to the speaker 180. The sound processing unit 160 is realized by, for example, a sound processing processor. The microphone 170 functions as an audio input unit for receiving an input of an audio signal and outputting it to the control unit 190. The speaker 180 functions as an audio output unit for outputting an audio signal to the outside of the mobile terminal 10.

制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、携帯端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。   The control unit 190 controls the operation of the mobile terminal 10 by reading and executing a program stored in the storage unit 150. The control unit 190 is realized by an application processor, for example.

携帯端末10がゲームプログラム151を実行する処理について、より詳細に説明する。ある局面において、記憶部150は、ゲームプログラム151と、ゲーム情報152と、ユーザ情報153とを記憶する。携帯端末10は、例えば、サーバ20からゲームプログラムをダウンロードして記憶部150に記憶させる。また、携帯端末10は、ゲームの進行に伴いサーバ20と通信することで、ゲーム情報152およびユーザ情報153等の各種のデータをサーバ20と送受信する。   A process in which the mobile terminal 10 executes the game program 151 will be described in more detail. In one aspect, the storage unit 150 stores a game program 151, game information 152, and user information 153. For example, the mobile terminal 10 downloads a game program from the server 20 and stores the game program in the storage unit 150. Moreover, the portable terminal 10 transmits / receives various data, such as game information 152 and user information 153, with the server 20 by communicating with the server 20 with progress of a game.

ゲームプログラム151は、携帯端末10においてゲームを進行させるためのプログラムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置するオブジェクトの情報、オブジェクトに対応付けられた効果の情報(ゲームキャラクタに設定されるスキルの情報などを含む)などを含む。ユーザ情報153は、ゲームをプレイするユーザについての情報を含む。ユーザ情報153は、例えば、ゲームをプレイする携帯端末10のユーザを識別する情報、マルチプレイ時に協働してゲームをプレイする他のユーザを識別する情報その他の情報を含む。   The game program 151 is a program for causing the mobile terminal 10 to advance a game. The game information 152 includes various data referred to by the game program 151. The game information 152 includes, for example, information on objects to be arranged in the virtual space in the game, information on effects associated with the objects (including information on skills set for game characters), and the like. The user information 153 includes information about the user who plays the game. The user information 153 includes, for example, information that identifies a user of the mobile terminal 10 that plays a game, information that identifies other users who play a game in cooperation with each other, and other information.

制御部190は、ゲームプログラム151を読み込んで実行することにより、入力操作受付部191と、ゲーム進行処理部192と、移動操作検出部193と、カメラ配置制御部194と、オブジェクト制御部195と、表示制御部196と、の各機能を発揮する。   The control unit 190 reads and executes the game program 151 to thereby execute an input operation receiving unit 191, a game progress processing unit 192, a moving operation detection unit 193, a camera arrangement control unit 194, an object control unit 195, Each function of the display control unit 196 is exhibited.

入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸および縦軸からなる座標系の座標として検出する。   The input operation accepting unit 191 accepts a user input operation based on the output of the touch screen 130. Specifically, the input operation accepting unit 191 detects that a user's finger or the like has approached the touch panel 131 as coordinates in a coordinate system including a horizontal axis and a vertical axis of a surface constituting the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「ダブルタップ操作」、(5)「長押し操作(ロングタッチ操作)」、(6)「ドラッグ操作(スワイプ操作)」、(7)「ムーブ操作」、(8)「フリック操作」、その他のユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザが押下した圧力の大きさを判別する。   The input operation reception unit 191 determines a user operation on the touch screen 130. The input operation accepting unit 191 includes, for example, (1) “approach operation”, (2) “release operation”, (3) “tap operation”, (4) “double tap operation”, (5) “long press operation ( (Long touch operation) ”, (6)“ drag operation (swipe operation) ”, (7)“ move operation ”, (8)“ flick operation ”, and other user operations. The user operation determined by the input operation receiving unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism that can detect the magnitude of the pressure that the user presses against the touch panel 131, the input operation reception unit 191 determines the magnitude of the pressure that the user has pressed.

ここで、(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近させる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検出し、検出したタッチスクリーン130の座標に応じた信号を制御部190へ出力する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。   Here, (1) “approach operation” is an operation in which the user brings a finger or the like closer to the touch screen 130. The touch screen 130 detects that the user's finger or the like has approached (including that the user's finger or the like has touched the touch screen 130) by the touch panel 131, and outputs a signal corresponding to the detected coordinates of the touch screen 130 to the control unit. Output to 190. The control unit 190 determines that the state is the “touch-on state” when the approach is detected from the state in which the approach of the user's finger or the like to the touch screen 130 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン130を接近操作している状態を止める操作である。入力操作受付部191は、例えば、ユーザが指などをタッチスクリーン130に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。   (2) “Release operation” is an operation for stopping the state in which the user is operating the touch screen 130 to approach. For example, when the user performs an operation of releasing his / her finger from a state where the user touches the touch screen 130 with the finger or the like, the input operation receiving unit 191 determines that the user's operation is a “release operation”. The control unit 190 determines that the state is changed from the “touch-on state” to the “touch-off state” when the approach is not detected from the state in which the approach of the user's finger or the like to the touch screen 130 is detected. To do.

(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチパネル131から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)から、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。入力操作受付部191は、初期タッチ位置の座標と、リリース操作をした座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作の座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。   (3) “Tap operation” refers to performing a release operation at a position where the user performs an approach operation after the user performs an approach operation to bring a finger or the like closer to the touch screen 130. The input operation reception unit 191 outputs the touch screen 130 from the state where the approach operation is not detected (the user's finger or the like is away from the touch panel 131 and the touch panel 131 does not detect the approach of the user's finger or the like). Based on this, when it is detected that the user's finger or the like has approached, the detected coordinates are held as the “initial touch position”. When the coordinates of the initial touch position and the coordinates of the release operation are substantially the same (when the coordinates of the release operation are detected in the coordinates within a certain range from the coordinates where the approach operation is detected) ), The user's operation is determined as a “tap operation”.

(4)「ダブルタップ操作」とは、ユーザがタップ操作を一定時間内に2回行う操作である。入力操作受付部191は、例えば、ユーザの操作をタップ操作と判別してから一定時間内に、タップ操作にかかる座標で再びタップ操作を判別した場合に、ユーザの操作を「ダブルタップ操作」と判別する。   (4) The “double tap operation” is an operation in which the user performs the tap operation twice within a predetermined time. For example, the input operation reception unit 191 determines that the user operation is “double tap operation” when the user operation is determined to be the tap operation and the tap operation is determined again with the coordinates related to the tap operation within a certain time after the user operation is determined to be the tap operation. Determine.

(5)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である。タッチスクリーン130は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。   (5) “Long press operation” is an operation in which the user continues to press the touch screen 130. The touch screen 130 detects the user's operation and discriminates the approaching operation. When the time during which the approaching operation continues at the coordinates where the approaching operation is detected exceeds a certain time, the touch screen 130 determines the user's operation as “ “Long press operation” (the “long press operation” may be referred to as “long touch operation”).

(6)「ドラッグ操作」とは、ユーザがタッチスクリーン130に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。   (6) “Drag operation” is an operation of sliding a finger while maintaining an approaching state in which the user brings a finger or the like close to the touch screen 130.

(7)「ムーブ操作」とは、ユーザがタッチスクリーン130において、接近操作を維持しつつ、タッチスクリーン130に指などを接近させている位置を移動させてリリース操作を行う一連の操作をいう。   (7) “Move operation” refers to a series of operations in which the user performs a release operation by moving a position where a finger or the like is approaching the touch screen 130 while maintaining the approach operation on the touch screen 130.

(8)「フリック操作」は、ユーザがムーブ操作を予め定められた時間よりも短い時間で行う操作をいう。フリック操作は、ユーザがタッチスクリーン130で指を弾くような操作である。   (8) “Flick operation” refers to an operation in which a user performs a move operation in a time shorter than a predetermined time. The flick operation is an operation in which the user flips a finger on the touch screen 130.

ゲーム進行処理部192は、ユーザの操作に応じて、各種のプログラムを呼び出す等によりゲームを進行させる処理を行う。例えば、ゲーム進行処理部192は、サーバ20と通信し、ゲームの進行に応じてサーバ20へデータを送信する処理、サーバ20からゲームに関連するデータを受信する処理、ゲームの進行に応じてユーザに報酬を付与する処理、時間の経過を計測する処理その他の処理を行う。   The game progress processing unit 192 performs a process of advancing the game by calling various programs in accordance with a user operation. For example, the game progress processing unit 192 communicates with the server 20 to transmit data to the server 20 according to the progress of the game, to receive data related to the game from the server 20, and to the user according to the progress of the game. A process for giving a reward, a process for measuring the passage of time, and other processes are performed.

移動操作検出部193は、タッチスクリーン130に対するユーザの入力操作に基づいて、ゲームに登場するキャラクタ(以下、「ゲームキャラクタ」と称することもある)を移動させる入力操作の操作内容を検出する。例えば、ゲームプログラム151がスポーツゲームである場合、移動操作検出部193は、ユーザの入力操作に基づいて、ゲームキャラクタを移動させる方向を検出する(移動操作検出部193は、ユーザがゲームキャラクタの移動方向を指定する入力操作を受け付ける)。   The movement operation detection unit 193 detects the operation content of the input operation for moving a character appearing in the game (hereinafter also referred to as “game character”) based on a user input operation on the touch screen 130. For example, when the game program 151 is a sports game, the movement operation detection unit 193 detects the direction in which the game character is moved based on the user's input operation (the movement operation detection unit 193 allows the user to move the game character). Accept input operation to specify direction).

具体的には、移動操作検出部193は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させて、入力操作受付部191がタッチパネル131にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン130の検出結果とに基づいて、ゲームキャラクタの移動方向を検出する。移動操作検出部193の詳細な処理は、後述する。   Specifically, the movement operation detection unit 193 causes the user to move the finger closer to the touch screen 130 from the state in which the user's finger is separated from the touch screen 130, and the input operation reception unit 191 causes the touch panel 131 to move the user's finger. When the user performs a drag operation using the detected coordinates as the initial touch position, the moving direction of the game character is detected based on the initial touch position coordinates and the detection result of the touch screen 130. Detailed processing of the movement operation detection unit 193 will be described later.

カメラ配置制御部194は、仮想空間に配置される各オブジェクトを、どのようにユーザに見せるかを決定する。具体的には、カメラ配置制御部194は、制御部190がゲームプログラム151を読み込んで実行することで生成される仮想空間において、仮想カメラの配置(カメラワーク)を制御する。制御部190は、仮想空間における仮想カメラの撮影画像をディスプレイ132に表示することで、ユーザに対しゲームのプレイ環境を提供する。   The camera placement control unit 194 determines how to show each object placed in the virtual space to the user. Specifically, the camera arrangement control unit 194 controls the arrangement (camera work) of the virtual camera in the virtual space generated when the control unit 190 reads and executes the game program 151. The control unit 190 provides the game play environment to the user by displaying the captured image of the virtual camera in the virtual space on the display 132.

オブジェクト制御部195は、携帯端末10がゲームプログラム151を実行することにより進行されるゲームに登場する各種オブジェクト、および、入力操作受付部191が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面など)の生成、変形、移動などの処理を制御する。オブジェクト制御部195は、例えば、ユーザがゲームキャラクタを移動させるためのタッチスクリーン130に対する入力操作に基づいて、ゲームキャラクタの移動方向を示すオブジェクトを生成し、生成したオブジェクトを変形する。   The object control unit 195 includes various objects that appear in the game that is progressed by the mobile terminal 10 executing the game program 151, and various objects that are generated based on the user operation content received by the input operation receiving unit 191. Processes such as generation, transformation, and movement (for example, a GUI (Graphical User Interface) screen) are controlled. The object control unit 195 generates an object indicating the moving direction of the game character based on, for example, an input operation on the touch screen 130 for moving the game character by the user, and deforms the generated object.

表示制御部196は、仮想カメラのカメラワークに従った画像をディスプレイ132に出力する。表示制御部196は、仮想空間内における仮想カメラの配置に応じて、ディスプレイ132の表示内容を決定し、決定した表示内容に従う画像、テキスト等の各種の情報をディスプレイ132に出力する。   The display control unit 196 outputs an image according to the camera work of the virtual camera to the display 132. The display control unit 196 determines the display content of the display 132 according to the placement of the virtual camera in the virtual space, and outputs various types of information such as images and text according to the determined display content to the display 132.

図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。   FIG. 3 is a block diagram illustrating a functional configuration of the server 20. The detailed configuration of the server 20 will be described with reference to FIG. The server 20 functions as the communication unit 220, the storage unit 250, and the control unit 290 by operating according to the program.

通信部220は、サーバ20が携帯端末10などの外部の通信機器と通信するためのインタフェースとして機能する。   The communication unit 220 functions as an interface for the server 20 to communicate with an external communication device such as the mobile terminal 10.

記憶部250は、携帯端末10においてユーザがゲームを進行させるための各種プログラムおよびデータを記憶する。ある局面において、記憶部250は、ゲームプログラム251と、ゲーム情報252と、ユーザ情報253とを記憶する。   The storage unit 250 stores various programs and data for the user to advance the game in the mobile terminal 10. In one aspect, the storage unit 250 stores a game program 251, game information 252, and user information 253.

ゲームプログラム251は、サーバ20が携帯端末10と通信して、携帯端末10においてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを進行させるための各種データであるゲーム情報252およびユーザ情報253等を参照して、ユーザの入力操作に応じてゲームを進行させる。ゲームプログラム251は、制御部290に実行されることにより、携帯端末10とデータを送受信する処理、携帯端末10のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザの情報を更新する処理その他の処理をサーバ20に行わせる。   The game program 251 is a program for allowing the server 20 to communicate with the mobile terminal 10 and advance the game on the mobile terminal 10. The game program 251 refers to the game information 252 and user information 253 that are various data for proceeding with the game, and causes the game to proceed according to the user's input operation. The game program 251 is executed by the control unit 290, thereby processing to transmit / receive data to / from the mobile terminal 10, processing to advance the game in accordance with the operation content performed by the user of the mobile terminal 10, and user's playing the game The server 20 is caused to perform processing for updating information and other processing.

ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム情報252は、オブジェクト管理テーブル252Aと、パッシブスキル管理テーブル252Bと、アクティブスキル管理テーブル252Cとを含む。   The game information 252 includes various data referred to by the game program 251. The game information 252 includes an object management table 252A, a passive skill management table 252B, and an active skill management table 252C.

オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクトの設定を示す。携帯端末10は、ゲームプログラム151を実行することにより、仮想空間内に配置されるオブジェクトを、仮想空間内に配置される仮想カメラによって撮影した画像をディスプレイ132に表示することでゲームを進行させる。   The object management table 252A shows the setting of objects arranged in the virtual space of the game. By executing the game program 151, the mobile terminal 10 causes the display 132 to display an image obtained by photographing an object placed in the virtual space with a virtual camera placed in the virtual space, thereby causing the game to proceed.

ここで、オブジェクトとしては、例えば、ユーザが操作するゲームキャラクタを示すオブジェクト、ゲームキャラクタが装着する対象物を示すオブジェクトなど様々なものがある。これらオブジェクトは、ユーザがタッチスクリーン130に対して予め定められた入力操作を行うこと、ゲームの進行に伴い一定の条件を満たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理が行われる。   Here, there are various objects such as an object indicating a game character operated by the user and an object indicating an object worn by the game character. These objects are associated with objects when the user performs a predetermined input operation on the touch screen 130, meets certain conditions as the game progresses, and other various events occur. Processing is performed.

例えば、あるオブジェクトに対してユーザがタッチスクリーン130に対して接近操作を行うことで、オブジェクトがユーザに選択された状態となる。また、例えば、ユーザがドラッグ操作を行うことで、ユーザに選択されているオブジェクトがユーザの入力操作に応じて移動する等の処理が行われる。また、例えば、ユーザがオブジェクトに対してタッチ操作をすることで、ユーザに対し、ゲームを有利に進めるための報酬が付与される等の処理が行われる。   For example, when the user performs an approach operation on the touch screen 130 with respect to an object, the object is selected by the user. Further, for example, when the user performs a drag operation, processing such as movement of an object selected by the user according to the user's input operation is performed. In addition, for example, when the user performs a touch operation on the object, a process such as a reward for favoring the game is given to the user.

パッシブスキル管理テーブル252Bは、オブジェクトを識別する情報と、オブジェクトに対応付けられたパッシブスキルの情報とが対応付けられている。ここで、パッシブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動され、ユーザがゲームを有利に進行させることができるものである。例えば、パッシブスキルが発動した場合に、ゲームキャラクタの移動速度が向上する等の、ゲームを有利に進行させられる効果を発揮させる。   In the passive skill management table 252B, information for identifying an object is associated with information on passive skills associated with the object. Here, the passive skill is activated when, for example, a predetermined condition is satisfied in the game, and the user can advantageously advance the game. For example, when the passive skill is activated, the game character can be advantageously advanced, such as the moving speed of the game character is improved.

アクティブスキル管理テーブル252Cは、オブジェクトを識別する情報と、オブジェクトに対応付けられたアクティブスキルの情報とが対応付けられている。ここで、アクティブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動可能な状態となり、ユーザから、スキルを発動させるための入力操作を受け付けることにより、ユーザがゲームを有利に進行させることができるものである。   In the active skill management table 252C, information for identifying an object is associated with information on an active skill associated with the object. Here, the active skill is, for example, in a state where it can be activated when a predetermined condition is satisfied in the game, and by receiving an input operation for activating the skill from the user, the user has an advantage in the game. It can be made to progress.

ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザを識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内で保有するアイテム、ゲームキャラクタ、ゲームキャラクタが使用する装着物等の情報その他の情報を含む。   The user information 253 is information about the user who plays the game. The user information 253 includes a user management table 253A. The user management table 253A includes information for identifying each user, information indicating the degree of progress of the game by the user, items held by the user in the game, game characters, information such as wearing items used by the game character, and the like. Contains information.

制御部290は、記憶部250に記憶されるゲームプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、マッチング部294、計測部295としての機能を発揮する。   The control unit 290 executes functions of the transmission / reception unit 291, the server processing unit 292, the data management unit 293, the matching unit 294, and the measurement unit 295 by executing the game program 251 stored in the storage unit 250.

送受信部291は、ゲームプログラム151を実行する携帯端末10から、各種情報を受信し、携帯端末10に対し、各種情報を送信する。携帯端末10とサーバ20とは、ユーザに関連付けられるオブジェクトを仮想空間に配置する要求、オブジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じて各種パラメータを更新する要求、ゲームを進行させるための画像、音声その他のデータ、サーバ20から携帯端末10へ送信される通知などの情報を送受信する。   The transmission / reception unit 291 receives various types of information from the mobile terminal 10 that executes the game program 151, and transmits various types of information to the mobile terminal 10. The mobile terminal 10 and the server 20 include a request to place an object associated with the user in the virtual space, a request to delete the object, a request to move the object, a request to update various parameters according to a reward acquired by the user, Information such as an image, audio, and other data for advancing, and a notification transmitted from the server 20 to the mobile terminal 10 are transmitted and received.

サーバ処理部292は、サーバ20全体の動作を制御し、各種のプログラムを呼び出す等によりゲームの進行に必要な処理を行う。サーバ処理部292は、例えば、携帯端末10から受信した情報に基づいて、ゲーム情報252、ユーザ情報253、などのデータを更新し、携帯端末10に各種データを送信することでゲームを進行させる。   The server processing unit 292 controls the operation of the entire server 20 and performs processing necessary for the progress of the game by calling various programs. For example, the server processing unit 292 updates data such as the game information 252 and the user information 253 based on information received from the mobile terminal 10, and transmits various data to the mobile terminal 10 to advance the game.

データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理などを行う。   The data management unit 293 performs processing for updating various data stored in the storage unit 250, processing for adding / updating / deleting records to the database, and the like according to the processing result of the server processing unit 292.

マッチング部294は、複数のユーザを関連付けるための一連の処理を行う。マッチング部294は、例えば、ユーザがマルチプレイを行うための入力操作を行った場合に、ゲームを協同してプレイさせるユーザを関連付ける処理などを行う。   The matching unit 294 performs a series of processes for associating a plurality of users. For example, when the user performs an input operation for performing multi-play, the matching unit 294 performs processing for associating a user who plays a game in cooperation.

計測部295は、時間を計測する処理を行う。計測部295は、例えば、仮想空間に配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、ゲームが進行している時間を計測する。サーバ20は、携帯端末10から、携帯端末10においてゲームプログラム151を実行して計測される各種の計測結果の情報を受信し、受信した情報と、計測部295の計測結果とを照合することで、携帯端末10とサーバ20とで、各種の時間に関する情報を同期させる。   The measurement unit 295 performs processing for measuring time. For example, the measurement unit 295 measures the passage of time for each object arranged in the virtual space. Moreover, the measurement part 295 measures the time for which the game is progressing. The server 20 receives information on various measurement results measured by executing the game program 151 on the mobile terminal 10 from the mobile terminal 10, and collates the received information with the measurement results of the measurement unit 295. The information regarding various times is synchronized between the mobile terminal 10 and the server 20.

<実施の形態1の構成のまとめ>
以上のように、実施の形態のゲーム配信システム1の構成を説明してきた。本実施形態において、ゲームプログラム151は、例えばスポーツゲームであり、仮想空間内の仮想カメラの配置に応じた画面をタッチスクリーン130に表示させることでゲームを進行させる。
<Summary of Configuration of Embodiment 1>
As described above, the configuration of the game distribution system 1 according to the embodiment has been described. In the present embodiment, the game program 151 is, for example, a sports game, and the game is advanced by causing the touch screen 130 to display a screen corresponding to the placement of the virtual camera in the virtual space.

例えば、ゲームプログラム151がスポーツゲームである場合、ゲーム進行処理部192は、ユーザの操作に応じてストーリーを進行させ、画像、テキストなどディスプレイ132に表示するデータを決定する処理、スポーツの対戦相手の選択をユーザから受け付ける処理、ユーザの操作に応じてスポーツの試合を進める処理などの基本的な処理を行う。   For example, when the game program 151 is a sports game, the game progress processing unit 192 advances the story in accordance with the user's operation, determines the data to be displayed on the display 132 such as images and text, and the sports opponent's Basic processing such as processing for accepting selection from the user and processing for advancing a sports game in accordance with the user's operation is performed.

例えば、ゲームプログラム151がスポーツゲームである場合、カメラ配置制御部194は、スポーツの試合を行うための仮想空間における仮想カメラの配置個所および撮影軸の方向を、スポーツの試合の進展に応じて、逐次、決定する。カメラ配置制御部194は、仮想カメラのカメラワークを制御する。カメラ配置制御部194の詳細な処理は、後述する。   For example, when the game program 151 is a sports game, the camera placement control unit 194 determines the placement location of the virtual camera and the direction of the shooting axis in the virtual space for playing a sports game according to the progress of the sports game. Decide sequentially. The camera arrangement control unit 194 controls camera work of the virtual camera. Detailed processing of the camera arrangement control unit 194 will be described later.

例えば、表示制御部196は、ゲームキャラクタを一定領域に表示させるよう仮想カメラを配置した状態で、ゲームキャラクタに第1の動作(例えば、サーブ動作)を行わせるための入力操作を受け付けて、受け付けた入力操作に応じてゲームキャラクタに第1の動作を行わせる画面表示をする。   For example, the display control unit 196 receives and accepts an input operation for causing the game character to perform a first action (for example, a serve action) in a state where a virtual camera is arranged to display the game character in a certain area. In response to the input operation, the game character is displayed on the screen.

<動作>
図面を参照して、実施の形態のゲーム配信システム1を構成する各装置の動作を説明する。
<Operation>
With reference to the drawings, the operation of each device constituting the game distribution system 1 of the embodiment will be described.

図4は、移動操作検出部193が、ユーザの入力操作に応じてゲームキャラクタを移動させる方向を検出する処理を示す図である。移動操作検出部193は、ユーザがタッチスクリーン130を押していない状態から、指などをタッチパネル131に接近させてタッチスクリーン130を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部191は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン130がユーザの指などの接近を検出している座標とに基づいて、ゲームキャラクタを移動させる方向を検出する。   FIG. 4 is a diagram illustrating processing in which the movement operation detection unit 193 detects a direction in which the game character is moved in accordance with a user input operation. The movement operation detecting unit 193 sets a position (initial touch position) where the user presses the touch screen 130 by bringing a finger or the like closer to the touch panel 131 from the state where the user is not pressing the touch screen 130 as a starting point. When the input operation reception unit 191 determines that the user's operation is a drag operation, the input operation receiving unit 191 determines the game character based on the coordinates that are the starting point and the coordinates that the touch screen 130 detects the approach of the user's finger or the like. The direction to move is detected.

図4の状態(A)は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させた状態を示す。入力操作受付部191は、ユーザの指がタッチパネル131に接近したことを検出し、検出した座標を初期タッチ位置としてメモリに保持する。   A state (A) in FIG. 4 shows a state in which the user brings his / her finger close to the touch screen 130 from a state in which the user's finger has left the touch screen 130. The input operation reception unit 191 detects that the user's finger has approached the touch panel 131 and stores the detected coordinates in the memory as an initial touch position.

図4の例では、メモリが保持する初期タッチ位置の座標を、初期タッチ位置座標155として示す。入力操作受付部191は、タッチスクリーン130の検出結果(ユーザの指がタッチスクリーン130に接近している座標、および、ユーザの指がタッチスクリーン130に接近していることを検出していないこと(検出結果「null」))を、一定フレーム分、バッファメモリ153に格納する。バッファメモリ153は、タッチスクリーン130における検出結果を、各フレームについて一定フレーム分(図3の例では、メモリ領域fp〔0〕〜メモリ領域fp〔10〕までの11フレーム分)、格納することができる。バッファメモリ153は、例えばリングバッファとして実現することができる。   In the example of FIG. 4, the coordinates of the initial touch position held by the memory are indicated as initial touch position coordinates 155. The input operation reception unit 191 does not detect the detection result of the touch screen 130 (the coordinates at which the user's finger is approaching the touch screen 130 and the proximity of the user's finger to the touch screen 130 ( The detection result “null”)) is stored in the buffer memory 153 for a certain number of frames. The buffer memory 153 can store the detection result on the touch screen 130 for each frame for a certain frame (11 frames from the memory area fp [0] to the memory area fp [10] in the example of FIG. 3). it can. The buffer memory 153 can be realized as a ring buffer, for example.

状態(A)の例では、ユーザがタッチスクリーン130を押した位置を、押下位置30A(タッチスクリーン130の座標(x0,y0))として示す。   In the example of the state (A), the position where the user pressed the touch screen 130 is shown as a pressed position 30A (coordinates (x0, y0) of the touch screen 130).

図4の状態(B)は、ユーザがタッチスクリーン130に対してドラッグ操作を行って、タッチスクリーン130に対する押下位置を、押下位置30Aから押下位置30B(タッチスクリーン130の座標(x9,y9))まで10フレーム(メモリ領域fp〔0〕〜メモリ領域fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部191は、タッチスクリーン130の検出結果をバッファメモリ153に格納し、バッファメモリ153に保持される値を参照して、タッチスクリーン130に対するユーザの操作をドラッグ操作と判別する。   In the state (B) of FIG. 4, the user performs a drag operation on the touch screen 130, and the pressing position on the touch screen 130 is changed from the pressing position 30A to the pressing position 30B (coordinates (x9, y9) of the touch screen 130). This indicates that the frame has been moved by 10 frames (10 frames from the memory area fp [0] to the memory area fp [9]). The input operation reception unit 191 stores the detection result of the touch screen 130 in the buffer memory 153 and refers to the value held in the buffer memory 153 to determine that the user's operation on the touch screen 130 is a drag operation.

図4の状態(C)は、ユーザがタッチスクリーン130を押している位置を、押下位置30Bから押下位置30C(タッチスクリーン130の座標(x14,y14))まで、5フレーム(メモリ領域fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。   In the state (C) of FIG. 4, the position where the user is pressing the touch screen 130 is five frames (memory area fp [10]) from the pressed position 30B to the pressed position 30C (coordinates (x14, y14) of the touch screen 130). , Fp [0], fp [1], fp [2], and fp [3]).

図4の状態(D)は、移動操作検出部193が、状態(B)および状態(C)のそれぞれにおいて、ユーザがゲームキャラクタを移動させる方向を指定する入力操作の検出結果を示す。移動操作検出部193は、バッファメモリ153において、タッチスクリーン130が検出する押下位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリ153の書き込み位置)を管理している。   The state (D) of FIG. 4 shows the detection result of the input operation in which the movement operation detection unit 193 designates the direction in which the user moves the game character in each of the state (B) and the state (C). The movement operation detection unit 193 manages information (writing position of the buffer memory 153) indicating which memory area is a target of writing the coordinates of the pressed position detected by the touch screen 130 in the buffer memory 153. .

状態(B)において、移動操作検出部193は、入力操作受付部191の判別結果に基づいて、初期タッチ位置を示す座標31A(座標(x0,y0))から座標31B(座標(x9,y9))までユーザがドラッグ操作を行ったことを検出する。移動操作検出部193は、初期タッチ位置の座標31Aを起点として、座標31Aと座標31Bとによって規定されるベクトル32B((y9−y0)/(x9−x0))を、ゲームキャラクタを移動させる方向として検出する。   In the state (B), the movement operation detecting unit 193 determines from the coordinate 31A (coordinate (x0, y0)) indicating the initial touch position to the coordinate 31B (coordinate (x9, y9)) based on the determination result of the input operation receiving unit 191. ) Until the user performs a drag operation. The movement operation detection unit 193 moves the game character in a vector 32B ((y9−y0) / (x9−x0)) defined by the coordinates 31A and the coordinates 31B, starting from the coordinates 31A of the initial touch position. Detect as.

状態(C)において、移動操作検出部193は、入力操作受付部191の判別結果に基づいて、座標31B(座標(x9,y9))から座標31C(座標(x14,y14))までユーザがドラッグ操作を行ったことを検出する。移動操作検出部193は、初期タッチ位置の座標31Aを起点として、座標31Aと座標31Cとによって規定されるベクトル31C((y14−y0)/(x14−x0))を、ゲームキャラクタを移動させる方向として検出する。   In the state (C), the movement operation detecting unit 193 is dragged from the coordinate 31B (coordinate (x9, y9)) to the coordinate 31C (coordinate (x14, y14)) based on the determination result of the input operation receiving unit 191. Detects that an operation has been performed. The movement operation detection unit 193 moves the game character in a vector 31C ((y14-y0) / (x14-x0)) defined by the coordinates 31A and the coordinates 31C, starting from the coordinates 31A of the initial touch position. Detect as.

図5および図6を参照して、カメラ配置制御部194が仮想空間における仮想カメラのカメラワークを決定する処理について詳しく説明する。   With reference to FIG. 5 and FIG. 6, the process in which the camera placement control unit 194 determines the camera work of the virtual camera in the virtual space will be described in detail.

カメラ配置制御部194は、ゲームキャラクタに、ゲームを進行させるための所定の動作(第1の動作)を行わせる場合に、ゲームキャラクタを、タッチスクリーン130に表示させるよう仮想カメラを配置する。例えば、ゲームプログラム151は、入力操作を受け付けることにより、ゲームのプレイヤであるユーザが操作するゲームキャラクタと、ゲームキャラクタと対戦する相手側キャラクタとの間で、ボールなどの対象物を交互に打ち返すスポーツゲームにかかるものである。ゲームキャラクタに行わせる第1の動作には、スポーツゲームにおけるサーブ動作が含まれる。ゲームキャラクタに行わせる第2の動作には、サーブ動作後に相手側キャラクタと対象物(ボール)を交互に打ち返すためにゲームキャラクタを移動させる動作が少なくとも含まれる。   The camera arrangement control unit 194 arranges the virtual camera so that the game character is displayed on the touch screen 130 when causing the game character to perform a predetermined action (first action) for causing the game to proceed. For example, the game program 151 accepts an input operation, whereby a game character that is operated by a user who is a game player and an opponent character that fights against the game character alternately strikes an object such as a ball. It is a game. The first action to be performed by the game character includes a serve action in a sports game. The second action to be performed by the game character includes at least an action of moving the game character so as to alternately return the opponent character and the object (ball) after the serve action.

例えば、ゲームプログラム151がスポーツゲームであるとする。ゲームを進行させるための所定の動作として、テニスゲームであればゲームキャラクタにサーブの動作を行わせる場合に、仮想空間において予め定められた範囲に仮想カメラを配置する。ユーザがゲームキャラクタにサーブ動作を行わせるための入力操作を容易としつつ、迫力ある画面をユーザに提供できる位置に仮想カメラを配置することが好ましい。そのため、カメラ配置制御部194は、例えば、サーブ動作を行うゲームキャラクタを、タッチスクリーン130の手前側に大きく表示しつつ対戦相手のゲームキャラクタをも画面に収まるよう仮想カメラの配置個所および仮想カメラが撮影をする方向を決定する。   For example, it is assumed that the game program 151 is a sports game. As a predetermined action for advancing the game, in the case of a tennis game, a virtual camera is arranged in a predetermined range in the virtual space when the game character is to perform a serve action. It is preferable to arrange the virtual camera at a position where it is possible to provide a powerful screen to the user while facilitating an input operation for allowing the game character to perform a serve operation. Therefore, for example, the camera placement control unit 194 displays virtual game placement locations and virtual cameras so that the game character that performs the serve operation is displayed on the front side of the touch screen 130 and the opponent's game character can also fit on the screen. Determine the shooting direction.

本実施形態では、ゲームプログラムとして、テニスゲームの場合を具体的に説明する。
図5は、ゲームキャラクタに、第1の動作としてサーブ動作を行わせた後、第2の動作として、相手側キャラクタとの間でボールを交互に打ち返すためにゲームキャラクタを移動させるための入力操作を受け付けるゲーム画面の遷移を示す図である。図5の例では、自キャラクタ134の位置に対し、ネットを挟んで画面の奥方向(縦方向)に相手側キャラクタ136を配置している。
In the present embodiment, a case of a tennis game will be specifically described as a game program.
FIG. 5 shows an input operation for moving the game character in order to strike back the ball alternately with the opponent character as the second action after the game character performs the serve action as the first action. It is a figure which shows the transition of the game screen which accepts. In the example of FIG. 5, the opponent character 136 is arranged in the depth direction (vertical direction) of the screen with respect to the position of the own character 134 across the net.

図5の画面例(A)、画面例(B)および画面例(C)は、ユーザが操作する自キャラクタ134に、第1の動作としてサーブ動作を行わせるための入力操作を受け付ける画面である。画面例(A)に示すように、ゲーム進行処理部192は、タッチスクリーン130に、ユーザが操作するゲームキャラクタである自キャラクタ134と、テニスゲームの対戦相手となるゲームキャラクタである相手側キャラクタ136とを表示させて、ユーザに対し、自キャラクタ134にサーブ動作を行わせるための入力操作を受け付ける。   The screen example (A), the screen example (B), and the screen example (C) in FIG. 5 are screens that receive an input operation for causing the user character 134 operated by the user to perform a serve motion as a first motion. . As shown in the screen example (A), the game progress processing unit 192 displays, on the touch screen 130, the own character 134 that is a game character operated by the user and an opponent character 136 that is a game character that is an opponent of the tennis game. Is displayed, and an input operation for allowing the user character 134 to perform a serve operation is received.

画面例(A)に示す状態において、ゲーム進行処理部192は、ユーザが自キャラクタ134にサーブ動作を行わせるため、自キャラクタ134がサーブ動作を開始する位置を指定する入力操作を受け付ける。ここで、サーブ動作を開始する位置は、コートの辺に沿った方向(画面では左右方向)に規定されるため、ユーザは、自キャラクタ134を左右方向に移動させる入力操作を行って、サーブ動作を開始する位置を決定する。   In the state shown in the example screen (A), the game progress processing unit 192 accepts an input operation for designating a position at which the own character 134 starts the serve action in order for the user to cause the own character 134 to perform the serve action. Here, since the position at which the serve motion is started is defined in the direction along the side of the court (the left-right direction on the screen), the user performs an input operation to move the player character 134 in the left-right direction, and the serve motion is performed. Determine where to start.

画面例(B)に示すように、ゲーム進行処理部192は、自キャラクタ134にサーブ動作を行わせるための入力操作をユーザから受け付ける。ゲーム進行処理部192は、ユーザがタップ操作を行ったことを入力操作受付部191が検出した場合に、自キャラクタ134に、ボールをトスアップさせる動作を行わせる。ゲーム進行処理部192は、打球対象オブジェクト138を、自キャラクタ134がテニスボールをトスアップしたように移動させる。すなわち、ゲーム進行処理部192は、自キャラクタ134がテニスボールを投げることで、テニスボールが上昇及び下降するように打球対象オブジェクト138を移動させる。   As shown in the screen example (B), the game progress processing unit 192 receives an input operation for causing the player character 134 to perform a serve action from the user. When the input operation receiving unit 191 detects that the user has performed a tap operation, the game progress processing unit 192 causes the player character 134 to perform an action of tossing up the ball. The game progress processing unit 192 moves the hitting target object 138 as if the player character 134 tossed up the tennis ball. That is, the game progress processing unit 192 moves the hitting target object 138 so that the tennis ball moves up and down when the player character 134 throws the tennis ball.

画面例(C)に示すように、ゲーム進行処理部192は、自キャラクタ134に、トスアップしたテニスボールを打球させるための入力操作をユーザから受け付ける。ユーザは、トスアップされた打球対象オブジェクト138が上昇したのちに下降するよう移動していくのを視認して、タイミングをはかってタッチスクリーン130にタップ操作を行うことで、打球対象オブジェクト138を打球するよう自キャラクタ134を操作する。   As shown in the screen example (C), the game progress processing unit 192 receives an input operation for causing the player character 134 to hit a tossed tennis ball from the user. The user visually recognizes that the tossed hitting target object 138 moves so as to descend and then hits the hitting target object 138 by performing a tap operation on the touch screen 130 in a timely manner. The user character 134 is operated.

ゲーム進行処理部192は、例えば、打球対象オブジェクト138を上昇及び下降していくよう表示する総フレーム数のうち、予め規定された一定のフレーム数においてユーザからのタップ操作を受け付ける。ゲーム進行処理部192は、この一定のフレーム数においてタップ操作を検出した場合に、自キャラクタ134に、打球対象オブジェクト138を打球させる動作を行わせて打球対象オブジェクト138を相手側キャラクタに向けて飛翔させるよう移動させる。   For example, the game progress processing unit 192 receives a tap operation from the user in a predetermined number of frames out of the total number of frames for displaying the hitting target object 138 so as to rise and descend. When the game progress processing unit 192 detects a tap operation in the fixed number of frames, the game progress processing unit 192 causes the player character 134 to perform an action of hitting the hitting target object 138 to fly the hitting target object 138 toward the opponent character. Move to make it.

画面例(A)〜画面例(C)で説明したように、ユーザは、トスアップされた打球対象オブジェクト138を視認して、タイミングを見計らってタップ操作を行うことで、自キャラクタ134にサーブ動作を行わせる。そのため、ユーザにとっては、自キャラクタ134および打球対象オブジェクト138が比較的小さく表示されている場合よりも、自キャラクタ134および打球対象オブジェクト138がタッチスクリーン130の手前側に配置されて比較的大きく表示されている方が、サーブ動作を入力することが容易となる。   As described in the screen example (A) to the screen example (C), the user visually recognizes the tossed ball target object 138 and performs a tap operation at the timing, thereby performing a serve operation on the player character 134. Let it be done. Therefore, for the user, the player character 134 and the hit ball target object 138 are arranged on the front side of the touch screen 130 and displayed relatively larger than when the player character 134 and the hit ball target object 138 are displayed relatively small. It becomes easier to input the serve operation.

画面例(C)に示すように、自キャラクタ134にサーブ動作を行わせて打球対象オブジェクト138を相手側キャラクタ136に向けて飛翔させた後は、ユーザは、自キャラクタ134を移動させつつ、自キャラクタ134と相手側キャラクタ136との間で、打球対象オブジェクト138を交互に打ち返す入力操作を行うことでゲームを進行させることとなる。   As shown in screen example (C), after causing the player character 134 to perform a serve action and causing the hitting target object 138 to fly toward the opponent character 136, the user moves the player character 134 while moving the player character 134. The game is advanced by performing an input operation of alternately hitting the hitting target object 138 between the character 134 and the opponent character 136.

ここで、ゲーム進行処理部192は、例えば図4に示すように、ユーザからドラッグ操作を受け付けることで自キャラクタ134を移動させる方向を指定する入力操作を受け付ける。ユーザは、主に、タッチスクリーン130の手前側の領域を用いて、自キャラクタ134を移動させる入力操作を行うこととなる。そのため、ユーザの指と自キャラクタ134とがなるべく重ならないよう、自キャラクタ134をユーザが視認しやすくすることで、ゲームの操作性を向上させることができる。   Here, for example, as illustrated in FIG. 4, the game progress processing unit 192 receives an input operation for designating a direction in which the player character 134 is moved by receiving a drag operation from the user. The user mainly performs an input operation for moving the player character 134 using the area on the near side of the touch screen 130. Therefore, the operability of the game can be improved by making it easier for the user to visually recognize the own character 134 so that the user's finger and the own character 134 do not overlap as much as possible.

そこで、カメラ配置制御部194は、ゲームキャラクタに、第1の動作を行わせる画面表示をし、タッチスクリーン130の少なくとも1つの辺から中央部に向かう一定領域を空けてゲームキャラクタを表示させるよう仮想カメラを移動させる。例えば、カメラ配置制御部194は、タッチスクリーン130の1つの辺から中央部に向かう略4分の1から略3分の1の一定領域を空けてゲームキャラクタを表示させる。   Therefore, the camera arrangement control unit 194 displays the screen to cause the game character to perform the first action, and displays the game character so as to display a certain area from at least one side of the touch screen 130 toward the center. Move the camera. For example, the camera arrangement control unit 194 displays a game character with a certain area from about one quarter to about one third from one side of the touch screen 130 toward the center.

図5の画面例(D)に示すように、テニスゲームであれば、カメラ配置制御部194は、ゲームキャラクタに、第1の動作としてサーブ動作を行わせる画面表示をした後(画面例(A)〜画面例(C))、タッチスクリーン130の、ユーザから見て手前側となる辺から画面の中央部へ向かう一定領域139を空けてゲームキャラクタ(自キャラクタ134)を表示させるよう、第1の動作(サーブ動作)後に仮想カメラの撮影方向を維持したまま仮想カメラの配置個所を平行に移動させる。   As shown in the screen example (D) of FIG. 5, in the case of a tennis game, the camera placement control unit 194 displays a screen that causes the game character to perform a serve motion as the first motion (screen example (A ) To screen example (C)), the game character (self-character 134) is displayed so as to display a predetermined area 139 from the side on the near side of the touch screen 130 toward the center of the screen. After the above operation (serving operation), the placement position of the virtual camera is moved in parallel while maintaining the shooting direction of the virtual camera.

図6は、実施の形態1の制御部190がゲームプログラム151を実行することにより、カメラ配置制御部194により決定されるカメラワークに従って、スポーツゲームの試合を進行させる処理を示すフローチャートである。   FIG. 6 is a flowchart illustrating a process of advancing a game of a sports game according to the camera work determined by the camera placement control unit 194 when the control unit 190 of the first embodiment executes the game program 151.

ステップS601において、制御部190は、ユーザが操作する自キャラクタ134を、タッチスクリーン130の手前側の辺に沿って表示させるよう、仮想カメラの撮影位置および撮影軸の初期設定に従って、仮想カメラの撮影画像をタッチスクリーン130に表示させる(図4の画面例(A)に対応する)。   In step S <b> 601, the control unit 190 captures the virtual camera according to the initial settings of the capture position and the capture axis of the virtual camera so that the user's own character 134 operated by the user is displayed along the near side of the touch screen 130. An image is displayed on the touch screen 130 (corresponding to the screen example (A) in FIG. 4).

ステップS603において、制御部190は、ユーザから、自キャラクタ134にサーブ動作を行わせるための入力操作(タップ操作)があるまで、自キャラクタ134を移動可能な範囲で、自キャラクタ134の位置を移動させる入力操作を受け付ける。制御部190は、例えば、ドラッグ操作により、自キャラクタ134の位置を移動させる入力操作を受け付ける。   In step S <b> 603, the control unit 190 moves the position of the player character 134 within a movable range until the user performs an input operation (tap operation) for causing the player character 134 to perform a serve operation. An input operation is accepted. The control unit 190 receives an input operation for moving the position of the player character 134 by, for example, a drag operation.

例えば、制御部190は、図4の画面例(A)に示すように、自キャラクタ134がサーブ動作を行う位置を決定するため、左右方向に自キャラクタ134を移動させる入力操作をユーザから受け付ける。制御部190は、サーブ動作を行う位置を決定するために自キャラクタ134を移動させる入力操作に従って仮想カメラを平行に移動させ、仮想カメラの撮影画像をタッチスクリーン130に表示させる。   For example, as shown in the screen example (A) of FIG. 4, the control unit 190 accepts an input operation for moving the player character 134 in the left-right direction from the user in order to determine a position where the player character 134 performs a serve action. The control unit 190 moves the virtual camera in parallel in accordance with an input operation for moving the player character 134 in order to determine the position where the serve action is performed, and displays a captured image of the virtual camera on the touch screen 130.

ステップS605において、制御部190は、自キャラクタ134にサーブ動作を行わせるための入力操作(タップ操作)を検出し、入力操作に応じて、自キャラクタ314にサーブ動作を行わせる画面表示をタッチスクリーン130に行う(図4の画面例(B)および画面例(C)に対応する)。制御部190は、自キャラクタ134にサーブ動作を行わせると、タッチスクリーン130の手前側の辺から中央部に向かう3分の1程度の一定領域139を空けて自キャラクタ134をタッチスクリーン130に表示させるよう仮想カメラを、撮影軸の方向に平行に移動させ、仮想カメラの撮影画像をタッチスクリーン130に表示させる(図4の画面例(D)に対応する)。   In step S605, the control unit 190 detects an input operation (tap operation) for causing the own character 134 to perform a serve action, and displays a screen display for causing the own character 314 to perform a serve action according to the input operation. 130 (corresponding to screen example (B) and screen example (C) in FIG. 4). When the control unit 190 causes the self-character 134 to perform a serve operation, the control unit 190 displays the self-character 134 on the touch screen 130 with a fixed region 139 that is about one third from the front side of the touch screen 130 toward the center. The virtual camera is moved in parallel to the direction of the shooting axis so that the shot image of the virtual camera is displayed on the touch screen 130 (corresponding to the screen example (D) in FIG. 4).

ステップS607において、制御部190は、ゲームの進行に応じて、自キャラクタ134と、相手側キャラクタ136と、自キャラクタ134と相手側キャラクタ136との間でラリーの対象となる打球対象オブジェクト138とを一画面に収めるよう、仮想カメラを、撮影軸の方向に平行に移動させ、仮想カメラの撮影画像をタッチスクリーン130に表示させる。   In step S607, as the game progresses, the control unit 190 displays the own character 134, the opponent character 136, and the hitting target object 138 that is the target of the rally between the own character 134 and the opponent character 136. The virtual camera is moved in parallel with the direction of the shooting axis so as to fit on one screen, and the shot image of the virtual camera is displayed on the touch screen 130.

制御部190は、例えば、テニスゲームの試合を進行させて、自キャラクタ134にサーブ動作を行わせる都度、図6に示す処理を行う。また、制御部190は、相手側キャラクタ136がサーブ動作を行う場合は、図5の画面例(D)に示す状態で、自キャラクタ134をタッチスクリーン130に表示する。   For example, the control unit 190 performs the process shown in FIG. 6 every time a game of a tennis game is advanced and the player character 134 performs a serve action. Further, when the opponent character 136 performs a serve action, the control unit 190 displays the own character 134 on the touch screen 130 in the state shown in the screen example (D) of FIG.

図7は、カメラ配置制御部194がゲームの進行に応じて仮想カメラを平行に移動させる処理を示す図である。図7の例において、仮想空間は、3次元(xyz軸)で構成されている。オブジェクト制御部195は、仮想空間において、テニスコートを示すオブジェクトを、xy平面に沿って配置する。オブジェクト制御部195は、ユーザの入力操作に応じて、自キャラクタ134および相手側キャラクタ136を、x軸およびy軸に平行に移動させる。   FIG. 7 is a diagram illustrating processing in which the camera placement control unit 194 moves the virtual camera in parallel as the game progresses. In the example of FIG. 7, the virtual space is configured in three dimensions (xyz axes). The object control unit 195 arranges an object indicating a tennis court along the xy plane in the virtual space. The object control unit 195 moves the player character 134 and the opponent character 136 in parallel to the x axis and the y axis in accordance with a user input operation.

図7の状態(A)は、仮想空間内において、テニスコートが配置される平面に対して垂直な面(yz平面)における仮想カメラの移動を示す図である。ユーザがタップ操作によって自キャラクタ134にサーブ動作を行わせるまで(図5の状態(C))、カメラ配置制御部194は、位置143に仮想カメラを配置する。   The state (A) in FIG. 7 is a diagram illustrating movement of the virtual camera in a plane (yz plane) perpendicular to the plane on which the tennis court is arranged in the virtual space. The camera placement control unit 194 places the virtual camera at the position 143 until the user causes the user character 134 to perform a serve action by a tap operation (state (C) in FIG. 5).

図7の状態(B)は、仮想空間内において、テニスコートが配置される平面に対して平行な面(xy平面)における仮想カメラの移動を示す図である。ユーザがタップ操作によって自キャラクタ134にサーブ動作を行わせると、ゲーム進行処理部192は、自キャラクタ134と相手側キャラクタ136との間でラリーを行うため、自キャラクタ134の移動方向を指定する入力操作をユーザから受け付ける。このとき、タッチスクリーン130の一定領域139を空けて自キャラクタ134をタッチスクリーン130に表示させるよう、カメラ配置制御部194は、位置143から位置145まで仮想カメラを平行に移動させる(図5の状態(D))。   The state (B) in FIG. 7 is a diagram illustrating movement of the virtual camera in a plane (xy plane) parallel to the plane on which the tennis court is arranged in the virtual space. When the user causes the player character 134 to perform a serve operation by a tap operation, the game progress processing unit 192 performs a rally between the player character 134 and the opponent character 136, and thus an input for designating the moving direction of the player character 134. Accept operation from user. At this time, the camera placement control unit 194 moves the virtual camera in parallel from the position 143 to the position 145 so as to display the self-character 134 on the touch screen 130 while leaving a certain area 139 of the touch screen 130 (the state of FIG. 5). (D)).

<実施の形態1のカメラワークのまとめ>
カメラ配置制御部194は、ゲームキャラクタに第1の動作を行わせる場合に、ゲームキャラクタを、タッチスクリーン130の少なくとも1つの辺から中央部に向かう一定領域(図5の画面例(D)に示す一定領域139)に表示させるよう仮想カメラを配置することとしてもよい。
<Summary of Camera Work in Embodiment 1>
When the camera placement control unit 194 causes the game character to perform the first action, the game character is displayed in a certain area (shown in the screen example (D) in FIG. 5) from the at least one side of the touch screen 130 toward the center. The virtual camera may be arranged so as to be displayed in the certain area 139).

図5の例で説明するように、テニスゲームであれば、カメラ配置制御部194は、ゲームキャラクタに、第1の動作としてサーブ動作を行わせる場合に、タッチスクリーン130の、ユーザから見て手前側となる辺から画面の中央部へ向かう一定領域にゲームキャラクタを表示させて、サーブ動作をゲームキャラクタに行わせるための入力操作をユーザから受け付ける。これにより、サーブ動作をするための入力操作時には、ゲームキャラクタがタッチスクリーン130の手前側の辺に沿って比較的大きく表示されるため、ユーザに対し、サーブ動作を容易に行わせることができる。また、ユーザが操作する対象のゲームキャラクタが、タッチスクリーン130の手前側に比較的大きく表示されることで、迫力ある画面をユーザに提供することができる。   As described in the example of FIG. 5, in the case of a tennis game, the camera placement control unit 194 displays the touch screen 130 in front of the user when the game character is to perform a serve action as the first action. The game character is displayed in a certain area from the side to the center of the screen, and an input operation for causing the game character to perform a serve action is received from the user. Thereby, at the time of the input operation for performing the serve operation, the game character is displayed relatively large along the front side of the touch screen 130, so that the user can easily perform the serve operation. Further, the game character to be operated by the user is displayed relatively large on the near side of the touch screen 130, so that a powerful screen can be provided to the user.

カメラ配置制御部194は、第1の動作に後続する第2の動作をゲームキャラクタに行わせるための入力操作をタッチスクリーン130により受け付けて、受け付けた入力操作に応じて、ゲームキャラクタをタッチスクリーン130に表示させるよう仮想カメラを移動させる。   The camera arrangement control unit 194 receives an input operation for causing the game character to perform the second action subsequent to the first action by the touch screen 130, and displays the game character on the touch screen 130 according to the received input operation. Move the virtual camera to display on the screen.

図5の画面例(D)に示すように、テニスゲームであれば、サーブ動作(第1の動作)に後続する第2の動作をゲームキャラクタに行わせるための入力操作として、ゲームキャラクタを移動させる操作、ボールに対してゲームキャラクタに打球させる操作その他の入力操作がある。このとき、制御部190は、タッチスクリーン130の手前側の辺から中央部へ向かう一定領域139を空けて自キャラクタ134をディスプレイ132に表示させるため、ユーザは、タッチスクリーン130に対する入力操作を行うための領域が一定領域139に確保された状態で、自キャラクタ134を視認しながら容易にタッチスクリーン130への入力操作を行うことができる。   As shown in the screen example (D) of FIG. 5, in the case of a tennis game, the game character is moved as an input operation for causing the game character to perform the second action following the serve action (first action). There are operations for making the game character hit the ball and other input operations. At this time, the control unit 190 causes the display character 132 to be displayed on the display 132 with a certain area 139 extending from the near side of the touch screen 130 toward the center, so that the user performs an input operation on the touch screen 130. In the state where the predetermined area 139 is secured, the input operation to the touch screen 130 can be easily performed while visually recognizing the player character 134.

<実施の形態1の変形例>
実施の形態1では、ゲームプログラムがスポーツゲームである場合として、特に、テニスゲームの例について説明したが、ゲームのジャンルはテニスゲームに限られない。カメラ配置制御部194は、ゲームプログラム151がサッカーゲームであれば、第1の動作として、ゲームキャラクタにキックオフやスローインなど、試合の開始または再開の契機となる動作を行わせる場合に、予め定められた範囲に仮想カメラを配置する。
<Modification of Embodiment 1>
In the first embodiment, an example of a tennis game has been described as a case where the game program is a sports game. However, the game genre is not limited to a tennis game. If the game program 151 is a soccer game, the camera arrangement control unit 194 determines in advance when the game character performs an action that triggers the start or restart of the game, such as kick-off or throw-in, as the first action. Place the virtual camera in the specified range.

そして、ゲームキャラクタが、試合の開始または再開の契機となる動作を行うと、ゲームキャラクタが移動しつつ、対戦しているチーム間でサッカーボールを獲り合う展開となる。カメラ配置制御部194は、第2の動作として、ゲームキャラクタを移動させる入力操作を受け付ける場合に、一定領域139を空けて自キャラクタ134をタッチスクリーン130に表示することとしてもよい。   And if a game character performs the operation | movement used as the opportunity of the start or restart of a game, it will be the expansion | deployment which catches a soccer ball between the teams which are fighting, while a game character moves. As the second action, the camera arrangement control unit 194 may display the player character 134 on the touch screen 130 with a certain area 139 open when an input operation for moving the game character is accepted.

また、図5の例において、ゲームキャラクタに第1の動作および第2の動作を行わせる一連の処理において、カメラ配置制御部194は、仮想カメラを、テニスコートが配置される平面(ゲームキャラクタが移動可能な平面)に対する仮想カメラの撮影軸が一定の角度をなすよう、撮影軸を平行にして移動させる。こうすることで、ゲームキャラクタを表示するためのカメラアングルが一定程度に維持されるため、ゲームキャラクタを移動させるためのドラッグ操作により示す移動方向と、仮想カメラから見た仮想空間においてゲームキャラクタが移動する方向とを一致させることができ、ユーザの操作性をいっそう容易にすることができる。   In the example of FIG. 5, in a series of processes for causing the game character to perform the first action and the second action, the camera placement control unit 194 displays the virtual camera on the plane on which the tennis court is placed (the game character is The imaging axis of the virtual camera is moved in parallel so that the imaging axis of the virtual camera is at a certain angle with respect to the movable plane. As a result, the camera angle for displaying the game character is maintained at a certain level, so that the game character moves in the virtual space viewed from the virtual camera as viewed from the moving direction indicated by the drag operation for moving the game character. Therefore, the user operability can be made easier.

<実施の形態2>
図8および図9を参照して、実施の形態2のカメラ配置制御部194の処理を説明する。
<Embodiment 2>
With reference to FIG. 8 and FIG. 9, the process of the camera arrangement control unit 194 of the second embodiment will be described.

図8は、実施の形態2のカメラ配置制御部194が、ゲームキャラクタの位置に応じてカメラワークを決定する処理を示す図である。   FIG. 8 is a diagram illustrating processing in which the camera placement control unit 194 according to the second embodiment determines camera work according to the position of the game character.

図8の状態(A)は、カメラ配置制御部194が、タッチスクリーン130の手前側の一定領域139を空けて自キャラクタ134を表示するよう仮想カメラを配置している状態を示す。   The state (A) of FIG. 8 shows a state in which the camera placement control unit 194 places a virtual camera so that the fixed character 139 on the near side of the touch screen 130 is opened and the player character 134 is displayed.

図8の状態(B)は、カメラ配置制御部194が、ユーザから自キャラクタ134をコート内に前進させる入力操作を受け付けて、一定領域139を空けて自キャラクタ134を表示することを維持したまま、仮想カメラを移動させている状態を示す。カメラ配置制御部194は、状態(A)から状態(B)まで、仮想カメラの撮影軸を平行に移動させることとする。   In the state (B) of FIG. 8, the camera arrangement control unit 194 accepts an input operation to advance the player character 134 in the court from the user, and maintains the display of the player character 134 with a certain area 139 left. The state which is moving the virtual camera is shown. The camera arrangement control unit 194 moves the imaging axis of the virtual camera in parallel from state (A) to state (B).

図8の状態(C)は、カメラ配置制御部194が、ユーザから、自キャラクタ134を、コートから大きく外れて後退させる入力操作を受け付けて、一定領域139に自キャラクタ134を表示するよう仮想カメラを移動させている状態を示す。   In the state (C) of FIG. 8, the camera placement control unit 194 accepts an input operation from the user that causes the player character 134 to move far away from the court, and displays the player character 134 in the fixed area 139. The state which is moving is shown.

このように、一定領域139に自キャラクタ134が移動してくると、タッチスクリーン130においてユーザが入力操作を行いやすい領域に自キャラクタ134が移動してくることとなる。そのため、ユーザは、自キャラクタ134を視認することが、状態(A)と比較して困難になる。自キャラクタ134がコートから大きく外れて移動する場合、相手側キャラクタ136が打ち返す打球対象オブジェクト138を、自キャラクタ134がさらに打ち返すことが困難になると想定される。すなわち、コートから大きく外れて自キャラクタ134が位置していると、自キャラクタ134が打球対象オブジェクト138を打ち返すことができる可能性が低くなり、ユーザにとって不利な状態となる。   As described above, when the own character 134 moves to the certain area 139, the own character 134 moves to an area where the user can easily perform an input operation on the touch screen 130. Therefore, it becomes difficult for the user to visually recognize the own character 134 as compared with the state (A). When the own character 134 moves far from the court, it is assumed that it is difficult for the own character 134 to strike back the hitting target object 138 that the opponent character 136 returns. That is, if the player character 134 is located far from the court, the possibility that the player character 134 can strike back the hit target object 138 is reduced, which is disadvantageous for the user.

そこで、状態(C)に示すように、カメラ配置制御部194が、一定領域139に自キャラクタ134を表示するよう仮想カメラを配置することで、ユーザに対し、自キャラクタ134の移動方向がユーザにとって不利な状態になることをユーザに示唆する。   Therefore, as shown in the state (C), the camera arrangement control unit 194 arranges the virtual camera so as to display the own character 134 in the fixed area 139, so that the moving direction of the own character 134 is determined for the user. Suggest to the user that it will be at a disadvantage.

図8の状態(D)は、カメラ配置制御部194が、自キャラクタ134の移動に沿って、一定領域139を空けて自キャラクタ134をタッチスクリーン130に表示させるよう仮想カメラを平行に移動させるか、一定領域139にかかわらず自キャラクタ134を移動させるかを判定するための、移動範囲141を示す図である。   In the state (D) of FIG. 8, the camera placement control unit 194 moves the virtual camera in parallel along the movement of the player character 134 so that the player character 134 is displayed on the touch screen 130 while leaving the fixed area 139. FIG. 10 is a diagram showing a movement range 141 for determining whether to move the own character 134 regardless of the fixed area 139.

このように、自キャラクタ134が、移動範囲141に示される範囲内を移動する場合、カメラ配置制御部194は、図8の状態(B)に示すように一定領域139を空けて自キャラクタ134をタッチスクリーン130に表示させるよう仮想カメラの配置を決定する。また、自キャラクタ134が、移動範囲141の外部に示される範囲を移動する場合、カメラ配置制御部194は、一定領域139に自キャラクタ134を侵入させるよう仮想カメラの配置を決定する。   As described above, when the own character 134 moves within the range indicated by the movement range 141, the camera arrangement control unit 194 opens the fixed character 139 and opens the own character 134 as shown in the state (B) of FIG. 8. The placement of the virtual camera is determined to be displayed on the touch screen 130. Further, when the own character 134 moves within the range indicated outside the movement range 141, the camera arrangement control unit 194 determines the arrangement of the virtual camera so that the own character 134 enters the fixed area 139.

図9は、実施の形態2の制御部190がゲームプログラム151を実行することにより、カメラ配置制御部194により決定されるカメラワークに従って、スポーツゲームの試合を進行させる処理を示すフローチャートである。   FIG. 9 is a flowchart illustrating a process of advancing a game of a sports game according to camera work determined by the camera arrangement control unit 194 when the control unit 190 of the second embodiment executes the game program 151.

ステップS901において、制御部190は、ユーザが操作する自キャラクタ134が、仮想空間のどの座標に位置しているかの座標を取得する。仮想空間(xyz軸)において、テニスコートをxy平面に沿って配置する場合、制御部190は、自キャラクタ134のxy平面における座標を取得する。   In step S <b> 901, the control unit 190 acquires the coordinates of the coordinate in which the own character 134 operated by the user is located in the virtual space. When the tennis court is arranged along the xy plane in the virtual space (xyz axis), the control unit 190 acquires the coordinates of the player character 134 in the xy plane.

ステップS903において、制御部190は、ステップS901で取得した自キャラクタ134の座標と、予め定められた移動範囲141とを比較して、自キャラクタ134の位置が、移動範囲141の範囲内にあるか否かを判定する。自キャラクタ134の位置が、移動範囲141の範囲内にある場合(ステップS903においてYES)、制御部190は、ステップS905の処理を行い、そうでない場合(ステップS903においてNO)、ステップS907の処理を行う。   In step S903, the control unit 190 compares the coordinates of the player character 134 acquired in step S901 with a predetermined movement range 141, and determines whether the position of the player character 134 is within the movement range 141. Determine whether or not. When the position of the player character 134 is within the range of the movement range 141 (YES in step S903), the control unit 190 performs the process of step S905. Otherwise (NO in step S903), the process of step S907 is performed. Do.

ステップS905において、制御部190は、ゲームの進行に応じて、自キャラクタ134と、相手側キャラクタ136と、自キャラクタ134と相手側キャラクタ136との間でラリーの対象となる打球対象オブジェクト138とを一画面に収めるよう、仮想カメラを、撮影軸の方向に平行に移動させるよう仮想カメラの位置を決定する。   In step S905, as the game progresses, the control unit 190 displays the own character 134, the opponent character 136, and the hitting target object 138 that is the target of the rally between the own character 134 and the opponent character 136. The position of the virtual camera is determined so that the virtual camera is moved in parallel with the direction of the shooting axis so as to fit on one screen.

ステップS907において、制御部190は、ゲームの進行に応じて、自キャラクタ134と、相手側キャラクタ136と、打球対象オブジェクト138とを一画面に収め、タッチスクリーン130の一定領域139においても自キャラクタ134を表示させるよう仮想カメラの位置を決定する。例えば、自キャラクタ134の位置が、移動範囲141の範囲外に位置した場合に、仮想カメラの位置を、自キャラクタ134と相手側キャラクタ136との間で打球をラリーさせる方向(図8のタッチスクリーン130の上下方向)については移動させないこととしてもよい。   In step S907, the control unit 190 stores the player character 134, the opponent character 136, and the hitting target object 138 on a single screen as the game progresses, and the player character 134 also in the fixed area 139 of the touch screen 130. The position of the virtual camera is determined so that is displayed. For example, when the position of the player character 134 is outside the range of the movement range 141, the virtual camera position is changed to the direction in which the hit ball is rallyed between the player character 134 and the opponent character 136 (touch screen in FIG. 8). The vertical direction 130 may not be moved.

ステップS909において、制御部190は、決定された仮想カメラの位置に従って、仮想カメラの撮影画像をタッチスクリーン130に表示させる。   In step S909, the control unit 190 displays the captured image of the virtual camera on the touch screen 130 according to the determined position of the virtual camera.

制御部190は、例えば、自キャラクタ134がサーブ動作を行った後に、図9に示す処理を、一定フレームごと(例えば、毎フレーム)に行う。また、相手側キャラクタ136がサーブ動作を行う場合、制御部190は、図9に示す処理を一定フレームごとに行う。   For example, after the player character 134 performs a serve action, the control unit 190 performs the process illustrated in FIG. 9 for every fixed frame (for example, every frame). Further, when the opponent character 136 performs a serve action, the control unit 190 performs the process shown in FIG. 9 for each fixed frame.

<実施の形態2のまとめ>
カメラ配置制御部194は、制御部190がゲームプログラム151を実行することで生成される仮想空間においてゲームキャラクタが移動可能な範囲のうち、予め定められた一定範囲内で移動する場合はタッチスクリーン130の少なくとも1つの辺から中央部に向かう一定領域を空けてゲームキャラクタを表示させるよう仮想カメラを移動させ、ゲームキャラクタが一定範囲外を移動する場合は、タッチスクリーン130の少なくとも1つの辺から中央部に向かう一定領域においてもゲームキャラクタをタッチスクリーン130に表示させるよう仮想カメラの移動を制御する。
<Summary of Embodiment 2>
The camera arrangement control unit 194 displays the touch screen 130 when the game character moves within a predetermined range within the range in which the game character can move in the virtual space generated when the control unit 190 executes the game program 151. When the virtual camera is moved so as to display a game character with a certain area from at least one side to the center, and the game character moves outside the certain range, the virtual character is moved from at least one side of the touch screen 130 to the center. The movement of the virtual camera is controlled so that the game character is displayed on the touch screen 130 even in a certain area toward the screen.

テニスゲームを例にすると、カメラ配置制御部194は、ゲームキャラクタが、コート内およびコート周辺の一定範囲を移動する場合は、タッチスクリーン130の手前側の辺から中央部に向かう一定領域を空けてゲームキャラクタを表示させるよう仮想カメラを移動させる。   Taking a tennis game as an example, when the game character moves within a certain range in and around the court, the camera arrangement control unit 194 leaves a certain area from the front side of the touch screen 130 toward the center. The virtual camera is moved to display the game character.

また、カメラ配置制御部194は、ゲームキャラクタが、コートを大きく外れて移動する場合は(例えば、コートから大きく外れた位置にゲームキャラクタがいる場合、対戦相手から打ち返される打球を対戦相手に対して再び打球するには不向きな位置にゲームキャラクタがいると考えられる)、手前側の辺から中央部へ向かう一定領域を空けず、一定領域においてもゲームキャラクタを移動させるよう仮想カメラを移動させる。   In addition, when the game character moves greatly off the court (for example, when the game character is at a position far from the court, the camera placement control unit 194 sends a hit ball returned from the opponent to the opponent. It is considered that the game character is in a position unsuitable for hitting again), and the virtual camera is moved so that the game character is moved in the fixed area without leaving a fixed area from the near side to the center.

こうすることで、ゲームキャラクタが、対戦相手とラリーをするのに適した位置にいる場合は、タッチスクリーン130の手前側の辺から中央部へ向かう一定領域を空けることで、ユーザに対し、タッチスクリーン130への入力操作を行うための領域がタッチスクリーン130の手前側に確保されることとなり、ゲームキャラクタを操作することを容易にすることができる。   In this way, when the game character is in a position suitable for rallying with the opponent, a certain area from the near side of the touch screen 130 toward the center is made open to the user. An area for performing an input operation on the screen 130 is secured on the front side of the touch screen 130, and it is possible to easily operate the game character.

また、ゲームキャラクタが、対戦相手とラリーをするのに適していない位置にいる場合(コートから大きく外れて移動している場合)は、タッチスクリーン130の手前側の辺から中央部へ向かう一定領域であっても、ゲームキャラクタを、この一定領域に進ませるように移動させるよう仮想カメラの位置を決定する。   In addition, when the game character is in a position that is not suitable for rallying with the opponent (when moving greatly away from the court), a certain area from the front side of the touch screen 130 toward the center portion Even so, the position of the virtual camera is determined so as to move the game character so as to advance to the certain area.

これにより、例えば、コートを大きく外れてゲームキャラクタを移動させた場合に、タッチスクリーン130の手前側の領域にゲームキャラクタが移動してくることとなり、ユーザに対し、ゲームキャラクタの移動方向が、試合を進めるうえで適していないことを示唆することができ、ゲームの操作性を向上させることができる。   Thereby, for example, when the game character is moved greatly off the court, the game character moves to the area on the near side of the touch screen 130, and the direction of movement of the game character to the user is It is possible to suggest that the game is not suitable for proceeding, and the operability of the game can be improved.

<実施の形態3>
図10及び図11を参照して、実施の形態3のカメラ配置制御部194の動作を説明する。
<Embodiment 3>
With reference to FIGS. 10 and 11, the operation of the camera arrangement control unit 194 according to the third embodiment will be described.

図10は、実施の形態3のカメラ配置制御部194が、自キャラクタ134を移動させる方向および自キャラクタ134の打球動作に従って、仮想カメラを配置している処理を示す図である。   FIG. 10 is a diagram illustrating processing in which the camera placement control unit 194 according to the third embodiment places a virtual camera according to the direction in which the player character 134 is moved and the hitting motion of the player character 134.

図10の状態(A)に示すように、カメラ配置制御部194は、タッチスクリーン130において、打球対象オブジェクト138をラリーさせる方向(タッチスクリーン130の上下方向)とは異なる方向(タッチスクリーン130の左右方向)において、自キャラクタ134を表示することが可能な表示領域137を設定している。カメラ配置制御部194は、表示領域137内において、ユーザが自キャラクタ134を左右方向に移動させている場合は、左右方向についてのカメラワークが固定されるよう、仮想カメラの配置を制御する。   As shown in the state (A) of FIG. 10, the camera arrangement control unit 194 has a different direction (the left and right sides of the touch screen 130) from the direction in which the hitting target object 138 is rallyed (the up and down direction of the touch screen 130). Direction), a display area 137 where the player character 134 can be displayed is set. In the display area 137, the camera arrangement control unit 194 controls the arrangement of the virtual cameras so that the camera work in the left and right direction is fixed when the user moves the player character 134 in the left and right direction.

図10の状態(B)に示すように、カメラ配置制御部194は、表示領域137を超えて、ユーザが自キャラクタ134を左右方向に移動させようとすると、自キャラクタ134の左右方向の移動に伴って、仮想カメラを平行に移動させる。   As shown in the state (B) of FIG. 10, when the user tries to move the player character 134 in the horizontal direction beyond the display area 137, the camera arrangement control unit 194 moves the player character 134 in the horizontal direction. Along with this, the virtual camera is moved in parallel.

テニスゲームの場合、自キャラクタ134と相手側キャラクタ136との間でラリーを継続するため、ユーザは、自キャラクタ134を、タッチスクリーン130の上下方向(縦方向)のみならず左右方向(横方向)にも移動させて、打球対象オブジェクト138を打球させる動作を自キャラクタに行わせることとなる。そのため、自キャラクタ134の移動に伴って仮想カメラを平行に移動させる際、自キャラクタ134の左右方向の移動に連動して仮想カメラを平行に移動させればさせるほど、自キャラクタ134が左右方向への移動の切り返しを行うたびに、仮想カメラの撮影画像が左右に揺れやすくなることとなる。   In the case of a tennis game, since the rally is continued between the player character 134 and the opponent character 136, the user moves the player character 134 not only in the vertical direction (vertical direction) but also in the horizontal direction (horizontal direction) of the touch screen 130. And the player's own character is caused to perform an action of hitting the hitting target object 138. Therefore, when moving the virtual camera in parallel with the movement of the player character 134, the longer the player moves the virtual camera in parallel with the movement of the player character 134 in the horizontal direction, the more the player character 134 moves in the horizontal direction. Each time the movement is turned back, the captured image of the virtual camera is likely to swing from side to side.

そこで、状態(A)および状態(B)に示すように、自キャラクタ134を表示することが可能な表示領域137を、自キャラクタ134よりも大きく設定する。これにより、自キャラクタ134が頻繁に移動方向を切り替えて移動したとしても、自キャラクタ134の移動に比べて仮想カメラの移動の頻度を抑えることができ、仮想カメラの撮影画像の揺れをいっそう低減することができる。これにより、ユーザに対し、ゲームの操作性をいっそう向上させることができる。   Therefore, as shown in the state (A) and the state (B), the display area 137 in which the own character 134 can be displayed is set larger than the own character 134. As a result, even if the player character 134 frequently moves while switching the movement direction, the frequency of movement of the virtual camera can be suppressed compared to the movement of the player character 134, and the shaking of the captured image of the virtual camera is further reduced. be able to. Thereby, the operability of the game can be further improved for the user.

ここで、自キャラクタ134が打球対象オブジェクト138を打球することができる範囲が、自キャラクタ134の周囲に予め設定されていることとする。図10の状態(C)に示すように、相手側キャラクタ136が打球対象オブジェクト138を打ち返し、自キャラクタ134が打球対象オブジェクト138を再度打ち返すことができるか否かの境界付近に打球対象オブジェクト138が位置しているとする。この状態で自キャラクタ134が打球対象オブジェクト138を打ち返すための入力操作をユーザから受け付けると、自キャラクタ134が、ユーザにとって不利な状態で打球対象オブジェクト138を打ち返すとする(例えば、自キャラクタ134が、右または左方向に姿勢を崩して打球する動作を行い、この間、ユーザが自キャラクタ134を移動させることができない状態とする。このように自キャラクタ134が姿勢を崩して打球する場合に、自キャラクタ134に設定されている体力値などのパラメータを、比較的大きく減少させることとしてもよい)。   Here, it is assumed that a range in which the player character 134 can hit the hit target object 138 is set around the player character 134 in advance. As shown in the state (C) of FIG. 10, the hitting target object 138 is in the vicinity of the boundary whether or not the opponent character 136 can hit the hitting target object 138 and the own character 134 can hit the hitting target object 138 again. Suppose it is located. In this state, when an input operation for the player character 134 to strike back the hit target object 138 is received from the user, the player character 134 hits the hit target object 138 in a state disadvantageous to the user (for example, the player character 134 The player moves the player in the right or left direction and hits the ball, and during this time, the user cannot move the player character 134. When the player character 134 hits the player with the player's posture changed, The parameters such as the physical strength value set in 134 may be relatively reduced.

状態(D)に示すように、カメラ配置制御部194は、自キャラクタ134が姿勢を崩して打球をする動作を行わせつつ、自キャラクタ134の動作にあわせて仮想カメラを移動させる。このように、カメラ配置制御部194は、ユーザから打球対象オブジェクト138を打ち返すための入力操作を受け付けた後において、自キャラクタ134が打球対象オブジェクト138を打ち返すことが可能な範囲に打球対象オブジェクト138があるか否かを判定する。   As shown in the state (D), the camera placement control unit 194 moves the virtual camera in accordance with the action of the player character 134 while performing the action of the player character 134 hitting the ball in a posture. As described above, the camera placement control unit 194 receives the input operation for hitting the hit target object 138 from the user, and then the hit target object 138 is within a range where the player character 134 can hit the hit target object 138. It is determined whether or not there is.

カメラ配置制御部194は、当該範囲内で打球対象オブジェクト138を打ち返す場合は、自キャラクタ134に、仮想カメラを移動させず打球動作を行わせ、当該範囲の境界付近で打球対象オブジェクト138を打ち返す場合に、自キャラクタ134が姿勢を崩して移動させつつ打球動作を行わせ、自キャラクタ134の移動にあわせて仮想カメラを平行に移動させる。こうすることで、自キャラクタ134が打球対象オブジェクト138を打ち返すための自キャラクタ134と打球対象オブジェクト138との位置関係がユーザにとって有利か否かをユーザに示唆することができ、ゲームの操作性をいっそう向上させることができる。   When hitting the hitting object 138 within the range, the camera arrangement control unit 194 causes the player character 134 to perform a hitting action without moving the virtual camera, and hits the hitting target object 138 near the boundary of the range. In addition, the player character 134 performs a hitting motion while moving his / her posture while moving his / her posture, and moves the virtual camera in parallel with the movement of the player character 134. By doing so, it is possible to indicate to the user whether the positional relationship between the player character 134 and the hitting target object 138 for the player character 134 to strike back the hitting target object 138 is advantageous to the user. It can be further improved.

図11は、自キャラクタ134が打球対象オブジェクト138を打球することが可能な範囲の設定を示す図である。   FIG. 11 is a diagram illustrating setting of a range in which the player character 134 can hit the hitting target object 138.

図11の状態(A)は、制御部190が、自キャラクタ134が打球対象オブジェクト138を打球可能な範囲の目安をユーザに視認させるための範囲画像147をタッチスクリーン130に表示させた例である。   The state (A) of FIG. 11 is an example in which the control unit 190 causes the touch screen 130 to display a range image 147 for allowing the user to visually recognize a target range in which the player character 134 can hit the hit target object 138. .

図11の状態(B)は、自キャラクタ134が打球対象オブジェクト138を打球することが可能な範囲を示す打球可能範囲149を示す図である。状態(B)に示すように、自キャラクタ134の周囲に描画される範囲画像147の範囲内において、打球対象オブジェクト138を打球するのに好適な打球範囲148Rおよび打球範囲148Lが設定されている。   The state (B) of FIG. 11 is a diagram illustrating a possible hitting range 149 that indicates a range in which the player character 134 can hit the hit target object 138. As shown in the state (B), a hitting range 148R and a hitting range 148L suitable for hitting the hitting target object 138 are set within the range of the range image 147 drawn around the player character 134.

制御部190は、ユーザが打球対象オブジェクト138を打球するための入力操作を行った際に、打球対象オブジェクト138が打球可能範囲149の範囲内にあるか否かを判定する。打球対象オブジェクト138が打球可能範囲149の範囲内にあり、範囲画像147の範囲外にある場合は、自キャラクタ134に姿勢を崩して移動させつつ打球動作を行わせる(図10の状態(D))。制御部190は、打球対象オブジェクトが、打球範囲148Rまたは打球範囲148Lにあると判定した場合は、通常の打球よりも強力な打球を打ち返すようタッチスクリーン130に打球対象オブジェクト138を表示する。   When the user performs an input operation for hitting the hitting target object 138, the control unit 190 determines whether or not the hitting target object 138 is within the hittable range 149. When the hitting target object 138 is within the hittable range 149 and outside the range image 147, the hitting motion is performed while moving the player character 134 while moving its posture (state (D) in FIG. 10). ). When the control unit 190 determines that the hitting target object is in the hitting range 148R or the hitting range 148L, the control unit 190 displays the hitting target object 138 on the touch screen 130 so as to hit a hitting ball stronger than a normal hitting ball.

<実施の形態3のまとめ>
カメラ配置制御部194は、ゲームキャラクタの移動方向を指定する入力操作を受け付けて、入力操作を受け付けたゲームキャラクタの移動方向に従って仮想カメラを移動させ、タッチスクリーン130においてゲームキャラクタを表示可能な領域にゲームキャラクタを表示させる。
<Summary of Embodiment 3>
The camera arrangement control unit 194 receives an input operation for designating the moving direction of the game character, moves the virtual camera according to the moving direction of the game character that has received the input operation, and moves the virtual character to an area where the game character can be displayed on the touch screen 130. Display game characters.

ここで、ゲームキャラクタを移動可能な方向のうち、タッチスクリーン130の少なくとも1つの辺から中央部へ向かう一定領域への移動方向とは異なる方向については、この一定領域への移動方向と比較して、タッチスクリーン130においてゲームキャラクタを表示可能な領域が広く設定されている。   Here, out of the directions in which the game character can move, the direction different from the moving direction to the certain area from at least one side of the touch screen 130 toward the center is compared with the moving direction to this certain area. An area where game characters can be displayed on the touch screen 130 is set wide.

カメラ配置制御部194は、このゲームキャラクタを表示可能な領域を超える方向にゲームキャラクタを移動させる場合に、ゲームキャラクタの移動方向に従って仮想カメラを移動させる。テニスゲームの例では、タッチスクリーン130の手前側の辺から中央部へ向かう一定領域を空けてゲームキャラクタを表示するときに、一定領域への移動方向(タッチスクリーン130の手前側の辺への移動)と比較して、一定領域への移動方向とは異なる方向(左右方向への移動)については、タッチスクリーン130においてゲームキャラクタを表示可能な領域が広く設定されている。   The camera arrangement control unit 194 moves the virtual camera according to the moving direction of the game character when moving the game character in a direction exceeding the area where the game character can be displayed. In the example of the tennis game, when the game character is displayed with a certain area from the near side of the touch screen 130 toward the center, the moving direction to the certain area (movement to the near side of the touch screen 130 is moved). As compared with the movement direction to a certain area, a wide area in which the game character can be displayed on the touch screen 130 is set in a direction different from the movement direction to the certain area (movement in the left-right direction).

すなわち、ゲームキャラクタを縦方向に移動させる場合には、仮想カメラがゲームキャラクタの移動に追随してタッチスクリーン130の縦方向に移動しうるのに対し、ゲームキャラクタを左右方向に移動させる場合は、縦方向への仮想カメラの移動と比べてマージンを設け、ゲームキャラクタが右への移動から左への移動へと切り返しを行ったとしても、直ちに仮想カメラを追随させないようにすることができる。こうすることで、試合中の画面が、ゲームキャラクタの移動にあわせて左右方向に揺れる頻度を減少させることができ、ゲームのプレイをいっそう快適にすることができる。   That is, when moving the game character in the vertical direction, the virtual camera can move in the vertical direction of the touch screen 130 following the movement of the game character, whereas when moving the game character in the left and right direction, A margin is provided in comparison with the movement of the virtual camera in the vertical direction, and the virtual camera can be prevented from immediately following even if the game character switches back from moving to the right to moving to the left. By doing so, it is possible to reduce the frequency with which the screen during the game shakes in the left-right direction in accordance with the movement of the game character, and to make the game play more comfortable.

カメラ配置制御部194は、ゲームキャラクタを、ゲームキャラクタに対する入力操作に応じて移動させる第1の状態から、ゲームキャラクタの移動を伴う予め定められた動作をゲームキャラクタに行わせる第2の状態に推移した場合に、タッチスクリーン130においてゲームキャラクタを表示可能な領域にかかわらず第2の状態に対応したゲームキャラクタの動作に従って仮想カメラを移動させる。   The camera arrangement control unit 194 transitions from a first state in which the game character is moved in response to an input operation to the game character to a second state in which the game character performs a predetermined action that involves the movement of the game character. In this case, the virtual camera is moved according to the action of the game character corresponding to the second state regardless of the area where the game character can be displayed on the touch screen 130.

例えば、テニスゲームの場合に、ゲームキャラクタが、対戦相手の打球を打ち返すことが可能な範囲が設定されている場合に、打球を打ち返せるか否かの境界付近で打ち返したときにゲームキャラクタの姿勢を崩すような演出(第2の状態)をするものとする。   For example, in the case of a tennis game, if the range in which the game character can hit the opponent's hit ball is set, the posture of the game character when hit back near the boundary of whether or not the hit ball can be hit It is assumed that an effect (second state) that breaks down is performed.

この場合は、カメラ配置制御部194は、ゲームキャラクタをタッチスクリーン130において表示可能な領域であるか否かにかかわらず、ゲームキャラクタの姿勢を崩す演出にあわせて仮想カメラを移動させる。   In this case, the camera arrangement control unit 194 moves the virtual camera in accordance with the effect of breaking the posture of the game character regardless of whether or not the game character is an area that can be displayed on the touch screen 130.

これにより、ユーザに対し、ゲームキャラクタが、姿勢を崩して不利な状態であることを示唆することができ、ゲームを有利に進めるための操作(対戦相手からの打球を打ち返すのに好ましい位置へとゲームキャラクタを移動させる操作)を示唆してゲームの興趣性をいっそう向上させることができる。   Thereby, it is possible to suggest to the user that the game character is in an unfavorable state by changing its posture, and an operation for advantageously proceeding with the game (to a preferable position for hitting a hit ball from the opponent) The operation of moving the game character) is suggested, and the fun of the game can be further improved.

<実施の形態4>
図12を参照して、実施の形態4の携帯端末10がゲームプログラム151を実行する処理を説明する。
<Embodiment 4>
With reference to FIG. 12, the process in which the portable terminal 10 of Embodiment 4 performs the game program 151 is demonstrated.

図12は、実施の形態4の制御部190が、移動操作検出部193の検出結果に基づき、ゲームキャラクタを移動させる方向に応じたオブジェクトをディスプレイ132に表示させる処理を示す図である。   FIG. 12 is a diagram illustrating a process in which the control unit 190 according to the fourth embodiment causes the display 132 to display an object corresponding to the direction in which the game character is moved based on the detection result of the movement operation detection unit 193.

図12の状態(A)は、カメラ配置制御部194が、ユーザから自キャラクタ134を移動させるための入力操作を受け付ける局面を示す。状態(A)に示すユーザの指の押下位置30Eから、点線で示す方向へユーザがドラッグ操作を行うものとする。   The state (A) in FIG. 12 shows a situation in which the camera placement control unit 194 receives an input operation for moving the player character 134 from the user. It is assumed that the user performs a drag operation in the direction indicated by the dotted line from the pressed position 30E of the user's finger shown in the state (A).

図12の状態(B)は、ユーザがドラッグ操作を行って、自キャラクタ134を移動させる方向を入力している局面を示す。状態(B)に示すように、ユーザの指が、押下位置30Eから押下位置30Fまで移動している。これにより、移動操作検出部193は、タッチスクリーン130の押下位置30Fの座標と、押下位置30Eの座標とに基づいて、ユーザがゲームキャラクタを移動させる方向を指定する入力操作を検出する。   The state (B) in FIG. 12 shows a situation in which the user performs a drag operation and inputs a direction in which the player character 134 is moved. As shown in state (B), the user's finger has moved from the pressed position 30E to the pressed position 30F. Accordingly, the movement operation detection unit 193 detects an input operation for designating the direction in which the user moves the game character based on the coordinates of the pressed position 30F and the coordinates of the pressed position 30E of the touch screen 130.

制御部190は、移動操作検出部193の検出結果に基づき、押下位置30Eの座標を起点として、押下位置30Eから押下位置30Fへの線分上の任意の点を終点として、自キャラクタ134の移動方向を示す矢印状のオブジェクトである矢印オブジェクト186をタッチスクリーン130に表示させる。制御部190は、ドラッグ操作が行われている間、自キャラクタ134を移動させる方向を指定する入力操作を検出して、移動させる方向に応じたオブジェクトをタッチスクリーン130に表示させる。   Based on the detection result of the movement operation detection unit 193, the control unit 190 moves the own character 134 from the coordinates of the pressed position 30E as a starting point and from any point on the line segment from the pressed position 30E to the pressed position 30F as an end point. An arrow object 186 that is an arrow-shaped object indicating a direction is displayed on the touch screen 130. While the drag operation is being performed, the control unit 190 detects an input operation for designating the direction in which the player character 134 is moved, and causes the touch screen 130 to display an object corresponding to the move direction.

図12の状態(C)は、ユーザがゲームキャラクタを移動させる方向を示すオブジェクトが、弾性状のオブジェクトである弾性オブジェクト187をタッチスクリーン130に表示させる局面を示す。弾性オブジェクト187は、押下位置30Eの座標を起点として、押下位置30Eから押下位置30Fへの線分上の任意の点を終点とするオブジェクトである。   The state (C) of FIG. 12 shows an aspect in which the object indicating the direction in which the user moves the game character displays the elastic object 187, which is an elastic object, on the touch screen 130. The elastic object 187 is an object that starts from the coordinates of the pressed position 30E and ends at an arbitrary point on the line segment from the pressed position 30E to the pressed position 30F.

このように、制御部190は、タッチスクリーン130に対するユーザの入力操作を受け付けつつ、矢印オブジェクト186をユーザに視認させるようタッチスクリーン130の表示内容を制御する。こうすることで、制御部190は、自キャラクタ134を移動させる方向をユーザに認識させつつ、ユーザが自キャラクタ134を移動させるための入力操作を受け付けることができる。   As described above, the control unit 190 controls the display content of the touch screen 130 so that the user can visually recognize the arrow object 186 while receiving the user's input operation on the touch screen 130. By doing so, the control unit 190 can accept an input operation for the user to move the player character 134 while allowing the user to recognize the direction in which the player character 134 is moved.

<実施の形態5>
図5に示すように、上記の各実施形態の説明では、ゲームプログラム151は、ゲームキャラクタ(自キャラクタ134)に第1の動作を行わせる画面表示をして、一定領域139を空けてゲームキャラクタをタッチスクリーン130に表示させるよう、カメラ配置制御部194によりカメラワークを制御する。
<Embodiment 5>
As shown in FIG. 5, in the description of each of the above-described embodiments, the game program 151 displays a screen for causing the game character (self character 134) to perform the first action and leaves the fixed area 139 to play the game character. Is displayed on the touch screen 130, and the camera work is controlled by the camera arrangement control unit 194.

これに対し、実施の形態5のゲームプログラム151は、ゲームキャラクタを操作するために受け付ける入力操作の種類に応じて、カメラ配置制御部194がカメラワークを制御する。   On the other hand, in the game program 151 of the fifth embodiment, the camera placement control unit 194 controls the camera work in accordance with the type of input operation accepted to operate the game character.

図5の画面例(B)および図5の画面例(C)に示すように、ゲームプログラム151は、タップ操作により自キャラクタ134にサーブ動作を行わせる。制御部190は、自キャラクタ134にサーブ動作を行わせる場合、タッチスクリーン130の縦方向への自キャラクタ134の移動を規制し、タップ操作を受け付ける。図5の画面例(D)に示すように、ゲームプログラム151は、自キャラクタ134がサーブ動作を行った後、自キャラクタ134の移動方向の入力を、ドラッグ操作によってユーザから受け付ける。   As shown in the screen example (B) in FIG. 5 and the screen example (C) in FIG. 5, the game program 151 causes the player character 134 to perform a serve action by a tap operation. The control unit 190 restricts the movement of the player character 134 in the vertical direction of the touch screen 130 and accepts a tap operation when causing the player character 134 to perform a serve action. As shown in the screen example (D) of FIG. 5, the game program 151 accepts an input of the moving direction of the player character 134 from the user by a drag operation after the player character 134 performs a serve action.

このように、実施の形態5のゲームプログラム151は、自キャラクタ134の移動方向の入力を、上下左右について規制なくユーザからドラッグ操作により受け付ける場合は、一定領域139を空けて自キャラクタ134を配置するよう仮想カメラのカメラワークを制御する。   As described above, the game program 151 according to the fifth embodiment arranges the player character 134 with the fixed area 139 open when the input of the moving direction of the player character 134 is accepted by the drag operation from the user without restriction in the up, down, left, and right directions. Control the camera work of the virtual camera.

ユーザが上下左右の方向に規制なくドラッグ操作を行うことが必要である場合(ゲームプログラム151が上下左右の方向に規制なくドラッグ操作によってゲームキャラクタの移動方向の入力を受け付ける場合)、ユーザは、タッチスクリーン130の手前側の領域を空けて自キャラクタ134が表示されている方が、そうでない場合と比較して、タッチスクリーン130に対する入力操作を容易に行うことができる。これにより、ゲームの操作性をいっそう向上させることができる。   When the user needs to perform a drag operation without restriction in the up / down / left / right direction (when the game program 151 accepts an input of the moving direction of the game character by the drag operation without restriction in the up / down / left / right direction), the user touches When the self-character 134 is displayed with a space on the front side of the screen 130, an input operation on the touch screen 130 can be performed more easily than in the case where the local character 134 is not displayed. Thereby, the operativity of a game can be improved further.

<変形例>
以上のように各実施形態のゲーム配信システムを構成する携帯端末10およびサーバ20の動作について説明してきたが、携帯端末10で行われる各処理をサーバ20で行うこととしてもよいし、サーバ20で行われる処理を携帯端末10で行うこととしてもよい。
<Modification>
As described above, the operations of the mobile terminal 10 and the server 20 configuring the game distribution system of each embodiment have been described. However, each process performed by the mobile terminal 10 may be performed by the server 20 or may be performed by the server 20. It is good also as performing the process performed with the portable terminal 10. FIG.

例えば、携帯端末10は、タッチスクリーン130に対するユーザの入力操作を受け付けて、受け付けた操作内容をサーバ20へ送信する。サーバ20は、ユーザの入力操作を携帯端末10から受け付けて、ゲームを進行させるための各処理を行い、仮想カメラの配置に基づいて携帯端末10に表示させるための表示画面を生成し、生成した表示画面を、逐次、携帯端末10に表示する。このように、ゲームを進行させるための処理の大部分をサーバ20が担うこととしてもよい。また、ゲームを進行させるための処理の大部分を携帯端末10が担うこととしてもよい。   For example, the mobile terminal 10 receives a user input operation on the touch screen 130 and transmits the received operation content to the server 20. The server 20 receives a user input operation from the mobile terminal 10, performs each process for proceeding with the game, generates a display screen for display on the mobile terminal 10 based on the placement of the virtual camera, and generates the display screen The display screen is sequentially displayed on the mobile terminal 10. Thus, it is good also as the server 20 taking up most of the processes for advancing a game. Moreover, it is good also as the portable terminal 10 taking up most of the processes for advancing a game.

今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time must be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10 携帯端末、20 サーバ、22 通信IF、23 入出力IF、25 メモリ、26 ストレージ、29 プロセッサ、80 ネットワーク、81 無線基地局、82 無線ルータ、110 アンテナ、120 無線通信IF、130 タッチスクリーン、131 タッチパネル、132 ディスプレイ、134 自キャラクタ、136 相手側キャラクタ、138 打球対象オブジェクト、150 記憶部、151 ゲームプログラム、153 バッファメモリ、155 初期タッチ位置座標、160 音声処理部、170 マイク、180 スピーカ、190 制御部、191 入力操作受付部、192 ゲーム進行処理部、193 移動操作検出部、194 カメラ配置制御部、195 オブジェクト制御部、196 表示制御部、220 通信部、250 記憶部、251 ゲームプログラム、252 ゲーム情報、253 ユーザ情報、290 制御部、291 送受信部、292 サーバ処理部、293 データ管理部、294 マッチング部、295 計測部。   10 mobile terminal, 20 server, 22 communication IF, 23 input / output IF, 25 memory, 26 storage, 29 processor, 80 network, 81 wireless base station, 82 wireless router, 110 antenna, 120 wireless communication IF, 130 touch screen, 131 Touch panel, 132 display, 134 own character, 136 opponent character, 138 hit object, 150 storage unit, 151 game program, 153 buffer memory, 155 initial touch position coordinates, 160 voice processing unit, 170 microphone, 180 speaker, 190 control Unit, 191 input operation reception unit, 192 game progress processing unit, 193 movement operation detection unit, 194 camera arrangement control unit, 195 object control unit, 196 display control unit, 220 communication unit, 2 0 storage unit, 251 game program 252 game information, 253 user information, 290 control unit, 291 reception unit, 292 the server processing unit, 293 data management unit, 294 matching unit, 295 measuring unit.

Claims (10)

ゲームプログラムであって、
前記ゲームプログラムは、タッチ操作による入力操作を受け付けるタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行されるものであり、仮想空間内の仮想カメラの配置に応じた画面を前記タッチスクリーンに表示させるものであり、
前記ゲームプログラムは、前記プロセッサに、
ゲームキャラクタに第1の動作を行わせる場合に、前記ゲームキャラクタを、前記タッチスクリーンに表示させるよう前記仮想カメラを配置するステップと、
前記ゲームキャラクタに前記第1の動作を行わせる画面表示をし、前記タッチスクリーンの少なくとも1つの辺から中央部に向かう一定領域を空けて前記ゲームキャラクタを表示させるよう前記仮想カメラを移動させるステップと、
前記第1の動作に後続する第2の動作を前記ゲームキャラクタに行わせるための入力操作を受け付けて、受け付けた入力操作に応じて、前記ゲームキャラクタを前記タッチスクリーンに表示させるよう前記仮想カメラを移動させるステップとを実行させる、ゲームプログラム。
A game program,
The game program is executed on a computer including a touch screen that accepts an input operation by a touch operation, a processor, and a memory, and displays a screen on the touch screen according to the arrangement of a virtual camera in a virtual space. It is what
The game program is stored in the processor.
Disposing the virtual camera to cause the game character to display the game character on the touch screen when performing a first action;
Moving the virtual camera to display a screen for causing the game character to perform the first action, and to display the game character in a certain area from at least one side of the touch screen toward the center. ,
The virtual camera is configured to receive an input operation for causing the game character to perform a second motion subsequent to the first motion, and to display the game character on the touch screen in accordance with the received input operation. A game program for executing the moving step.
前記ゲームプログラムが前記仮想カメラを配置するステップには、
前記ゲームキャラクタに前記第1の動作を行わせる場合に、前記ゲームキャラクタを、前記タッチスクリーンの少なくとも1つの辺から中央部に向かう前記一定領域に表示させるよう前記仮想カメラを配置することが含まれる、請求項1に記載のゲームプログラム。
In the step of arranging the virtual camera by the game program,
When the game character is caused to perform the first action, the virtual camera is arranged so that the game character is displayed in the certain area from at least one side of the touch screen toward the center. The game program according to claim 1.
前記ゲームプログラムは、さらに、
前記ゲームキャラクタを前記一定領域に表示させるよう前記仮想カメラを配置した状態で、前記ゲームキャラクタに前記第1の動作を行わせるための入力操作を受け付けて、受け付けた前記入力操作に応じて前記ゲームキャラクタに前記第1の動作を行わせる画面表示をするステップを含む、請求項2に記載のゲームプログラム。
The game program further includes:
In a state where the virtual camera is arranged to display the game character in the certain area, an input operation for causing the game character to perform the first action is received, and the game is performed according to the received input operation. The game program according to claim 2, comprising a step of displaying a screen that causes the character to perform the first action.
前記ゲームプログラムが前記仮想カメラを移動させるステップには、
前記仮想空間において前記ゲームキャラクタが移動可能な範囲のうち、予め定められた一定範囲内で移動する場合は前記タッチスクリーンの少なくとも1つの辺から中央部に向かう一定領域を空けて前記ゲームキャラクタを表示させるよう前記仮想カメラを移動させ、
前記ゲームキャラクタが前記一定範囲外を移動する場合は、前記タッチスクリーンの少なくとも1つの辺から中央部に向かう一定領域においても前記ゲームキャラクタを前記タッチスクリーンに表示させるよう前記仮想カメラの移動を制御することが含まれる、請求項1から3のいずれか1項に記載のゲームプログラム。
In the step of moving the virtual camera by the game program,
When the game character moves within a predetermined range within the range in which the game character can move in the virtual space, the game character is displayed with a fixed region from at least one side of the touch screen toward the center. Move the virtual camera to
When the game character moves outside the fixed range, the movement of the virtual camera is controlled so that the game character is displayed on the touch screen even in a fixed region from at least one side of the touch screen toward the center. The game program according to claim 1, further comprising:
前記ゲームプログラムが前記仮想カメラを移動させるステップには、
前記ゲームキャラクタの移動方向を指定する入力操作を受け付けて、入力操作を受け付けた前記ゲームキャラクタの移動方向に従って前記仮想カメラを移動させ、
前記タッチスクリーンにおいて前記ゲームキャラクタを表示可能な領域に前記ゲームキャラクタを表示させ、
前記ゲームキャラクタを移動可能な方向のうち、前記一定領域への移動方向とは異なる方向については、前記一定領域への移動方向と比較して、前記タッチスクリーンにおいて前記ゲームキャラクタを表示可能な領域が広く設定されており、当該表示可能な領域を超える方向に前記ゲームキャラクタを移動させる場合に、前記ゲームキャラクタの移動方向に従って前記仮想カメラを移動させることが含まれる、請求項1から4のいずれか1項に記載のゲームプログラム。
In the step of moving the virtual camera by the game program,
Receiving an input operation for designating the moving direction of the game character, moving the virtual camera according to the moving direction of the game character that has received the input operation;
Displaying the game character in an area where the game character can be displayed on the touch screen;
Of the directions in which the game character can be moved, the direction different from the direction of movement to the certain area is an area in which the game character can be displayed on the touch screen as compared to the direction of movement to the certain area. 5. The method according to claim 1, wherein the virtual camera is set widely and includes moving the virtual camera according to a moving direction of the game character when moving the game character in a direction exceeding the displayable area. The game program according to item 1.
前記ゲームプログラムが前記仮想カメラを移動させるステップには、前記ゲームキャラクタを、前記ゲームキャラクタに対する入力操作に応じて移動させる第1の状態から、前記ゲームキャラクタの移動を伴う予め定められた動作を前記ゲームキャラクタに行わせる第2の状態に推移した場合に、前記タッチスクリーンにおいて前記ゲームキャラクタを表示可能な領域にかかわらず前記ゲームキャラクタの前記第2の状態に対応した前記ゲームキャラクタの動作に従って前記仮想カメラを移動させることが含まれる、請求項5に記載のゲームプログラム。   In the step of moving the virtual camera by the game program, a predetermined action involving the movement of the game character is performed from a first state in which the game character is moved in response to an input operation on the game character. When the game character transitions to the second state, the virtual character is moved according to the action of the game character corresponding to the second state of the game character regardless of the area where the game character can be displayed on the touch screen. The game program according to claim 5, comprising moving the camera. 前記仮想カメラを移動させるステップには、前記ゲームキャラクタに前記第1の動作を行わせる画面表示をした後に、前記タッチスクリーンの1つの辺から中央部に向かう略4分の1から略3分の1の一定領域を空けて前記ゲームキャラクタを表示させるよう前記仮想カメラを移動させることが含まれる、請求項1から6のいずれか1項に記載のゲームプログラム。   In the step of moving the virtual camera, after displaying the screen for causing the game character to perform the first action, from about one quarter to about three minutes from one side of the touch screen toward the center. The game program according to claim 1, further comprising moving the virtual camera so that the game character is displayed in a certain area. 前記ゲームプログラムは、前記入力操作を受け付けることによりプレイヤが操作する前記ゲームキャラクタと、前記ゲームキャラクタと対戦する相手側キャラクタとの間で、対象物を交互に打ち返すスポーツゲームにかかるものであり、
前記ゲームキャラクタに行わせる前記第1の動作には、前記スポーツゲームにおけるサーブ動作が含まれ、
前記ゲームキャラクタに行わせる前記第2の動作には、前記サーブ動作後に前記相手側キャラクタと前記対象物を交互に打ち返すために前記ゲームキャラクタを移動させる動作が少なくとも含まれる、請求項1から7のいずれか1項に記載のゲームプログラム。
The game program is related to a sports game in which an object is turned back alternately between the game character operated by the player by accepting the input operation and an opponent character that battles the game character,
The first action to be performed by the game character includes a serve action in the sports game,
The second action to be performed by the game character includes at least an action of moving the game character to alternately return the opponent character and the object after the serve action. The game program according to any one of the above.
タッチ操作による入力操作を受け付けるタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータが、前記タッチスクリーンに仮想空間内の仮想カメラの配置に応じた画面を表示させる方法であって、
前記方法は、前記プロセッサが、
ゲームキャラクタに第1の動作を行わせる場合に、前記ゲームキャラクタを、前記タッチスクリーンに表示させるよう前記仮想カメラを配置するステップと、
前記ゲームキャラクタに前記第1の動作を行わせる画面表示をし、前記タッチスクリーンの少なくとも1つの辺から中央部に向かう一定領域を空けて前記ゲームキャラクタを表示させるよう前記仮想カメラを移動させるステップと、
前記第1の動作に後続する第2の動作を前記ゲームキャラクタに行わせるための入力操作を前記タッチスクリーンにより受け付けて、受け付けた入力操作に応じて、前記ゲームキャラクタを前記タッチスクリーンに表示させるよう前記仮想カメラを移動させるステップとを実行することを含む、方法。
A computer comprising a touch screen that accepts an input operation by a touch operation, a processor, and a memory, causes the touch screen to display a screen according to the arrangement of virtual cameras in a virtual space,
In the method, the processor comprises:
Disposing the virtual camera to cause the game character to display the game character on the touch screen when performing a first action;
Moving the virtual camera to display a screen for causing the game character to perform the first action, and to display the game character in a certain area from at least one side of the touch screen toward the center. ,
An input operation for causing the game character to perform a second action subsequent to the first action is received by the touch screen, and the game character is displayed on the touch screen in accordance with the received input operation. Moving the virtual camera.
タッチ操作による入力操作を受け付けるタッチスクリーンを備える情報処理装置であって、
前記情報処理装置は、
ゲームプログラムを記憶するように構成された記憶部と、
前記情報処理装置の動作を制御するように構成され、前記ゲームプログラムを実行することにより、仮想空間内の仮想カメラの配置に応じた画面を前記タッチスクリーンに表示させるように構成された制御部とを備え、
前記制御部は、
前記タッチスクリーンに対する入力操作に基づいて、ゲームキャラクタを移動させる入力操作の操作内容を検出する移動操作検出部と、
前記ゲームキャラクタに第1の動作を行わせる場合に、前記ゲームキャラクタを、前記タッチスクリーンに表示させるよう前記仮想カメラを配置し、前記ゲームキャラクタに前記第1の動作を行わせる画面表示をし、前記タッチスクリーンの少なくとも1つの辺から中央部に向かう一定領域を空けて前記ゲームキャラクタを表示させるよう前記仮想カメラを移動させ、前記第1の動作に後続する第2の動作を前記ゲームキャラクタに行わせるための入力操作を受け付けて、受け付けた入力操作に応じて、前記ゲームキャラクタを前記タッチスクリーンに表示させるよう前記仮想カメラを移動させるカメラ配置制御部とを含む、情報処理装置。

An information processing apparatus including a touch screen that accepts an input operation by a touch operation,
The information processing apparatus includes:
A storage unit configured to store a game program;
A control unit configured to control an operation of the information processing apparatus and configured to display a screen according to an arrangement of a virtual camera in a virtual space on the touch screen by executing the game program; With
The controller is
A moving operation detection unit that detects the operation content of the input operation for moving the game character based on the input operation on the touch screen;
When the game character is caused to perform a first action, the virtual camera is arranged to cause the game character to be displayed on the touch screen, and the game character is caused to display the screen. The virtual camera is moved so as to display the game character in a certain area from at least one side of the touch screen toward the center, and a second action subsequent to the first action is performed on the game character. An information processing apparatus including: a camera arrangement control unit that receives an input operation for causing the virtual character to move and moves the virtual camera to display the game character on the touch screen in accordance with the received input operation.

JP2016073379A 2016-03-31 2016-03-31 Information processing apparatus including game program, method, and touch screen Active JP6002344B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016073379A JP6002344B1 (en) 2016-03-31 2016-03-31 Information processing apparatus including game program, method, and touch screen
PCT/JP2017/010258 WO2017169748A1 (en) 2016-03-31 2017-03-14 Game program, method, and information processing device comprising touch screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016073379A JP6002344B1 (en) 2016-03-31 2016-03-31 Information processing apparatus including game program, method, and touch screen

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016170444A Division JP2017185189A (en) 2016-09-01 2016-09-01 Game program, method, and information processor including touch screen

Publications (2)

Publication Number Publication Date
JP6002344B1 JP6002344B1 (en) 2016-10-05
JP2017176764A true JP2017176764A (en) 2017-10-05

Family

ID=57048596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016073379A Active JP6002344B1 (en) 2016-03-31 2016-03-31 Information processing apparatus including game program, method, and touch screen

Country Status (2)

Country Link
JP (1) JP6002344B1 (en)
WO (1) WO2017169748A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020105269A1 (en) * 2018-11-19 2020-05-28 ソニー株式会社 Information processing device, information processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003093735A (en) * 2002-08-05 2003-04-02 Namco Ltd Game device and information storage medium
JP2005349174A (en) * 2004-05-10 2005-12-22 Nintendo Co Ltd Game program and game device
JP2009000383A (en) * 2007-06-22 2009-01-08 Namco Bandai Games Inc Program, information recording medium and image generating system
JP2013039232A (en) * 2011-08-16 2013-02-28 Sega Corp Computer game device, control method and game program for controlling computer game device, and storage medium on which game program is stored
JP2013056095A (en) * 2011-09-09 2013-03-28 Nintendo Co Ltd Game system, portable game device, method of controlling information processing unit, and control program of information processing unit
JP2015123244A (en) * 2013-12-26 2015-07-06 株式会社バンダイナムコエンターテインメント Program and game device
JP2016013410A (en) * 2014-06-13 2016-01-28 株式会社コナミデジタルエンタテインメント Game control apparatus, game system, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003093735A (en) * 2002-08-05 2003-04-02 Namco Ltd Game device and information storage medium
JP2005349174A (en) * 2004-05-10 2005-12-22 Nintendo Co Ltd Game program and game device
JP2009000383A (en) * 2007-06-22 2009-01-08 Namco Bandai Games Inc Program, information recording medium and image generating system
JP2013039232A (en) * 2011-08-16 2013-02-28 Sega Corp Computer game device, control method and game program for controlling computer game device, and storage medium on which game program is stored
JP2013056095A (en) * 2011-09-09 2013-03-28 Nintendo Co Ltd Game system, portable game device, method of controlling information processing unit, and control program of information processing unit
JP2015123244A (en) * 2013-12-26 2015-07-06 株式会社バンダイナムコエンターテインメント Program and game device
JP2016013410A (en) * 2014-06-13 2016-01-28 株式会社コナミデジタルエンタテインメント Game control apparatus, game system, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"THE テニス", 月刊アプリスタイル, vol. 第1巻第6号, JPN6016030853, 28 November 2014 (2014-11-28), JP, pages 61, ISSN: 0003378615 *
"パワースマッシュチャレンジ【パワスマ】Part.9「ベリーハードの壁!」[online]", YOUTUBE投稿動画, JPN6016030851, 10 April 2016 (2016-04-10), pages 1 - 5, ISSN: 0003378614 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020105269A1 (en) * 2018-11-19 2020-05-28 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
WO2017169748A1 (en) 2017-10-05
JP6002344B1 (en) 2016-10-05

Similar Documents

Publication Publication Date Title
WO2018113653A1 (en) Scene switching method based on mobile terminal, and mobile terminal
JP6450875B1 (en) GAME PROGRAM, GAME METHOD, AND INFORMATION PROCESSING DEVICE
JP6002345B1 (en) Information processing apparatus including game program, method, and touch screen
WO2018090909A1 (en) Mobile terminal-based object scanning method and mobile terminal
CN112402971B (en) Virtual object control method, device, computer equipment and storage medium
JP6924564B2 (en) Game program
JP6673796B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
JP2017192538A (en) Game program, method, and information processor with touch screen
JP6404877B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
JP6002344B1 (en) Information processing apparatus including game program, method, and touch screen
JP2017192537A (en) Game program, method, and information processor with touch screen
JP6174202B1 (en) Information processing apparatus provided with game program, method, and touch screen
TWI729323B (en) Interactive gamimg system
JP2017185189A (en) Game program, method, and information processor including touch screen
JP2018153467A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP2018020150A (en) Game program, method, and information processor with touch screen
JP2018033972A (en) Game program, method and information processing device including touch screen
JP2017221676A (en) Game program, method, and information processor with touch screen
JP2020110352A (en) Game program, game method, and information processor
JP6209243B1 (en) Information processing apparatus provided with game program, method, and touch screen
JP2019181167A (en) Game program, method, and information processor
JP2018192326A (en) Game program, method for providing game and information processor
JP2020022574A (en) Game program, method, and information processing device
JP7216154B2 (en) Game program, method and information processing device with touch screen
JP6480056B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160707

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160902

R150 Certificate of patent or registration of utility model

Ref document number: 6002344

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250