JP2019051360A - Game program, game providing method, and information processor - Google Patents

Game program, game providing method, and information processor Download PDF

Info

Publication number
JP2019051360A
JP2019051360A JP2018220774A JP2018220774A JP2019051360A JP 2019051360 A JP2019051360 A JP 2019051360A JP 2018220774 A JP2018220774 A JP 2018220774A JP 2018220774 A JP2018220774 A JP 2018220774A JP 2019051360 A JP2019051360 A JP 2019051360A
Authority
JP
Japan
Prior art keywords
display
aspect ratio
game
virtual camera
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018220774A
Other languages
Japanese (ja)
Inventor
功淳 馬場
Naruatsu Baba
功淳 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2018220774A priority Critical patent/JP2019051360A/en
Publication of JP2019051360A publication Critical patent/JP2019051360A/en
Pending legal-status Critical Current

Links

Images

Abstract

To prevent a user from having a sense of incongruity even if a display mode is switched in a game permitting switching of a display mode of a screen.SOLUTION: A portable terminal includes a rectangular display, a processor, and an inclination sensor for detecting an inclination. A game program allows the processor to execute a step S1520 of switching an aspect ratio of sight of a virtual camera disposed in a virtual space between a first vertically long aspect ratio and a second horizontally long aspect ratio according to a detection result of the inclination sensor, and a step of displaying an image in that a first component is superposed in a position in which a predetermined condition is satisfied on a display in a first photographed image photographed by the virtual camera with the first aspect ratio, and a second photographed image photographed with the second aspect ratio. The first component is temporarily displayed on the display in a state in which at least one portion of the photographed image is displayed on the display.SELECTED DRAWING: Figure 15

Description

この開示は、ゲームプログラムの技術に関し、より特定的には、画面に表示する内容を
制御する技術に関する。
This disclosure relates to a technique of a game program, and more specifically, to a technique of controlling contents displayed on a screen.

近年、スマートフォンやタブレットなどの携帯端末向けのゲームが急速に普及している
。一般的に、これら携帯端末は、長方形のディスプレイを搭載する。携帯端末向けゲーム
の中には、携帯端末に搭載されるディスプレイの長辺と短辺の長さに合わせて、ゲーム画
面を縦長のアスペクト比の画面と、横長のアスペクト比の画面との間で切り替えるものが
ある(非特許文献1)。
In recent years, games for mobile terminals such as smartphones and tablets are rapidly spreading. Generally, these portable terminals are equipped with a rectangular display. In some games for mobile devices, the game screen is placed between a screen with a vertical aspect ratio and a screen with a horizontal aspect ratio according to the length of the long side and the short side of the display mounted on the mobile device. There is something to switch (Non-Patent Document 1).

“ファミ通App コロプラの新作「スリリングショットブレイブズ」さっそくプレイ指南”、[online]、[平成28年6月27日検索]、インターネット〈URL:http://app.famitsu.com/20140303_326407/〉“Famitsu App Koropura's new work“ Thrilling Shot Braves ”Play Guide”, [online], [Search June 27, 2016], Internet <URL: http://app.famitsu.com/20140303_326407/>

ところで、ユーザは、ゲームを進行させるにあたって、画面に表示される情報を都度確
認しながら、携帯端末やコントローラなどを操作する。
By the way, when a user advances a game, the user operates a mobile terminal, a controller, or the like while checking information displayed on the screen each time.

そのため、上記のように画面の表示態様が切り替わる場合においても、ユーザが必要と
する情報を、ユーザが見やすい形態で表示する技術が求められている。
Therefore, even when the screen display mode is switched as described above, there is a demand for a technique for displaying information required by the user in a form that is easy for the user to view.

本開示は、上記のような問題を解決するためになされたものであって、ある局面におけ
る目的は、画面の表示態様を切り替え可能なゲームにおいて、表示態様が切り替わった場
合でも、ユーザに違和感を抱かせない技術を提供することである。
The present disclosure has been made in order to solve the above-described problems, and an object in one aspect is to make the user feel uncomfortable even when the display mode is switched in a game in which the display mode of the screen can be switched. It is to provide technology that cannot be held.

ある実施形態に従うと、携帯端末で実行されるゲームプログラムが提供される。この携
帯端末は、矩形のディスプレイと、プロセッサと、傾きを検出するための傾きセンサとを
備える。このゲームプログラムは、プロセッサに、仮想空間を規定するステップと、仮想
空間に仮想カメラを配置するステップと、傾きセンサの検出結果に応じて、仮想カメラの
視界のアスペクト比を、縦長の第1アスペクト比と横長の第2アスペクト比との間で切り
替えるステップと、仮想カメラの撮影する撮影画像に、撮影画像とは独立した部品画像を
重ね合わせた画像をディスプレイに表示するステップとを実行させる。部品画像は、撮影
画像の少なくとも一部がディスプレイに表示されている状態において一時的にディスプレ
イに表示される第1部品を含む。表示するステップは、仮想カメラが第1アスペクト比で
撮影する第1撮影画像、および第2アスペクト比で撮影する第2撮影画像において、予め
定められた条件を満たす位置に第1部品を重ね合わせることを含む。
According to an embodiment, a game program that is executed on a mobile terminal is provided. This portable terminal includes a rectangular display, a processor, and an inclination sensor for detecting inclination. The game program includes a step of defining a virtual space in a processor, a step of arranging a virtual camera in the virtual space, and an aspect ratio of a virtual camera field of view according to a detection result of a tilt sensor, and a first aspect of a vertically long aspect. And a step of switching between the ratio and the horizontal second aspect ratio, and a step of displaying on the display an image obtained by superimposing a component image independent of the captured image on the captured image captured by the virtual camera. The component image includes a first component that is temporarily displayed on the display in a state where at least a part of the captured image is displayed on the display. In the displaying step, the first component is superimposed on a position satisfying a predetermined condition in the first captured image captured by the virtual camera at the first aspect ratio and the second captured image captured at the second aspect ratio. including.

この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解
されるこの発明に関する次の詳細な説明から明らかとなるであろう。
The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

ある実施形態に従うゲーム配信システムの構成例を示す図である。It is a figure which shows the structural example of the game delivery system according to a certain embodiment. ある実施形態に従う携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of the portable terminal according to a certain embodiment. ある実施形態に従うサーバの機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the server according to a certain embodiment. ある実施形態に従う仮想空間および仮想カメラについて説明する図である。It is a figure explaining the virtual space and virtual camera according to a certain embodiment. 仮想カメラの視界領域をX方向から見たYZ断面を表す図である。It is a figure showing the YZ cross section which looked at the visual field area of the virtual camera from the X direction. 仮想カメラの視界領域をY方向から見たXZ断面を表す図である。It is a figure showing the XZ cross section which looked at the visual field area | region of the virtual camera from the Y direction. ある実施形態に従う縦画面表示と横画面表示との切り替えについて説明する図である。It is a figure explaining switching with the vertical screen display and horizontal screen display according to a certain embodiment. ある実施形態に従うタッチスクリーンに表示される画像の生成方法の一例について説明する図である。It is a figure explaining an example of the production | generation method of the image displayed on the touch screen according to a certain embodiment. ある実施形態に従う常時表示部品と一時表示部品とについて説明する図である。It is a figure explaining the regular display components and temporary display components according to a certain embodiment. ある実施形態に従う縦長画面および横長画面における一時表示部品の位置関係について説明する図(その1)である。It is FIG. (1) explaining the positional relationship of the temporary display components in the portrait screen and landscape screen according to a certain embodiment. 他の実施形態に従う縦長画面および横長画面における一時表示部品の位置関係について説明する図(その2)である。It is FIG. (2) explaining the positional relationship of the temporary display components in the portrait screen and landscape screen according to other embodiment. さらに他の実施形態に従う縦長画面および横長画面における一時表示部品780の位置関係について説明する図(その3)である。It is FIG. (3) explaining the positional relationship of the temporary display components 780 on the portrait screen and landscape screen according to still another embodiment. さらに他の実施形態に従う縦長画面および横長画面における一時表示部品780の位置関係について説明する図(その4)である。It is FIG. (4) explaining the positional relationship of the temporary display component 780 in the portrait-oriented screen and landscape-oriented screen according to other embodiment. さらに他の実施形態に従う縦長画面および横長画面における一時表示部品1420の位置関係について説明する図(その5)である。It is FIG. (5) explaining the positional relationship of the temporary display component 1420 in the portrait orientation screen and landscape orientation screen according to other embodiment. 縦長画面および横長画面を切り替えるとき制御について説明するフローチャートである。It is a flowchart explaining control when switching a vertically long screen and a horizontally long screen.

以下、この発明の実施形態について図面を参照しながら詳細に説明する。以下の説明で
は、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。し
たがって、それらについての詳細な説明は繰り返さない。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

(ゲーム配信システム1の構成)
図1は、ある実施形態に従うゲーム配信システム1の構成例を示す図である。図1に示
すように、ゲーム配信システム1は、ユーザが使用する情報処理装置と、サーバ20とを
含む。情報処理装置とサーバ20とは、ネットワーク80によって互いに通信可能に接続
されている。
(Configuration of game distribution system 1)
FIG. 1 is a diagram illustrating a configuration example of a game distribution system 1 according to an embodiment. As shown in FIG. 1, the game distribution system 1 includes an information processing apparatus used by a user and a server 20. The information processing apparatus and the server 20 are connected to each other via a network 80 so that they can communicate with each other.

図1の例では、ユーザが使用する情報処理装置として、携帯端末10A、携帯端末10
Bおよび携帯端末10C(以下、携帯端末10A、10B、10Cなどの携帯端末を総称
して「携帯端末10」と表すこともある)など複数の携帯端末が示されている。携帯端末
10Aと携帯端末10Bとは、無線基地局81と通信することにより、ネットワーク80
と接続する。携帯端末10Cは、家屋などの施設に設置される無線ルータ82と通信する
ことにより、ネットワーク80と接続する。携帯端末10は、タッチスクリーンを備える
端末であり、例えば、スマートフォン、ファブレット、タブレットなどである。
In the example of FIG. 1, as the information processing apparatus used by the user, the mobile terminal 10 </ b> A, the mobile terminal 10
A plurality of mobile terminals such as B and mobile terminal 10C (hereinafter, mobile terminals such as mobile terminals 10A, 10B, and 10C may be collectively referred to as “mobile terminal 10”) are illustrated. The mobile terminal 10 </ b> A and the mobile terminal 10 </ b> B communicate with the radio base station 81, so that the network 80
Connect with. The mobile terminal 10C is connected to the network 80 by communicating with a wireless router 82 installed in a facility such as a house. The mobile terminal 10 is a terminal provided with a touch screen, and is, for example, a smartphone, a fablet, a tablet, or the like.

携帯端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じた
ゲームをプレイする環境をユーザに対して提供する。携帯端末10には、例えば、アプリ
等を配信するプラットフォームを介してダウンロードされたゲームプログラムがインスト
ールされる。携帯端末10は、ダウンロードされたゲームプログラム、または、予めプリ
インストールされているゲームプログラムを実行することで、ユーザによるゲームのプレ
イを可能とする。携帯端末10が、ゲームプログラムを実行すると、携帯端末10と、サ
ーバ20とが、通信して、ゲームの進行に応じてゲームに関連するデータが、携帯端末1
0とサーバ20との間で送受信される。
The mobile terminal 10 provides a user with an environment for playing a game according to the game program by executing the game program. For example, a game program downloaded via a platform for distributing an application or the like is installed in the mobile terminal 10. The mobile terminal 10 enables a user to play a game by executing a downloaded game program or a pre-installed game program. When the mobile terminal 10 executes the game program, the mobile terminal 10 and the server 20 communicate with each other, and data related to the game is transferred to the mobile terminal 1 according to the progress of the game.
0 is transmitted and received between the server 20 and the server 20.

サーバ20は、ゲームのプレイに必要なデータを、適宜、携帯端末10へ送信すること
で、携帯端末10でのゲームのプレイを進行させる。サーバ20は、ゲームをプレイする
各ユーザの、ゲームに関連する各種データを管理する。サーバ20は、携帯端末10と通
信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータその他のデータを
携帯端末10へ送信する。
The server 20 advances the game play on the mobile terminal 10 by appropriately transmitting data necessary for the game play to the mobile terminal 10. The server 20 manages various data related to the game of each user who plays the game. The server 20 communicates with the mobile terminal 10 and transmits images, sounds, text data, and other data to the mobile terminal 10 in accordance with the progress of each user's game.

例えば、サーバ20は、ユーザがゲームのストーリーを進行させた進行状況、ユーザが
使用可能なキャラクタの情報(例えば、キャラクタの能力を示すパラメータ)、当該キャ
ラクタが使用する道具の性能を示すパラメータその他の各種データを管理する。また、サ
ーバ20は、ゲームの運営者がユーザに対して行なうキャンペーン、ゲームにおける不具
合の発生、不具合の解消その他のゲームの運営に関連する情報等をユーザに通知する処理
を行なう。
For example, the server 20 determines the progress of the game story by the user, information on characters that the user can use (for example, parameters indicating the ability of the character), parameters indicating the performance of the tool used by the character, and other parameters. Manage various data. In addition, the server 20 performs a process of notifying the user of a campaign performed by the game operator for the user, occurrence of a defect in the game, resolution of the defect, and other information related to game management.

ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレ
イする場合(シングルプレイ)と、複数人のユーザが協力してプレイする場合(マルチプ
レイ)とに対応している。例えば、ゲーム配信システム1のサーバ20が、マルチプレイ
に参加するユーザを特定して各ユーザの各携帯端末10と通信すること等により、マルチ
プレイでゲームをプレイする環境を各ユーザに提供する。
The game program corresponds to a mode in which a user plays a game when a single user plays (single play) and when a plurality of users play in cooperation (multiplay). For example, the server 20 of the game distribution system 1 provides each user with an environment for playing a game in multiplayer by specifying a user participating in multiplay and communicating with each mobile terminal 10 of each user.

ゲーム配信システム1は、マルチプレイに対応することにより、例えば、アクションゲ
ームであれば、ユーザ同士が協力してゲームを進行させること、または、ユーザどうしで
の対戦を可能とする。
For example, in the case of an action game, the game distribution system 1 enables the users to cooperate with each other to advance the game or to play a battle between users.

<構成>
サーバ20のハードウェアの構成を説明する。サーバ20は、主たる構成要素として、
通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、
プロセッサ29とを備える。各構成要素は、通信バスを介して互いに接続されている。
<Configuration>
The hardware configuration of the server 20 will be described. Server 20 is the main component:
A communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26,
And a processor 29. Each component is connected to each other via a communication bus.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対
応しており、携帯端末10など外部の通信機器との間でデータを送受信するためのインタ
フェースとして機能する。
The communication IF 22 corresponds to various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from an external communication device such as the mobile terminal 10.

入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外
部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、
キーボード等の情報入力機器の接続を受け付ける入力受付部と、ディスプレイ等の情報出
力機器の接続を受け付ける出力部とを含む。入力受付部は、一例として、PS/2コネク
タ、USB(Universal Serial Bus)コネクタ等により実現される。出力部は、一例と
して、VGA(Video Graphics Array)コネクタ、DVI(Digital Visual Interfa
ce)コネクタ、HDMI(High Definition Multimedia Interface)(登録商標)コ
ネクタ、Displayportコネクタ等により実現される。
The input / output IF 23 functions as an interface for receiving information input to the server 20 and outputting information to the outside of the server 20. The input / output IF 23 is a mouse,
An input receiving unit that receives connection of an information input device such as a keyboard and an output unit that receives connection of an information output device such as a display are included. For example, the input receiving unit is realized by a PS / 2 connector, a USB (Universal Serial Bus) connector, or the like. For example, the output unit includes a VGA (Video Graphics Array) connector and a DVI (Digital Visual Interfa
ce) connector, HDMI (High Definition Multimedia Interface) (registered trademark) connector, Displayport connector, and the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ2
5は、例えば、プロセッサ29が処理を行なう際に一時的に使用するための作業領域をプ
ロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Rand
om Access Memory)等により実現される。
The memory 25 is a storage device for storing data used for processing. Memory 2
5 provides the processor 29 with a work area for temporary use when the processor 29 performs processing, for example. The memory 25 includes ROM (Read Only Memory), RAM (Rand
om Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラムおよび
データを記憶するための記憶装置である。ストレージ26が記憶する情報は、ゲームプロ
グラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報
その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメ
モリ等により実現される。
The storage 26 is a storage device for storing various programs and data for the processor 29 to read and execute. The information stored in the storage 26 includes a game program, information related to the game program, information on a user who plays the game program, and other information. The storage 26 is realized by an HDD (Hard Disk Drive), a flash memory, or the like.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行するこ
とにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central
Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Proce
ssing Unit)等を含む。
The processor 29 controls the operation of the server 20 by reading and executing a program or the like stored in the storage 26. The processor 29 is, for example, a CPU (Central
Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Proce
ssing Unit).

(携帯端末10の構成)
図2は、ある実施形態に従う携帯端末10の構成を示すブロック図である。図2を参照
して、携帯端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン1
30と、入出力IF140と、記憶部150と、音声処理回路160と、マイク170と
、スピーカ180と、加速度センサ185と、プロセッサ190とを備える。
(Configuration of mobile terminal 10)
FIG. 2 is a block diagram illustrating a configuration of the mobile terminal 10 according to an embodiment. With reference to FIG. 2, the mobile terminal 10 includes an antenna 110, a wireless communication IF 120, and a touch screen 1.
30, input / output IF 140, storage unit 150, sound processing circuit 160, microphone 170, speaker 180, acceleration sensor 185, and processor 190.

アンテナ110は、携帯端末10が発する信号を電波として空間へ放射する。また、ア
ンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ送出する。
The antenna 110 radiates a signal emitted from the mobile terminal 10 to space as a radio wave. In addition, the antenna 110 receives radio waves from the space and sends a reception signal to the wireless communication IF 120.

無線通信IF120は、アンテナ110等を介して他の通信機器と信号を送受信するた
めの変復調処理などを行なう無線通信用の通信モジュールとして機能する。無線通信IF
120は、チューナー、高周波回路等により実現される。無線通信IF120は、携帯端
末10が送受信する無線信号の変復調や周波数変換を行い、受信信号をプロセッサ190
へ出力する。
The wireless communication IF 120 functions as a communication module for wireless communication that performs modulation / demodulation processing for transmitting / receiving signals to / from other communication devices via the antenna 110 or the like. Wireless communication IF
120 is realized by a tuner, a high-frequency circuit, or the like. The wireless communication IF 120 performs modulation / demodulation and frequency conversion of a wireless signal transmitted / received by the mobile terminal 10 and converts the received signal into a processor 190
Output to.

タッチスクリーン130は、ユーザからの入力を受け付ける。プロセッサ190は、当
該入力に応じた情報をディスプレイ132に出力する。タッチスクリーン130は、ユー
ザの入力操作を受け付けるための部材(タッチパネル131)を含む。また、タッチスク
リーン130は、メニュー画面や、ゲームの進行を画面に表示するための部材(ディスプ
レイ132)を含む。一例として、タッチパネル131およびディスプレイ132は、縦
の長さと横の長さとが異なる矩形である。タッチパネル131は、例えば静電容量方式に
従い、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD
(Liquid Crystal Display)、有機EL(ElectroLuminescence)ディスプレイその他
の表示装置によって実現される。
The touch screen 130 receives input from the user. The processor 190 outputs information corresponding to the input to the display 132. Touch screen 130 includes a member (touch panel 131) for accepting a user's input operation. The touch screen 130 includes a menu screen and a member (display 132) for displaying the progress of the game on the screen. As an example, the touch panel 131 and the display 132 are rectangles having different vertical lengths and horizontal lengths. The touch panel 131 detects that a user's finger or the like has approached, for example, according to a capacitance method. The display 132 is, for example, an LCD
(Liquid Crystal Display), organic EL (ElectroLuminescence) display, and other display devices.

入出力IF140は、携帯端末10への情報の入力を受け付けるとともに、携帯端末1
0の外部へ情報を出力するためのインタフェースとして機能する。入出力IF140は、
一例として、USB(Universal Serial Bus)コネクタ等により実現される。
The input / output IF 140 accepts input of information to the mobile terminal 10, and the mobile terminal 1
0 functions as an interface for outputting information to the outside. The input / output IF 140 is
As an example, it is realized by a USB (Universal Serial Bus) connector or the like.

記憶部150は、フラッシュメモリ、RAM(Random Access Memory)等により構成
され、携帯端末10が使用するプログラム、および、携帯端末10がサーバ20から受信
する各種データ等を記憶する。
The storage unit 150 includes a flash memory, a RAM (Random Access Memory), and the like, and stores programs used by the mobile terminal 10 and various data received by the mobile terminal 10 from the server 20.

音声処理回路160は、音声信号の変復調を行なう。音声処理回路160は、マイク1
70から入力される信号を変調して、変調後の信号をプロセッサ190に出力する。また
、音声処理回路160は、音声信号をスピーカ180に出力する。音声処理回路160は
、例えば、音声処理用のプロセッサによって実現される。マイク170は、周囲の音声を
音声信号に変換してプロセッサ190へ出力するための音声入力部として機能する。スピ
ーカ180は、音声信号を音声に変換して、携帯端末10の外部へ出力するための音声出
力部として機能する。
The audio processing circuit 160 performs modulation / demodulation of the audio signal. The audio processing circuit 160 is connected to the microphone 1
The signal input from 70 is modulated, and the modulated signal is output to the processor 190. In addition, the audio processing circuit 160 outputs an audio signal to the speaker 180. The sound processing circuit 160 is realized by, for example, a sound processing processor. The microphone 170 functions as an audio input unit for converting ambient audio into an audio signal and outputting the audio signal to the processor 190. The speaker 180 functions as a sound output unit for converting a sound signal into sound and outputting the sound to the outside of the mobile terminal 10.

加速度センサ185は、携帯端末10の傾きを検知する。加速度センサ185は、重力
加速度の計測が可能で、携帯端末10の姿勢、より具体的には、重力方向に対するディス
プレイ132の傾きを検出し得る。傾きを検出するためのセンサとしては、加速度センサ
185の他にも、例えばジャイロセンサ、傾斜センサなどを用いてもよい。
The acceleration sensor 185 detects the tilt of the mobile terminal 10. The acceleration sensor 185 can measure gravitational acceleration, and can detect the attitude of the mobile terminal 10, more specifically, the inclination of the display 132 with respect to the direction of gravity. In addition to the acceleration sensor 185, for example, a gyro sensor or an inclination sensor may be used as a sensor for detecting the inclination.

プロセッサ190は、記憶部150に記憶されるプログラムを読み込んで実行すること
により、携帯端末10の動作を制御する。
The processor 190 controls the operation of the mobile terminal 10 by reading and executing a program stored in the storage unit 150.

携帯端末10がゲームプログラム151を実行する処理について、より詳細に説明する
。ある局面において、記憶部150は、ゲームプログラム151と、ゲーム情報152と
、ユーザ情報153とを記憶する。携帯端末10は、例えば、サーバ20からゲームプロ
グラムをダウンロードして記憶部150に記憶させる。また、携帯端末10は、ゲームの
進行に伴いサーバ20と通信することで、ゲーム情報152およびユーザ情報153等の
各種のデータをサーバ20と送受信する。
A process in which the mobile terminal 10 executes the game program 151 will be described in more detail. In one aspect, the storage unit 150 stores a game program 151, game information 152, and user information 153. For example, the mobile terminal 10 downloads a game program from the server 20 and stores the game program in the storage unit 150. Moreover, the portable terminal 10 transmits / receives various data, such as game information 152 and user information 153, with the server 20 by communicating with the server 20 with progress of a game.

ゲームプログラム151は、携帯端末10においてゲームを進行させるためのプログラ
ムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む
。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置するオブジェクトの情報
、オブジェクトに対応付けられた効果の情報(例えば、キャラクタに設定されるスキルの
情報)などを含む。ユーザ情報153は、ゲームをプレイするユーザについての情報を含
む。ユーザ情報153は、例えば、ゲームをプレイするユーザを識別する情報、マルチプ
レイ時に協力してゲームをプレイする他のユーザを識別する情報その他の情報を含む。
The game program 151 is a program for causing the mobile terminal 10 to advance a game. The game information 152 includes various data referred to by the game program 151. The game information 152 includes, for example, information on objects arranged in the virtual space in the game, information on effects associated with the objects (for example, information on skills set for characters), and the like. The user information 153 includes information about the user who plays the game. The user information 153 includes, for example, information for identifying a user who plays a game, information for identifying other users who play a game in cooperation with multi-play, and other information.

プロセッサ190は、ゲームプログラム151を読み込んで実行することにより、入力
操作受付部191、ゲーム進行処理部192、移動操作検出部193、仮想カメラ制御部
194、オブジェクト制御部195、および表示制御部196として機能する。
The processor 190 reads and executes the game program 151, thereby providing an input operation receiving unit 191, a game progress processing unit 192, a moving operation detection unit 193, a virtual camera control unit 194, an object control unit 195, and a display control unit 196. Function.

入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操
作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル
131に接近したことを、タッチスクリーン130を構成する面の横軸および縦軸からな
る座標系の座標として検出する。
The input operation accepting unit 191 accepts a user input operation based on the output of the touch screen 130. Specifically, the input operation accepting unit 191 detects that a user's finger or the like has approached the touch panel 131 as coordinates in a coordinate system including a horizontal axis and a vertical axis of a surface constituting the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。
入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3
)「タップ操作」、(4)「ダブルタップ操作」、(5)「長押し操作(ロングタッチ操
作)」、(6)「ドラッグ操作(スワイプ操作)」、(7)「ムーブ操作」、(8)「フ
リック操作」、その他のユーザの操作を判別する。入力操作受付部191が判別するユー
ザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル
131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部1
91は、ユーザが押下した圧力の大きさを判別する。また、プロセッサ190は、タッチ
スクリーン130へのユーザの指などの接近を検出している状態を、「タッチオン状態」
と判別する。プロセッサ190は、タッチスクリーン130へのユーザの指などの接近を
検出しない状態を、「タッチオフ状態」と判別する。プロセッサ190は、タッチスクリ
ーン130が逐次出力するユーザの指などの接近位置を示す座標を、「タッチナウ」の座
標として受け付ける。
The input operation reception unit 191 determines a user operation on the touch screen 130.
The input operation reception unit 191 may, for example, (1) “approach operation”, (2) “release operation”, (3
) “Tap operation”, (4) “double tap operation”, (5) “long press operation (long touch operation)”, (6) “drag operation (swipe operation)”, (7) “move operation”, ( 8) “Flick operation” and other user operations are discriminated. The user operation determined by the input operation receiving unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism capable of detecting the magnitude of pressure that the user presses against the touch panel 131, the input operation receiving unit 1
91 determines the magnitude of the pressure pressed by the user. Further, the processor 190 refers to a state of detecting the approach of the user's finger or the like to the touch screen 130 as a “touch-on state”
Is determined. The processor 190 determines that the approach of the user's finger or the like to the touch screen 130 is not detected as a “touch-off state”. The processor 190 accepts coordinates indicating the approach position of the user's finger or the like sequentially output by the touch screen 130 as “touch now” coordinates.

ここで、(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近さ
せる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの
指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検
出し、検出したタッチスクリーン130の座標に応じた信号をプロセッサ190へ出力す
る。プロセッサ190は、タッチスクリーン130へのユーザの指などの接近を検出しな
い状態から、接近を検出したときに、「タッチオフ状態」から「タッチオン状態」になっ
たと判別する。
Here, (1) “approach operation” is an operation in which the user brings a finger or the like closer to the touch screen 130. The touch screen 130 detects that the user's finger or the like has approached (including that the user's finger or the like has touched the touch screen 130) by the touch panel 131, and outputs a signal corresponding to the detected coordinates of the touch screen 130 to the processor 190. Output to. The processor 190 determines that the “touch-off state” is changed to the “touch-on state” when the approach is detected from the state in which the approach of the user's finger or the like to the touch screen 130 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン130から指を離す操作であ
る。入力操作受付部191は、例えば、ユーザが指などをタッチスクリーン130に接触
させている状態から、指を離す操作をしたときに、「リリース操作」が入力されたと判別
する。プロセッサ190は、タッチスクリーン130へのユーザの指などの接近を検出し
ている状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から
「タッチオフ状態」になったと判別する。
(2) “Release operation” is an operation in which the user releases his / her finger from the touch screen 130. For example, the input operation receiving unit 191 determines that the “release operation” has been input when the user performs an operation of releasing the finger from a state where the user touches the touch screen 130. The processor 190 determines that the state has changed from the “touch-on state” to the “touch-off state” when the approach is not detected from the state in which the approach of the user's finger or the like to the touch screen 130 is detected. .

(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近さ
せる接近操作をした後に、接近操作をした位置でリリース操作を行なうことである。入力
操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチパネル13
1から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)
から、接近操作を検出した場合に、その検出した座標を「タッチ開始位置」として保持す
る。入力操作受付部191は、タッチ開始位置の座標と、リリース操作をする直前に(タ
ッチオフ状態が検出される直前に)タッチパネル131により検出されている座標とがほ
ぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操
作にかかる座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。
(3) “Tap operation” refers to performing a release operation at a position where the user has performed an approach operation after the user performs an approach operation in which a finger or the like approaches the touch screen 130. The input operation reception unit 191 is in a state where no approaching operation is detected (a user's finger or the like is touch panel 13
1 is away from 1 and the touch panel 131 does not detect the approach of the user's finger or the like)
When the approaching operation is detected, the detected coordinates are held as the “touch start position”. The input operation accepting unit 191 determines that the coordinates of the touch start position and the coordinates detected by the touch panel 131 immediately before the release operation (just before the touch-off state is detected) are substantially the same (approach operation is detected). When a coordinate related to the release operation is detected in coordinates within a certain range from the coordinated coordinates), the user's operation is determined as a “tap operation”.

(4)「ダブルタップ操作」とは、ユーザがタップ操作を一定時間内に2回行なう操作
である。入力操作受付部191は、例えば、ユーザの操作をタップ操作と判別してから一
定時間内に、タップ操作にかかる座標で再びタップ操作を判別した場合に、「ダブルタッ
プ操作」が入力されたと判別する。
(4) The “double tap operation” is an operation in which the user performs the tap operation twice within a predetermined time. For example, the input operation reception unit 191 determines that the “double tap operation” has been input when the user determines that the tap operation is again performed with the coordinates related to the tap operation within a certain time after the user operation is determined as the tap operation. To do.

(5)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である
。タッチスクリーン130は、ユーザの操作を検出して接近操作を判別してから、接近操
作が検出された座標において接近操作が継続している時間が一定時間を超えた場合に、「
長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)が入力さ
れたと判別する。
(5) “Long press operation” is an operation in which the user continues to press the touch screen 130. The touch screen 130 detects the user's operation and discriminates the approaching operation. When the time during which the approaching operation continues at the coordinates where the approaching operation is detected exceeds a certain time, the touch screen 130
It is determined that “long press operation” (“long press operation” may be referred to as “long touch operation”) is input.

(6)「ドラッグ操作」とは、ユーザがタッチスクリーン130に指などを接近させた
接近状態を維持したまま、指をスライドさせる操作である。
(6) “Drag operation” is an operation of sliding a finger while maintaining an approaching state in which the user brings a finger or the like close to the touch screen 130.

(7)「ムーブ操作」とは、ユーザがタッチスクリーン130において、接近操作を維
持しつつ、タッチスクリーン130に指などを接近させている位置を移動させてリリース
操作を行なう一連の操作をいう。
(7) “Move operation” refers to a series of operations in which the user performs a release operation by moving a position where a finger or the like is approaching the touch screen 130 while maintaining the approach operation on the touch screen 130.

(8)「フリック操作」は、ユーザがムーブ操作を予め定められた時間よりも短い時間
で行なう操作をいう。フリック操作は、ユーザがタッチスクリーン130で指を弾くよう
な操作である。記憶部150は、例えば、ユーザがムーブ操作を行なう時間と比較するた
めの閾値を保持する。プロセッサ190は、ユーザがタッチスクリーン130において指
などを接近させている位置を一定距離移動させるまでの時間が、当該閾値未満の場合にフ
リック操作が入力されたと判断する。また、プロセッサ190は、上記時間を複数の閾値
と比較し得る。プロセッサ190は、上記時間が第1の閾値よりも短い場合(比較的素早
く指を弾く場合)は、フリック操作が「強フリック」であると判断し、第1の閾値よりも
大きく第2の閾値(第2の閾値を、第1の閾値よりも大きく設定する)よりも小さい場合
に、フリック操作が「弱フリック」であると判断し得る。
(8) “Flick operation” refers to an operation in which a user performs a move operation in a time shorter than a predetermined time. The flick operation is an operation in which the user flips a finger on the touch screen 130. The storage unit 150 holds, for example, a threshold for comparison with the time for the user to perform the move operation. The processor 190 determines that a flick operation has been input when the time required for the user to move a position where a finger or the like is approaching on the touch screen 130 by a certain distance is less than the threshold value. The processor 190 may compare the time with a plurality of threshold values. The processor 190 determines that the flick operation is “strong flick” when the time is shorter than the first threshold (when the finger is flicked relatively quickly), and the second threshold is larger than the first threshold. When the value is smaller than (set the second threshold value to be larger than the first threshold value), it can be determined that the flick operation is “weak flick”.

ゲーム進行処理部192は、ユーザの操作に応じて、各種のプログラムを呼び出す等に
よりゲームを進行させる処理を行なう。例えば、ゲーム進行処理部192は、サーバ20
と通信し、ゲームの進行に応じてサーバ20へデータを送信する処理、サーバ20からゲ
ームに関連するデータを受信する処理、ゲームの進行に応じてユーザに報酬を付与する処
理、時間の経過を計測する処理その他の処理を行なう。
The game progress processing unit 192 performs a process of progressing the game by calling various programs in accordance with a user operation. For example, the game progress processing unit 192 includes the server 20
A process of transmitting data to the server 20 according to the progress of the game, a process of receiving data related to the game from the server 20, a process of giving a reward to the user according to the progress of the game, and the passage of time. Performs measurement processing and other processing.

移動操作検出部193は、タッチスクリーン130に対するユーザの入力操作に基づい
て、ゲームに登場するキャラクタを移動させる入力操作を検出する。例えば、ゲームプロ
グラム151がアクションゲーム、ロールプレイングゲーム、アクションロールプレイン
グゲームである場合、移動操作検出部193は、ユーザの入力操作に基づいて、ユーザの
操作するキャラクタを移動させる方向を検出する。このように、移動操作検出部193は
、ユーザがキャラクタの移動方向を指定する入力操作を受け付ける。
The movement operation detection unit 193 detects an input operation for moving a character appearing in the game based on a user input operation on the touch screen 130. For example, when the game program 151 is an action game, a role playing game, or an action role playing game, the movement operation detection unit 193 detects a direction in which the character operated by the user is moved based on the input operation of the user. As described above, the movement operation detection unit 193 receives an input operation in which the user designates the moving direction of the character.

具体的には、移動操作検出部193は、ユーザがドラッグ操作を行った場合に、タッチ
開始位置の座標とタッチスクリーン130の検出結果とに基づいて、キャラクタの移動方
向を検出する。移動操作検出部193の詳細な処理は、後述する。
Specifically, when the user performs a drag operation, the movement operation detection unit 193 detects the moving direction of the character based on the coordinates of the touch start position and the detection result of the touch screen 130. Detailed processing of the movement operation detection unit 193 will be described later.

仮想カメラ制御部194は、仮想空間に配置される各オブジェクトを、どのようにユー
ザに見せるかを決定する。具体的には、仮想カメラ制御部194は、プロセッサ190が
ゲームプログラム151を読み込んで実行することで生成される仮想空間において、仮想
カメラの配置(カメラワーク)を制御する。プロセッサ190は、仮想空間における仮想
カメラの撮影画像をディスプレイ132に表示することで、ユーザに対しゲームのプレイ
環境を提供する。
The virtual camera control unit 194 determines how to show each object placed in the virtual space to the user. Specifically, the virtual camera control unit 194 controls the placement (camera work) of the virtual camera in the virtual space generated when the processor 190 reads and executes the game program 151. The processor 190 displays a photographed image of the virtual camera in the virtual space on the display 132, thereby providing a game play environment to the user.

また、仮想カメラ制御部194は、加速度センサ185が検出する重力方向に対するデ
ィスプレイ132の傾きに応じて、仮想カメラの視界のアスペクト比を変更する。当該制
御については後述する。
Further, the virtual camera control unit 194 changes the aspect ratio of the visual field of the virtual camera according to the inclination of the display 132 with respect to the direction of gravity detected by the acceleration sensor 185. This control will be described later.

オブジェクト制御部195は、入力操作受付部191が受け付けたユーザの操作内容に
基づいてゲームに登場する各種オブジェクト(例えば、GUI(Graphical User Inter
face)画面など)の生成、変形、移動などの処理を制御する。オブジェクト制御部195
は、例えば、ユーザがキャラクタを移動させるためのタッチスクリーン130に対する入
力操作に基づいて、キャラクタの移動方向を示すオブジェクトを生成する。
The object control unit 195 displays various objects appearing in the game based on the user operation content received by the input operation receiving unit 191 (for example, GUI (Graphical User Inter
face) Controls processing such as screen generation), deformation, and movement. Object control unit 195
For example, an object indicating the moving direction of the character is generated based on an input operation on the touch screen 130 for the user to move the character.

表示制御部196は、仮想カメラのカメラワークに従った画像をディスプレイ132に
出力する。表示制御部196は、仮想空間内における仮想カメラの配置に応じて、ディス
プレイ132の表示内容を決定し、決定した表示内容に従う画像、テキスト等の各種の情
報をディスプレイ132に出力する。
The display control unit 196 outputs an image according to the camera work of the virtual camera to the display 132. The display control unit 196 determines the display content of the display 132 according to the placement of the virtual camera in the virtual space, and outputs various types of information such as images and text according to the determined display content to the display 132.

また、表示制御部196は、加速度センサ185が検出する重力方向に対するディスプ
レイ132の傾きに応じて、ディスプレイ132の表示画面を回転させ、縦長画面と横長
画面とを切り替える。一例として、加速度センサ185は、重力方向に対するディスプレ
イ132の長手方向の角度(0〜180度)を検出する。表示制御部196は、加速度セ
ンサ185が検出する角度が45度以下、または135度よりも大きい場合、ディスプレ
イ132に縦長画面を表示する。一方、表示制御部196は、加速度センサ185が検出
する角度が45度よりも大きく135度以下である場合、ディスプレイ132に横長画面
を表示する。
In addition, the display control unit 196 rotates the display screen of the display 132 according to the inclination of the display 132 with respect to the direction of gravity detected by the acceleration sensor 185, and switches between the vertically long screen and the horizontally long screen. As an example, the acceleration sensor 185 detects an angle (0 to 180 degrees) in the longitudinal direction of the display 132 with respect to the direction of gravity. The display control unit 196 displays a vertically long screen on the display 132 when the angle detected by the acceleration sensor 185 is 45 degrees or less or larger than 135 degrees. On the other hand, the display control unit 196 displays a horizontally long screen on the display 132 when the angle detected by the acceleration sensor 185 is greater than 45 degrees and less than 135 degrees.

(サーバ20の構成)
図3は、ある実施形態に従うサーバ20の機能的な構成を示すブロック図である。図3
を参照して、サーバ20の詳細な構成を説明する。サーバ20は、プログラムに従って動
作することにより、記憶部250と、制御部290として機能する。
(Configuration of server 20)
FIG. 3 is a block diagram illustrating a functional configuration of the server 20 according to an embodiment. FIG.
The detailed configuration of the server 20 will be described with reference to FIG. The server 20 functions as a storage unit 250 and a control unit 290 by operating according to a program.

記憶部250は、携帯端末10においてユーザがゲームを進行させるための各種プログ
ラムおよびデータを記憶する。ある局面において、記憶部250は、ゲームプログラム2
51と、ゲーム情報252と、ユーザ情報253とを記憶する。記憶部250は、メモリ
25およびストレージ26によって構成される。
The storage unit 250 stores various programs and data for the user to advance the game in the mobile terminal 10. In one aspect, the storage unit 250 stores the game program 2
51, game information 252 and user information 253 are stored. The storage unit 250 includes a memory 25 and a storage 26.

ゲームプログラム251は、サーバ20が携帯端末10と通信して、携帯端末10にお
いてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを
進行させるための各種データであるゲーム情報252およびユーザ情報253等を参照し
て、ユーザの入力操作に応じてゲームを進行させる。プロセッサ29は、ゲームプログラ
ム251を実行することにより、携帯端末10とデータを送受信する処理、携帯端末10
のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザ
の情報を更新する処理その他の処理を行なう。
The game program 251 is a program for allowing the server 20 to communicate with the mobile terminal 10 and advance the game on the mobile terminal 10. The game program 251 refers to the game information 252 and user information 253 that are various data for proceeding with the game, and causes the game to proceed according to the user's input operation. The processor 29 executes a game program 251 to perform processing for transmitting / receiving data to / from the mobile terminal 10, and the mobile terminal 10.
The process of advancing the game according to the content of the operation performed by the user, the process of updating the information of the user who plays the game, and other processes are performed.

ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム
情報252は、オブジェクト管理テーブル252Aと、パッシブスキル管理テーブル25
2Bと、アクティブスキル管理テーブル252Cとを含む。
The game information 252 includes various data referred to by the game program 251. The game information 252 includes an object management table 252A and a passive skill management table 25.
2B and an active skill management table 252C.

オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクト
、および当該オブジェクトに設定される情報を含む。携帯端末10は、仮想空間内に配置
されるオブジェクトを、仮想空間内に配置される仮想カメラによって撮影した画像をディ
スプレイ132に表示することでゲームを進行させる。
The object management table 252A includes objects arranged in the virtual space of the game and information set for the objects. The mobile terminal 10 advances the game by displaying, on the display 132, an image obtained by photographing an object placed in the virtual space with a virtual camera placed in the virtual space.

ここで、オブジェクトとしては、例えば、携帯端末10のユーザが操作するキャラクタ
(以下、「自キャラクタ」とも称する)を示すオブジェクト、自キャラクタが装着する装
着対象物を示すオブジェクト、仮想空間におけるフィールドを形成する木や岩などを示す
オブジェクトなど様々なものがある。プロセッサ190は、ユーザがタッチスクリーン1
30に対して予め定められた入力操作を行なうこと、ゲームの進行に伴い一定の条件を満
たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理
を行なう。
Here, as the object, for example, an object indicating a character operated by the user of the mobile terminal 10 (hereinafter also referred to as “self character”), an object indicating a wearing target worn by the self character, and a field in the virtual space are formed. There are various objects such as trees and rocks. The processor 190 allows the user to touch the touch screen 1
A process associated with an object is performed when a predetermined input operation is performed on 30, a certain condition is satisfied as the game progresses, and various other events occur.

例えば、あるオブジェクトに対してユーザがタッチスクリーン130に対して接近操作
を行なうことで、プロセッサ190は、オブジェクトを、ユーザによって選択された状態
とする。また、例えば、プロセッサ190は、ユーザによるドラッグ操作を受け付けるこ
とで、ユーザが移動対象とするオブジェクト(例えば、自キャラクタ)を、ドラッグ操作
に応じて移動させる等の処理を行なう。また、例えば、プロセッサ190は、ユーザがオ
ブジェクトに対して行なうタッチ操作を受け付けることで、ユーザに対し、ゲームを有利
に進めるための報酬を付与する等の処理を行なう。
For example, when the user performs an approach operation on the touch screen 130 with respect to a certain object, the processor 190 sets the object in a state selected by the user. Further, for example, the processor 190 performs processing such as moving an object (for example, a self-character) to be moved by the user according to the drag operation by receiving a drag operation by the user. Further, for example, the processor 190 performs a process such as giving a reward for advancing the game to the user by receiving a touch operation performed on the object by the user.

パッシブスキル管理テーブル252Bは、オブジェクトを識別する情報と、オブジェク
トに対応付けられたパッシブスキルの情報とが対応付けられている。ここで、パッシブス
キルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動され、ユ
ーザがゲームを有利に進行させることができるものである。例えば、パッシブスキルが発
動した場合に、キャラクタの移動速度が向上する等の、ゲームを有利に進行させられる効
果を発揮させる。
In the passive skill management table 252B, information for identifying an object is associated with information on passive skills associated with the object. Here, the passive skill is activated when, for example, a predetermined condition is satisfied in the game, and the user can advantageously advance the game. For example, when a passive skill is activated, an effect that the game can be advantageously advanced, such as an improvement in the moving speed of the character, is exhibited.

アクティブスキル管理テーブル252Cは、オブジェクトを識別する情報と、オブジェ
クトに対応付けられたアクティブスキルの情報とが対応付けられている。ここで、アクテ
ィブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動可
能な状態となる。アクティブスキルが発動すると、ユーザは、ゲームを有利に進行させる
ことができる。
In the active skill management table 252C, information for identifying an object is associated with information on an active skill associated with the object. Here, the active skill is, for example, a state that can be activated when a predetermined condition is satisfied in the game. When the active skill is activated, the user can advantageously advance the game.

ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報2
53は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザ
を識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内
で保有するアイテム、キャラクタ、キャラクタが使用する装着物等の情報その他の情報を
含む。
The user information 253 is information about the user who plays the game. User information 2
53 includes a user management table 253A. The user management table 253A includes information for identifying each user, information indicating the degree to which the user has progressed the game, items such as items held by the user in the game, characters, wearing items used by the character, and other information. including.

制御部290は、送受信部291、サーバ処理部292、データ管理部293、マッチ
ング部294、計測部295としての機能を含む。これらの機能は、サーバ20のプロセ
ッサ29が、記憶部250に記憶されるゲームプログラム251を実行することにより、
実現される。
The control unit 290 includes functions as a transmission / reception unit 291, a server processing unit 292, a data management unit 293, a matching unit 294, and a measurement unit 295. These functions are executed when the processor 29 of the server 20 executes the game program 251 stored in the storage unit 250.
Realized.

送受信部291は、ゲームプログラム151を実行する携帯端末10と各種情報を送受
信する。携帯端末10とサーバ20とは、オブジェクトを仮想空間に配置する要求、オブ
ジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じ
て各種パラメータを更新する要求、何らかの条件を満たした旨の通知、ゲームを進行させ
るための画像、音声その他のデータを送受信する。
The transmission / reception unit 291 transmits / receives various information to / from the mobile terminal 10 that executes the game program 151. The mobile terminal 10 and the server 20 satisfy a request to place an object in the virtual space, a request to delete the object, a request to move the object, a request to update various parameters according to a reward acquired by the user, and some condition A notification to that effect, an image for progressing the game, audio and other data are transmitted and received.

サーバ処理部292は、サーバ20によりゲームの進行に必要な処理を行なう。サーバ
処理部292は、例えば、携帯端末10から受信した情報に基づいて、ゲーム情報252
、ユーザ情報253などのデータを更新する。サーバ処理部292は、更新したデータを
携帯端末10に送信することでゲームを進行させる。
The server processing unit 292 performs processing necessary for the progress of the game by the server 20. The server processing unit 292, for example, based on information received from the mobile terminal 10, game information 252.
The data such as the user information 253 is updated. The server processing unit 292 advances the game by transmitting the updated data to the mobile terminal 10.

データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶
される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理
などを行なう。
The data management unit 293 performs processing for updating various data stored in the storage unit 250, processing for adding / updating / deleting records to / from the database, and the like according to the processing result of the server processing unit 292.

マッチング部294は、複数のユーザを関連付けるための一連の処理を行なう。マッチ
ング部294は、例えば、ユーザがマルチプレイを行なうための入力操作を行った場合に
、ゲームを協力してプレイさせるユーザ同士を関連付ける処理などを行なう。
The matching unit 294 performs a series of processes for associating a plurality of users. For example, when the user performs an input operation for multiplayer, the matching unit 294 performs a process of associating users who play the game in cooperation.

計測部295は、時間を計測する処理を行なう。計測部295は、例えば、仮想空間に
配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、携帯
端末10がゲームプログラム151を実行している累計時間を計測する。サーバ20は、
携帯端末10から各種の計測結果を受信する。この計測結果は、携帯端末10がゲームプ
ログラム151を実行することにより計測される。サーバ20は、受信した各種の計測結
果と、計測部295の計測結果とを照合することで、携帯端末10とサーバ20との間の
、各種の時間に関する情報を同期させる。
The measurement unit 295 performs processing for measuring time. For example, the measurement unit 295 measures the passage of time for each object arranged in the virtual space. In addition, the measurement unit 295 measures the cumulative time during which the mobile terminal 10 is executing the game program 151. Server 20
Various measurement results are received from the mobile terminal 10. This measurement result is measured by the mobile terminal 10 executing the game program 151. The server 20 synchronizes information related to various times between the mobile terminal 10 and the server 20 by collating the received various measurement results with the measurement results of the measurement unit 295.

<構成のまとめ>
以上のように、ある実施形態のゲーム配信システム1の構成を説明してきた。当該実施
形態において、ゲームプログラム151は、例えばアクションロールプレイングゲームで
あり、仮想空間内の仮想カメラの配置に応じた画面をタッチスクリーン130に表示させ
ることでゲームを進行させる。
<Summary of configuration>
As described above, the configuration of the game distribution system 1 according to an embodiment has been described. In the embodiment, the game program 151 is, for example, an action role playing game, and the game is progressed by displaying a screen according to the arrangement of the virtual camera in the virtual space on the touch screen 130.

例えば、ゲームプログラム151がアクションロールプレイングゲームである場合、ゲ
ーム進行処理部192は、画像やテキストなどディスプレイ132に表示するデータを決
定する処理、プレイ対象とする1以上のイベント(クエスト)をディスプレイ132に表
示してイベントの選択をユーザから受け付ける処理、ユーザの操作に応じてイベントを進
める処理などの基本的な処理を行なう。
For example, when the game program 151 is an action role playing game, the game progress processing unit 192 performs processing for determining data to be displayed on the display 132 such as images and text, and displays one or more events (quests) to be played. Basic processing such as processing for displaying an event and receiving an event selection from the user, and processing for advancing the event according to the user's operation is performed.

(仮想カメラの視界)
図4は、ある実施形態に従う仮想空間および仮想カメラについて説明する図である。あ
る局面において、携帯端末10のプロセッサ190は、ゲーム進行処理部192として、
仮想空間410を規定する。続いて、プロセッサ190は、オブジェクト制御部195と
して、ゲームプログラム151を実行することにより、仮想空間410に建物、木、岩、
などのオブジェクトを含むフィールド(マップ)を形成する。オブジェクト制御部195
は、仮想空間に形成されるフィールドに、携帯端末10のユーザが操作する自キャラクタ
、自キャラクタを攻撃する敵キャラクタ、仮想カメラ420などのオブジェクトを配置す
る。プロセッサ190は、表示制御部196として、仮想カメラ420が撮影する画像4
30をディスプレイ132に表示する。
(Virtual camera view)
FIG. 4 is a diagram illustrating a virtual space and a virtual camera according to an embodiment. In one aspect, the processor 190 of the mobile terminal 10 is configured as a game progress processing unit 192.
A virtual space 410 is defined. Subsequently, the processor 190 executes a game program 151 as the object control unit 195, whereby a building, a tree, a rock,
Form a field (map) containing objects such as Object control unit 195
Arranges an object such as a self-character operated by the user of the mobile terminal 10, an enemy character attacking the self-character, and the virtual camera 420 in a field formed in the virtual space. The processor 190 serves as the display control unit 196 to display the image 4 captured by the virtual camera 420.
30 is displayed on the display 132.

図5および図6を参照して、仮想カメラの視界(視野角)について説明する。図5は、
仮想カメラ420の視界領域をX方向から見たYZ断面を表す図である。図6は、仮想カ
メラ420の視界領域をY方向から見たXZ断面を表す図である。
The field of view (viewing angle) of the virtual camera will be described with reference to FIGS. FIG.
It is a figure showing the YZ section which looked at the field of view of virtual camera 420 from the X direction. FIG. 6 is a diagram illustrating an XZ cross section of the visual field area of the virtual camera 420 viewed from the Y direction.

一例として、仮想カメラ420の視界(視野角)は、タッチスクリーン130(ディス
プレイ132)の縦の画素数および横の画素数に応じて定められる。図5および図6を参
照して、YZ断面における仮想カメラ420の視野角αおよび、XZ断面における仮想カ
メラ420の視野角βは、一例として、ディスプレイ132の縦(長辺)の画素数(長さ
)と、横(短辺)の画素数に基づいて設定される。
As an example, the field of view (viewing angle) of the virtual camera 420 is determined according to the number of vertical pixels and the number of horizontal pixels of the touch screen 130 (display 132). With reference to FIGS. 5 and 6, the viewing angle α of the virtual camera 420 in the YZ section and the viewing angle β of the virtual camera 420 in the XZ section are, for example, the number of pixels (long side) of the display 132 (long side). And the number of horizontal (short side) pixels.

表示制御部196がディスプレイ132に縦長画面を表示する場合、仮想カメラ制御部
194は、仮想カメラ420の視野角αをディスプレイ132の縦の画素数に応じて設定
し、視野角βを横の画素数に応じて設定する。一方、表示制御部196がディスプレイ1
32に横長画面を表示する場合、仮想カメラ制御部194は、仮想カメラ420の視野角
αをディスプレイ132の横の画素数に応じて設定し、視野角βを縦の画素数に応じて設
定する。すなわち、仮想カメラ制御部194は、加速度センサ185の検出する携帯端末
10の傾きに応じて、仮想カメラ420の視界のアスペクト比を、縦長のアスペクト比と
横長のアスペクト比との間で切り替える。
When the display control unit 196 displays a vertically long screen on the display 132, the virtual camera control unit 194 sets the viewing angle α of the virtual camera 420 according to the number of vertical pixels of the display 132, and sets the viewing angle β to a horizontal pixel. Set according to the number. On the other hand, the display control unit 196 displays the display 1.
When the landscape screen is displayed on 32, the virtual camera control unit 194 sets the viewing angle α of the virtual camera 420 according to the number of horizontal pixels of the display 132, and sets the viewing angle β according to the number of vertical pixels. . That is, the virtual camera control unit 194 switches the aspect ratio of the field of view of the virtual camera 420 between the vertically long aspect ratio and the horizontally long aspect ratio according to the inclination of the mobile terminal 10 detected by the acceleration sensor 185.

(縦画面と横画面との切り替え)
図7は、ある実施形態に従う縦画面表示と横画面表示との切り替えについて説明する図
である。状態(A)において、加速度センサ185は、タッチスクリーン130の長辺方
向が重力方向に対して0度傾いている状態を示す。表示制御部196は、加速度センサ1
85の検出結果に応じて、タッチスクリーン130に縦長画面を表示する。
(Switch between vertical and horizontal screens)
FIG. 7 is a diagram illustrating switching between vertical screen display and horizontal screen display according to an embodiment. In the state (A), the acceleration sensor 185 indicates a state where the long side direction of the touch screen 130 is inclined by 0 degree with respect to the direction of gravity. The display control unit 196 includes the acceleration sensor 1
A vertically long screen is displayed on the touch screen 130 according to the detection result of 85.

状態(A)において、タッチスクリーン130には、ユーザが操作する自キャラクタ7
10と、敵キャラクタ720と、木730とが表示されている。さらに、タッチスクリー
ン130には、GUI等の常時表示部品740,750,760,770と、メッセージ
等の一時表示部品780とが表示されている。以下、常時表示部品と一時表示部品とを総
称して独立部品とも称する。
In the state (A), the touch screen 130 has its own character 7 operated by the user.
10, an enemy character 720, and a tree 730 are displayed. Furthermore, on the touch screen 130, constant display components 740, 750, 760, 770 such as GUI and temporary display components 780 such as messages are displayed. Hereinafter, the constant display component and the temporary display component are collectively referred to as independent components.

ある局面において、常時表示部品740および750はそれぞれ、異なるアクティブス
キルを発動させるためのボタンであり得る。ユーザがタッチスクリーン130上に表示さ
れる常時表示部品740または750を押下すると、プロセッサ190はゲーム進行処理
部192として、ゲーム情報152を参照して、常時表示部品740または750に対応
するアクティブスキルを発動させる。
In one aspect, the always-on display components 740 and 750 can be buttons for activating different active skills. When the user presses the constant display component 740 or 750 displayed on the touch screen 130, the processor 190 refers to the game information 152 as the game progress processing unit 192, and acquires the active skill corresponding to the constant display component 740 or 750. Activate.

ある局面において、常時表示部品760は、メニューボタンであり得る。ユーザがタッ
チスクリーン130上に表示される常時表示部品760を押下すると、プロセッサ190
は、ゲームを行なう環境(例えば、タッチパネル131の入力感度)を変更するための設
定画面を表示する。ある局面において、常時表示部品770は、自キャラクタ710の体
力(ヒットポイント)を表示する体力ゲージであり得る。
In one aspect, the always-on display component 760 can be a menu button. When the user presses the constant display component 760 displayed on the touch screen 130, the processor 190
Displays a setting screen for changing the game playing environment (for example, the input sensitivity of the touch panel 131). In one aspect, the constant display component 770 may be a physical strength gauge that displays the physical strength (hit points) of the player character 710.

ある局面において、一時表示部品780は、ゲームの進行に応じて生じた事象を表示す
るためのメッセージであり得る。
In one aspect, the temporary display component 780 may be a message for displaying an event that occurs as the game progresses.

ある局面において、携帯端末10のユーザは、携帯端末10を縦長の状態(A)から携
帯端末10を傾けて、横長の状態(B)へと遷移させる。これにより、加速度センサ18
5は、タッチスクリーン130の長辺方向が重力方向に対して略90度傾いている旨を検
出する。
In one aspect, the user of the mobile terminal 10 changes the mobile terminal 10 from the vertically long state (A) to the horizontally long state (B) by tilting the mobile terminal 10. Thus, the acceleration sensor 18
5 detects that the long side direction of the touch screen 130 is inclined by approximately 90 degrees with respect to the direction of gravity.

プロセッサ190は、表示制御部196として、この加速度センサ185の検出結果に
応じて、タッチスクリーン130に表示される画面を90度回転させ、縦長画面から横長
画面に切り替える。またプロセッサ190は、仮想カメラ制御部194として、タッチス
クリーン130の画面表示が横画面表示に切り替わるとともに、仮想カメラ420の視界
(視野角)を縦長のアスペクト比から横長のアスペクト比に切り替える。
As a display control unit 196, the processor 190 rotates the screen displayed on the touch screen 130 by 90 degrees in accordance with the detection result of the acceleration sensor 185, and switches from the vertically long screen to the horizontally long screen. Further, the processor 190, as the virtual camera control unit 194, switches the screen display of the touch screen 130 to the horizontal screen display and switches the view (viewing angle) of the virtual camera 420 from the vertically long aspect ratio to the horizontally long aspect ratio.

またプロセッサ190は、オブジェクト制御部195として、タッチスクリーン130
の画面表示が横画面表示に切り替わるとともに、独立部品の表示位置を変更する。この制
御の詳細は、後述する。
Further, the processor 190 serves as the object control unit 195 as a touch screen 130.
The screen display is switched to the horizontal screen display, and the display position of the independent part is changed. Details of this control will be described later.

(タッチスクリーンに表示される画像の生成方法)
図8は、ある実施形態に従うタッチスクリーン130に表示される画像の生成方法の一
例について説明する図である。一例として、図7の状態(A)に表示される画像の生成方
法について説明する。
(Method for generating image displayed on touch screen)
FIG. 8 is a diagram illustrating an example of a method for generating an image displayed on touch screen 130 according to an embodiment. As an example, a method for generating an image displayed in the state (A) of FIG. 7 will be described.

分図(A)を参照して、プロセッサ190は、オブジェクト制御部195として、仮想
空間410に仮想カメラ420と、自キャラクタ710と、敵キャラクタ720と、木7
30とを配置する。一例として、オブジェクト制御部195は、仮想カメラ420の視界
の略中央部に自キャラクタ710を配置する。プロセッサ190は、ユーザのタッチスク
リーン130に対するドラッグ操作に応じて、自キャラクタ710および仮想カメラ42
0を移動する。これにより、分図(B)に示される仮想カメラ420の撮影する画像81
0は、ドラッグ操作に応じて変化する。
Referring to the diagram (A), the processor 190, as the object control unit 195, in the virtual space 410, the virtual camera 420, the own character 710, the enemy character 720, and the tree 7
30. As an example, the object control unit 195 places the player character 710 in the approximate center of the field of view of the virtual camera 420. The processor 190 responds to the user's drag operation on the touch screen 130 with the player character 710 and the virtual camera 42.
Move 0. Thereby, the image 81 taken by the virtual camera 420 shown in the partial diagram (B).
0 changes according to the drag operation.

分図(C)を参照して、プロセッサ190は、オブジェクト制御部195として、仮想
空間410とは異なる仮想空間830に、仮想カメラ840と、常時表示部品740,7
50,760,770、および一時表示部品780とを配置する。より具体的には、オブ
ジェクト制御部195は、仮想カメラ840の視界内に収まるように独立部品を配置する
。仮想カメラ840は、独立部品を撮影することにより、部品画像を得る。
With reference to the partial diagram (C), the processor 190 serves as an object control unit 195 in a virtual space 830 different from the virtual space 410 in a virtual camera 840 and constant display components 740 and 7.
50, 760, 770 and temporary display component 780 are arranged. More specifically, the object control unit 195 arranges the independent components so as to be within the field of view of the virtual camera 840. The virtual camera 840 obtains a component image by photographing an independent component.

プロセッサ190は、仮想カメラ制御部194として、仮想カメラ840の配置位置を
固定する。すなわち、仮想カメラ制御部194は、移動操作検出部193がユーザのタッ
チスクリーン130に対するドラッグ操作を検出したとしても、当該ドラッグ操作に応じ
て仮想カメラ840を移動させない。これにより、分図(D)に示される仮想カメラ84
0の撮影する画像820は、ドラッグ操作に応じて変化しない。
The processor 190 fixes the placement position of the virtual camera 840 as the virtual camera control unit 194. That is, the virtual camera control unit 194 does not move the virtual camera 840 according to the drag operation even if the movement operation detection unit 193 detects a drag operation on the touch screen 130 by the user. Thereby, the virtual camera 84 shown in the partial diagram (D).
The image 820 to be captured of 0 does not change according to the drag operation.

プロセッサ190は、表示制御部196として、仮想カメラ420が撮影する画像に、
仮想カメラ840が撮影する画像(部品画像)を重ね合わせて、図7の状態(A)に示さ
れる画像を生成する。表示制御部196は、生成した画像をディスプレイ132に表示す
る。当該構成によれば、オブジェクト制御部195は、ドラッグ操作に応じて、仮想カメ
ラ420と自キャラクタ710とともに、独立部品を動かさなくてもよい。そのため、プ
ロセッサ190の処理速度を向上し得る。
The processor 190 acts as a display control unit 196 on the image captured by the virtual camera 420.
An image shown in the state (A) of FIG. 7 is generated by superimposing images (component images) taken by the virtual camera 840. The display control unit 196 displays the generated image on the display 132. According to this configuration, the object control unit 195 may not move the independent component together with the virtual camera 420 and the player character 710 in response to the drag operation. Therefore, the processing speed of the processor 190 can be improved.

上記説明したように、仮想カメラ制御部194は、タッチスクリーン130に表示され
る画面が縦長画面から横長画面に切り替わるとともに、仮想カメラ420の視界(視野角
)を縦長のアスペクト比から横長のアスペクト比に切り替える。このとき、自キャラクタ
710は、アスペクト比が変更された後の仮想カメラ420の視界の略中央に位置する。
As described above, the virtual camera control unit 194 switches the screen displayed on the touch screen 130 from the portrait screen to the landscape screen, and changes the field of view (viewing angle) of the virtual camera 420 from the portrait aspect ratio to the landscape aspect ratio. Switch to. At this time, the player character 710 is positioned approximately in the center of the field of view of the virtual camera 420 after the aspect ratio is changed.

また、仮想カメラ制御部194は、タッチスクリーン130に表示される画面が縦長画
面から横長画面に切り替わるとともに、仮想カメラ840の視界も上記縦長のアスペクト
比から上記横長のアスペクト比に切り替える。
In addition, the virtual camera control unit 194 switches the screen displayed on the touch screen 130 from the portrait screen to the landscape screen, and also switches the field of view of the virtual camera 840 from the portrait aspect ratio to the landscape aspect ratio.

当該アスペクト比の切り替えに応じて、オブジェクト制御部195は、独立部品の配置
位置をアスペクト比を変更後の仮想カメラ840の視界に収まるように配置する。
In response to the switching of the aspect ratio, the object control unit 195 arranges the arrangement positions of the independent components so that they are within the field of view of the virtual camera 840 after changing the aspect ratio.

(常時表示部品と一時表示部品)
図9は、ある実施形態に従う常時表示部品と一時表示部品とについて説明する図である
。なお、図9において図7と同一符号を付している部分については同じであるため、その
説明は繰り返さない。
(Normal display parts and temporary display parts)
FIG. 9 is a diagram illustrating a permanent display component and a temporary display component according to an embodiment. 9 that are the same as those in FIG. 7 are the same as those in FIG. 7, and thus description thereof will not be repeated.

状態(A)において、ユーザは、タッチスクリーン130上で指を左から右にスライド
するドラッグ操作910を行なう。プロセッサ190は、移動操作検出部193としてユ
ーザのドラッグ操作が示す方向を検出する。一例として、移動操作検出部193は、ユー
ザの操作をドラッグ操作と判別している場合に、ドラッグ操作の起点となるタッチ開始位
置を起点とし、タッチスクリーン130がユーザの指などの接近を検出している位置(タ
ッチ継続位置)を終点とするベクトル方向を検出する。プロセッサ190は、仮想カメラ
制御部194およびオブジェクト制御部195として、移動操作検出部193が検出する
ベクトル方向、すなわち右方向に自キャラクタ710および仮想カメラ420を移動させ
る。一方、仮想カメラ制御部194は、独立部品を撮影する仮想カメラ840を移動操作
検出部193が検出するベクトル方向に移動させない。これによりタッチスクリーン13
0に表示される画像は、状態(A)から状態(B)に遷移する。
In the state (A), the user performs a drag operation 910 for sliding a finger from left to right on the touch screen 130. The processor 190 detects the direction indicated by the user's drag operation as the movement operation detection unit 193. As an example, when the user operation is determined as a drag operation, the movement operation detection unit 193 starts from the touch start position that is the starting point of the drag operation, and the touch screen 130 detects the approach of the user's finger or the like. A vector direction whose end point is the current position (touch continuation position) is detected. The processor 190, as the virtual camera control unit 194 and the object control unit 195, moves the player character 710 and the virtual camera 420 in the vector direction detected by the movement operation detection unit 193, that is, in the right direction. On the other hand, the virtual camera control unit 194 does not move the virtual camera 840 that captures an independent part in the vector direction detected by the movement operation detection unit 193. Thereby, the touch screen 13
The image displayed at 0 transitions from state (A) to state (B).

状態(B)を参照して、自キャラクタ710が敵キャラクタ720および木730に対
して右方向に移動しているのに対して、独立部品は移動していない。
Referring to the state (B), the own character 710 is moving in the right direction with respect to the enemy character 720 and the tree 730, but the independent part is not moving.

次に状態(B)および(C)を参照して、常時表示部品740〜770と一時表示部品
780とについて説明する。常時表示部品740〜770は、仮想カメラ420が撮影す
る画像の少なくとも一部がディスプレイ132に表示されている状態において、定常的に
ディスプレイ132に表示される。一方、一時表示部品780は、仮想カメラ420が撮
影する画像の少なくとも一部がディスプレイ132に表示されている状態において、一時
的にディスプレイ132に表示される。
Next, the constant display components 740 to 770 and the temporary display component 780 will be described with reference to the states (B) and (C). The constant display components 740 to 770 are constantly displayed on the display 132 in a state where at least a part of the image captured by the virtual camera 420 is displayed on the display 132. On the other hand, the temporary display component 780 is temporarily displayed on the display 132 in a state where at least a part of the image captured by the virtual camera 420 is displayed on the display 132.

状態(B)の状態から一定時間が経過すると、オブジェクト制御部195が、仮想空間
830から一時表示部品780を消去する。そのため、状態(B)の状態から一定時間が
経過した状態(C)において、一時表示部品780はタッチスクリーン130から消えて
いる。
When a certain time has elapsed from the state (B), the object control unit 195 erases the temporary display component 780 from the virtual space 830. Therefore, the temporary display component 780 has disappeared from the touch screen 130 in a state (C) in which a predetermined time has elapsed from the state (B).

(縦長画面および横長画面における一時表示部品の表示位置)
次に、図10〜14を用いて、ディスプレイ132が縦長画面を表示しているときの一
時表示部品の位置と、横長画面を表示しているときの一時表示部品の位置との相関関係に
ついて説明する。縦長画像は、仮想カメラ420と840とが縦長のアスペクト比で撮影
する画像を重ね合わせた画像である。横長画像は、仮想カメラ420と840とが横長の
アスペクト比で撮影する画像を重ね合わせた画像である。
(Display position of temporary display parts on portrait screen and landscape screen)
Next, the correlation between the position of the temporary display component when the display 132 displays the portrait screen and the position of the temporary display component when the landscape screen is displayed will be described with reference to FIGS. To do. A vertically long image is an image obtained by superimposing images taken by the virtual cameras 420 and 840 with a vertically long aspect ratio. The horizontally long image is an image obtained by superimposing images taken by the virtual cameras 420 and 840 with a horizontally long aspect ratio.

図10は、ある実施形態に従う縦長画面および横長画面における一時表示部品780の
位置関係について説明する図である。なお、図10において図7と同一符号を付している
部分については同じであるため、その説明は繰り返さない。
FIG. 10 is a diagram illustrating the positional relationship of the temporary display component 780 on the portrait screen and landscape screen according to an embodiment. 10 that are the same as those in FIG. 7 are the same as those in FIG. 7, and thus description thereof will not be repeated.

状態(A)を参照して、タッチスクリーン130に縦長画面が表示されている状態にお
いて、オブジェクト制御部195は、自キャラクタ710の位置を基準に、一時表示部品
780の配置位置を決定する。状態(A)に示される例において、オブジェクト制御部1
95は、一時表示部品780が自キャラクタ710から予め定められた方位γに予め定め
られた距離1010だけ離れた位置に表示されるように、仮想空間830に一時表示部品
780を配置する。
With reference to the state (A), in a state where the vertically long screen is displayed on the touch screen 130, the object control unit 195 determines the arrangement position of the temporary display component 780 on the basis of the position of the own character 710. In the example shown in the state (A), the object control unit 1
95. The temporary display component 780 is arranged in the virtual space 830 so that the temporary display component 780 is displayed at a position separated by a predetermined distance 1010 from the player character 710 in a predetermined azimuth γ.

状態(B)を参照して、タッチスクリーン130に横長画面が表示されている状態にお
いて、オブジェクト制御部195は、縦長画面表示時における一時表示部品780の配置
条件と同じ条件で、仮想空間830に一時表示部品780を配置する。すなわち、オブジ
ェクト制御部195は、一時表示部品780が自キャラクタ710から予め定められた方
位γに予め定められた距離1010だけ離れた位置に表示されるように、仮想空間830
に一時表示部品780を配置する。
With reference to the state (B), in the state where the landscape screen is displayed on the touch screen 130, the object control unit 195 displays the virtual space 830 in the virtual space 830 under the same conditions as the placement conditions of the temporary display component 780 during the portrait screen display. A temporary display component 780 is disposed. That is, the object control unit 195 displays the virtual space 830 so that the temporary display component 780 is displayed at a position away from the player character 710 in a predetermined direction γ by a predetermined distance 1010.
Temporary display component 780 is disposed on the screen.

上記によれば、ユーザが携帯端末10を傾けてタッチスクリーン130に表示される画
面が縦長画面と横長画面との間で切り替わったとしても、縦長画面および横長画面におけ
る一時表示部品780と自キャラクタ710との位置関係が維持される。また、ユーザは
、縦長画面および横長画面において、主にユーザの操作対象である自キャラクタ710付
近を注目する。そのため、縦長画面と横長画面とが切り替わった場合であっても、ユーザ
の視界における自キャラクタ710と一時表示部品780との位置関係が維持される。こ
れにより、ユーザは、携帯端末10を傾けて縦長画面と横長画面とを切り替えたときに、
シームレスに一時表示部品780を認識できる。
According to the above, even when the user tilts the mobile terminal 10 and the screen displayed on the touch screen 130 is switched between the portrait screen and the landscape screen, the temporary display component 780 and the own character 710 on the portrait screen and the landscape screen are displayed. Is maintained. In addition, the user pays attention mainly to the vicinity of the own character 710 that is the operation target of the user on the portrait screen and the landscape screen. Therefore, even when the vertically long screen and the horizontally long screen are switched, the positional relationship between the player character 710 and the temporary display component 780 in the user's field of view is maintained. Thereby, when the user tilts the mobile terminal 10 to switch between the portrait screen and the landscape screen,
The temporary display component 780 can be recognized seamlessly.

図11は、他の実施形態に従う縦長画面および横長画面における一時表示部品780の
位置関係について説明する図である。なお、図11において図7と同一符号を付している
部分については同じであるため、その説明は繰り返さない。
FIG. 11 is a diagram for explaining the positional relationship of the temporary display component 780 on a portrait screen and a landscape screen according to another embodiment. 11 that are the same as those in FIG. 7 are the same as those in FIG.

状態(A)を参照して、タッチスクリーン130に縦長画面が表示されている状態にお
いて、オブジェクト制御部195は、タッチスクリーン130の長辺の長さを予め定めら
れた割合で内分する位置に一時表示部品780が表示されるように制御する。状態(A)
に示される例において、オブジェクト制御部195は、一時表示部品780がタッチスク
リーン130の長辺方向に対して表示される位置1110によって内分される距離112
0と距離1130との割合が予め定められた割合になるように、仮想空間830に一時表
示部品780を配置する。
Referring to state (A), in the state where the vertically long screen is displayed on touch screen 130, object control unit 195 is located at a position that internally divides the length of the long side of touch screen 130 at a predetermined ratio. Control is performed so that the temporary display component 780 is displayed. State (A)
In the example shown in FIG. 7, the object control unit 195 determines that the temporary display component 780 is internally divided by the position 1110 where the temporary display component 780 is displayed with respect to the long side direction of the touch screen 130.
Temporary display component 780 is arranged in virtual space 830 such that the ratio between 0 and distance 1130 is a predetermined ratio.

状態(B)を参照して、タッチスクリーン130に横長画面が表示されている状態にお
いても、オブジェクト制御部195は、タッチスクリーン130の短辺の長さを上記予め
定められた割合で内分する位置に一時表示部品780が表示されるように制御する。すな
わち、オブジェクト制御部195は、一時表示部品780がタッチスクリーン130の短
辺方向に対して表示される位置1150によって内分される距離1160と距離1170
との割合が、距離1120と距離1130との割合と等しくなるように、仮想空間830
に一時表示部品780を配置する。
Referring to state (B), even when the landscape screen is displayed on touch screen 130, object control unit 195 internally divides the length of the short side of touch screen 130 at the predetermined ratio. Control is performed so that the temporary display component 780 is displayed at the position. That is, the object control unit 195 determines the distance 1160 and the distance 1170 that are internally divided by the position 1150 where the temporary display component 780 is displayed with respect to the short side direction of the touch screen 130.
Is equal to the ratio of the distance 1120 and the distance 1130.
Temporary display component 780 is disposed on the screen.

上記によれば、タッチスクリーン130に表示される画面が縦長画面と横長画面との間
で切り替わった場合でも、表示画面に対する一時表示部品780の相対的な位置があまり
変わらない。そのため、ユーザは、携帯端末10を傾けて縦長画面と横長画面とを切り替
えたときに、違和感なくシームレスに一時表示部品780を認識できる。
According to the above, even when the screen displayed on the touch screen 130 is switched between the portrait screen and the landscape screen, the relative position of the temporary display component 780 with respect to the display screen does not change much. Therefore, the user can seamlessly recognize the temporary display component 780 without a sense of incongruity when the portable terminal 10 is tilted to switch between the vertically long screen and the horizontally long screen.

なお、上記の例では、オブジェクト制御部195は、縦長画面における一時表示部品7
80によって内分される上下の割合と横長画面における一時表示部品780によって内分
される上下の割合が等しくなるように、一時表示部品780を配置する。他の局面におい
て、オブジェクト制御部195は、縦長画面における一時表示部品780によって内分さ
れる左右の割合と横長画面における一時表示部品780によって内分される左右の割合が
等しくなるように、一時表示部品780を配置してもよい。
In the above example, the object control unit 195 displays the temporary display component 7 on the portrait screen.
The temporary display component 780 is arranged so that the vertical ratio internally divided by 80 is equal to the vertical ratio internally divided by the temporary display component 780 on the landscape screen. In another aspect, the object control unit 195 performs temporary display so that the left / right ratio internally divided by the temporary display component 780 on the portrait screen is equal to the left / right ratio internally divided by the temporary display component 780 on the landscape screen. A component 780 may be placed.

図12は、さらに他の実施形態に従う縦長画面および横長画面における一時表示部品7
80の位置関係について説明する図である。なお、図12において図7と同一符号を付し
ている部分については同じであるため、その説明は繰り返さない。
FIG. 12 shows a temporary display component 7 on a portrait screen and a landscape screen according to still another embodiment.
It is a figure explaining the positional relationship of 80. FIG. 12 that are the same as those in FIG. 7 are the same as those in FIG.

状態(A)を参照して、タッチスクリーン130に縦長画面が表示されている状態にお
いて、オブジェクト制御部195は、一時表示部品780が縦長画面の横方向における中
央線1210から予め定められた距離1220の位置に表示されるように、仮想空間83
0に一時表示部品780を配置する。
Referring to state (A), in the state where the vertically long screen is displayed on touch screen 130, object control unit 195 causes temporary display component 780 to have a predetermined distance 1220 from center line 1210 in the horizontal direction of the vertically long screen. The virtual space 83 is displayed at the position of
A temporary display component 780 is arranged at zero.

状態(B)を参照して、タッチスクリーン130に横長画面が表示されている状態にお
いて、オブジェクト制御部195は、一時表示部品780が横長画面の横方向における中
央線1230から予め定められた距離1220の位置に表示されるように、仮想空間83
0に一時表示部品780を配置する。
Referring to state (B), in a state where the landscape screen is displayed on touch screen 130, object control unit 195 causes temporary display component 780 to have a predetermined distance 1220 from center line 1230 in the lateral direction of the landscape screen. The virtual space 83 is displayed at the position of
A temporary display component 780 is arranged at zero.

すなわち、オブジェクト制御部195は、縦長画面および横長画面において、横方向に
おける中央線から等しい距離に一時表示部品780を配置する。
That is, the object control unit 195 arranges the temporary display component 780 at an equal distance from the center line in the horizontal direction on the vertically long screen and the horizontally long screen.

上記によれば、一時表示部品780は、横長画面において、縦長画面時の横幅を基準と
した位置に配置される。そのため、ユーザは、携帯端末10を傾けて縦長画面と横長画面
とを切り替えたときに、違和感なくシームレスに一時表示部品780を認識できる。
According to the above, the temporary display component 780 is arranged on the horizontal screen at a position based on the horizontal width of the vertical screen. Therefore, the user can seamlessly recognize the temporary display component 780 without a sense of incongruity when the portable terminal 10 is tilted to switch between the vertically long screen and the horizontally long screen.

なお、上記の例では、一時表示部品780が、縦長画面時の横幅(短辺の長さ)を基準
とした位置に一時表示部品780を配置する構成としたが、他の局面において、横長画面
時の縦幅(短辺の長さ)を基準として一時表示部品780を配置する構成であってもよい
。そこで、図13を用いて具体的に当該構成について説明する。
In the above example, the temporary display component 780 is configured to place the temporary display component 780 at a position based on the horizontal width (length of the short side) when the screen is vertically long. The temporary display component 780 may be arranged based on the vertical width (the length of the short side). Therefore, the configuration will be specifically described with reference to FIG.

図13は、さらに他の実施形態に従う縦長画面および横長画面における一時表示部品7
80の位置関係について説明する図である。状態(A)および(B)を参照して、オブジ
ェクト制御部195は、横長画面および縦長画面において、縦方向における中央線131
0および1330それぞれから等しい距離1320に、一時表示部品780を配置する。
FIG. 13 shows a temporary display component 7 on a vertically long screen and a horizontally long screen according to still another embodiment.
It is a figure explaining the positional relationship of 80. FIG. Referring to states (A) and (B), object control unit 195 displays center line 131 in the vertical direction on the horizontally long screen and the vertically long screen.
Temporary display component 780 is placed at equal distance 1320 from 0 and 1330, respectively.

上記によれば、一時表示部品780は、縦長画面において、横長画面時の縦幅を基準と
した位置に配置される。そのため、ユーザは、携帯端末10を傾けて縦長画面と横長画面
とを切り替えたときに、違和感なくシームレスに一時表示部品780を認識できる。
According to the above, the temporary display component 780 is arranged on the vertical screen at a position based on the vertical width of the horizontal screen. Therefore, the user can seamlessly recognize the temporary display component 780 without a sense of incongruity when the portable terminal 10 is tilted to switch between the vertically long screen and the horizontally long screen.

図14は、さらに他の実施形態に従う縦長画面および横長画面における一時表示部品1
420の位置関係について説明する図である。なお、図14において図7と同一符号を付
している部分については同じであるため、その説明は繰り返さない。
FIG. 14 shows a temporary display component 1 on a portrait screen and a landscape screen according to still another embodiment.
It is a figure explaining the positional relationship of 420. FIG. 14 that are the same as those in FIG. 7 are the same as those in FIG. 7, and the description thereof will not be repeated.

状態(A)を参照して、タッチスクリーン130には、敵キャラクタのうち比較的強力
なボスキャラクタ1410と、一時表示部品1420とが表示されている。一時表示部品
1420は、例えば、ユーザにとってボスキャラクタ1410との戦いを有利に進めるた
めのメッセージである。
Referring to state (A), relatively strong boss character 1410 and temporary display component 1420 among enemy characters are displayed on touch screen 130. Temporary display component 1420 is, for example, a message for promoting the battle with boss character 1410 for the user.

ある局面において、オブジェクト制御部195は、自キャラクタ710および仮想カメ
ラ420を、ボスキャラクタ1410を中心に移動させる。より具体的には、移動操作検
出部193が検出する右ベクトル方向1430に対して、オブジェクト制御部195は、
自キャラクタ710および仮想カメラ420をボスキャラクタ1410を中心に反時計回
りに移動させる。これにより、タッチスクリーン130には、常に自キャラクタ710お
よびボスキャラクタ1410が表示される。
In one aspect, the object control unit 195 moves the own character 710 and the virtual camera 420 around the boss character 1410. More specifically, for the right vector direction 1430 detected by the movement operation detection unit 193, the object control unit 195
The player character 710 and the virtual camera 420 are moved counterclockwise around the boss character 1410. Accordingly, the own character 710 and the boss character 1410 are always displayed on the touch screen 130.

ユーザは、ボスキャラクタ1410の動作に応じて、自キャラクタ710を操作する。
このような状況において、独立部品がボスキャラクタ1410上に覆いかぶさって表示さ
れることは好ましくない。そのため、一時表示部品1420は、タッチスクリーン130
の端部に表示される。
The user operates the player character 710 according to the movement of the boss character 1410.
In such a situation, it is not preferable that the independent part is displayed over the boss character 1410. Therefore, the temporary display component 1420 is displayed on the touch screen 130.
Is displayed at the end of.

状態(A)および(B)に示されるように、一時表示部品1420が縦長画面および横
長画面における左右の端部に配置される場合、オブジェクト制御部195は、これら画面
の上下方向における一時表示部品1420の配置位置が予め定められた条件を満たすよう
に制御する。
As shown in the states (A) and (B), when the temporary display component 1420 is disposed at the left and right ends of the portrait screen and the landscape screen, the object control unit 195 displays the temporary display component in the vertical direction of these screens. Control is performed so that the arrangement position of 1420 satisfies a predetermined condition.

図14の例において、オブジェクト制御部195は、縦長画面および横長画面において
一時表示部品1420が配置される上下方向の位置1450および1470それぞれによ
って内分される上下の割合、すなわち、距離1460と距離1465との割合と、距離1
480と距離1485との割合とが等しくなるように、一時表示部品1420を配置する
In the example of FIG. 14, the object control unit 195 displays the vertical ratio internally divided by the vertical positions 1450 and 1470 at which the temporary display component 1420 is arranged on the vertical screen and the horizontal screen, that is, the distance 1460 and the distance 1465. And the distance 1
Temporary display component 1420 is arranged so that the ratio between 480 and distance 1485 is equal.

上記によれば、オブジェクト制御部195は、縦長画面および横長画面において、一時
表示部品1420とボスキャラクタ1410とが重なる部分を最小限に抑えつつ、一時表
示部品1420の表示位置の一貫性を担保できる。そのため、ユーザは、携帯端末10を
傾けて縦長画面と横長画面とを切り替えたときに、一時表示部品1420によってボスキ
ャラクタ1410の動作確認を邪魔されることなく、かつ、違和感なくシームレスに一時
表示部品1420を認識できる。
Based on the above, the object control unit 195 can ensure the consistency of the display position of the temporary display component 1420 while minimizing the overlapping portion of the temporary display component 1420 and the boss character 1410 on the portrait and landscape screens. . Therefore, when the user tilts the mobile terminal 10 to switch between the portrait screen and the landscape screen, the temporary display component 1420 does not interfere with the operation check of the boss character 1410 and seamlessly displays the discomfort temporarily. 1420 can be recognized.

なお、他の局面において、オブジェクト制御部195は、縦長画面および横長画面にお
いて、画面の上下方向における中央線から等しい距離に一時表示部品1420を配置する
構成であってもよい。
Note that in another aspect, the object control unit 195 may be configured to arrange the temporary display component 1420 at an equal distance from the center line in the vertical direction of the screen on the vertically long screen and the horizontally long screen.

図10〜14では縦長画面および横長画面における一時表示部品の配置位置について説
明したが、常時表示部品についても同様に配置し得る。これにより、ユーザは、携帯端末
10を傾けて縦長画面と横長画面とを切り替えたときに、シームレスに常時表示部品を認
識できる。
10 to 14, the arrangement positions of the temporary display components on the portrait screen and the landscape screen have been described. However, the regular display components can be similarly arranged. Thereby, when the user tilts the portable terminal 10 and switches between the portrait screen and the landscape screen, the user can seamlessly recognize the display components at all times.

図15は、上記一連の縦長画面および横長画面を切り替えるとき制御について説明する
フローチャートである。図15に示される処理は、プロセッサ190が記憶部150に格
納されるゲームプログラム151を実行することにより実現される。また、図15に示さ
れる処理は、仮想カメラ420および830の撮影する画像がタッチスクリーン130に
表示されているときに実行される。
FIG. 15 is a flowchart for explaining the control when switching between the series of portrait screen and landscape screen. The processing shown in FIG. 15 is realized by the processor 190 executing the game program 151 stored in the storage unit 150. Further, the processing shown in FIG. 15 is executed when images taken by the virtual cameras 420 and 830 are displayed on the touch screen 130.

ステップS1510において、プロセッサ190は、加速度センサ185の検出する傾
きが属する範囲が切り替わった否かを判断する。一例として、加速度センサ185は、重
力方向に対するタッチスクリーン130の長手方向の角度(0〜180度)を検出する。
プロセッサ190は、当該角度が45度以下、および135度よりも大きい範囲と、45
度よりも大きく135度以下の範囲との間で切り替わったか否かを判断する。
In step S1510, the processor 190 determines whether or not the range to which the inclination detected by the acceleration sensor 185 belongs has been switched. As an example, the acceleration sensor 185 detects an angle (0 to 180 degrees) in the longitudinal direction of the touch screen 130 with respect to the direction of gravity.
The processor 190 has a range in which the angle is 45 degrees or less and greater than 135 degrees, and 45
It is determined whether or not the angle has been switched between a range greater than 135 degrees and less than 135 degrees.

プロセッサ190は、加速度センサ185の検出する傾きが属する範囲が切り替わった
と判断した場合(ステップS1510においてYES)、処理をステップS1520に進
める。そうでない場合(ステップS1510においてNO)、プロセッサ190は処理を
ステップS1510に戻す。
If processor 190 determines that the range to which the inclination detected by acceleration sensor 185 belongs has changed (YES in step S1510), processing proceeds to step S1520. Otherwise (NO in step S1510), processor 190 returns the process to step S1510.

ステップS1520において、プロセッサ190は、仮想カメラ制御部194として、
仮想カメラ420および840の視界のアスペクト比を変更する。一例として、ステップ
S1510で加速度センサ185が検出する傾きが属する範囲が、45度よりも大きく1
35度以下の範囲に切り替わった場合、仮想カメラ制御部194は、仮想カメラ420お
よび840の視界のアスペクト比を縦長のアスペクト比から横長のアスペクト比に変更す
る。
In step S1520, the processor 190 operates as the virtual camera control unit 194.
The aspect ratio of the field of view of the virtual cameras 420 and 840 is changed. As an example, the range to which the inclination detected by the acceleration sensor 185 in step S1510 belongs is greater than 45 degrees and 1
When switching to a range of 35 degrees or less, the virtual camera control unit 194 changes the aspect ratio of the field of view of the virtual cameras 420 and 840 from a vertically long aspect ratio to a horizontally long aspect ratio.

ステップS1530において、プロセッサ190は、オブジェクト制御部195として
、仮想空間830に配置される独立部品の配置位置を変更する。このとき、オブジェクト
制御部195は、ある独立部品について、仮想カメラ420が縦長のアスペクト比で撮影
する画像に対して重ね合わせられる位置および、横長のアスペクト比で撮影する画像に対
して重ね合わせられる位置がそれぞれ、上記説明した共通する予め定められた条件を満た
すように、配置位置を変更する。
In step S <b> 1530, the processor 190 changes the arrangement position of the independent component arranged in the virtual space 830 as the object control unit 195. At this time, the object control unit 195 positions, for an independent component, a position where the virtual camera 420 is superimposed on an image captured with a vertically long aspect ratio and a position where the virtual camera 420 is superimposed on an image captured with a horizontally long aspect ratio. Each change the arrangement position so as to satisfy the above-described common predetermined condition.

ステップS1540において、プロセッサ190は、表示制御部196として、タッチ
スクリーン130に表示される画面を回転させる。これにより、タッチスクリーン130
に表示される画面が縦長画面と横長画面との間で切り替わる。その後、プロセッサ190
は、処理をステップS1510に戻す。
In step S 1540, the processor 190 rotates the screen displayed on the touch screen 130 as the display control unit 196. Thereby, the touch screen 130 is displayed.
The screen displayed on the screen switches between the portrait screen and landscape screen. Thereafter, the processor 190
Returns the process to step S1510.

なお、他の局面において、ステップS1520と、ステップS1530と、ステップS
1540とは、任意の順番に入れ替えられてもよい。
In other aspects, Step S1520, Step S1530, and Step S
1540 may be replaced in any order.

上記によれば、タッチスクリーン130に表示される画面が縦長画面と横長画面との間
で切り替わったとしても、独立部品は、縦長画面および横長画面において、共通する予め
定められた条件に従って配置される。そのため、独立部品は、縦長画面および横長画面に
おいて、似たような位置に配置される。その結果、ユーザは、ユーザは、携帯端末10を
傾けて縦長画面と横長画面とを切り替えたときに、シームレスに独立部品を認識できる。
換言すれば、ゲームプログラム151は、縦長画面と横長画面との切り替え時にユーザに
違和感を抱かせないことにより、ユーザのゲームへの没入感をより向上し得る。
According to the above, even if the screen displayed on the touch screen 130 is switched between the portrait screen and the landscape screen, the independent component is arranged according to the predetermined condition common to the portrait screen and the landscape screen. . Therefore, the independent parts are arranged at similar positions on the vertically long screen and the horizontally long screen. As a result, the user can recognize independent components seamlessly when the user tilts the mobile terminal 10 and switches between the portrait screen and the landscape screen.
In other words, the game program 151 can further improve the user's sense of immersion in the game by not causing the user to feel uncomfortable when switching between the portrait screen and the landscape screen.

今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられ
るべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、
特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される
It should be thought that embodiment disclosed this time is an illustration and restrictive at no points. The scope of the present invention is shown not by the above description but by the claims,
It is intended that all modifications within the meaning and scope equivalent to the terms of the claims are included.

1 ゲーム配信システム、10,10A,10B,10C 携帯端末、20 サーバ、
25 メモリ、26 ストレージ、29,190 プロセッサ、80 ネットワーク、8
1 無線基地局、82 無線ルータ、110 アンテナ、130 タッチスクリーン、1
31 タッチパネル、132 ディスプレイ、150,250 記憶部、151,251
ゲームプログラム、152,252 ゲーム情報、153,253 ユーザ情報、16
0 音声処理回路、170 マイク、180 スピーカ、185 加速度センサ、191
入力操作受付部、192 ゲーム進行処理部、193 移動操作検出部、194 仮想
カメラ制御部、195 オブジェクト制御部、196 表示制御部、252A オブジェ
クト管理テーブル、252B パッシブスキル管理テーブル、252C アクティブスキ
ル管理テーブル、253A ユーザ管理テーブル、290 制御部、291 送受信部、
292 サーバ処理部、293 データ管理部、294 マッチング部、295 計測部
、410,830 仮想空間、420,840 仮想カメラ、710 自キャラクタ、7
20 敵キャラクタ、730 木、740,750,760,770 常時表示部品、7
80,1420 一時表示部品、910 ドラッグ操作、1410 ボスキャラクタ。
1 game distribution system, 10, 10A, 10B, 10C mobile terminal, 20 servers,
25 memory, 26 storage, 29,190 processors, 80 networks, 8
1 wireless base station, 82 wireless router, 110 antenna, 130 touch screen, 1
31 touch panel, 132 display, 150,250 storage unit, 151,251
Game program, 152,252 Game information, 153,253 User information, 16
0 audio processing circuit, 170 microphone, 180 speaker, 185 acceleration sensor, 191
Input operation reception unit, 192 game progress processing unit, 193 movement operation detection unit, 194 virtual camera control unit, 195 object control unit, 196 display control unit, 252A object management table, 252B passive skill management table, 252C active skill management table, 253A User management table, 290 control unit, 291 transmission / reception unit,
292 Server processing unit, 293 data management unit, 294 matching unit, 295 measurement unit, 410,830 virtual space, 420,840 virtual camera, 710 own character, 7
20 enemy characters, 730 trees, 740, 750, 760, 770 always-on display parts, 7
80, 1420 Temporary display component, 910 drag operation, 1410 Boss character.

Claims (8)

矩形のディスプレイと、プロセッサと、傾きを検出するための傾きセンサとを備える携
帯端末で実行されるゲームプログラムであって、
前記ゲームプログラムは、前記プロセッサに、
仮想空間を規定するステップと、
前記仮想空間に仮想カメラを配置するステップと、
前記傾きセンサの検出結果に応じて、前記仮想カメラの視界のアスペクト比を、縦長の
第1アスペクト比と横長の第2アスペクト比との間で切り替えるステップと、
前記仮想カメラの撮影する撮影画像に、前記撮影画像とは独立した部品画像を重ね合わ
せた画像を前記ディスプレイに表示するステップとを実行させ、
前記部品画像は、前記撮影画像の少なくとも一部が前記ディスプレイに表示されている
状態において一時的に前記ディスプレイに表示される第1部品を含み、
前記表示するステップは、前記仮想カメラが前記第1アスペクト比で撮影する第1撮影
画像、および前記第2アスペクト比で撮影する第2撮影画像において、予め定められた条
件を満たす位置に前記第1部品を重ね合わせることを含む、ゲームプログラム。
A game program that is executed on a mobile terminal including a rectangular display, a processor, and an inclination sensor for detecting inclination,
The game program is stored in the processor.
Defining a virtual space;
Placing a virtual camera in the virtual space;
Switching the aspect ratio of the field of view of the virtual camera between a vertically long first aspect ratio and a horizontally long second aspect ratio according to a detection result of the tilt sensor;
A step of displaying an image obtained by superimposing a component image independent of the captured image on the captured image captured by the virtual camera on the display;
The component image includes a first component temporarily displayed on the display in a state where at least a part of the captured image is displayed on the display,
In the display step, the first captured image captured by the virtual camera with the first aspect ratio and the second captured image captured with the second aspect ratio are located at positions that satisfy a predetermined condition. A game program that includes overlapping parts.
前記予め定められた条件は、前記撮影画像に含まれる予め定められたオブジェクトの位
置に対して、予め定められた方位に予め定められた距離だけ離れた位置に、前記第1部品
を重ね合わせることを含む、請求項1に記載のゲームプログラム。
The predetermined condition is that the first component is overlapped at a predetermined distance in a predetermined direction with respect to a predetermined object position included in the captured image. The game program according to claim 1, comprising:
前記表示するステップは、前記第1部品を、前記ディスプレイの端部に表示することを
含み、
前記予め定められた条件は、前記第1および第2撮影画像における前記第1部品が表示
される位置によって内分される上下または左右の割合が一致することを含む、請求項1に
記載のゲームプログラム。
The step of displaying includes displaying the first component on an end of the display;
2. The game according to claim 1, wherein the predetermined condition includes that a ratio of up / down or left / right divided by a position where the first part is displayed in the first and second photographed images matches. program.
前記予め定められた条件は、前記第1撮影画像の中央位置から前記第1部品が配置され
る横方向の距離と、前記第2撮影画像の中央位置から前記第1部品が配置される横方向の
距離とが等しいことを含む、請求項1または2に記載のゲームプログラム。
The predetermined condition includes a lateral distance at which the first part is arranged from a center position of the first photographed image and a lateral direction at which the first part is arranged from the center position of the second photographed image. The game program according to claim 1, wherein the game program includes an equal distance.
前記予め定められた条件は、前記第1撮影画像の中央位置から前記第1部品が配置され
る縦方向の距離と、前記第2撮影画像の中央位置から前記第1部品が配置される縦方向の
距離とが等しいことを含む、請求項1または2に記載のゲームプログラム。
The predetermined condition is that a vertical distance at which the first part is arranged from a center position of the first photographed image and a vertical direction at which the first part is arranged from the center position of the second photographed image. The game program according to claim 1, wherein the game program includes an equal distance.
前記部品画像は、前記撮影画像の少なくとも一部が前記ディスプレイに表示されている
状態において定常的に前記ディスプレイに表示される第2部品を含み、
前記表示するステップは、前記仮想カメラが前記第1アスペクト比で撮影する第1撮影
画像、および前記第2アスペクト比で撮影する第2撮影画像において、所定の条件を満た
す位置に前記第2部品を重ね合わせることを含む、請求項1〜5のいずれか1項に記載の
ゲームプログラム。
The component image includes a second component that is constantly displayed on the display in a state where at least a part of the captured image is displayed on the display,
In the displaying step, the second component is placed at a position satisfying a predetermined condition in a first captured image captured by the virtual camera at the first aspect ratio and a second captured image captured at the second aspect ratio. The game program according to any one of claims 1 to 5, including superposition.
矩形のディスプレイと、傾きを検出するための傾きセンサとを含む携帯端末において、
ゲームを提供する方法であって、
仮想空間を規定するステップと、
前記仮想空間に仮想カメラを配置するステップと、
前記傾きセンサの検出結果に応じて、前記仮想カメラの視界のアスペクト比を、縦長の
第1アスペクト比と横長の第2アスペクト比との間で切り替えるステップと、
前記仮想カメラの撮影する撮影画像に、前記撮影画像とは独立した部品画像を重ね合わ
せた画像を前記ディスプレイに表示するステップとを備え、
前記部品画像は、前記撮影画像の少なくとも一部が前記ディスプレイに表示されている
状態において一時的に前記ディスプレイに表示される第1部品を含み、
前記表示するステップは、前記仮想カメラが前記第1アスペクト比で撮影する第1撮影
画像、および前記第2アスペクト比で撮影する第2撮影画像において、予め定められた条
件を満たす位置に前記第1部品を重ね合わせることを含む、ゲームを提供する方法。
In a mobile terminal including a rectangular display and a tilt sensor for detecting tilt,
A method of providing a game,
Defining a virtual space;
Placing a virtual camera in the virtual space;
Switching the aspect ratio of the field of view of the virtual camera between a vertically long first aspect ratio and a horizontally long second aspect ratio according to a detection result of the tilt sensor;
A step of displaying an image obtained by superimposing a component image independent of the captured image on the captured image captured by the virtual camera on the display;
The component image includes a first component temporarily displayed on the display in a state where at least a part of the captured image is displayed on the display,
In the display step, the first captured image captured by the virtual camera with the first aspect ratio and the second captured image captured with the second aspect ratio are located at positions that satisfy a predetermined condition. A method for providing a game, comprising superimposing parts.
ゲームを提供するための情報処理装置であって、
矩形のディスプレイと、
前記ディスプレイに表示される内容を制御するためのプロセッサと、
前記ディスプレイの傾きを検出するための傾きセンサと、
一連の命令を格納するためのメモリとを備え、
前記一連の命令が前記プロセッサによって実行されると、
前記プロセッサは、
仮想空間を規定して、当該仮想空間に仮想カメラを配置し、
前記傾きセンサの検出結果に応じて、前記仮想カメラの視界のアスペクト比を、縦長
の第1アスペクト比と横長の第2アスペクト比との間で切り替え、
前記仮想カメラの撮影する撮影画像に、前記撮影画像とは独立した部品画像を重ね合
わせた画像を前記ディスプレイに表示するように構成され、
前記部品画像は、前記撮影画像の少なくとも一部が前記ディスプレイに表示されている
状態において一時的に前記ディスプレイに表示される第1部品を含み、
前記プロセッサはさらに、前記仮想カメラが前記第1アスペクト比で撮影する第1撮影
画像、および前記第2アスペクト比で撮影する第2撮影画像において、予め定められた条
件を満たす位置に前記第1部品を重ね合わせるように構成されている、情報処理装置。
An information processing apparatus for providing a game,
A rectangular display,
A processor for controlling the content displayed on the display;
An inclination sensor for detecting the inclination of the display;
A memory for storing a series of instructions,
When the sequence of instructions is executed by the processor,
The processor is
Define a virtual space, place a virtual camera in the virtual space,
In accordance with the detection result of the tilt sensor, the aspect ratio of the field of view of the virtual camera is switched between a vertically long first aspect ratio and a horizontally long second aspect ratio,
An image obtained by superimposing a component image independent of the captured image on the captured image captured by the virtual camera is configured to be displayed on the display.
The component image includes a first component temporarily displayed on the display in a state where at least a part of the captured image is displayed on the display,
The processor further includes the first component at a position that satisfies a predetermined condition in a first captured image captured by the virtual camera at the first aspect ratio and a second captured image captured at the second aspect ratio. An information processing apparatus configured to superimpose.
JP2018220774A 2018-11-26 2018-11-26 Game program, game providing method, and information processor Pending JP2019051360A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018220774A JP2019051360A (en) 2018-11-26 2018-11-26 Game program, game providing method, and information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018220774A JP2019051360A (en) 2018-11-26 2018-11-26 Game program, game providing method, and information processor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016195249A Division JP6673796B2 (en) 2016-09-30 2016-09-30 GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE

Publications (1)

Publication Number Publication Date
JP2019051360A true JP2019051360A (en) 2019-04-04

Family

ID=66013072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018220774A Pending JP2019051360A (en) 2018-11-26 2018-11-26 Game program, game providing method, and information processor

Country Status (1)

Country Link
JP (1) JP2019051360A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112416190A (en) * 2019-08-23 2021-02-26 珠海金山办公软件有限公司 Method and device for displaying document

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112416190A (en) * 2019-08-23 2021-02-26 珠海金山办公软件有限公司 Method and device for displaying document
WO2021037005A1 (en) * 2019-08-23 2021-03-04 北京金山办公软件股份有限公司 Document display method and device

Similar Documents

Publication Publication Date Title
CN107982918B (en) Game game result display method and device and terminal
KR20210113333A (en) Methods, devices, devices and storage media for controlling multiple virtual characters
US9636575B2 (en) Mobile terminal, control method for mobile terminal, and program
US20210200861A1 (en) Control information processing method and apparatus, electronic device, and storage medium
CN111589127A (en) Control method, device and equipment of virtual role and storage medium
US20220291791A1 (en) Method and apparatus for determining selected target, device, and storage medium
JP6673796B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
WO2022237076A1 (en) Method and apparatus for controlling avatar, and device and computer-readable storage medium
CN111589116A (en) Method, device, terminal and storage medium for displaying function options
CN108786108B (en) Target object control method, device, storage medium and equipment
JP6404877B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
CN111752697B (en) Application program running method, device, equipment and readable storage medium
CN110841288B (en) Prompt identifier eliminating method, device, terminal and storage medium
JP6002345B1 (en) Information processing apparatus including game program, method, and touch screen
JP2019051360A (en) Game program, game providing method, and information processor
CN112023403A (en) Battle process display method and device based on image-text information
JP2017192538A (en) Game program, method, and information processor with touch screen
CN112367533B (en) Interactive service processing method, device, equipment and computer readable storage medium
JP6924564B2 (en) Game program
CN112973116B (en) Virtual scene picture display method and device, computer equipment and storage medium
CN112843703B (en) Information display method, device, terminal and storage medium
US10441890B2 (en) Game apparatus
JP2018192326A (en) Game program, method for providing game and information processor
JP6174202B1 (en) Information processing apparatus provided with game program, method, and touch screen
JP6002344B1 (en) Information processing apparatus including game program, method, and touch screen