JP2023016046A - Information processing system, program, and information processing method - Google Patents

Information processing system, program, and information processing method Download PDF

Info

Publication number
JP2023016046A
JP2023016046A JP2022167753A JP2022167753A JP2023016046A JP 2023016046 A JP2023016046 A JP 2023016046A JP 2022167753 A JP2022167753 A JP 2022167753A JP 2022167753 A JP2022167753 A JP 2022167753A JP 2023016046 A JP2023016046 A JP 2023016046A
Authority
JP
Japan
Prior art keywords
user
motion
information processing
finger
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022167753A
Other languages
Japanese (ja)
Other versions
JP7286856B2 (en
Inventor
史宗 佐野
Fumihiro Sano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Akatsuki Inc
Original Assignee
Akatsuki Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022055133A external-priority patent/JP2023015979A/en
Application filed by Akatsuki Inc filed Critical Akatsuki Inc
Priority to JP2022167753A priority Critical patent/JP7286856B2/en
Publication of JP2023016046A publication Critical patent/JP2023016046A/en
Application granted granted Critical
Publication of JP7286856B2 publication Critical patent/JP7286856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing system, a program, and an information processing method capable of improving convenience when operating a movable object within an application.
SOLUTION: An information processing system for providing an application executable by an information processing terminal includes: a detection part for detecting three-dimensional operation of a user's fingers; and an operation control part for controlling three-dimensional operation of a movable object within the application on the basis of a three-dimensional operation of a user's fingers detected by the detection part.
SELECTED DRAWING: Figure 3
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、情報処理システム、プログラム及び情報処理方法に関する。 The present invention relates to an information processing system, a program, and an information processing method.

従来、コンピュータやスマートフォン等の情報処理装置(ユーザ端末)を介してアプリ
ケーションを提供する情報処理システムが知られている。例えば近年では、ネットワーク
を介してサーバにアクセス可能なスマートフォンやゲーム端末等のユーザ端末で実行可能
なゲームが提供されている(例えば、特許文献1を参照)。
2. Description of the Related Art Conventionally, information processing systems are known that provide applications via information processing devices (user terminals) such as computers and smartphones. For example, in recent years, games that can be executed on user terminals such as smartphones and game terminals that can access servers via a network have been provided (see, for example, Patent Document 1).

ユーザ端末で実行可能なゲームでは、バーチャルスティックとも称される仮想的な操作
部がゲーム画面に表示され、この操作部が例えばユーザのスワイプ動作によって操作され
ることによって、ユーザが使用するゲーム内のプレイヤ(可動オブジェクト)が制御され
るものが存在している。
In a game that can be executed on a user terminal, a virtual operation unit called a virtual stick is displayed on the game screen. There is something that the player (movable object) is controlled by.

特許第5117466号公報Japanese Patent No. 5117466

上記のような仮想的な操作部がゲーム画面に表示されるゲームでは、ユーザがゲーム画
面に接触するスワイプ動作によってプレイヤが操作されることから、例えばゲーム画面に
対する奥行き方向のプレイヤの三次元的な動作を実現することができない。したがって、
プレイヤの動作が二次元的な動作に制限されることがあり、操作性に改善の余地がある。
In a game in which a virtual operation unit as described above is displayed on the game screen, the player is operated by a swipe motion in which the user touches the game screen. Action cannot be realized. therefore,
The player's actions are sometimes restricted to two-dimensional actions, leaving room for improvement in operability.

本発明は、上記事情に鑑みてなされたものであり、アプリケーション内の可動オブジェ
クトを操作する際の利便性を向上させることができる情報処理システム、プログラム及び
情報処理方法を提供することを課題とするものである。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an information processing system, a program, and an information processing method that can improve convenience when operating a movable object in an application. It is.

上記課題を達成するための本発明は、情報処理端末で実行可能なアプリケーションを提
供する情報処理システムにおいて、
ユーザの指の三次元の動作を検出する検出部と、
前記検出部で検出されるユーザの指の三次元の動作に基づいて、前記アプリケーション
内での可動オブジェクトの三次元の動作を制御する動作制御部と、
を備えることことを特徴としている。
To achieve the above object, the present invention provides an information processing system that provides an application that can be executed on an information processing terminal,
a detection unit that detects a three-dimensional motion of a user's finger;
a motion control unit that controls the three-dimensional motion of a movable object within the application based on the three-dimensional motion of the user's finger detected by the detection unit;
It is characterized by having

これによれば、検出部で検出されるユーザの指の三次元の動作に応じて、アプリケーシ
ョン内の可動オブジェクトが三次元に制御される。よって、ユーザは直感的にアプリケー
ションを操作することができることから、ゲーム等のアプリケーションを操作する際のユ
ーザの利便性が向上する。
According to this, the movable object in the application is three-dimensionally controlled according to the three-dimensional motion of the user's finger detected by the detection unit. Therefore, since the user can intuitively operate the application, the convenience for the user when operating the application such as a game is improved.

この発明によれば、アプリケーション内で可動オブジェクトを操作する際のユーザの利
便性が向上する。
According to the present invention, user convenience is improved when operating a movable object within an application.

本発明の実施の形態に係る情報処理システムの構成の概略を説明するブロック図である。1 is a block diagram illustrating the outline of the configuration of an information processing system according to an embodiment of the present invention; FIG. 同じく、本実施の形態に係る情報処理システムのサーバの構成の概略を説明するブロック図である。Similarly, it is a block diagram for explaining the outline of the configuration of the server of the information processing system according to the present embodiment. 同じく、本実施の形態に係る情報処理システムのサーバのストレージの構成の概略を説明するブロック図である。Similarly, it is a block diagram for explaining the outline of the configuration of the storage of the server of the information processing system according to the present embodiment. 同じく、本実施の形態に係る情報処理システムで処理されるゲーム情報の構成の概略を説明するブロック図である。Similarly, it is a block diagram for explaining the outline of the configuration of game information processed by the information processing system according to the present embodiment. 同じく、本実施の形態に係る情報処理システムの情報処理プログラムの動作制御部の処理の概略を説明するフローチャートである。Similarly, it is a flowchart explaining the outline of the processing of the operation control unit of the information processing program of the information processing system according to the present embodiment. 同じく、本実施の形態に係る情報処理システムのゲーム画面の一例を示す図である。Similarly, it is a figure which shows an example of the game screen of the information processing system which concerns on this Embodiment. 同じく、本実施の形態に係る情報処理システムのゲーム画面の一例を示す図である。Similarly, it is a figure which shows an example of the game screen of the information processing system which concerns on this Embodiment. 同じく、本実施の形態に係る情報処理システムのゲーム画面の一例を示す図である。Similarly, it is a figure which shows an example of the game screen of the information processing system which concerns on this Embodiment. 同じく、本実施の形態に係る情報処理システムのゲーム画面の一例を示す図である。Similarly, it is a figure which shows an example of the game screen of the information processing system which concerns on this Embodiment. 同じく、本実施の形態に係る情報処理システムのユーザ端末の構成の概略を説明するブロック図である。Similarly, it is a block diagram for explaining the outline of the configuration of the user terminal of the information processing system according to the present embodiment. 同じく、本実施の形態に係る情報処理システムの処理の概略を説明するフローチャートである。Similarly, it is a flowchart explaining the outline of the processing of the information processing system according to the present embodiment.

次に、図1~図11に基づいて、本発明の実施の形態に係る情報処理システムについて
説明する。
Next, an information processing system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 11. FIG.

図1は、本発明の実施の形態に係る情報処理システムの構成の概略を説明するブロック
図である。図示のように、例えば情報処理システム10は、サーバ20及び1以上のユー
ザ端末30(情報処理端末)を備え、これらがインターネット網等のネットワーク100
を介して互いにアクセス可能に接続される。なお、サーバ20の機能をユーザ端末30に
設けることで、ユーザ端末30のみで情報処理システム10を構成してもよい。また、本
例の情報処理システム10はゲーム分野のアプリケーションを提供するシステムであるが
、これに限られず、ゲーム以外の様々な分野のアプリケーションを提供するシステムにも
適用可能である。ゲーム以外の分野としては、例えば、不動産の内部を見学するアプリケ
ーション等とすることができる。当該アプリケーション内の建物内でキャラクタを三次元
に移動させたり、仮想カメラの三次元の動きを制御して、画面に表示される表示画像の視
野(視界)を三次元で制御したりすることができる。
FIG. 1 is a block diagram illustrating the outline of the configuration of an information processing system according to an embodiment of the present invention. As illustrated, for example, the information processing system 10 includes a server 20 and one or more user terminals 30 (information processing terminals), which are connected to a network 100 such as the Internet.
are accessiblely connected to each other via By providing the functions of the server 20 in the user terminal 30 , the information processing system 10 may be configured only by the user terminal 30 . Further, the information processing system 10 of this example is a system that provides applications in the game field, but is not limited to this, and can also be applied to systems that provide applications in various fields other than games. Fields other than games include, for example, an application for viewing the interior of real estate. It is possible to move a character three-dimensionally within a building within the application, control the three-dimensional movement of a virtual camera, and control the field of view (visual field) of the display image displayed on the screen in three dimensions. can.

サーバ20は、本実施の形態では、情報処理システム10でアプリケーション(本例で
はゲーム)を提供する事業者1(システム管理者)に配備され、ユーザ端末30は、事業
者1が提供するアプリケーションを利用するユーザ2に保有される。
In the present embodiment, the server 20 is deployed in the operator 1 (system administrator) who provides the application (game in this example) in the information processing system 10, and the user terminal 30 executes the application provided by the operator 1. It is held by the user 2 who uses it.

情報処理システム10で事業者1が提供するゲームは、例えば、対戦ゲーム、シューテ
ィングゲーム、パズルゲーム、アクションゲーム、野球ゲーム、サッカーゲーム、その他
スポーツゲーム、クイズゲーム、ピンボールゲーム、カードゲーム、リズムゲーム、RP
G(ロールプレイングゲーム)、位置情報ゲーム、ボードゲーム、アドベンチャーゲーム
、カジノゲーム、シミュレーションゲーム、ストラテジーゲーム、レーシングゲーム又は
これらのうち何れか複数を組み合わせたゲーム等であってよい。
The games provided by the operator 1 in the information processing system 10 include, for example, fighting games, shooting games, puzzle games, action games, baseball games, soccer games, other sports games, quiz games, pinball games, card games, and rhythm games. , RP
G (role-playing game), location information game, board game, adventure game, casino game, simulation game, strategy game, racing game, or a combination of any of these may be used.

次に、本実施の形態の情報処理システム10の各部の具体的な構成について説明する。
以下の説明において、「ゲーム」の記載は「アプリケーション」に置きかえ可能である。
Next, a specific configuration of each part of the information processing system 10 of this embodiment will be described.
In the following description, the description of "game" can be replaced with "application".

サーバ20は、本実施の形態では、デスクトップ型あるいはノート型のコンピュータ(
情報処理装置)によって実装される。
The server 20 is a desktop or notebook computer (
information processing device).

図2は、サーバ20の構成の概略を説明するブロック図である。図示のように、サーバ
20は、プロセッサ21、メモリ22、ストレージ23、送受信部24、及び入出力部2
5を備え、これらが互いにバス26を介して電気的に接続される。
FIG. 2 is a block diagram for explaining the outline of the configuration of the server 20. As shown in FIG. As illustrated, the server 20 includes a processor 21, a memory 22, a storage 23, a transmitter/receiver 24, and an input/output unit 2.
5 which are electrically connected to each other via a bus 26 .

プロセッサ21は、サーバ20の動作を制御し、各要素間におけるデータの送受信の制
御や、アプリケーションプログラムの実行に必要な処理等を行う演算装置である。
The processor 21 is an arithmetic device that controls the operation of the server 20, controls transmission and reception of data between elements, and performs processes necessary for executing application programs.

このプロセッサ21は、本実施の形態では例えばCPU(Central Proce
ssing Unit)であり、後述するストレージ23に格納されてメモリ22に展開
されたアプリケーションプログラムを実行して各処理を行う。
This processor 21 is, for example, a CPU (Central Process
It is a switching unit), and executes each process by executing an application program stored in a storage 23 described later and developed in a memory 22 .

メモリ22は、DRAM(Dynamic Random Access Memor
y)等の揮発性記憶装置で構成される主記憶装置、及びフラッシュメモリやHDD(Ha
rd Disc Drive)等の不揮発性記憶装置で構成される補助記憶装置を備える
The memory 22 is a DRAM (Dynamic Random Access Memory
y) and other volatile storage devices, and flash memory and HDD (Ha
rd Disc Drive) or other non-volatile storage device.

このメモリ22は、プロセッサ21の作業領域として使用される一方、サーバ20の起
動時に実行されるBIOS(Basic Input/Output System)、
及び各種の設定情報等が格納される。
This memory 22 is used as a work area for the processor 21, and is used as a BIOS (Basic Input/Output System) executed when the server 20 is started.
and various setting information and the like are stored.

ストレージ23は、プログラムや各種の処理に用いられる情報等が格納されている。こ
のストレージ23の構成については、後述する。なお、本例ではサーバ20の記憶部が、
メモリ22とストレージ23とで構成されているが、これに限られるものではない。
The storage 23 stores programs and information used for various processes. The configuration of this storage 23 will be described later. In this example, the storage unit of the server 20 is
It is composed of a memory 22 and a storage 23, but is not limited to this.

送受信部24は、サーバ20をネットワーク100に接続する。この送受信部24は、
Bluetooth(登録商標)やBLE(Bluetooth Low Energy
)といった近距離通信インターフェースを具備するものであってもよい。
The transmitter/receiver 24 connects the server 20 to the network 100 . This transmitting/receiving unit 24 is
Bluetooth (registered trademark) and BLE (Bluetooth Low Energy
) may be provided with a short-range communication interface.

入出力部25は、キーボードやマウス、あるいはディスプレイ等の入出力機器が接続さ
れるインターフェースである。
The input/output unit 25 is an interface to which an input/output device such as a keyboard, mouse, or display is connected.

バス26は、接続したプロセッサ21、メモリ22、ストレージ23、送受信部24及
び入出力部25の間において、例えばアドレス信号、データ信号及び各種の制御信号を伝
達する。
The bus 26 transmits, for example, address signals, data signals and various control signals among the connected processor 21 , memory 22 , storage 23 , transmission/reception unit 24 and input/output unit 25 .

図3は、ストレージ23の構成の概略を説明するブロック図である。図示のように、ス
トレージ23は、本実施の形態では、データベース40及び情報処理プログラム41を備
える。
FIG. 3 is a block diagram for explaining the outline of the configuration of the storage 23. As shown in FIG. As illustrated, the storage 23 includes a database 40 and an information processing program 41 in this embodiment.

データベース40は、ストレージ23の提供する記憶領域として実現され、本実施の形
態では、アプリケーション情報の一例としてのゲーム情報D1が格納される。
The database 40 is implemented as a storage area provided by the storage 23, and stores game information D1 as an example of application information in this embodiment.

図4は、ゲーム情報D1の構成の概略を説明するブロック図である。図示のように、ゲ
ーム情報D1は、ゲームデータd1a、イベントデータd1b、プレイヤデータd1c及
び報酬データd1dを備える。
FIG. 4 is a block diagram for explaining the outline of the configuration of the game information D1. As illustrated, the game information D1 includes game data d1a, event data d1b, player data d1c, and reward data d1d.

ゲームデータd1aは、本実施の形態では、ゲームに登場するキャラクタやアイテム、
背景画像等、ゲームの種類に応じたゲームの設定に関するデータによって構成され、例え
ば、対戦ゲームである場合は、ステージのIDに関連づけられたステージ名等が含まれる
In this embodiment, the game data d1a includes characters and items that appear in the game,
It is composed of data related to game settings according to the type of game, such as a background image.

ゲームデータd1aを構成するキャラクタは、本実施の形態では、ユーザ2がユーザ端
末30を介して操作することによってゲーム内で行動するプレイヤ、プレイヤの仲間とな
るキャラクタ、あるいはプレイヤと対戦する敵のキャラクタ等が含まれる。
In the present embodiment, the characters that make up the game data d1a are the players who act in the game by the operation of the user 2 via the user terminal 30, the characters that become companions of the player, or the characters that fight against the player. etc. are included.

イベントデータd1bは、本実施の形態では、ユーザ2がプレイヤとして実行するトラ
イアル(例えば敵のキャラクタとの対戦等)が設定された任意のイベントによって構成さ
れ、この種のイベントをクリアすると、ゲーム内で使用されるアイテムやプレイヤのエナ
ジーの回復等といった後述するゲーム内報酬が付与される場合がある。
In the present embodiment, the event data d1b is composed of an arbitrary event in which a trial (for example, a battle with an enemy character, etc.) is set by the user 2 as a player. In-game rewards such as items used in , recovery of the player's energy, etc., which will be described later, may be given.

プレイヤデータd1cは、本実施の形態では、プレイヤ名、ユーザ2がプレイヤとして
所有するキャラクタに関するデータ、ユーザ2のプレイヤの動作の設定に関するデータ、
ユーザ2のプレイヤが所有するアイテムに関するデータ、プレイステージに関するデータ
等によって構成される。
In the present embodiment, the player data d1c includes a player name, data relating to a character owned by the user 2 as a player, data relating to settings of the player's actions for the user 2,
It is composed of data related to items owned by the player of user 2, data related to play stages, and the like.

所有するキャラクタに関するデータは、例えば、キャラクタのIDに関連づけられたレ
ベル、攻撃力、防御力及び体力等の各種のパラメータの現在の値が含まれる。
The data about owned characters includes, for example, the current values of various parameters such as level, attack power, defense power, and physical strength associated with the character's ID.

プレイヤの動作の設定に関するデータは、例えば、ユーザ2の指の三次元の動作のベク
トルとプレイヤの動作のベクトルとを関連づける予め設定された任意の基準が含まれる。
Data relating to the player's motion settings include, for example, arbitrary preset criteria that relate the three-dimensional motion vectors of the user's 2 fingers to the player's motion vectors.

本実施の形態では、例えば、ユーザ2の指がx方向に動いた場合はプレイヤもx方向に
動き、ユーザ2の指がy方向に動いた場合はプレイヤもy方向に動く等といった基準が含
まれる。プレイヤの動作の設定に関するデータは、例えば、指の動作のベクトルの方向と
、可動オブジェクト(プレイヤ)の動作のベクトルの方向との関係を示す情報を含んでも
よい。指の動作のベクトルの方向と、可動オブジェクトの動作のベクトルの方向とを一致
させる場合に加え、所定の演算処理によって角度を補正する場合(例えば、ユーザ2の指
がx方向に動いた場合はプレイヤがy方向に動き、ユーザ2の指がy方向に動いた場合は
プレイヤがz方向に動く等といった場合等)も含むことができる。プレイヤの動作の設定
に関するデータは、例えば、指の動作のベクトルの大きさと、可動オブジェクト(プレイ
ヤ)の動作のベクトルの大きさとの関係を示す情報を含んでもよい。例えば、ユーザ2の
指が基準位置から10mm移動した場合は、可動オブジェクトもアプリケーション内で1
0mm動く、あるいは所定の倍率を乗じた距離だけ動く、といった対応関係の情報を含む
。また、ユーザ2の指の三次元の動作と、アプリケーション内の画面のズームイン動作、
及びズームアウト動作とが関連付けられていてもよい。
In this embodiment, for example, if the finger of user 2 moves in the x direction, the player also moves in the x direction, and if the finger of user 2 moves in the y direction, the player also moves in the y direction. be The data regarding the setting of the player's motion may include, for example, information indicating the relationship between the direction of the motion vector of the finger and the direction of the motion vector of the movable object (player). In addition to the case where the direction of the motion vector of the finger and the direction of the motion vector of the movable object are matched, the case where the angle is corrected by predetermined arithmetic processing (for example, when the finger of user 2 moves in the x direction, If the player moves in the y-direction, and the user's finger moves in the y-direction, the player moves in the z-direction, etc.). The data regarding the setting of the player's motion may include, for example, information indicating the relationship between the magnitude of the motion vector of the finger and the magnitude of the motion vector of the movable object (player). For example, if the finger of user 2 moves 10 mm from the reference position, the movable object also moves 1 mm within the application.
It includes information on correspondence such as movement by 0 mm or movement by a distance multiplied by a predetermined magnification. Also, the three-dimensional motion of the finger of the user 2, the zoom-in motion of the screen in the application,
and a zoom-out operation may be associated.

所有するアイテムに関するデータは、例えば、アイテムのIDに関連づけられたアイテ
ムの保有数等の値が含まれる。
Data related to owned items includes, for example, values such as the number of owned items associated with item IDs.

プレイステージに関するデータは、設定された複数のステージのうち、ユーザ2がプレ
イヤとしてこれまでにプレイしたことがあるステージに関するデータであり、例えばプレ
イの回数やステージをクリアした際のデータ等が含まれる。
The data about the play stage is data about the stage that the user 2 has played so far as a player among the set stages, and includes, for example, the number of times played and the data when the stage is cleared. .

報酬データd1dは、プレイヤに付与されるゲーム内報酬に関するデータである。 The reward data d1d is data relating to in-game rewards given to the player.

このゲーム内報酬は、本実施の形態では、例えばゲーム内で実行される任意のイベント
の実行、プレイヤが任意のアイテムを取得する際の確率を示すドロップ率の上昇、ゲーム
内でアイテムと交換したりプレイヤのエナジーを回復したりする等の際に費消するゲーム
内ポイント、あるいはゲーム内で実行される機能が制限されている場合にその制限を解除
して機能を実行させる機能実行指令等が含まれる。
In the present embodiment, this in-game reward includes, for example, the execution of an arbitrary event executed in the game, an increase in the drop rate indicating the probability that the player obtains an arbitrary item, and the exchange of items in the game. In-game points that are consumed when recovering the player's energy, etc., or function execution commands, etc. be

図3で示す情報処理プログラム41は、本実施の形態では、ゲーム処理部41a、動作
制御部41b及びインターフェース生成部41cを備える。
The information processing program 41 shown in FIG. 3 includes a game processing section 41a, an operation control section 41b, and an interface generation section 41c in this embodiment.

ゲーム処理部41aは、本実施の形態では、ゲームの進行やキャラクタの制御といった
ゲームの基本的な処理を実行するモジュールであって、本実施の形態では、例えばキャラ
クタ育成処理、イベント処理、機能制限処理あるいは報酬付与処理等を実行する。
In the present embodiment, the game processing unit 41a is a module that executes basic game processing such as game progress and character control. Executes processing, reward giving processing, or the like.

キャラクタ育成処理は、本実施の形態では、ユーザ2がプレイヤとして選択したキャラ
クタが、ユーザ2によって例えば走らせられたり泳がせられたりといった予め設定された
任意のアクションに基づいて、キャラクタの経験値やエナジーの値を向上させて、キャラ
クタの育成を実行する処理である。
In the character training process, in the present embodiment, a character selected by the user 2 as a player increases the experience value and energy of the character based on any preset action such as being made to run or swim by the user 2. This is a process of improving the value and executing the training of the character.

イベント処理は、本実施の形態では、ユーザ2がプレイヤとして選択したキャラクタの
行動に応じてイベントを実行する処理であり、機能制限処理は、ゲーム内で実行される機
能の制限及びその制限の解除を実行する処理であり、報酬付与処理は、ユーザ2が使用す
るプレイヤにゲーム内報酬を付与する処理である。
In this embodiment, the event processing is processing for executing an event according to the action of the character selected by the user 2 as a player, and the function restriction processing includes restriction of functions executed in the game and cancellation of the restriction. , and the reward giving process is a process of giving an in-game reward to the player used by the user 2 .

ゲーム処理部41aは、その他、ゲームの基本的な各種の処理を実行する。 The game processing unit 41a also executes various other basic processes of the game.

図3で示す動作制御部41bは、本実施の形態では、ゲーム内におけるプレイヤの動作
を制御するモジュールである。
The motion control unit 41b shown in FIG. 3 is a module that controls the motion of the player in the game in this embodiment.

図5は、動作制御部41bの処理の概略を説明するフローチャートである。まず、ゲー
ムの起動後であってゲームを開始する際に、ユーザ端末30の後述する検出部としての三
次元カメラ(デプスカメラ)でユーザ2の指の位置が検出されると、図示のように、動作
制御部41bは、ステップS1において、検出されたユーザ2の指の位置をプレイヤの動
作を制御する際の基準位置として設定する。
FIG. 5 is a flowchart for explaining the outline of the processing of the operation control section 41b. First, when the game is started after the game is started, a three-dimensional camera (depth camera) as a detection unit of the user terminal 30 detects the position of the finger of the user 2 as shown in the figure. In step S1, the motion control unit 41b sets the detected finger position of the user 2 as a reference position for controlling the motion of the player.

本実施の形態では、例えば、ユーザ2がユーザ端末30の正面側の任意の部位に対して
指をかざすと、三次元カメラがその位置でユーザ2の指の位置を検出し、検出したその位
置を基準位置として設定する。基準位置の設定のタイミングは、初めてアプリケーション
を使う際の初期設定時など、予め設定されたタイミングであってもよいし、画面に表示さ
れる基準位置設定アイコンをユーザ2が選択した際などのユーザ2の操作に基づくタイミ
ングであってもよい。
In the present embodiment, for example, when the user 2 holds his/her finger over an arbitrary part on the front side of the user terminal 30, the three-dimensional camera detects the position of the finger of the user 2 at that position, and detects the detected position. is set as the reference position. The timing for setting the reference position may be a preset timing such as initial setting when using the application for the first time, or may be set by the user such as when the user 2 selects the reference position setting icon displayed on the screen. The timing may be based on the operation of 2.

基準位置の設定に続いて、ゲームを開始すると、ステップS2において、ユーザ端末3
0の三次元カメラが検出したユーザ2の指の三次元の動作に応じて生成されてユーザ端末
30から送信される検出信号に基づいて、ユーザ2の指の動作の態様を判別する。三次元
カメラが検出したユーザ2の指の三次元の動作とは、基準位置に対する相対的な三次元の
指の位置、または指の移動方向、移動距離、移動速度、加速度等を意味する。
After setting the reference position, when the game is started, in step S2, the user terminal 3
Based on the detection signal generated according to the three-dimensional motion of the finger of the user 2 detected by the 3D camera 0 and transmitted from the user terminal 30, the mode of motion of the finger of the user 2 is determined. The three-dimensional motion of the finger of the user 2 detected by the three-dimensional camera means the three-dimensional position of the finger relative to the reference position, or the moving direction, moving distance, moving speed, acceleration, etc. of the finger.

本実施の形態では、例えば、ユーザ2が三次元で指をユーザ端末30の上下左右方向に
動かす動作であるのか、あるいはユーザ2が三次元で指をユーザ端末30の奥行き方向に
動かす動作であるのか等といったユーザ2の指の動作の態様を判別する。
In the present embodiment, for example, the user 2 moves his or her finger three-dimensionally in the vertical and horizontal directions of the user terminal 30, or the user 2 moves his or her finger three-dimensionally in the depth direction of the user terminal 30. The mode of the finger motion of the user 2, such as whether or not, is discriminated.

ユーザ2の動作の態様を判別すると、ステップS3において、ゲーム内におけるプレイ
ヤの仮想的な三次元の動作を制御する。
Once the mode of action of the user 2 is determined, the virtual three-dimensional action of the player in the game is controlled in step S3.

また、ユーザ端末30に表示される画像は、図6、7、8のようにプレイヤの三人称視
点であってもよいし、一人称視点であってもよい。一人称視点は、FPS(First Person Sh
ooter)等の3Dアクションシューティングの分野に適している。また、本システムでは、
三人称視点と一人称視点とを切り替える視点切替部をサーバ20やユーザ端末30が備え
ていてもよい。かかる視点の切り替えは、ゲームの進行状況や場面に応じてサーバ20や
ユーザ端末30側で自動的に切り替えられてもよいし、ユーザ端末30を介したユーザの
要求に応じて切り替えることができるようにしてもよい。一人称視点の場合、アプリケー
ション内の可動オブジェクト(キャラクタ、仮想カメラ等)の動作に応じて、ユーザ端末
30に表示される表示画像の視野が変化する。具体的には、キャラクタが向いている方向
(視線方向)に応じて、仮想的にキャラクタの視点から見える景色が表示される。三人称
視点の場合、図6、7、8に示すように、所定の距離だけ離れた位置からキャラクタを撮
像した画像が画面に表示される。なお、指の三次元の動作に基づいて、ユーザ端末に表示
される画像の視野を直接的に制御するようにしてもよい。換言すれば、指の三次元の動作
に基づいて、アプリケーション内の仮想カメラの撮像範囲(視野)の制御を行うこともで
きる(ズームイン、ズームアウトを含む)。その場合、アプリケーション内の背景画像や
可動オブジェクトをアプリケーション内で仮想的に撮像する仮想カメラの動作が、指の三
次元の動作に基づいて制御され、当該仮想カメラの撮像範囲が、ユーザ端末に表示される
画像となる。
Also, the image displayed on the user terminal 30 may be the third-person viewpoint of the player as shown in FIGS. 6, 7, and 8, or may be the first-person viewpoint. The first person view is FPS (First Person Sh
ooter) and other 3D action shooting fields. Also, in this system,
The server 20 or the user terminal 30 may include a viewpoint switching unit that switches between the third-person viewpoint and the first-person viewpoint. Such viewpoint switching may be automatically switched on the server 20 or user terminal 30 side according to the progress of the game or scene, or may be switched according to a request from the user via the user terminal 30. can be In the case of the first-person viewpoint, the field of view of the display image displayed on the user terminal 30 changes according to the action of the movable object (character, virtual camera, etc.) within the application. Specifically, a virtual view from the character's viewpoint is displayed according to the direction in which the character is facing (line-of-sight direction). In the case of the third-person viewpoint, as shown in FIGS. 6, 7, and 8, an image of a character taken from a position separated by a predetermined distance is displayed on the screen. Note that the field of view of the image displayed on the user terminal may be directly controlled based on the three-dimensional movement of the finger. In other words, it is also possible to control the imaging range (field of view) of the virtual camera in the application (including zooming in and zooming out) based on the three-dimensional motion of the finger. In this case, the operation of a virtual camera that virtually captures the background image and movable objects within the application is controlled based on the three-dimensional motion of the finger, and the imaging range of the virtual camera is displayed on the user terminal. image.

本実施の形態では、プレイヤデータd1cに含まれるプレイヤの動作の設定に関するデ
ータに基づいて、ユーザ2の指の三次元の動作のベクトルとユーザ2がプレイヤとして選
択したキャラクタCの動作のベクトルとを関連づけて(もしくは一致させて)動作を制御
する。
In the present embodiment, a three-dimensional movement vector of the finger of the user 2 and a movement vector of the character C selected as the player by the user 2 are generated based on the data regarding the setting of the movement of the player included in the player data d1c. Associate (or match) to control actions.

図6は、ゲーム画面のビューが、ユーザ2がプレイヤとして選択したキャラクタCを正
面から見る設定の場合における動作制御部41bの処理の概略を説明する図である。
FIG. 6 is a diagram for explaining the outline of the processing of the action control unit 41b when the view of the game screen is set so that the character C selected as the player by the user 2 is viewed from the front.

図示のように、ユーザ2の指の動作の態様を矢線V1で示す画面上方向に動かす動作あ
るいは矢線V2で示す画面下方向に動かす動作であると判別した場合は、ゲーム画面IF
1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて矢線Uで示す上方向
あるいは矢線Dで示す下方向に動くというように、動作を制御する。
As shown in the figure, when it is determined that the motion of the finger of the user 2 is an upward movement on the screen indicated by the arrow V1 or a downward movement on the screen indicated by the arrow V2, the game screen IF is displayed.
A character C displayed in 1 is controlled to move upward as indicated by an arrow U or downward as indicated by an arrow D depending on how the user's finger moves.

なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している
場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり
、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり
、キャラクタCが飛行している場合は下降する動作である。
Note that, in the present embodiment, the upward motion U is, for example, a jump motion when the character C is walking, a rising motion when the character C is flying, and a downward motion. The motion to D is, for example, a crouching motion when the character C is walking, and a descending motion when the character C is flying.

一方、ユーザ2の指の動作の態様を矢線V3で示す画面左方向に動かす動作あるいは矢
線V4で示す画面右方向に動かす動作であると判別した場合は、ゲーム画面IF1に表示
されるキャラクタCは、ユーザ2の指の動作の態様に応じて矢線Rで示す右方向あるいは
矢線Lで示す左方向に動くというように、動作を制御する。
On the other hand, if it is determined that the motion of the finger of the user 2 is moving leftward on the screen indicated by the arrow V3 or moving rightward on the screen indicated by the arrow V4, the character displayed on the game screen IF1 C controls the motion such that it moves rightward as indicated by arrow R or leftward as indicated by arrow L according to the mode of motion of the finger of user 2 .

さらに、ユーザ2の指の動作の態様を矢線V5で示すゲーム画面IF1に対する奥行き
方向前方に動かす動作(例えば、指をカメラに近づける動作)あるいは矢線V6で示すゲ
ーム画面IF1に対する奥行き方向後方に動かす動作(例えば、指をカメラから遠ざける
動作)であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ
2の指の動作の態様に応じて矢線Fで示す前進方向あるいは矢線Bで示す後退方向に動く
というように、動作を制御する。
Furthermore, the user 2's finger movement is shown by an arrow V5 in the forward direction in the depth direction with respect to the game screen IF1 (for example, by moving the finger closer to the camera), or in the backward direction in the depth direction with respect to the game screen IF1 by the arrow V6. If it is determined that the action is to move (for example, to move the finger away from the camera), the character C displayed on the game screen IF1 moves in the forward direction indicated by the arrow F or Movement is controlled, such as movement in the backward direction indicated by arrow B.

図7は、ゲーム画面IF1のビューがキャラクタCを側面から見る設定の場合における
動作制御部41bの処理の概略を説明する図である。
FIG. 7 is a diagram for explaining the outline of the processing of the action control unit 41b when the view of the game screen IF1 is set to see the character C from the side.

図示のように、ユーザ2の指の動作の態様を画面上方向V1に動かす動作あるいは画面
下方向V2に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラ
クタCは、ユーザ2の指の動作の態様に応じて上方向Uあるいは下方向Dに動くというよ
うに、動作を制御する。
As shown in the figure, when it is determined that the motion of user 2's finger is the motion of moving the finger in the upward direction V1 on the screen or the motion of moving the finger in the downward direction V2 on the screen, the character C displayed on the game screen IF1 The movement is controlled such that the finger moves upward U or downward D depending on the mode of movement of the finger.

なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している
場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり
、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり
、キャラクタCが飛行している場合は下降する動作である。
Note that, in the present embodiment, the upward motion U is, for example, a jump motion when the character C is walking, a rising motion when the character C is flying, and a downward motion. The motion to D is, for example, a crouching motion when the character C is walking, and a descending motion when the character C is flying.

一方、ユーザ2の指の動作の態様を画面左方向V3に動かす動作あるいは画面右方向V
4に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは
、ユーザ2の指の動作の態様に応じて前進方向Fあるいは後退方向Bに動くというように
、動作を制御する。
On the other hand, if the motion of the finger of the user 2 is moved in the screen left direction V3 or in the screen right direction V
4, the character C displayed on the game screen IF1 moves in the forward direction F or the backward direction B according to the mode of motion of the finger of the user 2, and controls the motion. do.

さらに、ユーザ2の指の動作の態様をゲーム画面IF1に対する奥行き方向前方V5に
動かす動作あるいはゲーム画面IF1に対する奥行き方向後方V6に動かす動作であると
判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の
態様に応じて左方向Lに動くあるいは右方向Rに動くというように、動作を制御する。
Furthermore, if the user 2's finger motion mode is determined to be a motion of moving forward in the depth direction V5 with respect to the game screen IF1 or a motion of moving backward in the depth direction V6 with respect to the game screen IF1, the character displayed on the game screen IF1 C controls movement such as moving leftward L or rightward R depending on the mode of finger movement of user 2 .

図8は、ゲーム画面IF1のビューがキャラクタCを上方から見る設定の場合における
動作制御部41bの処理の概略を説明する図である。
FIG. 8 is a diagram for explaining the outline of the processing of the action control unit 41b when the view of the game screen IF1 is set to see the character C from above.

図示のように、ユーザ2の指の動作の態様を画面上方向V1に動かす動作あるいは画面
下方向V2に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラ
クタCは、ユーザ2の指の動作の態様に応じて後退方向Bあるいは前進方向Fに動くとい
うように、動作を制御する。
As shown in the figure, when it is determined that the motion of user 2's finger is the motion of moving the finger in the upward direction V1 on the screen or the motion of moving the finger in the downward direction V2 on the screen, the character C displayed on the game screen IF1 The movement is controlled such that it moves in the backward direction B or the forward direction F depending on the mode of motion of the finger.

一方、ユーザ2の指の動作の態様を画面左方向V3に動かす動作あるいは画面右方向V
4に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは
、ユーザ2の指の動作の態様に応じて右方向Rあるいは左方向Lに動くというように、動
作を制御する。
On the other hand, if the motion of the finger of the user 2 is moved in the screen left direction V3 or in the screen right direction V
4, the character C displayed on the game screen IF1 is controlled to move in the right direction R or left direction L according to the motion of the finger of the user 2. do.

さらに、ユーザ2の指の動作の態様をゲーム画面IF1に対する奥行き方向前方V5に
動かす動作あるいはゲーム画面IF1に対する奥行き方向後方V6に動かす動作であると
判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の
態様に応じて上方向Uあるいは下方向Dに動くというように、動作を制御する。
Furthermore, if the user 2's finger motion mode is determined to be a motion of moving forward in the depth direction V5 with respect to the game screen IF1 or a motion of moving backward in the depth direction V6 with respect to the game screen IF1, the character displayed on the game screen IF1 C controls the motion such that it moves upward U or downward D depending on how the finger of the user 2 moves.

なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している
場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり
、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり
、キャラクタCが飛行している場合は下降する動作である。
Note that, in the present embodiment, the upward motion U is, for example, a jump motion when the character C is walking, a rising motion when the character C is flying, and a downward motion. The motion to D is, for example, a crouching motion when the character C is walking, and a descending motion when the character C is flying.

図3で示すインターフェース生成部41cは、ユーザ2の指の三次元の動作の状態を示
す状態表示インターフェースを生成するモジュールである。
The interface generation unit 41c shown in FIG. 3 is a module that generates a state display interface that indicates the three-dimensional motion state of the user's 2 finger.

図9は、状態表示インターフェースの概略を説明する図である。図示のように、状態表
示インターフェースIF2は、x軸、y軸及びz軸からなる仮想的な三次元の領域に配置
される透明(または半透明)な仮想球体Sを備える。
FIG. 9 is a diagram illustrating an overview of the status display interface. As shown, the state display interface IF2 comprises a transparent (or translucent) virtual sphere S arranged in a virtual three-dimensional area consisting of x-, y-, and z-axes.

本実施の形態では、ユーザ2の指の三次元の動作の方向、すなわちプレイヤとして選択
されたキャラクタの仮想的な三次元の動作の方向に応じて、仮想球体Sの中心点Oから動
作線Mが伸長し、動作線Mと仮想球体Sとが交差する仮想球体Sの球面に動作領域Aが表
示される。
In the present embodiment, the direction of the three-dimensional action of the finger of the user 2, that is, the direction of the virtual three-dimensional action of the character selected as the player, the action line M from the center point O of the virtual sphere S is extended, and the motion area A is displayed on the spherical surface of the phantom sphere S where the motion line M and the phantom sphere S intersect.

この状態表示インターフェースIF2は、例えばゲーム画面の左下等、ゲーム画面にお
ける任意の部位に表示される。状態表示インターフェースIF2の位置は変更可能であっ
てもよい。その場合、例えば状態表示インターフェースIF2の位置変更を要求するボタ
ン画像等をゲーム画面に表示して起き、ユーザ2は当該位置変更要求ボタンを選択してか
ら、任意の画面の位置をタップ操作等で指定することで、状態表示インターフェースIF
2の位置変更を行えるようにしてもよい。
This state display interface IF2 is displayed at an arbitrary portion on the game screen, such as the lower left corner of the game screen. The position of the status display interface IF2 may be changeable. In that case, for example, a button image or the like requesting a position change of the state display interface IF2 is displayed on the game screen, and the user 2 selects the position change request button, and taps an arbitrary position on the screen. By specifying the status display interface IF
2 can be changed.

これにより、ユーザ2は自らの指の三次元の動作及びそれに追従するキャラクタの仮想
的な三次元の動作を同時に視認することができることから、ゲームを操作する際の利便性
が向上する。
As a result, the user 2 can simultaneously see the three-dimensional movement of his/her finger and the virtual three-dimensional movement of the character following it, thereby improving the convenience of operating the game.

これらゲーム処理部41a、動作制御部41b及びインターフェース生成部41cを備
える情報処理プログラム41での処理に基づいて、本実施の形態では、ユーザ端末30に
おいてゲームが実行される。
A game is executed in the user terminal 30 according to the present embodiment based on the processing by the information processing program 41 including the game processing unit 41a, the operation control unit 41b, and the interface generation unit 41c.

図1で示すユーザ端末30は、本実施の形態では、携帯型情報端末であるスマートフォ
ンで実装されるが、例えばゲーム専用の端末、タブレット型のコンピュータ、デスクトッ
プ型あるいはノート型のコンピュータによって実装されるものであってもよい。
In this embodiment, the user terminal 30 shown in FIG. 1 is implemented by a smart phone, which is a portable information terminal, but is implemented by, for example, a terminal dedicated to games, a tablet computer, a desktop computer, or a notebook computer. can be anything.

図10は、ユーザ端末30の構成の概略を説明するブロック図である。図示のように、
ユーザ端末30は、制御部31、ディスプレイ32及び検出部としての三次元カメラ33
を主要構成として備える。検出部は、三次元カメラ33に限定されず、指の三次元の動作
を検出可能な各種センサデバイス等であってもよい。あるいは、ユーザ端末30に設けら
れた単眼カメラの映像を解析して三次元の動作を推測する解析部をサーバ20またはユー
ザ端末30に設けることで、検出部として機能させてもよい。
FIG. 10 is a block diagram for explaining the outline of the configuration of the user terminal 30. As shown in FIG. As shown,
The user terminal 30 includes a control unit 31, a display 32, and a three-dimensional camera 33 as a detection unit.
is provided as the main configuration. The detection unit is not limited to the three-dimensional camera 33, and may be various sensor devices capable of detecting three-dimensional movements of the finger. Alternatively, the server 20 or the user terminal 30 may be provided with an analysis unit that analyzes an image of a monocular camera provided in the user terminal 30 to estimate a three-dimensional motion, and may function as a detection unit.

制御部31は、本実施の形態では、ディスプレイ32や三次元カメラ33等のユーザ端
末30の各部を制御するものであって、例えばプロセッサ、メモリ、ストレージ、送受信
部等によって構成される。
In this embodiment, the control unit 31 controls each unit of the user terminal 30 such as the display 32 and the three-dimensional camera 33, and is composed of, for example, a processor, memory, storage, transmission/reception unit, and the like.

この制御部31には、本実施の形態では、ゲームアプリケーションあるいはウェブサイ
トを閲覧可能なブラウザが格納され、サーバ20の情報処理プログラム41での処理に基
づいて、ゲームアプリケーションあるいはブラウザを介してユーザ端末30においてゲー
ムが実行される。
In this embodiment, the control unit 31 stores a game application or a browser capable of browsing a website, and based on the processing in the information processing program 41 of the server 20, the user terminal is controlled via the game application or the browser. At 30 the game is run.

ディスプレイ32には、本実施の形態では、図6~図8で示したゲーム画面IF1を含
む、ユーザ端末30で実行されるゲームの画面インターフェースが表示される。
In the present embodiment, the display 32 displays a screen interface of the game executed by the user terminal 30, including the game screen IF1 shown in FIGS.

このディスプレイ32は、表示面への接触によって情報の入力を受け付けるいわゆるタ
ッチパネルであって、抵抗膜方式や静電容量方式といった各種の技術によって実装される
。なお、本例ではディスプレイ32及び三次元カメラ33が、ユーザ端末においてユーザ
からの入力操作を受け付ける入力部を構成しているが、これに限られない。入力部として
、キーボードやマウスを有していてもよいし、音声による入力操作が可能なマイク等を有
していてもよいし、視線情報を取得するアイトラッキングデバイスを備えていてもよい。
ディスプレイ32は、アプリケーション画像を出力する表示部も構成している。
The display 32 is a so-called touch panel that accepts information input by touching the display surface, and is implemented by various technologies such as a resistive film system and a capacitance system. In this example, the display 32 and the three-dimensional camera 33 constitute an input unit that receives an input operation from the user in the user terminal, but the present invention is not limited to this. The input unit may have a keyboard and a mouse, may have a microphone capable of input operation by voice, or may have an eye tracking device for acquiring line-of-sight information.
The display 32 also constitutes a display unit that outputs application images.

三次元カメラ33は、本実施の形態では、ユーザ端末30であるスマートフォンの前面
に搭載されたインカメラであって、物体との距離を検出する近接センサ等の各種のセンサ
を備えて構成され、ユーザ動作情報D2を検出する。
In the present embodiment, the three-dimensional camera 33 is an in-camera mounted on the front surface of the smartphone that is the user terminal 30, and is configured with various sensors such as a proximity sensor that detects the distance to an object, User action information D2 is detected.

ユーザ動作情報D2は、プレイヤの操作あるいは動作に関して入力される情報であって
、ユーザ2の任意の動作に基づく映像情報である。
The user action information D2 is information that is input regarding the player's operation or action, and is image information based on any action of the user 2 .

このユーザ動作情報D2は、本実施の形態では、例えば、ユーザ端末30に対してユー
ザ2が三次元で指を上下左右方向に動かす動作、あるいはユーザ2が三次元で指をユーザ
端末30の奥行き方向(前後方向)に動かす動作である。
In the present embodiment, the user action information D2 is, for example, a three-dimensional action of the user 2 moving his/her finger up, down, left, or right with respect to the user terminal 30, or It is an operation to move in a direction (back and forth direction).

ユーザ動作情報D2がユーザ端末30の三次元カメラ33に検出されると、三次元カメ
ラ33は、ユーザ2の動作の態様に応じた検出信号を生成する。
When the user action information D2 is detected by the three-dimensional camera 33 of the user terminal 30, the three-dimensional camera 33 generates a detection signal according to the mode of action of the user 2. FIG.

次に、本実施の形態に係る情報処理システム10の処理の概略について説明する。 Next, an outline of processing of the information processing system 10 according to the present embodiment will be described.

図11は、本実施の形態に係る情報処理システム10の処理の概略を説明するフローチ
ャートである。図示のように、まず、ステップS10において、ユーザ2はゲームを起動
する。
FIG. 11 is a flowchart for explaining the outline of the processing of the information processing system 10 according to this embodiment. As shown, first, in step S10, user 2 starts the game.

ゲームの起動後、ゲームの開始に際して、ユーザ2が指をユーザ端末30の三次元カメ
ラ33にかざして三次元カメラ33がユーザ2の指の位置を検出すると、ステップS11
において、三次元カメラ33が検出したユーザ2の指の位置を、プレイヤの動作を制御す
る際の基準位置として設定する。より具体的に、任意の1本の指の先端の位置を検出し、
基準位置として設定することが好ましい。なお、指先に限られず、指の特定の関節や任意
の部位を検出するようにしてもよい。
After starting the game, at the start of the game, when the user 2 holds his/her finger over the three-dimensional camera 33 of the user terminal 30 and the three-dimensional camera 33 detects the position of the finger of the user 2, step S11 is performed.
, the position of the finger of the user 2 detected by the three-dimensional camera 33 is set as a reference position when controlling the action of the player. More specifically, detecting the position of the tip of any one finger,
It is preferable to set it as a reference position. Note that detection is not limited to fingertips, and specific joints or arbitrary parts of fingers may be detected.

基準位置の設定後、ステップS12において、ユーザ2はゲームを開始する。 After setting the reference position, the user 2 starts the game in step S12.

ゲームを開始すると、ステップS13において、ユーザ2の指の三次元の動作に基づい
て、ユーザ2がプレイヤとして選択したキャラクタの仮想的な三次元の動作を制御する。
When the game is started, in step S13, the virtual three-dimensional motion of the character selected as the player by the user 2 is controlled based on the three-dimensional motion of the finger of the user 2. FIG.

本実施の形態では、例えば、ユーザ2が三次元で指をゲーム画面の上下左右方向に動か
す動作あるいはユーザ2が三次元で指をゲーム画面の奥行き方向に動かす動作に応じて、
ユーザ2の指の三次元の動作のベクトルと対応した(もしくは一致した)ベクトルにおい
てキャラクタがゲーム内で仮想的な三次元の動作を行う。ユーザ2の指の三次元の動作の
方向、距離、速度、及び加速度は、ゲーム内でのキャラクタの三次元の動作の方向、距離
、速度、及び加速度にそれぞれ完全に一致していなくてもよく、例えば予め設定された所
定の計算式に基づく補正処理を行うなど、少なくとも対応関係があればよい。
In the present embodiment, for example, in response to a three-dimensional motion of the user 2 moving the finger in the vertical and horizontal directions of the game screen or a motion of the user 2 moving the finger in the three-dimensional direction of the game screen,
The character performs a virtual three-dimensional motion in the game at a vector corresponding (or coinciding with) the three-dimensional motion vector of the finger of the user 2 . The direction, distance, speed, and acceleration of the three-dimensional motion of the finger of the user 2 may not completely match the direction, distance, speed, and acceleration of the three-dimensional motion of the character in the game. , for example, performing a correction process based on a predetermined formula set in advance.

このように、本システムにあっては、検出部で検出されるユーザの指の三次元の動作に
基づいて、アプリケーション内の可動オブジェクトの三次元の動作が制御される。これに
より、アプリケーションを操作する際のユーザ2の利便性が向上する。具体的に本例では
、ユーザ2がプレイヤとして選択したキャラクタが、ユーザ端末30で検出されるユーザ
2の指の三次元の動作に追従するように制御されることによって、ユーザ2は直感的にゲ
ームを操作することができることから、ゲームを操作する際のユーザ2の利便性が向上す
る。
Thus, in this system, the three-dimensional motion of the movable object in the application is controlled based on the three-dimensional motion of the user's finger detected by the detection unit. This improves convenience for the user 2 when operating the application. Specifically, in this example, the character selected by the user 2 as the player is controlled to follow the three-dimensional motion of the user's finger detected by the user terminal 30, so that the user 2 can intuitively Since the game can be operated, the convenience for the user 2 when operating the game is improved.

なお、本発明は上記実施の形態に限定されることはなく、発明の趣旨を逸脱しない範囲
で種々の変更が可能である。
The present invention is not limited to the above-described embodiments, and various modifications are possible without departing from the scope of the invention.

上記実施の形態では、ゲーム画面のビュー(表示画像)が、ユーザ2がプレイヤとして
選択したキャラクタCを三人称視点で正面から見る設定の場合、キャラクタCを側面から
見る設定の場合及びキャラクタCを上方から見る設定の場合を説明したが、例えばキャラ
クタCを下方あるいは背面から見る設定等、種々の設定であってもよい。また、ゲーム画
面のビューが、キャラクタCの目から見える景色を示す一人称視点であってもよい。
In the above embodiment, the view (display image) of the game screen is such that the character C selected by the user 2 as the player is viewed from the front from the third-person viewpoint, the character C is viewed from the side, and the character C is viewed from above. Although the setting for viewing the character C from above has been described, various settings such as a setting for viewing the character C from below or from behind may be used. Also, the view of the game screen may be a first-person viewpoint that shows the scenery seen from the character C's eyes.

上記実施の形態では、基準位置の設定後、ユーザ2の指が基準位置にあるときには、仮
想球体Sの中心点Oから動作線Mは伸長せず(動作領域Aが表示されず)、中心点Oに動
作線Mが位置していることを表示する(例えば中心点Oの表示が大きくなったり、明るく
なったり、もしくは暗くなったりする等)などしてもよい。また、その際、キャラクタは
停止した状態としてもよい。また、基準位置から離れた位置でユーザ2が指を停止してい
る場合、基準位置に対するユーザ2の指の位置に応じて、キャラクタが基準位置に対する
指の位置の方向に移動し続けるようにしてもよい。その場合、状態表示インターフェース
IF2は、キャラクタの仮想的な三次元の動作の方向に応じて、仮想球体Sの中心点Oか
ら延びる動作線Mと、球面の動作領域Aとが表示され続けるようにしてもよい。
In the above embodiment, after setting the reference position, when the finger of the user 2 is at the reference position, the action line M does not extend from the center point O of the virtual sphere S (the action area A is not displayed), and the center point It may be possible to display that the operation line M is positioned at O (for example, the display of the center point O becomes larger, brighter, or darker, etc.). Also, at that time, the character may be in a stopped state. Further, when the user 2 stops the finger at a position away from the reference position, the character continues to move in the direction of the position of the finger with respect to the reference position according to the position of the finger of the user 2 with respect to the reference position. good too. In this case, the state display interface IF2 continues to display the motion line M extending from the center point O of the virtual sphere S and the spherical motion area A according to the direction of the virtual three-dimensional motion of the character. may

上記実施の形態では、ユーザ端末30に搭載された三次元カメラ33でユーザ2の指の
三次元の動作を検出する場合を説明したが、ユーザ端末30に搭載されたモーションセン
サでユーザ2の指の三次元の動作を検出するものであってもよい。
In the above embodiment, the three-dimensional camera 33 mounted on the user terminal 30 detects the three-dimensional motion of the user 2's finger. may detect the three-dimensional motion of

さらに、ユーザ端末30で検出するユーザ2の指の本数は、1本であっても2本であっ
てもそれ以外の任意の数であってもよいし、人差し指、中指あるいは親指等、いずれの指
であってもよい。2本以上の指を検出する場合、2本以上の指が開く動作、閉じる動作、
2本以上の指が共に同一方向に動く動作等を検出し、それぞれの動作に応じて関連付けら
れた動作をアプリケーション内の可動オブジェクトが行うようにしてもよい。その場合、
ユーザの指の三次元の動作と、アプリケーション内の可動オブジェクトとが、関連付けら
れて記憶部に予め記憶される。また、ユーザが、ユーザの指の三次元の動作と、アプリケ
ーション内の可動オブジェクトの動作とを関連付けられるようにしてもよい。すなわち、
サーバ20の制御部は、ユーザ端末30を介したユーザの指示に基づいて、ユーザの指の
三次元の任意の動作と、アプリケーション内の可動オブジェクトの特定の動作とを関連付
けて、記憶部に記憶するようにしてもよい。例えば、サーバ20は、予め記憶部に記憶さ
れたアプリケーション内の可動オブジェクトの複数の動作をユーザ端末30に表示させ、
その中から特定の動作を選択する指示を、ユーザ端末30を介して受け付けるとともに、
当該動作に関連付けたいユーザの指の三次元の動作を、ユーザ端末30を介した入力操作
に基づいて受け付ける。これにより、任意の指の可動オブジェクトの特定の動作に関連付
けて記憶させ、可動オブジェクトの三次元の操作に使用することができる。また、ユーザ
の指の三次元の動作(例えばジェスチャー)と、アプリケーション内の所定の操作(例え
ばメニュー表示やショートカットの作動、音量等の調整操作、ズーム調整(画面の拡大、
縮小)各種機能のON/OFF切替等)とが、関連付けられて記憶部に記憶されるようにして
もよい。このユーザの指の動作と、アプリケーション内の操作との組み合わせは、ユーザ
が設定できるようにしてもよいし、システム管理者側で予め設定しておいてもよい。また
、ユーザ端末で検出するユーザの指や手の動作をトラッキングして、ゲームのコントロー
ラとして使うようにしてもよい。この場合も、ユーザの指や手の動作と、ゲーム内の所定
の動作とが関連付けて記憶されており、例えば、格闘ゲームにおいて、検出した指や手の
動作に追従して、当該動作に関連付けられたパンチを繰り出す動作等が実行されたり、レ
ースゲームにおいて、指や手の動作に追従してゲーム内でハンドルを動かしたりする、と
いった利用が可能となる。なお、ゲームは特に限定されず、例えば所謂ビデオゲームでも
VRゲームでもよい。
Furthermore, the number of fingers of the user 2 detected by the user terminal 30 may be one, two, or any other number. It can be a finger. When two or more fingers are detected, the operation of opening and closing the two or more fingers,
A motion or the like in which two or more fingers move together in the same direction may be detected, and a movable object in the application may perform motions associated with the respective motions. In that case,
A three-dimensional motion of the user's finger and a movable object in the application are associated and pre-stored in the storage unit. A user may also be able to associate three-dimensional movements of the user's fingers with movements of movable objects within the application. i.e.
Based on the user's instruction via the user terminal 30, the control unit of the server 20 associates an arbitrary three-dimensional motion of the user's finger with a specific motion of the movable object in the application, and stores it in the storage unit. You may make it For example, the server 20 causes the user terminal 30 to display a plurality of motions of a movable object in an application stored in advance in the storage unit,
Receiving an instruction to select a specific action from among them via the user terminal 30,
A three-dimensional motion of the user's finger to be associated with the motion is received based on an input operation via the user terminal 30 . As a result, it is possible to store any finger in association with a specific motion of the movable object and use it for three-dimensional manipulation of the movable object. In addition, three-dimensional movements of the user's fingers (e.g., gestures), predetermined operations within the application (e.g., menu display, operation of shortcuts, volume adjustment, etc., zoom adjustment (screen enlargement,
reduction) ON/OFF switching of various functions, etc.) may be stored in the storage unit in association with each other. The combination of the user's finger motion and the operation within the application may be set by the user, or may be set in advance by the system administrator. Also, the motion of the user's finger or hand detected by the user terminal may be tracked and used as a game controller. In this case as well, motions of the user's fingers and hands are stored in association with predetermined motions in the game. In a racing game, it is possible to move the steering wheel in the game by following the motion of the finger or hand. The game is not particularly limited, and may be, for example, a so-called video game or a VR game.

また、本システムにおいては、検出部が、右手の指か左手の指かを検出するようにして
もよい。その場合、右手の指と左手の指とで異なる動作を設定することができるので、可
動オブジェクトの操作のバリエーションが増大する。また、左右何れか一方の手における
1本以上の指、あるいは両手の指を使った可動オブジェクトの操作が可能となる。
In addition, in this system, the detection unit may detect whether the finger is the finger of the right hand or the finger of the left hand. In that case, different actions can be set for the fingers of the right hand and the fingers of the left hand, increasing the variation in the manipulation of the movable object. In addition, it is possible to operate the movable object using one or more fingers on either the left or right hand or fingers on both hands.

本発明は、以下の構成を備える。
(項目1)
情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
ユーザの指の三次元の動作を検出する検出部と、
前記検出部で検出されるユーザの指の三次元の動作に基づいて、前記アプリケーション
内での可動オブジェクトの三次元の動作を制御する動作制御部と、
を備えることを特徴とする情報処理システム。
(項目2)
前記検出部は、三次元カメラを備えることを特徴とする項目1に記載の情報処理システ
ム。
(項目3)
前記動作制御部は、所定のタイミングにおいて前記検出部で検出された前記ユーザの指
の位置を、前記可動オブジェクトの動作を制御する際の基準位置として設定することを特
徴とする項目1又は2に記載の情報処理システム。
(項目4)
前記基準位置に対する前記ユーザの指の相対的な三次元の位置を示す状態表示インター
フェースを生成するインターフェース生成部、
を備えることを特徴とする項目3に記載の情報処理システム。
(項目5)
前記動作制御部は、
前記ユーザの指の三次元の動作のベクトルと前記アプリケーション内の前記可動オブジ
ェクトの動作のベクトルとを関連づけることを特徴とする項目1~4のいずれか1項に記
載の情報処理システム。
(項目6)
前記動作制御部は、
アプリケーション画面に表示される前記可動オブジェクトの向きの設定に応じて、前記
ユーザの指の動作方向と前記アプリケーション内の前記可動オブジェクトの動作の方向と
を関連づけることを特徴とする項目1~5のいずれか1項に記載の情報処理システム。
(項目7)
前記動作制御部は、
前記可動オブジェクトの三次元の動作に基づいて、前記アプリケーション内における表
示画像の視野を制御することを特徴とする項目1~6のいずれか1項に記載の情報処理シ
ステム。
(項目8)
情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
検出部でユーザの指の三次元の動作を検出する検出処理と、
前記ユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェ
クトの三次元の動作を制御する動作制御処理と、
をコンピュータに実行させることを特徴とするプログラム。
(項目9)
情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
検出部でユーザの指の三次元の動作を検出する検出ステップと、
前記ユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェ
クトの三次元の動作を制御する動作制御ステップと、
を含むことを特徴とする情報処理方法。
The present invention has the following configurations.
(Item 1)
In an information processing system that provides an application that can be executed on an information processing terminal,
a detection unit that detects a three-dimensional motion of a user's finger;
a motion control unit that controls the three-dimensional motion of a movable object within the application based on the three-dimensional motion of the user's finger detected by the detection unit;
An information processing system comprising:
(Item 2)
The information processing system according to item 1, wherein the detection unit includes a three-dimensional camera.
(Item 3)
Item 1 or 2, wherein the motion control unit sets the position of the user's finger detected by the detection unit at a predetermined timing as a reference position when controlling the motion of the movable object. Information processing system as described.
(Item 4)
an interface generation unit that generates a state display interface indicating a three-dimensional position of the user's finger relative to the reference position;
The information processing system according to item 3, characterized by comprising:
(Item 5)
The operation control unit is
5. The information processing system according to any one of items 1 to 4, wherein a three-dimensional motion vector of the user's finger is associated with a motion vector of the movable object in the application.
(Item 6)
The operation control unit is
6. Any one of items 1 to 5, wherein the motion direction of the user's finger is associated with the motion direction of the movable object in the application in accordance with setting of the direction of the movable object displayed on the application screen. or the information processing system according to item 1.
(Item 7)
The operation control unit is
7. The information processing system according to any one of items 1 to 6, wherein the field of view of the display image within the application is controlled based on the three-dimensional movement of the movable object.
(Item 8)
In an information processing system that provides an application that can be executed on an information processing terminal,
a detection process for detecting a three-dimensional motion of a user's finger with a detection unit;
a motion control process for controlling a three-dimensional motion of a movable object within the application based on the three-dimensional motion of the user's finger;
A program characterized by causing a computer to execute
(Item 9)
In an information processing system that provides an application that can be executed on an information processing terminal,
a detection step of detecting a three-dimensional motion of a user's finger with a detection unit;
a motion control step of controlling the three-dimensional motion of a movable object within the application based on the three-dimensional motion of the user's finger;
An information processing method comprising:

1 事業者
2 ユーザ
10 情報処理システム
20 サーバ
30 ユーザ端末
33 検知センサ
40 データベース
41 情報処理プログラム(プログラム)
41b 動作制御部
41c インターフェース生成部
D2 ユーザ動作情報
IF2 状態表示インターフェース
1 business operator 2 user 10 information processing system 20 server 30 user terminal 33 detection sensor 40 database 41 information processing program (program)
41b operation control unit 41c interface generation unit D2 user operation information IF2 status display interface

Claims (9)

情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
ユーザの指の三次元の動作を検出する検出部と、
前記検出部で検出されるユーザの指の三次元の動作に基づいて、前記アプリケーション
内での可動オブジェクトの三次元の動作を制御する動作制御部と、
を備えることを特徴とする情報処理システム。
In an information processing system that provides an application that can be executed on an information processing terminal,
a detection unit that detects a three-dimensional motion of a user's finger;
a motion control unit that controls the three-dimensional motion of a movable object within the application based on the three-dimensional motion of the user's finger detected by the detection unit;
An information processing system comprising:
前記検出部は、三次元カメラを備えることを特徴とする請求項1に記載の情報処理シス
テム。
2. An information processing system according to claim 1, wherein said detection unit comprises a three-dimensional camera.
前記動作制御部は、所定のタイミングにおいて前記検出部で検出された前記ユーザの指
の位置を、前記可動オブジェクトの動作を制御する際の基準位置として設定することを特
徴とする請求項1又は2に記載の情報処理システム。
3. The motion control unit sets the position of the user's finger detected by the detection unit at a predetermined timing as a reference position when controlling the motion of the movable object. The information processing system according to .
前記基準位置に対する前記ユーザの指の相対的な三次元の位置を示す状態表示インター
フェースを生成するインターフェース生成部、
を備えることを特徴とする請求項3に記載の情報処理システム。
an interface generation unit that generates a state display interface indicating a three-dimensional position of the user's finger relative to the reference position;
4. The information processing system according to claim 3, comprising:
前記動作制御部は、
前記ユーザの指の三次元の動作のベクトルと前記アプリケーション内の前記可動オブジ
ェクトの動作のベクトルとを関連づけることを特徴とする請求項1~4のいずれか1項に
記載の情報処理システム。
The operation control unit is
5. The information processing system according to any one of claims 1 to 4, wherein a three-dimensional motion vector of the user's finger is associated with a motion vector of the movable object in the application.
前記動作制御部は、
アプリケーション画面に表示される前記可動オブジェクトの向きの設定に応じて、前記
ユーザの指の動作方向と前記アプリケーション内の前記可動オブジェクトの動作の方向と
を関連づけることを特徴とする請求項1~5のいずれか1項に記載の情報処理システム。
The operation control unit is
According to the setting of the direction of the movable object displayed on the application screen, the motion direction of the user's finger and the motion direction of the movable object in the application are associated with each other. The information processing system according to any one of the items.
前記動作制御部は、
前記可動オブジェクトの三次元の動作に基づいて、前記アプリケーション内における表
示画像の視野を制御することを特徴とする請求項1~6のいずれか1項に記載の情報処理
システム。
The operation control unit is
7. The information processing system according to any one of claims 1 to 6, wherein the field of view of the display image within the application is controlled based on the three-dimensional movement of the movable object.
情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
検出部でユーザの指の三次元の動作を検出する検出処理と、
前記ユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェ
クトの三次元の動作を制御する動作制御処理と、
をコンピュータに実行させることを特徴とするプログラム。
In an information processing system that provides an application that can be executed on an information processing terminal,
a detection process for detecting a three-dimensional motion of a user's finger with a detection unit;
a motion control process for controlling a three-dimensional motion of a movable object within the application based on the three-dimensional motion of the user's finger;
A program characterized by causing a computer to execute
情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
検出部でユーザの指の三次元の動作を検出する検出ステップと、
前記ユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェ
クトの三次元の動作を制御する動作制御ステップと、
を含むことを特徴とする情報処理方法。
In an information processing system that provides an application that can be executed on an information processing terminal,
a detection step of detecting a three-dimensional motion of a user's finger with a detection unit;
a motion control step of controlling the three-dimensional motion of a movable object within the application based on the three-dimensional motion of the user's finger;
An information processing method comprising:
JP2022167753A 2022-03-30 2022-10-19 Information processing system, program and information processing method Active JP7286856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022167753A JP7286856B2 (en) 2022-03-30 2022-10-19 Information processing system, program and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022055133A JP2023015979A (en) 2021-07-20 2022-03-30 Information processing system, program, and information processing method
JP2022167753A JP7286856B2 (en) 2022-03-30 2022-10-19 Information processing system, program and information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022055133A Division JP2023015979A (en) 2021-07-20 2022-03-30 Information processing system, program, and information processing method

Publications (2)

Publication Number Publication Date
JP2023016046A true JP2023016046A (en) 2023-02-01
JP7286856B2 JP7286856B2 (en) 2023-06-05

Family

ID=87760936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022167753A Active JP7286856B2 (en) 2022-03-30 2022-10-19 Information processing system, program and information processing method

Country Status (1)

Country Link
JP (1) JP7286856B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288156A (en) * 2002-03-28 2003-10-10 Minolta Co Ltd Input device
JP2010526391A (en) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド Camera-based user input for compact devices
JP2012203737A (en) * 2011-03-25 2012-10-22 Kyocera Corp Electronic device, control method and control program
JP2013069273A (en) * 2011-09-07 2013-04-18 Nitto Denko Corp Motion detection method of input body and input device using the same
JP2013218379A (en) * 2012-04-04 2013-10-24 Sharp Corp Display device and program
JP2014115876A (en) * 2012-12-11 2014-06-26 Mitsubishi Electric Corp Remote operation method of terminal to be operated using three-dimentional touch panel
JP2015210684A (en) * 2014-04-25 2015-11-24 富士通株式会社 Input controller, control method and control program
JP2017211884A (en) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 Motion detection system
JP2018206080A (en) * 2017-06-05 2018-12-27 セイコーエプソン株式会社 Head-mounted display device, program, and control method for head-mounted display device
JP2020113094A (en) * 2019-01-15 2020-07-27 株式会社シーエスレポーターズ Method of generating 3d object disposed in expanded real space

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288156A (en) * 2002-03-28 2003-10-10 Minolta Co Ltd Input device
JP2010526391A (en) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド Camera-based user input for compact devices
JP2012203737A (en) * 2011-03-25 2012-10-22 Kyocera Corp Electronic device, control method and control program
JP2013069273A (en) * 2011-09-07 2013-04-18 Nitto Denko Corp Motion detection method of input body and input device using the same
JP2013218379A (en) * 2012-04-04 2013-10-24 Sharp Corp Display device and program
JP2014115876A (en) * 2012-12-11 2014-06-26 Mitsubishi Electric Corp Remote operation method of terminal to be operated using three-dimentional touch panel
JP2015210684A (en) * 2014-04-25 2015-11-24 富士通株式会社 Input controller, control method and control program
JP2017211884A (en) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 Motion detection system
JP2018206080A (en) * 2017-06-05 2018-12-27 セイコーエプソン株式会社 Head-mounted display device, program, and control method for head-mounted display device
JP2020113094A (en) * 2019-01-15 2020-07-27 株式会社シーエスレポーターズ Method of generating 3d object disposed in expanded real space

Also Published As

Publication number Publication date
JP7286856B2 (en) 2023-06-05

Similar Documents

Publication Publication Date Title
US10821360B2 (en) Data processing method and mobile terminal
CN110545889B (en) Game system, game control device, and program
JP6450875B1 (en) GAME PROGRAM, GAME METHOD, AND INFORMATION PROCESSING DEVICE
CN115427122A (en) Virtual console game controller
CN116328317A (en) Application processing system, application processing method, and application processing program
CN112402971B (en) Virtual object control method, device, computer equipment and storage medium
WO2019207898A1 (en) Game control device, game system, and program
CN115193064A (en) Virtual object control method and device, storage medium and computer equipment
JP6672401B2 (en) Game program, method, and information processing device
JP7286857B2 (en) Information processing system, program and information processing method
JP7286856B2 (en) Information processing system, program and information processing method
JP7163526B1 (en) Information processing system, program and information processing method
WO2023002907A1 (en) Information processing system, program, and information processing method
CN115999153A (en) Virtual character control method and device, storage medium and terminal equipment
JP2023015979A (en) Information processing system, program, and information processing method
CN113680062A (en) Information viewing method and device in game
WO2022130681A1 (en) Game system, program, and information processing method
JP2020110603A (en) Game program, method, and information processing unit
JP2020061162A (en) System for screen operation by interlocking head-mounted display with controller, program, and method
JP2019103815A (en) Game program, method and information processing apparatus
JP2019080928A (en) Game system, game control device, and program
JP7337732B2 (en) program
JP7440401B2 (en) Game program, game method, and information terminal device
JP6668425B2 (en) Game program, method, and information processing device
CN116850594A (en) Game interaction method, game interaction device, computer equipment and computer readable storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221019

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230524

R150 Certificate of patent or registration of utility model

Ref document number: 7286856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150