JP6084719B1 - 画像処理方法、及び画像処理プログラム - Google Patents

画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP6084719B1
JP6084719B1 JP2016035727A JP2016035727A JP6084719B1 JP 6084719 B1 JP6084719 B1 JP 6084719B1 JP 2016035727 A JP2016035727 A JP 2016035727A JP 2016035727 A JP2016035727 A JP 2016035727A JP 6084719 B1 JP6084719 B1 JP 6084719B1
Authority
JP
Japan
Prior art keywords
character
touch
touch input
input information
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016035727A
Other languages
English (en)
Other versions
JP2017148398A (ja
Inventor
真一 上山
真一 上山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016035727A priority Critical patent/JP6084719B1/ja
Priority to PCT/JP2017/003603 priority patent/WO2017145684A1/ja
Application granted granted Critical
Publication of JP6084719B1 publication Critical patent/JP6084719B1/ja
Publication of JP2017148398A publication Critical patent/JP2017148398A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】操作性の高いキャラクタの制御を可能にすること【解決手段】移動体がキャラクタに関連付けられる前に、移動体とキャラクタの関係が所定の条件を満たすか判定し(S401)、所定の条件を満たす場合に、移動体がキャラクタに関連付けられる前に格納されたタッチ入力情報を参照し(S402)、参照したタッチ入力情報に基づいて、所定の入力がなされたかを判定し(S403)、所定の入力がなされた場合に、移動体がキャラクタに関連付けられる前に格納されたタッチ入力情報に基づいて、キャラクタの動作制御をする(S404)、方法。【選択図】図4

Description

本技術は、画像処理方法、及び画像処理プログラムに関する。
特許文献1には、プレイヤがボールを受け取る前からユーザの入力操作を受け付け(先行入力)、当該入力操作に応じた方向にボールを移動させる技術が開示されている。
特開2001−321566号公報
特許文献1において、先行入力を実現するための方法として、先行入力があった場合には、候補者(キャラクタ)の状態、打球の状態、先行入力で指示された野手(キャラクタ)のカバーに入る状態が認識され、候補者が捕球可能かどうか判断される。従って、先行入力の検知がキャラクタに先行入力に応じた動作を実行させるか否かを判定するトリガーとなる。この場合には、操作入力を検知するためのプログラムと、キャラクタを制御するためのプログラムが不可分な形態となるため、プログラムの汎用性が制限される恐れがある。
本技術は、プログラムの汎用性を向上可能な方法を提供することを目的とする。
上述した課題を解決するために、本技術の一態様は、移動体と、ユーザにより操作可能なキャラクタを含む画像をタッチ・ディスプレイに表示させるステップと、タッチ・ディスプレイに対するタッチ入力を検出するステップと、前記タッチ入力に基づいてタッチ入力情報を特定するステップと、前記タッチ入力情報をメモリへ格納するステップと、前記移動体が前記キャラクタに関連付けられていない場合に、前記移動体と前記キャラクタの位置関係が所定の条件を満たすか判定するステップと、前記所定の条件を満たす場合に、前記移動体が前記キャラクタに関連付けられる前に格納された先行タッチ入力情報を参照し、前記先行タッチ入力情報が第1入力を含むかを判定するステップと、前記先行タッチ入力情報が前記第1入力を含む場合に、前記先行タッチ入力情報に基づいて、前記キャラクタに第1動作を実行させるステップと、を含む、方法に関する。
また、本技術の別の一態様は、プロセッサによって実行されるプログラムであって、タッチ・ディスプレイに対するタッチ入力を検出し、所定数のフレームに対応する前記タッチ入力に関する情報をメモリに格納するユーザインタフェースプログラムと、前記タッチ入力に関する情報が前記メモリに格納された後に、所定の条件が満たされた場合に、前記タッチ入力に関する情報に基づいて、前記タッチ・ディスプレイに表示されているキャラクタの動作を制御するキャラクタ制御プログラムと、を備えるプログラムに関する。
本技術によれば、タッチ・ディスプレイに対するタッチ入力に基づいて、操作性の高いキャラクタの制御を可能にすることができる。
本技術の一実施形態によるコンピュータを示す図である。 本技術の一実施形態による処理部の機能を示すブロック図である。 本技術の一実施形態のゲームプログラムにより生成されるゲーム画面例である。 本技術の一実施形態によるユーザインタフェース部の動作例を示すフローチャートである。 本技術の一実施形態により取得されるタッチ位置情報の概略配列図である。 本技術の一実施形態により取得されるタッチ位置情報の概略配列図である。 本技術の一実施形態による、タッチ入力情報の構成例を示す。 本技術の一実施形態によるキャラクタ制御部の動作例を示すフローチャートである。 本技術の一実施形態によるキャラクタ制御部、キャラクタ制御部により参照されるタッチ入力情報、操作対象キャラクタに行わせる動作の関係を示す表である。 本技術の一実施形態による詳細処理例を示すフロー図である。 本技術の一実施形態により決定されるフリック操作情報のグラフ例である。
最初に、本技術の実施形態の内容を列記して説明する。本技術の一実施形態による画像処理方法、及び画像処理プログラムは、以下のような構成を備える。
(項目1)
移動体と、ユーザにより操作可能なキャラクタを含む画像をタッチ・ディスプレイに表示させるステップと、
タッチ・ディスプレイに対するタッチ入力を検出するステップと、
前記タッチ入力に基づいてタッチ入力情報を特定するステップと、
前記タッチ入力情報をメモリへ格納するステップと、
前記移動体が前記キャラクタに関連付けられていない場合に、前記移動体と前記キャラクタの位置関係が所定の条件を満たすか判定するステップと、
前記所定の条件を満たす場合に、前記移動体が前記キャラクタに関連付けられる前に格納された先行タッチ入力情報を参照し、前記先行タッチ入力情報が第1入力を含むかを判定するステップと、
前記先行タッチ入力情報が前記第1入力を含む場合に、前記先行タッチ入力情報に基づいて、前記キャラクタに第1動作を実行させるステップと、
を含む、方法。
(項目2)
前記先行タッチ入力情報が前記第1入力、および、タッチ方向を特定する情報を含む場合には、
前記タッチ方向を特定する情報に基づいて、前記移動体の移動方向を制御するステップを含む、項目1に記載の方法。
(項目3)
前記先行タッチ入力情報がタッチ距離を特定する情報をさらに含み、
前記タッチ距離に基づいて、前記移動方向に向かう前記移動体の軌道を特定する、項目2に記載の方法。
(項目4)
前記所定の条件は、前記移動体と前記キャラクタの間の距離が一定以下であることを含む、項目1または2に記載の方法。
(項目5)
前記第1動作の態様は、前記キャラクタに対する前記移動体の位置に基づいて特定される、項目1〜4のいずれかに記載の方法。
(項目6)
前記先行タッチ入力情報が前記第1入力を含まない場合に、前記キャラクタに前記第1動作と異なる第2動作を実行させるステップと、
前記キャラクタが前記第2動作を開始した後の所定の期間内に、第2入力を含む後続タッチ入力情報がメモリに格納された場合には、前記後続タッチ入力情報に基づいて、前記キャラクタに前記第2動作を中止させるとともに、前記第1動作を実行させるステップと
を含む、項目1〜5のいずれかに記載の方法。
(項目7)
コンピュータに項目1〜6の何れか1項に記載の方法を実行させるためのプログラム。
(項目8)
プロセッサによって実行されるプログラムであって、
タッチ・ディスプレイに対するタッチ入力を検出し、所定数のフレームに対応する前記タッチ入力に関する情報をメモリに格納するユーザインタフェースプログラムと、
前記タッチ入力に関する情報が前記メモリに格納された後に、所定の条件が満たされた場合に、前記タッチ入力に関する情報に基づいて、前記タッチ・ディスプレイに表示されているキャラクタの動作を制御するキャラクタ制御プログラムと、
を備えるプログラム。
(項目9)
前記タッチ入力に関する情報は、
フレーム毎の前記タッチ入力のタッチ位置座標と、
フレーム間のタッチ方向、タッチ距離、及びタッチ速度と、
タッチ入力種類と、
タッチ入力種類がフリック、スワイプ入力の場合にはそれらの方向と、
タッチ入力種類がフリック操作の場合にはその長/短に関する情報
の一部又は全てを含む、項目8に記載のプログラム。
(項目10)
前記所定の条件は、前記タッチ・ディスプレイに表示されている前記キャラクタと、移動体との位置関係に基づいて規定される、項目8に記載のプログラム。
以下、図面を参照しながら本技術の実施形態について説明する。なお、本技術はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
〔コンピュータ100〕
図1は、本技術の一実施形態に係るコンピュータ100のハードウェア構成図である。本実施形態は、ユーザの指示に応じてコンピュータゲーム空間内のキャラクタの動作を制御することに関する。
コンピュータ100は、図1に示すように、処理部102と、記憶部104と、タッチ・ディスプレイ110を備える。コンピュータ100は更に、ネットワークを介して他のコンピュータやスマートフォンと通信するためのネットワークインターフェィス(不図示)を備えてもよい。コンピュータ100は、例えば、スマートフォン、タブレット端末などの、タッチ・ディスプレイ110を備えるデバイスである。
処理部102は、記憶部104に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。処理部102が記憶部104に格納された各種プログラムを実行することによって、後述する各機能が実現される。処理部102は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)を含む。
記憶部104には、少なくともオペレーティングシステムが格納されている。オペレーティングシステムは、コンピュータ100の全体的な動作を制御するためのコンピュータプログラムである。記憶部104はまた、コンピュータ100の動作によって生成されるデータを一時的又は永続的に記憶することもできる。記憶部104は、ROM(Read Only Memory)、RAM(Random Access Memory)といった主記憶装置や、ハードディスク、フラッシュメモリ、光ディスク等といった補助記憶装置を含む。
タッチ・ディスプレイ110は、ユーザに対して視覚的な情報を提供する表示部112と、ユーザからコンピュータ100を操作するための入力を受け取る接触検知部114を備える。
表示部112は、処理部102により生成された画像を表示する。例えば、表示部112は、コンピュータゲーム画面に、画像処理の結果、生成された画像を表示する。一例として、液晶ディスプレイや有機EL(有機エレクトロルミネッセンス)が表示部112に用いられる。
接触検知部114は、その表面を指やスティック、スタイラスペンなどで触れると、その接触位置を所定の周期(例えば30fpsのフレーム・レート)で検出し、その接触位置に対応する座標データを出力する機能を有している。接触検知部114は、表示部112の上層に配置されてもよい。一例として、圧力検出方式、抵抗膜方式、静電容量方式や電磁誘導方式が接触検知部114に採用される。
図2は、本技術の一実施形態に係る処理部102の機能的な構成を示すブロック図である。処理部102はユーザインタフェース部210と、キャラクタ制御部220と、画像生成部230を有する。キャラクタ制御部220は、発弾条件判定部221と、UI参照部222と、入力判定部223と、キャラクタ動作制御部224と、オブジェクト制御部225を備える。
ユーザインタフェース部210は、タッチ・ディスプレイ110を用いた各種コンピュータゲーム(例えば、サッカーゲーム、テニスゲーム)の操作に共通化される処理を実行する。ユーザインタフェース部210の具体的な動作例は、図4を用いて詳述する。
キャラクタ制御部220は、タッチ入力情報241を必要に応じて参照し、該参照情報に基づいて各種コンピュータゲームに固有のキャラクタの動作を制御する。キャラクタ制御部220の具体的な構成や動作例は、図7を用いて詳述する。
ユーザインタフェース部210は、キャラクタ制御部220で行われる処理に関係なく、タッチ・ディスプレイ110を用いた各種コンピュータゲーム操作に共通の処理を実行する。従って、ユーザインタフェース部210は、その構成を変更することなく、様々な他のコンピュータゲームへ適用され得る。
画像生成部230は、記憶部104から所定のデータを取得し、取得したデータに基づいてゲーム画像を生成し、表示部112へ表示させる。一例として、ゲーム画像は、サッカーゲーム画像、例えば、サッカーゲームフィールドと、サッカーゲームに登場するキャラクタと、ボールを含む画像である。
記憶部104は、ゲーム情報240、ゲームプログラム250を格納する。ゲーム情報240は、例えば、ユーザインタフェース部210により特定されたタッチ入力情報241を含み、ゲームプログラム250は、例えば、ユーザインタフェース部210を機能させるUIプログラム251、キャラクタ制御部220を機能させるキャラクタ制御プログラム252を含む。
図3は、一実施形態のゲームプログラム250をサッカーゲームに適用する場合のゲーム画面300である。タッチ・ディスプレイ110には、ゲーム空間に配置された仮想カメラ(図示せず)で撮像したサッカー・フィールドFDが表示される。また、タッチ・ディスプレイ110の上部には、スコア「1−0」や経過時間「後半01:12」が付加情報として表示される。サッカー・フィールドFDには、ユーザが操作可能な様々なゲーム・オブジェクトが配置される。ゲーム・オブジェクト例には、移動体(例えば、サッカー・ボール)MB、自チームの自キャラクタCH11、12、対戦相手チームの相手キャラクタCH21〜23等が含まれる。各キャラクタには「FW」等のポジションが併せて表示される。ディスプレイ中央では、自キャラクタCH12に移動体MBが関連づけられており、自キャラクタCH11の上には▽印の活性マークMKが表示されている。活性マークMKが表示されている自キャラクタCH12は、ユーザのタッチ操作を通じて操作可能な操作対象キャラクタである。自キャラクタの動作の例として、ボールに対するドリブルやキック、およびフィールド内移動(ポジショニング)もある。キックには、パス、クリア、センタリング、シュート等の各種動作が含まれる。フィールドFDにはフィールド座標が規定される。配置される移動体MB、自キャラクタCH11〜12、対戦相手チームの相手キャラクタCH21〜23、およびゴールGL等の各オブジェクトはフィールド座標情報を有する。画面下部に、ユーザによるタッチ操作に応じたユーザインタフェース画像(以下、「UI画像」と称する。)が表示される。UI画像は、自キャラクタCH12への動作指令に関連付けられる。一実施形態によれば、UI画像は、スライド操作において、スライド方向をキャラクタのゲーム空間内の移動方向に関連づけ、またスライドの距離をキャラクタの移動速度に関連付けるのがよい。これにより、直感的に優れた操作性をユーザに提供可能なUI画像を提供することができる。
図4は、ユーザインタフェース部210の動作例を示すフローチャートである。このフローチャートは、ユーザインタフェース部210が1フレーム間に行う処理を表す。フローチャートの最初(ステップS401)から最後(ステップS405)までの処理が完了すると、ゲーム画像が1フレーム分生成され、その後、ゲーム画像の次の1フレームを生成するために、再びフローチャートの最初から同じ処理が繰り返される。
ステップS401において、ユーザインタフェース部210は、ユーザによる接触検知部114に対するタッチ入力があるか否か検出する。
タッチ入力が検出された場合、ステップS402において、ユーザインタフェース部210は、接触検知部114上のユーザによるタッチ入力のタッチ・ディスプレイ110上のタッチ位置座標(x、y)を取得し、記憶部104へ格納する(ステップS401の「はい」)。タッチ入力が検出されない場合、記憶部104へは何も格納せずに、ステップS401へ戻る。
ステップS403において、ユーザインタフェース部210は、最新のフレームにおけるタッチ入力のタッチ位置座標と、直前のフレームにおけるタッチ入力のタッチ位置座標との差分を求め、該差分に基づいて、直前のタッチ入力から最新のタッチ入力までのタッチ方向及びタッチ距離を算出する。更に、ユーザインタフェース部210は、該差分とフレーム間の経過時間(例えば、30fpsのフレームレートで、33ミリ秒)に基づいて、直前のタッチ入力から最新のタッチ入力までのタッチ速度を算出する。
ステップS404において、ユーザインタフェース部210は、最新の所定数フレーム(例えば、10フレーム)分のタッチ位置座標と、タッチ方向、タッチ距離、タッチ速度をタッチ入力情報241(タッチ入力に関する情報)として、フレーム毎に記憶部104へ格納する。最新の所定数フレームより前のフレームにおけるタッチ入力情報241は記憶部104から順次削除される。
ステップS405において、ユーザインタフェース部210は、記憶部104に格納された、最新の所定数フレーム分のタッチ入力情報に基づいて、タッチ入力の種類(例えば、タップ、フリック、スワイプ操作)の判定を行い、タッチ入力の種類を、タッチ入力情報241としてさらに記憶部104へ格納する。タッチ入力種類を判定するために有効なフレーム数分のタッチ入力情報241が存在しない場合、タッチ入力種類は判定されない。
ユーザインタフェース部210は、さらに、フリック、スワイプの方向を特定し、タッチ入力情報241として記憶部104へ格納してもよい。例えば、フリックの方向を、フリック操作の判定に用いた全てのフレームにおける、最新のフレームのタッチ方向に基づいて特定してもよいし、最古のフレームのタッチ方向に基づいて特定してもよい。また、フリックの方向を、フリック操作の判定に用いた全てのフレームにおけるタッチ方向の平均に基づいて特定してもよい。
ユーザインタフェース部210は、さらに、強フリック、弱フリックを特定し、該フリックの強/弱を、タッチ入力情報241として記憶部104へ格納してもよい。例えば、フリックの強/弱を、フリック操作の判定に用いた全てのフレームにおける、最大のタッチ距離に基づいて特定する。フリック操作の判定方法は、図9、10に関する説明において詳述する。
図5(a)および図5(b)に、ユーザインタフェース部210が取得したタッチ位置座標を格納する際の格納例を示す。タッチ操作を通じて、所定数のタッチ位置情報が、所定のフレームレート(例えば、30fbps)毎に記憶部104内の配列テーブルfpに格納される。また、タッチ操作毎にその初期位置座標がテーブルに格納される。タッチ位置情報は、タッチ・ディスプレイ110上のタッチ領域のxy位置座標として取得されるのがよい。xy位置座標は、例えば、タッチ領域の中心を原点(0,0)とし、縦方向上端が+1.0且つ縦方向下端が−1.0となるように調整する。タッチ位置情報によりS405でタップ、フリック、スワイプ操作の判定がなされる。
図5(a)の格納例では、配列テーブルfpとして、fp[0]からfp[10]までフレームレート毎に任意の数の(例えば11個の)タッチ位置情報を格納する記憶領域を設ける。本明細書において、用語「タッチオン」は、タッチ・ディスプレイ110上をユーザが指等の物体で接触する状態、用語「タッチナウ」は、ユーザが指等の物体で接触する状態をそのまま位置を変えながら接触を維持する状態、用語「タッチオフ」は、その後に物体を離す状態をそれぞれ指す。
最初のタッチオン状態では、タッチ領域上でタッチされた時点での位置座標(x0,y0)がfp[0]に格納される。当該タッチオン状態ではfp[1]からfp[10]は未だnull(空)値であるが、タッチナウ状態が進行するにつれて、フレームレート毎にタッチ位置座標が順次格納される。例えば、タッチナウ状態1では、fp[1]からfp[5]まで順に5個の位置座標が格納され、タッチナウ状態2では、更にfp[6]からfp[10]まで順に5個の位置座標が格納されている。配列テーブルfpは、11個のデータしか格納しないため、容量が一杯になり次第、古いデータを順次削除する。なお、タッチ方向を常に検知できるように、タッチオン座標情報(x0,y0)を初期位置座標として別途保存する。初期位置座標は、タッチオフ状態に至るまでスライド操作を通じて削除されないことが好ましい。
タッチナウ状態2から更にタッチナウ状態が進行してその次のタッチオフ判定に至るまで、フレームレート毎の位置座標のデータを用いて再度fp[0]から順次上書きされ古い位置座標のデータが順次削除される。タッチオフ判定は、物理的に位置座標が取得されず、null値が格納される場合に実施される。図5(a)では、少なくともfp[5]がnull値で上書き更新されたために、タッチオフ判定が実施される。タッチオフと判定された場合には、一連のスライド操作のタッチ位置情報の取得が完了する。タッチオフ判定では、タッチ位置情報が1回のみ取得できない(null値が1つの)場合ではなく、複数のフレームレート単位にわたり連続して取得できない(null値が連続して2つ以上の)場合に、タッチオフを判定するように判定ロジックを構成してもよい。このように構成するのは、タッチ操作が複雑なものである場合に、ほんの一瞬指がタッチ・ディスプレイから離れてしまうことが十分に想定されるためである。
図5(b)に、図5(a)のタッチオフ判定の結果、(1)タッチオフ判定され、その後再度タッチオン状態となる場合、および(2)タッチオフ判定されずその後もタッチナウ状態3としてタッチナウが継続する場合の2つのパターンの格納例を示す。(1)(2)共に、fp[5]およびfp[6]に、(x16,y16)および(x17,y17)ではなくnull値が格納される。また、次のタッチ位置座標(x18,y18)の入力を受けると、fp[7]に当該(x18,y18)が格納される。その後もフレームレート毎にfp[8]から位置座標が順次格納される(矢印)。一方、(1)の場合は、初期位置座標が新たに(x18,y18)で上書き更新されるのに対し、(2)の場合は、初期位置座標が(x0,y0)として維持される。(2)に限らず、(1)でタッチオフ判定された後においても、配列テーブルfpが初期化されないように構成されるのがよい。つまり、前回スライド操作での直近のタッチ位置情報(x14,y14)や(x15,y15)を、後述する先行入力処理で使用可能なようにしておくために、これらの情報を維持しておくのが好ましい。
図6は、記憶部104に格納されるタッチ入力情報241の一例を示す。タッチ入力情報241は、fp[0]からfp[3]のタッチ入力に関する情報で構成されている。フレーム毎にタッチ入力のタッチ位置座標と、フレーム間のタッチ操作情報(タッチ方向、タッチ距離、タッチ速度)と、操作判定情報(判定されたタッチ入力種類と、タッチ入力種類がフリック、スワイプ入力の場合にはそれらの方向と、タッチ入力種類がフリック操作の場合にはその強/弱に関する情報)を含む。
フレームfp[0]におけるタッチ位置座標は、初期位置座標である。フレームfp[0]では連続する直近の2フレーム以上のタッチ位置座標が存在しないため、タッチ操作情報及び操作入力判定情報は記憶部104に格納されない。fp[0]のタッチ距離(フレーム内のタッチ速度)が閾値TH以上でない場合に、フリック操作が不成立であると判定され、フレームfp[1]においてスワイプ処理と判定される。スワイプ方向は、例えば、初期位置座標から現在の(fp[1]の)タッチ位置座標に対する方向で求められる。fp[2]のタッチ距離(フレーム内のタッチ速度)が閾値TH以上である場合に、フレームfp[3]でフリック操作が成立したと判定される。フリック方向は、例えば、フリック判定に用いられたタッチ操作情報のうち最も早いタッチ速度を有するフレームのタッチ方向で求められる。フレームfp[3]では、タッチ入力は検出されず、タッチ位置座標はnull値で上書き更新される。
図7は、キャラクタ制御部220の動作例を示すフローチャートである。本実施形態においては、キャラクタ制御部220は、サッカーゲーム空間内に存在する操作対象キャラクタの動作を制御する。
操作対象キャラクタは、例えば、ゲーム空間内に存在する複数のキャラクタのうち1つのキャラクタに対してなされたユーザのタップ操作により特定される。キャラクタは、移動体と関連付けられているとき、例えば、移動体を受けてキープしているとき、移動体を制御することができる。
まず、ステップS701において、発弾条件判定部221は、キャラクタが移動体に関連付けられていない場合に、移動体とキャラクタの位置関係が所定の条件を満たすか否か判定する。本実施形態では、例えば、キャラクタが移動体をキープしていない場合に、移動体とキャラクタとの間の距離が一定以下(例えば、ゲーム空間の1m以下)であるかを判定する。移動体とキャラクタ間の距離は、3次元ゲーム空間におけるxyz空間座標で規定された移動体の位置と、3次元ゲーム空間におけるxy平面座標で規定された操作対象キャラクタの位置に基づいて算出される。
移動体とキャラクタの関係が所定の条件を満たすと判定された場合には、ステップS702へ進む。一方、ステップS701にて、移動体とキャラクタの関係が所定の条件を満たさないと判定された場合には、ステップS701へ戻る。
ステップS702において、UI参照部222は、ユーザインタフェース部210が格納したタッチ入力情報241を参照する(ステップS701にて「はい」)。
ステップS703において、入力判定部223は、移動体とキャラクタが関連付けられる前に格納された先行のタッチ入力情報(以下、先行タッチ入力情報と称する)を参照して、先行のタッチ入力があるかを判定する。ステップS703において先行のタッチ入力があった場合に、ステップS704へ進む。
ステップS704において、入力判定部223は、先行タッチ入力情報が第1入力を含むか判定する。第1入力は、キャラクタに第1動作を実行させるための操作であり、例えば、フリック操作、タップ操作である。先行タッチ入力情報は、さらにタッチ方向を特定する情報、タッチ距離を特定する情報を含んでもよい。ステップS704において先行タッチ入力情報が第1入力を含む場合に、ステップS705へ進む。
ステップS705において、入力判定部223は、先行タッチ入力情報のタッチ方向を特定する情報に基づいて、先行タッチ入力のタッチ方向を特定する。
ステップS706において、キャラクタ動作制御部224は、タッチ入力情報241に基づいて、移動体を受けるときのキャラクタに第1動作(例えば、ボレー又はヘディング動作)を実行させる。なお、先行入力があった場合には、タッチ入力情報241は、移動体がキャラクタに関連付けられる前に格納された先行タッチ入力情報である。
具体的には、キャラクタ動作制御部224は、タッチ入力種類がフリック、タップの場合に、移動体を受けるときの操作対象キャラクタに対する移動体の高さを求める。キャラクタ動作制御部224は、キャラクタが移動体を受けると、キャラクタを移動体に関連付けする。そして、キャラクタ動作制御部224は、移動体を受けるときの操作対象キャラクタに対する移動体の高さに基づいて、操作対象キャラクタに第1動作を実行させる。画像生成部230は、ボレー又はヘディング動作を行う操作対象キャラクタと、移動体を含むゲーム画像を生成する。
キャラクタは身長に関する情報を有している。例えば、キャラクタに対する移動体の高さを、キャラクタの足元くらい(身長の0〜0.5倍)の高さ、胴体くらい(身長の0.5〜0.9倍)の高さ、身長くらい(身長の0.9〜1.05倍)の高さ、身長より少し高い(身長の1.05〜1.2倍の)高さ、身長よりかなり高い(身長の1.2倍以上)高さの5段階に分ける。そして、キャラクタに対する移動体の高さが、足元くらいの高さの場合に、キャラクタにボレー動作を行わせる。移動体の高さが、操作対象キャラクタの胴体くらいの高さの場合に、キャラクタに一旦トラップ動作を行わせてからボレー動作を行わせる。また、移動体の高さが、キャラクタの身長より少し高い高さ、身長くらいの高さの場合に、キャラクタにヘディング動作を行わせる。このように、第1動作の態様は、キャラクタに対する移動体の位置に基づいて特定される。
ステップS707において、移動体制御部225は、タッチ入力情報241のタッチ方向を特定する情報に基づいて、移動体の移動方向を制御する。具体的には、タッチ入力種類がフリックの場合には、移動体制御部225は、フリック方向に対応するゲーム空間の方向へ向けて、移動体を制御する。さらに、移動体制御部225は、タッチ距離(フリックの強/弱)に基づいて、移動体の弾道や、移動距離を変更してもよい。例えば、強いフリックの場合には、高い弾道(フライボール、ライナーボール)とし、弱いフリックの場合には、低い弾道(ゴロ)とする。
また、タッチ入力種類がタップの場合には、移動体制御部225は、移動体が現在位置するゲーム空間の平面座標から、表示部112上のタップ座標へ向けて移動するよう、移動体を制御する。なお、表示部112上のタップ座標を、ゲーム空間内の位置へ変換して、該変換されたゲーム空間内の位置へ向けて移動体を制御してもよい。
さらに、ステップS707において、移動体制御部225は、タッチ距離に基づいて移動方向に向かう移動体の軌道を特定してもよい。そして、画像生成部230は、制御された移動体を含むゲーム画像を生成する。
一方、ステップS703において、移動体とキャラクタが関連付けられる前に格納された先行タッチ入力情報を参照して、先行入力がないと判定された場合、ステップS708へ進む。また、ステップS704において先行タッチ入力情報が第1入力を含まない場合、ステップS708へ進む。
ステップS708において、キャラクタ動作制御部224は、キャラクタが移動する移動体を受けると、キャラクタを移動体に関連付ける。そして、キャラクタ動作制御部224は、操作対象キャラクタに第1動作とは異なる予め規定された第2動作、例えば、移動体をトラップする動作を実行させる。先行入力がないため、操作対象キャラクタの動作は、タッチ入力情報241に基づいて制御されない。そして、画像生成部230は、トラップ動作を行う操作対象キャラクタを含むゲーム画像を生成する。
ステップS709において、UI参照部222は、操作対象キャラクタが第2動作を開始した後、所定期間(例えば、0.4秒)に亘って、タッチ入力情報241を参照する。
ステップS710において、入力判定部223は、所定期間内のタッチ入力情報241に基づいて、後続のタッチ入力があるかを判定する。
ステップS711において、入力判定部223は、後続のタッチ入力情報が第1入力を含むか判定する。ステップS711において第1入力を含む後続のタッチ入力情報が記憶部104に格納されている場合に、操作対象キャラクタの第2動作を中止して、ステップS706へ進む。この場合、ステップS706において用いられるタッチ入力情報241は、移動体がキャラクタに関連付けられた後に格納された情報である。
一方、後続のタッチ入力がない場合(ステップS710にて「いいえ」)、及び後続のタッチ入力情報が第1入力を含まない場合(ステップS711にて「いいえ」)、キャラクタ動作制御部224は、操作対象キャラクタに第2動作を継続して行わせる(ステップS712)。
実際のサッカーゲームでは、選手は移動するボールの軌跡に基づいて、ボールが落ちる場所を予測している。選手は、このような予測に基づいて、次に行う動作を即座に判断しながらプレイを進行する。本実施形態においては、移動体がキャラクタに関連付けられる前、すなわちキャラクタが移動体を操作可能な状態になる前の情報に基づいて、操作対象キャラクタに行わせる動作を決定する。従って、本技術によると、実際のサッカーゲームでなされる状況に即した、より趣向性の高いゲームを展開することができる。更に、本技術によると、ユーザは、キャラクタが移動体を受けるタイミングを厳密に図ることなく操作対象キャラクタに対する動作を指示することができる。従って、より操作性の高いゲームが展開される。
図8は、本技術の一実施形態によるキャラクタ制御部220と、キャラクタ制御部により参照されるタッチ入力情報241と、キャラクタに行わせる動作の関係を示す表である。図8に示すように、キャラクタ制御部220は、キャラクタの状態(通常状態、転倒状態)や、移動体の状態(移動体が操作対象キャラクタに関連付けられているか否か)に基づいて、キャラクタに行わせる動作を決定することができる。所定のフレームfpにおけるキャラクタの状態は、参照するタッチ入力情報241の所定のフレームfpにおけるタッチ入力種類や、タッチ方向、タッチ距離、タッチ速度に関連付けられる。
キャラクタの状態は、処理部102が実行中のゲームプログラム250からの情報に基づいて特定される。通常状態とは、タッチ入力情報241に基づいてキャラクタを制御可能な状態である。転倒状態では、キャラクタはタッチ入力情報241に基づいて制御されず、予め規定された動作(転倒した後起き上がる動作)で制御される。すなわち、キャラクタ制御部220は、通常状態ではタッチ入力情報241を参照するが、転倒状態では参照しない。転倒状態ではタッチ入力情報241を参照しないことにより、転倒状態でユーザ入力により操作対象キャラクタが走り出してしまうといったような、不自然な動作が生じることが防止される。移動体の状態は、処理部102が実行中のゲームプログラム250からの情報に基づいて特定される。
移動体がキャラクタに関連付けられている場合には、記憶部104に格納されたタッチ入力情報241に基づいて、キャラクタの動作を制御する。例えば、図8において、キャラクタ制御部220がフレームfp[a]〜fp[c]に対応する場合、タッチ入力情報241のフレームfp[a]〜fp[c]の情報がそれぞれ参照される。一方、キャラクタ制御部220は、キャラクタが通常状態であって、かつ移動体とキャラクタの位置関係が所定の条件を満たす場合に、移動体がキャラクタに関連付けられていないときに記憶部104に格納されたタッチ入力情報241に基づいて、関連付けられた後のキャラクタの動作を制御する。例えば、図8において、キャラクタ制御部220がフレームfp[e]、fp[f]に対応する場合、タッチ入力情報241のフレームfp[e−m]、fp[f−m]の情報、すなわち先行タッチ入力情報に基づいて、キャラクタの動作を制御する。
また、図8に示すように、同じタッチ入力情報241が参照されても、移動体がキャラクタに関連付けられているか否かによって、キャラクタに行わせる動作が異なる。例えば、キャラクタ制御部がfp[a]に対応する場合、移動体はキャラクタに関連付けられていない。このとき、タッチ入力種類は、タッチ入力情報241のフレームfp「a」を参照することによりスワイプと特定される。キャラクタは、タッチ入力情報241のフレームfp「a」に存在する、スワイプ方向、スワイプ距離に基づいて、走るように動作制御される。一方、キャラクタ制御部がfp[b]に対応する場合、移動体はキャラクタに関連付けられている。タッチ入力種類は、タッチ入力情報241のフレームfp[b]を参照することによりスワイプと特定される。キャラクタは、タッチ入力情報241のフレームfp「b」に存在する、スワイプ方向、スワイプ距離に基づいて、移動体をドリブルように動作制御される。
図9にユーザインタフェース部210によるタッチ操作判定の処理(S405)フローを例示する。また、図10にフリック操作情報のグラフを例示する。グラフの横軸は所定のフレームレート単位のフレームFを、縦軸はスライド距離(スワイプ距離またはフリック距離)を示す。第1フレームF[1]でタッチオン状態が検知され、第n−1フレームF[n−1]まで、タッチナウ状態としてスライド(スワイプ)距離がプロットされている。第nフレームF[n]で、タッチ位置情報が特定されないことで、スライド距離が計算不能(N/A)となる。これにより、距離タッチオフが検知されている状況である。
直前の少なくとも1つフレームにおけるフリック操作情報の決定に応じて、フリック操作情報の内のスライド距離について、閾値TH1以上かが判定される(S901)。具体的には、直前の第n−1フレームF[n−1]やその更に直前の第n−2フレームF[n−2]でプロットされたスライド(フリック)距離が閾値TH1以上かが判定される。「はい」の場合は、フリック操作が成立したものと判定され、以降の処理を通じてオブジェクトへの動作が実行されることになる。他方、「いいえ」の場合はフリック操作が不成立であると判定され、オブジェクトへの動作は実行されずにスワイプ処理のまま終了する。F[n−1]およびF[n−2]の2つのフリック距離を用いる場合は、何れもが閾値TH1以上である場合に、フリック操作の成立が判定されるのがよい。つまり、F[n−1]の1フレーム分のフリック距離のみが閾値TH1以上であったとしても、フリック操作の成立は判定されない。判定に用いる複数の直前のフレームは、2以上且つ遡ることが可能な数(図5(a)および図5(b)の例では10個)までの何れの数としてよい。複数の直前のフレームを用いるのは、直前1つのみのフレームの操作情報しか決定されないタップ操作と区別するためである。なお、フリック距離のみならず、フリック方向についても上記判定で用いたフレームを用いて決定するのがよい。直近のフレームでの方向をフリック方向として決定してもよいし、複数のフレームを判定に用いる場合は、最も古いフレームの方向をフリック方向として決定してもよい。これ以外にも、各フレームの平均の方向を計算してフリック方向として決定してもよい。
S901の結果、フリック操作の成立が判定されると、更に、フリック距離に基づいてフリック操作種別が決定される。フリック操作種別には、「強」フリック操作および「弱」フリック操作が含まれる。つまり、フリック距離が更なる閾値T2(>T1)以上であるかが判定される(S902)。「はい」の場合はフリック操作種別が「強」フリック操作に設定され(S903)、「いいえ」の場合はフリック操作種別が「弱」フリック操作に設定される(S904)。連続する複数のフレームのフリック距離を用いる場合は、それらの内の最大値を閾値T2と比較することで判断されるのがよい。即ち、図9ではF[n−1]のフリック距離が最大値で且つTH2より大きいため、ここではフリック操作種別が「強」フリック操作と設定される。フリック操作種別は、実施されることになる動作が関連付けられる。
以上、本技術の実施の形態について説明したが、本技術は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、
様々な実施形態の変更がなされ得ることを当業者は理解するであろう。
100…コンピュータ、102…処理部、104…記憶部、110…タッチ・ディスプレイ、112…表示部、114…接触検知部、210…ユーザインタフェース部、220…キャラクタ制御部、230…画像生成部、240…ゲーム情報、241…タッチ入力情報、250…ゲームプログラム、251…UIプログラム、252…キャラクタ制御プログラム

Claims (6)

  1. 移動体と、ユーザにより操作可能なキャラクタを含む画像をタッチ・ディスプレイに表示させるステップと、
    タッチ・ディスプレイに対するタッチ入力を検出するステップと、
    前記タッチ入力に基づいてタッチ入力情報を特定するステップと、
    前記タッチ入力情報をメモリへ格納するステップと、
    前記移動体が前記キャラクタに関連付けられていない場合に、前記移動体と前記キャラクタの位置関係が所定の条件を満たすか判定するステップと、
    前記所定の条件を満たす場合に、前記移動体が前記キャラクタに関連付けられる前に格納された先行タッチ入力情報を参照し、前記先行タッチ入力情報が第1入力を含むかを判定するステップと、
    前記先行タッチ入力情報が前記第1入力を含む場合に、前記先行タッチ入力情報に基づいて、前記キャラクタに第1動作を実行させるステップであって、
    前記移動体を受けるときの前記キャラクタに対する前記移動体の高さに基づいて、前記第1動作の態様を特定するステップ
    を含む、ステップと、
    前記先行タッチ入力情報が前記第1入力、および、タッチ方向を特定する情報を含む場合に、前記タッチ方向を特定する情報に基づいて、前記移動体の移動方向を制御するステップと
    を含む、方法。
  2. 前記第1動作の態様を特定するステップは、
    前記第1入力が特定の種類の操作である場合に、前記移動体を受けるときの前記キャラクタに対する前記移動体の高さを求めるステップと、
    求められた前記高さに基づいて、複数の態様のうちから前記第1動作の態様を特定するステップと
    を含む、請求項1に記載の方法。
  3. 前記先行タッチ入力情報がタッチ距離を特定する情報をさらに含み、
    前記タッチ距離に基づいて、前記移動方向に向かう前記移動体の軌道を特定する、請求項1または2に記載の方法。
  4. 前記所定の条件は、前記移動体と前記キャラクタの間の距離が一定以下であることを含む、請求項1〜3のいずれかに記載の方法。
  5. 前記先行タッチ入力情報が前記第1入力を含まない場合に、前記キャラクタに前記第1動作と異なる第2動作を実行させるステップと、
    前記キャラクタが前記第2動作を開始した後の所定の期間内に、第1入力を含む後続タッチ入力情報がメモリに格納された場合には、前記後続タッチ入力情報に基づいて、前記キャラクタに前記第2動作を中止させるとともに、前記第1動作を実行させるステップとを含む、請求項1〜4のいずれかに記載の方法。
  6. コンピュータに請求項1〜5の何れか1項に記載の方法を実行させるためのプログラム。
JP2016035727A 2016-02-26 2016-02-26 画像処理方法、及び画像処理プログラム Active JP6084719B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016035727A JP6084719B1 (ja) 2016-02-26 2016-02-26 画像処理方法、及び画像処理プログラム
PCT/JP2017/003603 WO2017145684A1 (ja) 2016-02-26 2017-02-01 画像処理方法、及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016035727A JP6084719B1 (ja) 2016-02-26 2016-02-26 画像処理方法、及び画像処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017000230A Division JP2017148487A (ja) 2017-01-04 2017-01-04 画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP6084719B1 true JP6084719B1 (ja) 2017-02-22
JP2017148398A JP2017148398A (ja) 2017-08-31

Family

ID=58095199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016035727A Active JP6084719B1 (ja) 2016-02-26 2016-02-26 画像処理方法、及び画像処理プログラム

Country Status (2)

Country Link
JP (1) JP6084719B1 (ja)
WO (1) WO2017145684A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6255525B1 (ja) * 2017-06-07 2017-12-27 株式会社 ディー・エヌ・エー 電子ゲーム装置及び電子ゲームプログラム
KR101908992B1 (ko) * 2016-08-26 2018-12-19 이근호 선도관체 및 이를 이용한 지중압입공법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6418299B1 (ja) * 2017-09-15 2018-11-07 株式会社セガゲームス 情報処理装置及びプログラム
JP6569794B1 (ja) * 2018-10-16 2019-09-04 株式会社セガゲームス 情報処理装置及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005279165A (ja) * 2004-03-31 2005-10-13 Nintendo Co Ltd 入力位置との関係でゲームオブジェクトの動作を変化させるゲームプログラム
JP2006181286A (ja) * 2004-12-28 2006-07-13 Sega Corp 画像処理装置およびその方法
JP2007050180A (ja) * 2005-08-19 2007-03-01 Snk Playmore Corp ゲーム装置
WO2013024771A1 (ja) * 2011-08-16 2013-02-21 株式会社セガ コンピュータゲーム装置、コンピュータゲーム装置を制御するための制御方法及びゲームプログラム、並びにゲームプログラムを記録した記録媒体
JP2013225178A (ja) * 2012-04-19 2013-10-31 Fujitsu Ltd 表示装置、表示方法および表示プログラム
JP2015011517A (ja) * 2013-06-28 2015-01-19 株式会社コナミデジタルエンタテインメント 移動制御装置、移動制御方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005279165A (ja) * 2004-03-31 2005-10-13 Nintendo Co Ltd 入力位置との関係でゲームオブジェクトの動作を変化させるゲームプログラム
JP2006181286A (ja) * 2004-12-28 2006-07-13 Sega Corp 画像処理装置およびその方法
JP2007050180A (ja) * 2005-08-19 2007-03-01 Snk Playmore Corp ゲーム装置
WO2013024771A1 (ja) * 2011-08-16 2013-02-21 株式会社セガ コンピュータゲーム装置、コンピュータゲーム装置を制御するための制御方法及びゲームプログラム、並びにゲームプログラムを記録した記録媒体
JP2013225178A (ja) * 2012-04-19 2013-10-31 Fujitsu Ltd 表示装置、表示方法および表示プログラム
JP2015011517A (ja) * 2013-06-28 2015-01-19 株式会社コナミデジタルエンタテインメント 移動制御装置、移動制御方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101908992B1 (ko) * 2016-08-26 2018-12-19 이근호 선도관체 및 이를 이용한 지중압입공법
JP6255525B1 (ja) * 2017-06-07 2017-12-27 株式会社 ディー・エヌ・エー 電子ゲーム装置及び電子ゲームプログラム
JP2018202007A (ja) * 2017-06-07 2018-12-27 株式会社 ディー・エヌ・エー 電子ゲーム装置及び電子ゲームプログラム

Also Published As

Publication number Publication date
JP2017148398A (ja) 2017-08-31
WO2017145684A1 (ja) 2017-08-31

Similar Documents

Publication Publication Date Title
CN109982756B (zh) 信息处理程序、信息处理方法和信息处理装置
JP6084719B1 (ja) 画像処理方法、及び画像処理プログラム
US11707669B2 (en) Program, control method, and information processing apparatus
WO2017145570A1 (ja) ゲームプログラム
US11833421B2 (en) Program, game control method, and information processing apparatus
JP6706438B2 (ja) ゲームプログラム
JP6457984B2 (ja) ゲームプログラム、方法および情報処理装置
JP6626613B2 (ja) ゲームプログラム
JP7510290B2 (ja) ゲームプログラム、およびゲーム方法
US20220410012A1 (en) Program, electronic device, method, and system
JP2017148487A (ja) 画像処理方法、及び画像処理プログラム
JP6336168B1 (ja) 情報処理方法、装置、及び当該情報処理方法をコンピュータに実行させるためのプログラム
WO2018043693A1 (ja) ゲームプログラム、方法および情報処理装置
JP7340054B2 (ja) ゲームプログラム
JP7034538B2 (ja) ゲームプログラム
JP2014238741A (ja) 移動制御装置、移動制御方法、及びプログラム
JP5993513B1 (ja) 野球ゲームプログラム、ゲームプログラム及びコンピュータ
JP6404077B2 (ja) ゲームプログラム
JP2018161513A (ja) ゲームプログラム、方法、および情報処理装置
JP2018050937A (ja) ゲームプログラム、方法および情報処理装置
US12128301B2 (en) Program, game control method, and information processing apparatus
JP2018094026A (ja) ゲームプログラム、方法、および情報処理装置
JP6260942B2 (ja) コンピュータゲーム装置、コンピュータゲーム装置を制御するための制御方法及びゲームプログラム、並びにゲームプログラムを記録した記録媒体
JP6190505B1 (ja) ゲームプログラム、記録媒体、方法および情報処理装置
JP2018153652A (ja) 情報処理方法、装置、及び当該情報処理方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170125

R150 Certificate of patent or registration of utility model

Ref document number: 6084719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250