JP5981617B1 - ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法 - Google Patents

ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法 Download PDF

Info

Publication number
JP5981617B1
JP5981617B1 JP2015162762A JP2015162762A JP5981617B1 JP 5981617 B1 JP5981617 B1 JP 5981617B1 JP 2015162762 A JP2015162762 A JP 2015162762A JP 2015162762 A JP2015162762 A JP 2015162762A JP 5981617 B1 JP5981617 B1 JP 5981617B1
Authority
JP
Japan
Prior art keywords
touch
area
computer program
touch screen
slide operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015162762A
Other languages
English (en)
Other versions
JP2017038793A (ja
Inventor
洋平 三宅
洋平 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015162762A priority Critical patent/JP5981617B1/ja
Priority to PCT/JP2016/073111 priority patent/WO2017030022A1/ja
Application granted granted Critical
Publication of JP5981617B1 publication Critical patent/JP5981617B1/ja
Publication of JP2017038793A publication Critical patent/JP2017038793A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】配置位置を固定することのない、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現すること。【解決手段】タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定する領域規定部と、物体によるタッチ・スクリーンへの複数のタッチ操作を受け付ける受付部と、各タッチ操作の受け付けに対し、1のUI領域を割り当てる領域割当部と、受け付けに応じて、上記1のUI領域にそれぞれ関連付けられるUI画像をタッチ・スクリーン上に表示するUI画像表示部と、として上記タッチ・スクリーンを具備するコンピュータに機能させる、UI画像表示のためのコンピュータ・プログラムが得られる。【選択図】図4

Description

本発明は、ユーザ・インタフェース(以下、「UI」と称する。)画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法に関するものである。より詳細には、スマートフォン上で実行されるゲーム(以下、「スマートフォン・ゲーム」と称する。)で使用され、物体による接触操作に応じて、視覚的に、タッチパネル上に複数のUI画像を表示させるためのコンピュータ・プログラムおよびコンピュータ実装方法に関するものである。
スマートフォン・ゲームに用いられるUIとして、例えば、特許文献1に開示される従来技術が知られる。即ち、スマートフォンのタッチパネル上に2種類の操作ボタン(所謂、十字キーやジョイスティック等)を複合的に表示する従来技術である(〔要約〕参照)。
特開2012−168931号公報
従来技術のバーチャルな十字キーやジョイスティックは、単に、従来の家庭用ゲーム機(任天堂株式会社のファミリーコンピュータ(登録商標)等)といったゲーム体験をスマートフォン上で擬似的に提供することを目的として、物理的な操作キーを仮想的に表示したものに過ぎない。特に、従来技術の十字キーやバーチャル・ジョイスティックは、表示領域がスマートフォンの画面右下や左下といった固定位置に配置される。ユーザは操作時に指を当該固定位置に位置合わせしなければならず、且つ操作領域も制限されるといった点でユーザ操作性に制約が生じていた。特に昨今のスマートフォン・ゲームはコンテンツの複雑化に伴いユーザ操作が益々複雑化しており、ユーザ操作性に優れたUIが求められている。特に、ユーザが画面上のタッチ位置を意識することなく、タッチ操作を通じてゲーム進行を可能とするUIを実現することが望ましい。
そこで、本発明は、このようなスマートフォン・ゲームで用いるUIに関し、特にユーザ操作性に優れたUI表示のためのコンピュータ・プログラムおよびコンピュータ実装方法を提供することを目的とする。より具体的には、従来技術のように配置位置を固定することなく、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することを目的とする。
上記の課題を解決するために、本発明によれば、タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定する領域規定部と、物体によるタッチ・スクリーンへの複数のタッチ操作を受け付ける受付部と、各タッチ操作の受け付けに対し、1のUI領域を割り当てる領域割当部と、受け付けに応じて、上記1のUI領域にそれぞれ関連付けられるUI画像をタッチ・スクリーン上に表示するUI画像表示部と、として上記タッチ・スクリーンを具備するコンピュータに機能させる、UI画像表示のためのコンピュータ・プログラムが得られる。
また、本発明によれば、タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定するステップと、物体によるタッチ・スクリーンへの複数のタッチ操作を受け付けるステップと、各タッチ操作の受け付けに対し、1のUI領域を割り当てるステップと、上記受け付けに応じて、上記1のUI領域にそれぞれ関連付けられるUI画像をタッチ・スクリーン上に表示するステップと、を含む、タッチ・スクリーンを具備するコンピュータに実装されるUI画像表示のための方法が得られる。
本発明の特徴点および利点は、後述する発明の詳細な説明、並びに添付の図面および特許請求の範囲の記載から明らかなものとなる。
図1は、本発明の実施の形態によるコンピュータ・プログラムを実行するための携帯端末の模式図である。 図2は、図1の携帯端末の構成を模式的に示したブロック図である。 図3は、図2の携帯端末における入出力の概要を示したブロック図である。 図4は、本発明の実施の形態によるコンピュータ・プログラムを実行することにより図1の携帯端末に表示されるUI画像表示例である。 図5は、図4の例示の画面表示におけるUI領域の規定例である。 図6は、本発明の実施の形態によるコンピュータ・プログラムを用いて実装される主要機能ブロック図である。 図7は、本発明の実施の形態によるコンピュータ・プログラムによる情報処理について示したフローチャートである。 図8は、図7のステップS104に関する詳細な情報処理について示したフローチャートである。 図9は、図7のステップS105に関する詳細な情報処理について示したフローチャートである。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムは、以下のような構成を備える。
(項目1)
タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定する領域規定部と、
物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付ける受付部と、
各前記タッチ操作の受け付けに対し、1のUI領域を割り当てる領域割当部と、
前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられるUI画像を前記タッチ・スクリーン上に表示するUI画像表示部と
として前記タッチ・スクリーンを具備するコンピュータに機能させる、UI画像表示のためのコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのタッチ操作による複数のUI画像を関連付けてゲームを進行させることができ、ユーザ操作性を向上することができる。そして、配置位置を固定することのない、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することができる。
(項目2)
項目1記載のコンピュータ・プログラムであって、更に、
前記タッチ操作がスライド操作であってタッチ開始点およびタッチ終了点を有するスライド操作を構成するスライド操作構成部として前記コンピュータに機能させ、
前記領域割当部において、前記タッチ開始点の位置に従って、前記スライド操作を受け付けて前記1のUI領域が決定され、また、前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とする、コンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのスライド操作による複数のUI画像を関連付けてゲームを進行させることができ、更にユーザ操作性を向上することができる。
(項目3)
項目2記載のコンピュータ・プログラムにおいて、
前記領域割当部において、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、項目2記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、複数のUIを併存させるルールを明確に規定することができる。
(項目4)
項目2または3記載のコンピュータ・プログラムにおいて、
前記スライド操作構成部が、
前記受け付け状態の間に、前記表示領域において所定のフレーム・レートによるフレーム毎のタッチ位置を取得し、
直前フレームにおいて前記タッチ・スクリーン上にタッチ位置が複数存在する場合に、現在フレームにおける前記スライド操作のタッチ位置に最も近い、前記直前フレームのタッチ位置の1つを前記現在フレームのタッチ位置に関連付けて、前記スライド操作の少なくとも一部を構成する、コンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、複数のUIを併存させることによる誤認識を防止することができる。
(項目5)
前記領域割当部において、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てる、項目2から4のいずれか一項記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、スライド可動領域を設定可能であり、ユーザ操作性を柔軟なものとすることができる。
(項目6)
前記領域のそれぞれは矩形で形成される、項目1から5のいずれか一項記載のコンピュータ・プログラム。
(項目7)
タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定するステップと、
物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付けるステップと、
各前記タッチ操作の受け付けに対し、1のUI領域を割り当てるステップと、
前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられるUI画像を前記タッチ・スクリーン上に表示するステップと
を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、UI画像表示のための方法。
本項目の方法によれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのタッチ操作による複数のUI画像を関連付けてゲームを進行させることができ、ユーザ操作性を向上することができる。そして、配置位置を固定することのない、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することができる。
(項目8)
項目7記載の方法において、
前記タッチ操作がタッチ操作点およびタッチ終了点を含むスライド操作を含み、
前記UI領域を割り当てるステップが、
前記タッチ開始点の位置に従って、割り当てる前記1のUI領域を決定するステップと、
前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とするステップであって、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、ステップと
を含む、方法。
本項目の方法によれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのスライド操作による複数のUI画像を関連付けてゲームを進行させることができ、更にユーザ操作性を向上することができる。
(項目9)
項目8記載の方法において、前記UI領域を割り当てるステップが、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てるステップを含む、方法。
本項目の方法によれば、スライド可動領域を設定可能であり、ユーザ操作性を柔軟なものとすることができる。
[本発明の実施形態の詳細]
これより図面を参照して、本発明の実施形態による、UI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法について説明する。図中、同一の構成要素には同一の符号を付してある。本発明の実施の形態によるUI画像表示のためのコンピュータ・プログラムは、主に、スマートフォン・ゲームとしてのゲーム・プログラムの一部として適用可能である。より詳しくは、本コンピュータ・プログラムは、ゲーム・プログラムの一部としてゲームを進行させ、仮想空間や該仮想空間内のゲーム・キャラクタの動作を制御するために用いることが可能である。
携帯端末のハードウェア構成
図1に示すスマートフォン1は、携帯端末の一例であり、タッチパネル2を備える。スマートフォンのユーザは当該タッチパネル2上でのタッチ操作を含むユーザ操作を介してゲームの進行を制御することができる。なお、本実施の形態によるコンピュータ・プログラムを実行するための携帯端末は、図2のようなスマートフォン1に限定されず、例えば、PDA、タブレット型コンピュータのデバイスなど、タッチパネルを備える携帯端末であれば如何なるデバイスともできることが理解される。
図2に示すように、スマートフォン1は、互いにバス接続されたCPU3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備える。このうち主記憶4は例えばDRAMなどで構成され、補助記憶5は例えばHDDなどで構成されている。補助記憶5は、本実施の形態によるコンピュータ・プログラムやゲーム・プログラムを記録可能な記録媒体である。補助記憶5に格納された各種プログラムは、主記憶4上に展開されてCPU3によって実行される。なお、主記憶4上には、CPU3が本実施の形態によるコンピュータ・プログラムに従って動作している間に生成したデータやCPU3によって利用されるデータも一時的に格納される。送受信部6はCPU3の制御によりスマートフォン1とネットワークとの間の接続(無線接続および/または有線接続)を確立して各種情報の送受信を行う。表示部7は、CPUでの制御の下でユーザに提示することになる各種情報を表示する。入力部8は、ユーザのタッチパル2に対するタッチ入力操作(主に、タップ操作、スライド(スワイプ)操作、およびフリック操作等の物理的接触操作)を検知する。
表示部7及び入力部8は、上述したタッチパネル2に相当する。図3に示すように、タッチパネル2は、入力部8に相当するタッチセンシング部301と表示部7に相当する液晶表示部302とを有する。タッチパネル2は、CPU3による制御の下で、画像を表示して、スマートフォンのユーザによるインタラクティブなタッチ操作(タッチパネル2における物理的接触操作等)を受け、制御部303での制御に基づいてそれに対応するグラフィックを液晶表示部302に表示する。
より詳細には、上記タッチセンシング部301は、ユーザによるタッチ操作に応じた操作信号を制御部303に出力する。タッチ操作は、何れの物体によるものとすることができ、例えば、ユーザの指によりなされてもよいし、スタイラス等を用いてもよい。また、タッチセンシング部301として、例えば、静電容量タイプのものを採用することができるが、これに限定されない。制御部303は、タッチセンシング部301からの操作信号を検出すると、ユーザのキャラクタへの操作指示として判断し、当該指示操作に応じたグラフィック(図示せず)を液晶表示部へ表示信号として送信する処理を行う。液晶表示部302は、表示信号に応じたグラフィックを表示する。
ゲーム画面例
次に図4および図5のゲーム画面例を参照しながら、本実施の形態による、ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法による動作について具体的に説明する。図4の画面例では、3次元仮想ゲーム空間内20にキャラクタ10が配置されている。そして、仮想カメラ(非図示)がキャラクタ10の手前上部から該キャラクタ10を撮影した視野画像が2次元画像としてタッチパネルに表示されている(図5でも同様)。これと同時に、2つのUI画像(画面左上の30と画面右下の40)が視界画像に重畳されている。UI画像30,40は、ユーザによるタッチパネルへのタッチ操作(例えば指によるスライド操作)の結果として、タッチパネル上に表示されたものである。
スマートフォン・ゲームでは、通例、ユーザが端末を縦持ちして片手で操作することが多いが、勿論これに限らず、横持ちにより端末を両手で操作してもよい。両手で画面を操作する場合は、左手と右手によりそれぞれタッチ操作が許容されるべきであり、図示したUI画像30,40も、左手と右手のタッチ操作によるものにそれぞれ対応するものとすることができる。
そして、これらのUI画像により、ゲーム進行命令が生成および実行される。例えば、左手によるUI画像30は「Move」と表示されているとおり、UI画像が示している(右上)方向にキャラクタ10をゲーム空間20内の平面上を移動させる命令を実行する。同様に、右手によるUI画像40は「Camera」と表示されているとおり、UI画像が示している右上方向に視野を変更するよう仮想カメラをゲーム空間20内で移動させる命令を実行する。
ところで、このようなタッチ操作、特にスライド操作による複数のUI画像を表示させ、複数のゲーム進行命令を生成する場合、タッチパネルの全域にわたり完全に自由にユーザ操作可能とするのは、コンピュータ・プログラム上、幾分か困難性を有する。例えば、ユーザが右手と左手でそれぞれスライド操作を実施しており、これらが相互に接近、更には交差するような場合に、どちらの手によるスライド操作かをプログラムが判定することが困難となり、スライド操作を誤認識する場合がある。
そこで、本発明の実施の形態では、図5に示すように、タッチパネル上の表示領域に対し、複数のUIを生成するための複数のUI領域を予め規定し、ルールを明確化しておく。即ち、1つのUI領域に対して、例えば1つのUI画像を生成するように構成するというようなルールを予め規定する。図5(a)の例では、左手用と右手用のUI領域として画面を左半分Z1と右半分Z2の2つに分割しておき、それぞれに対して、スライド操作により1つずつUI画像を生成可能とする。その際、生成される各UI画像に対し、UI領域に関連付けるようにして異なる視覚表示を施してもよい。例えば、Z1のUI画像30には橙色で色彩効果を、Z2のUI画像40には緑色の色彩効果を施すようにしてもよい。
UI領域は図5(a)のように2つに限定されず、図5(b)のようにZ3(実線領域)、Z4(破線領域)、Z5(点線領域)の3つでもそれ以上の任意の数としてもよいことが当業者にとって理解される。また、各UI領域の形状や大きさも任意のものとすることができる。例えば、UI領域の形状は図5(a)〜(c)のように矩形とするのがよいが、これに限定されず、他にも曲線領域としてもよい。
図5(c)は、左手用と右手用のUI領域として画面を左領域Z6と右領域Z7の2つに分割し、Z6では左手によるスライド操作を、Z7では右手によるスライド操作を受け付けて、各々UI画像30,40を表示している。ここでは、領域Z6によるUI画像30は、スライド操作の始点30aが領域Z6内に含まれてさえいればよく、スライド操作の終点30bも領域Z6に含まれる必要がない点に留意すべきである。即ち、ユーザによるタッチ操作を受け付けたタッチ開始位置が、各領域のいずれかに含まれ、関連付けばよい。
また、スライド操作の終点30bを特定するために、UI領域とは別個、且つUI領域に対応したスライド可動領域を導入してもよい。スライド可動領域は、ユーザによるスライド操作を許容可能な領域である。スライド操作の始点30aが上記UI領域内で特定されるのと同様に、スライド操作の終点30bが当該スライド可動領域内で特定される。スライド可動領域は、UI領域を包含するものであれば何れでもよい。具体的には、タッチパネルの表示領域全域(即ちゲーム画面全域)としてもよく、また、スライド可動領域とUI領域が同一領域となるようにしてもよい。スライド操作のタッチ位置が当該スライド可動領域内にある場合はその間UI画像を表示し、他方、当該スライド可動領域から外れた場合には、それまで表示されていたUI画像を画面から消失させるように表示制御を行うのがよい。
このように、スライド操作の終点はUI領域には拘束されないように構成することにより、本発明はUI領域とは異なるスライド可動領域でのスライド操作を可能にし、ユーザ操作性を向上させることができるという利点を有する。なお、図5では、ユーザによるスライド操作を例に説明したが、これには限定されず、タップ操作、スワイプ操作およびスライド操作等、タッチパネルに対する如何なる物理的接触操作としてもよいことが理解されるべきである。
UI画像表示処理
これより図6〜図9を参照して、本実施の形態によるUI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法について説明する。
図6は、コンピュータ・プログラムとして実装され、タッチパネルを具備する携帯端末に機能させる主要な機能のセットについて示す。当該機能セットを通じて、操作信号としての入力を処理して、表示信号としての出力を生成することになる。当該機能セットは、タッチパネルを通じたユーザ入力操作およびオブジェクト形成に関連するユーザ操作部100、並びに当該ユーザ入力操作に応じたゲーム進行や仮想空間内のキャラクタを操作させるゲーム進行部(キャラクタ操作)200を含む。
ユーザ操作部100は、主に、図5で説明したUI領域を規定するための領域規定部110、タッチパネルへのタッチ操作やデタッチ操作を判定する接触・非接触判定部120、スライド操作等のタッチ操作を複数受け付けるタッチ操作受付部130、タッチ操作のそれぞれの受け付けに対し、1のUI領域および対応するスライド可動領域を割り当て可能な領域割当部140、タッチ開始点からタッチ終了点に向けたスライド操作を構成するスライド操作構成部150、そして、上記タッチ操作に対して生成されるUI画像を表示するためのUI画像表示部160を含む。UI画像表示部160で生成されたUI画像は、図4のようにゲーム画像に重畳されると共に、ゲーム進行部200において、対応するゲーム進行命令を生成および実行してゲームを進行させる。
図7から図9は、本実施の形態によるUI画像表示のためのコンピュータ実装方法について説明したフロー図である。
図7のステップS101では、領域規定部110によって、図5(a)(b)の画面例のように、タッチ・スクリーン上の表示領域に複数のUI領域を規定する。当該動作は、ゲームプレイ時に設定されていればよく、例えばゲーム・プログラム開発時に開発者によって設定されてもよいし、アプリケーションダウンロード後の初期設定時にユーザによって設定されても何れでもよい。当該ステップS101で複数のUI領域が予め規定され、ユーザによるゲームプレイが開始されると、ステップS102に進む。ステップS102では、接触・非接触判定部120によって、ユーザの指等の物体によるタッチ・スクリーンへの1または複数のタッチ操作・デタッチ操作の判定およびタッチ状態の判定処理が実施される。そして、当該ステップS102でタッチ操作が判定されると、次のステップS103以降へと進む。
ステップS103では、タッチ操作受付部130によって、複数のタッチ操作を受け付ける。そして、ステップS104では、当該タッチ操作のそれぞれの受け付けに対し、領域割当部140によって、1のUI領域を割り当てる。タッチ操作がタッチ開始点およびタッチ終了点を有するスライド操作の場合には、更にUI領域に対応するスライド可動領域も割り当てる。引き続きステップS105において、スライド操作構成部150によってスライド操作として構成する。なお、ステップS104,S105の詳細については次の図8および図9を用いてそれぞれ後述する。
最後に、ステップS106では、UI画像表示部160によって、S103でのタッチ操作の受け付けに応じてステップS104で割り当てられた1のUI領域に対してそれぞれ関連付けられる、対応するUI画像をタッチ・スクリーン上に表示してゲーム画像に重畳する。例えば、上記タッチ操作がスライド操作の場合は、図4に示した半透明で且つUI領域に応じて色彩処理が施されたUI画像が表示される。また、例えば、タッチ操作がタップ操作の場合は、タップした位置を中心に円形状のUI画像をUI領域に応じて色彩処理が施して表示する(非図示)。
上記のステップS104,S105の処理に関連して、これより図8および図9をそれぞれ参照して詳述する。なお、図8および図9ではタッチ操作がスライド操作であることを想定し、即ち、タッチ操作がタッチ開始点およびタッチ終了点を含むものとして説明するが、これに限定されない。なおタッチ開始点およびタッチ終了点は、接触・非接触判定部120によって判定可能である。
図8は、上記ステップS104の処理について詳細に説明したフロー図であり、主に領域割当部140によって実行されるものである。まず、ステップS103での出力を受け、ステップS1041では、タッチ開始位置に従って、スライド操作を受け付けて、関連する1のUI領域を仮決定する。ステップS1042では、当該1のUI領域が他のスライド操作により受け付け状態に設定されていないか否かを判定する。そして、当該1のUI領域が受け付け状態外(即ち、新規受け付け可能状態)の場合に、ステップS1043に進み、当該1のUI領域を本決定することより、スライド操作の受け付けに対して割り当てを行う。ステップS1044では、当該1のUI領域の本決定に対応して、スライド可動領域をUI領域に関連付けて割り当てる。次いで、ステップS105(図9)に進む。
他方、ステップS1042において受け付け状態の場合に、タッチ操作はなかったものとして無効化され、ステップS1041で仮決定したUI領域もクリアされる。即ち、ステップS1042およびステップS1044の一連の流れでは、スライド操作の対象UI領域について受け付け状態の間は、他のタッチ操作を受け付けることが抑止される。
図9は、上記ステップS105の処理について詳細に説明したフロー図であり、主にスライド操作構成部150によって実行される。なお、本処理は、タッチ操作がスライド操作の場合のみ機能する(ステップS1051)。
ステップS1052では、スライド操作を受けたことに応じて、対象となるUI領域について、スライド操作の受け付け状態として設定する。当該受け付け状態は、後のステップS1058まで維持される。スライド操作の間、ステップS1053では、所定のフレーム・レート(例えば、標準的には30fps)に従って取得されるフレーム毎のタッチ位置を記憶部に一時的に格納する。これは、図4および図5に例示したように、1つのタッチパネル領域上で複数のスライド操作が実施される場合は、複数のスライド操作位置が相互に接近または交差することを考慮したものである。この場合、接近または交差の際にどちらのスライド操作であるかを誤判定することなく判断する必要が生じるが、そのためには、次に説明するようにフレーム毎の位置情報を用いて対処するのが好ましいからである。
現在の直前時点のフレーム(「直前フレーム」と称する。)において、図4および図5の例のように複数のタッチ位置が取得される場合(ステップS1054)は、ステップS1055において、現在時点のフレーム(「現在フレーム」と称する。)におけるタッチ位置に最も近い、上記直前フレームの1つのタッチ位置を選択し、現在フレームのタッチ位置に関連付けて、スライド操作の少なくとも一部を構成するのがよい。このように、常に1フレーム前の直前フレームのタッチ位置を記憶し、現在フレームとの位置関係に応じて判断することにより、他のスライド操作と誤って認識するのを防止することができる。なお、直前フレームにおいて1つの(即ち自身の)タッチ位置のみしか取得されない場合は、ステップS1056において当該タッチ位置を現在フレームでのタッチ位置に関連付けて、スライド操作の少なくとも一部を構成すればよい。
最終的にステップS1057において、接触・非接触判定部120によってタッチ終了点が特定されると、ステップS1058においてスライド操作の受け付け状態を解除して、本ステップS105は終了し、上記説明したステップS106へ進む。
なお、図5(c)で説明したように、スライド操作の場合のタッチ終了点は、当該スライド操作に割り当てられたUI領域には制約されずに、スライド可動領域内で特定するのがよい。即ち、タッチ終了点はスライド可動領域内の任意の位置とすることができる。特に、スライド可動領域をタッチパネルの表示領域全体と設定した場合は、ユーザは、任意の時間・任意の距離だけスライド操作することが可能である。
これら各ステップでの処理を通じて最終的に、図4に示したように、複数のUI画像がゲーム画像に重畳され、各UI画像に関連付けられた命令が実行されて、ゲーム進行が行われる。
本実施の形態による、UI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法によれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームをプレイした場合に、両手でのタッチ操作による複数のUI画像を関連付けてゲームを進行させることができ、ユーザ操作性を向上することができる。そして、配置位置を固定することのない、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することができる。
以上、本発明の実施形態によるUI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法について、例示しながら説明した。上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。

Claims (9)

  1. タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定する領域規定部と、
    物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付ける受付部と、
    前記複数のタッチ操作の受け付けのそれぞれに対し、1のUI領域を割り当てる領域割当部と、
    前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられる別個のUI画像を、同時に前記タッチ・スクリーン上に表示可能とするUI画像表示部と
    として前記タッチ・スクリーンを具備するコンピュータに機能させ
    前記1のUI領域に応じた命令が、前記関連づけられた別個のUI画像にそれぞれ関連付けられて生成される、UI画像表示のためのコンピュータ・プログラム。
  2. 請求項1記載のコンピュータ・プログラムであって、更に、
    前記タッチ操作がスライド操作の場合に、タッチ開始点およびタッチ終了点を有するスライド操作を構成するスライド操作構成部として前記コンピュータに機能させ、
    前記領域割当部において、前記タッチ開始点の位置に従って前記スライド操作を受け付けて前記1のUI領域が決定され、また、前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とする、コンピュータ・プログラム。
  3. 請求項2記載のコンピュータ・プログラムにおいて、
    前記領域割当部において、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、請求項2記載のコンピュータ・プログラム。
  4. 請求項2または3記載のコンピュータ・プログラムにおいて、
    前記スライド操作構成部が、
    前記受け付け状態の間に、前記表示領域において所定のフレーム・レートによるフレーム毎のタッチ位置を取得し、
    直前フレームにおいて前記タッチ・スクリーン上にタッチ位置が複数存在する場合に、現在フレームにおける前記スライド操作のタッチ位置に最も近い、前記直前フレームのタッチ位置の1つを前記現在フレームのタッチ位置に関連付けて、前記スライド操作の少なくとも一部を構成する、コンピュータ・プログラム。
  5. 前記領域割当部において、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てる、請求項2から4のいずれか一項記載のコンピュータ・プログラム。
  6. 前記UI領域のそれぞれは矩形で形成される、請求項1から5のいずれか一項記載のコンピュータ・プログラム。
  7. タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定するステップと、
    物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付けるステップと、
    前記複数のタッチ操作の受け付けのそれぞれに対し、1のUI領域を割り当てるステップと、
    前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられる別個のUI画像を、同時に前記タッチ・スクリーン上に表示可能とするステップと
    前記1のUI領域に応じた命令を、前記関連づけられた別個のUI画像にそれぞれ関連付けられて生成するステップと
    を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、UI画像表示のための方法。
  8. 請求項7記載の方法において、
    前記タッチ操作がタッチ操作点およびタッチ終了点を含むスライド操作を含み、
    前記UI領域を割り当てるステップが、
    前記タッチ開始点の位置に従って、割り当てる前記1のUI領域を決定するステップと、
    前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とするステップであって、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、ステップと
    を含む、方法。
  9. 請求項8記載の方法において、前記UI領域を割り当てるステップが、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てるステップを含む、方法。
JP2015162762A 2015-08-20 2015-08-20 ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法 Active JP5981617B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015162762A JP5981617B1 (ja) 2015-08-20 2015-08-20 ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
PCT/JP2016/073111 WO2017030022A1 (ja) 2015-08-20 2016-08-05 ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015162762A JP5981617B1 (ja) 2015-08-20 2015-08-20 ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016138973A Division JP2017041237A (ja) 2016-07-13 2016-07-13 ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法

Publications (2)

Publication Number Publication Date
JP5981617B1 true JP5981617B1 (ja) 2016-08-31
JP2017038793A JP2017038793A (ja) 2017-02-23

Family

ID=56820065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015162762A Active JP5981617B1 (ja) 2015-08-20 2015-08-20 ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法

Country Status (2)

Country Link
JP (1) JP5981617B1 (ja)
WO (1) WO2017030022A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018084169A1 (ja) * 2016-11-01 2018-05-11 株式会社コロプラ ゲーム方法およびゲームプログラム
JP2019058659A (ja) * 2017-09-26 2019-04-18 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド 仮想射撃本体の制御方法、装置、プログラム、記憶媒体、電子機器
JP7341067B2 (ja) 2020-01-09 2023-09-08 日立建機株式会社 ダンプトラック

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2012033060A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、表示制御方法及び表示制御プログラム
JP4932010B2 (ja) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP2012168931A (ja) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
JP2014191612A (ja) * 2013-03-27 2014-10-06 Ntt Docomo Inc 情報端末、情報入力補助方法、及び情報入力補助プログラム
JP5711409B1 (ja) * 2014-06-26 2015-04-30 ガンホー・オンライン・エンターテイメント株式会社 端末装置
JP2015222595A (ja) * 2014-04-04 2015-12-10 株式会社コロプラ ユーザインターフェースプログラムおよびゲームプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP4932010B2 (ja) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP2012033060A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、表示制御方法及び表示制御プログラム
JP2012168931A (ja) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
JP2014191612A (ja) * 2013-03-27 2014-10-06 Ntt Docomo Inc 情報端末、情報入力補助方法、及び情報入力補助プログラム
JP2015222595A (ja) * 2014-04-04 2015-12-10 株式会社コロプラ ユーザインターフェースプログラムおよびゲームプログラム
JP5711409B1 (ja) * 2014-06-26 2015-04-30 ガンホー・オンライン・エンターテイメント株式会社 端末装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018084169A1 (ja) * 2016-11-01 2018-05-11 株式会社コロプラ ゲーム方法およびゲームプログラム
JP2019058659A (ja) * 2017-09-26 2019-04-18 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド 仮想射撃本体の制御方法、装置、プログラム、記憶媒体、電子機器
US10933310B2 (en) 2017-09-26 2021-03-02 Netease (Hangzhou) Network Co., Ltd. Method and apparatus for controlling virtual character, electronic device, and storage medium
JP7121614B2 (ja) 2017-09-26 2022-08-18 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド タッチパネルを備えるタッチ端末に表示される操作インターフェースを用いるゲームの制御方法、コンピュータプログラム、記憶媒体
JP7341067B2 (ja) 2020-01-09 2023-09-08 日立建機株式会社 ダンプトラック

Also Published As

Publication number Publication date
WO2017030022A1 (ja) 2017-02-23
JP2017038793A (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
US20200004387A1 (en) Display device and method of indicating an active region in a multi-window display
US9880727B2 (en) Gesture manipulations for configuring system settings
JP6392881B2 (ja) 応用素子の代替的グラフィック表示の事前の生成による入力に対する低レイテンシの視覚的応答およびグラフィック処理ユニットの入力処理
JP2022140510A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
CN106873886B (zh) 一种立体显示的控制方法、装置和电子设备
JP5522755B2 (ja) 入力表示制御装置、シンクライアントシステム、入力表示制御方法およびプログラム
JP6470111B2 (ja) メッセージ送信機能を備えたゲームプログラム、メッセージ送信方法及びメッセージ送信機能付きコンピュータ端末
KR20150134674A (ko) 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템
JP2018027231A (ja) プログラム、制御方法、及び情報処理装置
JP5981617B1 (ja) ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
EP2911115B1 (en) Electronic device and method for color extraction
JP2017140342A (ja) ユーザインターフェースプログラム、当該プログラムを備えたゲームプログラム及び制御方法
US10901549B2 (en) Program, computer apparatus, program execution method, and system
JP5888793B2 (ja) オブジェクト制御プログラム及びオブジェクト制御方法
JP7080711B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
WO2014034549A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP2017041237A (ja) ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
JP2017188140A (ja) プログラム、コンピュータ装置、プログラム実行方法、及び、システム
US9143588B2 (en) Portable terminal device having an enlarged-display function, method for controlling enlarged display, and computer-read-enabled recording medium
KR20150096171A (ko) 컨텐츠 처리장치 및 그 메뉴 표시 방법
JP7212255B2 (ja) 情報処理システム,制御プログラム及び情報処理装置
JP6081537B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP6002346B1 (ja) ゲームにおけるオブジェクト画像表示のためのプログラム、方法、電子装置及びシステム
JP5792133B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP2016004500A (ja) ユーザインターフェースプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160728

R150 Certificate of patent or registration of utility model

Ref document number: 5981617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250