JP5711409B1 - 端末装置 - Google Patents

端末装置 Download PDF

Info

Publication number
JP5711409B1
JP5711409B1 JP2014131850A JP2014131850A JP5711409B1 JP 5711409 B1 JP5711409 B1 JP 5711409B1 JP 2014131850 A JP2014131850 A JP 2014131850A JP 2014131850 A JP2014131850 A JP 2014131850A JP 5711409 B1 JP5711409 B1 JP 5711409B1
Authority
JP
Japan
Prior art keywords
display
pseudo
indicator
operation key
pseudo operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014131850A
Other languages
English (en)
Other versions
JP2016009473A (ja
Inventor
朗 澤田
朗 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gungho Online Entertainment Inc
Original Assignee
Gungho Online Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gungho Online Entertainment Inc filed Critical Gungho Online Entertainment Inc
Priority to JP2014131850A priority Critical patent/JP5711409B1/ja
Priority to TW103143049A priority patent/TWI638297B/zh
Priority to EP14199521.7A priority patent/EP2960766B1/en
Priority to KR1020150012229A priority patent/KR20160001600A/ko
Priority to CN201510056004.6A priority patent/CN105302453B/zh
Priority to US14/618,112 priority patent/US10146343B2/en
Application granted granted Critical
Publication of JP5711409B1 publication Critical patent/JP5711409B1/ja
Publication of JP2016009473A publication Critical patent/JP2016009473A/ja
Priority to HK16105041.0A priority patent/HK1217544A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】より使い勝手の良い疑似操作キーによる操作が可能な端末装置を提供する。【解決手段】疑似操作キー(疑似操作ジョイスティック)131を表示する表示部113と、疑似操作キー131への指示体による接触を検出するタッチパネルと、タッチパネルを介して検出された前記指示体による疑似操作キー131の接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、疑似操作キー131の表示位置の制御を行う制御部と、を含む。制御部は、前記ドラッグ操作によって前記指示体の接触位置が疑似操作キー131の表示領域を越えると、疑似操作キーの表示位置を前記指示体の接触位置に応じて変更する。【選択図】図2

Description

本発明は、表示部に表示された疑似操作キーを、タッチパネルを介して操作することが可能な端末装置に関する。
従来より、スマートフォンに代表されるように、液晶ディスプレイなどの表示部とそれを被覆するように設けられたタッチパネルを備える端末装置において、ゲームに用いられるような十字キーなど疑似操作キーをディスプレイ上に表示して、同じくディスプレイに表示された他のキャラクタの表示を制御することが可能な端末装置が知られている。
例えば、特許文献1には、ディスプレイ上に表示されたキャラクタの移動方向を指令する操作ボタンを表示し、その操作ボタンに対応するタッチパネル上の任意の位置をユーザが指で接触すると、その位置に対応するコマンドを発生させてキャラクタの移動方向を制御することが記載されている。
特開2011−034538号公報
しかし、従来の端末装置においては、疑似操作キーの表示位置が一旦決められると、その操作の間、疑似操作キーの表示位置は固定されており、必ずしも使い勝手の良いものではなかった。例えば、端末装置上でゲームプログラムを実行していると、ユーザが継続的にその疑似的に表示された十字キー上に左手親指を接触させていたとしても、キャラクタの移動などのゲームの進行に集中するがために、いつの間にか十字キー上から指が移動してしまいキャラクタの移動が意図せず停止してしまうことがあった。
そこで、本発明の様々な実施形態により、より使い勝手の良い疑似操作キーによる操作が可能な端末装置を提供する。
本発明の一実施形態に係る端末装置は、疑似操作キーを表示する表示部と、前記疑似操作キーへの指示体による接触を検出するタッチパネルと、前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部と、を含む端末装置であって、前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とするものである。
本発明の一実施形態に係るプログラムは、コンピュータを、表示部に疑似操作キーを表示し、端末装置が備えるタッチパネルを介して検出された指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部として機能させるプログラムであって、前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とするものである。
本発明の一実施形態に係る表示制御方法は、表示部に擬似操作キーを表示するステップと、タッチパネルを介して前記表示部への指示体の接触を検出するステップと、前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行うステップと、を含む疑似操作キーの表示制御方法であって、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置が前記指示体の接触位置に応じて変更されることを特徴とするものである。
本発明の様々な実施形態により、より使い勝手の良い疑似操作キーによる操作が可能な端末装置を提供する。
図1は、本発明の一実施形態に係る端末装置のユーザの使用状態を示す図である。 図2は、本発明の一実施形態に係る端末装置の表示部に表示される画面の例を示す図である。 図3は、本発明の一実施形態に係る端末装置の構成を示すブロック図である。 図4は、疑似ジョイスティック131における基準位置からみた接触位置の方向及び距離の決定方法を説明する図である。 図5は、疑似ジョイスティック131の表示制御の方法を説明する図である。 図6は、疑似ジョイスティック131の表示制御の方法を説明する図である。 図7は、端末装置100の制御部110で行われる処理の流れを示すフロー図である。 図8は、本実施形態に係るプログラムの実行による画面例を示す模式図である。 図9は、擬似ジョイスティック131の表示位置を示す他の実施形態に係る画面例を示す模式図である。 図10は、端末装置100を縦長方向で使用した場合の画面例を示す模式図である。 図11は、端末装置100を外部表示装置200に接続した場合の画面例を示す模式図である。 図12は、擬似操作キーとして、擬似十字キーを適用した場合の画面例を示す模式図である。 図13は、擬似操作キーとして、弓矢を模したキーを適用した場合の画面例を示す模式図である。
添付図面を参照して本発明の実施形態を説明する。なお、図面における共通する構成要素には同一の参照符号が付されている。
<本発明の一実施形態の概要>
以下、本発明の一実施形態に係る端末装置として、本実施形態に係るプログラムを実行可能なタッチパネルを有する端末装置100(携帯電話、スマートフォン、携帯型ゲーム機、携帯情報端末、PDA、無線コントローラー端末、デスクトップパソコン、ラップトップパソコン、ゲームセンター等に設置されるようなアーケードゲーム用端末など)を例にとって具体的に説明する。
図1は、本発明の一実施形態に係る端末装置100のユーザの使用状態を示す図である。図1を参照すると、ユーザは端末装置100を横長方向に用い、その両端を左手及び右手でそれぞれ把持する。そして、本実施形態に係るプログラムが制御部110によって実行されると、表示部113に、いわゆるジョイスティックを疑似的に模した疑似ジョイスティック131や、可動オブジェクト132が表示される。そして、タッチパネルを介し、例えば左手の親指で疑似ジョイスティック131を操作して、表示された可動オブジェクト132の移動を制御する。また、タッチパネルを介し、右手の親指で疑似操作ボタンA133及び/又は疑似操作ボタンB134を操作して、可動オブジェクト132が保持する武器の表示を制御する。なお、可動オブジェクト132は、人物や動物、モンスターなどのキャラクタに加えて、武器や岩など、プログラムの実行中に仮想空間上を動くあらゆるものを含みうる。
なお、本実施形態において、指示体として指を利用し、当該指の接触をタッチパネルで検出する例を記載するが、指示体としては指に限定されない。採用するタッチパネルの方式に応じて、スタイラスペンなど、各方式に適した公知の指示体を用いることが可能である。
また、本実施形態に係るプログラムは、一例としては、ゲームプログラムが挙げられるが、それに限定はされない。図1に記載するような疑似操作キーによる操作が必要とするプログラムであれば、いずれでもよい。このようなプログラムは、あらかじめ端末装置100のメモリ部114に記憶されているが、通信処理部111を介して外部のサーバー装置(図示しない)から受信することも可能である。また、当該プログラムを所定のカートリッジに記憶しておき、そのカートリッジとコネクタ124を介して端末装置100を接続し、制御部110は、そのカートリッジから当該プログラムを読みだすことも可能である。また、いわゆるネイティブアプリと呼ばれるプログラムのように、当該プログラムがサーバー装置に記憶され、端末装置100にダウンロードして実行することも可能である。
さらに、本実施形態においては、当該プログラムの実行を端末装置100制御部110において実行する場合について説明するが、いわゆるwebアプリと呼ばれるプログラムのように、外部のサーバー装置内に当該プログラムを記憶し、プログラムの進行に応じて端末装置100から送信された指示・コマンドに応じてサーバー装置内に当該プログラムにより処理を実行し、その結果を端末装置100に送信することで、本実施形態に係る表示を実現することも可能である。
図2は、本発明の一実施形態に係る端末装置の表示部に表示される画面の例であって、ユーザが疑似ジョイスティック131を操作している状態を示す図である。端末装置100の表示部113には、疑似操作キーとして機能する疑似ジョイスティック131が、あらかじめ決められた定位置に表示されている。疑似ジョイスティック131は、基準位置C0を中心とする円で形成されている。また、上記表示部113には、ユーザが指を接触した表示部113上の位置を明示的に把握するために、ユーザの指の接触位置C1を中心とする円で形成された操作オブジェクト135を表示している。
ここで、本実施形態においては、表示される疑似ジョイスティック131及び操作オブジェクト135は半透明に表示するようにし、例えば可動オブジェクト132に表示が重畳した場合であっても可動オブジェクト132が視認可能にする。
図2においては、ユーザが疑似ジョイスティック131上の任意の位置に指で接触した後、任意の方向に指をドラッグさせて接触位置C1の位置まで移動させた状態を示している。そして、基準位置C0の座標値と接触位置C1の座標値とから基準位置C0から見た接触位置C1の方向A0と両位置間の距離D0を決定する。そして、決定された方向A0と距離D0に基づいて、可動オブジェクト132の表示位置の移動方向Ax及び移動距離Dxを決定する。その結果、可動オブジェクト132は、当初表示されていた位置(図中、破線で示した可動オブジェクト132の位置)から決定された方向Axに距離Dxだけ移動して表示される。
なお、本実施形態では、上記のとおり疑似ジョイスティック131及び操作オブジェクト135は半透明に表示するようにしているが、必ずしも、疑似ジョイスティック131及び操作オブジェクト135は常に表示されている必要はない。特に図示はしないが、一例としてはタッチパネル116に指示体が接触した時に初めてそれらが表示されるようにしてもよい。また、疑似ジョイスティック131及び操作オブジェクト135に対応する領域をタッチパネルの対応する位置に仮想的に設け、表示部113にはこれらを明示的に表示しないようにすることも可能である。
<端末装置>
図3は、本発明の一実施形態に係る端末装置100の構成を示すブロック図である。なお、本実施形態に係る端末装置100は、図3に示す構成要素の全てを備える必要はなく、一部を省略した構成をとることも可能である。
図3を参照すると、本発明の一実施形態に係る端末装置100は、制御部110、アンテナ112に接続された無線通信処理部111、表示部113、メモリ部114、タッチパネル116及びハードキー117を含む操作部115、スピーカー119及びマイクロフォン120に接続された音声処理部118、加速度センサ122やGPSセンサ123を含む検出部121、コネクタ124、カメラ126と接続された画像処理部125を含む。これらの各要素が制御ラインおよびデータラインを介して互いに電気的に接続されている。
制御部110は、CPU(マイクロコンピュータ:マイコン)から構成され、タッチパネル116への接触により入力される座標情報に基づいて、メモリ部114に記憶された各画像情報の表示部113への表示を制御する。また、制御部110は、メモリ部114に記憶された本実施形態に係るプログラムを当該メモリ部114から読みだして、本実施形態に係るアプリケーションの進行を制御する。すなわち、制御部110は、メモリ部114に記憶された各種プログラムに基づいて、接続された他の構成要素を制御する。
制御部110は、単一のCPUで構成されても良いが、複数のCPUで構成しても良い。また、画像処理、すなわち表示部113に対する表示制御に特化したGPUを別途設けても良い。
通信処理部111は、接続された無線通信アンテナ112を介して、メモリ部114に記憶された情報を遠隔に設置された他の端末に送信するため、又は他の端末から送信されて来た情報を受信するために、変調や復調などの各種処理を行うものである。例えば、本実施形態に係るプログラムをサーバー装置から受信するような場合には、通信処理部111は、本実施形態に係るプログラムを処理の進行に応じて随時、または実行開始時にまとめてサーバー装置等から受信するのを制御する。また、当該プログラムの実行による各種処理又は結果をサーバー装置に送信するのを制御する。
この通信処理部111は、W−CDMA(Wideband−Code Division Multiple Access)方式に代表されるような広帯域の無線通信方式に基づいて処理されるが、IEEE802.11に代表されるような無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式に基づいて処理することも可能である。
表示部113は、例えばメモリ部114に記憶された画像情報に基づいて所定のプログラムを実行する制御部によって指示された可動オブジェクトや疑似ジョイスティックなどの疑似操作キー等を表示する。一例としては、液晶ディスプレイから構成される。なお、本実施形態に係る端末装置は単一の表示部を備えるものであるが、2つ以上の表示部を備えるものであっても良い。
メモリ部114は、ROM、RAM、不揮発性メモリ等から構成される。ROMは、例えば本実施形態に係るプロググラムを記憶するメモリである。制御部110は、このプログラムをロードすることにより各種処理を実行する。RAMは、ROMに記憶されたプログラムを実行することにより生成される各種命令が制御部110により処理されている間、データの書き込み及び読み込みをするために用いられるメモリである。不揮発性メモリは、当該プログラムの実行によってデータの書き込み及び読み込みが実行されるメモリであって、ここに書き込まれたデータは、当該プログラムの実行が終了した後でも保存される。
操作部115は、タッチパネル116やハードキー117等から構成され、ユーザからの各種指示を受け付ける。
タッチパネル116は、表示部113を被覆するように配置され、表示部113の表示する画像データに対応する位置座標のデータを制御部110に出力するものである。タッチパネル方式としては、抵抗膜方式、静電容量結合方式、超音波表面弾性波方式など、公知の方式を利用することができる。また、その利用する方式に応じて、指やスタイラスペンなど公知の指示体によるタッチパネルへの接触を検出する。
ハードキー117は、物理的にスイッチを押下することにより信号のオン・オフを制御するもので、電源キーや音量キーなどから構成される。これらのハードキー117は、端末装置の電源のオン/オフや、プログラム実行中のバックミュージックの音量などを制御する。また、疑似操作キーに加えて、ゲームに用いる各機能キーを設置することも可能である。
検出部121は、加速度センサ122やGPSセンサ123から構成される。加速度センサは、端末装置100の3軸方向の加速度を検出して、例えば端末装置100の回転を検出する。
コネクタ124は、例えば本実施形態に係るプログラムが記憶されたカートリッジや記憶媒体を挿入して、制御部114により読み出しや書き込みを仲介する。また、例えば液晶テレビなどの外部表示装置などへ画像情報を出力するための端子部をも含みうる。
音声処理部118は、マイクロフォン120から入力された音声情報をメモリ部114に記憶するため符号化する。また、音声制御部118は、メモリ部114に記憶されたバックミュージックなどの音声情報を復号化してスピーカー119から出力する。
画像処理部125は、カメラ126に接続され、カメラ126において撮像された画像を保存に適したデータ形式に変換して、メモリ部114に保存する。
<疑似ジョイスティックへの操作の概要>
図4は、疑似ジョイスティック131における基準位置からみた接触位置の方向及び距離の決定方法を説明する図である。
図4は、表示部113に表示された疑似ジョイスティック131と指示体の接触位置との関係が示されている。まず、疑似ジョイスティック131は、地点C0を中心とした円で形成されている。この疑似ジョイスティック131の最初の表示位置は、予め表示部113上の任意の座標位置に決められており、当該プログラムの実行と共にその座標位置に疑似ジョイスティック131を示す円が表示される。なお、この表示部座標系は、タッチパネル座標系と一致するように対応付けられている。
本実施形態においては、基準位置とは、指示体によるタッチパネル上の接触位置の方向及び距離を決定する際の基準となるものであって、疑似ジョイスティック131を形成する円の中心(地点C0)である。なお、この基準位置は、上記のとおり接触位置の方向及び距離を決定する際の基準となればよく、例えば疑似操作キーが円で形成されていないような場合には必ずしもその操作キーの中心(重心)である必要はない。基準となればよいので、予め決められた任意の位置であってよい。
ユーザが、表示部113上に予め表示された疑似ジョイスティック131内の任意の位置に自身の指を接触させて、疑似ジョイスティック131内を任意の方向にドラッグし、接触位置を移動させる。すると、タッチパネル116がその移動中又は移動後の接触位置の位置座標を検出して、その位置座標を制御部110にレポートする。図4においては、接触位置C2の位置座標(X2,Y2)、又は接触位置C3の位置座標(X3,Y3)が、ドラッグ操作途中又はドラッグ操作後の指の接触位置として制御部110にレポートされる。
制御部110は、あらかじめ決められた基準位置C0の位置座標(X0,Y0)と、入手した接触位置C2の位置座標(X2,Y2)、又は接触位置C3の位置座標(X3,Y3)とで形成される線分A2及びA3のなす角度及び長さを決定する。なお、上記角度は基準位置C0から見た各接触位置C2及びC3の方向を意味する。また、長さは、基準位置C0と各接触位置C2及びC3との間の距離を意味する。
これらの角度(方向)及び長さ(距離)は公知の方法で決定することが可能である。一例としては、下記のとおりである。線分A2を例にすると、まず角度(方向)は、基準位置C0を原点とする仮想的なXY座標においてX軸に対して線分A2のなす角度θ2及び線分A2の長さL2を以下の数式(数1)より算出する。
Figure 0005711409
メモリ部114には、基準位置C0の位置座標(X0,Y0)と、入手した接触位置C2の位置座標(X2,Y2)、又は接触位置C3の位置座標(X3,Y3)とで形成される線分A2及びA3のなす角度及び長さ、すなわち、基準位置C0から見た各接触位置C2及びC3の方向並びに基準位置C0と各接触位置C2及びC3間の距離と、可動オブジェクト132の移動方向と移動量のとの対応関係を示すテーブルが記憶されている。制御部110は、そのテーブルを参照して、決定された基準位置C0から見た各接触位置C2及びC3の方向並びに基準位置C0と各接触位置C2及びC3間の距離から、可動オブジェクト132の移動方向と移動量を決定し、それに応じた可動オブジェクトの表示制御を行う。
なお、上記の例ではテーブルを用いたが、所定の関係式を記憶しておき、それに基づいて可動オブジェクトの移動量及び移動量を決定してもよいし、その決定方法は公知のいかなる方法も利用することができる。また、可動オブジェクトの移動量としては、一例としては、移動する際の速度であっても良いし、移動する距離であっても良く、適宜選択することが可能である。
図5は、疑似ジョイスティック131の表示制御の方法を説明する図である。まず、本実施形態に係る擬似ジョイスティック131には、疑似ジョイスティック131の表示領域に対応して、あらかじめ操作検出領域136がタッチパネル116上に定められている。この操作検出領域136は、この領域内に対して指示体による接触操作が行われた場合には、擬似ジョイスティック131への操作として制御部が認識するための領域である。
図5(a)を参照すると、円で形成された擬似ジョイスティック131の表示領域と同一の領域を操作検出領域136として設定した場合が示されている。擬似ジョイスティック131の表示領域と操作検出領域136は完全に対応した同一の領域である。接触位置C1は、ユーザが指示体を操作して擬似ジョイスティック131上をドラッグ操作して指示体の移動してきた位置を示している。そしてユーザが指示体を操作してさらに擬似ジョイスティック131の中心である基準位置C0から遠ざかる方向にドラッグすると、指示体の接触位置C1は擬似ジョイスティック131の表示領域、すなわち操作検出領域136を越える。
制御部110は、その時、擬似ジョイスティック131の表示位置を、越えた指示体の接触位置C1の位置に応じて変更するように制御する。すなわち、制御部110は、擬似ジョイスティック131の指示体の移動方向に追従して表示されるように制御する。一例としては、制御部110は、指示体の接触位置C1が擬似ジョイスティック131の表示領域を所定距離D1だけ越えたときに擬似ジョイスティック131の表示位置の移動を開始する。そして指示体の接触位置であるC1−1と疑似ジョイスティック131の表示領域との外縁との距離を、距離D1に維持するように、疑似ジョイスティック131の追従表示制御を行う。言い換えると、制御部110は、指示体によるドラッグ操作によって、その接触位置が疑似ジョイスティック131の表示領域を越えた時に、指示体の接触位置であって操作オブジェクト135を形成する円の中心である位置C1−1が疑似ジョイスティック131の表示領域、つまりは、疑似ジョイスティック131を形成する円の外側に位置するように表示を制御する。
このように追従表示するまでの距離D1を設けることで、疑似ジョイスティック131の表示領域そのものを動かしているのではなく、あとからついてくるような感覚をユーザに提供することが可能となる。
なお、上記の場合、指示体の接触位置は実際にはC1−1にある。このような場合は、基準位置C0と指示体との接触位置に基づいて決定する線分A1の角度と長さは、基準位置C0と接触位置C1−1とを結ぶ線分が前記擬似ジョイスティック131の表示領域の外縁に交わる位置と基準位置C0とに基づいて決定される。
図5(b)、(c)は、擬似ジョイスティック131の表示制御の他の例を示す。図5(b)によると、操作検出領域136は、擬似ジョイスティック131の表示領域よりも若干広い領域があらかじめ設定されている。このような場合は、仮に指示体の接触位置が不用意にジョイスティック131の表示領域の外になってしまった場合でも、擬似ジョイスティック131への操作であると認識しうる。また、制御部110は、指示体の接触位置C1が擬似ジョイスティック131の表示領域を越えてもすぐにはその表示を追従させる制御は行わず、操作検出領域136を越えて初めて疑似ジョイスティック131の表示位置を指示体の接触位置C1に応じて変更する追従表示制御を開始する。ユーザが指示体で操作キーに接触をするときに、狙った位置の多少のずれも吸収することができるので、よりユーザの操作性が向上する。また、図5(a)の場合と同様に、追従表示するまでの「遊び」の時間、距離を設けることで、ドラッグ操作を開始して以降のユーザの操作性がより向上する。
図5(c)によると、操作検出領域136は、擬似ジョイスティック131の表示領域よりも狭い領域があらかじめ設定されている。このような場合は、制御部110は、指示体のドラッグ操作の結果、操作検出領域136を越えた段階で擬似ジョイスティック131の追従表示を開始する。つまり、指示体の接触位置は、まだ、擬似ジョイスティック131の表示領域上にあるにもかかわらず、追従表示が開始される。このようにすることで、ユーザによる指示体の接触位置は擬似ジョイスティックの表示領域から外れることはないので、常に接触しているような確かな感覚を得ることができる。
なお、このような接触位置への擬似ジョイスティック131の追従表示制御は、上記図5(a)〜(c)のいずれの態様をも用いることが可能であって、適宜設定することができる。
図6は、疑似ジョイスティック131の表示制御の方法を説明する図である。本実施形態においては、表示部113の右側に疑似操作ボタンA133及び/又は疑似操作ボタンB134が表示されている。指示体によるドラッグ操作が擬似ジョイスティック131の表示領域又は操作検出領域136を越えてなされることにより擬似ジョイスティック131を指示体の接触位置に追従して表示させたとき、疑似操作キー131の表示位置が所定の領域を越えるような場合は、その追従表示を一旦とどまるような表示を制御部110は表示部にさせる。
具体的には、表示部113の中心(線A−A’)を軸として表示部113を左領域と右領域として分けた場合に、擬似ジョイスティック131が表示されていた方の領域(図6では左側の領域)を、移動可能領域137として設定する。すなわち、図6においては、疑似ジョイスティック131に対する操作を開始する前に疑似ジョイスティック131を表示していた位置であって、あらかじめ決められた定位置が存在する側の領域が移動可能領域137として設定されている。この移動可能領域137とは、疑似ジョイスティック131の表示位置が当該領域内にある場合には擬似ジョイスティック131の表示位置の移動(追従表示)を行い、領域を越えるような場合には表示部113の移動可能領域と他の領域との境界上に疑似ジョイスティック131がとどまるように表示するために、あらかじめ決められた領域である。すなわち、必ずしも表示部113の中心で半分に分けた領域を移動可能領域137とする必要はなく、疑似ジョイスティック131の表示領域及び操作検出領域136よりも広い領域であればよい。たとえば、他の擬似キーの配置や表示される可動オブジェクトの配置に応じて適宜変更することが可能である。また、指示体としてユーザの指を用いる場合には、移動可能領域137は、端末装置を把持した状態で指示体である指が相対的に接触可能な範囲が設定されることも可能である。
図6を参照すると、擬似ジョイスティック131の追従表示制御の結果、擬似ジョイスティック131の表示位置(例えば、疑似ジョイスティック131内の基準位置C0)が移動可能領域137を越えるような場合には、移動可能領域137と表示部の他の領域138との境界139上にとどまるよう疑似ジョイスティック131を表示する。なお、図6の例においては、疑似ジョイスティック131は、指示体による接触位置C1を通る表示部113の外縁に平行な線140と境界139が交わる位置でとどまるように表示されている。したがって、他の領域138内で指示体を上下にドラッグ操作すると、疑似ジョイスティック131は境界線上を上下に動くように表示される。
なお、図6においては、擬似ジョイスティック131の追従表示制御の結果擬似ジョイスティック131の表示位置が移動可能領域137を越えるような場合には、境界139上にとどまるよう疑似ジョイスティック131を表示する例を示すが、これに限られない。例えば、上記のような場合、もともと疑似ジョイスティック131が表示されていた所定の定位置に疑似ジョイスティックの表示位置が戻るよう、制御部110は表示を制御することも可能である。
<擬似ジョイスティックの制御フロー>
図7は、端末装置100の制御部110で本実施形態に係るプログラムを実行することで行われる処理の流れを示すフロー図である。メモリ部114に記憶された本実施形態に係るプログラムを制御部114が実行すると当該処理フローは開始される。そして、ユーザの指示体によって、タッチパネル116を介して、擬似ジョイスティック131に接触したことを検出する(S101)。次に、制御部110は、その接触位置が依然として擬似ジョイスティック131の表示領域内にあるか否かを判断する(S102)。なお、図5において説明したとおり、S102における判断の基準としては、擬似ジョイスティック131の表示領域に変えて、操作検出領域136を用いることも可能である。
S102において、まだ擬似ジョイスティック内に指示体の接触位置があると判断された場合、その接触位置と擬似ジョイスティック内に設けられた基準位置とに基づいて、基準位置から見た接触位置の方向と接触位置と基準位置との間の距離を決定する(S103及びS104)。そして、制御部110は、その決定された方向及び距離に基づいて、メモリ部114内に記憶された参照テーブルから表示部113に表示された可動オブジェクトの移動方向及び移動量を決定し、その可動オブジェクトの移動表示を制御する(S105)。
次に、引き続き指示体によるタッチパネルへの接触が継続しているか否か、すなわちドラッグ操作を行っているか否かを判断する(S106)。その結果、接触が継続しドラッグ操作がなされていると判断すると、再びS102に戻り、ドラッグ操作後の接触位置に基づいて擬似ジョイスティック131の表示領域内に接触位置があるか否かを判断する。
S102において、擬似ジョイスティック131の表示領域内にないと判断された場合、すなわち、ドラッグ操作によって指示体の接触位置が擬似ジョイスティック131の表示領域を越えていると判断された場合には、S107に移行する。
次に、S107において、制御部110は、疑似ジョイスティック131の表示位置が移動可能領域137内にあるか否かを判断する(S107)。そして、制御部110は、まだその接触位置が移動可能領域137内にあると判断した場合には、その接触位置に応じて擬似ジョイスティック131の表示位置を変更するように制御する(S108)。すなわち、制御部110は、擬似ジョイスティック131の接触位置への追従表示制御を行う。
次に、S109及びS110において、指示体の接触位置と擬似ジョイスティック内に設けられた基準位置とに基づいて、基準位置から見た接触位置の方向と接触位置と基準位置との間の距離を決定する。なお、距離の決定には接触位置を用いているが、基準位置と指示体との接触位置に基づいて決定する線分が前記擬似ジョイスティック131の表示領域の外縁に交わる位置と基準位置とに基づいて決定することも可能である。
そして、制御部110は、その決定された方向及び距離に基づいて、メモリ部114内に記憶された参照テーブルから表示部113に表示された可動オブジェクトの移動方向及び移動量を決定し、その可動オブジェクトの移動表示を制御する(S111)。
そして、S106において、制御部110は、引き続き指示体によるタッチパネルへの接触が継続しているか否か、すなわちドラッグ操作を行っているか否かを判断する(S106)。その結果、制御部110が、ドラッグ操作が継続していると判断すると、S102に戻る。ここで、上記同様、制御部110が、擬似ジョイスティック131の表示領域を越えていると判断した場合には、処理はS107に進む。
S107において、制御部110は、疑似ジョイスティック131の表示位置が移動可能領域137内にあるか否かを判断し(S107)、越えたと判断した場合には、制御部110による処理はS112に進む。
S112においては、制御部110は、移動可能領域137と表示部113の他の領域138との境界139上に疑似ジョイスティック131の表示位置を変更する。S113及びS114において、指示体の接触位置と擬似ジョイスティック内に設けられた基準位置とに基づいて、基準位置から見た接触位置の方向と接触位置と基準位置との間の距離を決定する。なお、この場合は、距離の決定に接触位置を用いているが、この接触位置に代えて、基準位置と指示体との接触位置に基づいて決定する線分が前記擬似ジョイスティック131の表示領域の外縁に交わる位置と基準位置とに基づいて決定することが好ましい。
そして、制御部110は、その決定された方向及び距離に基づいて、メモリ部114内に記憶された参照テーブルから表示部113に表示された可動オブジェクトの移動方向及び移動量を決定し、その可動オブジェクトの移動表示を制御する(S115)。
そして、再びS106に戻って、引き続き指示体によるタッチパネルへの接触が継続しているか否か、すなわちドラッグ操作を行っているか否かを判断する。S106において、指示体がタッチパネル上から離されたと判断されると、この処理フローは終了する。
<画面遷移>
図8は、本実施形態に係るプログラムの実行による画面例を示す模式図である。図8(a)を参照すると、端末装置100の制御部110は、本実施形態に係るプログラムの実行を開始すると、表示部113の所定の定位置に擬似ジョイスティック131及び所定の可動オブジェクト132を表示する。なお、可動オブジェクト132は、人物や動物、モンスターなどのキャラクタに加えて、武器や岩など、プログラムの実行中に仮想空間上を動くあらゆるものを含みうる。
さらに図8(a)を参照すると、表示部113には、ユーザが指示体を接触したタッチパネル116上の位置を明示的に把握するための操作オブジェクト135を表示している。この操作オブジェクト135は指示体によるタッチ位置が操作オブジェクト135の中心になるように指示体の移動と共に表示位置を移動する。
なお、図8(a)においては、まだユーザが指示体を使ってタッチパネル116上の接触操作を行っていないので、疑似ジョイスティック131及び可動オブジェクト132は、ともにあらかじめ決められた定位置に表示されている。具体的には、疑似ジョイスティック131の中心C0と接触位置を示す操作オブジェクト135の中心とが重なるように表示されている。
図8(b)は、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作しているときの画面例を示す模式図である。図8(b)を参照すると、指示体で接触位置C1の位置に接触することによって操作オブジェクト135も一緒に表示位置が移動されている。また、基準位置C0と接触位置C1に基づいて接触位置C1の方向と接触位置C1までの距離を決定し、その決定された方向と距離に基づいて決定された方向及び距離で可動オブジェクト132の表示位置が移動されている。なお、このとき指示体の接触位置は擬似オブジェクト131の表示領域を越えてはいないので、制御部110は擬似オブジェクト131の表示位置の追従表示制御は行わず、定位置に表示するように制御する。
図8(c)は、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作して、その接触位置が擬似ジョイスティック131の表示領域を越えた場合の画面例を示す模式図である。なお、この例においては、擬似ジョイスティック131の追従表示制御をするか否かをその表示領域を基準にしたが、操作検出領域136を用いることも可能である。図8(c)を参照すると、擬似ジョイスティック131の追従表示制御がなされているので、接触位置の移動に伴って擬似ジョイスティック131の表示領域も一緒に移動している。また、基準位置C0と接触位置C1に基づいて接触位置C1の方向と接触位置C1までの距離を決定し、その決定された方向と距離に基づいて決定された方向及び距離で可動オブジェクト132の表示位置が移動されている。
図8(d)は、図8(c)と同様に、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作して、その接触位置が擬似ジョイスティック131の表示領域を越えた場合の画面例を示す模式図である。図8(c)において説明したとおり、擬似ジョイスティック131の追従表示制御がなされている。また、可動オブジェクト132は、定位置にあった擬似操作オブジェクト131への操作時間の経過とともに、図8(c)の場合と比べて、より長い距離移動している。
図8(e)は、図8(c)、(d)と同様に、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作して、その接触位置が擬似ジョイスティック131の表示領域を越えた場合の画面例を示す模式図である。ここで、図8(e)の例においては、表示部113の中心(線A−A’)を軸として表示部113を左領域と右領域として分け擬似ジョイスティック131が表示されていた方の領域(図6では左側の領域)を、移動可能領域137として設定している。そして、指示体の接触位置を示す接触位置C1が移動可能領域137を越え、疑似ジョイスティック131の表示位置(具体的には、基準位置C0)が移動可能領域137を越えようとしている。したがって、擬似操作オブジェクト131は、移動可能領域137と他の領域138との境界139上に、その基準位置C0が来るように表示されている。なお、ここでは、基準位置C0が越えると境界線上にとどまるようにしたが、当然、基準位置ではなく、境界139にもっとも近い疑似ジョイスティック131の表示領域の外縁が移動可能領域137を越えたときに、境界線上にとどまるように表示するようにしても良い。
以上の通り、本実施形態においては、指示体の接触位置が擬似ジョイスティック131又は操作検出領域136を越えて移動した場合には、その接触位置に基づいて擬似ジョイスティック131の表示位置も移動する、すなわち追従表示制御をするので、例えば移動するキャラクタ等の可動オブジェクトの移動に集中するがために指の指示体の位置がいつの間にか擬似ジョイスティック131から外れてしまうという不都合を防止することができる。また、移動可能領域137を越えると擬似操作オブジェクト131の表示位置を移動可能領域137と他の領域138の境界上にとどまるように表示するので、指示体である指の位置から相対的に入力可能な範囲での追従表示制御が行われ、ユーザにとって違和感のない操作が可能となる。
<本発明の他の実施形態>
本発明の他の実施形態について説明する。なお、上記実施形態に係る端末装置100と同じ機能を果たすものについては、説明を省略する。また、上記実施形態、及び以下で説明する他の実施形態は、適宜それらの一部又は全部を組み合わせることが可能である。
1.擬似ジョイスティック131の表示位置
上記実施形態においては、上記実施形態に係るプログラムを実行すると、あらかじめ決められた定位置に擬似操作オブジェクト131を表示して、その擬似操作オブジェクト131上を指示体で接触することによって処理が開始する場合を説明した。しかし、それに代えて、任意の位置を指示体で接触することによって処理が開始するようにしてもよい。
図9は、その具体例として、擬似ジョイスティック131の表示位置を示す他の実施形態に係る画面例を示す模式図である。図9を参照すると、プログラムの実行によって定位置(図9中、破線で示す。)に擬似ジョイスティック131が表示されている。その後、指示体によって、任意の位置が接触されると、その接触位置を基準位置C0として、その基準位置C0を中心とする表示位置に擬似ジョイスティック131を移動する。そして、その移動後の位置において擬似操作オブジェクト131を用いた可動オブジェクトの表示制御や、擬似操作オブジェクト131の追従表示制御を行う。その具体的な処理フローなどは上記実施形態において実施するものと同様である。
このように、表示位置を設定することで、よりユーザの利便性を向上することができる。
2.端末装置100を縦長方向に用いた場合の制御
上記実施形態に係る端末装置100は、加速度センサ122を備える。この加速度センサ122を利用して、公知の方法により、端末装置100の回転を検出することが可能である。上記実施形態では、端末装置100を横長方向で使用していた場合について説明したが、ユーザが端末装置100を縦長方向に持ち替えて、本実施形態においては加速度センサ122によって端末装置100の回転を検出すると、表示部113の表示を切り替える。
図10は、その具体例として、端末装置100を縦長方向で使用した場合の画面例を示す模式図である。図10(a)を参照すると、表示部113の上部にはプログラムの進行に伴って表示される可動オブジェクト132等を、下部には擬似ジョイスティック131、疑似操作ボタンA133及び疑似操作ボタンB134の擬似操作キーが表示されている。すなわち、横長方向に端末装置100を使用していた時には、プログラムの進行とともに随時変化する表示オブジェクトに重畳させて擬似ジョイスティック131等の擬似操作キーを表示させていたが、縦長方向に端末装置100を使用するときには、それらを異なる表示領域に表示するように表示を制御する。
図10(b)は、指示体による接触位置に擬似ジョイスティック131が追従して表示制御されている画面例の模式図である。この追従表示制御の方法は、上記実施形態において説明した方法と同様である。
図10(c)は、指示体による接触位置が移動可能領域137を越えてドラッグされた場合の画面例を示す模式図である。図10(c)においては、移動可能領域137として、疑似操作ボタンA133及び疑似操作ボタンB134の配置及び指示体として用いる左手親指の接触可能な範囲を考慮して、表示部113の左下が設定されている。そして、接触位置C1が移動可能領域137を越えて移動しているため、表示部113左下に設定された移動可能領域137の境界上に疑似ジョイスティック131の表示位置がとどまるように制御される。
このように、加速度センサ122の出力に基づいて表示部113の表示態様を切り替えるとともに、擬似操作キーの表示態様も切り替えることで、ユーザにより多様な操作方法を提供することができる。
なお、上記実施形態では、疑似ジョイスティック131と操作オブジェクト135とを半透明に表示するようにしたが、本実施形態においては、これらの表示領域と可動オブジェクト132等の表示領域とが別々の表示領域として設定されているので、疑似ジョイスティック131と操作オブジェクト135とを必ずしも半透明に表示する必要はない。
3.端末装置100を外部表示装置200に接続した場合の制御
上記実施形態においては、プログラムの進行とともに随時変化する表示オブジェクトを端末装置100の表示部113に表示させる場合について説明したが、液晶テレビなどの外部表示装置に接続して、プログラムの進行とともに随時変化する表示オブジェクト等の画像情報を外部表示装置に表示させることも可能である。
図11は、端末装置100を外部表示装置200に接続した場合の画面例を示す模式図である。図11によると、端末装置100は、外部表示装置200に無線回線を通じて接続され、プログラムの進行とともに随時変化する表示オブジェクト等の画像情報を出力している。なお、この接続は、通信処理部111を介して、無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式を利用することが可能である。また、端末装置100が備えるコネクタ124を介して、HDMI(登録商標)などを利用した有線接続をすることも可能である。
図11を参照すると、端末装置100の表示部113には擬似ジョイスティック131を含む擬似操作キーが表示され、可動オブジェクト132を含むゲーム進行に伴って変化する表示オブジェクトは外部表示装置200に表示されている。この擬似ジョイスティック131を用いた可動オブジェクト132の表示制御や、擬似ジョイスティック131の追従表示制御は上記実施形態と同様である。
このようにすることで、端末装置100を操作専用のコントローラーとして用いることができ、ユーザにより高い臨場感を提供することができる。
なお、上記実施形態では、疑似ジョイスティック131と操作オブジェクト135とを半透明に表示するようにしたが、本実施形態においては、これらの表示領域と可動オブジェクト132等の表示領域とが別々の表示領域として設定されているので、疑似ジョイスティック131と操作オブジェクト135とを半透明に表示する必要はない。
4.擬似操作キーの他の例
上記実施形態では、擬似操作キーとして、擬似ジョイスティック131を用いた場合について説明した。しかし、本発明を適用可能な擬似操作キーとしては、擬似ジョイスティック131に限らない。たとえば、本発明は、一定時間以上継続して接触させ続ける必要がある擬似操作キーに適用することができる。
図12は、擬似操作キーとして、擬似十字キーを適用した場合の画面例を示す模式図である。図12を参照すると、端末装置100の表示部113には、擬似十字キー151が所定の位置に表示されている。ユーザは接触体で擬似十字キー157が備える上下左右4方向の擬似操作キーに接触することによって可動キャラクタ132の移動を制御することができる。
なお、擬似十字キー151の場合は、擬似ジョイスティック131と比較して、細かな複数の擬似キーで構成されているために、ユーザはより細かな指示体による操作が必要である。したがって、当然、擬似十字キー151を構成する個々の擬似操作キーの表示領域を指示体の接触位置が越えると擬似十字キー151の追従表示制御を開始することもできる。しかし、擬似十字キー151の表示領域よりも広い操作検出領域136を設定し、この操作検出領域136を基準にして擬似十字キー151の追従表示制御をする方がより好ましい。
図13は、擬似操作キーとして、弓矢を模したキーを適用した場合の画面例を示す模式図である。上記実施形態では、擬似操作キーとして擬似ジョイスティック131を用いる場合について説明した。すなわち、擬似操作キー円で形成しており、基準位置としてその円の中心を設定する場合について説明した。しかし、本実施形態のように、その基準位置は擬似操作キーの中心又は重心に限らず、任意の位置を基準位置として設定することが可能である。
図13を参照すると、弓矢を模した擬似操作キー161が表示されている。ユーザはこの擬似操作キー161の弓をひくような操作、すなわち矢の上を指示体で接触させ、そのまま所定の方向にドラッグし、離すと、制御部110は矢が仮想空間上を飛んでいくように表示を制御する。このような場合においては、接触位置の方向及び距離の決定の基準となる基準位置を任意の位置C4に適宜設定することが可能である。また、擬似操作キー161の追従表示制御をするか否かの基準となる領域も、擬似操作キー161の表示領域ではなく、操作検出領域136として、任意の領域を設定することが可能である。
このようにすることで、より多様な擬似操作キーの表現が可能となる。
本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能なものである。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。
本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明されるデータ、テーブル又はデータベースが単一のメモリに格納される旨説明されたとしても、そのようなデータ、テーブル又はデータベースは、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。
100 端末装置
110 制御部
113 表示部
116 タッチパネル
200 外部表示装置

Claims (16)

  1. 可動オブジェクトの移動を制御する疑似操作キーと、他の操作キーとを表示する表示部と、
    前記疑似操作キーへの指示体による接触を検出するタッチパネルと、
    前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部と、を含む端末装置であって、
    前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更し、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更しているときに前記表示位置が前記表示部に予め設定された移動可能領域を越える場合には、前記移動可能領域と前記他の操作キーが表示された他の領域との境界上に前記疑似操作キーを表示することを特徴とする前記端末装置。
  2. 前記タッチパネルは、前記疑似操作キーの表示領域に対応して前記疑似操作キーに対する操作を検出する操作検出領域を備え、
    前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記操作検出領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とする請求項1に記載の端末装置。
  3. 前記操作検出領域は、前記疑似操作キーの表示領域であることを特徴とする請求項2に記載の端末装置。
  4. 前記表示部は、前記可動オブジェクトを表示し、
    前記制御部は、所定の基準位置と前記指示体の接触位置から得られる方向に基づいて前記可動オブジェクトの移動方向を決定することを特徴とする請求項1〜3のいずれか一項に記載の端末装置。
  5. 前記表示部は、前記可動オブジェクトを表示し、
    前記制御部は、所定の基準位置と前記指示体の接触位置との間の距離に基づいて前記可動オブジェクトの移動量を決定することを特徴とする請求項1〜4のいずれか一項に記載の端末装置。
  6. 前記タッチパネルは、前記疑似操作キーの表示領域に対応して前記疑似操作キーに対する操作を検出する操作検出領域を備え、
    前記基準位置は前記操作検出領域に存在し、
    前記ドラッグ操作によって前記指示体の接触位置が前記操作検出領域を越えた場合には、前記制御部は、前記基準位置と前記接触位置とを結ぶ線分が前記擬似操作キーの表示領域の外縁に交わる位置と、前記基準位置との距離に基づいて前記可動オブジェクトの移動方向及び移動量を決定することを特徴とする請求項4又は5に記載の端末装置。
  7. 前記制御部は、前記疑似操作キーに対するドラッグ操作の検出前は、前記疑似操作キーを予め決められた定位置に表示することを特徴とする請求項1〜6のいずれか一項に記載の端末装置。
  8. 前記移動可能領域は、前記表示部の中心を軸に前記表示部を左領域と右領域とに分けた場合に、前記定位置が存在する方の領域であることを特徴とする請求項7に記載の端末装置。
  9. 前記制御部は、前記定位置に前記疑似操作キーを表示した後、前記指示体によるタッチパネルへの接触を検出すると、その接触位置に前記疑似操作キーを表示することを特徴とする請求項7又は8に記載の端末装置。
  10. 前記疑似操作キーは円で形成され、
    前記基準位置は、前記疑似操作キーを形成する円の中心であることを特徴とする請求項4又は5に記載の端末装置。
  11. 前記制御部は、前記指示体による接触位置を示す操作オブジェクトを前記表示部に表示し、前記接触位置の移動に応じて前記操作オブジェクトの表示位置を変更することを特徴とする請求項10に記載の端末装置。
  12. 前記操作オブジェクトは円で形成され、
    前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えた場合に、前記操作オブジェクトを形成する円の中心が、前記疑似操作キーを形成する円の外側に位置するように前記前記疑似操作キーの表示位置を制御することを特徴とする請求項11に記載の端末装置。
  13. 前記疑似操作キーは半透明で表示されることを特徴とする請求項1〜12のいずれか一項に記載の端末装置。
  14. 前記疑似操作キーは、ジョイスティックを疑似的に模した疑似ジョイスティックであることを特徴とする請求項1〜13のいずれか一項に記載の端末装置。
  15. コンピュータを、
    表示部に、可動オブジェクトの移動を制御する疑似操作キーと、他の操作キーとを表示し、
    端末装置が備えるタッチパネルを介して検出された指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部として機能させるプログラムであって、
    前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更し、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更しているときに前記表示位置が前記表示部に予め設定された移動可能領域を越える場合には、前記移動可能領域と前記他の操作キーが表示された他の領域との境界上に前記疑似操作キーを表示することを特徴とする前記プログラム。
  16. 表示部に、可動オブジェクトの移動を制御する疑似操作キーと、他の操作キーとを表示するステップと、
    タッチパネルを介して前記表示部への指示体の接触を検出するステップと、
    前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行うステップと、を含む疑似操作キーの表示制御方法であって、
    前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置が前記指示体の接触位置に応じて変更し、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更しているときに前記表示位置が前記表示部に予め設定された移動可能領域を越える場合には、前記移動可能領域と前記他の操作キーが表示された他の領域との境界上に前記疑似操作キーを表示されることを特徴とする前記表示制御方法。
JP2014131850A 2014-06-26 2014-06-26 端末装置 Active JP5711409B1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2014131850A JP5711409B1 (ja) 2014-06-26 2014-06-26 端末装置
TW103143049A TWI638297B (zh) 2014-06-26 2014-12-10 終端裝置
EP14199521.7A EP2960766B1 (en) 2014-06-26 2014-12-19 Terminal device
KR1020150012229A KR20160001600A (ko) 2014-06-26 2015-01-26 단말 장치
CN201510056004.6A CN105302453B (zh) 2014-06-26 2015-02-03 终端装置
US14/618,112 US10146343B2 (en) 2014-06-26 2015-02-10 Terminal device having virtual operation key
HK16105041.0A HK1217544A1 (zh) 2014-06-26 2016-05-03 終端裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014131850A JP5711409B1 (ja) 2014-06-26 2014-06-26 端末装置

Publications (2)

Publication Number Publication Date
JP5711409B1 true JP5711409B1 (ja) 2015-04-30
JP2016009473A JP2016009473A (ja) 2016-01-18

Family

ID=52282474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014131850A Active JP5711409B1 (ja) 2014-06-26 2014-06-26 端末装置

Country Status (7)

Country Link
US (1) US10146343B2 (ja)
EP (1) EP2960766B1 (ja)
JP (1) JP5711409B1 (ja)
KR (1) KR20160001600A (ja)
CN (1) CN105302453B (ja)
HK (1) HK1217544A1 (ja)
TW (1) TWI638297B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5941207B1 (ja) * 2015-09-10 2016-06-29 株式会社コロプラ ユーザ・インタフェース・プログラムおよびコンピュータ実装方法
JP5981617B1 (ja) * 2015-08-20 2016-08-31 株式会社コロプラ ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
JP6097427B1 (ja) * 2016-02-29 2017-03-15 株式会社コロプラ ゲームプログラム
US10773154B2 (en) 2016-11-21 2020-09-15 Konami Digital Entertainment Co., Ltd. Game control device, game system, and information storage medium
US10857461B2 (en) 2016-11-21 2020-12-08 Konami Digital Entertainment Co., Ltd. Game control device, game system, and information storage medium

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6095393B2 (ja) * 2013-02-12 2017-03-15 株式会社スクウェア・エニックス ビデオゲーム装置、及びビデオゲーム処理プログラム
JP6990962B2 (ja) * 2014-06-09 2022-01-12 雅人 桑原 情報処理装置
JPWO2016208099A1 (ja) * 2015-06-24 2018-04-12 パナソニックIpマネジメント株式会社 情報処理装置、情報処理装置に対する入力を制御する入力制御方法及び入力制御方法を情報処理装置に実行させるためのプログラム
CN105335065A (zh) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
JP6569496B2 (ja) * 2015-11-26 2019-09-04 富士通株式会社 入力装置、入力方法、及びプログラム
KR102481632B1 (ko) * 2016-04-26 2022-12-28 삼성전자주식회사 전자 장치 및 전자 장치의 디스플레이를 이용한 적응적 터치 입력 방법
JP6143934B1 (ja) * 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
CN106354418B (zh) * 2016-11-16 2019-07-09 腾讯科技(深圳)有限公司 一种基于触摸屏的操控方法和装置
CN106453638B (zh) * 2016-11-24 2018-07-06 腾讯科技(深圳)有限公司 一种应用业务内信息交互方法及系统
KR102650630B1 (ko) * 2016-11-29 2024-03-21 주식회사 넥슨코리아 가상 입력수단 제공 방법 및 장치
CN106598465A (zh) * 2016-12-20 2017-04-26 上海逗屋网络科技有限公司 基于虚拟摇杆的控制方法、装置和设备
JP6969066B2 (ja) * 2017-03-27 2021-11-24 株式会社コナミデジタルエンタテインメント ゲームシステム、ゲーム制御装置、及びプログラム
JP2018161446A (ja) * 2017-03-27 2018-10-18 株式会社コナミデジタルエンタテインメント ゲームシステム、ゲーム制御装置、及びプログラム
JP6450794B2 (ja) * 2017-03-27 2019-01-09 株式会社コナミデジタルエンタテインメント ゲームシステム、ゲーム制御装置、及びプログラム
CN108496151A (zh) * 2017-05-23 2018-09-04 深圳市大疆创新科技有限公司 用于操纵可移动装置的方法和设备
CN107422938A (zh) * 2017-06-21 2017-12-01 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107837531B (zh) * 2017-09-28 2018-11-23 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
JP6581639B2 (ja) * 2017-11-06 2019-09-25 株式会社カプコン ゲームプログラム、およびゲームシステム
US11481110B2 (en) * 2017-11-29 2022-10-25 Micro Focus Llc Gesture buttons
JP7105573B2 (ja) * 2018-02-05 2022-07-25 株式会社バンダイナムコエンターテインメント プログラム及びゲーム装置
JP6446149B1 (ja) * 2018-03-06 2018-12-26 株式会社Cygames プログラム、処理装置及び処理方法
KR102016681B1 (ko) * 2018-10-18 2019-08-30 김기연 에뮬레이팅 게임류에 적용가능한 스마트폰용 조작 사용자 인터페이스 방법
JP6970131B2 (ja) * 2019-01-16 2021-11-24 株式会社スクウェア・エニックス ゲーム処理用プログラム、情報処理装置、方法及びシステム
JP6614381B1 (ja) * 2019-03-27 2019-12-04 株式会社セガゲームス プログラム及び情報処理装置
JP6856267B2 (ja) * 2019-05-30 2021-04-07 株式会社コナミデジタルエンタテインメント プログラム、情報処理装置及び情報処理方法
CN110096214B (zh) * 2019-06-05 2021-08-06 腾讯科技(深圳)有限公司 虚拟对象的移动控制方法、装置、终端和存储介质
CN110865759A (zh) * 2019-10-28 2020-03-06 维沃移动通信有限公司 一种对象移动方法及电子设备
CN110755846B (zh) * 2019-10-29 2023-05-26 网易(杭州)网络有限公司 游戏控制方法、装置和终端设备
JP6824369B1 (ja) * 2019-11-26 2021-02-03 株式会社Cygames 方法、プログラム、及び電子装置
CN111589127B (zh) * 2020-04-23 2022-07-12 腾讯科技(深圳)有限公司 虚拟角色的控制方法、装置、设备及存储介质
JP7062034B2 (ja) * 2020-07-08 2022-05-02 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP7062033B2 (ja) * 2020-07-08 2022-05-02 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US11577157B2 (en) 2020-07-08 2023-02-14 Nintendo Co., Ltd. Systems and method of controlling game operations based on touch input
US11541305B2 (en) * 2020-09-28 2023-01-03 Snap Inc. Context-sensitive remote eyewear controller
JP7232350B2 (ja) 2020-10-30 2023-03-02 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想キーの位置調整方法及び装置、並びコンピュータ装置及びプログラム
JP2021062251A (ja) * 2021-01-14 2021-04-22 株式会社バンダイナムコエンターテインメント プログラム及びゲーム装置
JP7437433B2 (ja) * 2022-02-16 2024-02-22 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置、および情報処理方法

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11191036A (ja) * 1997-12-26 1999-07-13 Yokogawa Electric Corp ウィンドウ移動装置
JP2001045261A (ja) * 1999-07-29 2001-02-16 Olympus Optical Co Ltd 画像記録方法、画像記録装置、及び記録媒体
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
CN101606124B (zh) * 2007-01-25 2013-02-27 夏普株式会社 多窗口管理装置及信息处理装置
KR20090006807A (ko) * 2007-07-11 2009-01-15 오의진 손가락의 동작감지를 이용한 데이터입력장치 및 이를이용한 입력변환방법
TW200914093A (en) * 2007-09-21 2009-04-01 Astro Corp Touch screen card game device and its operation method
JP2009284468A (ja) * 2008-04-23 2009-12-03 Sharp Corp 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
KR101503493B1 (ko) * 2008-07-16 2015-03-17 삼성전자주식회사 위젯 콘텐츠를 이용한 기기 제어 방법 및 그 방법을수행하는 원격 제어 장치
JPWO2010032354A1 (ja) * 2008-09-22 2012-02-02 日本電気株式会社 画像オブジェクト制御システム、画像オブジェクト制御方法およびプログラム
CN101414240A (zh) * 2008-11-12 2009-04-22 圆展科技股份有限公司 动态安排虚拟按键位置的方法及其装置
US8451236B2 (en) * 2008-12-22 2013-05-28 Hewlett-Packard Development Company L.P. Touch-sensitive display screen with absolute and relative input modes
US20100277414A1 (en) * 2009-04-30 2010-11-04 Qualcomm Incorporated Keyboard for a portable computing device
JP4823342B2 (ja) 2009-08-06 2011-11-24 株式会社スクウェア・エニックス タッチパネル式ディスプレイを持った携帯型コンピュータ
TWI423112B (zh) * 2009-12-09 2014-01-11 Ind Tech Res Inst 可攜式虛擬輸入操作裝置與其操作方法
JP4932010B2 (ja) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP5750875B2 (ja) * 2010-12-01 2015-07-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
TWI442274B (zh) * 2010-02-11 2014-06-21 Hon Hai Prec Ind Co Ltd 一種電子裝置及其圖形化使用者介面控制方法
JP5237325B2 (ja) * 2010-04-28 2013-07-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
KR101695818B1 (ko) * 2010-07-28 2017-01-13 엘지전자 주식회사 이동 단말기 및 이것의 가상 키 패드 제어 방법
US8972879B2 (en) * 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
JP5813948B2 (ja) * 2010-12-20 2015-11-17 株式会社バンダイナムコエンターテインメント プログラム及び端末装置
JP2012168932A (ja) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
JP5379250B2 (ja) * 2011-02-10 2013-12-25 株式会社ソニー・コンピュータエンタテインメント 入力装置、情報処理装置および入力値取得方法
JP5790203B2 (ja) * 2011-06-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
CN102650909B (zh) * 2012-04-16 2015-01-21 杨林 字符输入装置及字符输入方法
US8713464B2 (en) * 2012-04-30 2014-04-29 Dov Nir Aides System and method for text input with a multi-touch screen
CN102981772B (zh) * 2012-11-16 2016-02-10 淘宝(中国)软件有限公司 设置虚拟键盘的方法及装置
EP2741201A3 (en) * 2012-12-06 2017-05-17 Samsung Electronics Co., Ltd Display device and method of controlling the same
CN103472948A (zh) * 2013-09-03 2013-12-25 小米科技有限责任公司 一种触摸屏终端的遥控处理方法、装置和终端
EP3046020A4 (en) * 2013-09-11 2017-04-26 Yulong Computer Telecommunication Scientific (Shenzhen) Co. Ltd. Display method for touchscreen and terminal
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5981617B1 (ja) * 2015-08-20 2016-08-31 株式会社コロプラ ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
JP2017038793A (ja) * 2015-08-20 2017-02-23 株式会社コロプラ ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
WO2017030022A1 (ja) * 2015-08-20 2017-02-23 株式会社コロプラ ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
JP5941207B1 (ja) * 2015-09-10 2016-06-29 株式会社コロプラ ユーザ・インタフェース・プログラムおよびコンピュータ実装方法
JP2017051492A (ja) * 2015-09-10 2017-03-16 株式会社コロプラ ユーザ・インタフェース・プログラムおよびコンピュータ実装方法
WO2017043287A1 (ja) * 2015-09-10 2017-03-16 株式会社コロプラ ユーザ・インタフェース・プログラムおよびコンピュータ実装方法
JP6097427B1 (ja) * 2016-02-29 2017-03-15 株式会社コロプラ ゲームプログラム
JP2017153557A (ja) * 2016-02-29 2017-09-07 株式会社コロプラ ゲームプログラム
US10773154B2 (en) 2016-11-21 2020-09-15 Konami Digital Entertainment Co., Ltd. Game control device, game system, and information storage medium
US10857461B2 (en) 2016-11-21 2020-12-08 Konami Digital Entertainment Co., Ltd. Game control device, game system, and information storage medium

Also Published As

Publication number Publication date
CN105302453B (zh) 2019-11-01
EP2960766B1 (en) 2017-06-28
CN105302453A (zh) 2016-02-03
JP2016009473A (ja) 2016-01-18
KR20160001600A (ko) 2016-01-06
HK1217544A1 (zh) 2017-01-13
US20150378459A1 (en) 2015-12-31
EP2960766A1 (en) 2015-12-30
TW201601027A (zh) 2016-01-01
US10146343B2 (en) 2018-12-04
TWI638297B (zh) 2018-10-11

Similar Documents

Publication Publication Date Title
JP5711409B1 (ja) 端末装置
US7825909B2 (en) Storage medium storing object movement control program and information processing apparatus
KR20150079471A (ko) 햅틱 가능 투영 사용자 인터페이스를 위한 시스템 및 방법
EP1808210A2 (en) Storage medium having game program stored thereon and game apparatus
US11759702B2 (en) Game system, processing method, and information storage medium
JP6581639B2 (ja) ゲームプログラム、およびゲームシステム
JP5041730B2 (ja) オブジェクト処理装置及びオブジェクト処理プログラム
JP4388878B2 (ja) 入力処理プログラムおよび入力処理装置
JP5838281B1 (ja) モーション表示プログラム
JP5769841B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
US9201534B2 (en) Information processing apparatus, information processing system, information processing method, and computer-readable storage medium having stored therein information processing program
JP6916449B2 (ja) 情報処理装置、コンピュータプログラム
JP4724740B2 (ja) 入力処理プログラムおよび入力処理装置
JP5354820B2 (ja) 入力処理プログラムおよび入力処理装置
JP4726965B2 (ja) 入力処理プログラムおよび入力処理装置
JP4724758B2 (ja) 入力処理プログラムおよび入力処理装置
JP4302767B2 (ja) 入力処理プログラムおよび入力処理装置
JP5968510B1 (ja) インタフェース・プログラム及びコンピュータ
JP5363524B2 (ja) 入力処理プログラムおよび入力処理装置
JP5769765B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP5827671B2 (ja) ゲームプログラムおよびゲーム装置
JP2009093681A (ja) 入力処理プログラムおよび入力処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150305

R150 Certificate of patent or registration of utility model

Ref document number: 5711409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250