JP7493379B2 - User Interface Programs - Google Patents

User Interface Programs Download PDF

Info

Publication number
JP7493379B2
JP7493379B2 JP2020081886A JP2020081886A JP7493379B2 JP 7493379 B2 JP7493379 B2 JP 7493379B2 JP 2020081886 A JP2020081886 A JP 2020081886A JP 2020081886 A JP2020081886 A JP 2020081886A JP 7493379 B2 JP7493379 B2 JP 7493379B2
Authority
JP
Japan
Prior art keywords
user
touch panel
icon
user interface
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020081886A
Other languages
Japanese (ja)
Other versions
JP2021177281A5 (en
JP2021177281A (en
Inventor
亜理 松本
飛鳥 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2020081886A priority Critical patent/JP7493379B2/en
Publication of JP2021177281A publication Critical patent/JP2021177281A/en
Publication of JP2021177281A5 publication Critical patent/JP2021177281A5/ja
Application granted granted Critical
Publication of JP7493379B2 publication Critical patent/JP7493379B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

特許法第30条第2項適用 (1)掲載年月日/令和2年2月18日 掲載アドレス/ https://colopl.co.jp/shironekoproject/news/details/20200218000100.php (2)掲載年月日/令和2年2月19日 掲載アドレス/ https://apps.apple.com/app/apple-store/id895687962 https://play.google.com/store/apps/details?id=jp.colopl.wcat&referrer=a%3D12345%26c%3D1758%26p%3D00001 https://www.amazon.co.jp/dp/B00P92ROJEArticle 30, paragraph 2 of the Patent Act applies (1) Publication date: February 18, 2020 Publication address: https://colopl.co.jp/shironekoproject/news/details/20200218000100.php (2) Publication date: February 19, 2020 Publication address: https://apps.apple.com/app/apple-store/id895687962 https://play.google.com/store/apps/details?id=jp.colopl. wcat&referrer=a%3D12345%26c%3D1758%26p%3D00001 https://www. amazon. co. jp/dp/B00P92ROJE

本発明は、ユーザインターフェースプログラムに関する。より詳細には、本発明は、携帯端末上で実行されるゲームで使用されるユーザインターフェースプログラムに関する。 The present invention relates to a user interface program. More specifically, the present invention relates to a user interface program used in a game executed on a mobile terminal.

携帯端末上で実行されるゲームに用いられるユーザインターフェースとして、例えば、特許文献1に開示された従来技術が知られている。ユーザは、弾性変形するオブジェクトを仮想的なコントローラとして用いることで、ゲームキャラクタに対する移動指示の量を視覚的に把握しながら、ゲームキャラクタを操作することができる。 As a user interface used in games executed on a mobile device, for example, the prior art disclosed in Patent Document 1 is known. By using an elastically deforming object as a virtual controller, a user can operate a game character while visually grasping the amount of movement instructions given to the game character.

国際公開第2015/151640号International Publication No. 2015/151640

このような仮想コントローラに関し、ユーザの操作性をより一層向上させることが求められる。 There is a demand for further improvements in user operability for such virtual controllers.

上述した課題を解決するために、本発明の一態様は、プロセッサおよびタッチパネルを備える携帯端末の前記タッチパネルにユーザインターフェースを表示させるユーザインターフェースプログラムであって、前記携帯端末の前記プロセッサによって実行されると、前記プロセッサに、前記タッチパネル上の第1操作に応答して、前記タッチパネルにアイコンオブジェクトを含む前記ユーザインターフェースを表示するステップと、前記タッチパネル上の第2操作に関連する時間の長さに応じて、前記アイコンオブジェクトの表示位置を制御するステップと、前記第2操作によって前記アイコンオブジェクトが選択されたことに応答して、前記アイコンオブジェクトに割り当てられたコマンドを実行するステップと、を行わせる、ユーザインターフェースプログラムである。 In order to solve the above-mentioned problems, one aspect of the present invention is a user interface program for displaying a user interface on a touch panel of a mobile terminal having a processor and a touch panel, which, when executed by the processor of the mobile terminal, causes the processor to perform the steps of: displaying the user interface including an icon object on the touch panel in response to a first operation on the touch panel; controlling the display position of the icon object depending on the length of time associated with a second operation on the touch panel; and executing a command assigned to the icon object in response to the icon object being selected by the second operation.

また、本発明の他の一態様は、上記一態様において、前記制御するステップにおいて、前記タッチパネル上の前記第2操作に関連する時間の長さが所定時間より長い場合に前記アイコンオブジェクトの表示位置を変更する、ユーザインターフェースプログラムである。 In another aspect of the present invention, the user interface program in the above aspect changes the display position of the icon object when the length of time associated with the second operation on the touch panel is longer than a predetermined time in the controlling step.

また、本発明の他の一態様は、上記一態様において、前記制御するステップにおいて、前記タッチパネル上の前記第2操作に関連する時間の長さが前記所定時間より短い場合には前記アイコンオブジェクトの表示位置を変更しない、ユーザインターフェースプログラムである。 In another aspect of the present invention, in the above aspect, the user interface program is configured such that, in the controlling step, if the length of time associated with the second operation on the touch panel is shorter than the predetermined time, the display position of the icon object is not changed.

また、本発明の他の一態様は、上記一態様において、前記ユーザインターフェースは、前記アイコンオブジェクトと異なる第2オブジェクトを含み、前記アイコンオブジェクトの表示位置の変更は、前記アイコンオブジェクトが前記第2オブジェクトから離れるように行われる、ユーザインターフェースプログラムである。 In another aspect of the present invention, in the above aspect, the user interface includes a second object different from the icon object, and the display position of the icon object is changed so that the icon object moves away from the second object.

また、本発明の他の一態様は、上記一態様において、前記アイコンオブジェクトは、前記第2オブジェクトから放射状方向に離れる、ユーザインターフェースプログラムである。 In another aspect of the present invention, the icon object in the above aspect is a user interface program that moves away from the second object in a radial direction.

また、本発明の他の一態様は、上記一態様において、前記第1操作は長押し操作であり、前記第2操作はスライド操作である、ユーザインターフェースプログラムである。 In another aspect of the present invention, the user interface program is the above-mentioned aspect, in which the first operation is a long press operation and the second operation is a slide operation.

また、本発明の他の一態様は、上記一態様において、前記タッチパネル上の前記第2操作に関連する前記時間の長さは、ユーザによる前記スライド操作が開始されてから前記アイコンオブジェクトの選択が行われるまでの時間の長さである、ユーザインターフェースプログラムである。 In another aspect of the present invention, the user interface program is such that, in the above aspect, the length of time associated with the second operation on the touch panel is the length of time from when the user starts the slide operation to when the icon object is selected.

また、本発明の他の一態様は、上記一態様において、前記第1操作は長押し操作であり、前記第2オブジェクトは前記タッチパネル上の前記長押し操作が行われた位置に表示される、ユーザインターフェースプログラムである。 In another aspect of the present invention, the user interface program is the above aspect, in which the first operation is a long press operation, and the second object is displayed at a position on the touch panel where the long press operation is performed.

また、本発明の他の一態様は、上記一態様において、前記第2操作はスライド操作であり、前記実行するステップにおいて、前記コマンドは、前記タッチパネル上の前記スライド操作の接触位置が前記アイコンオブジェクトから所定距離の範囲内に入ったことに基づいて実行される、ユーザインターフェースプログラムである。 In another aspect of the present invention, in the above aspect, the second operation is a slide operation, and in the executing step, the command is executed based on the contact position of the slide operation on the touch panel coming within a predetermined distance from the icon object.

本発明によれば、アイコンオブジェクトの表示位置が制御されることにより、ユーザの操作性を向上させることができる。 According to the present invention, the display position of the icon object can be controlled, thereby improving user operability.

図1は、本発明の実施の形態によるユーザインターフェースプログラムを実行するための携帯端末の模式図である。FIG. 1 is a schematic diagram of a mobile terminal for executing a user interface program according to an embodiment of the present invention. 図2は、図1の携帯端末の構成を模式的に示すブロック図である。FIG. 2 is a block diagram showing a schematic configuration of the mobile terminal of FIG. 図3は、図1の携帯端末における入出力の概要を示すブロック図である。FIG. 3 is a block diagram showing an outline of input/output in the mobile terminal of FIG. 図4は、弾性オブジェクトを含むユーザインターフェースの模式図である。FIG. 4 is a schematic diagram of a user interface including an elastic object. 図5は、弾性オブジェクトを含むユーザインターフェースの模式図である。FIG. 5 is a schematic diagram of a user interface including an elastic object. 図6は、弾性オブジェクトを含むユーザインターフェースの模式図である。FIG. 6 is a schematic diagram of a user interface including an elastic object. 図7は、ユーザインターフェースのゲーム適用例を示す画面図である。FIG. 7 is a screen diagram showing an example of a game application of the user interface. 図8は、弾性オブジェクトに加えて2つのアイコンオブジェクトを備えたユーザインターフェースの一例を示す模式図である。FIG. 8 is a schematic diagram showing an example of a user interface that includes two icon objects in addition to an elastic object. 図9は、弾性オブジェクトに加えて2つのアイコンオブジェクトを備えたユーザインターフェースの一例を示す模式図である。FIG. 9 is a schematic diagram showing an example of a user interface that includes two icon objects in addition to an elastic object. 図10は、本実施形態によるユーザインターフェースの表示制御方法を示すフローチャートである。FIG. 10 is a flowchart showing a user interface display control method according to this embodiment.

以下、図面を参照しながら本発明の実施形態について詳しく説明する。 The following describes in detail an embodiment of the present invention with reference to the drawings.

本発明の実施形態によるユーザインターフェースプログラムは、一例として、スマートフォン向けゲームのためのゲームプログラムの一部として実装され得る。例えば、本実施形態のユーザインターフェースプログラムは、仮想空間内におけるゲームキャラクタ(ゲームオブジェクト)の動作を制御するために用いられる。 A user interface program according to an embodiment of the present invention may be implemented as part of a game program for a smartphone game, for example. For example, the user interface program of this embodiment is used to control the movement of a game character (game object) in a virtual space.

図1に示すように、スマートフォン1は、タッチパネル2を備えており、ユーザは当該タッチパネル2上でのユーザ操作を介してゲームキャラクタの動作を制御することができる。なお、本実施形態によるユーザインターフェースプログラムを実行する携帯端末は、スマートフォン1に限定されず、例えば、PDAやタブレット型コンピュータなど、タッチパネルを備える端末であれば如何なるデバイスともすることができる。 As shown in FIG. 1, the smartphone 1 has a touch panel 2, and the user can control the actions of a game character through user operations on the touch panel 2. Note that the mobile terminal that executes the user interface program according to this embodiment is not limited to the smartphone 1, and can be any device that has a touch panel, such as a PDA or tablet computer.

図2に示すように、スマートフォン1は、互いにバス接続されたCPU3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備える。主記憶4は、例えばDRAMなどで構成され、補助記憶5は、例えばHDDなどで構成されている。補助記憶5は、本実施形態によるユーザインターフェースプログラムおよびゲームプログラムを記録可能な記録媒体である。補助記憶5に格納されたユーザインターフェースプログラムおよびゲームプログラムは、主記憶4上に展開されてCPU3(プロセッサ)によって実行される。主記憶4上には、CPU3がユーザインターフェースプログラムおよびゲームプログラムに従って動作している間に生成したデータや、CPU3によって利用されるデータも一時的に格納される。送受信部6は、スマートフォン1とネットワークとの間の通信接続(無線接続および/または有線接続)を確立して、各種情報の送受信を行う。表示部7は、ユーザに提示するための各種情報を表示する。入力部8は、ユーザのタッチパル2に対する入力操作(タッチ操作、スライド(スワイプ)操作およびタップ操作等の物理的接触操作)を検知する。 As shown in FIG. 2, the smartphone 1 includes a CPU 3, a main memory 4, an auxiliary memory 5, a transmission/reception unit 6, a display unit 7, and an input unit 8, which are connected to each other by a bus. The main memory 4 is composed of, for example, a DRAM, and the auxiliary memory 5 is composed of, for example, a HDD. The auxiliary memory 5 is a recording medium capable of recording a user interface program and a game program according to this embodiment. The user interface program and the game program stored in the auxiliary memory 5 are deployed on the main memory 4 and executed by the CPU 3 (processor). The main memory 4 also temporarily stores data generated while the CPU 3 is operating according to the user interface program and the game program, and data used by the CPU 3. The transmission/reception unit 6 establishes a communication connection (wireless connection and/or wired connection) between the smartphone 1 and a network to transmit and receive various information. The display unit 7 displays various information to be presented to the user. The input unit 8 detects an input operation (a physical contact operation such as a touch operation, a slide (swipe) operation, and a tap operation) made by the user on the touch pal 2.

図3に示すように、タッチパネル2は、入力部8に相当するタッチセンシング部301と、表示部7に相当する液晶表示部302とを有している。タッチパネル2は、制御部303(CPU3)の制御の下で、プレイヤによるインタラクティブな入力操作をタッチセンシング部301において受け付け、それに対応するグラフィックを液晶表示部302に表示する。 As shown in FIG. 3, the touch panel 2 has a touch sensing unit 301 that corresponds to the input unit 8, and a liquid crystal display unit 302 that corresponds to the display unit 7. Under the control of the control unit 303 (CPU 3), the touch panel 2 accepts interactive input operations by the player in the touch sensing unit 301, and displays corresponding graphics on the liquid crystal display unit 302.

具体的には、タッチセンシング部301は、ユーザによる入力操作に応じた操作信号を制御部303に出力する。入力操作は、何れの物体(例えば、ユーザの指、スタイラス等)によるものであってもよい。タッチセンシング部301は、例えば、静電容量式のものを採用することができるが、これに限定されない。制御部303は、タッチセンシング部301からの操作信号を検出すると、これをユーザのキャラクタへの操作指示として認識し、当該操作指示に応じたグラフィックを生成して表示信号として液晶表示部302へ送信する。液晶表示部302は、表示信号に応じたグラフィックを表示する。 Specifically, the touch sensing unit 301 outputs an operation signal corresponding to an input operation by the user to the control unit 303. The input operation may be performed by any object (e.g., the user's finger, a stylus, etc.). The touch sensing unit 301 may be, for example, a capacitive type, but is not limited to this. When the control unit 303 detects an operation signal from the touch sensing unit 301, it recognizes this as an operation instruction for the user's character, generates a graphic corresponding to the operation instruction, and transmits it to the liquid crystal display unit 302 as a display signal. The liquid crystal display unit 302 displays the graphic corresponding to the display signal.

以下、図4から図9を参照して本実施形態によるユーザインターフェースの構成を説明する。図4に示すように、本実施形態によるユーザインターフェース400は、固定円410と、当該固定円410の内部に位置する弾性オブジェクト420とを備えている。固定円410および弾性オブジェクト420は、ユーザの指がタッチパネル2に接触したことが検知されるとタッチパネル2に表示される。弾性オブジェクト420は、ユーザの指がタッチパネル2に接触した時の初期形状として、タッチパネル2上の指の接触点を中心とした円形状を有する。なお、固定円410および弾性オブジェクト420の位置は、必ずしもこれに限定されない。例えば、固定円410および弾性オブジェクト420は、ユーザの指の接触点から所定距離だけ離して配置してもよい。そのようにすることにより、弾性オブジェクト420がユーザの指で隠れて表示されてしまうのを防止することができる。 The configuration of the user interface according to this embodiment will be described below with reference to Figs. 4 to 9. As shown in Fig. 4, the user interface 400 according to this embodiment includes a fixed circle 410 and an elastic object 420 located inside the fixed circle 410. The fixed circle 410 and the elastic object 420 are displayed on the touch panel 2 when it is detected that the user's finger has contacted the touch panel 2. The elastic object 420 has a circular shape centered on the contact point of the finger on the touch panel 2 as the initial shape when the user's finger contacts the touch panel 2. Note that the positions of the fixed circle 410 and the elastic object 420 are not necessarily limited to this. For example, the fixed circle 410 and the elastic object 420 may be disposed at a predetermined distance from the contact point of the user's finger. By doing so, it is possible to prevent the elastic object 420 from being hidden by the user's finger and being displayed.

図5に示すように、本実施形態による弾性オブジェクト420は、タッチパネル2上におけるユーザの操作に応じて弾性体の如く挙動するように、その表示が制御される。具体的には、ユーザがタッチパネル2上でスライド操作(指をタッチパネル2に接触させたまま接触開始点から接触終了点に移動させる操作)を行うと、弾性オブジェクト420は、ユーザの指に引っ張られるような弾性変形を行う。この弾性変形により、弾性オブジェクト420は、スライド操作の接触開始点付近に位置する基部430と、スライド操作の接触終了点(ただし、指はまだ接触した状態にある。)付近に位置する先端部450と、基部430と先端部450との間を接続する接続部440とを含むように構成される。なお、以下において、基部430、接続部440および先端部450を総称して弾性オブジェクト420と記載することもある。 5, the display of the elastic object 420 according to this embodiment is controlled so that it behaves like an elastic body in response to the user's operation on the touch panel 2. Specifically, when the user performs a slide operation on the touch panel 2 (moving the finger from the contact start point to the contact end point while keeping the finger in contact with the touch panel 2), the elastic object 420 undergoes elastic deformation as if pulled by the user's finger. Due to this elastic deformation, the elastic object 420 is configured to include a base 430 located near the contact start point of the slide operation, a tip 450 located near the contact end point of the slide operation (where the finger is still in contact), and a connection 440 that connects the base 430 and the tip 450. In the following, the base 430, the connection 440, and the tip 450 may be collectively referred to as the elastic object 420.

このように、弾性オブジェクト420は、スライド操作の方向に弾性的に延びるように表示される。即ち、図4に示されるように初期状態において円形形状を有していた弾性オブジェクト420は、ユーザの指を接触開始点から接触終了点に向けてスライドさせる操作によって伸張させることができ、その結果、図5に示されるような弾性変形した弾性オブジェクト420となる。ユーザがタッチパネル2と指の接触状態を維持しつつ接触終了点をタッチパネル2上で更に移動させた場合には、先端部450もそれに追従して更に移動し、弾性オブジェクト420の延びる向きおよびその長さも変化する。なお、図5では、先端部450が基部430よりも小さくなるように弾性変形後の弾性オブジェクト420を形成しているが、弾性変形後の弾性オブジェクト420の形状はこれに限定されず、逆に、先端部450を基部430より大きくしてもよい。 In this way, the elastic object 420 is displayed so as to elastically extend in the direction of the slide operation. That is, the elastic object 420, which has a circular shape in the initial state as shown in FIG. 4, can be stretched by sliding the user's finger from the contact start point to the contact end point, resulting in an elastically deformed elastic object 420 as shown in FIG. 5. When the user further moves the contact end point on the touch panel 2 while maintaining the contact state of the finger with the touch panel 2, the tip 450 also moves further in response, and the direction and length of extension of the elastic object 420 also change. Note that in FIG. 5, the elastically deformed elastic object 420 is formed so that the tip 450 is smaller than the base 430, but the shape of the elastic object 420 after elastic deformation is not limited to this, and conversely, the tip 450 may be larger than the base 430.

図6に示すように、ユーザによるスライド操作が終了すると(即ち、ユーザの指がタッチパネル2上において接触終了点から離れると)、弾性変形した弾性オブジェクト420は、その復元力に従って接触開始点に向けて収縮し、図4に示した初期形状に戻るように表示される。その際に、収縮する弾性オブジェクト420は、復元力の反動により、図5における伸張方向とは逆方向に固定円410から一旦少しはみ出すように変形し、その後、初期形状に復帰する。なお、弾性オブジェクト420の初期形状への復帰は、このような伸張方向とは逆方向への変形を伴うものには限定されない。例えば、弾性オブジェクト420は、伸張方向と逆方向に変形することなく初期形状(図4に示される円形状)に戻る一方で、その位置が、伸張方向と逆方向に一旦ずれたのちに元の位置に減衰振動的に戻るように表示されてもよい。 6, when the user's slide operation ends (i.e., when the user's finger leaves the contact end point on the touch panel 2), the elastically deformed elastic object 420 contracts toward the contact start point according to its restoring force, and is displayed as returning to the initial shape shown in FIG. 4. At that time, the contracting elastic object 420 is deformed by the reaction of the restoring force so as to once protrude slightly from the fixed circle 410 in the direction opposite to the stretching direction in FIG. 5, and then returns to its initial shape. Note that the return of the elastic object 420 to its initial shape is not limited to deformation in the direction opposite to the stretching direction. For example, the elastic object 420 may return to its initial shape (the circular shape shown in FIG. 4) without being deformed in the direction opposite to the stretching direction, and may be displayed as returning to its original position in a damped oscillation after once shifting in the direction opposite to the stretching direction.

ユーザがタッチパネル2上で操作を行うと、上記のように弾性オブジェクト420が弾性変形する表示がなされるとともに、ユーザの操作に応じて仮想空間内のゲームキャラクタの動作が制御される。具体的には、ユーザによるタッチパネル2上のスライド操作に応じて、スライド操作の移動量(移動距離)および移動方向に基づくゲームキャラクタの動作の制御が実行される。このように、ユーザは、本実施形態によるユーザインターフェース400(弾性オブジェクト420)を用いて仮想空間内のゲームキャラクタを操作することができる。 When the user performs an operation on the touch panel 2, the elastic object 420 is displayed as elastically deforming as described above, and the movement of the game character in the virtual space is controlled in accordance with the user's operation. Specifically, in response to the user's slide operation on the touch panel 2, the movement of the game character is controlled based on the amount of movement (movement distance) and movement direction of the slide operation. In this way, the user can operate the game character in the virtual space using the user interface 400 (elastic object 420) according to this embodiment.

図7は、仮想空間に配置されたゲームオブジェクト(例えばゲームキャラクタ)をユーザの指等の物体で操作するスマートフォン向けゲームのプレイ画面の一例である。図7に示すように、ユーザがタッチパネル2上を左方向にスライド操作すると、弾性オブジェクト420が左方向に弾性変形するように表示される。また、当該スライド操作に伴い、ゲームキャラクタ460の左方向への移動が行われる。ユーザは、弾性オブジェクト420の伸張方向および伸張量を視覚的に把握することで、自分が今ゲームキャラクタ460に対してどのような操作入力をしているかを容易に認識することができる。このように、弾性オブジェクト420は、ゲームキャラクタ460を動かすための仮想的なゲームコントローラとして機能している。 Figure 7 is an example of a play screen of a smartphone game in which a game object (e.g., a game character) arranged in a virtual space is operated with an object such as a user's finger. As shown in Figure 7, when the user slides left on the touch panel 2, the elastic object 420 is displayed as elastically deforming leftward. In addition, the game character 460 moves leftward in response to the slide operation. By visually grasping the direction and amount of extension of the elastic object 420, the user can easily recognize what kind of operation input he or she is currently making to the game character 460. In this way, the elastic object 420 functions as a virtual game controller for moving the game character 460.

本実施形態によるユーザインターフェースは、上記のような弾性オブジェクトに加えて更に、各種の付加的なゲームコマンドを入力するためのアイコンオブジェクトを備える。図8は、弾性オブジェクト420に加えて2つのアイコンオブジェクト510および520を備えたユーザインターフェース500の一例を示す。ユーザインターフェース500は、ユーザの指がタッチパネル2に接触したことが検知されるとタッチパネル2に表示される。弾性オブジェクト420は、図4から図6を参照して前述したものと同じであり、図8には、ユーザの指がタッチパネル2に接触した初期時点においてタッチパネル2上の指の接触点に配置された円形状の弾性オブジェクト420が示されている。2つのアイコンオブジェクト510および520は、弾性オブジェクト420から所定距離だけ離れて配置される。図8の例において、アイコンオブジェクト510は弾性オブジェクト420の左斜め上方に表示され、アイコンオブジェクト520は弾性オブジェクト420の右斜め上方に表示されている。図8のユーザインターフェース500は2つのアイコンオブジェクト510および520を備えているが、アイコンオブジェクトの数はこれに限定されず、1つであってもよいし、3つ以上であってもよい。なお、図8に示されるように、ユーザインターフェース500は更に、各アイコンオブジェクト510、520の周りに、見映えを装飾するためのエフェクトオブジェクト610、620を含んでもよい。 In addition to the elastic object as described above, the user interface according to this embodiment further includes an icon object for inputting various additional game commands. FIG. 8 shows an example of a user interface 500 including two icon objects 510 and 520 in addition to the elastic object 420. The user interface 500 is displayed on the touch panel 2 when it is detected that the user's finger has contacted the touch panel 2. The elastic object 420 is the same as that described above with reference to FIGS. 4 to 6, and FIG. 8 shows a circular elastic object 420 disposed at the contact point of the user's finger on the touch panel 2 at the initial time when the user's finger contacts the touch panel 2. The two icon objects 510 and 520 are disposed at a predetermined distance from the elastic object 420. In the example of FIG. 8, the icon object 510 is displayed diagonally above the left of the elastic object 420, and the icon object 520 is displayed diagonally above the right of the elastic object 420. The user interface 500 in FIG. 8 includes two icon objects 510 and 520, but the number of icon objects is not limited to this, and may be one, or may be three or more. As shown in FIG. 8, the user interface 500 may further include effect objects 610, 620 for decorative purposes around each icon object 510, 520.

図8に示されるユーザインターフェース500のうちアイコンオブジェクト510および520は、例えば、タッチパネル2に対するユーザの指の接触状態が一定時間継続した(即ち、ユーザがタッチパネル2を長押しした)場合に出現するよう、ユーザインターフェース500の表示が制御される。つまり、ユーザの指がタッチパネル2に触れると、まず弾性オブジェクト420の表示が行われ、その後ユーザが指をタッチパネル2に触れたままでいると、所定時間だけ遅れてアイコンオブジェクト510および520が表示される。アイコンオブジェクト510および520が表示されている状態において、ユーザの指によるスライド操作が行われると、前述の図5および図7に示されるのと同様に、スライド操作に応じて、弾性オブジェクト420の変形とともにゲームキャラクタ(図8において不図示)を移動させることができる。 The display of the user interface 500 shown in FIG. 8 is controlled so that the icon objects 510 and 520 appear when the user's finger continues to touch the touch panel 2 for a certain period of time (i.e., the user presses and holds the touch panel 2). That is, when the user's finger touches the touch panel 2, the elastic object 420 is displayed first, and if the user continues to touch the touch panel 2 with his/her finger, the icon objects 510 and 520 are displayed after a predetermined delay. When the user performs a sliding operation with his/her finger while the icon objects 510 and 520 are displayed, the game character (not shown in FIG. 8) can be moved along with the deformation of the elastic object 420 in response to the sliding operation, similar to the above-mentioned FIG. 5 and FIG. 7.

アイコンオブジェクト510および520は、ユーザのスライド操作中にタッチパネル2とユーザの指との接触状態が解除されない限り、タッチパネル2に表示され続ける。次いで、ユーザのスライド操作によってアイコンオブジェクト510、520のいずれかが選択されると、当該選択されたアイコンオブジェクト(510または520)に割り当てられているコマンドが実行される。具体的には、スライド操作の途中にタッチパネル2上でユーザの指がアイコンオブジェクト510または520に重なったか否か(即ち、ユーザの指の接触位置がアイコンオブジェクト510または520から所定距離の範囲内に入ったか否か)が判定され、両者が重なった場合に、当該重なったアイコンオブジェクト(510または520)に割り当てられているコマンドが実行される。アイコンオブジェクト510、520の各々には、例えば、ゲームキャラクタに所定のアクション(特殊攻撃など)を行わせるためのコマンドが割り当てられている。したがって、ユーザは、タッチパネル2上で指先をスライドさせてアイコンオブジェクト510または520に重ね合わせることで、ゲームキャラクタに所定のアクションを行わせることができる。 The icon objects 510 and 520 continue to be displayed on the touch panel 2 unless the touch state between the touch panel 2 and the user's finger is released during the user's slide operation. Next, when one of the icon objects 510 and 520 is selected by the user's slide operation, the command assigned to the selected icon object (510 or 520) is executed. Specifically, whether or not the user's finger overlaps the icon object 510 or 520 on the touch panel 2 during the slide operation (i.e., whether or not the contact position of the user's finger is within a predetermined distance from the icon object 510 or 520) is determined, and when both overlap, the command assigned to the overlapped icon object (510 or 520) is executed. For example, a command for making the game character perform a predetermined action (such as a special attack) is assigned to each of the icon objects 510 and 520. Therefore, the user can make the game character perform a predetermined action by sliding the fingertip on the touch panel 2 to overlap the icon object 510 or 520.

このように、アイコンオブジェクト510および520が表示されている状態では、ユーザは、スライド操作を続けることでゲームキャラクタに移動を行わせながら、タイミングを見計らってその指先をアイコンオブジェクト510または520までスライドさせる操作をすることで、即座にゲームキャラクタに特殊攻撃などのアクションを行わせることが可能である。つまり、ゲームキャラクタの移動状態から特殊攻撃などのアクションの発動への遷移を、迅速に、かつ簡便な操作で実現することができる。 In this way, when icon objects 510 and 520 are displayed, the user can continue the sliding operation to move the game character, and then slide his or her fingertip to icon object 510 or 520 at the right time, causing the game character to instantly perform an action such as a special attack. In other words, the transition from the game character's moving state to the initiation of an action such as a special attack can be achieved quickly and with a simple operation.

本実施形態のユーザインターフェース500においては、更に、ユーザのスライド操作が開始されてからアイコンオブジェクト510または520の選択が行われるまでの時間の長さに応じて、アイコンオブジェクト510および520の表示位置が制御される。具体的に、ユーザがタッチパネル2上で弾性オブジェクト420の位置を始点とするスライド操作を開始してから所定時間以内にユーザの指がアイコンオブジェクト510または520の位置まで到達した場合、アイコンオブジェクト510および520は、初めの表示位置にそのまま表示され続ける(表示位置は移動しない)。一方、当該所定時間以内にユーザの指がアイコンオブジェクト510または520の位置まで到達しなかった(即ち、ユーザが当該所定時間よりも長く、アイコンオブジェクト510または520を選択せずにスライド操作を継続した)場合には、アイコンオブジェクト510および520は、初めの表示位置から移動して別の場所に表示される。例えば、アイコンオブジェクト510および520は、弾性オブジェクト420からの距離がより遠い位置に表示されるのであってよい。 In the user interface 500 of this embodiment, the display positions of the icon objects 510 and 520 are further controlled according to the length of time from when the user starts a slide operation to when the icon object 510 or 520 is selected. Specifically, if the user's finger reaches the position of the icon object 510 or 520 within a predetermined time after the user starts a slide operation starting from the position of the elastic object 420 on the touch panel 2, the icon objects 510 and 520 continue to be displayed at their initial display positions (the display positions do not move). On the other hand, if the user's finger does not reach the position of the icon object 510 or 520 within the predetermined time (i.e., the user continues the slide operation without selecting the icon object 510 or 520 for longer than the predetermined time), the icon objects 510 and 520 are moved from their initial display positions and displayed at a different location. For example, the icon objects 510 and 520 may be displayed at a position farther away from the elastic object 420.

具体的には、図9に示されるように、アイコンオブジェクト510および520は、弾性オブジェクト420を中心として放射状方向に弾性オブジェクト420から離れるように初めの表示位置902から変更後の表示位置904へ移動して表示されるのであってよい。アイコンオブジェクト510および520が弾性オブジェクト420からより離れた位置に表示されることで、アイコンオブジェクト510および520に触れることなくスライド操作を行うことができるスペースが拡大する。これにより、ユーザは、アイコンオブジェクト510および520を表示させたまま、ゲームキャラクタを移動させるためのスライド操作をより自由に行うことができる。したがって、アイコンオブジェクトを用いたゲームキャラクタの移動からアクション発動(特殊攻撃など)への容易な遷移を可能としつつ、ゲームキャラクタの移動操作の自由度を上げることが可能であり、アイコンオブジェクトに割り当てられているコマンドが意図せず(アイコンオブジェクトとユーザの指との意図しない接触によって)実行されてしまうことを回避することができる。 9, the icon objects 510 and 520 may be displayed by moving from the initial display position 902 to the changed display position 904 so as to move away from the elastic object 420 in a radial direction from the elastic object 420 as a center. By displaying the icon objects 510 and 520 at a position farther away from the elastic object 420, the space in which the slide operation can be performed without touching the icon objects 510 and 520 is expanded. This allows the user to more freely perform the slide operation to move the game character while keeping the icon objects 510 and 520 displayed. Therefore, it is possible to increase the degree of freedom of the game character movement operation while enabling an easy transition from the movement of the game character using the icon object to the activation of an action (such as a special attack), and it is possible to avoid the command assigned to the icon object being unintentionally executed (due to unintentional contact between the icon object and the user's finger).

図10は、本実施形態によるユーザインターフェース500の表示制御方法を示すフローチャートである。このフローチャートは、制御部303(CPU3)が実行する一連の処理を示している。以下、本実施形態のユーザインターフェース500の表示に関わる動作を説明する。 Figure 10 is a flowchart showing a display control method for the user interface 500 according to this embodiment. This flowchart shows a series of processes executed by the control unit 303 (CPU 3). Below, the operations related to the display of the user interface 500 according to this embodiment will be described.

図10のフローチャートの処理は、制御部303によってタッチパネル2に対するユーザの指等の物体(以下、ユーザの指と記す)の接触が検知されたことを契機として開始される。タッチパネル2への接触が検知されると、まずステップ102において、制御部303は、当該検知されたタッチパネル2への接触が、スライド操作と長押し操作のいずれを表すものであるかを判定する。例えば、制御部303は、タッチパネル2上でのユーザの指の移動量および接触している時間の長さに基づいて、スライド操作か長押し操作かを識別することができる。 The process of the flowchart in FIG. 10 is started when the control unit 303 detects contact of an object such as a user's finger (hereinafter referred to as the user's finger) with the touch panel 2. When contact with the touch panel 2 is detected, first, in step 102, the control unit 303 determines whether the detected contact with the touch panel 2 represents a slide operation or a long press operation. For example, the control unit 303 can distinguish between a slide operation and a long press operation based on the amount of movement of the user's finger on the touch panel 2 and the length of time of contact.

スライド操作であると判定された場合、処理はステップ118へ進み、制御部303は、アイコンオブジェクトを含まないユーザインターフェース(図4のユーザインターフェース400を参照)をタッチパネル2に表示し、ユーザのスライド操作に応じて弾性オブジェクト420の変形とゲームキャラクタの移動を行う(図4から図7を参照)。次いで制御部303は、ステップ120において、ユーザからの操作が終了したか否かを判定する。ユーザからの操作が終了した(例えば、タッチパネル2からユーザの指が離れたことが検知された)場合、フローチャートの処理は終了し、そうでない場合、ステップ118が繰り返し実行される。 If it is determined that the operation is a slide operation, the process proceeds to step 118, where the control unit 303 displays a user interface (see user interface 400 in FIG. 4) that does not include an icon object on the touch panel 2, and deforms the elastic object 420 and moves the game character in response to the user's slide operation (see FIGS. 4 to 7). Next, in step 120, the control unit 303 determines whether or not the user's operation has ended. If the user's operation has ended (for example, it is detected that the user's finger has been removed from the touch panel 2), the process of the flowchart ends, and if not, step 118 is repeatedly executed.

一方、ステップ102において長押し操作であると判定された場合、処理はステップ104へ進み、制御部303は、アイコンオブジェクト(例えば2つのアイコンオブジェクト510および520)を含むユーザインターフェース(例えば図8のユーザインターフェース500)をタッチパネル2に表示する。 On the other hand, if it is determined in step 102 that the operation is a long press operation, the process proceeds to step 104, and the control unit 303 displays a user interface (e.g., the user interface 500 in FIG. 8) including icon objects (e.g., two icon objects 510 and 520) on the touch panel 2.

次に、ステップ106において、制御部303は、アイコンオブジェクトを含むユーザインターフェース500が表示されたタッチパネル2上でスライド操作が開始されたかどうかを判定する。例えば、制御部303は、ユーザの指とタッチパネル2との接触が維持されたまま、タッチパネル2上のユーザの指の接触位置が初めの接触位置(即ち長押し操作時の接触位置)から所定距離(例えば数ピクセル程度の微小距離)以上移動したことをもって、スライド操作が開始されたことを識別することができる。スライド操作がまだ開始されていなければ、処理はステップ122へ進んで、前述のステップ120と同様にユーザ操作終了の判定が行われる。 Next, in step 106, the control unit 303 determines whether a slide operation has been started on the touch panel 2 on which the user interface 500 including the icon object is displayed. For example, the control unit 303 can identify that a slide operation has been started when the contact position of the user's finger on the touch panel 2 has moved a predetermined distance (e.g., a very small distance of about a few pixels) or more from the initial contact position (i.e., the contact position during the long press operation) while the user's finger is still in contact with the touch panel 2. If a slide operation has not yet been started, the process proceeds to step 122, where the end of the user operation is determined in the same manner as in step 120 described above.

スライド操作が開始されると、処理はステップ108へ進む。制御部303は、ステップ108において、ユーザのスライド操作を追跡し、スライド操作の開始から所定時間以内に、ユーザの指がタッチパネル2上をスライドしていずれかのアイコンオブジェクトの位置まで到達したか否かを判定する。例えば、制御部303は、スライド操作の開始の検知(ステップ106)に応答してタイマーを始動させる。そして制御部303は、スライド操作の開始後もユーザの指とタッチパネル2との接触が維持されているかどうか、および、タイマーの計時時間が所定の長さの時間(例えば、数十ミリ秒から数百ミリ秒)を経過するよりも前に、タッチパネル2上のユーザの指の接触位置がアイコンオブジェクト510または520から所定距離の範囲内に入ったかどうかを判定する。例えば、ユーザが弾性オブジェクト420にタッチしていた指を素早くアイコンオブジェクト(510または520)までスライドさせた場合、ステップ108の判定結果は「YES」となり、処理はステップ116へ進む。 When the slide operation is started, the process proceeds to step 108. In step 108, the control unit 303 tracks the user's slide operation and determines whether the user's finger has slid across the touch panel 2 to reach the position of any icon object within a predetermined time from the start of the slide operation. For example, the control unit 303 starts a timer in response to detection of the start of the slide operation (step 106). The control unit 303 then determines whether the contact between the user's finger and the touch panel 2 is maintained even after the start of the slide operation, and whether the contact position of the user's finger on the touch panel 2 has entered within a predetermined distance from the icon object 510 or 520 before the timer's time has elapsed for a predetermined length of time (for example, tens of milliseconds to hundreds of milliseconds). For example, if the user quickly slides the finger that was touching the elastic object 420 to the icon object (510 or 520), the determination result in step 108 becomes "YES" and the process proceeds to step 116.

一方、上記のステップ108の判定において、例えば、ユーザが指を弾性オブジェクト420から少しだけスライドさせ、その指を弾性オブジェクト420とアイコンオブジェクト(510および520)との間の位置にしばらく保持した場合、その判定結果は「NO」となり、処理はステップ110へ進む。 On the other hand, in the judgment of step 108 above, for example, if the user slides his/her finger slightly away from the elastic object 420 and holds the finger between the elastic object 420 and the icon object (510 and 520) for a while, the judgment result is "NO" and the process proceeds to step 110.

処理がステップ108からステップ110へ進むと、制御部303は、タッチパネル2上のアイコンオブジェクト510および520の表示位置を変更する。前述したように、例えば、制御部303は、アイコンオブジェクト510および520が弾性オブジェクト420から遠ざかるように、その表示位置を変更するのであってよい(図9を参照)。これにより、ユーザがアイコンオブジェクト510および520に触れずにスライド操作を行えるスペースが拡大する。 When the process proceeds from step 108 to step 110, the control unit 303 changes the display positions of the icon objects 510 and 520 on the touch panel 2. As described above, for example, the control unit 303 may change the display positions of the icon objects 510 and 520 so that the icon objects 510 and 520 are moved away from the elastic object 420 (see FIG. 9). This expands the space in which the user can perform a slide operation without touching the icon objects 510 and 520.

続いてステップ112において、制御部303は、ユーザのスライド操作に応じて弾性オブジェクト420の変形とゲームキャラクタの移動を行う(ステップ118と同様)。アイコンオブジェクト510および520と弾性オブジェクト420との間のスペースが拡大したことにより、ユーザは、ゲームキャラクタを移動させるためのスライド操作をより自由に行うことができる。 Next, in step 112, the control unit 303 deforms the elastic object 420 and moves the game character in response to the user's slide operation (similar to step 118). Since the space between the icon objects 510 and 520 and the elastic object 420 has been enlarged, the user can more freely perform slide operations to move the game character.

制御部303は、更にステップ114において、スライド操作中にユーザの指がいずれかのアイコンオブジェクトに触れたか否かを判定する。ユーザの指がアイコンオブジェクトに触れることは、当該アイコンオブジェクトがユーザに選択されたことを意味する。例えば、制御部303は、タッチパネル2上のユーザの指の接触位置がアイコンオブジェクト(510または520)から所定距離の範囲内に入ったことの検知に基づいて、当該アイコンオブジェクト(510または520)が選択されたと判定することができる。ステップ114の判定結果が「YES」の場合、処理はステップ116へ進み、「NO」の場合、処理はステップ124へ進む。ステップ124では、前述のステップ120、122と同様にユーザ操作終了の判定が行われ、終了でない場合(例えばスライド操作がまだ継続している場合)、処理はステップ112へ戻る。 In step 114, the control unit 303 further determines whether the user's finger touches any of the icon objects during the slide operation. When the user's finger touches an icon object, it means that the icon object has been selected by the user. For example, the control unit 303 can determine that the icon object (510 or 520) has been selected based on detection that the touch position of the user's finger on the touch panel 2 has entered within a predetermined distance from the icon object (510 or 520). If the determination result in step 114 is "YES", the process proceeds to step 116, and if the determination result is "NO", the process proceeds to step 124. In step 124, a determination is made as in steps 120 and 122 described above as to whether the user's operation has ended, and if it has not ended (for example, if the slide operation is still continuing), the process returns to step 112.

ステップ114の判定結果が「YES」または上述したステップ108の判定結果が「YES」の場合に処理がステップ116へ進むと、制御部303は、ユーザによって選択されたアイコンオブジェクト、即ちタッチパネル2上のユーザの指の接触位置との距離が所定距離以内であるアイコンオブジェクトを特定し、当該特定されたアイコンオブジェクトに割り当てられているコマンドを実行する。こうして、ユーザは、初期位置に表示されているアイコンオブジェクトまたは表示位置が変更されたアイコンオブジェクトに指をスライドさせることで、例えばゲームキャラクタに所定のアクション(特殊攻撃など)を行わせることができる。 When the determination result of step 114 is "YES" or the determination result of step 108 described above is "YES", the process proceeds to step 116, where the control unit 303 identifies the icon object selected by the user, i.e., the icon object that is within a predetermined distance from the touch position of the user's finger on the touch panel 2, and executes the command assigned to the identified icon object. In this way, the user can make the game character perform a predetermined action (such as a special attack) by sliding his/her finger over the icon object displayed in the initial position or the icon object whose display position has been changed.

以上、本発明の実施形態を説明したが、本発明はこれに限定されず、その要旨を逸脱しない範囲内において様々な変更が可能である。 The above describes an embodiment of the present invention, but the present invention is not limited to this, and various modifications are possible without departing from the spirit of the invention.

1 スマートフォン
2 タッチパネル
3 CPU
4 主記憶
5 補助記憶
6 送受信部
7 表示部
8 入力部
301 タッチセンシング部
302 液晶表示部
303 制御部
400 ユーザインターフェース
410 固定円
420 弾性オブジェクト
430 基部
440 接続部
450 先端部
460 ゲームキャラクタ
500 ユーザインターフェース
510,520 アイコンオブジェクト
610,620 エフェクトオブジェクト
1 Smartphone 2 Touch panel 3 CPU
4 Main memory 5 Auxiliary memory 6 Transmitting/receiving unit 7 Display unit 8 Input unit 301 Touch sensing unit 302 Liquid crystal display unit 303 Control unit 400 User interface 410 Fixed circle 420 Elastic object 430 Base unit 440 Connection unit 450 Tip unit 460 Game character 500 User interface 510, 520 Icon object 610, 620 Effect object

Claims (9)

コンピュータを、
タッチパネルに対するユーザの第1操作に応じて、前記タッチパネルに第1オブジェクトと、前記第1オブジェクトとは異なる第2オブジェクトと、を含むユーザインターフェースを表示し、前記タッチパネルに対するユーザの第2操作に関連する時間の長さに応じて、前記第1オブジェクトの表示位置を制御する表示制御手段、および
前記第2操作によって前記第1オブジェクトが選択されたことに応じて、前記第1オブジェクトに割り当てられたコマンドを実行する実行手段、
として機能させ
前記表示制御手段は、前記第1操作に応じて、前記第2オブジェクトからの距離が予め定められた所定距離となる位置に前記第1オブジェクトを表示するとともに、前記第1操作が終了すると当該第1オブジェクトの表示を終了し、
前記実行手段は、前記第1操作によって表示された前記第1オブジェクトに対して前記第2操作がなされたことによって前記コマンドを実行する、
プログラム。
Computer,
a display control means for displaying a user interface including a first object and a second object different from the first object on the touch panel in response to a first operation by a user on the touch panel, and for controlling a display position of the first object in response to a length of time associated with the second operation by the user on the touch panel; and an execution means for executing a command assigned to the first object in response to the first object being selected by the second operation.
Function as a
the display control means displays the first object at a position that is a predetermined distance from the second object in response to the first operation, and terminates the display of the first object when the first operation is terminated;
the execution means executes the command in response to the second operation being performed on the first object displayed by the first operation.
program.
前記表示制御手段は、前記時間の長さが所定時間より長い場合に前記表示位置を変更する、請求項1に記載のプログラム。 The program according to claim 1, wherein the display control means changes the display position when the length of time is longer than a predetermined time. 前記表示制御手段は、前記時間の長さが前記所定時間より短い場合には前記表示位置を変更しない、請求項2に記載のプログラム。 The program according to claim 2, wherein the display control means does not change the display position if the length of time is shorter than the predetermined time. 記表示位置の変更は、前記第1オブジェクトが前記第2オブジェクトから離れるように行われる、
請求項2又は3に記載のプログラム。
the change in the display position is performed such that the first object moves away from the second object;
The program according to claim 2 or 3.
前記第1オブジェクトは、前記第2オブジェクトから放射状方向に離れる、請求項4に記載のプログラム。 The computer-readable medium according to claim 4 , wherein the first object moves radially away from the second object. 前記第1操作は長押し操作であり、前記第2操作はスライド操作である、請求項1から5のいずれか1項に記載のプログラム。 The program according to any one of claims 1 to 5, wherein the first operation is a long press operation and the second operation is a slide operation. 前記時間の長さは、ユーザによる前記スライド操作が開始されてから前記第1オブジェクトの選択が行われるまでの時間の長さである、請求項6に記載のプログラム。 The program according to claim 6 , wherein the length of time is a length of time from when the user starts the slide operation to when the first object is selected. 前記第1操作は長押し操作であり、
前記第2オブジェクトは前記長押し操作が行われた位置に表示される、
請求項4又は5に記載のプログラム。
the first operation is a long press operation,
The second object is displayed at a position where the long press operation is performed.
6. The program according to claim 4 or 5.
前記第2操作はスライド操作であり、
前記実行手段は、前記第1オブジェクトから所定距離の範囲内で前記スライド操作が検出されたことに基づいて前記コマンドを実行する、
請求項1から5のいずれか1項に記載のプログラム。
the second operation is a slide operation,
the execution means executes the command based on the detection of the slide operation within a predetermined distance range from the first object.
The program according to any one of claims 1 to 5.
JP2020081886A 2020-05-07 2020-05-07 User Interface Programs Active JP7493379B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020081886A JP7493379B2 (en) 2020-05-07 2020-05-07 User Interface Programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020081886A JP7493379B2 (en) 2020-05-07 2020-05-07 User Interface Programs

Publications (3)

Publication Number Publication Date
JP2021177281A JP2021177281A (en) 2021-11-11
JP2021177281A5 JP2021177281A5 (en) 2023-05-15
JP7493379B2 true JP7493379B2 (en) 2024-05-31

Family

ID=78409473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020081886A Active JP7493379B2 (en) 2020-05-07 2020-05-07 User Interface Programs

Country Status (1)

Country Link
JP (1) JP7493379B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011135944A1 (en) 2010-04-30 2011-11-03 日本電気株式会社 Information processing terminal and operation control method for same
JP2016126511A (en) 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント Input processing device and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011135944A1 (en) 2010-04-30 2011-11-03 日本電気株式会社 Information processing terminal and operation control method for same
JP2016126511A (en) 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント Input processing device and program

Also Published As

Publication number Publication date
JP2021177281A (en) 2021-11-11

Similar Documents

Publication Publication Date Title
JP6697120B2 (en) User interface program and game program
JP2009123208A (en) User interface for touchscreen device
JP2016206740A (en) User interface program
US9354780B2 (en) Gesture-based selection and movement of objects
KR20160005013A (en) Delay warp gaze interaction
JP5995909B2 (en) User interface program
WO2014075408A1 (en) Method and apparatus for setting virtual keyboard
JP5676036B1 (en) User interface program and game program including the program
JP2016134052A (en) Interface program and game program
JP6216862B1 (en) GAME METHOD AND GAME PROGRAM
JP2016129579A (en) Interface program and game program
JP6969516B2 (en) Programs and information processing equipment
JP6189515B1 (en) GAME METHOD AND GAME PROGRAM
JP7493379B2 (en) User Interface Programs
JP4677941B2 (en) Touch panel input method
JP2009223532A (en) Operation control method for icon interface
JP2015097583A (en) Game device with touch panel, its control method and program
JP2016202875A (en) User interface program
JP5795113B1 (en) GAME CONTROL PROGRAM, GAME CONTROL METHOD, AND GAME CONTROL DEVICE
JP2018069040A (en) Gaming method and gaming program
JP7105574B2 (en) Program and game device
JP6368263B2 (en) Information processing system, information processing apparatus, and remote operation support method
JP6201004B1 (en) User interface program
JP6552277B2 (en) Information terminal, processing execution method by information terminal, and program
JP2016004500A (en) User interface program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230502

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240521

R150 Certificate of patent or registration of utility model

Ref document number: 7493379

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150