JP2017038793A - Computer program and computer implementation method for user interface image display - Google Patents

Computer program and computer implementation method for user interface image display Download PDF

Info

Publication number
JP2017038793A
JP2017038793A JP2015162762A JP2015162762A JP2017038793A JP 2017038793 A JP2017038793 A JP 2017038793A JP 2015162762 A JP2015162762 A JP 2015162762A JP 2015162762 A JP2015162762 A JP 2015162762A JP 2017038793 A JP2017038793 A JP 2017038793A
Authority
JP
Japan
Prior art keywords
touch
area
computer program
touch screen
slide operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015162762A
Other languages
Japanese (ja)
Other versions
JP5981617B1 (en
Inventor
洋平 三宅
Yohei Miyake
洋平 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015162762A priority Critical patent/JP5981617B1/en
Priority to PCT/JP2016/073111 priority patent/WO2017030022A1/en
Application granted granted Critical
Publication of JP5981617B1 publication Critical patent/JP5981617B1/en
Publication of JP2017038793A publication Critical patent/JP2017038793A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

PROBLEM TO BE SOLVED: To achieve a dynamic UI display that does not fix placement positions and that allows a plurality of UIs to be placed simultaneously at any screen position.SOLUTION: A computer program for UI image display causes a computer comprising a touch screen to function as: a region defining unit that defines a plurality of user interface (UI) regions in a display region on the touch screen; a receiving unit that receives a plurality of touch operations by an object on the touch screen; a region allocating unit that allocates one UI region to each received touch operation; and a UI image displaying unit that displays, on the touch screen, an UI image associated with the one UI region in accordance with the corresponding received operation.SELECTED DRAWING: Figure 4

Description

本発明は、ユーザ・インタフェース(以下、「UI」と称する。)画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法に関するものである。より詳細には、スマートフォン上で実行されるゲーム(以下、「スマートフォン・ゲーム」と称する。)で使用され、物体による接触操作に応じて、視覚的に、タッチパネル上に複数のUI画像を表示させるためのコンピュータ・プログラムおよびコンピュータ実装方法に関するものである。   The present invention relates to a computer program and a computer-implemented method for displaying a user interface (hereinafter referred to as “UI”) image. More specifically, it is used in a game executed on a smartphone (hereinafter referred to as “smart phone game”), and a plurality of UI images are visually displayed on the touch panel according to a contact operation by an object. The present invention relates to a computer program and a computer mounting method.

スマートフォン・ゲームに用いられるUIとして、例えば、特許文献1に開示される従来技術が知られる。即ち、スマートフォンのタッチパネル上に2種類の操作ボタン(所謂、十字キーやジョイスティック等)を複合的に表示する従来技術である(〔要約〕参照)。   As a UI used for a smartphone game, for example, a conventional technique disclosed in Patent Document 1 is known. In other words, this is a conventional technique in which two types of operation buttons (a so-called cross key, joystick, etc.) are displayed in a composite manner on a touch panel of a smartphone (see [Summary]).

特開2012−168931号公報JP 2012-168931 A

従来技術のバーチャルな十字キーやジョイスティックは、単に、従来の家庭用ゲーム機(任天堂株式会社のファミリーコンピュータ(登録商標)等)といったゲーム体験をスマートフォン上で擬似的に提供することを目的として、物理的な操作キーを仮想的に表示したものに過ぎない。特に、従来技術の十字キーやバーチャル・ジョイスティックは、表示領域がスマートフォンの画面右下や左下といった固定位置に配置される。ユーザは操作時に指を当該固定位置に位置合わせしなければならず、且つ操作領域も制限されるといった点でユーザ操作性に制約が生じていた。特に昨今のスマートフォン・ゲームはコンテンツの複雑化に伴いユーザ操作が益々複雑化しており、ユーザ操作性に優れたUIが求められている。特に、ユーザが画面上のタッチ位置を意識することなく、タッチ操作を通じてゲーム進行を可能とするUIを実現することが望ましい。   The virtual cross keys and joysticks of the prior art are used for the purpose of providing a simulated game experience such as a conventional home game machine (such as Nintendo Family Computer (registered trademark)) on a smartphone. It is only a virtual display of typical operation keys. In particular, the cross keys and virtual joysticks of the prior art are arranged at fixed positions such as the lower right and lower left of the screen of the smartphone. The user has to restrict the user operability in that the user has to align his / her finger with the fixed position during operation and the operation area is limited. Particularly in recent smartphone games, user operations are becoming more and more complicated as content becomes more complex, and UIs with excellent user operability are required. In particular, it is desirable to realize a UI that allows a user to proceed with a game through a touch operation without being aware of the touch position on the screen.

そこで、本発明は、このようなスマートフォン・ゲームで用いるUIに関し、特にユーザ操作性に優れたUI表示のためのコンピュータ・プログラムおよびコンピュータ実装方法を提供することを目的とする。より具体的には、従来技術のように配置位置を固定することなく、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することを目的とする。   Therefore, the present invention relates to a UI used in such a smartphone game, and an object of the present invention is to provide a computer program and a computer mounting method for UI display particularly excellent in user operability. More specifically, an object is to realize a dynamic UI display that allows a plurality of UIs to be simultaneously arranged at an arbitrary screen position without fixing the arrangement position as in the prior art.

上記の課題を解決するために、本発明によれば、タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定する領域規定部と、物体によるタッチ・スクリーンへの複数のタッチ操作を受け付ける受付部と、各タッチ操作の受け付けに対し、1のUI領域を割り当てる領域割当部と、受け付けに応じて、上記1のUI領域にそれぞれ関連付けられるUI画像をタッチ・スクリーン上に表示するUI画像表示部と、として上記タッチ・スクリーンを具備するコンピュータに機能させる、UI画像表示のためのコンピュータ・プログラムが得られる。   In order to solve the above problems, according to the present invention, an area defining unit that defines a plurality of user interface (UI) areas in a display area on a touch screen, and a plurality of touches on the touch screen by an object An accepting unit that accepts an operation, an area allocating unit that assigns one UI area for accepting each touch operation, and a UI image that is associated with each UI area according to the accepting is displayed on the touch screen. A computer program for displaying a UI image is obtained which causes a UI image display unit to function as a computer having the touch screen.

また、本発明によれば、タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定するステップと、物体によるタッチ・スクリーンへの複数のタッチ操作を受け付けるステップと、各タッチ操作の受け付けに対し、1のUI領域を割り当てるステップと、上記受け付けに応じて、上記1のUI領域にそれぞれ関連付けられるUI画像をタッチ・スクリーン上に表示するステップと、を含む、タッチ・スクリーンを具備するコンピュータに実装されるUI画像表示のための方法が得られる。   According to the present invention, a step of defining a plurality of user interface (UI) regions in a display region on the touch screen, a step of receiving a plurality of touch operations on the touch screen by an object, and each touch operation A touch screen comprising: a step of allocating one UI area to the reception of the image; and a step of displaying a UI image respectively associated with the one UI area on the touch screen in response to the reception. A computer-implemented method for UI image display is obtained.

本発明の特徴点および利点は、後述する発明の詳細な説明、並びに添付の図面および特許請求の範囲の記載から明らかなものとなる。   The features and advantages of the present invention will become apparent from the following detailed description of the invention, as well as from the accompanying drawings and claims.

図1は、本発明の実施の形態によるコンピュータ・プログラムを実行するための携帯端末の模式図である。FIG. 1 is a schematic diagram of a portable terminal for executing a computer program according to an embodiment of the present invention. 図2は、図1の携帯端末の構成を模式的に示したブロック図である。FIG. 2 is a block diagram schematically showing the configuration of the mobile terminal of FIG. 図3は、図2の携帯端末における入出力の概要を示したブロック図である。FIG. 3 is a block diagram showing an outline of input / output in the mobile terminal of FIG. 図4は、本発明の実施の形態によるコンピュータ・プログラムを実行することにより図1の携帯端末に表示されるUI画像表示例である。FIG. 4 is a UI image display example displayed on the portable terminal of FIG. 1 by executing the computer program according to the embodiment of the present invention. 図5は、図4の例示の画面表示におけるUI領域の規定例である。FIG. 5 is a definition example of the UI area in the exemplary screen display of FIG. 図6は、本発明の実施の形態によるコンピュータ・プログラムを用いて実装される主要機能ブロック図である。FIG. 6 is a main functional block diagram implemented using the computer program according to the embodiment of the present invention. 図7は、本発明の実施の形態によるコンピュータ・プログラムによる情報処理について示したフローチャートである。FIG. 7 is a flowchart showing information processing by the computer program according to the embodiment of the present invention. 図8は、図7のステップS104に関する詳細な情報処理について示したフローチャートである。FIG. 8 is a flowchart showing detailed information processing related to step S104 of FIG. 図9は、図7のステップS105に関する詳細な情報処理について示したフローチャートである。FIG. 9 is a flowchart showing detailed information processing related to step S105 of FIG.

[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムは、以下のような構成を備える。
[Description of Embodiment of the Present Invention]
First, the contents of the embodiment of the present invention will be listed and described. A computer program for user input support according to an embodiment of the present invention comprises the following arrangement.

(項目1)
タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定する領域規定部と、
物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付ける受付部と、
各前記タッチ操作の受け付けに対し、1のUI領域を割り当てる領域割当部と、
前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられるUI画像を前記タッチ・スクリーン上に表示するUI画像表示部と
として前記タッチ・スクリーンを具備するコンピュータに機能させる、UI画像表示のためのコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのタッチ操作による複数のUI画像を関連付けてゲームを進行させることができ、ユーザ操作性を向上することができる。そして、配置位置を固定することのない、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することができる。
(Item 1)
An area defining unit for defining a plurality of user interface (UI) areas in a display area on the touch screen;
A reception unit that receives a plurality of touch operations on the touch screen by an object;
An area allocation unit that allocates one UI area for each touch operation received;
In response to the acceptance, a UI image display unit that displays a UI image associated with each of the one UI areas on the touch screen is caused to function on a computer having the touch screen. Computer program.
According to the computer program of this item, when holding a smartphone sideways and playing a smartphone game by two-handed operation, the game can be advanced by associating a plurality of UI images by touch operation with both hands, User operability can be improved. In addition, it is possible to realize a dynamic UI display that allows a plurality of UIs to be simultaneously arranged at arbitrary screen positions without fixing the arrangement position.

(項目2)
項目1記載のコンピュータ・プログラムであって、更に、
前記タッチ操作がスライド操作であってタッチ開始点およびタッチ終了点を有するスライド操作を構成するスライド操作構成部として前記コンピュータに機能させ、
前記領域割当部において、前記タッチ開始点の位置に従って、前記スライド操作を受け付けて前記1のUI領域が決定され、また、前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とする、コンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのスライド操作による複数のUI画像を関連付けてゲームを進行させることができ、更にユーザ操作性を向上することができる。
(Item 2)
A computer program according to item 1, further comprising:
Causing the computer to function as a slide operation component that constitutes a slide operation in which the touch operation is a slide operation and has a touch start point and a touch end point;
The area allocation unit accepts the slide operation according to the position of the touch start point to determine the one UI area, and the touch end in the display area on the touch screen for the one UI area. A computer program for accepting the slide operation until a point is specified.
According to the computer program of this item, when holding a smartphone sideways and playing a smartphone game by a two-handed operation, the game can be advanced by associating a plurality of UI images by a sliding operation with both hands, Furthermore, user operability can be improved.

(項目3)
項目2記載のコンピュータ・プログラムにおいて、
前記領域割当部において、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、項目2記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、複数のUIを併存させるルールを明確に規定することができる。
(Item 3)
In the computer program according to item 2,
The computer program according to item 2, wherein the area allocation unit is configured not to accept another touch operation in the one UI area in the slide operation during the accepting state.
According to the computer program of this item, it is possible to clearly define a rule that allows a plurality of UIs to coexist when a smartphone game is played sideways with a smartphone held sideways.

(項目4)
項目2または3記載のコンピュータ・プログラムにおいて、
前記スライド操作構成部が、
前記受け付け状態の間に、前記表示領域において所定のフレーム・レートによるフレーム毎のタッチ位置を取得し、
直前フレームにおいて前記タッチ・スクリーン上にタッチ位置が複数存在する場合に、現在フレームにおける前記スライド操作のタッチ位置に最も近い、前記直前フレームのタッチ位置の1つを前記現在フレームのタッチ位置に関連付けて、前記スライド操作の少なくとも一部を構成する、コンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、複数のUIを併存させることによる誤認識を防止することができる。
(Item 4)
In the computer program according to item 2 or 3,
The slide operation component is
During the acceptance state, a touch position for each frame at a predetermined frame rate is acquired in the display area;
When there are a plurality of touch positions on the touch screen in the immediately preceding frame, one of the touch positions of the immediately preceding frame that is closest to the touch position of the slide operation in the current frame is associated with the touch position of the current frame. A computer program constituting at least a part of the slide operation.
According to the computer program of this item, when a smartphone is held sideways and a smartphone game is played by a two-handed operation, misrecognition due to coexistence of a plurality of UIs can be prevented.

(項目5)
前記領域割当部において、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てる、項目2から4のいずれか一項記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、スライド可動領域を設定可能であり、ユーザ操作性を柔軟なものとすることができる。
(項目6)
前記領域のそれぞれは矩形で形成される、項目1から5のいずれか一項記載のコンピュータ・プログラム。
(Item 5)
Any one of Items 2 to 4, wherein the area allocation unit further allocates a slide movable area for specifying the touch end point in the display area on the touch screen in correspondence with the UI area. A computer program described in the section.
According to the computer program of this item, the slide movable area can be set, and the user operability can be made flexible.
(Item 6)
The computer program according to any one of items 1 to 5, wherein each of the areas is formed in a rectangular shape.

(項目7)
タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定するステップと、
物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付けるステップと、
各前記タッチ操作の受け付けに対し、1のUI領域を割り当てるステップと、
前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられるUI画像を前記タッチ・スクリーン上に表示するステップと
を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、UI画像表示のための方法。
本項目の方法によれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのタッチ操作による複数のUI画像を関連付けてゲームを進行させることができ、ユーザ操作性を向上することができる。そして、配置位置を固定することのない、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することができる。
(Item 7)
Defining a plurality of user interface (UI) areas in a display area on the touch screen;
Receiving a plurality of touch operations on the touch screen by an object;
Assigning one UI area to each touch operation received;
Displaying the UI images respectively associated with the one UI area on the touch screen in response to the acceptance, and implemented for a computer having the touch screen for displaying a UI image Method.
According to the method of this item, when a smartphone game is played by holding a smartphone sideways and a two-handed operation, the game can be advanced by associating a plurality of UI images by a touch operation with both hands. Can be improved. In addition, it is possible to realize a dynamic UI display that allows a plurality of UIs to be simultaneously arranged at arbitrary screen positions without fixing the arrangement position.

(項目8)
項目7記載の方法において、
前記タッチ操作がタッチ操作点およびタッチ終了点を含むスライド操作を含み、
前記UI領域を割り当てるステップが、
前記タッチ開始点の位置に従って、割り当てる前記1のUI領域を決定するステップと、
前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とするステップであって、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、ステップと
を含む、方法。
本項目の方法によれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのスライド操作による複数のUI画像を関連付けてゲームを進行させることができ、更にユーザ操作性を向上することができる。
(Item 8)
In the method according to item 7,
The touch operation includes a slide operation including a touch operation point and a touch end point;
Allocating the UI area comprises
Determining the one UI area to be assigned according to the position of the touch start point;
The step of setting the one UI region to accept the slide operation until the touch end point is specified in the display area on the touch screen, and during the accepting state, And a step configured not to accept another touch operation in one UI region.
According to the method of this item, when a smartphone game is played by holding a smartphone sideways and a two-handed operation, the game can be progressed by associating a plurality of UI images by a sliding operation with both hands, Operability can be improved.

(項目9)
項目8記載の方法において、前記UI領域を割り当てるステップが、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てるステップを含む、方法。
本項目の方法によれば、スライド可動領域を設定可能であり、ユーザ操作性を柔軟なものとすることができる。
(Item 9)
9. The method according to item 8, wherein the step of assigning the UI area further assigns a slide movable area for specifying the touch end point in the display area on the touch screen corresponding to the UI area. A method comprising steps.
According to the method of this item, the slide movable region can be set, and the user operability can be made flexible.

[本発明の実施形態の詳細]
これより図面を参照して、本発明の実施形態による、UI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法について説明する。図中、同一の構成要素には同一の符号を付してある。本発明の実施の形態によるUI画像表示のためのコンピュータ・プログラムは、主に、スマートフォン・ゲームとしてのゲーム・プログラムの一部として適用可能である。より詳しくは、本コンピュータ・プログラムは、ゲーム・プログラムの一部としてゲームを進行させ、仮想空間や該仮想空間内のゲーム・キャラクタの動作を制御するために用いることが可能である。
[Details of the embodiment of the present invention]
A computer program and a computer-implemented method for displaying a UI image according to an embodiment of the present invention will now be described with reference to the drawings. In the figure, the same components are denoted by the same reference numerals. The computer program for displaying UI images according to the embodiment of the present invention is mainly applicable as a part of a game program as a smartphone game. More specifically, the computer program can be used to advance a game as part of the game program and to control the operation of the virtual space and the game character in the virtual space.

携帯端末のハードウェア構成
図1に示すスマートフォン1は、携帯端末の一例であり、タッチパネル2を備える。スマートフォンのユーザは当該タッチパネル2上でのタッチ操作を含むユーザ操作を介してゲームの進行を制御することができる。なお、本実施の形態によるコンピュータ・プログラムを実行するための携帯端末は、図2のようなスマートフォン1に限定されず、例えば、PDA、タブレット型コンピュータのデバイスなど、タッチパネルを備える携帯端末であれば如何なるデバイスともできることが理解される。
Hardware Configuration of Mobile Terminal A smartphone 1 shown in FIG. 1 is an example of a mobile terminal and includes a touch panel 2. The user of the smartphone can control the progress of the game through a user operation including a touch operation on the touch panel 2. Note that the mobile terminal for executing the computer program according to the present embodiment is not limited to the smartphone 1 as shown in FIG. 2, and is, for example, a mobile terminal equipped with a touch panel such as a PDA or a tablet computer device. It will be appreciated that any device can be used.

図2に示すように、スマートフォン1は、互いにバス接続されたCPU3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備える。このうち主記憶4は例えばDRAMなどで構成され、補助記憶5は例えばHDDなどで構成されている。補助記憶5は、本実施の形態によるコンピュータ・プログラムやゲーム・プログラムを記録可能な記録媒体である。補助記憶5に格納された各種プログラムは、主記憶4上に展開されてCPU3によって実行される。なお、主記憶4上には、CPU3が本実施の形態によるコンピュータ・プログラムに従って動作している間に生成したデータやCPU3によって利用されるデータも一時的に格納される。送受信部6はCPU3の制御によりスマートフォン1とネットワークとの間の接続(無線接続および/または有線接続)を確立して各種情報の送受信を行う。表示部7は、CPUでの制御の下でユーザに提示することになる各種情報を表示する。入力部8は、ユーザのタッチパル2に対するタッチ入力操作(主に、タップ操作、スライド(スワイプ)操作、およびフリック操作等の物理的接触操作)を検知する。   As shown in FIG. 2, the smartphone 1 includes a CPU 3, a main memory 4, an auxiliary memory 5, a transmission / reception unit 6, a display unit 7, and an input unit 8 that are connected to each other via a bus. Of these, the main memory 4 is composed of, for example, a DRAM, and the auxiliary memory 5 is composed of, for example, an HDD. The auxiliary memory 5 is a recording medium capable of recording the computer program and game program according to the present embodiment. Various programs stored in the auxiliary memory 5 are expanded on the main memory 4 and executed by the CPU 3. Note that data generated while the CPU 3 operates in accordance with the computer program according to the present embodiment and data used by the CPU 3 are also temporarily stored on the main memory 4. The transmission / reception unit 6 establishes connection (wireless connection and / or wired connection) between the smartphone 1 and the network under the control of the CPU 3 and transmits / receives various information. The display unit 7 displays various information to be presented to the user under the control of the CPU. The input unit 8 detects a touch input operation (mainly a physical contact operation such as a tap operation, a slide (swipe) operation, and a flick operation) on the touch pal 2 of the user.

表示部7及び入力部8は、上述したタッチパネル2に相当する。図3に示すように、タッチパネル2は、入力部8に相当するタッチセンシング部301と表示部7に相当する液晶表示部302とを有する。タッチパネル2は、CPU3による制御の下で、画像を表示して、スマートフォンのユーザによるインタラクティブなタッチ操作(タッチパネル2における物理的接触操作等)を受け、制御部303での制御に基づいてそれに対応するグラフィックを液晶表示部302に表示する。   The display unit 7 and the input unit 8 correspond to the touch panel 2 described above. As illustrated in FIG. 3, the touch panel 2 includes a touch sensing unit 301 corresponding to the input unit 8 and a liquid crystal display unit 302 corresponding to the display unit 7. The touch panel 2 displays an image under the control of the CPU 3, receives an interactive touch operation (such as a physical contact operation on the touch panel 2) by a smartphone user, and responds to it based on control by the control unit 303. The graphic is displayed on the liquid crystal display unit 302.

より詳細には、上記タッチセンシング部301は、ユーザによるタッチ操作に応じた操作信号を制御部303に出力する。タッチ操作は、何れの物体によるものとすることができ、例えば、ユーザの指によりなされてもよいし、スタイラス等を用いてもよい。また、タッチセンシング部301として、例えば、静電容量タイプのものを採用することができるが、これに限定されない。制御部303は、タッチセンシング部301からの操作信号を検出すると、ユーザのキャラクタへの操作指示として判断し、当該指示操作に応じたグラフィック(図示せず)を液晶表示部へ表示信号として送信する処理を行う。液晶表示部302は、表示信号に応じたグラフィックを表示する。   More specifically, the touch sensing unit 301 outputs an operation signal corresponding to the touch operation by the user to the control unit 303. The touch operation can be performed by any object. For example, the touch operation may be performed by a user's finger, or a stylus may be used. In addition, as the touch sensing unit 301, for example, a capacitance type can be adopted, but is not limited thereto. When the control unit 303 detects an operation signal from the touch sensing unit 301, the control unit 303 determines as an operation instruction to the user's character, and transmits a graphic (not shown) corresponding to the instruction operation to the liquid crystal display unit as a display signal. Process. The liquid crystal display unit 302 displays a graphic corresponding to the display signal.

ゲーム画面例
次に図4および図5のゲーム画面例を参照しながら、本実施の形態による、ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法による動作について具体的に説明する。図4の画面例では、3次元仮想ゲーム空間内20にキャラクタ10が配置されている。そして、仮想カメラ(非図示)がキャラクタ10の手前上部から該キャラクタ10を撮影した視野画像が2次元画像としてタッチパネルに表示されている(図5でも同様)。これと同時に、2つのUI画像(画面左上の30と画面右下の40)が視界画像に重畳されている。UI画像30,40は、ユーザによるタッチパネルへのタッチ操作(例えば指によるスライド操作)の結果として、タッチパネル上に表示されたものである。
Game Screen Example Next, the operation of the computer program for displaying the user interface image and the computer-implemented method according to the present embodiment will be specifically described with reference to the game screen examples of FIGS. In the screen example of FIG. 4, the character 10 is arranged in the three-dimensional virtual game space 20. Then, a visual field image obtained by photographing the character 10 from the upper front of the character 10 by a virtual camera (not shown) is displayed on the touch panel as a two-dimensional image (the same applies to FIG. 5). At the same time, two UI images (30 at the upper left of the screen and 40 at the lower right of the screen) are superimposed on the view field image. The UI images 30 and 40 are displayed on the touch panel as a result of a touch operation on the touch panel by the user (for example, a slide operation with a finger).

スマートフォン・ゲームでは、通例、ユーザが端末を縦持ちして片手で操作することが多いが、勿論これに限らず、横持ちにより端末を両手で操作してもよい。両手で画面を操作する場合は、左手と右手によりそれぞれタッチ操作が許容されるべきであり、図示したUI画像30,40も、左手と右手のタッチ操作によるものにそれぞれ対応するものとすることができる。   In smartphone games, the user usually holds the terminal vertically and often operates with one hand, but of course, the present invention is not limited to this, and the terminal may be operated with both hands. When the screen is operated with both hands, the touch operation should be allowed with the left hand and the right hand, respectively, and the UI images 30 and 40 shown in FIG. it can.

そして、これらのUI画像により、ゲーム進行命令が生成および実行される。例えば、左手によるUI画像30は「Move」と表示されているとおり、UI画像が示している(右上)方向にキャラクタ10をゲーム空間20内の平面上を移動させる命令を実行する。同様に、右手によるUI画像40は「Camera」と表示されているとおり、UI画像が示している右上方向に視野を変更するよう仮想カメラをゲーム空間20内で移動させる命令を実行する。   Then, a game progress command is generated and executed from these UI images. For example, as the UI image 30 with the left hand is displayed as “Move”, an instruction to move the character 10 on the plane in the game space 20 in the direction (upper right) indicated by the UI image is executed. Similarly, as the UI image 40 with the right hand is displayed as “Camera”, an instruction to move the virtual camera in the game space 20 is executed so as to change the field of view in the upper right direction indicated by the UI image.

ところで、このようなタッチ操作、特にスライド操作による複数のUI画像を表示させ、複数のゲーム進行命令を生成する場合、タッチパネルの全域にわたり完全に自由にユーザ操作可能とするのは、コンピュータ・プログラム上、幾分か困難性を有する。例えば、ユーザが右手と左手でそれぞれスライド操作を実施しており、これらが相互に接近、更には交差するような場合に、どちらの手によるスライド操作かをプログラムが判定することが困難となり、スライド操作を誤認識する場合がある。   By the way, when displaying a plurality of UI images by such a touch operation, particularly a slide operation, and generating a plurality of game progress commands, it is possible to make the user operation completely freely over the entire touch panel on the computer program. Have some difficulty. For example, when the user performs slide operations with the right hand and the left hand, and the two approach or cross each other, it becomes difficult for the program to determine which hand is used for the slide operation. The operation may be misrecognized.

そこで、本発明の実施の形態では、図5に示すように、タッチパネル上の表示領域に対し、複数のUIを生成するための複数のUI領域を予め規定し、ルールを明確化しておく。即ち、1つのUI領域に対して、例えば1つのUI画像を生成するように構成するというようなルールを予め規定する。図5(a)の例では、左手用と右手用のUI領域として画面を左半分Z1と右半分Z2の2つに分割しておき、それぞれに対して、スライド操作により1つずつUI画像を生成可能とする。その際、生成される各UI画像に対し、UI領域に関連付けるようにして異なる視覚表示を施してもよい。例えば、Z1のUI画像30には橙色で色彩効果を、Z2のUI画像40には緑色の色彩効果を施すようにしてもよい。   Therefore, in the embodiment of the present invention, as shown in FIG. 5, a plurality of UI areas for generating a plurality of UIs are defined in advance for the display area on the touch panel, and the rules are clarified. That is, a rule is defined in advance so that, for example, one UI image is generated for one UI area. In the example of FIG. 5A, the left and right hand UI areas are divided into two parts, a left half Z1 and a right half Z2, and one UI image is obtained for each by slide operation. It can be generated. At this time, different visual displays may be performed on the generated UI images so as to be associated with the UI area. For example, an orange color effect may be applied to the Z1 UI image 30, and a green color effect may be applied to the Z2 UI image 40.

UI領域は図5(a)のように2つに限定されず、図5(b)のようにZ3(実線領域)、Z4(破線領域)、Z5(点線領域)の3つでもそれ以上の任意の数としてもよいことが当業者にとって理解される。また、各UI領域の形状や大きさも任意のものとすることができる。例えば、UI領域の形状は図5(a)〜(c)のように矩形とするのがよいが、これに限定されず、他にも曲線領域としてもよい。   The UI area is not limited to two as shown in FIG. 5 (a), and even three or more of Z3 (solid line area), Z4 (dashed line area), and Z5 (dotted line area) as shown in FIG. 5 (b). It will be appreciated by those skilled in the art that any number may be used. In addition, the shape and size of each UI region can be arbitrary. For example, the shape of the UI area is preferably a rectangle as shown in FIGS. 5A to 5C, but is not limited to this, and may be a curved area.

図5(c)は、左手用と右手用のUI領域として画面を左領域Z6と右領域Z7の2つに分割し、Z6では左手によるスライド操作を、Z7では右手によるスライド操作を受け付けて、各々UI画像30,40を表示している。ここでは、領域Z6によるUI画像30は、スライド操作の始点30aが領域Z6内に含まれてさえいればよく、スライド操作の終点30bも領域Z6に含まれる必要がない点に留意すべきである。即ち、ユーザによるタッチ操作を受け付けたタッチ開始位置が、各領域のいずれかに含まれ、関連付けばよい。   FIG. 5C shows a left-hand and right-hand UI area divided into two areas, a left area Z6 and a right area Z7, and Z6 accepts a left-hand slide operation and Z7 accepts a right-hand slide operation. UI images 30 and 40 are respectively displayed. Here, it should be noted that the UI image 30 in the region Z6 only needs to include the slide operation start point 30a in the region Z6, and the slide operation end point 30b need not be included in the region Z6. . That is, the touch start position where the touch operation by the user is received is included in any of the areas and may be associated.

また、スライド操作の終点30bを特定するために、UI領域とは別個、且つUI領域に対応したスライド可動領域を導入してもよい。スライド可動領域は、ユーザによるスライド操作を許容可能な領域である。スライド操作の始点30aが上記UI領域内で特定されるのと同様に、スライド操作の終点30bが当該スライド可動領域内で特定される。スライド可動領域は、UI領域を包含するものであれば何れでもよい。具体的には、タッチパネルの表示領域全域(即ちゲーム画面全域)としてもよく、また、スライド可動領域とUI領域が同一領域となるようにしてもよい。スライド操作のタッチ位置が当該スライド可動領域内にある場合はその間UI画像を表示し、他方、当該スライド可動領域から外れた場合には、それまで表示されていたUI画像を画面から消失させるように表示制御を行うのがよい。   Further, in order to specify the end point 30b of the slide operation, a slide movable area corresponding to the UI area may be introduced separately from the UI area. The slide movable area is an area where a user can allow a slide operation. The slide operation end point 30b is specified in the slide movable area in the same manner as the slide operation start point 30a is specified in the UI area. The slide movable area may be any as long as it includes the UI area. Specifically, it may be the entire display area of the touch panel (that is, the entire game screen), or the slide movable area and the UI area may be the same area. When the touch position of the slide operation is within the slide movable area, the UI image is displayed during that time. On the other hand, when the slide operation is out of the slide movable area, the UI image that has been displayed is erased from the screen. Display control should be performed.

このように、スライド操作の終点はUI領域には拘束されないように構成することにより、本発明はUI領域とは異なるスライド可動領域でのスライド操作を可能にし、ユーザ操作性を向上させることができるという利点を有する。なお、図5では、ユーザによるスライド操作を例に説明したが、これには限定されず、タップ操作、スワイプ操作およびスライド操作等、タッチパネルに対する如何なる物理的接触操作としてもよいことが理解されるべきである。   As described above, by configuring the end point of the slide operation not to be constrained by the UI area, the present invention enables a slide operation in a slide movable area different from the UI area, and improves user operability. Has the advantage. In FIG. 5, the slide operation by the user has been described as an example. However, the present invention is not limited to this, and it should be understood that any physical contact operation on the touch panel such as a tap operation, a swipe operation, and a slide operation may be used. It is.

UI画像表示処理
これより図6〜図9を参照して、本実施の形態によるUI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法について説明する。
UI Image Display Processing A computer program and a computer-implemented method for displaying a UI image according to this embodiment will now be described with reference to FIGS.

図6は、コンピュータ・プログラムとして実装され、タッチパネルを具備する携帯端末に機能させる主要な機能のセットについて示す。当該機能セットを通じて、操作信号としての入力を処理して、表示信号としての出力を生成することになる。当該機能セットは、タッチパネルを通じたユーザ入力操作およびオブジェクト形成に関連するユーザ操作部100、並びに当該ユーザ入力操作に応じたゲーム進行や仮想空間内のキャラクタを操作させるゲーム進行部(キャラクタ操作)200を含む。   FIG. 6 shows a set of main functions implemented as a computer program and functioning in a portable terminal having a touch panel. Through the function set, an input as an operation signal is processed to generate an output as a display signal. The function set includes a user operation unit 100 related to a user input operation and object formation through a touch panel, and a game progress unit (character operation) 200 for operating a game in accordance with the user input operation or a character in a virtual space. Including.

ユーザ操作部100は、主に、図5で説明したUI領域を規定するための領域規定部110、タッチパネルへのタッチ操作やデタッチ操作を判定する接触・非接触判定部120、スライド操作等のタッチ操作を複数受け付けるタッチ操作受付部130、タッチ操作のそれぞれの受け付けに対し、1のUI領域および対応するスライド可動領域を割り当て可能な領域割当部140、タッチ開始点からタッチ終了点に向けたスライド操作を構成するスライド操作構成部150、そして、上記タッチ操作に対して生成されるUI画像を表示するためのUI画像表示部160を含む。UI画像表示部160で生成されたUI画像は、図4のようにゲーム画像に重畳されると共に、ゲーム進行部200において、対応するゲーム進行命令を生成および実行してゲームを進行させる。   The user operation unit 100 mainly includes an area defining unit 110 for defining the UI area described with reference to FIG. 5, a contact / non-contact determining unit 120 that determines a touch operation or a detach operation on the touch panel, and a touch such as a slide operation. Touch operation accepting unit 130 that accepts a plurality of operations, an area assigning unit 140 that can assign one UI area and a corresponding slide movable area to accept each touch operation, and a slide operation from the touch start point to the touch end point And a UI image display unit 160 for displaying a UI image generated in response to the touch operation. The UI image generated by the UI image display unit 160 is superimposed on the game image as shown in FIG. 4, and the game progression unit 200 generates and executes a corresponding game progression instruction to advance the game.

図7から図9は、本実施の形態によるUI画像表示のためのコンピュータ実装方法について説明したフロー図である。
図7のステップS101では、領域規定部110によって、図5(a)(b)の画面例のように、タッチ・スクリーン上の表示領域に複数のUI領域を規定する。当該動作は、ゲームプレイ時に設定されていればよく、例えばゲーム・プログラム開発時に開発者によって設定されてもよいし、アプリケーションダウンロード後の初期設定時にユーザによって設定されても何れでもよい。当該ステップS101で複数のUI領域が予め規定され、ユーザによるゲームプレイが開始されると、ステップS102に進む。ステップS102では、接触・非接触判定部120によって、ユーザの指等の物体によるタッチ・スクリーンへの1または複数のタッチ操作・デタッチ操作の判定およびタッチ状態の判定処理が実施される。そして、当該ステップS102でタッチ操作が判定されると、次のステップS103以降へと進む。
7 to 9 are flowcharts illustrating a computer-implemented method for displaying a UI image according to this embodiment.
In step S101 of FIG. 7, the area defining unit 110 defines a plurality of UI areas in the display area on the touch screen as in the screen examples of FIGS. The operation may be set at the time of game play. For example, the operation may be set by the developer at the time of game program development, or may be set by the user at the time of initial setting after downloading the application. When a plurality of UI areas are defined in advance in step S101 and game play by the user is started, the process proceeds to step S102. In step S102, the contact / non-contact determining unit 120 performs determination of one or more touch operations / detach operations to the touch screen by an object such as a user's finger and a touch state determination process. When the touch operation is determined in step S102, the process proceeds to the next step S103 and subsequent steps.

ステップS103では、タッチ操作受付部130によって、複数のタッチ操作を受け付ける。そして、ステップS104では、当該タッチ操作のそれぞれの受け付けに対し、領域割当部140によって、1のUI領域を割り当てる。タッチ操作がタッチ開始点およびタッチ終了点を有するスライド操作の場合には、更にUI領域に対応するスライド可動領域も割り当てる。引き続きステップS105において、スライド操作構成部150によってスライド操作として構成する。なお、ステップS104,S105の詳細については次の図8および図9を用いてそれぞれ後述する。   In step S <b> 103, the touch operation receiving unit 130 receives a plurality of touch operations. In step S <b> 104, one UI area is allocated by the area allocation unit 140 for each reception of the touch operation. When the touch operation is a slide operation having a touch start point and a touch end point, a slide movable area corresponding to the UI area is also assigned. In step S105, the slide operation configuration unit 150 configures the slide operation. Details of steps S104 and S105 will be described later with reference to FIGS.

最後に、ステップS106では、UI画像表示部160によって、S103でのタッチ操作の受け付けに応じてステップS104で割り当てられた1のUI領域に対してそれぞれ関連付けられる、対応するUI画像をタッチ・スクリーン上に表示してゲーム画像に重畳する。例えば、上記タッチ操作がスライド操作の場合は、図4に示した半透明で且つUI領域に応じて色彩処理が施されたUI画像が表示される。また、例えば、タッチ操作がタップ操作の場合は、タップした位置を中心に円形状のUI画像をUI領域に応じて色彩処理が施して表示する(非図示)。   Finally, in step S106, the UI image display unit 160 displays the corresponding UI images respectively associated with the one UI area assigned in step S104 in response to acceptance of the touch operation in S103 on the touch screen. And superimposed on the game image. For example, when the touch operation is a slide operation, the translucent UI image shown in FIG. 4 and subjected to color processing according to the UI area is displayed. Further, for example, when the touch operation is a tap operation, a circular UI image centered on the tapped position is subjected to color processing according to the UI area and displayed (not shown).

上記のステップS104,S105の処理に関連して、これより図8および図9をそれぞれ参照して詳述する。なお、図8および図9ではタッチ操作がスライド操作であることを想定し、即ち、タッチ操作がタッチ開始点およびタッチ終了点を含むものとして説明するが、これに限定されない。なおタッチ開始点およびタッチ終了点は、接触・非接触判定部120によって判定可能である。   In relation to the processing of steps S104 and S105, detailed description will be made with reference to FIGS. 8 and 9, respectively. 8 and 9, it is assumed that the touch operation is a slide operation, that is, the touch operation includes a touch start point and a touch end point. However, the present invention is not limited to this. Note that the touch start point and the touch end point can be determined by the contact / non-contact determination unit 120.

図8は、上記ステップS104の処理について詳細に説明したフロー図であり、主に領域割当部140によって実行されるものである。まず、ステップS103での出力を受け、ステップS1041では、タッチ開始位置に従って、スライド操作を受け付けて、関連する1のUI領域を仮決定する。ステップS1042では、当該1のUI領域が他のスライド操作により受け付け状態に設定されていないか否かを判定する。そして、当該1のUI領域が受け付け状態外(即ち、新規受け付け可能状態)の場合に、ステップS1043に進み、当該1のUI領域を本決定することより、スライド操作の受け付けに対して割り当てを行う。ステップS1044では、当該1のUI領域の本決定に対応して、スライド可動領域をUI領域に関連付けて割り当てる。次いで、ステップS105(図9)に進む。   FIG. 8 is a flowchart illustrating in detail the processing in step S104, which is mainly executed by the area allocation unit 140. First, the output in step S103 is received, and in step S1041, a slide operation is accepted according to the touch start position, and one related UI area is provisionally determined. In step S <b> 1042, it is determined whether or not the one UI area is set to the accepting state by another slide operation. If the one UI area is not in the accepting state (that is, in a new accepting state), the process proceeds to step S1043, and the one UI area is determined to make an assignment for accepting the slide operation. . In step S1044, in response to the main determination of the one UI area, the slide movable area is allocated in association with the UI area. Next, the process proceeds to step S105 (FIG. 9).

他方、ステップS1042において受け付け状態の場合に、タッチ操作はなかったものとして無効化され、ステップS1041で仮決定したUI領域もクリアされる。即ち、ステップS1042およびステップS1044の一連の流れでは、スライド操作の対象UI領域について受け付け状態の間は、他のタッチ操作を受け付けることが抑止される。   On the other hand, in the accepting state in step S1042, the touch operation is invalidated as being absent, and the UI area provisionally determined in step S1041 is also cleared. In other words, in the series of steps S1042 and S1044, receiving of another touch operation is inhibited while the slide operation target UI area is in the accepting state.

図9は、上記ステップS105の処理について詳細に説明したフロー図であり、主にスライド操作構成部150によって実行される。なお、本処理は、タッチ操作がスライド操作の場合のみ機能する(ステップS1051)。   FIG. 9 is a flowchart illustrating in detail the processing in step S105, which is mainly executed by the slide operation configuration unit 150. This process functions only when the touch operation is a slide operation (step S1051).

ステップS1052では、スライド操作を受けたことに応じて、対象となるUI領域について、スライド操作の受け付け状態として設定する。当該受け付け状態は、後のステップS1058まで維持される。スライド操作の間、ステップS1053では、所定のフレーム・レート(例えば、標準的には30fps)に従って取得されるフレーム毎のタッチ位置を記憶部に一時的に格納する。これは、図4および図5に例示したように、1つのタッチパネル領域上で複数のスライド操作が実施される場合は、複数のスライド操作位置が相互に接近または交差することを考慮したものである。この場合、接近または交差の際にどちらのスライド操作であるかを誤判定することなく判断する必要が生じるが、そのためには、次に説明するようにフレーム毎の位置情報を用いて対処するのが好ましいからである。   In step S1052, in response to receiving the slide operation, the target UI area is set as a slide operation acceptance state. The reception state is maintained until later step S1058. During the slide operation, in step S1053, the touch position for each frame acquired according to a predetermined frame rate (for example, 30 fps is standard) is temporarily stored in the storage unit. As illustrated in FIG. 4 and FIG. 5, when a plurality of slide operations are performed on one touch panel region, this takes into account that a plurality of slide operation positions approach or intersect each other. . In this case, it is necessary to determine which sliding operation is performed when approaching or intersecting without making a misjudgment, but for this purpose, as described below, the position information for each frame is used. Is preferable.

現在の直前時点のフレーム(「直前フレーム」と称する。)において、図4および図5の例のように複数のタッチ位置が取得される場合(ステップS1054)は、ステップS1055において、現在時点のフレーム(「現在フレーム」と称する。)におけるタッチ位置に最も近い、上記直前フレームの1つのタッチ位置を選択し、現在フレームのタッチ位置に関連付けて、スライド操作の少なくとも一部を構成するのがよい。このように、常に1フレーム前の直前フレームのタッチ位置を記憶し、現在フレームとの位置関係に応じて判断することにより、他のスライド操作と誤って認識するのを防止することができる。なお、直前フレームにおいて1つの(即ち自身の)タッチ位置のみしか取得されない場合は、ステップS1056において当該タッチ位置を現在フレームでのタッチ位置に関連付けて、スライド操作の少なくとも一部を構成すればよい。   In a case where a plurality of touch positions are acquired as in the example of FIGS. 4 and 5 in a frame immediately before the current time point (referred to as “previous frame”) (step S1054), in step S1055, the frame at the current time point is acquired. One touch position of the immediately preceding frame closest to the touch position (referred to as “current frame”) is selected, and at least a part of the slide operation may be configured in association with the touch position of the current frame. In this way, by always storing the touch position of the immediately preceding frame one frame before and making a determination according to the positional relationship with the current frame, it is possible to prevent erroneous recognition as another slide operation. When only one (that is, own) touch position is acquired in the immediately preceding frame, at least a part of the slide operation may be configured by associating the touch position with the touch position in the current frame in step S1056.

最終的にステップS1057において、接触・非接触判定部120によってタッチ終了点が特定されると、ステップS1058においてスライド操作の受け付け状態を解除して、本ステップS105は終了し、上記説明したステップS106へ進む。   Finally, when the touch end point is specified by the contact / non-contact determination unit 120 in step S1057, the slide operation acceptance state is canceled in step S1058, and this step S105 ends, and the above-described step S106 is performed. move on.

なお、図5(c)で説明したように、スライド操作の場合のタッチ終了点は、当該スライド操作に割り当てられたUI領域には制約されずに、スライド可動領域内で特定するのがよい。即ち、タッチ終了点はスライド可動領域内の任意の位置とすることができる。特に、スライド可動領域をタッチパネルの表示領域全体と設定した場合は、ユーザは、任意の時間・任意の距離だけスライド操作することが可能である。   As described with reference to FIG. 5C, the touch end point in the case of the slide operation is not limited to the UI area assigned to the slide operation, and may be specified in the slide movable area. That is, the touch end point can be set to an arbitrary position within the slide movable area. In particular, when the slide movable area is set as the entire display area of the touch panel, the user can perform a slide operation for an arbitrary time and an arbitrary distance.

これら各ステップでの処理を通じて最終的に、図4に示したように、複数のUI画像がゲーム画像に重畳され、各UI画像に関連付けられた命令が実行されて、ゲーム進行が行われる。   Finally, as shown in FIG. 4, a plurality of UI images are superimposed on the game image, and a command associated with each UI image is executed as shown in FIG.

本実施の形態による、UI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法によれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームをプレイした場合に、両手でのタッチ操作による複数のUI画像を関連付けてゲームを進行させることができ、ユーザ操作性を向上することができる。そして、配置位置を固定することのない、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することができる。   According to the computer program and the computer mounting method for displaying a UI image according to the present embodiment, when a smartphone game is played by holding a smartphone sideways and a two-hand operation, a plurality of UIs by a touch operation with both hands is used. The game can be progressed in association with images, and user operability can be improved. In addition, it is possible to realize a dynamic UI display that allows a plurality of UIs to be simultaneously arranged at arbitrary screen positions without fixing the arrangement position.

以上、本発明の実施形態によるUI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法について、例示しながら説明した。上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The computer program and the computer mounting method for displaying the UI image according to the embodiment of the present invention have been described above by way of example. The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

Claims (9)

タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定する領域規定部と、
物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付ける受付部と、
各前記タッチ操作の受け付けに対し、1のUI領域を割り当てる領域割当部と、
前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられるUI画像を前記タッチ・スクリーン上に表示するUI画像表示部と
として前記タッチ・スクリーンを具備するコンピュータに機能させる、UI画像表示のためのコンピュータ・プログラム。
An area defining unit for defining a plurality of user interface (UI) areas in a display area on the touch screen;
A reception unit that receives a plurality of touch operations on the touch screen by an object;
An area allocation unit that allocates one UI area for each touch operation received;
In response to the acceptance, a UI image display unit that displays a UI image associated with each of the one UI areas on the touch screen is caused to function on a computer having the touch screen. Computer program.
請求項1記載のコンピュータ・プログラムであって、更に、
前記タッチ操作がスライド操作の場合に、タッチ開始点およびタッチ終了点を有するスライド操作を構成するスライド操作構成部として前記コンピュータに機能させ、
前記領域割当部において、前記タッチ開始点の位置に従って前記スライド操作を受け付けて前記1のUI領域が決定され、また、前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とする、コンピュータ・プログラム。
The computer program according to claim 1, further comprising:
When the touch operation is a slide operation, the computer is caused to function as a slide operation configuration unit that configures a slide operation having a touch start point and a touch end point.
In the area allocation unit, the one UI area is determined by receiving the slide operation according to the position of the touch start point, and the touch end point in the display area on the touch screen for the one UI area. A computer program in which the slide operation is accepted until is identified.
請求項2記載のコンピュータ・プログラムにおいて、
前記領域割当部において、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、請求項2記載のコンピュータ・プログラム。
The computer program according to claim 2, wherein
The computer program according to claim 2, wherein the area allocation unit is configured not to accept another touch operation in the first UI area in the slide operation during the accepting state.
請求項2または3記載のコンピュータ・プログラムにおいて、
前記スライド操作構成部が、
前記受け付け状態の間に、前記表示領域において所定のフレーム・レートによるフレーム毎のタッチ位置を取得し、
直前フレームにおいて前記タッチ・スクリーン上にタッチ位置が複数存在する場合に、現在フレームにおける前記スライド操作のタッチ位置に最も近い、前記直前フレームのタッチ位置の1つを前記現在フレームのタッチ位置に関連付けて、前記スライド操作の少なくとも一部を構成する、コンピュータ・プログラム。
The computer program according to claim 2 or 3,
The slide operation component is
During the acceptance state, a touch position for each frame at a predetermined frame rate is acquired in the display area;
When there are a plurality of touch positions on the touch screen in the immediately preceding frame, one of the touch positions of the immediately preceding frame that is closest to the touch position of the slide operation in the current frame is associated with the touch position of the current frame. A computer program constituting at least a part of the slide operation.
前記領域割当部において、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てる、請求項2から4のいずれか一項記載のコンピュータ・プログラム。   The area allocation unit further allocates a slide movable area for specifying the touch end point in the display area on the touch screen in correspondence with the UI area. A computer program according to one item. 前記UI領域のそれぞれは矩形で形成される、請求項1から5のいずれか一項記載のコンピュータ・プログラム。   The computer program according to claim 1, wherein each of the UI areas is formed in a rectangular shape. タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定するステップと、
物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付けるステップと、
各前記タッチ操作の受け付けに対し、1のUI領域を割り当てるステップと、
前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられるUI画像を前記タッチ・スクリーン上に表示するステップと
を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、UI画像表示のための方法。
Defining a plurality of user interface (UI) areas in a display area on the touch screen;
Receiving a plurality of touch operations on the touch screen by an object;
Assigning one UI area to each touch operation received;
Displaying the UI images respectively associated with the one UI area on the touch screen in response to the acceptance, and implemented for a computer having the touch screen for displaying a UI image Method.
請求項7記載の方法において、
前記タッチ操作がタッチ操作点およびタッチ終了点を含むスライド操作を含み、
前記UI領域を割り当てるステップが、
前記タッチ開始点の位置に従って、割り当てる前記1のUI領域を決定するステップと、
前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とするステップであって、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、ステップと
を含む、方法。
The method of claim 7, wherein
The touch operation includes a slide operation including a touch operation point and a touch end point;
Allocating the UI area comprises
Determining the one UI area to be assigned according to the position of the touch start point;
The step of setting the one UI region to accept the slide operation until the touch end point is specified in the display area on the touch screen, and during the accepting state, And a step configured not to accept another touch operation in one UI region.
請求項8記載の方法において、前記UI領域を割り当てるステップが、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てるステップを含む、方法。   9. The method according to claim 8, wherein the step of assigning the UI area further includes a slide movable area for specifying the touch end point in the display area on the touch screen corresponding to the UI area. A method comprising the step of assigning.
JP2015162762A 2015-08-20 2015-08-20 Computer program and computer-implemented method for displaying user interface images Active JP5981617B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015162762A JP5981617B1 (en) 2015-08-20 2015-08-20 Computer program and computer-implemented method for displaying user interface images
PCT/JP2016/073111 WO2017030022A1 (en) 2015-08-20 2016-08-05 Computer program and computer implementation method for user interface image display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015162762A JP5981617B1 (en) 2015-08-20 2015-08-20 Computer program and computer-implemented method for displaying user interface images

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016138973A Division JP2017041237A (en) 2016-07-13 2016-07-13 Computer program and computer implementation method for user interface image display

Publications (2)

Publication Number Publication Date
JP5981617B1 JP5981617B1 (en) 2016-08-31
JP2017038793A true JP2017038793A (en) 2017-02-23

Family

ID=56820065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015162762A Active JP5981617B1 (en) 2015-08-20 2015-08-20 Computer program and computer-implemented method for displaying user interface images

Country Status (2)

Country Link
JP (1) JP5981617B1 (en)
WO (1) WO2017030022A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018084169A1 (en) * 2016-11-01 2018-05-11 株式会社コロプラ Gaming method and gaming program
CN116450020A (en) * 2017-09-26 2023-07-18 网易(杭州)网络有限公司 Virtual shooting subject control method and device, electronic equipment and storage medium
JP7341067B2 (en) 2020-01-09 2023-09-08 日立建機株式会社 Dump truck

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (en) * 2005-11-14 2007-05-31 Nintendo Co Ltd Game machine and game program
JP2012033060A (en) * 2010-07-30 2012-02-16 Sony Corp Information processing device, display control method and display control program
JP4932010B2 (en) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス User interface processing device, user interface processing method, and user interface processing program
JP2012168931A (en) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc Input device, information processing device and input value acquisition method
JP2014191612A (en) * 2013-03-27 2014-10-06 Ntt Docomo Inc Information terminal, information input auxiliary method, and information input auxiliary program
JP5711409B1 (en) * 2014-06-26 2015-04-30 ガンホー・オンライン・エンターテイメント株式会社 Terminal device
JP2015222595A (en) * 2014-04-04 2015-12-10 株式会社コロプラ User interface program and game program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (en) * 2005-11-14 2007-05-31 Nintendo Co Ltd Game machine and game program
JP4932010B2 (en) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス User interface processing device, user interface processing method, and user interface processing program
JP2012033060A (en) * 2010-07-30 2012-02-16 Sony Corp Information processing device, display control method and display control program
JP2012168931A (en) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc Input device, information processing device and input value acquisition method
JP2014191612A (en) * 2013-03-27 2014-10-06 Ntt Docomo Inc Information terminal, information input auxiliary method, and information input auxiliary program
JP2015222595A (en) * 2014-04-04 2015-12-10 株式会社コロプラ User interface program and game program
JP5711409B1 (en) * 2014-06-26 2015-04-30 ガンホー・オンライン・エンターテイメント株式会社 Terminal device

Also Published As

Publication number Publication date
JP5981617B1 (en) 2016-08-31
WO2017030022A1 (en) 2017-02-23

Similar Documents

Publication Publication Date Title
US20200004387A1 (en) Display device and method of indicating an active region in a multi-window display
JP6130096B2 (en) Touch screen terminal and method of controlling screen display in the terminal
US9880727B2 (en) Gesture manipulations for configuring system settings
JP6036807B2 (en) Information processing apparatus, information processing method, and program
JP2022140510A (en) Image processing apparatus, control method of image processing apparatus, and program
CN106873886B (en) Control method and device for stereoscopic display and electronic equipment
JP5522755B2 (en) INPUT DISPLAY CONTROL DEVICE, THIN CLIENT SYSTEM, INPUT DISPLAY CONTROL METHOD, AND PROGRAM
KR102205283B1 (en) Electro device executing at least one application and method for controlling thereof
JP6470111B2 (en) Game program having message transmission function, message transmission method, and computer terminal with message transmission function
JP5981617B1 (en) Computer program and computer-implemented method for displaying user interface images
EP2911115B1 (en) Electronic device and method for color extraction
JP2018097649A (en) Program, image control apparatus and image control method
JP2017140342A (en) User interface program, game program including the program, and control method
US10901549B2 (en) Program, computer apparatus, program execution method, and system
JP5888793B2 (en) Object control program and object control method
JP7080711B2 (en) Electronic devices, control methods, programs, and storage media for electronic devices
WO2014034549A1 (en) Information processing device, information processing method, program, and information storage medium
JP2017041237A (en) Computer program and computer implementation method for user interface image display
JP2017188140A (en) Program, computer device, program execution method, and system
JP2015022675A (en) Electronic apparatus, interface control method, and program
JP2016130888A (en) Computer program for icon selection, portable terminal, and computer mounting method
KR20150096171A (en) Contents processing apparatus and method for displaying a menu thereof
US9143588B2 (en) Portable terminal device having an enlarged-display function, method for controlling enlarged display, and computer-read-enabled recording medium
JP2019053196A (en) Information processing device, and screen control method
JP6081537B2 (en) Information processing apparatus, information processing method, program, and information storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160728

R150 Certificate of patent or registration of utility model

Ref document number: 5981617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250