WO2017030022A1 - ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法 - Google Patents

ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法 Download PDF

Info

Publication number
WO2017030022A1
WO2017030022A1 PCT/JP2016/073111 JP2016073111W WO2017030022A1 WO 2017030022 A1 WO2017030022 A1 WO 2017030022A1 JP 2016073111 W JP2016073111 W JP 2016073111W WO 2017030022 A1 WO2017030022 A1 WO 2017030022A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
area
computer program
touch screen
slide operation
Prior art date
Application number
PCT/JP2016/073111
Other languages
English (en)
French (fr)
Inventor
洋平 三宅
Original Assignee
株式会社コロプラ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コロプラ filed Critical 株式会社コロプラ
Publication of WO2017030022A1 publication Critical patent/WO2017030022A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to a computer program and a computer-implemented method for displaying a user interface (hereinafter referred to as “UI”) image. More specifically, it is used in a game executed on a smartphone (hereinafter referred to as “smart phone game”), and a plurality of UI images are visually displayed on the touch panel according to a contact operation by an object.
  • UI user interface
  • the present invention relates to a computer program and a computer mounting method.
  • Patent Document 1 As a UI used for a smartphone game, for example, a conventional technique disclosed in Patent Document 1 is known. In other words, this is a conventional technique in which two types of operation buttons (a so-called cross key, joystick, etc.) are displayed in a composite manner on a touch panel of a smartphone (see [Summary]).
  • the virtual cross keys and joysticks of the prior art are used for the purpose of providing a simulated game experience such as a conventional home game machine (such as Nintendo Family Computer (registered trademark)) on a smartphone. It is only a virtual display of typical operation keys.
  • the cross keys and virtual joysticks of the prior art are arranged at fixed positions such as the lower right and lower left of the screen of the smartphone.
  • the user has to restrict the user operability in that the user has to align his / her finger with the fixed position during operation and the operation area is limited.
  • user operations are becoming more and more complicated as content becomes more complex, and UIs with excellent user operability are required.
  • the present invention relates to a UI used in such a smart phone game, and an object thereof is to provide a computer program and a computer mounting method for displaying a UI excellent in user operability. More specifically, an object is to realize a dynamic UI display that allows a plurality of UIs to be simultaneously arranged at an arbitrary screen position without fixing the arrangement position as in the prior art.
  • an area defining unit that defines a plurality of user interface (UI) areas in a display area on a touch screen, and a plurality of touches on the touch screen by an object
  • An accepting unit that accepts an operation, an area allocating unit that assigns one UI area for accepting each touch operation, and a UI image that is associated with each UI area according to the accepting is displayed on the touch screen.
  • a computer program for displaying a UI image is obtained which causes a UI image display unit to function as a computer having the touch screen.
  • a touch screen comprising: a step of allocating one UI area to the reception of the image; and a step of displaying a UI image respectively associated with the one UI area on the touch screen in response to the reception.
  • a computer-implemented method for UI image display is obtained.
  • FIG. 1 is a schematic diagram of a portable terminal for executing a computer program according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically showing the configuration of the mobile terminal of FIG.
  • FIG. 3 is a block diagram showing an outline of input / output in the mobile terminal of FIG.
  • FIG. 4 is a UI image display example displayed on the portable terminal of FIG. 1 by executing the computer program according to the embodiment of the present invention.
  • FIG. 5 is a definition example of the UI area in the exemplary screen display of FIG.
  • FIG. 6 is a main functional block diagram implemented using the computer program according to the embodiment of the present invention.
  • FIG. 7 is a flowchart showing information processing by the computer program according to the embodiment of the present invention.
  • FIG. 8 is a flowchart showing detailed information processing related to step S104 of FIG.
  • FIG. 9 is a flowchart showing detailed information processing related to step S105 in FIG.
  • a computer program for user input support according to an embodiment of the present invention comprises the following arrangement.
  • a reception unit that receives a plurality of touch operations on the touch screen by an object;
  • An area allocation unit that allocates one UI area for each touch operation received;
  • a UI image display unit that displays a UI image associated with each of the one UI areas on the touch screen is caused to function on a computer having the touch screen.
  • Computer program According to the computer program of this item, when holding a smartphone sideways and playing a smartphone game by two-handed operation, the game can be advanced by associating a plurality of UI images by touch operation with both hands, User operability can be improved.
  • it is possible to realize a dynamic UI display that allows a plurality of UIs to be simultaneously arranged at arbitrary screen positions without fixing the arrangement position.
  • a computer program for accepting the slide operation until a point is specified. According to the computer program of this item, when holding a smartphone sideways and playing a smartphone game by a two-handed operation, the game can be advanced by associating a plurality of UI images by a sliding operation with both hands, Furthermore, user operability can be improved.
  • the slide operation component is During the acceptance state, a touch position for each frame at a predetermined frame rate is acquired in the display area; When there are a plurality of touch positions on the touch screen in the immediately preceding frame, one of the touch positions of the immediately preceding frame that is closest to the touch position of the slide operation in the current frame is associated with the touch position of the current frame.
  • a computer program constituting at least a part of the slide operation. According to the computer program of this item, when a smartphone is held sideways and a smartphone game is played by a two-handed operation, misrecognition due to coexistence of a plurality of UIs can be prevented.
  • (Item 7) Defining a plurality of user interface (UI) areas in a display area on the touch screen; Receiving a plurality of touch operations on the touch screen by an object; Assigning one UI area to each touch operation received; Displaying the UI images respectively associated with the one UI area on the touch screen in response to the acceptance, and implemented for a computer having the touch screen for displaying a UI image Method.
  • UI user interface
  • the game when a smartphone game is played by holding a smartphone sideways and a two-handed operation, the game can be advanced by associating a plurality of UI images by a touch operation with both hands. Can be improved.
  • the touch operation includes a slide operation including a touch operation point and a touch end point; Allocating the UI area comprises Determining the one UI area to be assigned according to the position of the touch start point; The step of setting the one UI region to accept the slide operation until the touch end point is specified in the display area on the touch screen, and during the accepting state, And a step configured not to accept another touch operation in one UI region.
  • the game when a smartphone game is played by holding a smartphone sideways and a two-handed operation, the game can be advanced by associating a plurality of UI images by a sliding operation with both hands, and the user can further advance the game. Operability can be improved.
  • (Item 9) 9. The method according to item 8, wherein the step of assigning the UI area further assigns a slide movable area for specifying the touch end point in the display area on the touch screen corresponding to the UI area.
  • a method comprising steps. According to the method of this item, the slide movable region can be set, and the user operability can be made flexible.
  • the computer program for displaying UI images according to the embodiment of the present invention is mainly applicable as a part of a game program as a smartphone game. More specifically, the computer program can be used to advance a game as part of the game program and to control the operation of the virtual space and the game character in the virtual space.
  • a smartphone 1 shown in FIG. 1 is an example of a mobile terminal and includes a touch panel 2.
  • the user of the smartphone can control the progress of the game through a user operation including a touch operation on the touch panel 2.
  • the mobile terminal for executing the computer program according to the present embodiment is not limited to the smartphone 1 as shown in FIG. 2, and is, for example, a mobile terminal equipped with a touch panel such as a PDA or a tablet computer device. It will be appreciated that any device can be used.
  • the smartphone 1 includes a CPU 3, a main memory 4, an auxiliary memory 5, a transmission / reception unit 6, a display unit 7, and an input unit 8 that are connected to each other via a bus.
  • the main memory 4 is composed of, for example, a DRAM
  • the auxiliary memory 5 is composed of, for example, an HDD.
  • the auxiliary memory 5 is a recording medium capable of recording the computer program and game program according to the present embodiment.
  • Various programs stored in the auxiliary memory 5 are expanded on the main memory 4 and executed by the CPU 3. Note that data generated while the CPU 3 operates in accordance with the computer program according to the present embodiment and data used by the CPU 3 are also temporarily stored on the main memory 4.
  • the transmission / reception unit 6 establishes connection (wireless connection and / or wired connection) between the smartphone 1 and the network under the control of the CPU 3 and transmits / receives various information.
  • the display unit 7 displays various information to be presented to the user under the control of the CPU.
  • the input unit 8 detects a touch input operation (mainly a physical contact operation such as a tap operation, a slide (swipe) operation, and a flick operation) on the touch pal 2 of the user.
  • the display unit 7 and the input unit 8 correspond to the touch panel 2 described above.
  • the touch panel 2 includes a touch sensing unit 301 corresponding to the input unit 8 and a liquid crystal display unit 302 corresponding to the display unit 7.
  • the touch panel 2 displays an image under the control of the CPU 3, receives an interactive touch operation (such as a physical contact operation on the touch panel 2) by a smartphone user, and responds to it based on control by the control unit 303.
  • the graphic is displayed on the liquid crystal display unit 302.
  • the touch sensing unit 301 outputs an operation signal corresponding to the touch operation by the user to the control unit 303.
  • the touch operation can be performed by any object.
  • the touch operation may be performed by a user's finger, or a stylus may be used.
  • a capacitance type can be adopted, but is not limited thereto.
  • the control unit 303 detects an operation signal from the touch sensing unit 301, the control unit 303 determines as an operation instruction to the user's character, and transmits a graphic (not shown) corresponding to the instruction operation to the liquid crystal display unit as a display signal. Process.
  • the liquid crystal display unit 302 displays a graphic corresponding to the display signal.
  • the character 10 is arranged in the three-dimensional virtual game space 20. Then, a visual field image obtained by photographing the character 10 from the upper front of the character 10 by a virtual camera (not shown) is displayed on the touch panel as a two-dimensional image (the same applies to FIG. 5). At the same time, two UI images (30 at the upper left of the screen and 40 at the lower right of the screen) are superimposed on the view field image. The UI images 30 and 40 are displayed on the touch panel as a result of a touch operation on the touch panel by the user (for example, a slide operation with a finger).
  • a user In smartphone games, a user usually holds a terminal vertically and often operates with one hand, but of course, the present invention is not limited to this, and the terminal may be operated with both hands.
  • the touch operation should be allowed with the left hand and the right hand, respectively, and the UI images 30 and 40 shown in FIG. it can.
  • a game progress command is generated and executed by these UI images.
  • UI image 30 with the left hand is displayed as “Move”
  • an instruction to move the character 10 on the plane in the game space 20 in the direction (upper right) indicated by the UI image is executed.
  • UI image 40 with the right hand is displayed as “Camera”
  • an instruction to move the virtual camera in the game space 20 is executed so as to change the field of view in the upper right direction indicated by the UI image.
  • a plurality of UI areas for generating a plurality of UIs are defined in advance for the display area on the touch panel, and the rules are clarified. That is, a rule is defined in advance so that, for example, one UI image is generated for one UI area.
  • the left and right hand UI areas are divided into two parts, a left half Z1 and a right half Z2, and one UI image is obtained for each by slide operation. It can be generated.
  • different visual displays may be performed on the generated UI images so as to be associated with the UI area. For example, an orange color effect may be applied to the Z1 UI image 30, and a green color effect may be applied to the Z2 UI image 40.
  • the UI area is not limited to two as shown in FIG. 5 (a), and even three or more of Z3 (solid line area), Z4 (dashed line area), and Z5 (dotted line area) as shown in FIG. 5 (b). It will be appreciated by those skilled in the art that any number may be used.
  • the shape and size of each UI region can be arbitrary.
  • the shape of the UI area is preferably rectangular as shown in FIGS. 5A to 5C, but is not limited to this, and may be a curved area.
  • FIG. 5C shows a left-hand and right-hand UI area divided into two areas, a left area Z6 and a right area Z7, and Z6 accepts a left-hand slide operation and Z7 accepts a right-hand slide operation.
  • UI images 30 and 40 are respectively displayed.
  • the UI image 30 in the region Z6 only needs to include the slide operation start point 30a in the region Z6, and the slide operation end point 30b need not be included in the region Z6. . That is, the touch start position where the touch operation by the user is received is included in any of the areas and may be associated.
  • a slide movable area corresponding to the UI area may be introduced separately from the UI area.
  • the slide movable area is an area where a user can allow a slide operation.
  • the slide operation end point 30b is specified in the slide movable area in the same manner as the slide operation start point 30a is specified in the UI area.
  • the slide movable area may be any as long as it includes the UI area. Specifically, it may be the entire display area of the touch panel (that is, the entire game screen), or the slide movable area and the UI area may be the same area.
  • the touch position of the slide operation is within the slide movable area, the UI image is displayed during that time.
  • the slide operation is out of the slide movable area, the UI image that has been displayed is erased from the screen. Display control should be performed.
  • the present invention enables a slide operation in a slide movable area different from the UI area, and improves user operability.
  • the slide operation by the user has been described as an example.
  • the present invention is not limited to this, and it should be understood that any physical contact operation on the touch panel such as a tap operation, a swipe operation, and a slide operation may be used. It is.
  • FIG. 6 shows a set of main functions implemented as a computer program and functioning on a mobile terminal equipped with a touch panel. Through the function set, an input as an operation signal is processed to generate an output as a display signal.
  • the function set includes a user operation unit 100 related to a user input operation and object formation through a touch panel, and a game progress unit (character operation) 200 for operating a game in accordance with the user input operation or a character in a virtual space. Including.
  • the user operation unit 100 mainly includes an area defining unit 110 for defining the UI area described with reference to FIG. 5, a contact / non-contact determining unit 120 that determines a touch operation or a detach operation on the touch panel, and a touch such as a slide operation.
  • Touch operation accepting unit 130 that accepts a plurality of operations
  • an area assigning unit 140 that can assign one UI area and a corresponding slide movable area to accept each touch operation, and a slide operation from the touch start point to the touch end point
  • a UI image display unit 160 for displaying a UI image generated in response to the touch operation.
  • the UI image generated by the UI image display unit 160 is superimposed on the game image as shown in FIG. 4, and the game progression unit 200 generates and executes a corresponding game progression instruction to advance the game.
  • step S101 of FIG. 7 the area defining unit 110 defines a plurality of UI areas in the display area on the touch screen as in the screen examples of FIGS.
  • the operation may be set at the time of game play.
  • the operation may be set by the developer at the time of game program development, or may be set by the user at the time of initial setting after downloading the application.
  • step S102 the contact / non-contact determining unit 120 performs determination of one or more touch operations / detach operations to the touch screen by an object such as a user's finger and a touch state determination process.
  • the touch operation is determined in step S102, the process proceeds to the next step S103 and subsequent steps.
  • step S103 the touch operation receiving unit 130 receives a plurality of touch operations.
  • step S ⁇ b> 104 one UI area is allocated by the area allocation unit 140 for each reception of the touch operation.
  • the touch operation is a slide operation having a touch start point and a touch end point, a slide movable area corresponding to the UI area is also assigned.
  • step S105 the slide operation configuration unit 150 configures the slide operation. Details of steps S104 and S105 will be described later with reference to FIGS.
  • step S106 the UI image display unit 160 displays the corresponding UI images respectively associated with the one UI area assigned in step S104 in response to acceptance of the touch operation in S103 on the touch screen. And superimposed on the game image. For example, when the touch operation is a slide operation, the translucent UI image shown in FIG. 4 and subjected to color processing according to the UI area is displayed. Further, for example, when the touch operation is a tap operation, a circular UI image centered on the tapped position is subjected to color processing according to the UI area and displayed (not shown).
  • the touch operation is a slide operation, that is, the touch operation includes a touch start point and a touch end point.
  • the present invention is not limited to this. Note that the touch start point and the touch end point can be determined by the contact / non-contact determination unit 120.
  • FIG. 8 is a flowchart illustrating in detail the processing in step S104, which is mainly executed by the area allocation unit 140.
  • step S1041 a slide operation is accepted according to the touch start position, and one related UI area is provisionally determined.
  • step S ⁇ b> 1042 it is determined whether or not the one UI area is set to the accepting state by another slide operation. If the one UI area is not in the accepting state (that is, in a new accepting state), the process proceeds to step S1043, and the one UI area is determined to make an assignment for accepting the slide operation. .
  • step S1044 in response to the main determination of the one UI area, the slide movable area is allocated in association with the UI area.
  • step S105 FIG. 9).
  • step S1042 it is invalidated as no touch operation, and the UI area provisionally determined in step S1041 is also cleared.
  • step S1042 and S1044 receiving of another touch operation is inhibited while the slide operation target UI area is in the accepting state.
  • FIG. 9 is a flowchart illustrating in detail the processing in step S105, which is mainly executed by the slide operation configuration unit 150. This process functions only when the touch operation is a slide operation (step S1051).
  • step S1052 in response to receiving the slide operation, the target UI region is set as a slide operation acceptance state. The reception state is maintained until later step S1058.
  • step S1053 the touch position for each frame acquired according to a predetermined frame rate (for example, 30 fps is standard) is temporarily stored in the storage unit. As illustrated in FIG. 4 and FIG. 5, when a plurality of slide operations are performed on one touch panel region, this takes into account that a plurality of slide operation positions approach or intersect each other. . In this case, it is necessary to determine which sliding operation is performed when approaching or intersecting without making a misjudgment, but for this purpose, as described below, the position information for each frame is used. Is preferable.
  • step S1055 the frame at the current time point is acquired.
  • One touch position of the immediately preceding frame closest to the touch position (referred to as “current frame”) is selected, and at least a part of the slide operation may be configured in association with the touch position of the current frame. In this way, by always storing the touch position of the immediately preceding frame one frame before and making a determination according to the positional relationship with the current frame, it is possible to prevent erroneous recognition as another slide operation.
  • at least a part of the slide operation may be configured by associating the touch position with the touch position in the current frame in step S1056.
  • step S1057 when the touch end point is specified by the contact / non-contact determination unit 120 in step S1057, the slide operation acceptance state is canceled in step S1058, and this step S105 ends, and the above-described step S106 is performed. move on.
  • the touch end point in the case of the slide operation is not limited to the UI area assigned to the slide operation, and may be specified in the slide movable area. That is, the touch end point can be set to an arbitrary position within the slide movable area. In particular, when the slide movable area is set as the entire display area of the touch panel, the user can perform a slide operation for an arbitrary time and an arbitrary distance.
  • the computer program and the computer mounting method for displaying a UI image when a smartphone game is played by holding a smartphone sideways and a two-hand operation, a plurality of UIs by a touch operation with both hands is used.
  • the game can be progressed in association with images, and user operability can be improved.
  • it is possible to realize a dynamic UI display that allows a plurality of UIs to be simultaneously arranged at arbitrary screen positions without fixing the arrangement position.

Abstract

(課題)配置位置を固定することのない、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現すること。 (解決手段)タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定する領域規定部と、物体によるタッチ・スクリーンへの複数のタッチ操作を受け付ける受付部と、各タッチ操作の受け付けに対し、1のUI領域を割り当てる領域割当部と、受け付けに応じて、上記1のUI領域にそれぞれ関連付けられるUI画像をタッチ・スクリーン上に表示するUI画像表示部と、として上記タッチ・スクリーンを具備するコンピュータに機能させる、UI画像表示のためのコンピュータ・プログラムが得られる。

Description

ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
 本発明は、ユーザ・インタフェース(以下、「UI」と称する。)画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法に関するものである。より詳細には、スマートフォン上で実行されるゲーム(以下、「スマートフォン・ゲーム」と称する。)で使用され、物体による接触操作に応じて、視覚的に、タッチパネル上に複数のUI画像を表示させるためのコンピュータ・プログラムおよびコンピュータ実装方法に関するものである。
 スマートフォン・ゲームに用いられるUIとして、例えば、特許文献1に開示される従来技術が知られる。即ち、スマートフォンのタッチパネル上に2種類の操作ボタン(所謂、十字キーやジョイスティック等)を複合的に表示する従来技術である(〔要約〕参照)。
特開2012-168931号公報
 従来技術のバーチャルな十字キーやジョイスティックは、単に、従来の家庭用ゲーム機(任天堂株式会社のファミリーコンピュータ(登録商標)等)といったゲーム体験をスマートフォン上で擬似的に提供することを目的として、物理的な操作キーを仮想的に表示したものに過ぎない。特に、従来技術の十字キーやバーチャル・ジョイスティックは、表示領域がスマートフォンの画面右下や左下といった固定位置に配置される。ユーザは操作時に指を当該固定位置に位置合わせしなければならず、且つ操作領域も制限されるといった点でユーザ操作性に制約が生じていた。特に昨今のスマートフォン・ゲームはコンテンツの複雑化に伴いユーザ操作が益々複雑化しており、ユーザ操作性に優れたUIが求められている。特に、ユーザが画面上のタッチ位置を意識することなく、タッチ操作を通じてゲーム進行を可能とするUIを実現することが望ましい。
 そこで、本発明は、このようなスマートフォン・ゲームで用いるUIに関し、特にユーザ操作性に優れたUI表示のためのコンピュータ・プログラムおよびコンピュータ実装方法を提供することを目的とする。より具体的には、従来技術のように配置位置を固定することなく、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することを目的とする。
 上記の課題を解決するために、本発明によれば、タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定する領域規定部と、物体によるタッチ・スクリーンへの複数のタッチ操作を受け付ける受付部と、各タッチ操作の受け付けに対し、1のUI領域を割り当てる領域割当部と、受け付けに応じて、上記1のUI領域にそれぞれ関連付けられるUI画像をタッチ・スクリーン上に表示するUI画像表示部と、として上記タッチ・スクリーンを具備するコンピュータに機能させる、UI画像表示のためのコンピュータ・プログラムが得られる。
 また、本発明によれば、タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定するステップと、物体によるタッチ・スクリーンへの複数のタッチ操作を受け付けるステップと、各タッチ操作の受け付けに対し、1のUI領域を割り当てるステップと、上記受け付けに応じて、上記1のUI領域にそれぞれ関連付けられるUI画像をタッチ・スクリーン上に表示するステップと、を含む、タッチ・スクリーンを具備するコンピュータに実装されるUI画像表示のための方法が得られる。
 本発明の特徴点および利点は、後述する発明の詳細な説明、並びに添付の図面および特許請求の範囲の記載から明らかなものとなる。
図1は、本発明の実施の形態によるコンピュータ・プログラムを実行するための携帯端末の模式図である。 図2は、図1の携帯端末の構成を模式的に示したブロック図である。 図3は、図2の携帯端末における入出力の概要を示したブロック図である。 図4は、本発明の実施の形態によるコンピュータ・プログラムを実行することにより図1の携帯端末に表示されるUI画像表示例である。 図5は、図4の例示の画面表示におけるUI領域の規定例である。 図6は、本発明の実施の形態によるコンピュータ・プログラムを用いて実装される主要機能ブロック図である。 図7は、本発明の実施の形態によるコンピュータ・プログラムによる情報処理について示したフローチャートである。 図8は、図7のステップS104に関する詳細の情報処理について示したフローチャートである。 図9は、図7のステップS105に関する詳細の情報処理について示したフローチャートである。
 [本発明の実施形態の説明]
 最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムは、以下のような構成を備える。
 (項目1)
 タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定する領域規定部と、
 物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付ける受付部と、
 各前記タッチ操作の受け付けに対し、1のUI領域を割り当てる領域割当部と、
 前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられるUI画像を前記タッチ・スクリーン上に表示するUI画像表示部と
として前記タッチ・スクリーンを具備するコンピュータに機能させる、UI画像表示のためのコンピュータ・プログラム。
 本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのタッチ操作による複数のUI画像を関連付けてゲームを進行させることができ、ユーザ操作性を向上することができる。そして、配置位置を固定することのない、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することができる。
 (項目2)
 項目1記載のコンピュータ・プログラムであって、更に、
 前記タッチ操作がスライド操作であってタッチ開始点およびタッチ終了点を有するスライド操作を構成するスライド操作構成部として前記コンピュータに機能させ、
 前記領域割当部において、前記タッチ開始点の位置に従って、前記スライド操作を受け付けて前記1のUI領域が決定され、また、前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とする、コンピュータ・プログラム。
 本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのスライド操作による複数のUI画像を関連付けてゲームを進行させることができ、更にユーザ操作性を向上することができる。
 (項目3)
 項目2記載のコンピュータ・プログラムにおいて、
 前記領域割当部において、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、項目2記載のコンピュータ・プログラム。
 本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、複数のUIを併存させるルールを明確に規定することができる。
 (項目4)
 項目2または3記載のコンピュータ・プログラムにおいて、
 前記スライド操作構成部が、
  前記受け付け状態の間に、前記表示領域において所定のフレーム・レートによるフレーム毎のタッチ位置を取得し、
  直前フレームにおいて前記タッチ・スクリーン上にタッチ位置が複数存在する場合に、現在フレームにおける前記スライド操作のタッチ位置に最も近い、前記直前フレームのタッチ位置の1つを前記現在フレームのタッチ位置に関連付けて、前記スライド操作の少なくとも一部を構成する、コンピュータ・プログラム。
 本項目のコンピュータ・プログラムによれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、複数のUIを併存させることによる誤認識を防止することができる。
 (項目5)
 前記領域割当部において、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てる、項目2から4のいずれか一項記載のコンピュータ・プログラム。
 本項目のコンピュータ・プログラムによれば、スライド可動領域を設定可能であり、ユーザ操作性を柔軟なものとすることができる。
 (項目6)
 前記領域のそれぞれは矩形で形成される、項目1から5のいずれか一項記載のコンピュータ・プログラム。
 (項目7)
 タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定するステップと、
 物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付けるステップと、
 各前記タッチ操作の受け付けに対し、1のUI領域を割り当てるステップと、
 前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられるUI画像を前記タッチ・スクリーン上に表示するステップと
を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、UI画像表示のための方法。
 本項目の方法によれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのタッチ操作による複数のUI画像を関連付けてゲームを進行させることができ、ユーザ操作性を向上することができる。そして、配置位置を固定することのない、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することができる。
 (項目8)
 項目7記載の方法において、
 前記タッチ操作がタッチ操作点およびタッチ終了点を含むスライド操作を含み、
 前記UI領域を割り当てるステップが、
  前記タッチ開始点の位置に従って、割り当てる前記1のUI領域を決定するステップと、
  前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とするステップであって、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、ステップと
を含む、方法。
 本項目の方法によれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームのプレイをした場合に、両手でのスライド操作による複数のUI画像を関連付けてゲームを進行させることができ、更にユーザ操作性を向上することができる。
 (項目9)
 項目8記載の方法において、前記UI領域を割り当てるステップが、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てるステップを含む、方法。
 本項目の方法によれば、スライド可動領域を設定可能であり、ユーザ操作性を柔軟なものとすることができる。
 [本発明の実施形態の詳細]
 これより図面を参照して、本発明の実施形態による、UI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法について説明する。図中、同一の構成要素には同一の符号を付してある。本発明の実施の形態によるUI画像表示のためのコンピュータ・プログラムは、主に、スマートフォン・ゲームとしてのゲーム・プログラムの一部として適用可能である。より詳しくは、本コンピュータ・プログラムは、ゲーム・プログラムの一部としてゲームを進行させ、仮想空間や該仮想空間内のゲーム・キャラクタの動作を制御するために用いることが可能である。
 携帯端末のハードウェア構成
 図1に示すスマートフォン1は、携帯端末の一例であり、タッチパネル2を備える。スマートフォンのユーザは当該タッチパネル2上でのタッチ操作を含むユーザ操作を介してゲームの進行を制御することができる。なお、本実施の形態によるコンピュータ・プログラムを実行するための携帯端末は、図2のようなスマートフォン1に限定されず、例えば、PDA、タブレット型コンピュータのデバイスなど、タッチパネルを備える携帯端末であれば如何なるデバイスともできることが理解される。
 図2に示すように、スマートフォン1は、互いにバス接続されたCPU3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備える。このうち主記憶4は例えばDRAMなどで構成され、補助記憶5は例えばHDDなどで構成されている。補助記憶5は、本実施の形態によるコンピュータ・プログラムやゲーム・プログラムを記録可能な記録媒体である。補助記憶5に格納された各種プログラムは、主記憶4上に展開されてCPU3によって実行される。なお、主記憶4上には、CPU3が本実施の形態によるコンピュータ・プログラムに従って動作している間に生成したデータやCPU3によって利用されるデータも一時的に格納される。送受信部6はCPU3の制御によりスマートフォン1とネットワークとの間の接続(無線接続および/または有線接続)を確立して各種情報の送受信を行う。表示部7は、CPUでの制御の下でユーザに提示することになる各種情報を表示する。入力部8は、ユーザのタッチパル2に対するタッチ入力操作(主に、タップ操作、スライド(スワイプ)操作、およびフリック操作等の物理的接触操作)を検知する。
 表示部7及び入力部8は、上述したタッチパネル2に相当する。図3に示すように、タッチパネル2は、入力部8に相当するタッチセンシング部301と表示部7に相当する液晶表示部302とを有する。タッチパネル2は、CPU3による制御の下で、画像を表示して、スマートフォンのユーザによるインタラクティブなタッチ操作(タッチパネル2における物理的接触操作等)を受け、制御部303での制御に基づいてそれに対応するグラフィックを液晶表示部302に表示する。
 より詳細には、上記タッチセンシング部301は、ユーザによるタッチ操作に応じた操作信号を制御部303に出力する。タッチ操作は、何れの物体によるものとすることができ、例えば、ユーザの指によりなされてもよいし、スタイラス等を用いてもよい。また、タッチセンシング部301として、例えば、静電容量タイプのものを採用することができるが、これに限定されない。制御部303は、タッチセンシング部301からの操作信号を検出すると、ユーザのキャラクタへの操作指示として判断し、当該指示操作に応じたグラフィック(図示せず)を液晶表示部へ表示信号として送信する処理を行う。液晶表示部302は、表示信号に応じたグラフィックを表示する。
 ゲーム画面例
 次に図4および図5のゲーム画面例を参照しながら、本実施の形態による、ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法による動作について具体的に説明する。図4の画面例では、3次元仮想ゲーム空間内20にキャラクタ10が配置されている。そして、仮想カメラ(非図示)がキャラクタ10の手前上部から該キャラクタ10を撮影した視野画像が2次元画像としてタッチパネルに表示されている(図5でも同様)。これと同時に、2つのUI画像(画面左上の30と画面右下の40)が視界画像に重畳されている。UI画像30,40は、ユーザによるタッチパネルへのタッチ操作(例えば指によるスライド操作)の結果として、タッチパネル上に表示されたものである。
 スマートフォン・ゲームでは、通例、ユーザが端末を縦持ちして片手で操作することが多いが、勿論これに限らず、横持ちにより端末を両手で操作してもよい。両手で画面を操作する場合は、左手と右手によりそれぞれタッチ操作が許容されるべきであり、図示したUI画像30,40も、左手と右手のタッチ操作によるものにそれぞれ対応するものとすることができる。
 そして、これらのUI画像により、ゲーム進行命令が生成および実行される。例えば、左手によるUI画像30は「Move」と表示されているとおり、UI画像が示している(右上)方向にキャラクタ10をゲーム空間20内の平面上を移動させる命令を実行する。同様に、右手によるUI画像40は「Camera」と表示されているとおり、UI画像が示している右上方向に視野を変更するよう仮想カメラをゲーム空間20内で移動させる命令を実行する。
 ところで、このようなタッチ操作、特にスライド操作による複数のUI画像を表示させ、複数のゲーム進行命令を生成する場合、タッチパネルの全域にわたり完全に自由にユーザ操作可能とするのは、コンピュータ・プログラム上、幾分か困難性を有する。例えば、ユーザが右手と左手でそれぞれスライド操作を実施しており、これらが相互に接近、更には交差するような場合に、どちらの手によるスライド操作かをプログラムが判定することが困難となり、スライド操作を誤認識する場合がある。
 そこで、本発明の実施の形態では、図5に示すように、タッチパネル上の表示領域に対し、複数のUIを生成するための複数のUI領域を予め規定し、ルールを明確化しておく。即ち、1つのUI領域に対して、例えば1つのUI画像を生成するように構成するというようなルールを予め規定する。図5(a)の例では、左手用と右手用のUI領域として画面を左半分Z1と右半分Z2の2つに分割しておき、それぞれに対して、スライド操作により1つずつUI画像を生成可能とする。その際、生成される各UI画像に対し、UI領域に関連付けるようにして異なる視覚表示を施してもよい。例えば、Z1のUI画像30には橙色で色彩効果を、Z2のUI画像40には緑色の色彩効果を施すようにしてもよい。
 UI領域は図5(a)のように2つに限定されず、図5(b)のようにZ3(実線領域)、Z4(破線領域)、Z5(点線領域)の3つでもそれ以上の任意の数としてもよいことが当業者にとって理解される。また、各UI領域の形状や大きさも任意のものとすることができる。例えば、UI領域の形状は図5(a)~(c)のように矩形とするのがよいが、これに限定されず、他にも曲線領域としてもよい。
 図5(c)は、左手用と右手用のUI領域として画面を左領域Z6と右領域Z7の2つに分割し、Z6では左手によるスライド操作を、Z7では右手によるスライド操作を受け付けて、各々UI画像30,40を表示している。ここでは、領域Z6によるUI画像30は、スライド操作の始点30aが領域Z6内に含まれてさえいればよく、スライド操作の終点30bも領域Z6に含まれる必要がない点に留意すべきである。即ち、ユーザによるタッチ操作を受け付けたタッチ開始位置が、各領域のいずれかに含まれ、関連付けばよい。
 また、スライド操作の終点30bを特定するために、UI領域とは別個、且つUI領域に対応したスライド可動領域を導入してもよい。スライド可動領域は、ユーザによるスライド操作を許容可能な領域である。スライド操作の始点30aが上記UI領域内で特定されるのと同様に、スライド操作の終点30bが当該スライド可動領域内で特定される。スライド可動領域は、UI領域を包含するものであれば何れでもよい。具体的には、タッチパネルの表示領域全域(即ちゲーム画面全域)としてもよく、また、スライド可動領域とUI領域が同一領域となるようにしてもよい。スライド操作のタッチ位置が当該スライド可動領域内にある場合はその間UI画像を表示し、他方、当該スライド可動領域から外れた場合には、それまで表示されていたUI画像を画面から消失させるように表示制御を行うのがよい。
 このように、スライド操作の終点はUI領域には拘束されないように構成することにより、本発明はUI領域とは異なるスライド可動領域でのスライド操作を可能にし、ユーザ操作性を向上させることができるという利点を有する。なお、図5では、ユーザによるスライド操作を例に説明したが、これには限定されず、タップ操作、スワイプ操作およびスライド操作等、タッチパネルに対する如何なる物理的接触操作としてもよいことが理解されるべきである。
 UI画像表示処理
 これより図6~図9を参照して、本実施の形態によるUI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法について説明する。
 図6は、コンピュータ・プログラムとして実装され、タッチパネルを具備する携帯端末に機能させる主要な機能のセットについて示す。当該機能セットを通じて、操作信号としての入力を処理して、表示信号としての出力を生成することになる。当該機能セットは、タッチパネルを通じたユーザ入力操作およびオブジェクト形成に関連するユーザ操作部100、並びに当該ユーザ入力操作に応じたゲーム進行や仮想空間内のキャラクタを操作させるゲーム進行部(キャラクタ操作)200を含む。
 ユーザ操作部100は、主に、図5で説明したUI領域を規定するための領域規定部110、タッチパネルへのタッチ操作やデタッチ操作を判定する接触・非接触判定部120、スライド操作等のタッチ操作を複数受け付けるタッチ操作受付部130、タッチ操作のそれぞれの受け付けに対し、1のUI領域および対応するスライド可動領域を割り当て可能な領域割当部140、タッチ開始点からタッチ終了点に向けたスライド操作を構成するスライド操作構成部150、そして、上記タッチ操作に対して生成されるUI画像を表示するためのUI画像表示部160を含む。UI画像表示部160で生成されたUI画像は、図4のようにゲーム画像に重畳されると共に、ゲーム進行部200において、対応するゲーム進行命令を生成および実行してゲームを進行させる。
 図7から図9は、本実施の形態によるUI画像表示のためのコンピュータ実装方法について説明したフロー図である。
 図7のステップS101では、領域規定部110によって、図5(a)(b)の画面例のように、タッチ・スクリーン上の表示領域に複数のUI領域を規定する。当該動作は、ゲームプレイ時に設定されていればよく、例えばゲーム・プログラム開発時に開発者によって設定されてもよいし、アプリケーションダウンロード後の初期設定時にユーザによって設定されても何れでもよい。当該ステップS101で複数のUI領域が予め規定され、ユーザによるゲームプレイが開始されると、ステップS102に進む。ステップS102では、接触・非接触判定部120によって、ユーザの指等の物体によるタッチ・スクリーンへの1または複数のタッチ操作・デタッチ操作の判定およびタッチ状態の判定処理が実施される。そして、当該ステップS102でタッチ操作が判定されると、次のステップS103以降へと進む。
 ステップS103では、タッチ操作受付部130によって、複数のタッチ操作を受け付ける。そして、ステップS104では、当該タッチ操作のそれぞれの受け付けに対し、領域割当部140によって、1のUI領域を割り当てる。タッチ操作がタッチ開始点およびタッチ終了点を有するスライド操作の場合には、更にUI領域に対応するスライド可動領域も割り当てる。引き続きステップS105において、スライド操作構成部150によってスライド操作として構成する。なお、ステップS104,S105の詳細については次の図8および図9を用いてそれぞれ後述する。
 最後に、ステップS106では、UI画像表示部160によって、S103でのタッチ操作の受け付けに応じてステップS104で割り当てられた1のUI領域に対してそれぞれ関連付けられる、対応するUI画像をタッチ・スクリーン上に表示してゲーム画像に重畳する。例えば、上記タッチ操作がスライド操作の場合は、図4に示した半透明で且つUI領域に応じて色彩処理が施されたUI画像が表示される。また、例えば、タッチ操作がタップ操作の場合は、タップした位置を中心に円形状のUI画像をUI領域に応じて色彩処理が施して表示する(非図示)。
 上記のステップS104,S105の処理に関連して、これより図8および図9をそれぞれ参照して詳述する。なお、図8および図9ではタッチ操作がスライド操作であることを想定し、即ち、タッチ操作がタッチ開始点およびタッチ終了点を含むものとして説明するが、これに限定されない。なおタッチ開始点およびタッチ終了点は、接触・非接触判定部120によって判定可能である。
 図8は、上記ステップS104の処理について詳細に説明したフロー図であり、主に領域割当部140によって実行されるものである。まず、ステップS103での出力を受け、ステップS1041では、タッチ開始位置に従って、スライド操作を受け付けて、関連する1のUI領域を仮決定する。ステップS1042では、当該1のUI領域が他のスライド操作により受け付け状態に設定されていないか否かを判定する。そして、当該1のUI領域が受け付け状態外(即ち、新規受け付け可能状態)の場合に、ステップS1043に進み、当該1のUI領域を本決定することより、スライド操作の受け付けに対して割り当てを行う。ステップS1044では、当該1のUI領域の本決定に対応して、スライド可動領域をUI領域に関連付けて割り当てる。次いで、ステップS105(図9)に進む。
 他方、ステップS1042において受け付け状態の場合に、タッチ操作はなかったものとして無効化され、ステップS1041で仮決定したUI領域もクリアされる。即ち、ステップS1042およびステップS1044の一連の流れでは、スライド操作の対象UI領域について受け付け状態の間は、他のタッチ操作を受け付けることが抑止される。
 図9は、上記ステップS105の処理について詳細に説明したフロー図であり、主にスライド操作構成部150によって実行される。なお、本処理は、タッチ操作がスライド操作の場合のみ機能する(ステップS1051)。
 ステップS1052では、スライド操作を受けたことに応じて、対象となるUI領域について、スライド操作の受け付け状態として設定する。当該受け付け状態は、後のステップS1058まで維持される。スライド操作の間、ステップS1053では、所定のフレーム・レート(例えば、標準的には30fps)に従って取得されるフレーム毎のタッチ位置を記憶部に一時的に格納する。これは、図4および図5に例示したように、1つのタッチパネル領域上で複数のスライド操作が実施される場合は、複数のスライド操作位置が相互に接近または交差することを考慮したものである。この場合、接近または交差の際にどちらのスライド操作であるかを誤判定することなく判断する必要が生じるが、そのためには、次に説明するようにフレーム毎の位置情報を用いて対処するのが好ましいからである。
 現在の直前時点のフレーム(「直前フレーム」と称する。)において、図4および図5の例のように複数のタッチ位置が取得される場合(ステップS1054)は、ステップS1055において、現在時点のフレーム(「現在フレーム」と称する。)におけるタッチ位置に最も近い、上記直前フレームの1つのタッチ位置を選択し、現在フレームのタッチ位置に関連付けて、スライド操作の少なくとも一部を構成するのがよい。このように、常に1フレーム前の直前フレームのタッチ位置を記憶し、現在フレームとの位置関係に応じて判断することにより、他のスライド操作と誤って認識するのを防止することができる。なお、直前フレームにおいて1つの(即ち自身の)タッチ位置のみしか取得されない場合は、ステップS1056において当該タッチ位置を現在フレームでのタッチ位置に関連付けて、スライド操作の少なくとも一部を構成すればよい。
 最終的にステップS1057において、接触・非接触判定部120によってタッチ終了点が特定されると、ステップS1058においてスライド操作の受け付け状態を解除して、本ステップS105は終了し、上記説明したステップS106へ進む。
 なお、図5(c)で説明したように、スライド操作の場合のタッチ終了点は、当該スライド操作に割り当てられたUI領域には制約されずに、スライド可動領域内で特定するのがよい。即ち、タッチ終了点はスライド可動領域内の任意の位置とすることができる。特に、スライド可動領域をタッチパネルの表示領域全体と設定した場合は、ユーザは、任意の時間・任意の距離だけスライド操作することが可能である。
 これら各ステップでの処理を通じて最終的に、図4に示したように、複数のUI画像がゲーム画像に重畳され、各UI画像に関連付けられた命令が実行されて、ゲーム進行が行われる。
 本実施の形態による、UI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法によれば、スマートフォンを横持ちして両手操作によりスマートフォン・ゲームをプレイした場合に、両手でのタッチ操作による複数のUI画像を関連付けてゲームを進行させることができ、ユーザ操作性を向上することができる。そして、配置位置を固定することのない、複数のUIの個数を任意の画面位置に同時に配置可能とするダイナミックなUI表示を実現することができる。
 以上、本発明の実施形態によるUI画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法について、例示しながら説明した。上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
 

Claims (9)

  1.  タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定する領域規定部と、
     物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付ける受付部と、
     各前記タッチ操作の受け付けに対し、1のUI領域を割り当てる領域割当部と、
     前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられるUI画像を前記タッチ・スクリーン上に表示するUI画像表示部と
    として前記タッチ・スクリーンを具備するコンピュータに機能させる、UI画像表示のためのコンピュータ・プログラム。
  2.  請求項1記載のコンピュータ・プログラムであって、更に、
     前記タッチ操作がスライド操作の場合に、タッチ開始点およびタッチ終了点を有するスライド操作を構成するスライド操作構成部として前記コンピュータに機能させ、
     前記領域割当部において、前記タッチ開始点の位置に従って前記スライド操作を受け付けて前記1のUI領域が決定され、また、前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とする、コンピュータ・プログラム。
  3.  請求項2記載のコンピュータ・プログラムにおいて、
     前記領域割当部において、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、請求項2記載のコンピュータ・プログラム。
  4.  請求項2または3記載のコンピュータ・プログラムにおいて、
     前記スライド操作構成部が、
      前記受け付け状態の間に、前記表示領域において所定のフレーム・レートによるフレーム毎のタッチ位置を取得し、
      直前フレームにおいて前記タッチ・スクリーン上にタッチ位置が複数存在する場合に、現在フレームにおける前記スライド操作のタッチ位置に最も近い、前記直前フレームのタッチ位置の1つを前記現在フレームのタッチ位置に関連付けて、前記スライド操作の少なくとも一部を構成する、コンピュータ・プログラム。
  5.  前記領域割当部において、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てる、請求項2から4のいずれか一項記載のコンピュータ・プログラム。
  6.  前記UI領域のそれぞれは矩形で形成される、請求項1から5のいずれか一項記載のコンピュータ・プログラム。
  7.  タッチ・スクリーン上の表示領域に複数のユーザ・インタフェース(UI)領域を規定するステップと、
     物体による前記タッチ・スクリーンへの複数のタッチ操作を受け付けるステップと、
     各前記タッチ操作の受け付けに対し、1のUI領域を割り当てるステップと、
     前記受け付けに応じて、前記1のUI領域にそれぞれ関連付けられるUI画像を前記タッチ・スクリーン上に表示するステップと
    を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、UI画像表示のための方法。
  8.  請求項7記載の方法において、
     前記タッチ操作がタッチ操作点およびタッチ終了点を含むスライド操作を含み、
     前記UI領域を割り当てるステップが、
      前記タッチ開始点の位置に従って、割り当てる前記1のUI領域を決定するステップと、
      前記1のUI領域について、前記タッチ・スクリーン上の表示領域において前記タッチ終了点が特定されるまで前記スライド操作の受け付け状態とするステップであって、前記受け付け状態の間は、前記スライド操作における前記1のUI領域では、他のタッチ操作を受け付けないように構成される、ステップと
    を含む、方法。
  9.  請求項8記載の方法において、前記UI領域を割り当てるステップが、更に、前記タッチ・スクリーン上の表示領域内に、前記タッチ終了点を特定するためのスライド可動領域を、前記UI領域に対応して割り当てるステップを含む、方法。
     
PCT/JP2016/073111 2015-08-20 2016-08-05 ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法 WO2017030022A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-162762 2015-08-20
JP2015162762A JP5981617B1 (ja) 2015-08-20 2015-08-20 ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法

Publications (1)

Publication Number Publication Date
WO2017030022A1 true WO2017030022A1 (ja) 2017-02-23

Family

ID=56820065

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/073111 WO2017030022A1 (ja) 2015-08-20 2016-08-05 ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法

Country Status (2)

Country Link
JP (1) JP5981617B1 (ja)
WO (1) WO2017030022A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018084169A1 (ja) * 2016-11-01 2018-05-11 株式会社コロプラ ゲーム方法およびゲームプログラム
CN107678647B (zh) * 2017-09-26 2023-04-28 网易(杭州)网络有限公司 虚拟射击主体控制方法、装置、电子设备及存储介质
JP7341067B2 (ja) 2020-01-09 2023-09-08 日立建機株式会社 ダンプトラック

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2012033060A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、表示制御方法及び表示制御プログラム
JP4932010B2 (ja) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP2012168931A (ja) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
JP2014191612A (ja) * 2013-03-27 2014-10-06 Ntt Docomo Inc 情報端末、情報入力補助方法、及び情報入力補助プログラム
JP5711409B1 (ja) * 2014-06-26 2015-04-30 ガンホー・オンライン・エンターテイメント株式会社 端末装置
JP2015222595A (ja) * 2014-04-04 2015-12-10 株式会社コロプラ ユーザインターフェースプログラムおよびゲームプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP4932010B2 (ja) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP2012033060A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、表示制御方法及び表示制御プログラム
JP2012168931A (ja) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
JP2014191612A (ja) * 2013-03-27 2014-10-06 Ntt Docomo Inc 情報端末、情報入力補助方法、及び情報入力補助プログラム
JP2015222595A (ja) * 2014-04-04 2015-12-10 株式会社コロプラ ユーザインターフェースプログラムおよびゲームプログラム
JP5711409B1 (ja) * 2014-06-26 2015-04-30 ガンホー・オンライン・エンターテイメント株式会社 端末装置

Also Published As

Publication number Publication date
JP5981617B1 (ja) 2016-08-31
JP2017038793A (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
US10564792B2 (en) Display device and method of indicating an active region in a milti-window display
US9116721B2 (en) Object display order changing program and apparatus
JP6130096B2 (ja) タッチスクリーン端末機及びその端末機における画面ディスプレーの制御方法
US8276093B2 (en) Computer-readable storage medium having object display order changing program stored therein and apparatus
US9880727B2 (en) Gesture manipulations for configuring system settings
JP2022140510A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
WO2013145804A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP5522755B2 (ja) 入力表示制御装置、シンクライアントシステム、入力表示制御方法およびプログラム
KR102205283B1 (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
JP6470111B2 (ja) メッセージ送信機能を備えたゲームプログラム、メッセージ送信方法及びメッセージ送信機能付きコンピュータ端末
WO2017030022A1 (ja) ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
JP2008065504A (ja) タッチパネル制御装置およびタッチパネル制御方法
JP2015194795A (ja) 表示装置及び表示方法
EP2911115B1 (en) Electronic device and method for color extraction
JP2017140342A (ja) ユーザインターフェースプログラム、当該プログラムを備えたゲームプログラム及び制御方法
WO2017163566A1 (ja) プログラム、コンピュータ装置、プログラム実行方法、及び、システム
JP5888793B2 (ja) オブジェクト制御プログラム及びオブジェクト制御方法
WO2014034549A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP2017041237A (ja) ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
JP2017188140A (ja) プログラム、コンピュータ装置、プログラム実行方法、及び、システム
JP2017182154A (ja) 表示操作装置及び操作指示受付プログラム
EP2527964B1 (en) Portable terminal device having an enlarged-display function, method for controlling enlarged display, and computer-read-enabled recording medium
JP5795113B1 (ja) ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
JP2019053196A (ja) 情報処理装置、画面制御方法
JP6081537B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16837012

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16837012

Country of ref document: EP

Kind code of ref document: A1