WO2016167094A1 - ユーザ・インタフェース・プログラム - Google Patents

ユーザ・インタフェース・プログラム Download PDF

Info

Publication number
WO2016167094A1
WO2016167094A1 PCT/JP2016/059277 JP2016059277W WO2016167094A1 WO 2016167094 A1 WO2016167094 A1 WO 2016167094A1 JP 2016059277 W JP2016059277 W JP 2016059277W WO 2016167094 A1 WO2016167094 A1 WO 2016167094A1
Authority
WO
WIPO (PCT)
Prior art keywords
slide
reference position
initial
shape
deformed
Prior art date
Application number
PCT/JP2016/059277
Other languages
English (en)
French (fr)
Inventor
功淳 馬場
Original Assignee
株式会社コロプラ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コロプラ filed Critical 株式会社コロプラ
Publication of WO2016167094A1 publication Critical patent/WO2016167094A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress

Definitions

  • the present invention relates to a user interface (hereinafter referred to as “UI”) program. More specifically, it is used in a game executed on a smartphone (hereinafter referred to as “smart phone game”), and is used for visually displaying an object on a touch panel in accordance with a contact and slide operation by an object. It relates to UI programs.
  • UI user interface
  • Patent Document 1 As a UI used for a smartphone game, for example, a conventional technique disclosed in Patent Document 1 is known.
  • the technique disclosed in Patent Document 1 displays an operation button (a so-called cross key, joystick, etc.) on a touch panel of a smartphone (see [Summary]). The character can be moved.
  • operation button a so-called cross key, joystick, etc.
  • the virtual joystick shown in FIG. 1 is known.
  • Virtual joysticks are used in many smartphone games released today.
  • the UI shown in FIG. 1 is configured to display two large and small circles arranged concentrically. The larger circle is fixed and displayed at a predetermined position on the screen.
  • the smaller circle slides so as to be shifted to the larger circumference in the direction of the slide operation.
  • Move horizontally The user can play the game while visually recognizing the moving direction of the game character based on the position of the small circle on the circumference of the large circle.
  • Such a virtual joystick simply uses physical operation keys to provide a simulated game experience on a smartphone, such as a conventional home game machine (such as Nintendo Family Computer (registered trademark)). It is only a virtual display.
  • the display area is arranged at a fixed position such as the lower right or lower left of the screen of the smartphone, and the user must align his / her finger at the fixed position during operation, and the operation area is also limited. It is hard to say that the user operability is excellent in that it is. Particularly in recent smartphone games, user operations are becoming more and more complicated as content becomes more complex, and UIs with excellent user operability are required.
  • An object of the present invention is to provide a program for an improved UI excellent in user operability by improving the UI of the prior art used in such a smartphone game. More specifically, an object of the present invention is to provide a program for a UI that can be arranged at an arbitrary screen position without fixing the arrangement position and can be dynamically operated using the entire screen.
  • a user interface (UI) program that allows a portable terminal including a touch panel to function.
  • the UI program of the present invention forms an initial object associated with the reference position and displays it by aligning the reference position with the contact position in response to contact with an arbitrary contact position on the touch panel.
  • the slide operation is performed from the contact position on the touch panel to the slide position, the first object deformation that displays the first deformable object associated with the reference position and the slide position, the shape of the initial object being deformed, is performed.
  • the reference position In association with the moved reference position and slide position, the reference position is moved so that the distance between the part and the slide position is less than or equal to a predetermined distance in accordance with the slide operation, and the shape of the first deformable object is further deformed
  • the initial object has a circular shape centered on the contact position, and the first object deforming unit extends the circular shape from the contact position toward the slide position.
  • the first object is formed by deforming the shape of the initial object.
  • the second object deforming unit deforms the shape of the first object to form a second deformed object so as to shrink toward the reference position moved from the reference position associated with the contact position.
  • the initial object formed in the initial object forming unit includes an inner object arranged around the contact position and an outer object arranged outside the inner object.
  • the first deformed object is formed by deforming the shape of the initial object so that the inner object is moved from the contact position toward the slide position.
  • the shape of the first deforming object is deformed so that the outer object is moved from the reference position associated with the contact position toward the moved reference position. It is characterized by forming.
  • the inner object and the outer object have a concentric shape centered on the contact position.
  • FIG. 1 is a schematic diagram showing a virtual joystick as an example of a prior art UI.
  • FIG. 2 is a schematic diagram of a mobile terminal for executing a UI program according to an embodiment of the present invention.
  • FIG. 3 is a block diagram schematically showing the configuration of the mobile terminal of FIG.
  • FIG. 4 is a block diagram showing an outline of input / output in the mobile terminal of FIG.
  • FIG. 5 is a main functional block diagram implemented using the UI program according to the embodiment of the present invention.
  • FIG. 6 is a flowchart showing information processing by the UI program according to the embodiment of the present invention.
  • FIG. 7 is a schematic diagram illustrating a UI object modification according to the first embodiment.
  • FIG. 8 is a schematic diagram illustrating a UI object modification according to the second embodiment.
  • FIG. 9 is a schematic diagram illustrating the initial configuration of the elastic icon formed by the second embodiment.
  • FIG. 10 is a schematic diagram illustrating a configuration of deformation of the elastic icon formed by the second embodiment.
  • FIG. 11 is a schematic diagram illustrating the basic configuration of the elastic icon formed by the second embodiment.
  • FIG. 12 is a schematic diagram illustrating the basic configuration of the elastic icon formed by the second embodiment.
  • FIG. 13 is a schematic diagram illustrating a configuration of deformation of the elastic icon formed by the second embodiment.
  • FIG. 14 is a schematic diagram illustrating a modification of the elastic icon formed by the second embodiment.
  • FIG. 15 is a schematic diagram illustrating a series of modified examples of the elastic icons formed according to the second embodiment.
  • FIG. 16 is a schematic diagram illustrating a UI object modification according to the second embodiment.
  • the UI program according to the embodiment of the present invention mainly constitutes a part of a game program as a smartphone game. More specifically, this UI program is used as a part of the game program to control the action of the game character in the virtual space.
  • the smartphone 1 includes a touch panel 2, and the user can control the operation of the game character through a user operation including a touch operation on the touch panel 2.
  • the mobile terminal for executing the UI program according to the present embodiment is not limited to the smartphone 1 in FIG. 2 and can be any device as long as it is a terminal having a touch panel, such as a PDA or a tablet computer device. Is understood.
  • the smartphone 1 includes a CPU 3, a main memory 4, an auxiliary memory 5, a transmission / reception unit 6, a display unit 7, and an input unit 8 that are connected to each other via a bus.
  • the main memory 4 is composed of, for example, a DRAM
  • the auxiliary memory 5 is composed of, for example, an HDD.
  • the auxiliary memory 5 is a recording medium capable of recording the UI program according to the present embodiment.
  • the UI program stored in the auxiliary memory 5 is expanded on the main memory 4 and executed by the CPU 3. Note that data generated while the CPU 3 operates in accordance with the UI program and data used by the CPU 3 are also temporarily stored on the main memory 4.
  • the transmission / reception unit 6 establishes connection (wireless connection and / or wired connection) between the smartphone 1 and the network under the control of the CPU 3 and transmits / receives various information.
  • the display unit 7 displays various information to be presented to the user under the control of the CPU.
  • the input unit 8 detects an input operation (mainly, a physical contact operation such as a touch operation, a slide (swipe) operation, and a tap operation) performed on the touch pal 2 by the user.
  • the display unit 7 and the input unit 8 correspond to the touch panel 2 described above.
  • the touch panel 2 includes a touch sensing unit 301 corresponding to the input unit 8 and a liquid crystal display unit 302 corresponding to the display unit 7.
  • the touch panel 2 displays an image under the control of the CPU 3, receives an interactive touch operation (such as a physical contact operation on the touch panel 2) by the player, and displays a corresponding graphic based on the control of the control unit 303. Displayed on the liquid crystal display unit 302.
  • the touch sensing unit 301 outputs an operation signal corresponding to the touch operation by the user to the control unit 303.
  • the touch operation can be performed by any object.
  • the touch operation may be performed by a user's finger, or a stylus may be used.
  • a capacitance type can be adopted, but is not limited thereto.
  • the control unit 303 detects an operation signal from the touch sensing unit 301, the control unit 303 determines as an operation instruction to the user's character, and transmits a graphic (not shown) corresponding to the instruction operation to the liquid crystal display unit as a display signal. Process.
  • the liquid crystal display unit 302 displays a graphic corresponding to the display signal.
  • the function set controls the user operation unit 800 related to the user input operation and object formation through the touch panel, and the operation of the character in the virtual space in the game according to the user input operation, and the user operates the character.
  • the character motion control unit 900 is included.
  • the user operation unit 800 mainly includes a contact determination unit 810, a reference position / position alignment unit 820, an initial shape object formation unit 830, a slide operation determination unit 840, a first deformation object formation unit 850, and a second deformation object formation unit. 860 included.
  • the contact determination unit 810 determines whether there is a touch operation, that is, contact with an object on the touch panel.
  • the initial shape object forming unit 830 displays an initial object having an initial shape around the contact point on the touch panel.
  • the reference position of the object is aligned with the contact point on the touch panel by the reference position / alignment unit 820, and in response to this, the initial shape object forming unit 830 determines the initial shape of the initial object associated with the reference position. Form and display.
  • the slide operation determination unit 840 determines whether a slide operation has been performed from the contact position by the object to the slide position on the touch panel.
  • the first deformable object forming unit 850 changes the shape of the initial object generated by the initial shape object forming unit 830 and changes the first deformable object accordingly. Form.
  • the shape of the initial object is deformed by associating it with the reference position and slide position of the object (described later).
  • the second deformable object forming unit 860 measures the distance of the slide operation (that is, the distance between the reference position and the slide position) over time while the first deformable object forming unit 850 forms the deformed object by the slide operation. .
  • the reference position is moved in the slide direction so as to be equal to or less than the predetermined distance. More specifically, the reference position is moved simultaneously with the slide operation or after the end of the slide operation so as to keep the distance between the reference position and the slide position below a predetermined distance.
  • the shape of the formed first deformable object is further deformed to form a second deformable object. The further deformation is performed by associating with the moved reference position and slide position (described later).
  • the character action control unit 900 determines the action (action) of the game character.
  • action an example of an action for moving a game character is assumed in relation to object generation accompanying a slide operation, but it goes without saying that the present invention is not limited to this.
  • step S101 the contact determination unit 810 determines contact with the touch panel. If the contact determination unit 810 determines that there is contact with an object (finger), the process proceeds to step S103, the reference position / positioning unit 820 aligns the reference position of the object with the contact point, and the initial shape object forming unit. By 830, the initial shape of the initial object associated with the reference position is formed and displayed.
  • step S104 the slide operation determination unit 840 determines whether a slide operation with an object has been performed on the touch panel. If the slide operation determination unit 840 determines that a slide operation has been performed, the process proceeds to step S105.
  • step S105 the first deformed object forming unit 850 deforms the shape of the initial object generated by the initial shape object forming unit 830 and forms and displays the first deformed object according to the slide operation. This deformation is performed by being associated with the reference position and slide position of the object (described later).
  • step S106 the second deformable object forming unit 860 measures the distance between the reference position and the slide position over time, and determines whether the distance is equal to or greater than a predetermined distance.
  • the second deformable object forming unit 860 moves the reference position so that the distance between the reference position and the slide position is a predetermined distance or less, and the first deformable object formed by the first deformable object forming unit 850.
  • the second deformed object is formed by further deforming the shape in association with the moved reference position and slide position.
  • FIG. 7 shows a first embodiment corresponding to an improved version of the virtual joystick shown in FIG. 1
  • FIG. 8 shows a second embodiment based on the formation of another type of object, namely an elastic icon. Is.
  • the object 100 and the game character 150 move on the touch panel as shown in FIGS. That is, in FIG. 7A, the game character 150-a is displayed at the upper left portion of the screen, and the user tries to move the game character 150-a at any position on the touch panel (here, the lower left portion of the screen). ) Is performed (step S102 in FIG. 6).
  • the contact position in the xy coordinates on the touch panel is (x0, y0).
  • an initial object (virtual joystick) 100-a is formed and displayed around the contact position (x0, y0) (step S103).
  • the initial virtual joystick 100-a formed in the initial object forming unit 830 includes an inner object and an outer object arranged around the initial object. More specifically, the center of the double circle of the initial virtual joystick 100-a has a concentric shape including a small circle C1 centered on the contact position (x0, y0) and a large circle C2 outside the small circle. Is related to the contact position (x0, y0). It should be understood that the shape of the inner object and the outer object is not limited to a circular shape, and may be any shape such as a polygon.
  • the first deformed object forming unit 850 keeps the position of the outer object (large circle) C2 at the contact position (x0, y0), and only the arrangement of the inner object (small circle) C1 ′ is in contact with the center.
  • the image is slid from the position (x0, y0) toward the slide position (x1, y1) and displayed (step S105).
  • the shape of the initial virtual joystick 100-a is deformed to form the first deformed virtual joystick 100-b. Note that it is visually recognized that the game character 150-b is also moved in the lower right direction in cooperation with the slide in the lower right direction.
  • the slide operation distance D1 is a predetermined distance. If it exceeds d (step S106), the first deformed object forming unit 850 further displays the small circle C1 ′′ by sliding it from the (x1, y1) to the slide position (x2, y2). To do.
  • the second object deforming unit 860 associates the reference position with (x3, y3) so that the distance from the slide position (x2, y2) is the predetermined distance d, and simultaneously with the slide operation, the outer object (large circle) ) Slide it to (x3, y3) so that C2 'follows (dotted arrow).
  • the shape of the first deformed virtual joystick 100-b is further deformed to form the second deformed virtual joystick 100-c (step S107). It is noted that the game character 150-c is also moved in the lower right direction in cooperation with the slide in the lower right direction.
  • the predetermined distance may be the radius of the outer object (great circle) C2, or may be determined based on the size of the great circle.
  • the outer object may be caused to follow so that it does not protrude outside the outer object as a result of the movement of the inner object region.
  • the movement of the reference position in the second object deformation unit 860 (dotted arrow in FIG. 7C) may be performed along the path direction of the slide operation by the user, or along the linear direction toward the slide position. You may go.
  • the user's initial contact motion may be at an arbitrary position, and the virtual joystick is slid by an arbitrary distance in an arbitrary direction. Even if the small circle is slid, the large circle will follow this. As a result, it is advantageous in that it can be operated dynamically by the user using the entire screen without any display restrictions. .
  • the object 200 and the game character 250 move on the touch panel as shown in FIGS.
  • the object of this embodiment is called an “elastic icon” because it behaves as an elastically deforming icon like an elastic body.
  • the game character 250-a is displayed at the upper left of the screen.
  • the user performs an operation of touching an arbitrary position on the touch panel (here, the center left portion of the screen) in order to move the game character 250-a (step S102 in FIG. 6).
  • the contact position in the xy coordinates on the touch panel is (X0, Y0).
  • an initial elasticity icon 200-a is displayed around the contact position (X0, Y0) (step S103).
  • the initial elastic icon 200-a formed in the initial object forming unit 830 has a circular shape centered on the contact position (x0, y0), and the contact position with the center of the circle of the initial elastic icon 200-a as the reference position. Associated with (X0, Y0).
  • the first deformed object is formed as shown in FIG. 8B.
  • the portion 850 forms and displays the first deformed elastic icon 200-b by elastically deforming the shape of the initial object so as to extend the circular shape from the contact position (X0, Y0) to the slide position (X1, Y1). (Step S105). Note that it is visually recognized that the game character 250-b is also moved in the right direction in cooperation with the slide in the right direction.
  • the second object deforming unit 860 associates the reference position with (X2, Y2) so that the distance from the slide position (X1, Y1) is a predetermined distance d, and the rear part of the elastic icon followss from the (X0, Y0) to the reference position (X3, Y3) so that the elastic icon contracts.
  • a second deformed elastic icon 200-c is formed by further deforming the shape of the elastic icon 200-b (step S107). It is visually recognized that the game character 250-c is also moved in the right direction in cooperation with the rightward slide.
  • the predetermined distance d is preferably determined based on the vertical length and / or the horizontal length of the touch panel.
  • the movement of the reference position in the second object deforming unit 860 may be performed along the route direction of the slide operation by the user, or along the linear direction toward the slide position. You may go.
  • the elastic icon of the second embodiment is similar to the first embodiment in that the user's first contact operation may be at an arbitrary position, and the elastic icon is slid by moving an arbitrary distance in an arbitrary direction. Even if it is made, it is possible to follow the rear part of the elastic icon, and as a result, it is advantageous in that it can be operated dynamically by the user using the entire screen without being restricted in display.
  • the elastic icon 400 according to the second embodiment includes a fixed circle 410 and an elastic object 420 positioned inside the fixed circle 410 in more detail.
  • the elasticity icon 400 is displayed on the touch panel 2 when the contact operation determination unit 810 detects that the user's finger has touched the touch panel 2 as a trigger.
  • the elastic object 420 is formed to have a circular shape around a contact point on the touch panel 2 as an initial shape at the time of finger contact.
  • the elastic object 420 behaves with elastic deformation like an elastic body in response to a user operation on the touch panel. Specifically, when the user performs a slide operation on the touch panel 2, the elastic object 420 is elastically deformed so as to be pulled by the user's finger. As shown in the figure, the elastic object 420 is located near the base portion 430 that is located at the contact position of the slide operation and the position is fixed, and the slide position of the slide operation (note: the finger is in contact). It is comprised so that the front-end
  • the base portion 430, the connecting portion 440, and the tip portion 450 may be collectively referred to as an elastic object 420.
  • the elastic icon is formed so as to elastically extend in the direction in which the slide operation is performed. That is, the elastic object 420 elastically deformed is formed and displayed by extending the initial circular shape toward the icon position.
  • the elastic object 420 is formed so that the base portion 430 is larger than the tip portion 450.
  • the elastic object 420 is not limited to this, and conversely, even if the tip portion 450 is formed larger than the base portion 430. Good. Further, when the user further slides on the touch panel, the distal end portion 450 can also follow the movement further, and the extending direction of the elastic object 420 can be changed.
  • FIG. 11 schematically shows a UI image of an elastic icon having an initial circular shape formed when a finger touches the touch panel 2.
  • an image is generated as a substantially square UI image 750 and superimposed as a part of the game image.
  • the UI image 750 includes a translucent area 760 and a transparent area 770, and the translucent area 760 is displayed on the screen as a basic display area of the elastic icon.
  • the elastic icon of the second embodiment is accommodated in a substantially square mesh area and is formed as a polygon divided into a plurality of meshes 710.
  • the deformation by elastic icon expansion through the UI program according to the present embodiment is realized by virtually executing a process of expanding the UI image 750 like a rubber sheet, in particular, a physical operation process of expanding for each mesh. Is done.
  • the elastic icon according to the second embodiment expresses elastic deformation by moving the coordinates of each vertex 720 of the plate-like polygon 700 divided into a plurality of meshes 710. Each vertex 720 is arranged in a mesh shape. When the coordinates of an arbitrary vertex 720A are moved by a slide operation, the other vertex 720 is also coordinated according to a movement vector (for example, a moving direction and a moving distance) related to the vertex 720A. Is changed.
  • a movement vector for example, a moving direction and a moving distance
  • the moving distance of the vertices 720 other than the vertex 720A may be weighted by the distance from the vertex 720A. That is, as shown in FIG. 12, the amount of change in coordinates may be reduced as the distance from the vertex 720A increases (as the distance from the vertex 720A increases).
  • the white circle in FIG. 13 represents the position of the vertex before a movement (namely, FIG. 12).
  • FIG. 14 schematically shows an example of the elastic object 420a deformed based on the second embodiment.
  • the deformed elastic object is formed by extending the initial circular shape generated by the initial shape object forming unit 830 toward the slide position along the direction of the slide operation.
  • 420a ' is formed.
  • each of the plurality of meshes maintains the same rectangular shape for each column (# 1 to # 4).
  • the mesh in the row (# 1) closer to the contact end point is progressively more progressive than the mesh in the far row (# 4). Stretch to long.
  • the expansion rate of each column may be weighted and distributed according to the moving distance L by the slide operation.
  • # 4 is 10%
  • # 3 is 15%
  • # 2 is 30%
  • # 1 is 45% (total of 100%).
  • weight distribution is performed so that # 1 is further increased, such as # 4 is 1%, # 3 is 4%, # 2 is 35%, and # 1 is 60%. Also good.
  • the tip of the elastic object is extended by a sliding operation with respect to the initial circular elastic icon (FIG. 15A) (FIGS. 15B and 15C).
  • FIG. 15 (c) the initial circular elastic icon
  • the base can be moved by sliding the reference position, and the elastic icon can be deflated.
  • the elastic icon according to the second embodiment can be freely expanded / reduced by associating with the touch position and the slide position on the touch panel in the slide operation, that is, by determining the slide movement amount and the slide direction. Can be formed.
  • the object deformation process according to the second embodiment is particularly advantageous when the user performs a continuous slide operation as shown in FIG. That is, as shown in FIG. 16A, when the user performs a slide operation by a distance D3 from the start point 1 to the end point 1 in the right direction, the game character is in the game by a distance corresponding to the effective distance D3 for the elastic icon. Will move in.
  • the slide operation distance D3 is equal to or greater than the predetermined distance d
  • the reference position (start point) slides rightward and follows as shown in FIG.

Abstract

配置位置を固定することをなく任意の画面位置に配置可能とし、画面全体を使ってダイナミックに操作可能とするUIを提供する。本発明によるUIプログラムは、タッチパネル上の任意の接触位置への接触に応じて、基準位置を接触位置に位置合わせして、基準位置に関連付けられる初期オブジェクトを形成して表示する初期オブジェクト形成部、タッチパネル上での接触位置からスライド位置までスライド操作が行われた場合、初期オブジェクトの形状を変形した、基準位置およびスライド位置に関連付けられる第1変形オブジェクトを表示する第1オブジェクト変形部、スライド操作に伴い、スライド位置との距離を所定の距離以下となるように基準位置を移動させ、第1変形オブジェクトの形状を更に変形した、移動した基準位置およびスライド位置に関連付けられる第2変形オブジェクトを表示する第2オブジェクト変形部として携帯端末に機能させる。

Description

ユーザ・インタフェース・プログラム
 本発明は、ユーザ・インタフェース(以下、「UI」と称する。)プログラムに関するものである。より詳細には、スマートフォン上で実行されるゲーム(以下、「スマートフォン・ゲーム」と称する。)で使用され、物体による接触およびスライド操作に応じて、タッチパネル上でオブジェクトを視覚的に表示させるためのUIプログラムに関するものである。
 スマートフォン・ゲームに用いられるUIとして、例えば、特許文献1に開示される従来技術が知られる。特許文献1に開示された技術は、スマートフォンのタッチパネルに操作ボタン(所謂、十字キー、ジョイスティック等)を表示するものであり(〔要約〕参照)、ユーザは、当該操作ボタンによる操作を通じて、ゲーム・キャラクタの移動等を行うことができる。
 また、特許文献1と同様のUIとして、図1に示したバーチャル・ジョイスティックが知られる。バーチャル・ジョイスティックは、今日リリースされている数多くのスマートフォン・ゲームにおいて採用されている。具体的には、図1に示されるUIは、大小2つの円を同心円状に配置して表示するように構成される。大きい方の円は画面の所定位置に固定して表示される。ユーザによりスライド操作が実施された際には(図1では横方向の矢印)、小さい方の円がスライド操作の方向に大きい円周上までずれるようにスライド移動し、これに伴いゲーム・キャラクタも横方向に移動する。ユーザは、大きい円の円周上における小さい円の位置により、ゲーム・キャラクタの移動方向を視認しながら、ゲームをプレイすることができる。
 このようなバーチャル・ジョイスティックは、単に、従来の家庭用ゲーム機(任天堂株式会社のファミリーコンピュータ(登録商標)等)といったゲーム体験をスマートフォン上で擬似的に提供するために、物理的な操作キーを仮想的に表示したものに過ぎない。特に、従来技術のバーチャル・ジョイスティックは、表示領域がスマートフォンの画面右下や左下といった固定位置に配置され、ユーザは操作時に指を当該固定位置に位置合わせしなければならず、且つ操作領域も制限されるといった点でユーザ操作性に優れているとは言い難い。特に昨今のスマートフォン・ゲームはコンテンツの複雑化に伴いユーザ操作が益々複雑化しており、ユーザ操作性に優れたUIが求められている。
特開2012-168931号公報
 本発明は、このようなスマートフォン・ゲームで用いる従来技術のUIを改良して、ユーザ操作性に優れた改良UIのためのプログラムを提供することを目的とする。より具体的には、配置位置を固定することをなく任意の画面位置に配置可能とし、画面全体を使ってダイナミックに操作可能とするUIのためのプログラムを提供することを目的とする。
 上記課題を解決するために、タッチパネルを備える携帯端末に機能させるユーザ・インタフェース(UI)プログラムを提供する。
(1)本発明のUIプログラムは、タッチパネル上の任意の接触位置への接触に応じて、基準位置を接触位置に位置合わせして、基準位置に関連付けられる初期オブジェクトを形成して表示する初期オブジェクト形成部と、タッチパネル上での接触位置からスライド位置までスライド操作が行われた場合に、初期オブジェクトの形状を変形した、基準位置およびスライド位置に関連付けられる第1変形オブジェクトを表示する第1オブジェクト変形部と、スライド操作に伴い、スライド位置との距離を所定の距離以下となるように基準位置を移動させ、第1変形オブジェクトの形状を更に変形した、移動した基準位置およびスライド位置に関連付けられる第2変形オブジェクトを表示する第2オブジェクト変形部と、としてタッチパネルを具備する携帯端末に機能させる。
(2)上記UI(1)のプログラムでは、初期オブジェクトが前記接触位置を中心とした円形状を有し、第1オブジェクト変形部において、接触位置からスライド位置に向けて円形状を伸張させるように初期オブジェクトの形状を変形して第1変形オブジェクトを形成することを特徴とする。また、第2オブジェクト変形部において、接触位置に関連付けられた基準位置から移動された基準位置に向けて萎縮するように、第1オブジェクトの形状を変形して第2変形オブジェクトを形成することを特徴とする。
(3)上記(1)のUIプログラムでは、初期オブジェクト形成部において形成される初期オブジェクトが接触位置の周囲に配置される内側オブジェクトと該内側オブジェクトの外側に配置される外側オブジェクトとを含み、第1オブジェクト変形部において、接触位置からスライド位置に向けて内側オブジェクトを移動させるように初期オブジェクトの形状を変形して第1変形オブジェクトを形成することを特徴とする。また、第2オブジェクト変形部において、接触位置に関連付けられた基準位置から上記移動された基準位置に向けて外側オブジェクトを移動させるように、第1変形オブジェクトの形状を変形して第2変形オブジェクトを形成することを特徴とする。更に、内側オブジェクトおよび外側オブジェクトが、接触位置を中心とした同心円形状を有することを特徴とする。
図1は、従来技術のUIの一例のバーチャル・ジョイスティックについて示した模式図である。 図2は、本発明の実施の形態によるUIプログラムを実行するための携帯端末の模式図である。 図3は、図2の携帯端末の構成を模式的に示したブロック図である。 図4は、図3の携帯端末における入出力の概要を示したブロック図である。 図5は、本発明の実施の形態によるUIプログラムを用いて実装される主要機能ブロック図である。 図6は、本発明の実施の形態によるUIプログラムによる情報処理について示したフローチャートである。 図7は、第1実施例によるUIのオブジェクト変形例について示した概要図である。 図8は、第2実施例によるUIのオブジェクト変形例について示した概要図である。 図9は、第2実施例により形成される弾性アイコンの初期の構成について説明した模式図である。 図10は、第2実施例により形成される弾性アイコンの変形の構成について説明した模式図である。 図11は、第2実施例により形成される弾性アイコンの基本構成について説明した模式図である。 図12は、第2実施例により形成される弾性アイコンの基本構成について説明した模式図である。 図13は、第2実施例により形成される弾性アイコンの変形の構成について説明した模式図である。 図14は、第2実施例により形成される弾性アイコンの変形例について説明した模式図である。 図15は、第2実施例により形成される弾性アイコンの一連の変形例について説明した模式図である。 図16は、第2実施例によるUIのオブジェクト変形例について示した概要図である。
 これより図2以降を参照して、本発明の実施形態による、ユーザ・インタフェース(UI)プログラムについて説明する。図中、同一の構成要素には同一の符号を付してある。本発明の実施の形態によるUIプログラムは、主に、スマートフォン・ゲームとしてのゲーム・プログラムの一部を構成する。より詳しくは、本UIプログラムは、ゲーム・プログラムの一部として、仮想空間内においてゲーム・キャラクタの動作を制御するために用いられるものである。
 図2に示すように、スマートフォン1は、タッチパネル2を備えており、ユーザは当該タッチパネル2上でのタッチ操作を含むユーザ操作を介してゲーム・キャラクタの動作を制御することができる。なお、本実施の形態によるUIプログラムを実行するための携帯端末は、図2のスマートフォン1に限定されず、例えば、PDA、タブレット型コンピュータのデバイスなど、タッチパネルを備える端末であれば如何なるデバイスともできることが理解される。
 図3に示すように、スマートフォン1は、互いにバス接続されたCPU3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備える。このうち主記憶4は例えばDRAMなどで構成され、補助記憶5は例えばHDDなどで構成されている。補助記憶5は、本実施の形態によるUIプログラムを記録可能な記録媒体である。補助記憶5に格納されたUIプログラムは、主記憶4上に展開されてCPU3によって実行される。なお、主記憶4上には、CPU3がUIプログラムに従って動作している間に生成したデータやCPU3によって利用されるデータも一時的に格納される。送受信部6はCPU3の制御によりスマートフォン1とネットワークとの間の接続(無線接続および/または有線接続)を確立して各種情報の送受信を行う。表示部7は、CPUでの制御の下でユーザに提示することになる各種情報を表示する。入力部8は、ユーザのタッチパル2に対する入力操作(主に、タッチ操作、スライド(スワイプ)操作およびタップ操作等の物理的接触操作)を検知する。
 表示部7及び入力部8は、上述したタッチパネル2に相当する。図4に示すように、タッチパネル2は、入力部8に相当するタッチセンシング部301と表示部7に相当する液晶表示部302とを有する。タッチパネル2は、CPU3による制御の下で、画像を表示して、プレイヤによるインタラクティブなタッチ操作(タッチパネル2における物理的接触操作等)を受け、制御部303での制御に基づいてそれに対応するグラフィックを液晶表示部302に表示する。
 より具体的には、上記タッチセンシング部301は、ユーザによるタッチ操作に応じた操作信号を制御部303に出力する。タッチ操作は、何れの物体によるものとすることができ、例えば、ユーザの指によりなされてもよいし、スタイラス等を用いてもよい。また、タッチセンシング部301として、例えば、静電容量タイプのものを採用することができるが、これに限定されない。制御部303は、タッチセンシング部301からの操作信号を検出すると、ユーザのキャラクタへの操作指示として判断し、当該指示操作に応じたグラフィック(図示せず)を液晶表示部へ表示信号として送信する処理を行う。液晶表示部302は、表示信号に応じたグラフィックを表示する。
 これより図5を参照して、本実施の形態によるUIプログラムとして実装され、携帯端末に機能させる主要な機能のセットについて説明する。当該機能セットを通じて、操作信号としての入力を処理して、表示信号としての出力を生成することになる。当該機能セットは、タッチパネルを通じたユーザ入力操作およびオブジェクト形成に関連するユーザ操作部800、並びに当該ユーザ入力操作に応じてゲームでの仮想空間内のキャラクタの動作を制御してユーザがキャラクタを操作するためのキャラクタ動作制御部900を含む。ユーザ操作部800は、主に、接触判定部810、基準位置・位置合わせ部820、初期形状オブジェクト形成部830、スライド操作判定部840、第1変形オブジェクト形成部850、および第2変形オブジェクト形成部860を含む。
 接触判定部810では、タッチ操作、即ちタッチパネル上で物体による接触があるかを判定する。接触判定部810で物体による接触が判定されると、初期形状オブジェクト形成部830では、タッチパネル上の接触点の周囲に初期形状を有する初期オブジェクトを表示する。その際、基準位置・位置合わせ部820によってオブジェクトの基準位置がタッチパネル上の接触点に位置合わせされ、これを受けて、初期形状オブジェクト形成部830では、基準位置に関連付けられる初期オブジェクトの初期形状を形成して表示する。
 スライド操作判定部840では、タッチパネル上で、物体による接触位置からスライド位置までスライド操作が行われたかを判定する。接触位置からスライド位置までスライド操作が判定されると、これに応じて、第1変形オブジェクト形成部850では、初期形状オブジェクト形成部830で生成した初期オブジェクトの形状を変形して第1変形オブジェクトを形成する。初期オブジェクトの形状の変形は、オブジェクトの基準位置およびスライド位置に関連付けることで行われる(後記)。
 第2変形オブジェクト形成部860では、上記スライド操作により第1変形オブジェクト形成部850で変形オブジェクトを形成する間、スライド操作の距離(即ち、基準位置とスライド位置との距離)を経時的に測定する。そして、スライド移動距離が所定の距離を超えると判断した場合には、当該所定の距離以下となるように上記基準位置をスライド方向に向けて移動させる。より詳細には、基準位置とスライド位置との距離を所定の距離以下に保つように、スライド操作と同時に、またはスライド操作終了後に基準位置を移動させ、その際、第1変形オブジェクト形成部850で形成した第1変形オブジェクトの形状を更に変形させて第2変形オブジェクトを形成する。当該更なる変形は、やはり移動した基準位置およびスライド位置に関連付けることで行われる(後記)。
 ユーザ操作部800で形成される各種オブジェクト(初期オブジェクト、第1変形オブジェクト、および第2変形オブジェクト)の形状に応じて、キャラクタ動作制御部900では、ゲーム・キャラクタの動作(アクション)が決定される。以下の実施形態では、一例として、スライド操作に伴うオブジェクト生成に関連し、ゲーム・キャラクタを移動させるアクション例を想定するが、これに限定されないことは言うまでもない。
 本実施の形態によるUIプログラムで実装される上記機能に基づいて、ユーザによるスライド操作に伴いオブジェクトを変形させるための一連の情報処理について図6のフローチャートを参照して説明する。図示のとおり、フローチャートは、ステップS101で開始し、ステップS102で、接触判定部810によりタッチパネルへの接触判定がなされる。接触判定部810で物体(指)による接触があると判定されると、ステップS103に進み、基準位置・位置合わせ部820によりオブジェクトの基準位置を接触点に位置合わせすると共に、初期形状オブジェクト形成部830により基準位置に関連付けられる初期オブジェクトの初期形状を形成して表示する。
 次いで、ステップS104に進み、スライド操作判定部840により、タッチパネル上で物体によるスライド操作が行われたかを判定する。スライド操作判定部840でスライド操作がなされたと判定されると、ステップS105に進む。ステップS105では、スライド操作に応じて、第1変形オブジェクト形成部850により、初期形状オブジェクト形成部830で生成した初期オブジェクトの形状を変形させて第1変形オブジェクトを形成および表示する。この変形は、オブジェクトの基準位置およびスライド位置に関連付けられることで行われる(後記)。
 引き続き、ステップS106に進み、第2変形オブジェクト形成部860によって、基準位置とスライド位置との距離を経時的に測定し、距離が所定の距離以上かについて判定される。その場合、第2変形オブジェクト形成部860は、基準位置とスライド位置との距離を所定の距離以下となるように基準位置を移動させると共に、第1変形オブジェクト形成部850で形成した第1変形オブジェクトの形状を更に、移動した基準位置およびスライド位置に関連付けて変形させることで第2変形オブジェクトを形成する。最後に本処理フローはステップS108で終了する。
 図5の機能ブロック図および図6のフローチャートのようにして実装されるUIプログラムを実行した場合のオブジェクト変形に関する実施例について、次に図7および図8を参照して説明する。図7は、図1に示したバーチャル・ジョイスティックを改良したものに相当する第1実施例を示し、図8は、別の種別のオブジェクト、即ち弾性アイコンの形成に基づく第2実施例を示したものである。
第1実施例(改良バーチャル・ジョイスティック)
 図7に示した第1実施例では、図7(a)から(c)のようにタッチパネル上でオブジェクト100およびゲーム・キャラクタ150が移動する。つまり、図7(a)では、ゲーム・キャラクタ150-aが画面左上部に表示されており、ユーザはゲーム・キャラクタ150-aを移動させようとして、タッチパネルの任意の位置(ここでは画面左下部)への接触操作を行う(図6のステップS102)。ここで、タッチパネル上のxy座標における接触位置を(x0,y0)とする。
 図示のように、接触位置(x0,y0)の周囲に初期オブジェクト(バーチャル・ジョイスティック)100-aが形成および表示される(ステップS103)。初期オブジェクト形成部830において形成される初期バーチャル・ジョイスティック100-aは、初期オブジェクトの周囲に配置される内側オブジェクトおよび外側オブジェクトを含む。より詳細には、接触位置(x0,y0)を中心とした小円C1と該小円の外側の大円C2を含む同心円形状を有し、初期バーチャル・ジョイスティック100-aの2重円の中心を基準位置として接触位置(x0,y0)に関連付けられる。なお、内側オブジェクトおよび外側オブジェクトの形状は円形状に限定されず、多角形等の如何なる形状にもすることができる点が理解されるべきである。
 初期バーチャル・ジョイスティック100-aが表示された状態で、ユーザがタッチパネル上のスライド操作により、右下方向のスライド位置(x1,y1)までスライドした場合(ステップS104)、図7(b)のように、第1変形オブジェクト形成部850により、外側オブジェクト(大円)C2の位置を接触位置(x0,y0)に固定したまま、内側オブジェクト(小円)C1’の配置のみを、その中心が接触位置(x0,y0)からスライド位置(x1,y1)に向けてスライド移動させて表示する(ステップS105)。このようにして、初期バーチャル・ジョイスティック100-aの形状が変形されて第1変形バーチャル・ジョイスティック100-bが形成される。なお、当該右下方向へのスライドと連携してゲーム・キャラクタ150-bも右下方向に移動されていることが視認される。
 引き続き、図7(c)のように、ユーザがタッチパネル上の更なるスライド操作により右下方向のスライド位置(x2,y2)まで指をスライドした場合であって、スライド操作距離D1が所定の距離dより以上となる場合(ステップS106)、第1変形オブジェクト形成部850により、小円C1’’の配置を更に(x1,y1)からスライド位置(x2,y2)に向けてスライド移動させて表示する。これと共に、第2オブジェクト変形部860により、スライド位置(x2,y2)との距離が所定の距離dを保つように基準位置を(x3,y3)に関連付け、スライド操作と同時に外側オブジェクト(大円)C2’が追従するように(x3,y3)までスライド移動させる(点線矢印)。このようにして、第1変形バーチャル・ジョイスティック100-bの形状を更に変形して第2変形バーチャル・ジョイスティック100-cを形成する(ステップS107)。なお、当該右下方向へのスライドと連携してゲーム・キャラクタ150-cも右下方向に移動されていることが視認される。
 上記所定の距離は、第1実施例では、外側オブジェクト(大円)C2の半径としてよく、または大円の大きさに基づいて決定するのがよい。これ以外にも、内側オブジェクトの領域が移動した結果、外側オブジェクトの外側にはみ出ることのないように外側オブジェクトを追従させてもよい。また、第2オブジェクト変形部860における基準位置の移動(図7(c)の点線矢印)は、ユーザによるスライド操作の経路方向に沿って行ってもよいし、スライド位置に向けた直線方向に沿って行ってもよい。
 第1実施例では、図1の従来型のバーチャル・ジョイスティックと比べ、ユーザの最初の接触動作が任意の位置でよい点、そして、任意の方向に任意の距離だけスライド操作してバーチャル・ジョイスティックの小円をスライド移動させたとしても、大円もこれに追従することになるため、結果として、表示上の制約を受けず画面全体を使ってダイナミックにユーザ操作可能な点において有利なものとなる。
第2実施例(弾性アイコン)
 次に、図8に示した第2実施例では、図8(a)から(c)のようにタッチパネル上でオブジェクト200およびゲーム・キャラクタ250が移動する。(本実施例のオブジェクトは、弾性体の如く弾性変形するアイコンとして振る舞うことから「弾性アイコン」と称する。)つまり、図8(a)では、ゲーム・キャラクタ250-aが画面左上部に表示されており、ユーザはゲーム・キャラクタ250-aを移動させようとして、タッチパネルの任意の位置(ここでは、画面中央左部)への接触操作を行う(図6のステップS102)。ここで、タッチパネル上のxy座標における接触位置を(X0,Y0)とする。
 図示のように、接触位置(X0,Y0)の周囲に初期弾性アイコン200-aが表示される(ステップS103)。初期オブジェクト形成部830において形成される初期弾性アイコン200-aは、接触位置(x0,y0)を中心とした円形状を有し、初期弾性アイコン200-aの円の中心を基準位置として接触位置(X0,Y0)に関連付けられる。
 この状態で、ユーザがタッチパネル上でスライド操作を行うことにより、右方向のスライド位置(X1,Y1)までスライド操作した場合(ステップS104)、図8(b)のように、第1変形オブジェクト形成部850により、接触位置(X0,Y0)からスライド位置(X1,Y1)に向けて円形状を伸張させるように初期オブジェクトの形状を弾性変形して第1変形弾性アイコン200-bを形成および表示する(ステップS105)。なお、当該右方向へのスライドと連携してゲーム・キャラクタ250-bも右方向に移動されていることが視認される。
 引き続き、ユーザがタッチパネル上で図8(b)から更に右方向に(X2,Y2)までスライド操作した場合であって、図8(c)のように、スライド操作距離D2が所定の距離d以上となる場合(ステップS106)、第2オブジェクト変形部860により、スライド位置(X1,Y1)との距離が所定の距離dとなるように基準位置を(X2,Y2)に関連付け、弾性アイコンの後部が(X0,Y0)から基準位置(X3,Y3)に向けて弾性アイコンが萎縮するように追従する。このようにして、弾性アイコン200-bの形状を更に変形させた第2変形弾性アイコン200-cを形成する(ステップS107)。なお、当該右方向へのスライドと連携してゲーム・キャラクタ250-cも右方向に移動されていることが視認される。
 上記所定の距離dは、第2実施例ではタッチパネルの縦方向の長さおよび/または横方向の長さに基づいて決定するのがよい。また、第2オブジェクト変形部860における基準位置の移動(図8(c)の点線矢印)は、ユーザによるスライド操作の経路方向に沿って行ってもよいし、スライド位置に向けた直線方向に沿って行ってもよい。
 第2実施例の弾性アイコンは、第1実施例と同様、ユーザの最初の接触動作が任意の位置でよい点、そして、任意の方向に任意の距離だけスライド操作して、弾性アイコンをスライド移動させたとしても弾性アイコンの後部を追従させることができるため、結果として、表示上の制約を受けず画面全体を使ってダイナミックにユーザ操作可能な点において有利なものとなる。
第2実施例における弾性アイコンUIの構成
 上記第2実施例で適用する弾性アイコンUIの基本構成について図9以降を参照して説明する。図9に示すように、第2実施例による弾性アイコン400は、より詳細には、固定円410、および当該固定円410の内部に位置する弾性オブジェクト420を備えている。先に説明したように、弾性アイコン400は、接触操作判定部810でユーザの指がタッチパネル2に接触したことが検知されるのをトリガにしてタッチパネル2に表示される。弾性オブジェクト420は、図示のように、指接触時の初期形状として、タッチパネル2上の接触点の周囲に円形状を有するように形成される。
 また、図10に示すように、第2実施例による弾性オブジェクト420は、タッチパネル上におけるユーザの操作に応じて、弾性体の如く弾性変形を伴って挙動するものである。具体的には、ユーザがタッチパネル2上でスライド操作を行うと、弾性オブジェクト420は、ユーザの指に引っ張られるような弾性変形を伴う。図示のように、弾性オブジェクト420は、スライド操作の接触位置に位置しその位置が固定されている基部430と、スライド操作のスライド位置(注:指は接触した状態である。)付近に位置する先端部450と、基部430と先端部450との間を接続する接続部440とを含むように構成される。(なお、本明細書では基部430、接続部440および先端部450を総称して弾性オブジェクト420と記載することもある。)
 このように、弾性アイコンは、スライド操作がされた方向に弾性的に引き延ばすように形成される。即ち、初期円形状をアイコン位置に向けて伸張させることにより、弾性的に変形した弾性オブジェクト420を形成して表示する。なお、図10では、基部430を先端部450よりも大きくするように弾性オブジェクト420を形成しているが、これに限定されず、逆に、先端部450を基部430よりも大きく形成してもよい。また、ユーザがタッチパネル上において更にスライド移動した場合、先端部450もそれに更に追従して移動し弾性オブジェクト420の延びる向きも変化させるように構成することも可能である。
 図11は、タッチパネル2への指の接触時に形成される、初期円形状を有する弾性アイコンのUI画像を模式的に示したものである。図11(a)に示すように、第2実施例による弾性アイコンは、表示される際、略正方形状のUI画像750として画像生成がなされ、ゲーム画像の一部として重畳される。UI画像750は、半透明領域760および透明領域770から成り、半透明領域760が弾性アイコンの基本表示領域として画面表示される。
 より詳細には、図11(b)に示すように、第2実施例の弾性アイコンは、略正方形のメッシュ領域に収容され、複数のメッシュ710に分割されたポリゴンとして形成される。図10(b)では、一例として、UI画像750を4×4=16メッシュに分割して、弾性アイコンを収容しているものの、メッシュに分割する数は限定的でないことが当業者に理解される。そして、本実施の形態によるUIプログラムを通じた弾性アイコンの伸張による変形は、UI画像750をゴムシートの如く伸張する処理、特に、メッシュ毎に伸張する物理演算処理を仮想的に実施することにより実現される。
 次に図12および図13を参照して、上記のメッシュ毎に伸張する物理演算処理について説明する。図12および図13は、弾性アイコンの一部を一例として模式的に示したものである。第2実施例による弾性アイコンは、複数のメッシュ710に分割された板状のポリゴン700の各頂点720の座標を動かすことによって弾性変形を表現する。各頂点720はメッシュ状に配置されており、任意の頂点720Aの座標がスライド操作によって移動された場合、その他の頂点720も頂点720Aに関する移動ベクトル(例えば、移動方向および移動距離)に応じて座標が変更される。例えば、頂点720A以外の頂点720の移動距離は、頂点720Aからの距離によって重み付けをしてもよい。即ち、図12に表すように、頂点720Aからの距離が大きくなるにつれて(頂点720Aから離れるにつれて)座標の変化量が小さくなるようにしてもよい。なお、図13における白丸は、移動前の(即ち、図12の)頂点の位置を表している。
 更に図14を参照して、これら第2実施例の弾性アイコンの変形処理の基本原理に基づくオブジェクト変形処理例について具体的に説明する。図14は、第2実施例に基づいて変形される弾性オブジェクト420aの一例を模式的に示したものである。第2実施例では、第1変形オブジェクト形成部850において、スライド操作の方向に沿って、初期形状オブジェクト形成部830で生成した初期円形状をスライド位置に向けて伸張させることにより、変形した弾性オブジェクト420a’を形成する。特に、図14の例では、分割された複数のメッシュの各頂点の座標を移動させる際に、当該複数のメッシュの各々は、列(#1~#4)ごとに同一の長方形状を維持したまま(例えばメッシュ#1A~#1Dは全て同一の長方形状を有している。)、接触終了点に近い列(#1)のメッシュほど、遠い列(#4)のメッシュと比べて累進的に長く伸張させる。
 一例として、スライド操作による移動距離Lに応じて、各列の伸張率を加重配分するように構成してもよい。図14の例では、各列について、#4が10%、#3が15%、#2が30%、#1が45%となるように配分している(合計で100%)。更に例えば移動距離を2Lとした場合には、#4が1%、#3が4%、#2が35%、#1が60%といった具合に#1を更に大きくするように加重配分してもよい。
 なお、上記は弾性アイコンを伸張する例であるが、萎縮させる場合も同様の手法で構成可能であることが当業者にとって理解されるべきである。図15に模式的に示すように、初期円形状の弾性アイコン(図15(a))に対し、スライド操作により弾性オブジェクトの先端部を伸張させ(図15(b)および図15(c))、スライド操作完了後(図15(c))、スライド操作の距離が一定距離を超えた場合には、基準位置をスライド移動させることにより基部を移動させ弾性アイコンを萎縮させることができる。このように、第2実施例による弾性アイコンは、スライド操作におけるタッチパネルへの接触位置およびスライド位置に関連付けることで、即ちスライド移動量とスライド方向を決定することにより、弾性アイコンを自在に伸張/萎縮するように形成可能である。
 第2実施例によるオブジェクト変形処理は、図16に示すような連続的なスライド操作をユーザが実施する場合に特に有利なものとなる。つまり、図16(a)のようにユーザが始点1から終点1まで右方向に距離D3ほどスライド操作を実施すると、ゲーム・キャラクタは、弾性アイコンのための有効距離D3に対応した距離だけゲーム内で移動することになる。そして、スライド操作距離D3が所定の距離d以上のときは図16(b)のように基準位置(始点)が右方向にスライド移動して追従することになる。
 次いで、ユーザが今度は逆方向(左方向)に距離D4ほどスライド移動操作を実施することを想定する。図16(b)で基準位置(始点)が右方向にスライド移動して追従したために、図16(c)のように弾性アイコンのための有効距離D5を確保することができ、ゲーム・キャラクタは、当該距離D5に対応した距離だけ、ゲーム内で移動させる事が可能となることが理解される。仮に、このような基準位置(始点)の追従が構成されない場合には、始点1から左の部分しか弾性アイコンの弾性変形用に確保できず、事実上、弾性アイコン生成は困難であり、ゲーム・キャラクタをゲーム内で左方向に移動させる事は不可能であることが理解される。
 以上、本発明の実施形態によるUIプログラムについて、各種実施例と共に説明した。上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。

Claims (10)

  1.  ユーザ・インタフェース(UI)プログラムであって、
     タッチパネル上の任意の接触位置への接触に応じて、基準位置を前記接触位置に位置合わせして、前記基準位置に関連付けられる初期オブジェクトを形成して表示する初期オブジェクト形成部と、
     前記タッチパネル上での前記接触位置からスライド位置までスライド操作が行われた場合に、前記初期オブジェクトの形状を変形した、前記基準位置および前記スライド位置に関連付けられる第1変形オブジェクトを表示する第1オブジェクト変形部と、
     前記スライド操作に伴い、前記スライド位置との距離を所定の距離以下となるように前記基準位置を移動させ、前記第1変形オブジェクトの形状を更に変形した、前記移動した基準位置および前記スライド位置に関連付けられる第2変形オブジェクトを表示する第2オブジェクト変形部と
    として前記タッチパネルを具備する携帯端末に機能させる、UIプログラム。
  2.  請求項1記載のUIプログラムであって、
     前記初期オブジェクトが前記接触位置を中心とした円形状を有し、
     前記第1オブジェクト変形部において、前記接触位置から前記スライド位置に向けて円形状を伸張させるように前記初期オブジェクトの形状を変形して前記第1変形オブジェクトを形成することを特徴とする、UIプログラム。
  3.  請求項1または2記載のUIプログラムであって、
     前記第2オブジェクト変形部において、前記接触位置に関連付けられた基準位置から前記移動された基準位置に向けて萎縮させるように、前記第1変形オブジェクトの形状を変形して前記第2変形オブジェクトを形成することを特徴とする、UIプログラム。
  4.  前記所定の距離が、前記タッチパネルの縦方向および/または横方向の長さに基づいて決定されることを特徴とする、請求項1から3のいずれか一項記載のUIプログラム。
  5.  請求項1記載のUIプログラムであって、
     前記初期オブジェクト形成部において形成される前記初期オブジェクトが前記接触位置の周囲に配置される内側オブジェクトと該内側オブジェクトの外側に配置される外側オブジェクトとを含み、
     前記第1オブジェクト変形部において、前記接触位置から前記スライド位置に向けて前記内側オブジェクトを移動させるように前記初期オブジェクトの形状を変形して前記第1変形オブジェクトを形成することを特徴とする、UIプログラム。
  6.  請求項5記載のUIプログラムであって、
     前記第2オブジェクト変形部において、前記接触位置に関連付けられた基準位置から前記移動された基準位置に向けて前記外側オブジェクトを移動させるように、前記第1変形オブジェクトの形状を変形して前記第2変形オブジェクトを形成することを特徴とする、UIプログラム。
  7.  前記内側オブジェクトおよび前記外側オブジェクトが、前記接触位置を中心とした同心円形状を有することを特徴とする、請求項5または6記載のUIプログラム。
  8.  前記所定の距離が、前記外側オブジェクトを形成する円の半径に基づいて決定されることを特徴とする、請求項7記載のUIプログラム。
  9.  前記第2オブジェクト変形部における前記基準位置の移動が、前記スライド操作の経路方向に行われることを特徴とする、請求項1から8のいずれか一項記載のUIプログラム。
  10.  前記第2オブジェクト変形部における前記基準位置の移動が、前記スライド位置に向けた直線方向に行われることを特徴とする、請求項1から8のいずれか一項記載のUIプログラム。
PCT/JP2016/059277 2015-04-16 2016-03-23 ユーザ・インタフェース・プログラム WO2016167094A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015084039A JP5865535B1 (ja) 2015-04-16 2015-04-16 ユーザ・インタフェース・プログラム
JP2015-084039 2015-04-16

Publications (1)

Publication Number Publication Date
WO2016167094A1 true WO2016167094A1 (ja) 2016-10-20

Family

ID=55346978

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/059277 WO2016167094A1 (ja) 2015-04-16 2016-03-23 ユーザ・インタフェース・プログラム

Country Status (2)

Country Link
JP (1) JP5865535B1 (ja)
WO (1) WO2016167094A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6143934B1 (ja) * 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
JP6189515B1 (ja) * 2016-11-01 2017-08-30 株式会社コロプラ ゲーム方法およびゲームプログラム
CN107899236A (zh) * 2017-10-25 2018-04-13 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
EP3683666A4 (en) * 2017-10-16 2020-11-11 Huawei Technologies Co., Ltd. METHOD OF DISPLAYING FLOATING ACTION BUTTONS AND END DEVICE

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6097427B1 (ja) * 2016-02-29 2017-03-15 株式会社コロプラ ゲームプログラム
JP6924564B2 (ja) * 2016-03-31 2021-08-25 株式会社コロプラ ゲームプログラム
JP2017205311A (ja) * 2016-05-19 2017-11-24 株式会社コロプラ ゲームプログラム、方法及びタッチスクリーンを備える情報処理装置
JP6706438B2 (ja) * 2016-11-08 2020-06-10 株式会社コロプラ ゲームプログラム
JP6244445B1 (ja) * 2016-12-22 2017-12-06 株式会社コロプラ 情報処理方法、装置、及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6800464B2 (ja) 2017-05-11 2020-12-16 株式会社アルヴィオン プログラム及び情報処理装置
JP6921193B2 (ja) * 2017-05-22 2021-08-18 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
WO2018216078A1 (ja) * 2017-05-22 2018-11-29 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
CN107913516B (zh) * 2017-11-17 2020-06-19 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107832001B (zh) * 2017-11-17 2020-07-10 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
JP7034538B2 (ja) * 2020-05-01 2022-03-14 株式会社コロプラ ゲームプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014045965A (ja) * 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010088642A (ja) * 2008-10-08 2010-04-22 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014045965A (ja) * 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Puni Kon'' no Kihon Sosa o Master shiyo", SHIRONEKO KORYAKU, 29 August 2014 (2014-08-29), XP055321800, Retrieved from the Internet <URL:http://app.famitsu.com/20140829_431082/> *
COSMOCLEANER: "Unity de Virtual Joystick de Animation o Sosa", YOUTUBE, 12 February 2015 (2015-02-12), XP054976933, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=isbtD2gKgzk> *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6189515B1 (ja) * 2016-11-01 2017-08-30 株式会社コロプラ ゲーム方法およびゲームプログラム
JP2018068813A (ja) * 2016-11-01 2018-05-10 株式会社コロプラ ゲーム方法およびゲームプログラム
JP6143934B1 (ja) * 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
JP2018075225A (ja) * 2016-11-10 2018-05-17 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
WO2018088408A1 (ja) * 2016-11-10 2018-05-17 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
US10990274B2 (en) 2016-11-10 2021-04-27 Cygames, Inc. Information processing program, information processing method, and information processing device
EP3683666A4 (en) * 2017-10-16 2020-11-11 Huawei Technologies Co., Ltd. METHOD OF DISPLAYING FLOATING ACTION BUTTONS AND END DEVICE
US11016644B2 (en) 2017-10-16 2021-05-25 Huawei Technologies Co., Ltd. Suspend button display method and terminal device
US11507261B2 (en) 2017-10-16 2022-11-22 Huawei Technologies Co., Ltd. Suspend button display method and terminal device
CN107899236A (zh) * 2017-10-25 2018-04-13 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107899236B (zh) * 2017-10-25 2021-02-09 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP5865535B1 (ja) 2016-02-17
JP2016206740A (ja) 2016-12-08

Similar Documents

Publication Publication Date Title
JP5865535B1 (ja) ユーザ・インタフェース・プログラム
JP6697120B2 (ja) ユーザインターフェースプログラムおよびゲームプログラム
JP4213414B2 (ja) 機能の実現方法及び装置
JP5995909B2 (ja) ユーザインターフェースプログラム
EP2595047B1 (en) Method and apparatus for inputting character in touch device
JP2016134052A (ja) インターフェースプログラム及びゲームプログラム
JP5676036B1 (ja) ユーザインターフェースプログラム及び当該プログラムを備えたゲームプログラム
JP2016129579A (ja) インターフェースプログラム及びゲームプログラム
JP2010218286A (ja) 情報処理装置およびプログラムおよび表示方法
JP6626613B2 (ja) ゲームプログラム
JP2017140342A (ja) ユーザインターフェースプログラム、当該プログラムを備えたゲームプログラム及び制御方法
JP2016202875A (ja) ユーザ・インタフェース・プログラム
JP6216862B1 (ja) ゲーム方法およびゲームプログラム
JP5032624B2 (ja) 携帯端末及び携帯端末における文字列表現変更方法
JP6000482B1 (ja) ユーザ・インタフェース画像表示方法およびプログラム
JP2016004500A (ja) ユーザインターフェースプログラム
JP6201004B1 (ja) ユーザインターフェースプログラム
JP2021177281A (ja) ユーザインターフェースプログラム
KR101257889B1 (ko) 휴대용 단말기의 사용자 입력 인터페이스 장치 및 방법
JP2015097583A (ja) タッチパネルを備えるゲーム装置、その制御方法およびプログラム
JP2018069040A (ja) ゲーム方法およびゲームプログラム
JP5209132B2 (ja) 携帯端末及び携帯端末における文字列表現変更方法
KR20160112337A (ko) 터치스크린을 이용한 한글 입력방법
JP2017191473A (ja) 情報処理装置を用いたスマートテレビおよび若しくはセットトップボックスにおける記号入力操作方法およびプログラム
JP2016002385A (ja) ユーザインターフェースプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16779885

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16779885

Country of ref document: EP

Kind code of ref document: A1