CN106255952B - 用户界面程序以及游戏程序 - Google Patents

用户界面程序以及游戏程序 Download PDF

Info

Publication number
CN106255952B
CN106255952B CN201580018855.XA CN201580018855A CN106255952B CN 106255952 B CN106255952 B CN 106255952B CN 201580018855 A CN201580018855 A CN 201580018855A CN 106255952 B CN106255952 B CN 106255952B
Authority
CN
China
Prior art keywords
elastic object
user interface
contact point
elastic
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580018855.XA
Other languages
English (en)
Other versions
CN106255952A (zh
Inventor
马场功淳
笠井夏生
福田大翼
田口直树
村松严
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Krop Ltd By Share Ltd
Original Assignee
Krop Ltd By Share Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Krop Ltd By Share Ltd filed Critical Krop Ltd By Share Ltd
Publication of CN106255952A publication Critical patent/CN106255952A/zh
Application granted granted Critical
Publication of CN106255952B publication Critical patent/CN106255952B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供一种技术,该技术涉及能提供新的游戏体验的用户界面。本发明的用户界面程序在触摸屏被操作时显示出表现为弹性体的对象,并根据操作使该对象弹性变形。例如,以如下方式进行显示:在被滑动操作的情况下,在滑动操作开始点显示出弹性对象,弹性对象随着弹性变形的同时朝向滑动操作结束点伸长。由此,具有硬框体的智能手机能实现犹如具有弹性似的模拟体验,能提供新的用户界面。

Description

用户界面程序以及游戏程序
技术领域
本发明涉及用户界面程序。更详细而言,本发明涉及在智能手机上执行的游戏中使用的用户界面程序,并且涉及在触摸屏上使弹性对象的形状变形并进行显示的用户界面程序以及用于根据触摸屏上的操作来控制虚拟空间内的角色的动作并进行显示的游戏的游戏程序。
背景技术
作为用于智能手机上执行的游戏(以下称为“智能手机游戏”)的用户界面,公开了例如专利文献1、2的现有技术。专利文献1公开的技术在智能手机的触摸屏上显示出操作按钮(所谓十字键、操纵杆等)(参照专利文献1的《摘要》)。用户能使用该操作按钮进行游戏角色的移动等。另外,专利文献2公开的技术根据拖曳处理显示出从拖曳的起点伸长到终点的、起点侧的一端部和终点侧的另一端部大小或形状不同的光标(参照专利文献2的《摘要》)。
现有技术文献
专利文献
专利文献1:日本特开2012-168931号公报
专利文献2:日本特开2012-33060号公报
作为专利文献1那样的用户界面,已知如图1所示的模拟操纵杆,在当前发布的大量的智能手机游戏中被采用。图1所示的用户界面是将大小两个圆配置为同心圆状并进行显示的用户界面,当用户进行了滑动操作时,以使小的圆向该滑动操作实施的方向偏移的方式进行移动。由此,用户能确认游戏角色的移动方向。模拟操纵杆通过模拟表现出物理操作键,实现了在智能手机上提供现有的家用游戏机(任天堂株式会社的红白机(注册商标)等)那样的游戏体验,但仅限于此。而且,由于无触感,因此尚未完全满足用户的操作感。
另外,专利文献2那样的用户界面采用了图2所示的光标。图2所示的用户界面是将大小两个圆配置于起点侧的一端部和终点侧的另一端部并进行显示的用户界面,通过将该两个圆用线连在一起,形成一个光标(还参照专利文献2的段落(0071)~(0076)以及图5)。另外,如图2所示,光标越长,越是以使光标的面积固定的方式窄化光标面积(还参照专利文献2的段落(0018))。通过专利文献2公开的技术,用户能在识别拖曳操作的起点以及终点的位置、从起点至终点的距离、从起点向终点的方向的同时,实施拖曳操作(还参照专利文献2的段落(0006))。另外,专利文献2的光标仅公开了将大小两个圆简单地连在一起,未公开以什么样的方式连在一起的任何具体原理、实施方法。在这一点上,专利文献2的光标说不上实现了对用户而言具有充分的美感性(例如具有平滑的曲线美)的用户界面。
发明内容
发明所要解决的问题
本发明的目的在于提供一种涉及用户界面的技术,该用户界面能提供消除了对这样的模拟操纵杆的不足并且感受模拟触感的新的游戏体验。除此之外,其目的在于提供一种涉及用户界面的技术,该用户界面使圆形拉伸,使得形成为非常平滑的曲线的弹性对象表现为可弹性变形。
用于解决问题的方案
作为本发明的目的的用户界面通过以下的用户界面程序以及游戏程序来实现。即,根据本发明,第一用户界面程序在便携终端的触摸屏上使弹性对象的形状变形并进行显示。并且,第一用户界面程序使便携终端作为第一形成部、第一判定部以及第二形成部发挥功能,第一形成部在触摸屏上的第一接触点的周围形成具有圆形的第一弹性对象并进行显示;第一判定部判定是否在触摸屏上进行了物体的滑动操作;第二形成部在第一判定部中判定进行了从第一接触点至第二接触点的滑动操作的情况下,通过使圆形朝向第二接触点拉伸,形成变形了的第二弹性对象并进行显示,并且,第二形成部使第一弹性对象收容于包括多个网格的网格区域内,并通过沿着滑动操作的方向将多个网格分别以越接近第二接触点越累进延长的方式拉伸,从而使第一弹性对象的圆形变形。
另外,根据本发明,第九用户界面程序在上述第二形成部中,在触摸屏上,在从第一接触点伸长的滑动操作方向的线上设定有基准点,并根据滑动操作的距离和收容第一弹性对象的多个网格与基准点的距离,形成收容第二弹性对象的上述拉伸了的多个网格,由此使第一弹性对象的圆形变形。
进而,根据本发明,第三用户界面程序还使便携终端上作为第三形成部发挥功能,该第三形成部在上述第一判定部中进一步判定进行了从第二接触点至第三接触点的滑动操作的情况下,形成使第二弹性对象的形状进一步变形了的第三弹性对象并进行显示,并且,该第三形成部使第二弹性对象相对于第一接触点旋转第二接触点与第三接触点之间的角度,并使该旋转了的第二弹性对象的形状朝向第三接触点拉伸而形成第三弹性对象并进行显示。
进而,根据本发明,第四用户界面程序还使便携终端作为第二判定部和第四形成部发挥功能,第二判定部判定物体是否在第二接触点离开了触摸屏;第四形成部在第二判定部中判定在第二接触点离开了触摸屏的情况下,通过使变形了的第二弹性对象朝向第一接触点呈阶梯式萎缩,从而使第一弹性对象复原并进行显示。
进而,根据本发明,第五用户界面程序在便携终端的触摸屏上使弹性对象的形状变形并进行显示。并且,第五用户界面程序还使便携终端作为第一形成部、第一判定部以及第二形成部发挥功能,第一形成部在触摸屏上的第一接触点的周围形成具有圆形的第一弹性对象并进行显示;第一判定部判定是否在触摸屏上进行了滑动操作;第二形成部在第一判定部中判定进行了从第一接触点至第二接触点的滑动操作的情况下,通过使圆形朝向第二接触点拉伸,从而形成变形了的第二弹性对象并进行显示,并且,第二形成部使第一弹性对象收容于包括多个网格的网格区域内,并根据网格区域将第一弹性对象分割为第一部分和第二部分,根据滑动操作的距离,在第一接触点的周围放大第一部分,使第二部分移动到第二接触点的周围,通过将上述放大了的第一部分和上述移动了的第二部分用曲线连结,从而形成包括曲线形状的变形了的第二弹性对象。
除此之外,根据本发明,第一游戏程序用于根据便携终端的触摸屏上的操作来控制虚拟空间内的角色的动作并进行显示的游戏。并且,第一游戏程序使便携终端作为第一形成部、第一判定部、第二形成部以及角色控制部发挥功能,第一形成部在触摸屏上的第一接触点的周围形成具有圆形的第一弹性对象并进行显示;第一判定部判定是否在触摸屏上进行了滑动操作;第二形成部在第一判定部中判定进行了从第一接触点至第二接触点的滑动操作的情况下,通过使圆形朝向第二接触点拉伸,形成变形了的第二弹性对象并进行显示,并且,第二形成部使第一弹性对象收容于包括多个网格的网格区域内,并通过沿着滑动操作的方向将多个网格分别以越接近第二接触点越累进延长的方式拉伸,从而使第一弹性对象的圆形变形;角色控制部根据滑动操作,执行基于滑动操作方向的第一角色动作,并将该第一角色动作与形成了的第二弹性对象一起显示。
发明效果
根据本发明,在用户操作触摸屏时,显示出表现为弹性体的对象,并根据操作使该对象弹性变形。由此,具有硬框体的智能手机能实现犹如具有弹性似的模拟体验,能提供新的用户界面。
另外,将这样的用户界面与虚拟空间内的角色的行动动作(例如对战型RPG游戏中的角色的移动、攻击等)关联起来,用户能控制角色的动作。由此,能提高进行对操作速度有要求的智能手机游戏的过程中的易用性。
附图说明
图1表示现有技术的用户界面的一个例子。
图2表示现有技术的用户界面的一个例子。
图3是用于执行本发明的实施方式的用户界面程序的便携终端的示意图。
图4是示意性地表示图3的便携终端的结构的框图。
图5是表示图3的便携终端上的输入输出的概要的框图。
图6是在滑动操作的接触开始点显示的用户界面的示意图。
图7是在滑动操作的接触结束点显示的用户界面的示意图。
图8是在滑动操作结束之后显示的用户界面的示意图。
图9是使用本发明的实施方式的用户界面程序来实现的功能框图。
图10是在滑动操作的接触开始点显示的弹性对象的用户界面图像。
图11是形成图10的弹性对象的一部分的多边形(polygon)的示意图。
图12是表示使图11的弹性对象的一部分弹性变形后的多边形的变化的示意图。
图13是与第一实施例的弹性对象变形处理有关的示意图。
图14是在弹性对象变形时实施的多边形方向调整处理的相关示意图。
图15是经时表示第一实施例的弹性对象变形处理的示意图。
图16是表示关于第一实施例的弹性对象变形处理进一步进行了滑动操作的情况的示意图。
图17是与第二实施例的弹性对象变形处理有关的示意图。
图18是与本发明的实施方式的弹性对象变形处理有关的大致的处理流程图。
图19是与第二实施例的弹性对象变形处理有关的详细的处理流程图。
图20是与第三实施例的弹性对象变形处理有关的示意图。
图21是与第三实施例的弹性对象变形处理有关的详细的处理流程图。
图22是经时表示第三实施例的弹性对象变形处理的示意图。
图23是与第四实施例的弹性对象变形处理有关的示意图。
图24是表示通过第一实施例或第二实施例实施的用户界面的游戏应用例的画面图。
图25是表示通过第一实施例或第二实施例实施的用户界面的游戏应用例的画面图。
图26是表示通过第一实施例或第二实施例实施的用户界面的游戏应用例的画面图。
图27是表示通过第四实施例实施的用户界面的游戏应用例的画面图。
图28是表示执行本发明的实施方式的用户界面程序而形成的用户界面的其他游戏应用例的示意图。
图29是表示图28所示的弹性对象的变形的示意图。
图30是与基于图28所示的用户界面的蓄力移动处理有关的示意图。
图31是与基于图28所示的用户界面的蓄力移动处理有关的处理流程图。
图32是表示与图30对应的用户界面的游戏应用例的画面图。
具体实施方式
接下来,参照从图3开始的附图,对本发明的实施方式的用户界面程序和游戏程序进行说明,其中,用户界面程序用于在便携终端的触摸屏上使弹性对象的形状变形并进行显示,游戏程序使用了该弹性对象,用于根据便携终端的触摸屏上的操作来控制虚拟空间内的角色的动作并进行显示的游戏。图中,对同一构成要素赋予同一附图标记。
本发明的实施方式的用户界面程序主要构成作为智能手机游戏的游戏程序的一部分。更详细而言,用户界面程序作为游戏程序的一部分,用于在虚拟空间内控制游戏角色(游戏对象)的动作。
如图3所示,智能手机1具备触摸屏2,用户能经由该触摸屏2上的用户操作来控制游戏角色的动作。需要说明的是,执行本实施方式的用户界面程序的便携终端不限于智能手机1,只要是例如PDA、平板型计算机的设备等具备触摸屏的终端,可以采用任何设备。
如图4所示,智能手机1具备相互总线连接的CPU3、主存储4、辅助存储5、收发部6、显示部7以及输入部8。其中,主存储4由例如DRAM等构成,辅助存储5由例如HDD等构成。辅助存储5是能存储本实施方式的用户界面程序以及游戏程序的记录介质。存储于辅助存储4的用户界面程序在主存储4上展开并通过CPU3来执行。需要说明的是,在主记存储4上,还临时存储有在CPU3根据用户界面程序以及游戏程序进行动作的期间生成的数据、通过CPU3进行利用的数据。收发部6通过CPU3的控制来建立智能手机1与网络之间的连接(无线连接和/或有线连接),进行各种信息的收发。显示部7在CPU的控制下显示提示给用户的各种信息。输入部8检测用户对触摸屏2的输入操作(主要是触摸操作、滑动(滑移)操作以及点击操作等物理接触操作)。
显示部7以及输入部8相当于上述的触摸屏2。如图5所示,触摸屏2具有相当于输入部8的触摸感应部301和相当于显示部7的液晶显示部302。触摸屏2在CPU3的控制下显示图像,接受玩家进行的交互式触摸操作(触摸屏2上的物理接触操作等),并根据控制部303的控制,将与其对应的图形显示于液晶显示部302。
具体而言,上述触摸感应部301将与用户进行的触摸操作对应的操作信号输出到控制部303。触摸操作能使用任意的物体来进行,例如,可以通过用户的手指来进行,也可以通过手写笔等。触摸感应部301能采用例如静电容型的感应部,但不限于此。当检测到来自触摸感应部301的操作信号时,控制部303判断用户发出对角色的操作指示,进行将与该操作指示对应的图形(未图示)作为显示信号发送给液晶显示部的处理。液晶显示部302显示与显示信号对应的图形。
(1)用户界面的基本结构
以下,参照图6至图8,对本实施方式的用户界面的基本结构进行说明。如图6所示,本实施方式的操作对象400具备固定圆410、以及位于该固定圆410的内部的弹性对象420。当检测到用户的手指接触到触摸屏2时,在触摸屏2上显示操作对象400。如图所示,作为手指接触时的初始形状,以在触摸屏2上的接触点的周围具有圆形的方式,形成弹性对象420。需要说明的是,在图6中,以接触点为中心形成了圆形,但不一定限于此。例如,也可以往上部或下部偏离一定距离地形成。通过偏离一定距离,能防止在显示圆形时被用户的手指遮挡的情况发生。
如图7所示,本实施方式的弹性对象是根据触摸屏上的用户的操作,表现为犹如弹性体的弹性对象。具体而言,当用户在触摸屏2上进行滑动操作(在触摸屏2上使接触点从接触开始点移动到接触结束点的操作),弹性对象420伴随被用户的手指拉伸那样的弹性变形。如图所示,弹性对象420构成为包括:基部430,位于滑动操作的接触开始点,其位置被固定;顶端部450,位于滑动操作的接触结束点(注:处于手指接触了的状态)附近;以及连接部440,连接基部430与顶端部450之间。(需要说明的是,以下,有时也将基部430、连接部440以及顶端部450总称而记载为弹性对象420)。
这样,弹性对象以向进行滑动操作的方向弹性拉伸的方式形成。即,通过使初始圆形状朝向接触结束点拉伸,形成弹性变形了的弹性对象420’并显示。需要说明的是,虽然在图7中,以使基部430比顶端部450更大的方式形成了弹性对象420,但并不限于此,也可以相反地,以比基部430更大的方式形成顶端部450。另外,在用户使接触结束点维持在接触状态的同时在触摸屏上进一步进行了移动的情况下,顶端部450也随之进一步移动,弹性对象420拉伸的朝向也发生变化。
接下来,如图8所示,当用户进行的滑动操作结束时(即在触摸屏2上用户的手指离开了接触结束点时),弹性变形了的弹性对象根据其复原力,朝向接触开始点呈阶梯式萎缩,由此,以复原成图6所示的初始形状的方式进行显示。此时,如图所示,通过复原力的反作用,显示为在与弹性对象420的拉伸方向相逆的萎缩方向上从固定圆410露出,之后复原成初始形状。需要说明的是,虽然图示的弹性对象420随着复原而发生了变形,但并不限于此。例如,也可不进行这样的变形就复原成初始形状,使弹性对象的位置以向与拉伸方向相逆的萎缩方向抖动的方式挪动。
(2)程序主要功能
参照图9,对由本实施方式的用户界面程序以及游戏程序实现的主要功能组进行说明。通过该功能组,处理作为操作信号的输入,生成作为显示信号的输出。功能组包括:用户操作部800,与通过触摸屏进行的用户输入操作关联;以及角色操作部900,用于根据触摸屏上的操作来控制游戏的虚拟空间内的角色的动作并操作角色。用户操作部800通过各个接触判定部810、滑动操作判定部830、以及非接触判定部860,进行用户输入操作的判定处理,并根据判定的结果,通过对应的初始形状对象形成部820、多边形方向调整部840以及变形对象形成部850、以及复原对象形成部870,执行各种对象形成处理。
接触判定部810判定是否在触摸屏上发生了物体的接触。当通过接触判定部810判定发生了物体的接触时,初始形状对象形成部820在触摸屏上的接触点的周围形成具有圆形的弹性对象并进行显示。滑动操作判定部830判定是否在触摸屏上发生了物体的滑动操作。当通过滑动操作判定部830判定物体进行了从接触开始点至接触结束点的滑动操作时,多边形方向调整部840以使多边形的方向成为物体的移动方向的方式,实施通过多边形的旋转进行的调整处理。接着,变形对象形成部850通过使初始的圆形朝向接触结束点拉伸,从而形成变形了的弹性对象并进行显示。
当就此继续进行滑动操作时,进一步地,再次实施通过多边形方向调整部840进行的多边形方向调整处理,并通过变形对象形成部850使上述变形了的弹性对象进一步朝向接触结束点拉伸。非接触判定部860判定在滑动操作中物体是否在接触结束点离开了触摸屏。当通过非接触判定部860判定物体离开时,复原对象形成部870使通过变形对象形成部850变形了的弹性对象朝向接触开始点呈阶梯式萎缩,由此复原由初始形状对象形成部820形成的具有初始的圆形的弹性对象并进行显示。
另一方面,角色控制部900根据通过用户操作部800进行的触摸屏上的操作,控制虚拟空间内的角色的动作。角色控制部910根据由滑动操作判定部830判定出的滑动操作,执行基于滑动操作的移动量(移动距离)以及移动方向的角色动作,并将该角色动作与由变形对象形成部850形成的变形了的弹性对象一起显示出来。作为由角色控制部来控制的角色动作,设想出数量繁多的动作,各个动作与任意的用户操作和/或图标图像关联。
图标图像形成部920在通过初始形状对象形成部820形成了初始圆形状的弹性对象的情况下,进而,在该弹性对象的周围生成至少一个图标图像并进行显示。图标选择判定部930判定触摸屏上的接触点是否与图标图像的配置位置对应。在通过滑动操作判定部830判定进行了滑动操作,并且通过图标选择判定部930判定接触结束点与图标图像的配置位置对应的情况下,角色控制部910执行与图标图像关联起来的角色动作(行动)。
(3)弹性对象的变形处理
接下来,参照图10至图23,通过几个例示,对上述说明了基本结构的本实施方式的弹性对象的变形的相关处理进行详细说明。
(3-a)弹性对象变形处理的基本原理
图10是示意性地表示当手指接触到触摸屏2时形成的具有圆形的弹性对象的用户界面图像的图。如图10(a)所示,本实施方式的弹性对象在被显示时,作为大致正方形的用户界面图像750被图像生成,作为游戏图像的一部分被重叠。用户界面图像750包括半透明区域760以及透明区域770,半透明区域760作为弹性对象的基本显示区域被画面显示。
更详细而言,如图10(b)所示,本实施方式的弹性对象收容于大致正方形的网格区域,形成为由多个网格710分割的多边形。本领域技术人员可以理解,虽然在图10(b)中,作为一个例子由4×4=16网格分割了用户界面图像750来收容弹性对象,但由网格分割的数量不受限定。并且,本实施方式的弹性对象的变形通过虚拟地实施使用户界面图像750如橡胶带那样拉伸的处理,特别是按每个网格进行拉伸的物理运算处理来实现(处理的详细情况后面进行叙述)。
接下来,参照图11以及图12,对按照每个上述网格进行拉伸的物理运算处理进行说明。图11以及图12是将弹性对象的一部分作为一个例子示意性地表示的图。本实施方式的弹性对象通过移动由多个网格710分割后的板状的多边形700的各顶点720的坐标来表现弹性变形。各顶点720配置为网格状,在任意的顶点720A的坐标通过滑动操作而移动了的情况下,其他顶点720也根据与顶点720A有关的移动矢量(例如移动方向以及移动距离)而变更坐标。例如,也可以根据顶点720A以外的顶点720的移动距离与顶点720A的距离来进行加权。即,如图12所示,也可以随着与顶点720A的距离变大(随着远离顶点720A),使坐标的变化量变小。需要说明的是,图12中的白圈表示移动前的(即图11的)顶点的位置。
在此,进一步参照从图13开始的附图,对基于上述基本原理的对象变形处理的各种实施例进行说明。
(3-b)实施例1
图13是示意性地表示根据实施例1而被变形的弹性对象420a的一个例子的图。在本实施例中,通过变形对象形成部850,通过使由初始形状对象形成部820生成的初始圆形状沿着滑动操作的方向朝向结束点拉伸,形成变形了的弹性对象420a’。特别地,在图13的例子中,当使分割后的多个网格的各顶点的坐标移动时,该多个网格分别按每个列(#1~#4)维持同样的长方形(例如网格#1A~#1D都具有同样的长方形),越是接近接触结束点的列(#1)的网格越是比较远的列(#4)的网格累进地拉伸地更长。作为一个例子,也可以构成为根据滑动操作的移动距离L,对各列的拉伸率进行加权分配。
在图13的例子中,针对各列,以使#4为10%、#3为15%、#2为30%、#1为45%的方式进行了分配(合计100%)。进而,在例如将移动距离设为2L的情况下,在#4为1%、#3为4%、#2为35%、#1为60%这样的情况下,也可以以进一步加大#1的方式进行加权分配。
在本实施例中,最初,示意性地如图14所示,通过多边形方向调整部840,以使多边形的方向成为物体的移动方向的方式,实施通过多边形的旋转进行的调整处理(多边形方向调整处理)。通过实施该多边形方向调整处理,变形了的弹性对象示意性地如图15所示,无论滑动的移动距离如何,都能以相对于滑动操作方向始终具有固定的宽度W(图10所示的圆形的半透明区域760的直径)的方式进行变形。对于本领域技术人员而言,与图2所示的现有技术比较也可以理解,在通过本实施例而变形的弹性对象可构成为始终具有固定的宽度W的点上、以及通过使初始圆形状朝向接触结束点拉伸而使弹性对象变形,从而能具有非常平滑的曲线形状的点上,与现有技术不同。
需要说明的是,在本实施例中,上述图15的宽度W不限于固定成圆的直径,例如,也可以构成为根据滑动操作使宽度W逐渐增大。即,也可以以随着移动距离如图15(a)、图15(b)以及图15(c)那样增加而使宽度W逐渐变大的方式,构成放大率。由此,使滑动操作的量作为弹性体对象的大小进一步易于用户识别。
与上述多边形方向调整处理关联地,示意性地如图16所示,在用户不使手指离开接触结束点1(图16(a))地使手指进一步滑动操作至其他接触结束点2(图16(b))的情况下,继续使弹性对象变形。即,使多边形的方向相对于滑动操作的接触开始点旋转接触结束点1与接触结束点2之间的角度,使变形了的弹性对象420a’旋转,接着,使该旋转了的弹性对象的形状继续拉伸至结束点2,形成进一步变形了的弹性对象420a”。
(3-c)实施例2
图17是示意性地表示根据实施例2而变形的弹性对象420b的一个例子的图。根据实施例2,能以具有比上述实施例1更平滑的曲线形状的方式,形成弹性对象。需要说明的是,与上述实施例1同样,本处理例也是在最初实施上述多边形方向调整处理。本实施例与上述实施例1不同,不限定于维持各列的长方形并拉伸各网格的实施方式(图15)。即,在本实施例中,首先,将在触摸屏上从滑动操作的接触开始点拉伸的滑动操作方向的线上的一个网格点设定为基准点O(0,Ystd)。
接下来,根据滑动操作的移动距离L、以及多个网格与基准点O的距离(特别是多个网格的各顶点与基准点O的距离R)来确定用于收容变形的弹性对象的多个网格的顶点就足矣。本领域技术人员可以理解,在本实施例中,考虑到使用因每个顶点而异的距离R来计算坐标,不维持各列的长方形。在此,以下,参照图18以及图19的流程图,对本实施例的处理的详细情况进行说明。
如图18所示,在本实施例中,从步骤S101开始,在步骤S102中,通过接触判定部810完成对触摸屏的接触判定。当判定发生了物体(手指)的接触时,进入步骤S103,通过初始形状对象形成部820,在接触开始点的周围形成初始圆形状的弹性对象(还参照图10)。接着,进入步骤S104,通过滑动操作判定部830判定是否在触摸屏上进行了物体的滑动操作。当判定进行了滑动操作时,进入步骤S105,通过多边形方向调整部840以及变形对象形成部850,使上述初始圆形状朝向接触结束点拉伸,从而形成变形了的弹性对象。
在此,参照图19的流程图,对该步骤S105中的变形了的弹性对象的形成处理进一步进行详细说明。当在上述步骤S104中判定进行了滑动操作时,首先,在步骤S201中,通过多边形方向调整部840,实施在上述实施例1中说明了的多边形方向调整处理(也参照图14)。关于这一点,在本处理例中,弹性对象420b也能以相对于滑动操作方向始终具有固定的宽度W的方式进行变形。同时,在步骤S202中,对触摸屏上的XY坐标进行限定,以便弹性对象420b的变形。该XY坐标系限定为以接触开始点为原点,并且以Y方向为滑动操作方向。
接下来,在步骤S203中,在触摸屏上从接触开始点拉伸的滑动操作方向(Y方向)的线上,设定基准点(0,Ystd)。关于该基准点,最好如图17所示设定Y方向的多边形外周上的顶点。
然后,在步骤S204中,通过变更对象形成部850,在弹性对象变形时,收容初始圆形状的弹性对象的多个网格的各顶点P(x0,y0)移动。即,确定多个网格的各对应顶点P’(x1,y1)。在此,在将移动距离设为L、将各点(x0,y0)与上述基准点(0,Ystd)的距离设为R的情况下,与各顶点P(x0,y0)对应的各对应顶点P’(x1,y1)通过x1=x0、y1=y0+L/R来计算。
本领域技术人员可以理解,根据上述公式,各点(x0,y0)与上述基准点(0,Ystd)的距离R越大的顶点在y方向的移动被计算为越小,顶点几乎不移动。通过针对多个网格的全部顶点实施上述步骤S204来确定拉伸了的网格的全部对应顶点,其结果是,形成变形了的弹性对象。由变形对象形成部850形成的弹性对象无需如实施例1那样维持长方形,因此,能形成更平滑的曲线形状。
返回图18,本处理结束于步骤S106。虽然未图示,在图18的步骤S106之后,用户继续使手指滑动动作了的情况下,如在实施例1中也已说明的那样,继续使弹性对象进一步变形。即,通过多边形方向调整部840,使多边形的方向相对于滑动操作的接触开始点旋转接触结束点1与接触结束点2之间的角度,由此使变形了的弹性对象旋转。接下来,通过变形对象形成部850,使该旋转了的弹性对象的形状拉伸至结束点2,形成进一步变形了的弹性对象。
另一方面,在步骤S106之后,在通过非接触判定部860判定用户使手指离开了触摸屏的情况下,如与图8关联起来进行的上述说明,通过复原对象形成部870,弹性变形了的弹性对象根据其复原力,朝向开始点呈阶梯式萎缩。最终复原成图6所示的初始形状。本领域技术人员可以理解,通过按每个阶段适当地重新选择上述基准点(0,Ystd),并使用移动距离以及各点(x0,y0)与被选择的基准点(0,Ystd)的距离来实施基于上述公式的计算,能实现该萎缩处理。
(3-d)实施例3
图20是示意性地表示根据实施例3而变形的弹性对象420c的一个例子的图。根据实施例3,相比于实施例1、2,能进一步地以与物体的滑动操作连动地具有更动态的曲线形状的方式形成弹性对象420c’。与实施例1、2同样,在本实施例中,也在最初实施多边形方向调整处理。关于本实施例中的变形处理的整体概要,与在实施例2中说明了的图18的流程大致相同。
另一方面,在本实施例中,与实施例2不同,不通过变形对象形成部850来沿着滑动操作的方向使多个网格分别拉伸。取而代之,在本实施例中,通过变形对象形成部850,将初始圆形状的弹性对象根据网格区域分割为两个部分,使一方的网格区域部分放大,并使另一方的网格区域移动到接触结束点周围。然后,通过将它们连结,从而形成变形了的弹性对象。
参照图21的流程图,对本实施例的详细情况(特别是图18的步骤S105的详细情况)进行说明。当在图18的上述步骤S104中由滑动操作判定部830判定进行了滑动操作时,首先,在步骤S301中,实施在上述实施例1中也已说明的由多边形方向调整部840进行的多边形方向调整处理。同时,在步骤S302中,最好对触摸屏上的XY坐标进行限定,以便弹性对象420c的变形。如图20(a)所示,该XY坐标系限定为以接触开始点为原点,并且以Y方向为滑动操作方向。
接下来,在步骤S303中,通过变形对象形成部850,将初始圆形状的弹性对象根据多个网格的区域分割为上部分和下部分这两个网格区域。在此,通过在滑动操作方向(Y方向)的垂直方向(X方向)上对初始圆形状进行半圆分割而形成。需要说明的是,关于上部分和下部分这两个网格区域,也可以使其一部分重复,在图20(b)的例子中,具有一列量的重复列。
然后,在步骤S304中,通过变形对象形成部850,首先针对下部分,按照与滑动操作的移动距离L对应的放大率,在接触开始点的周围放大网格区域。关于这一点,本领域技术人员对图20(b)以及(c)的下部分的网格区域的大小进行比较即可理解,滑动操作距离L越长,在接触开始点的周围,使网格区域的大小越大。即,最好相对于滑动操作方向(Y方向)和/或该滑动操作方向的垂直方向(X方向),放大半圆周。接下来,在步骤S305中,通过变形对象形成部850,此次针对上部分,在接触结束点的周围,使网格区域在Y方向上移动。
在图20(b)以及图20(c)中,使该上部分的网格区域的大小相同。即,在此,上部分的网格区域的大小与滑动操作距离L无关。然而,与上述下部分同样,上部分的网格区域的大小也可以形成为随着滑动操作距离L放大。在该情况下,最好与步骤S304中的下部分的放大率关联起来确定该上部分的放大率。具体而言,关于本实施例的弹性对象420c’,最好使上部分的放大率比步骤S304中的下部分的放大率更小,以便形成相对于滑动操作的方向顶端尖细的形状。
最后,在步骤S306中,通过变形对象形成部850,将在步骤S304中放大了的下部分以及在步骤S305中移动了的上部分的网格区域的各半圆周部分连结起来,形成变形了的弹性对象。将例如图20(b)所示的重复列上的圆周部分相互连结。作为连结方式,可以如图20(b)以及图20(c)所述用直线来连结,但除此之外,最好实施使连接线在X方向上拉伸的任意的特效处理,以便包括更平滑的曲线形状。
图22是示意性地表示形成为更平滑的曲线形状的一系列弹性对象420c的图。在图22(a)中,以时间序列示出一系列弹性对象420c的变化的样子,在图22(b)中,重叠表示各弹性对象。本领域技术人员可以理解,如图所示,由于初始圆形状的下部分随着滑动操作距离而放大,因此滑动操作距离越大,弹性对象420c的宽度也越大。在本实施例中,在该形状这一点上与使宽度固定的实施例1、2不同。在本实施例中,通过增大弹性对象420c的宽度,能以与物体的滑动操作连动地具有更动态的曲线形状的方式,形成弹性对象420c’。
虽然未图示,但在图18的步骤S106之后,在触摸屏上用户继续滑动操作了手指滑动操作的情况下,如在实施例1、2中已说明的,使弹性对象进一步变形。即,通过多边形方向调整部840,使多边形的方向相对于滑动操作的接触开始点旋转接触结束点1与接触结束点2之间的角度,由此使变形了的弹性对象旋转。接下来,通过变形对象形成部850,使该旋转了的弹性对象的形状拉伸至结束点2,形成进一步变形了的弹性对象。
另一方面,在步骤S106之后,在通过非接触判定部860判定用户使手指离开了触摸屏的情况下,如与图8关联地进行的上述说明,通过复原对象形成部870,使弹性变形了的弹性对象根据其复原力朝向开始点呈阶梯式萎缩,由此复原成图6所示的初始形状。本领域技术人员可以理解,通过按每个阶段适当地确定按照上述步骤S304的滑动操作距离的放大率,实施从步骤S302至S306的各处理,能实现该萎缩处理。
(3-e)实施例4
图23是示意性地表示根据实施例4而变形的弹性对象的一个例子的图。如图23所示,作为本实施方式的变形例,当进行点击操作(对触摸屏2进行触摸(瞬间的接触操作)的操作)时,弹性对象900以被挤压的方式弹性变形了的状态显示于该点击操作点。弹性对象420d的外周由按照下述的一般式表示的正弦曲线构成。在本实施方式中,在规定的限制范围内,随机地确定A、ω以及T的值。由此,能使弹性对象的形状随机变形,能接近在现实中挤压了弹性体时显现的外周的形状。
y=Asin(ωt+T)
需要说明的是,也可以根据在游戏内使用的参数,使图23所示的弹性对象420d的形状变化。例如,也可以根据在对战型RPG游戏中对敌方角色造成的伤害的大小、游戏角色所使用的武器的种类等,甚至根据发生连击(连续对敌方角色施加攻击)等,改变星星的大小、形状。
(4)用户界面程序的应用例
参照图24至图32,对与上述本实施方式的弹性对象的用户界面有关的应用于游戏的应用例进行说明。图24至图27是执行了本实施方式的用户界面程序、以及具备该用户界面程序的游戏程序时的画面例。作为智能手机游戏,假定配置于游戏内的虚拟空间,通过用户的手指等物体操作在触摸屏上显示出的游戏对象(例如游戏角色)的对战型RPG游戏。该游戏程序是由上述各种实施例中的任一个来实现的程序。根据用户的滑动操作,执行基于滑动操作的移动方向以及移动距离的角色动作,并将该角色动作与上述变形了的弹性对象一起显示出来。
(4-a)游戏应用例1
图24、图25以及图26是执行了具备由上述实施例1或实施例2来实现的用户界面程序的游戏程序的游戏的情况下的画面例。根据用户的滑动操作,通过角色控制部910,执行基于滑动操作的移动距离以及移动方向的角色移动动作,并将该角色移动动作与上述变形了的弹性对象一起显示出来。
如图24所示,当用户在触摸屏2上向左方滑动操作时,以向左方弹性变形的方式显示弹性对象420。伴随该操作,进行使游戏角色460向左方移动的动作。另一方面,如图25所示,当用户在触摸屏2上向(右)上方滑动操作时,以向(右)上方弹性变形的方式显示弹性对象420。伴随该操作,进行使游戏角色460向(右)上方跳跃的动作。
图24以及图25是二维虚拟空间下的游戏画面例,相对于此,图26的游戏画面是三维虚拟空间下的游戏画面例。在三维虚拟空间下也同样,如图26所示,当用户在触摸屏2上向右上方滑动操作时,以向右上方弹性变形的方式显示弹性对象420。伴随该操作,游戏角色460向右上方进行三维移动。另外,图27是执行了具备由上述实施例4实现的用户界面程序的游戏程序的情况下的画面例。本画面例是根据用户的操作执行角色的攻击动作并进行显示的例子。当用户在触摸屏2上进行点击操作时,显示根据上述第四实施例来实现的弹性对象420d。伴随该操作,游戏角色460执行攻击动作。
(4-b)游戏应用例2
图28是根据本发明的实施实施,至少执行由上述实施例1至实施例3中的任一个来实现的用户界面程序的情况下的用户界面图像例。在用户接触了触摸屏的规定的情况下,显示该用户界面图像例。如图所示,除了上述初始圆形状的弹性对象420以外,将远离弹性对象420地进行配置的记载为“技能”的图标图像510、520;以及包含图标图像510、520地形成的大致椭圆形的弹性对象610、620的组也作为用户界面图像重叠。
通过图标图像形成部920动作,该用户界面图像以在例如由用户的手指的接触状态持续了一定时间(即用户长按了触摸屏)的情况下出现的方式进行动作。在用户界面图像显示状态下,当用户的手指进行滑动操作时,能执行一边如游戏应用例1那样使弹性对象420变形,一边根据滑动操作使角色移动的动作。
接下来,在通过图标选择判定部930判定发生了用于选择图标图像510、520的滑动操作的情况下,角色控制部910中断上述角色的移动动作,并执行被选择的“技能”图标。具体而言,判定触摸屏上的滑动接触结束点是否处于图标图像的配置位置,在处于配置位置的情况下,执行与该“技能”图标关联起来的角色动作。需要说明的是,此处的“技能”是指与图标图像510、520关联起来的角色动作(行动),例如可以是游戏内的游戏角色所实施的攻击动作之一。只要在通过滑动操作使角色移动的移动动作过程中未解除与触摸屏的接触状态,就持续显示图标图像510、520。
即,设为能在维持能始终实施“技能”的状态的同时,使角色在虚拟空间内移动动作(以下将该移动称为“蓄力移动”。具体的处理之后进行叙述)。需要说明的是,图28中的本应用例所涉及的“技能”图标在远离弹性对象420的周边的左上以及右上的位置放射状地配置了两个(510,520)。然而,应该理解,不限于这些位置以及个数。例如,也可以不仅在左上以及右上的位置,还在左下、右下进行配置,与四种种“技能”对应。
弹性对象610、620如图29所示,作为可弹性变形的物体,以形成大致椭圆形的方式表现出来。具体而言,当用户的手指接触触摸屏并维持接触一定时间时,弹性对象610使由虚线表示的形状610-1、形状610-2以及形状610-3经由呈阶梯式弹性变形,最终成为由实线表示的610的形状。通过进行这样的表现出弹出感的显示,能演示出操作的特别感。想要说的是,关于弹性体对象610、620的形成,通过图标图像形成部920,还是与上述各种实施例同样,能通过使初始形状朝向图标图像逐渐拉伸来形成。另外,在图29中,为了清楚起见,仅示出了弹性对象610,但弹性对象620也同样如此。
以下,参照图30的示意图以及图31的流程图,对上述蓄力移动处理进行说明。图30是表示游戏角色的蓄力移动的示意图。在此,假定以下方案:用户要在接触开始点长按触摸屏,之后滑动操作至接触结束点1(滑动操作1),进而滑动操作至接触结束点2。如图所示,作为用户界面图像,显示出弹性对象420、以及“技能”图标图像510、520双方。在滑动操作1之后,用户也不挪开手指,进一步实施滑动操作2至“技能2”图标520,由此能进行“技能2”动作。
通过实施本应用例,能执行在维持始终能实施“技能”的状态的同时使角色在虚拟空间内移动的动作。特别地,对于要求操作速度的智能手机游戏而言,通过连续滑动操作能执行两个动作的方案有利于提高其易用性。
参照图31的流程图,对蓄力移动处理的详细情况进行说明。在图31中,为了清楚起见,未考虑上述弹性对象610、620的显示处理。蓄力移动处理在步骤S401中开始,在步骤S402中通过接触判定部810,进行对触摸屏的接触判定。当判定发生了物体(手指)的接触时,进入步骤S403,通过初始形状对象形成部820,在接触开始点的周围形成初始圆形状的弹性对象(还参照图10)。与此结合,在例如接触状态持续了一定时间(被长按)的情况下,进而进入步骤S404,通过图标图像形成部920,在通过步骤S403形成的初始圆形状的弹性对象的周围,放射状地生成至少一个图标图像(“技能”图标)并进行显示。
接下来,在步骤S405中,通过滑动操作判定部830,判定是否在触摸屏上进行了物体的滑动操作。当判定进行了滑动操作时,进入步骤S406,通过多边形方向调整部840以及变形对象形成部850,使上述初始圆形状朝向接触结束点1拉伸,由此形成变形了的弹性对象。在滑动操作的期间,继续实施该步骤S406。当滑动操作结束时(接触结束点2),接着进入步骤S407,通过图标选择判定部930,判定滑动操作的接触结束点2是否与图标图像的配置位置对应。在判定进行了从接触结束点1到接触结束点2的滑动操作的(步骤S405)情况下,并且判定接触结束点2与图标图像的配置位置对应的(步骤S407)情况下,进入步骤S408,通过角色控制部910,执行与图标图像关联起来的角色动作“技能”。最后,进入步骤S409,结束该蓄力移动处理。
图32表示执行了具备实现了该蓄力移动处理的用户界面程序的游戏程序的情况下的游戏画面例。图32使图30的用户界面重叠于游戏画面。在图30的“技能”图标部,显示剑的图标图像,当选择该图标图像时能进行由特定的武器发出的强力攻击。在本画面例中,作为蓄力移动,能在显示出图标图像的状态下通过弹性对象使游戏角色移动。在这一点上,考虑到进行操作的用户的易用性,最好设定为在一起显示出图标图像的模式下,与不一起显示的情况相比使游戏角色的移动速度稍慢。
通过本发明的用户界面程序来显示的弹性对象设定为将用户进行的滑动操作的量(即触摸屏上的手指的移动距离)和游戏角色的移动距离关联起来。因此,通过显示弹性对象,对游戏角色的移动指示的大小(移动距离)在感官上更易于识别。另外,易于识别现有的模拟操纵杆那样容易被手指遮挡(参照图1)的控制器。进而,通过使弹性对象与图标图像一并显示,对于要求操作速度的智能手机游戏而言能提高易用性。
以上,结合各种实施例以及游戏应用例,对本发明的实施方式的用于在便携终端的触摸屏上使弹性对象的形状变形并进行显示的用户界面程序、以及在根据便携终端的触摸屏上的操作来控制虚拟空间内的角色的动作并进行显示的游戏中使用的游戏程序进行了说明。上述实施方式只不过是便于容易理解本发明的例示,不是对本发明进行限定解释的例子。本发明毫无疑问能在不脱离其技术精神的情况下进行变更、改良,并且本发明包括其等同方案。
附图标记说明
1:智能手机;2:触摸屏;3:CPU;4:主存储;5:辅助存储;6:收发部;7:显示部;8:输入部;301:触摸感应部;302:液晶显示部;303:控制部;400:操作对象;410:固定圆;420、420a、420b、420c:弹性对象;430:基部;440:连接部;450:顶端部;460:游戏角色;510、520:图标图像;610、620:弹性对象;750:用户界面图像;800:用户操作部;810:接触判定部;820:初始形状对象形成部;830:滑动操作判定部;840:多边形方向调整部;850:变形对象形成部;860:非接触判定部;870:复原对象形成部;900:角色操作部;910:角色控制部;920:图标图像形成部;930:图标选择判定部。

Claims (8)

1.一种用于用户界面交互的方法,其中用户界面程序在便携终端的触摸屏上使弹性对象的形状变形并进行显示,其中,
所述用户界面程序使所述便携终端作为第一形成部、第一判定部以及第二形成部发挥功能,
所述第一形成部在所述触摸屏上的第一接触点的周围形成具有圆形的第一弹性对象并进行显示,
所述第一判定部判定是否在所述触摸屏上进行了物体的滑动操作,
所述第二形成部在所述第一判定部中判定进行了从所述第一接触点至第二接触点的滑动操作的情况下,通过使所述圆形朝向所述第二接触点拉伸,形成变形了的第二弹性对象并进行显示,并且,
所述第二形成部使所述第一弹性对象收容于包括多个网格的网格区域内,
所述网格被旋转使得所述网格的方向与所述物体的移动方向匹配,
所述第二形成部还通过沿着所述滑动操作的方向将所述多个网格分别以越接近所述第二接触点越累进延长的方式拉伸,从而使所述第一弹性对象的圆形变形。
2.根据权利要求1所述的用于用户界面交互的方法,其中,
由所述第二形成部形成的所述第二弹性对象相对于所述滑动操作方向具有一定的宽度,该一定的宽度大于等于所述第一弹性对象的所述圆形的直径。
3.根据权利要求1或2所述的用于用户界面交互的方法,其中,
在所述第二形成部中,
在所述触摸屏上,在从所述第一接触点伸长的所述滑动操作方向的线上设定有基准点,
并根据所述滑动操作的距离和收容所述第一弹性对象的所述多个网格与所述基准点的距离,形成收容所述第二弹性对象的所述拉伸了的多个网格,
由此,使所述第一弹性对象的圆形变形。
4.根据权利要求3所述的用于用户界面交互的方法,其中,
在所述第二形成部中,
以所述第一接触点为原点且以使所述滑动操作的方向为Y轴方向的方式,规定所述触摸屏上的XY坐标系,
与构成收容所述第一弹性对象的所述多个网格的各点(x0,y0)对应的、收容所述第二弹性对象的所述拉伸了的多个网格的各点(x1,y1),由x1=x0、y1=y0+L/R来确定,其中,L表示所述滑动操作距离,R表示各点(x0,y0)与所述基准点的距离。
5.根据权利要求1或2或4所述的用于用户界面交互的方法,其中,
所述用户界面程序还使所述便携终端作为第三形成部发挥功能,
所述第三形成部在所述第一判定部中进一步判定进行了从所述第二接触点至第三接触点的滑动操作的情况下,形成使所述第二弹性对象的形状进一步变形了的第三弹性对象并进行显示,并且
所述第三形成部使所述第二弹性对象相对于所述第一接触点旋转所述第二接触点与所述第三接触点之间的角度,
并使所述旋转了的第二弹性对象的形状朝向所述第三接触点拉伸而形成所述第三弹性对象并进行显示。
6.根据权利要求3所述的用于用户界面交互的方法,其中,
所述用户界面程序还使所述便携终端作为第三形成部发挥功能,
所述第三形成部在所述第一判定部中进一步判定进行了从所述第二接触点至第三接触点的滑动操作的情况下,形成使所述第二弹性对象的形状进一步变形了的第三弹性对象并进行显示,并且
所述第三形成部使所述第二弹性对象相对于所述第一接触点旋转所述第二接触点与所述第三接触点之间的角度,
并使所述旋转了的第二弹性对象的形状朝向所述第三接触点拉伸而形成所述第三弹性对象并进行显示。
7.根据权利要求1或2或4所述的用于用户界面交互的方法,其中,
所述用户界面程序还使所述便携终端作为第二判定部和第四形成部发挥功能,
所述第二判定部判定所述物体是否在所述第二接触点离开了所述触摸屏,
所述第四形成部在所述第二判定部中判定在第二接触点离开了所述触摸屏的情况下,通过使所述变形了的第二弹性对象朝向所述第一接触点呈阶梯式萎缩,从而使所述第一弹性对象复原并进行显示。
8.根据权利要求3所述的用于用户界面交互的方法,其中,
所述用户界面程序还使所述便携终端作为第二判定部和第四形成部发挥功能,
所述第二判定部判定所述物体是否在所述第二接触点离开了所述触摸屏,
所述第四形成部在所述第二判定部中判定在第二接触点离开了所述触摸屏的情况下,通过使所述变形了的第二弹性对象朝向所述第一接触点呈阶梯式萎缩,从而使所述第一弹性对象复原并进行显示。
CN201580018855.XA 2014-04-04 2015-02-20 用户界面程序以及游戏程序 Active CN106255952B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014-078244 2014-04-04
JP2014078244 2014-04-04
PCT/JP2015/054783 WO2015151640A1 (ja) 2014-04-04 2015-02-20 ユーザインターフェースプログラムおよびゲームプログラム

Publications (2)

Publication Number Publication Date
CN106255952A CN106255952A (zh) 2016-12-21
CN106255952B true CN106255952B (zh) 2020-01-07

Family

ID=54239976

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580018855.XA Active CN106255952B (zh) 2014-04-04 2015-02-20 用户界面程序以及游戏程序

Country Status (8)

Country Link
US (1) US20170007921A1 (zh)
EP (1) EP3128408A4 (zh)
JP (7) JP5848857B1 (zh)
KR (1) KR101919349B1 (zh)
CN (1) CN106255952B (zh)
AU (1) AU2015241900B2 (zh)
TW (1) TWI620589B (zh)
WO (1) WO2015151640A1 (zh)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9017188B2 (en) 2009-04-08 2015-04-28 Shoot-A-Way, Inc. System and method for improving a basketball player's shooting including a detection and measurement system
JP5981617B1 (ja) * 2015-08-20 2016-08-31 株式会社コロプラ ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
JP5941207B1 (ja) * 2015-09-10 2016-06-29 株式会社コロプラ ユーザ・インタフェース・プログラムおよびコンピュータ実装方法
CN105194873B (zh) 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质
CN105335065A (zh) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
JP6376105B2 (ja) * 2015-10-30 2018-08-22 京セラドキュメントソリューションズ株式会社 表示装置および表示制御プログラム
JP5993513B1 (ja) * 2015-11-25 2016-09-14 株式会社コロプラ 野球ゲームプログラム、ゲームプログラム及びコンピュータ
TWI582681B (zh) * 2015-12-31 2017-05-11 鴻海精密工業股份有限公司 三維物件創建方法及應用該方法的電子裝置
JP6000482B1 (ja) * 2016-02-08 2016-09-28 株式会社コロプラ ユーザ・インタフェース画像表示方法およびプログラム
JP6097427B1 (ja) * 2016-02-29 2017-03-15 株式会社コロプラ ゲームプログラム
US10292338B2 (en) * 2016-06-08 2019-05-21 Organized Thought LLC Vertical cultivation system, components thereof, and methods for using same
CN107515719A (zh) * 2016-06-16 2017-12-26 中兴通讯股份有限公司 一种虚拟按键的触发方法、装置及终端
JP6661513B2 (ja) * 2016-10-31 2020-03-11 株式会社バンク・オブ・イノベーション ビデオゲーム処理装置、及びビデオゲーム処理プログラム
WO2018084169A1 (ja) * 2016-11-01 2018-05-11 株式会社コロプラ ゲーム方法およびゲームプログラム
JP6180610B1 (ja) * 2016-11-01 2017-08-16 株式会社コロプラ ゲーム方法およびゲームプログラム
JP6216862B1 (ja) * 2016-11-01 2017-10-18 株式会社コロプラ ゲーム方法およびゲームプログラム
JP6189515B1 (ja) * 2016-11-01 2017-08-30 株式会社コロプラ ゲーム方法およびゲームプログラム
JP6143934B1 (ja) 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
JP2017209573A (ja) * 2017-09-08 2017-11-30 株式会社コロプラ ゲームプログラム、方法及びタッチスクリーンを備える情報処理装置
CN107656620B (zh) * 2017-09-26 2020-09-11 网易(杭州)网络有限公司 虚拟对象控制方法、装置、电子设备及存储介质
JP7093690B2 (ja) * 2018-07-05 2022-06-30 フォルシアクラリオン・エレクトロニクス株式会社 情報制御装置、及び表示変更方法
JP6672401B2 (ja) * 2018-08-24 2020-03-25 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
JP6668425B2 (ja) * 2018-08-24 2020-03-18 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
JP7337732B2 (ja) 2018-08-24 2023-09-04 株式会社コロプラ プログラム
JP7409770B2 (ja) 2018-12-28 2024-01-09 株式会社バンダイナムコエンターテインメント ゲームシステム、プログラム及び端末装置
JP6641041B2 (ja) * 2019-02-07 2020-02-05 グリー株式会社 表示制御プログラム、表示制御方法、及び表示制御システム
CN110025953B (zh) * 2019-03-15 2022-06-10 网易(杭州)网络有限公司 一种游戏界面显示的方法、装置、存储介质及电子装置
CN110052034A (zh) * 2019-04-12 2019-07-26 网易(杭州)网络有限公司 游戏中的信息标注方法、装置、介质及电子设备
JP7314622B2 (ja) * 2019-05-29 2023-07-26 富士フイルムビジネスイノベーション株式会社 画像表示装置、及び画像表示プログラム
US11400355B1 (en) 2019-06-07 2022-08-02 Shoot-A-Way, Inc. Basketball launching device with a camera for detecting made shots
US11577146B1 (en) 2019-06-07 2023-02-14 Shoot-A-Way, Inc. Basketball launching device with off of the dribble statistic tracking
US12029960B1 (en) 2019-12-20 2024-07-09 Shoot-A-Way, Inc. Basketball passing machine with virtual coaching capabilities
JP7172017B2 (ja) * 2020-01-07 2022-11-16 株式会社カプコン ゲームプログラム、ゲーム装置およびゲームシステム
CN111481932B (zh) * 2020-04-15 2022-05-17 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备和存储介质
US12076632B1 (en) 2020-04-24 2024-09-03 Shoot-A-Way, Inc. Basketball launching device
CN111589135B (zh) * 2020-04-28 2022-03-04 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
CN112095708A (zh) * 2020-09-23 2020-12-18 三一重机有限公司 挖掘机触控控制方法、系统及挖掘机
CA3146804A1 (en) 2020-11-13 2022-05-13 Tencent Technology (Shenzhen) Company Limited Virtual object control method and apparatus, storage medium, and electronic device
US11712610B1 (en) 2023-01-11 2023-08-01 Shoot-A-Way, Inc. Ultrasonic shots-made detector for basketball launching device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236471A (zh) * 2010-05-07 2011-11-09 Nec卡西欧移动通信株式会社 信息处理装置、信息生成方法以及记录介质
CN102346640A (zh) * 2010-07-30 2012-02-08 索尼公司 信息处理设备、显示控制方法以及显示控制程序
CN102483670A (zh) * 2010-06-25 2012-05-30 松下电器产业株式会社 接触输入位置校正装置、输入装置、接触输入位置校正方法、程序及集成电路
CN103472986A (zh) * 2013-08-09 2013-12-25 深圳Tcl新技术有限公司 触摸滑动操作自适应控制方法、装置及触摸板

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2999019B2 (ja) * 1991-06-21 2000-01-17 株式会社日立製作所 文字図形変形処理装置
JP3164617B2 (ja) * 1991-11-07 2001-05-08 株式会社日立製作所 文字図形変形処理装置および方法
JP3546337B2 (ja) * 1993-12-21 2004-07-28 ゼロックス コーポレイション 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法
JPH09204426A (ja) * 1996-01-25 1997-08-05 Sharp Corp データの編集方法
JP3835005B2 (ja) 1998-07-22 2006-10-18 株式会社セガ ゲーム装置及びゲーム制御方法及び記憶媒体
JP2001291118A (ja) * 2000-04-07 2001-10-19 Sony Corp 3次元モデル処理装置および3次元モデル処理方法、並びにプログラム提供媒体
JP2001338306A (ja) * 2000-05-29 2001-12-07 Sony Corp 編集ツール属性変更処理装置、編集ツール属性変更処理方法、および3次元モデル処理装置、3次元モデル処理方法、並びにプログラム提供媒体
US7231609B2 (en) * 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
JP3917532B2 (ja) * 2003-02-10 2007-05-23 株式会社バンダイナムコゲームス ゲーム装置及び情報記憶媒体
US7936352B2 (en) * 2004-07-21 2011-05-03 Dassault Systemes Solidworks Corporation Deformation of a computer-generated model
JP4258850B2 (ja) * 2004-12-28 2009-04-30 株式会社セガ 画像処理装置およびその方法
JP4792878B2 (ja) 2005-04-11 2011-10-12 株式会社セガ 対戦ビデオゲーム制御プログラム
JP2006314349A (ja) * 2005-05-10 2006-11-24 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
JP4832826B2 (ja) * 2005-07-26 2011-12-07 任天堂株式会社 オブジェクト制御プログラムおよび情報処理装置
WO2007127258A2 (en) * 2006-04-27 2007-11-08 Wms Gaming Inc. Wagering game with multi-point gesture sensing device
JP4929061B2 (ja) * 2007-06-04 2012-05-09 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
KR101003283B1 (ko) * 2007-06-20 2010-12-21 엔에이치엔(주) 온라인 게임 방법 및 시스템
CN101815978B (zh) * 2007-09-28 2013-01-30 科乐美数码娱乐株式会社 游戏终端及其控制方法和通信系统
KR101185634B1 (ko) * 2007-10-02 2012-09-24 가부시키가이샤 아쿠세스 단말 장치, 링크 선택 방법 및 표시 프로그램이 기록된 컴퓨터 판독가능한 기록 매체
JP5522902B2 (ja) * 2008-03-24 2014-06-18 任天堂株式会社 情報処理プログラムおよび情報処理装置
JP2009240620A (ja) * 2008-03-31 2009-10-22 Sega Corp オブジェクト表示制御方法、オブジェクト表示制御装置、記録媒体、及びプログラム
JP2010067178A (ja) * 2008-09-12 2010-03-25 Leading Edge Design:Kk 複数点入力可能な入力装置及び複数点入力による入力方法
JP2010088641A (ja) * 2008-10-08 2010-04-22 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
JP2010088642A (ja) * 2008-10-08 2010-04-22 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
KR20100136156A (ko) * 2009-06-18 2010-12-28 삼성전자주식회사 터치스크린을 구비하는 휴대 단말기의 화면 스크롤 방법 및 장치
US8217246B2 (en) * 2009-07-09 2012-07-10 David Sangster Sliding chord producing device for a guitar and method of use
US8616971B2 (en) * 2009-07-27 2013-12-31 Obscura Digital, Inc. Automated enhancements for billiards and the like
US8292733B2 (en) * 2009-08-31 2012-10-23 Disney Enterprises, Inc. Entertainment system providing dynamically augmented game surfaces for interactive fun and learning
JP5072937B2 (ja) * 2009-10-23 2012-11-14 株式会社コナミデジタルエンタテインメント ゲームプログラム、ゲーム装置、ゲーム制御方法
JP5107332B2 (ja) * 2009-12-01 2012-12-26 株式会社スクウェア・エニックス ユーザインタフェース処理装置、およびユーザインタフェース処理プログラム
JP4932010B2 (ja) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP2012033058A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP5494337B2 (ja) * 2010-07-30 2014-05-14 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US9047006B2 (en) * 2010-09-29 2015-06-02 Sony Corporation Electronic device system with information processing mechanism and method of operation thereof
WO2012066591A1 (ja) * 2010-11-15 2012-05-24 株式会社ソニー・コンピュータエンタテインメント 電子機器、メニュー表示方法、コンテンツ画像表示方法、機能実行方法
JP5813948B2 (ja) * 2010-12-20 2015-11-17 株式会社バンダイナムコエンターテインメント プログラム及び端末装置
US20120326993A1 (en) * 2011-01-26 2012-12-27 Weisman Jordan K Method and apparatus for providing context sensitive interactive overlays for video
JP5379250B2 (ja) 2011-02-10 2013-12-25 株式会社ソニー・コンピュータエンタテインメント 入力装置、情報処理装置および入力値取得方法
JP5792971B2 (ja) * 2011-03-08 2015-10-14 任天堂株式会社 情報処理システム、情報処理プログラム、および情報処理方法
KR101802760B1 (ko) * 2011-06-27 2017-12-28 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101948645B1 (ko) * 2011-07-11 2019-02-18 삼성전자 주식회사 그래픽 오브젝트를 이용한 컨텐츠 제어 방법 및 장치
US20130044114A1 (en) * 2011-08-17 2013-02-21 Battelle Memorial Institute Visual Representation of Data According to an Abstraction Hierarchy
JP2013127683A (ja) 2011-12-16 2013-06-27 Namco Bandai Games Inc プログラム、情報記憶媒体、端末、サーバ及びネットワークシステム
US9195369B2 (en) * 2012-02-06 2015-11-24 Hothead Games, Inc. Virtual opening of boxes and packs of cards
US9658695B2 (en) * 2012-11-08 2017-05-23 Cuesta Technology Holdings, Llc Systems and methods for alternative control of touch-based devices
US9205337B2 (en) * 2013-03-04 2015-12-08 Gree, Inc. Server device, method for controlling the same, computer readable recording medium, and game system
TW201435651A (zh) * 2013-03-06 2014-09-16 Ind Tech Res Inst 行動通訊裝置以及其人機介面操作方法
JP2014182638A (ja) * 2013-03-19 2014-09-29 Canon Inc 表示制御装置、表示制御方法、コンピュータプログラム
JP6210911B2 (ja) * 2013-03-26 2017-10-11 株式会社Nttドコモ 情報端末、表示制御方法、及び表示制御プログラム
US20140357356A1 (en) * 2013-05-28 2014-12-04 DeNA Co., Ltd. Character battle system controlled by user's flick motion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236471A (zh) * 2010-05-07 2011-11-09 Nec卡西欧移动通信株式会社 信息处理装置、信息生成方法以及记录介质
CN102483670A (zh) * 2010-06-25 2012-05-30 松下电器产业株式会社 接触输入位置校正装置、输入装置、接触输入位置校正方法、程序及集成电路
CN102346640A (zh) * 2010-07-30 2012-02-08 索尼公司 信息处理设备、显示控制方法以及显示控制程序
CN103472986A (zh) * 2013-08-09 2013-12-25 深圳Tcl新技术有限公司 触摸滑动操作自适应控制方法、装置及触摸板

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Freeform Image;Thomas Schiwietz 等;《15th Pacific Conference on Computer Graphics and Applications》;20071029;27-36 *
Supporting cartoon animation techniques in direct manipulation graphical user interfaces;Bruce H. Thomas 等;《Information and Software Technology》;20050531;339-355 *

Also Published As

Publication number Publication date
JPWO2015151640A1 (ja) 2017-04-13
JP6449133B2 (ja) 2019-01-09
TW201542278A (zh) 2015-11-16
AU2015241900A1 (en) 2016-09-22
JP2020072788A (ja) 2020-05-14
WO2015151640A1 (ja) 2015-10-08
JP2022000769A (ja) 2022-01-04
JP7174820B2 (ja) 2022-11-17
JP2016048571A (ja) 2016-04-07
JP5848857B1 (ja) 2016-01-27
JP2020116425A (ja) 2020-08-06
CN106255952A (zh) 2016-12-21
EP3128408A1 (en) 2017-02-08
AU2015241900B2 (en) 2017-09-28
JP2015222595A (ja) 2015-12-10
JP2019040632A (ja) 2019-03-14
KR101919349B1 (ko) 2018-11-19
KR20160145578A (ko) 2016-12-20
TWI620589B (zh) 2018-04-11
JP6697120B2 (ja) 2020-05-20
US20170007921A1 (en) 2017-01-12
EP3128408A4 (en) 2018-02-28
JP6938706B2 (ja) 2021-09-22
JP6592171B2 (ja) 2019-10-16
JP5864810B2 (ja) 2016-02-17

Similar Documents

Publication Publication Date Title
CN106255952B (zh) 用户界面程序以及游戏程序
JP5865535B1 (ja) ユーザ・インタフェース・プログラム
JP6185123B1 (ja) プログラム、制御方法、及び情報処理装置
JP5995909B2 (ja) ユーザインターフェースプログラム
JP5676036B1 (ja) ユーザインターフェースプログラム及び当該プログラムを備えたゲームプログラム
WO2018216080A1 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
JP2016134052A (ja) インターフェースプログラム及びゲームプログラム
CN113138670B (zh) 触摸屏交互手势控制方法、装置、触摸屏及存储介质
JP5953418B1 (ja) ユーザ入力の操作性を向上させるプログラム、電子装置、システム及び方法
JP2016129579A (ja) インターフェースプログラム及びゲームプログラム
JP2016077438A (ja) ゲームプログラム
JP2015097583A (ja) タッチパネルを備えるゲーム装置、その制御方法およびプログラム
JP2016202875A (ja) ユーザ・インタフェース・プログラム
JP2016004500A (ja) ユーザインターフェースプログラム
JP2018027301A (ja) プログラム、制御方法、及び情報処理装置
KR20090107866A (ko) 접촉 위치 이동에 따라 이동 방향 코드를 생성하는 장치 및방법
JP2017016303A (ja) ユーザ・インタフェース・プログラムおよびコンピュータ実装方法
JP2016077439A (ja) ゲームプログラム
JP2016002385A (ja) ユーザインターフェースプログラム
JP2017055825A (ja) タッチ入力によりゲームを進行する方法、インタフェース・プログラム、及び端末

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant