CN117339212A - 控制虚拟游戏角色交互的方法、存储介质及电子装置 - Google Patents
控制虚拟游戏角色交互的方法、存储介质及电子装置 Download PDFInfo
- Publication number
- CN117339212A CN117339212A CN202311516932.7A CN202311516932A CN117339212A CN 117339212 A CN117339212 A CN 117339212A CN 202311516932 A CN202311516932 A CN 202311516932A CN 117339212 A CN117339212 A CN 117339212A
- Authority
- CN
- China
- Prior art keywords
- virtual game
- sensing area
- target
- action
- body part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 132
- 238000000034 method Methods 0.000 title claims abstract description 82
- 230000009471 action Effects 0.000 claims abstract description 171
- 230000033001 locomotion Effects 0.000 claims description 117
- 230000007704 transition Effects 0.000 claims description 95
- 238000004590 computer program Methods 0.000 claims description 29
- 238000012549 training Methods 0.000 claims description 27
- 238000013507 mapping Methods 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 12
- 230000000977 initiatory effect Effects 0.000 claims description 8
- 238000010801 machine learning Methods 0.000 claims description 6
- 102100028065 Fibulin-5 Human genes 0.000 abstract description 37
- 101710170766 Fibulin-5 Proteins 0.000 abstract description 37
- 230000008569 process Effects 0.000 abstract description 17
- 238000005516 engineering process Methods 0.000 abstract description 7
- 230000000875 corresponding effect Effects 0.000 description 76
- 230000001276 controlling effect Effects 0.000 description 70
- 230000002452 interceptive effect Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/63—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/30—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
- A63F2300/308—Details of the user interface
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种控制虚拟游戏角色交互的方法、存储介质及电子装置。该方法包括:响应对目标感应区域执行的控制操作,获取控制操作的操作属性,其中,目标感应区域为图形用户界面内多个感应区域中的至少部分感应区域,多个感应区域分别用于控制虚拟游戏角色的不同身体部位执行对应的交互动作,交互动作包括艺术表现动作;基于目标感应区域确定虚拟游戏角色的目标身体部位;控制目标身体部位执行操作属性对应的交互动作。本申请解决了相关技术中的舞蹈交互系统操作过程繁琐、交互灵活性差的技术问题。
Description
技术领域
本申请涉及游戏技术领域,具体而言,涉及一种控制虚拟游戏角色交互的方法、存储介质及电子装置。
背景技术
随着移动终端技术的快速发展,在移动终端上的舞蹈交互游戏成为广受欢迎的娱乐方式,不仅能提供娱乐和挑战性的游戏体验,也能让玩家学习和体验各种舞蹈风格。相关技术中的角色舞蹈交互系统通常需要玩家按照特定的操作指令来完成动作,这需要玩家具备较高的操作技能和记忆能力,而且操作指令的复杂度和数量也会影响玩家的学习和使用体验。此外,由于舞蹈交互系统中的动作序列是预设的固定动作,玩家缺乏对角色动作的控制能力,无法灵活地表达玩家本身的个性和创意,由此进一步限制了玩家与角色之间的互动性和趣味性。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请至少部分实施例提供了一种控制虚拟游戏角色交互的方法、存储介质及电子装置,以至少解决相关技术中的舞蹈交互系统操作过程繁琐、交互灵活性差的技术问题。
根据本申请其中一实施例,提供了一种控制虚拟游戏角色交互的方法,通过终端设备提供一图形用户界面,图形用户界面所显示的内容至少部分的包含一游戏场景,游戏场景的显示内容包括虚拟游戏角色,包括:响应对目标感应区域执行的控制操作,获取控制操作的操作属性,其中,目标感应区域为图形用户界面内多个感应区域中的至少部分感应区域,多个感应区域分别用于控制虚拟游戏角色的不同身体部位执行对应的交互动作,交互动作包括艺术表现动作;基于目标感应区域确定虚拟游戏角色的目标身体部位;控制目标身体部位执行操作属性对应的交互动作。
根据本申请其中一实施例,还提供了一种控制虚拟游戏角色交互的装置,通过终端设备提供一图形用户界面,图形用户界面所显示的内容至少部分的包含一游戏场景,游戏场景的显示内容包括虚拟游戏角色,包括:获取模块,用于响应对目标感应区域执行的控制操作,获取控制操作的操作属性,其中,目标感应区域为图形用户界面内多个感应区域中的至少部分感应区域,多个感应区域分别用于控制虚拟游戏角色的不同身体部位执行对应的交互动作,交互动作包括艺术表现动作;确定模块,用于基于目标感应区域确定虚拟游戏角色的目标身体部位;控制模块,用于控制目标身体部位执行操作属性对应的交互动作。
根据本申请其中一实施例,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,计算机程序被设置为运行时执行上述任一项中的控制虚拟游戏角色交互的方法。
根据本申请其中一实施例,还提供了一种电子装置,包括存储器和处理器,存储器中存储有计算机程序,处理器被设置为运行计算机程序以执行上述任一项中的控制虚拟游戏角色交互的方法。
在本申请至少部分实施例中,通过响应对目标感应区域执行的控制操作,获取控制操作的操作属性,进而基于目标感应区域确定虚拟游戏角色的目标身体部位,最后控制目标身体部位执行操作属性对应的交互动作,达到了灵活控制虚拟游戏角色执行操作属性对应的交互动作的目的,从而实现了简化舞蹈交互系统的操作过程、提升交互灵活性的技术效果,进而解决了相关技术中的舞蹈交互系统操作过程繁琐、交互灵活性差的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请其中一实施例的一种控制虚拟游戏角色交互的方法的移动终端的硬件结构框图;
图2是根据本申请其中一实施例的一种控制虚拟游戏角色交互的方法的流程图;
图3是根据本申请其中一实施例的一种控制虚拟游戏角色交互的界面示意图;
图4是根据本申请其中一实施例的又一种控制虚拟游戏角色交互的界面示意图;
图5是根据本申请其中一实施例的又一种控制虚拟游戏角色交互的界面示意图;
图6是根据本申请其中一实施例的又一种动作过渡动画的界面示意图;
图7是根据本申请其中一实施例的一种控制虚拟游戏角色交互的装置的结构框图;
图8是根据本申请其中一实施例的一种电子装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本公开涉及到的上述方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。以运行在移动终端上为例,该移动终端可以是智能手机、平板电脑、掌上电脑以及移动互联网设备、PAD、游戏机等终端设备。图1是本申请实施例的一种控制虚拟游戏角色交互的方法的移动终端的硬件结构框图。如图1所示,移动终端可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于中央处理器(CPU)、图形处理器(GPU)、数字信号处理(DSP)芯片、微处理器(MCU)、可编程逻辑器件(FPGA)、神经网络处理器(NPU)、张量处理器(TPU)、人工智能(AI)类型处理器等的处理装置)和用于存储数据的存储器104,在本申请其中一实施例中,还可以包括:输入输出设备108以及显示设备110。
在一些以游戏场景为主的可选实施例中,上述设备还可以提供具有触摸触敏表面的人机交互界面,该人机交互界面可以感应手指接触和/或手势来与图形用户界面(GUI)进行人机交互,该人机交互功能可以包括如下交互:创建网页、绘图、文字处理、制作电子文档、游戏、视频会议、即时通信、收发电子邮件、通话界面、播放数字视频、播放数字音乐和/或网络浏览等、用于执行上述人机交互功能的可执行指令被配置/存储在一个或多个处理器可执行的计算机程序产品或可读存储介质中。
本领域技术人员可以理解,图1所示的结构仅为示意,其并不对上述移动终端的结构造成限定。例如,移动终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
根据本申请其中一实施例,提供了一种控制虚拟游戏角色交互的方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在一种可能的实施方式中,本申请实施例提供了一种控制虚拟游戏角色交互的方法,通过终端设备提供图形用户界面,其中,终端设备可以是前述提到的本地终端设备。图2是根据本申请其中一实施例的一种控制虚拟游戏角色交互的方法的流程图,通过终端设备提供一图形用户界面,图形用户界面所显示的内容至少部分的包含一游戏场景,游戏场景的显示内容包括虚拟游戏角色,如图2所示,该方法包括如下步骤:
步骤S21,响应对目标感应区域执行的控制操作,获取控制操作的操作属性,其中,目标感应区域为图形用户界面内多个感应区域中的至少部分感应区域,多个感应区域分别用于控制虚拟游戏角色的不同身体部位执行对应的交互动作,交互动作包括艺术表现动作;
步骤S22,基于目标感应区域确定虚拟游戏角色的目标身体部位;
步骤S23,控制目标身体部位执行操作属性对应的交互动作。
上述游戏场景的显示内容包括虚拟游戏角色,该虚拟游戏角色可以为表演舞蹈动作的游戏角色,能够在游戏中执行各种舞蹈动作,以增加游戏的娱乐性和互动性。虚拟游戏角色可以是游戏中的主要角色,也可以是支持角色或特殊活动的角色。虚拟游戏角色的舞蹈动作通常是根据真实舞蹈动作进行设计和制作,通过专业舞蹈编导或舞者为虚拟游戏角色设计和表演舞蹈动作,进而使用动作捕捉技术记录舞者的动作,并将其应用到虚拟游戏角色上,以实现逼真的舞蹈表演。例如,在一些舞蹈游戏中,玩家可以选择一个虚拟游戏角色,并跟随游戏的指示进行舞蹈表演,通过正确的动作和节奏来得分。此外,虚拟游戏角色还可以作为游戏中的剧情角色或社交角色出现,与其他角色进行舞蹈互动或舞蹈比赛,从而为游戏增添娱乐性和互动性,并为玩家提供了舞蹈表演的机会。
上述目标感应区域为用于控制虚拟游戏角色不同身体部位执行对应交互动作的区域,目标感应区域可以是屏幕上的特定位置或特定形状的区域,也可以是通过外部设备(如摄像头、传感器等)捕捉到的玩家身体的特定部位。例如,在体感游戏中,目标感应区域可以分为头部、手臂、腿部等部位的感应区域,玩家可以通过将头部转动、挥动手臂或踢腿等动作来控制游戏角色在游戏中执行相应的动作。目标感应区域的设计可以根据游戏的需求和玩家的操作习惯进行调整,通过合理划分和布置感应区域,可以提供更自然、直观的交互方式,增强玩家的游戏体验。
目标感应区域执行的控制操作是指通过用户在该区域内的操作来控制虚拟游戏角色的不同身体部位执行对应的交互动作。
具体的控制操作方式可以根据游戏设计和用户界面的设定而有所不同,例如控制操作可以包括但不限于:点击或触摸操作、拖动或滑动操作、手势识别操作以及物理感应操作。具体的,通过在目标感应区域内点击或触摸屏幕,以执行相应的动作。通过在目标感应区域内进行拖动或滑动手势,以实现不同的动作。通过在目标感应区域内进行特定手势,进而利用手势识别系统将手势转换为相应的动作。通过在目标感应区域内进行物理动作,通过感应器或者摄像头等设备捕捉用户的动作并将其转换为相应的游戏动作。
上述控制操作的操作属性可以通过识别操作介质的操作路径、操作速度而获得,操作介质能够使得用户在目标感应区域进行控制操作,具体可以但不限于为用户手指、虚拟现实手柄、体感设备、手势识别设备等。
上述多个感应区域与虚拟游戏角色的身体部位之间具有预设挂接关系,虚拟游戏角色的目标身体部位可以为虚拟角色的各个身体部位,例如头部、手臂、腿部等。通过预设挂接关系,可以将玩家在现实世界中的控制操作映射到虚拟角色上,从而实现玩家与角色的互动。
上述操作属性对应的交互动作包括:艺术表现动作。该艺术表现动作包括但不限于:舞蹈类(例如:民族舞、古典舞、现代舞等)动作、体操类(例如:艺术体操、广播体操等)动作。以舞蹈动作为例,控制虚拟游戏角色的手臂执行旋转动作,控制虚拟游戏角色的腿部执行踢腿动作,以及控制虚拟游戏角色的头部执行转动动作等。
基于上述步骤S21至步骤S23,通过响应对目标感应区域执行的控制操作,获取控制操作的操作属性,进而基于目标感应区域确定虚拟游戏角色的目标身体部位,最后控制目标身体部位执行操作属性对应的交互动作,达到了灵活控制虚拟游戏角色执行操作属性对应的交互动作的目的,从而实现了简化舞蹈交互系统的操作过程、提升交互灵活性的技术效果,进而解决了相关技术中的舞蹈交互系统操作过程繁琐、交互灵活性差的技术问题。
下面对本申请实施例中的虚拟游戏角色交互的方法进行进一步介绍。
可选地,本申请实施例中的虚拟游戏角色交互的方法还包括:基于预设挂接关系,将图形用户界面划分为多个感应区域,其中,预设挂接关系用于记录多个感应区域与虚拟游戏角色的不同身体部位之间的挂接关系。
具体的,在建立预设挂接关系的过程中,首先确定需要挂接的感应区域,进而确定需要挂接的虚拟游戏角色的身体部位,如头部、手臂、腿部等,在游戏引擎或开发工具中,使用挂接工具或脚本来创建预设挂接关系,这些工具通常允许用户选择感应区域和角色身体部位,并将两者绑定在一起。另外,用户还可以根据实际需求调整挂接点,从而对挂接关系进行微调,具体包括调整挂接点的位置、旋转和缩放等参数,以确保角色的动作和动态效果能够正确显示,实现终端设备的屏幕触发区域与虚拟游戏角色身体部位的挂接。
基于上述可选实施例,通过基于预设挂接关系,将图形用户界面划分为多个感应区域,从而增强用户交互体验和操作效率。
可选地,多个感应区域包括:第一感应区域、第二感应区域和第三感应区域,其中,第一感应区域与第二感应区域分别用于控制虚拟游戏角色中的不同身体部位,第三感应区域用于控制虚拟游戏角色中的转向身体部位。
具体的,第一感应区域与第二感应区域既可以分别用于控制虚拟游戏角色中的一组对称身体部位,也可以分别用于控制虚拟游戏角色中的一组非对称身体部位,例如,当通过第三感应区域控制虚拟游戏角色的身体面向镜头时,在第一感应区域可以控制虚拟游戏角色右侧的身体部位,如右眼、右耳、右手、右腿、右脚等身体部位,在第二感应区域可以控制虚拟游戏角色左侧的身体部位,如左眼、左耳、左手、左腿、左脚等身体部位;当通过第三感应区域控制虚拟游戏角色的身体背向镜头时,在第一感应区域可以控制虚拟游戏角色左侧的身体部位,如左眼、左耳、左手、左腿、左脚等身体部位,在第二感应区域可以控制虚拟游戏角色右侧的身体部位,如右眼、右耳、右手、右腿、右脚等身体部位。当第一感应区域与第二感应区域分别用于控制虚拟游戏角色中的一组对称身体部位时,第一感应区域可以控制虚拟游戏角色的右手,第二感应区域可以控制虚拟游戏角色的左手。当第一感应区域与第二感应区域分别用于控制虚拟游戏角色中的一组非对称身体部位时,第一感应区域可以控制虚拟游戏角色的右手,第二感应区域可以控制虚拟游戏角色的左脚。由此,可以确保虚拟游戏角色的艺术动作多样性与流畅度,增强艺术动作观赏性。
可选地,在步骤S23,控制目标身体部位执行操作属性对应的交互动作包括:控制虚拟游戏角色的第一身体部位执行第一操作属性对应的第一交互动作,以及控制虚拟游戏角色的第二身体部位执行第二操作属性对应的第二交互动作,其中,第一操作属性是对第一感应区域执行的第一控制操作的操作属性,第一身体部位为第一感应区域对应的身体部位,第二操作属性是对第二感应区域执行的第二控制操作的操作属性,第二身体部位为第二感应区域对应的身体部位,第一控制操作与第二控制操作在操作时序上至少部分重叠,第一交互动作与第二交互动作在动作序列上至少部分重叠。
上述第一控制操作与第二控制操作在操作时序上至少部分重叠包括:
1)第一控制操作与第二控制操作在操作时序上完全重叠,例如:第一控制操作与第二控制操作为在相同的T1时刻开始执行并在相同的T2时刻结束执行的完全同步操作。此时,第一交互动作与第二交互动作在动作序列上完全同步。
2)第一控制操作与第二控制操作在操作时序上部分重叠,例如:第一控制操作在T1时刻先开始执行,而第二控制操作在第一控制操作结束执行之前的T2时刻加入。此时,第一交互动作与第二交互动作在动作序列上表现为部分重叠以及部分连续。
由此,能够有效地增强虚拟游戏角色的艺术动作多样性与艺术表现力,更贴近于现实中艺术家的真实表现,符合玩家对艺术动作的观赏性需求。
以通过第三感应区域控制虚拟游戏角色的身体面向镜头,并且第一感应区域对应的身体部位为虚拟游戏角色的右手,第二感应区域对应的身体部位为虚拟游戏角色的左手为例,可以对第一感应区域与第二感应区域同步执行水平上下滑动操作,由此可以控制虚拟游戏角色按照水平向右滑动操作的操作路径以及操作路径对应的操作速度同时执行左右手的上下移动。
可选地,在步骤S23,控制目标身体部位执行操作属性对应的交互动作包括:控制虚拟游戏角色的第三身体部位执行第三操作属性对应的身体部位转动动作,其中,第三操作属性是对第三感应区域执行的第三控制操作的操作属性,所述第三身体部位为所述第三感应区域对应的身体部位。
上述第三感应区域的感应范围为预设几何图形(例如:圆形)。该第三感应区域的具体设置与上述虚拟游戏角色相关,即在第三感应区域的感应范围内包含上述虚拟游戏角色。第三感应区域用于控制虚拟游戏角色中的转向身体部位。具体地,可以在第三感应区域通过水平方向上的左右滑动操作控制虚拟游戏角色的腰部转动从而改变角色朝向。另外,还可以在第三感应区域通过竖直方向上的上下滑动操作控制虚拟游戏角色的头部转动从而控制角色低头或抬头。由此,可以有效地增强虚拟游戏角色的艺术动作整体协调性与乐感适配性。
在一个可选实施例中,上述第三感应区域对应的身体部位为腰部,对第三感应区域执行的第三控制操作为水平向右滑动操作,由此可以控制虚拟游戏角色的腰部按照水平向右滑动操作的操作路径以及操作路径对应的操作速度执行腰部向右的转动动作。
基于上述可选实施例,玩家能够通过感应区域来控制虚拟游戏角色的身体部位和转向,由此能够提供更直观、身临其境的游戏体验,增加玩家的沉浸感。
可选地,第一感应区域与第二感应区域相对设置在图形用户界面的两侧区域,第三感应区域位于图形用户界面的中心区域。
图3是根据本申请其中一实施例的一种控制虚拟游戏角色交互的界面示意图,如图3所示,基于预设挂接关系,将图形用户界面划分为第一感应区域、第二感应区域和第三感应区域,其中,第一感应区域设置于图形用户界面的左侧区域,第二感应区域设置于图形用户界面的右侧区域,第三感应区域设置于图形用户界面的中心区域。当通过第三感应区域控制虚拟游戏角色的身体面向镜头时,玩家可以在第一感应区域控制虚拟游戏角色的右手动作,在第二感应区域控制虚拟游戏角色的左手动作。
基于上述可选实施例,通过将第一感应区域与第二感应区域相对设置在图形用户界面的两侧区域,第三感应区域位于图形用户界面的中心区域,能够简化玩家控制虚拟游戏角色执行舞蹈动作时的交互过程,进一步提升玩家的游戏体验。
可选地,在步骤S21,响应对目标感应区域执行的控制操作,获取控制操作的操作属性包括:
步骤S211,响应对目标感应区域执行的控制操作,获取控制操作的操作位置与操作时长;
步骤S212,响应于控制操作在操作位置上的操作时长满足预设条件,识别控制操作在图形用户界面的屏幕空间内形成的操作路径以及操作路径对应的操作速度。
具体的,响应对目标感应区域执行的控制操作,获取控制操作的操作位置与操作时长,当操作时长大于预设时长时,识别控制操作在图形用户界面的屏幕空间内形成的操作路径以及操作路径对应的操作速度,由此确定控制操作的准确性和效率。
示例性的,在进行操作路径识别时,可以通过记录控制操作在屏幕上的触摸或鼠标移动轨迹识别出操作路径,具体可以使用计算机视觉技术或使用触摸屏或鼠标的硬件设备提供的接口获取操作路径数据。在进行操作速度的识别时,通过记录控制操作的时间间隔和操作路径上的距离,可以计算出操作速度。操作速度可以表示为单位时间内操作路径的长度,例如像素/秒,通过计算时间间隔与操作路径长度的比值来获得操作速度。
需要注意的是,操作路径和操作速度的识别方法可能因使用的设备和技术而有所不同。例如,在触摸屏上,可以通过触摸点的坐标和时间戳来计算操作路径和速度;在使用鼠标的情况下,可以通过鼠标指针的移动轨迹和时间戳来计算操作路径和速度。此外,还可以使用机器学习和模式识别等技术来对操作路径和速度进行分析和预测。
图4是根据本申请其中一实施例的又一种控制虚拟游戏角色交互的界面示意图,如图4所示,当玩家长按屏幕时通过识别玩家手指位置出现控制点,在玩家长按控制点并进行拖动操作时,识别手指移动路径和移动速度,虚拟游戏角色中的左右手动作分别根据屏幕左侧和屏幕右侧的控制点移动路径和移动速度进行映射。例如,当通过第三感应区域控制虚拟游戏角色的身体面向镜头时,玩家在屏幕左侧手指控制点缓慢转圈的同时,右侧手指控制点快速上下移动,映射到游戏中的交互反馈是虚拟游戏角色的右手缓慢转圈,左手快速上下移动。
图5是根据本申请其中一实施例的又一种控制虚拟游戏角色交互的界面示意图,如图5所示,当玩家手指在屏幕中心区域长按时出现控制点,识别手指的操作位置和操作路径,映射到游戏中的交互反馈是虚拟游戏角色的角色朝向发生朝左或者朝右的变化。
基于上述可选实施例,通过响应对目标感应区域执行的控制操作,获取控制操作的操作位置与操作时长,进而响应于控制操作在操作位置上的操作时长满足预设条件,识别控制操作在图形用户界面的屏幕空间内形成的操作路径以及操作路径对应的操作速度,能够准确识别和记录用户在图形用户界面上的操作行为,并通过控制操作的操作位置、操作时长、操作路径和操作速度等信息,实现对用户行为的精准控制和分析。
可选地,在步骤S22,基于目标感应区域确定虚拟游戏角色的目标身体部位包括:基于预设挂接关系,查找虚拟游戏角色中与目标感应区域对应的身体部位,确定目标身体部位。
基于上述可选实施例,通过预设挂接关系,可以将目标感应区域与身体部位、动画系统和特效系统等技术元素相连接,使虚拟游戏角色在执行控制时能够展现逼真的反应和效果。
可选地,在步骤S23,控制目标身体部位执行操作属性对应的交互动作包括:
步骤S231,对操作路径进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作路径,以及对操作速度进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作速度;
步骤S232,控制目标身体部位按照动作路径与动作速度执行交互动作。
示例性的,对操作路径进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作路径,从而实现二维操作路径向三维动作路径的映射。具体的,首先需要确定二维操作路径的坐标系,可以使用笛卡尔坐标系或极坐标系等,从而确保二维操作路径的每个点都有对应的坐标。进一步的,将二维操作路径映射到三维空间的平面或立体形状中,可以使用线性变换或非线性变换等方法将二维路径的坐标映射到三维路径的坐标。根据二维操作路径的每个点,为三维路径添加相应的动作,具体可以根据二维路径的曲线形状和方向来确定三维路径上的移动、旋转或缩放等动作。另外还可以对三维动作路径进行进一步的调整和优化。例如,可以平滑路径,使其更加连续和流畅,或者添加额外的动作以增强路径的表现力。
进一步的,对操作速度进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作速度,从而实现二维操作速度向三维动作速度的映射,从而控制目标身体部位按照动作路径与动作速度执行交互动作,例如控制虚拟游戏角色的左手缓慢转圈,右手快速上下移动。
基于上述可选实施例,通过对操作路径进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作路径,以及对操作速度进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作速度,进而控制目标身体部位按照动作路径与动作速度执行交互动作,从而进一步提升玩家的游戏交互体验。
可选地,本申请实施例中的虚拟游戏角色交互的方法还包括:响应于控制操作结束,记录虚拟游戏角色的第一动作姿态,其中,第一动作姿态为待生成的动作过渡动画的起始动作姿态。
上述动作过渡动画可以为舞蹈动作过渡动画,在舞蹈动作过渡动画中,可以由一个起始舞蹈动作平滑地过渡到另一个终止舞蹈动作。通过运用连续的动画帧或者运用特定的动画技巧,使得虚拟游戏角色的动作在视觉上呈现出流畅、自然的过渡,增加舞蹈表演的连贯性和美感。在控制操作结束时,记录虚拟游戏角色待生成的动作过渡动画的起始动作姿态。
基于上述可选实施例,响应于控制操作结束,记录虚拟游戏角色待生成的动作过渡动画的起始动作姿态,从而用于快速生成动作过渡动画,进一步提升玩家的游戏交互体验。
可选地,本申请实施例中的虚拟游戏角色交互的方法还包括:
步骤S24,再次响应对目标感应区域执行的控制操作,获取虚拟游戏角色的第二动作姿态,其中,第二动作姿态为动作过渡动画的终止动作姿态;
步骤S25,基于第一动作姿态与第二动作姿态进行动作过渡处理,生成动作过渡动画。
具体的,当玩家再次对目标感应区域进行长按操作时,获取虚拟游戏角色的第二动作姿态,即得到动作过渡动画的终止动作姿态,通过基于第一动作姿态与第二动作姿态进行动作过渡处理,能够生成流畅的动作过渡动画,进一步简化舞蹈游戏的交互操作,提升操作效率和游戏体验。
可选地,在步骤S25,基于第一动作姿态与第二动作姿态进行动作过渡处理,生成动作过渡动画包括:采用目标动作过渡动画生成模型对第一动作姿态与第二动作姿态进行动作分析,生成动作过渡动画,其中,目标动作过渡动画生成模型通过机器学习方式对多组数据进行训练得到。
图6是根据本申请其中一实施例的又一种动作过渡动画的界面示意图,如图6所示,响应于控制操作结束,记录虚拟游戏角色的第一动作姿态,其中,第一动作姿态为待生成的动作过渡动画的起始动作姿态,再次响应对目标感应区域执行的控制操作,获取虚拟游戏角色的第二动作姿态,其中,第二动作姿态为动作过渡动画的终止动作姿态;采用目标动作过渡动画生成模型对第一动作姿态与第二动作姿态进行动作过渡处理,生成动作过渡动画。
基于上述可选实施例,采用目标动作过渡动画生成模型对第一动作姿态与第二动作姿态进行动作过渡处理,生成动作过渡动画,能够进一步提高动画质量和逼真度,舞蹈游戏的交互操作,提升操作效率和游戏体验。
可选地,多组数据中的每组数据均包括:第一训练姿态、第二训练姿态和训练过渡动画,本申请实施例中的虚拟游戏角色交互的方法还包括:
步骤S31,采用初始动作过渡动画生成模型对第一训练姿态与第二训练姿态进行动作分析,生成预测过渡动画;
步骤S32,通过预测过渡动画与训练过渡动画确定目标损失;
步骤S33,基于目标损失对初始动作过渡动画生成模型的模型参数进行更新,得到目标动作过渡动画生成模型。
基于上述可选实施例,通过采用初始动作过渡动画生成模型对第一训练姿态与第二训练姿态进行动作分析,生成预测过渡动画,进而通过预测过渡动画与训练过渡动画确定目标损失,最后基于目标损失对初始动作过渡动画生成模型的模型参数进行更新,能够快速训练得到可靠的目标动作过渡动画生成模型,进一步提高目标动作过渡动画的生成效率,保证动作之间的连贯性和自然性。
本申请实施例中的虚拟游戏角色交互的方法通过响应对目标感应区域执行的控制操作,获取控制操作的操作属性,进而基于目标感应区域确定虚拟游戏角色的目标身体部位,最后控制目标身体部位执行操作属性对应的交互动作,达到了灵活控制虚拟游戏角色执行操作属性对应的交互动作的目的,从而实现了简化舞蹈交互系统的操作过程、提升交互灵活性的技术效果,其交互自由度更高,互动性更强,可用于游戏中虚拟养成角色的互动展示,还可延伸应用于角色拍照、时装展示等系统。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
在本实施例中还提供了一种控制虚拟游戏角色交互的装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图7是根据本申请其中一实施例的控制虚拟游戏角色交互的装置的结构框图,通过终端设备提供一图形用户界面,图形用户界面所显示的内容至少部分的包含一游戏场景,游戏场景的显示内容包括虚拟游戏角色,如图7所示,该装置包括:
获取模块701,用于响应对目标感应区域执行的控制操作,获取控制操作的操作属性,其中,目标感应区域为图形用户界面内多个感应区域中的至少部分感应区域,多个感应区域分别用于控制虚拟游戏角色的不同身体部位执行对应的交互动作,交互动作包括艺术表现动作;
确定模块702,用于基于目标感应区域确定虚拟游戏角色的目标身体部位;
控制模块703,用于控制目标身体部位执行操作属性对应的交互动作。
可选地,控制虚拟游戏角色交互的装置还包括:划分模块704,用于基于预设挂接关系,将图形用户界面划分为多个感应区域,其中,预设挂接关系用于记录多个感应区域与虚拟游戏角色的不同身体部位之间的挂接关系。
可选地,多个感应区域包括:第一感应区域、第二感应区域和第三感应区域,其中,第一感应区域与第二感应区域分别用于控制虚拟游戏角色的不同身体部位,第三感应区域用于控制虚拟游戏角色中的转向身体部位。
可选地,第一感应区域与第二感应区域相对设置在图形用户界面的两侧区域,第三感应区域位于图形用户界面的中心区域。
可选地,控制模块703还用于:控制虚拟游戏角色的第一身体部位执行第一操作属性对应的第一交互动作,以及控制虚拟游戏角色的第二身体部位执行第二操作属性对应的第二交互动作,其中,第一操作属性是对第一感应区域执行的第一控制操作的操作属性,第一身体部位为第一感应区域对应的身体部位,第二操作属性是对第二感应区域执行的第二控制操作的操作属性,第二身体部位为第二感应区域对应的身体部位,第一控制操作与第二控制操作在操作时序上至少部分重叠,第一交互动作与第二交互动作在动作序列上至少部分重叠。
可选地,控制模块703还用于:控制虚拟游戏角色的第三身体部位执行第三操作属性对应的身体部位转动动作,其中,第三操作属性是对第三感应区域执行的第三控制操作的操作属性,第三身体部位为第三感应区域对应的身体部位。
可选地,获取模块701还用于:响应对目标感应区域执行的控制操作,获取控制操作的操作位置与操作时长;响应于控制操作在操作位置上的操作时长满足预设条件,识别控制操作在图形用户界面的屏幕空间内形成的操作路径以及操作路径对应的操作速度。
可选地,确定模块702还用于:基于预设挂接关系,查找虚拟游戏角色中与目标感应区域对应的身体部位,确定目标身体部位。
可选地,控制模块703还用于:对操作路径进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作路径,以及对操作速度进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作速度;控制目标身体部位按照动作路径与动作速度执行交互动作。
可选地,控制虚拟游戏角色交互的装置还包括:记录模块705,用于响应于控制操作结束,记录虚拟游戏角色的第一动作姿态,其中,第一动作姿态为待生成的动作过渡动画的起始动作姿态。
可选地,获取模块701还用于再次响应对目标感应区域执行的控制操作,获取虚拟游戏角色的第二动作姿态,其中,第二动作姿态为动作过渡动画的终止动作姿态;控制虚拟游戏角色交互的装置还包括:生成模块706,用于基于第一动作姿态与第二动作姿态进行动作过渡处理,生成动作过渡动画。
可选地,生成模块706还用于:采用目标动作过渡动画生成模型对第一动作姿态与第二动作姿态进行动作分析,生成动作过渡动画,其中,目标动作过渡动画生成模型通过机器学习方式对多组数据进行训练得到。
可选地,生成模块706还用于采用初始动作过渡动画生成模型对第一训练姿态与第二训练姿态进行动作分析,生成预测过渡动画;控制虚拟游戏角色交互的装置还包括:确定模块707,用于通过预测过渡动画与训练过渡动画确定目标损失;更新模块708,用于基于目标损失对初始动作过渡动画生成模型的模型参数进行更新,得到目标动作过渡动画生成模型。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个单模块以任意组合的形式分别位于不同的处理器中。
本申请的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述计算机可读存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
可选地,在本实施例中,上述计算机可读存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,上述计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,响应对目标感应区域执行的控制操作,获取控制操作的操作属性,其中,目标感应区域为图形用户界面内多个感应区域中的至少部分感应区域,多个感应区域分别用于控制虚拟游戏角色的不同身体部位执行对应的交互动作,交互动作包括艺术表现动作;
S2,基于目标感应区域确定虚拟游戏角色的目标身体部位;
S3,控制目标身体部位执行操作属性对应的交互动作。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:基于预设挂接关系,将图形用户界面划分为多个感应区域,其中,预设挂接关系用于记录多个感应区域与虚拟游戏角色的不同身体部位之间的挂接关系。
可选地,多个感应区域包括:第一感应区域、第二感应区域和第三感应区域,其中,第一感应区域与第二感应区域分别用于控制虚拟游戏角色的不同身体部位,第三感应区域用于控制虚拟游戏角色中的转向身体部位。
可选地,第一感应区域与第二感应区域相对设置在图形用户界面的两侧区域,第三感应区域位于图形用户界面的中心区域。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:控制虚拟游戏角色的第一身体部位执行第一操作属性对应的第一交互动作,以及控制虚拟游戏角色的第二身体部位执行第二操作属性对应的第二交互动作,其中,第一操作属性是对第一感应区域执行的第一控制操作的操作属性,第一身体部位为第一感应区域对应的身体部位,第二操作属性是对第二感应区域执行的第二控制操作的操作属性,第二身体部位为第二感应区域对应的身体部位,第一控制操作与第二控制操作在操作时序上至少部分重叠,第一交互动作与第二交互动作在动作序列上至少部分重叠。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:控制虚拟游戏角色的第三身体部位执行第三操作属性对应的身体部位转动动作,其中,第三操作属性是对第三感应区域执行的第三控制操作的操作属性,第三身体部位为第三感应区域对应的身体部位。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:响应对目标感应区域执行的控制操作,获取控制操作的操作位置与操作时长;响应于控制操作在操作位置上的操作时长满足预设条件,识别控制操作在图形用户界面的屏幕空间内形成的操作路径以及操作路径对应的操作速度。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:基于预设挂接关系,查找虚拟游戏角色中与目标感应区域对应的身体部位,确定目标身体部位。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:对操作路径进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作路径,以及对操作速度进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作速度;控制目标身体部位按照动作路径与动作速度执行交互动作。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:响应于控制操作结束,记录虚拟游戏角色的第一动作姿态,其中,第一动作姿态为待生成的动作过渡动画的起始动作姿态。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:再次响应对目标感应区域执行的控制操作,获取虚拟游戏角色的第二动作姿态,其中,第二动作姿态为动作过渡动画的终止动作姿态;基于第一动作姿态与第二动作姿态进行动作过渡处理,生成动作过渡动画。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:采用目标动作过渡动画生成模型对第一动作姿态与第二动作姿态进行动作分析,生成动作过渡动画,其中,目标动作过渡动画生成模型通过机器学习方式对多组数据进行训练得到。
可选地,上述计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:采用初始动作过渡动画生成模型对第一训练姿态与第二训练姿态进行动作分析,生成预测过渡动画;通过预测过渡动画与训练过渡动画确定目标损失;基于目标损失对初始动作过渡动画生成模型的模型参数进行更新,得到目标动作过渡动画生成模型。
在该实施例的计算机可读存储介质中,通过响应对目标感应区域执行的控制操作,获取控制操作的操作属性,进而基于目标感应区域确定虚拟游戏角色的目标身体部位,最后控制目标身体部位执行操作属性对应的交互动作,达到了灵活控制虚拟游戏角色执行操作属性对应的交互动作的目的,从而实现了简化舞蹈交互系统的操作过程、提升交互灵活性的技术效果,进而解决了相关技术中的舞蹈交互系统操作过程繁琐、交互灵活性差的技术问题。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本申请实施方式的方法。
在本申请的示例性实施例中,计算机可读存储介质上存储有能够实现本实施例上述方法的程序产品。在一些可能的实施方式中,本申请实施例的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本实施例上述“示例性方法”部分中描述的根据本申请各种示例性实施方式的步骤。
根据本申请的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本申请实施例的程序产品不限于此,在本申请实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
上述程序产品可以采用一个或多个计算机可读介质的任意组合。该计算机可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列举)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
需要说明的是,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
本申请的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,响应对目标感应区域执行的控制操作,获取控制操作的操作属性,其中,目标感应区域为图形用户界面内多个感应区域中的至少部分感应区域,多个感应区域分别用于控制虚拟游戏角色的不同身体部位执行对应的交互动作,交互动作包括艺术表现动作;
S2,基于目标感应区域确定虚拟游戏角色的目标身体部位;
S3,控制目标身体部位执行操作属性对应的交互动作。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:基于预设挂接关系,将图形用户界面划分为多个感应区域,其中,预设挂接关系用于记录多个感应区域与虚拟游戏角色的不同身体部位之间的挂接关系。
可选地,多个感应区域包括:第一感应区域、第二感应区域和第三感应区域,其中,第一感应区域与第二感应区域分别用于控制虚拟游戏角色的不同身体部位,第三感应区域用于控制虚拟游戏角色中的转向身体部位。
可选地,第一感应区域与第二感应区域相对设置在图形用户界面的两侧区域,第三感应区域位于图形用户界面的中心区域。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:控制虚拟游戏角色的第一身体部位执行第一操作属性对应的第一交互动作,以及控制虚拟游戏角色的第二身体部位执行第二操作属性对应的第二交互动作,其中,第一操作属性是对第一感应区域执行的第一控制操作的操作属性,第一身体部位为第一感应区域对应的身体部位,第二操作属性是对第二感应区域执行的第二控制操作的操作属性,第二身体部位为第二感应区域对应的身体部位,第一控制操作与第二控制操作在操作时序上至少部分重叠,第一交互动作与第二交互动作在动作序列上至少部分重叠。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:控制虚拟游戏角色的第三身体部位执行第三操作属性对应的身体部位转动动作,其中,第三操作属性是对第三感应区域执行的第三控制操作的操作属性,第三身体部位为第三感应区域对应的身体部位。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:响应对目标感应区域执行的控制操作,获取控制操作的操作位置与操作时长;响应于控制操作在操作位置上的操作时长满足预设条件,识别控制操作在图形用户界面的屏幕空间内形成的操作路径以及操作路径对应的操作速度。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:基于预设挂接关系,查找虚拟游戏角色中与目标感应区域对应的身体部位,确定目标身体部位。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:对操作路径进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作路径,以及对操作速度进行空间映射,得到虚拟游戏角色在游戏场景的世界空间内的动作速度;控制目标身体部位按照动作路径与动作速度执行交互动作。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:响应于控制操作结束,记录虚拟游戏角色的第一动作姿态,其中,第一动作姿态为待生成的动作过渡动画的起始动作姿态。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:再次响应对目标感应区域执行的控制操作,获取虚拟游戏角色的第二动作姿态,其中,第二动作姿态为动作过渡动画的终止动作姿态;基于第一动作姿态与第二动作姿态进行动作过渡处理,生成动作过渡动画。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:采用目标动作过渡动画生成模型对第一动作姿态与第二动作姿态进行动作分析,生成动作过渡动画,其中,目标动作过渡动画生成模型通过机器学习方式对多组数据进行训练得到。
可选地,上述处理器还可以被设置为通过计算机程序执行以下步骤:采用初始动作过渡动画生成模型对第一训练姿态与第二训练姿态进行动作分析,生成预测过渡动画;通过预测过渡动画与训练过渡动画确定目标损失;基于目标损失对初始动作过渡动画生成模型的模型参数进行更新,得到目标动作过渡动画生成模型。
在该实施例的电子装置中,通过响应对目标感应区域执行的控制操作,获取控制操作的操作属性,进而基于目标感应区域确定虚拟游戏角色的目标身体部位,最后控制目标身体部位执行操作属性对应的交互动作,达到了灵活控制虚拟游戏角色执行操作属性对应的交互动作的目的,从而实现了简化舞蹈交互系统的操作过程、提升交互灵活性的技术效果,进而解决了相关技术中的舞蹈交互系统操作过程繁琐、交互灵活性差的技术问题。
图8是根据本申请实施例的一种电子装置的示意图。如图8所示,电子装置800仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图8所示,电子装置800以通用计算设备的形式表现。电子装置800的组件可以包括但不限于:上述至少一个处理器810、上述至少一个存储器820、连接不同系统组件(包括存储器820和处理器810)的总线830和显示器840。
其中,上述存储器820存储有程序代码,所述程序代码可以被处理器810执行,使得处理器810执行本申请实施例的上述方法部分中描述的根据本申请各种示例性实施方式的步骤。
存储器820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。
在一些实例中,存储器820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。存储器820可进一步包括相对于处理器810远程设置的存储器,这些远程存储器可以通过网络连接至电子装置800。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理器810或者使用多种总线结构中的任意总线结构的局域总线。
显示器840可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与电子装置800的用户界面进行交互。
可选地,电子装置800也可以与一个或多个外部设备900(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子装置800交互的设备通信,和/或与使得该电子装置800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子装置800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图8所示,网络适配器860通过总线830与电子装置800的其它模块通信。应当明白,尽管图8中未示出,可以结合电子装置800使用其它硬件和/或软件模块,可以包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
上述电子装置800还可以包括:键盘、光标控制设备(如鼠标)、输入/输出接口(I/O接口)、网络接口、电源和/或相机。
本领域普通技术人员可以理解,图8所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,电子装置800还可包括比图8中所示更多或者更少的组件,或者具有与图1所示不同的配置。存储器820可用于存储计算机程序及对应的数据,如本申请实施例中的控制虚拟游戏角色交互的方法对应的计算机程序及对应的数据。处理器810通过运行存储在存储器820内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的控制虚拟游戏角色交互的方法。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (16)
1.一种控制虚拟游戏角色交互的方法,其特征在于,通过终端设备提供一图形用户界面,所述图形用户界面所显示的内容至少部分的包含一游戏场景,所述游戏场景的显示内容包括虚拟游戏角色,所述方法包括:
响应对目标感应区域执行的控制操作,获取所述控制操作的操作属性,其中,所述目标感应区域为所述图形用户界面内多个感应区域中的至少部分感应区域,所述多个感应区域分别用于控制所述虚拟游戏角色的不同身体部位执行对应的交互动作,所述交互动作包括艺术表现动作;
基于所述目标感应区域确定所述虚拟游戏角色的目标身体部位;
控制所述目标身体部位执行所述操作属性对应的交互动作。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于预设挂接关系,将所述图形用户界面划分为所述多个感应区域,其中,所述预设挂接关系用于记录所述多个感应区域与所述虚拟游戏角色的不同身体部位之间的挂接关系。
3.根据权利要求1所述的方法,其特征在于,所述多个感应区域包括:第一感应区域、第二感应区域和第三感应区域,其中,所述第一感应区域与所述第二感应区域分别用于控制所述虚拟游戏角色的不同身体部位,所述第三感应区域用于控制所述虚拟游戏角色中的转向身体部位。
4.根据权利要求3所述的方法,其特征在于,所述第一感应区域与所述第二感应区域相对设置在所述图形用户界面的两侧区域,所述第三感应区域位于所述图形用户界面的中心区域。
5.根据权利要求3所述的方法,其特征在于,控制所述目标身体部位执行所述操作属性对应的交互动作包括:
控制所述虚拟游戏角色的第一身体部位执行第一操作属性对应的第一交互动作,以及控制所述虚拟游戏角色的第二身体部位执行第二操作属性对应的第二交互动作,其中,所述第一操作属性是对所述第一感应区域执行的第一控制操作的操作属性,所述第一身体部位为所述第一感应区域对应的身体部位,所述第二操作属性是对所述第二感应区域执行的第二控制操作的操作属性,所述第二身体部位为所述第二感应区域对应的身体部位,所述第一控制操作与所述第二控制操作在操作时序上至少部分重叠,所述第一交互动作与所述第二交互动作在动作序列上至少部分重叠。
6.根据权利要求3所述的方法,其特征在于,控制所述目标身体部位执行所述操作属性对应的交互动作包括:
控制所述虚拟游戏角色的第三身体部位执行第三操作属性对应的身体部位转动动作,其中,所述第三操作属性是对所述第三感应区域执行的第三控制操作的操作属性,所述第三身体部位为所述第三感应区域对应的身体部位。
7.根据权利要求1所述的方法,其特征在于,响应对所述目标感应区域执行的所述控制操作,获取所述控制操作的所述操作属性包括:
响应对所述目标感应区域执行的所述控制操作,获取所述控制操作的操作位置与操作时长;
响应于所述控制操作在所述操作位置上的所述操作时长满足预设条件,识别所述控制操作在所述图形用户界面的屏幕空间内形成的操作路径以及所述操作路径对应的操作速度。
8.根据权利要求2所述的方法,其特征在于,基于所述目标感应区域确定所述虚拟游戏角色的所述目标身体部位包括:
基于所述预设挂接关系,查找所述虚拟游戏角色中与所述目标感应区域对应的身体部位,确定所述目标身体部位。
9.根据权利要求7所述的方法,其特征在于,控制所述目标身体部位执行所述操作属性对应的交互动作包括:
对所述操作路径进行空间映射,得到所述虚拟游戏角色在所述游戏场景的世界空间内的动作路径,以及对所述操作速度进行空间映射,得到所述虚拟游戏角色在所述游戏场景的世界空间内的动作速度;
控制所述目标身体部位按照所述动作路径与所述动作速度执行所述交互动作。
10.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于所述控制操作结束,记录所述虚拟游戏角色的第一动作姿态,其中,所述第一动作姿态为待生成的动作过渡动画的起始动作姿态。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:
再次响应对所述目标感应区域执行的所述控制操作,获取所述虚拟游戏角色的第二动作姿态,其中,所述第二动作姿态为所述动作过渡动画的终止动作姿态;
基于所述第一动作姿态与所述第二动作姿态进行动作过渡处理,生成所述动作过渡动画。
12.根据权利要求11所述的方法,其特征在于,基于所述第一动作姿态与所述第二动作姿态进行动作过渡处理,生成所述动作过渡动画包括:
采用目标动作过渡动画生成模型对所述第一动作姿态与所述第二动作姿态进行动作分析,生成所述动作过渡动画,其中,所述目标动作过渡动画生成模型通过机器学习方式对多组数据进行训练得到。
13.根据权利要求12所述的方法,其特征在于,所述多组数据中的每组数据均包括:第一训练姿态、第二训练姿态和训练过渡动画,所述方法还包括:
采用初始动作过渡动画生成模型对所述第一训练姿态与所述第二训练姿态进行动作分析,生成预测过渡动画;
通过所述预测过渡动画与所述训练过渡动画确定目标损失;
基于所述目标损失对所述初始动作过渡动画生成模型的模型参数进行更新,得到所述目标动作过渡动画生成模型。
14.一种控制虚拟游戏角色交互的装置,其特征在于,通过终端设备提供一图形用户界面,所述图形用户界面所显示的内容至少部分的包含一游戏场景,所述游戏场景的显示内容包括虚拟游戏角色,所述装置包括:
获取模块,用于响应对目标感应区域执行的控制操作,获取所述控制操作的操作属性,其中,所述目标感应区域为所述图形用户界面内多个感应区域中的至少部分感应区域,所述多个感应区域分别用于控制所述虚拟游戏角色的不同身体部位执行对应的交互动作,所述交互动作包括艺术表现动作;
确定模块,用于基于所述目标感应区域确定所述虚拟游戏角色的目标身体部位;
控制模块,用于控制所述目标身体部位执行所述操作属性对应的交互动作。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为被处理器运行时执行权利要求1至13任一项中所述的控制虚拟游戏角色交互的方法。
16.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行权利要求1至13任一项中所述的控制虚拟游戏角色交互的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311516932.7A CN117339212A (zh) | 2023-11-14 | 2023-11-14 | 控制虚拟游戏角色交互的方法、存储介质及电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311516932.7A CN117339212A (zh) | 2023-11-14 | 2023-11-14 | 控制虚拟游戏角色交互的方法、存储介质及电子装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117339212A true CN117339212A (zh) | 2024-01-05 |
Family
ID=89363332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311516932.7A Pending CN117339212A (zh) | 2023-11-14 | 2023-11-14 | 控制虚拟游戏角色交互的方法、存储介质及电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117339212A (zh) |
-
2023
- 2023-11-14 CN CN202311516932.7A patent/CN117339212A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10551993B1 (en) | Virtual reality content development environment | |
CN110354489B (zh) | 虚拟对象的控制方法、装置、终端及存储介质 | |
US8232989B2 (en) | Method and apparatus for enhancing control of an avatar in a three dimensional computer-generated virtual environment | |
CN112684970B (zh) | 虚拟场景的适配显示方法、装置、电子设备及存储介质 | |
US20220327755A1 (en) | Artificial intelligence for capturing facial expressions and generating mesh data | |
CN113908550A (zh) | 虚拟角色控制方法、非易失性存储介质及电子装置 | |
CN113440848B (zh) | 游戏内信息标记方法、装置及电子装置 | |
CN114653059A (zh) | 游戏中控制虚拟角色的方法、装置及非易失性存储介质 | |
JP5458245B2 (ja) | 動作制御装置、その方法、及びプログラム | |
CN110448903A (zh) | 游戏中控制策略的确定方法、装置、处理器及终端 | |
CN111773669B (zh) | 一种在虚拟环境中生成虚拟对象方法及装置 | |
CN113262476A (zh) | 操作控件的位置调整方法、装置、终端及存储介质 | |
CN117339212A (zh) | 控制虚拟游戏角色交互的方法、存储介质及电子装置 | |
CN114419211A (zh) | 控制虚拟角色骨骼的方法、装置、存储介质及电子装置 | |
Bernardes Jr et al. | Design and implementation of a flexible hand gesture command interface for games based on computer vision | |
CN113318430A (zh) | 虚拟角色的姿态调整方法、装置、处理器及电子装置 | |
CN113318439A (zh) | 起步动画的处理方法、装置、处理器和电子装置 | |
Liu | Analysis of Interaction Methods in VR Virtual Reality | |
CN112686990A (zh) | 一种三维模型显示方法、装置、存储介质和计算机设备 | |
Lin et al. | Interaction in Metaverse: A Survey | |
CN104036133A (zh) | 一种棋牌游戏系统 | |
US20220319088A1 (en) | Facial capture artificial intelligence for training models | |
US20240171782A1 (en) | Live streaming method and system based on virtual image | |
Wu et al. | Interface design for somatosensory interaction | |
US20240066413A1 (en) | Ai streamer with feedback to ai streamer based on spectators |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |