CN107551551A - 游戏效果构建方法及装置 - Google Patents
游戏效果构建方法及装置 Download PDFInfo
- Publication number
- CN107551551A CN107551551A CN201710677578.4A CN201710677578A CN107551551A CN 107551551 A CN107551551 A CN 107551551A CN 201710677578 A CN201710677578 A CN 201710677578A CN 107551551 A CN107551551 A CN 107551551A
- Authority
- CN
- China
- Prior art keywords
- game effect
- game
- user
- models
- target action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明提出一种游戏效果构建方法及装置,其中,方法包括:获取携带试图在游戏中构建3D模型的用户的深度信息;其中,深度信息对用户进行结构光图像处理后生成的;根据深度信息构建用户的3D模型;获取用于构建游戏效果的构建信息;构建信息中携带3D模型需要做出的目标动作;控制3D模型做出目标动作,形成游戏的游戏效果;将游戏效果植入到游戏中。该方法通过控制用户的3D模型做出动作,形成游戏效果,并植入游戏中,由于用户的3D模型比游戏中游戏人物形象更加接近用户的实际形象,因此用户的3D模型做出的动作更显真实,将其植入游戏中,提高了游戏的代入感。
Description
技术领域
本发明涉及终端设备领域,尤其涉及一种游戏效果构建方法及装置。
背景技术
目前,大多数游戏中会设定多种游戏人物,玩家通过操作游戏人物和控制游戏人物执行一系列预设的动作,来完成游戏中的任务。
但是,由于游戏中的游戏人物形象与现实中用户的人物形象相差较大,因此在操作游戏中的游戏人物完成动作时,代入感差。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明提出一种游戏效果构建方法,以实现控制用户的3D模型做出动作,并植入游戏中,提高游戏的代入感,以解决现有由于游戏中游戏人物形象与现实中用户的人物形象相差较大,在控制游戏中的游戏人物执行动作时,代入感差的问题。
本发明提出一种游戏效果构建装置。
本发明提出一种终端设备。
本发明提出一种计算机可读存储介质。
本发明第一方面实施例提出了一种游戏效果构建方法,包括:
获取携带试图在游戏中构建3D模型的用户的深度信息;其中,所述深度信息对用户进行结构光图像处理后生成的;
根据所述深度信息构建所述用户的所述3D模型;
获取用于构建游戏效果的构建信息;所述构建信息中携带所述3D模型需要做出的目标动作;
控制所述3D模型做出所述目标动作,形成所述游戏的游戏效果;
将所述游戏效果植入到所述游戏中。
作为第一方面实施例一种可选的实现方式,所述控制所述3D模型做出所述目标动作,包括:
从所述目标动作中提取需要做出所述目标动作的所述用户的身体部位;
从所述3D模型中识别出所述身体部位,并控制所述身体部位做出所述目标动作。
作为第一方面实施例一种可选的实现方式,所述构建信息中还包括目标对象,则所述控制所述3D模型做出所述目标动作形成所述游戏的游戏效果之后,包括:
从所述构建信息中提取所述目标对象;
将所述目标动作与所述目标对象结合形成目标游戏效果;
将所述目标游戏效果植入到所述游戏中。
作为第一方面实施例一种可选的实现方式,所述控制所述3D模型做出所述目标动作形成所述游戏的游戏效果之后,还包括:
对用户的位置选取操作进行监控;
根据监控的所述位置选取操作,确定所述游戏效果在所述游戏中的展示位置。
作为第一方面实施例一种可选的实现方式,所述确定所述游戏效果在所述游戏中的展示位置之后,还包括:
在所述游戏运行过程中,接收对所述游戏效果的展示指令;
根据所述展示指令在所述展示位置上展示所述游戏效果。
作为第一方面实施例一种可选的实现方式,所述获取携带试图在游戏中构
建3D模型的用户的深度信息之前,包括:
向用户身体发射结构光;
采集所述结构光在所述用户身体上的反射光并形成所述深度信息。
作为第一方面实施例一种可选的实现方式,所述结构光为非均匀的结构光,所述非均匀的结构光为多个光斑的集合构成的散斑图案或乱点图案,是由设置在终端上的投射装置中的衍射光学元件形成的,其中,所述衍射光学元件上设置有一定数量的浮雕,所述浮雕的凹槽深度不同。
本发明实施例的游戏效果构建方法,通过获取携带试图在游戏中构建3D模型的用户的深度信息,根据深度信息构建用户的3D模型,获取用于构建游戏效果的构建信息,所述构建信息中携带3D模型需要做出的动作,控制3D模型做出目标动作,形成游戏的游戏效果,并将游戏效果植入到游戏中。本实施例中,通过控制用户的3D模型做出动作,形成游戏效果,并植入游戏中,由于用户的3D模型比游戏中游戏人物形象更加接近用户的实际形象,因此用户的3D模型做出的动作更显真实,将其植入游戏中,提高了游戏的代入感。
本发明第二方面实施例提出了一种游戏效果构建装置,包括:
第一获取模块,用于获取携带试图在游戏中构建3D模型的用户的深度信息;其中,所述深度信息对用户进行结构光图像处理后生成的;
构建模块,用于根据所述深度信息构建所述用户的所述3D模型;
第二获取模块,用于获取用于构建游戏效果的构建信息;所述构建信息中携带所述3D模型需要做出的目标动作;
第一形成模块,用于控制所述3D模型做出所述目标动作,形成所述游戏的游戏效果;
植入模块,用于将所述游戏效果植入到所述游戏中。
作为第二方面实施例一种可选的实现方式,所述第一形成模块,还用于:
从所述目标动作中提取需要做出所述目标动作的所述用户的身体部位;
从所述3D模型中识别出所述身体部位,并控制所述身体部位做出所述目标动作。
作为第二方面实施例一种可选的实现方式,所述第一形成模块,还用于:从所述构建信息中提取所述目标对象;
将所述目标动作与所述目标对象结合形成目标游戏效果;
将所述目标游戏效果植入到所述游戏中。
作为第二方面实施例一种可选的实现方式,该装置还包括:
监控模块,用于对用户的位置选取操作进行监控;
确定模块,用于根据监控的所述位置选取操作,确定所述游戏效果在所述游戏中的展示位置。
作为第二方面实施例一种可选的实现方式,该装置还包括:
接收模块,用于在所述游戏运行过程中,接收对所述游戏效果的展示指令;
展示模块,用于根据所述展示指令在所述展示位置上展示所述游戏效果。
作为第二方面实施例一种可选的实现方式,该装置还包括:
发射模块,用于向用户身体发射结构光;
第二形成模块,用于采集所述结构光在所述用户身体上的反射光并形成所述深度信息。
作为第二方面实施例一种可选的实现方式,所述结构光为非均匀的结构光,所述非均匀的结构光为多个光斑的集合构成的散斑图案或乱点图案,是由设置在终端上的投射装置中的衍射光学元件形成的,其中,所述衍射光学元件上设置有一定数量的浮雕,所述浮雕的凹槽深度不同。
本发明实施例的游戏效果构建装置,通过获取携带试图在游戏中构建3D模型的用户的深度信息,根据深度信息构建用户的3D模型,获取用于构建游戏效果的构建信息,所述构建信息中携带3D模型需要做出的动作,控制3D模型做出目标动作,形成游戏的游戏效果,并将游戏效果植入到游戏中。本实施例中,通过控制用户的3D模型做出动作,形成游戏效果,并植入游戏中,由于用户的3D模型比游戏中游戏人物形象更加接近用户的实际形象,因此用户的3D模型做出的动作更显真实,将其植入游戏中,提高了游戏的代入感。
本发明第三方面实施例提出了一种终端设备,包括存储器及处理器,所述存储器中储存有计算机可读指令,所述指令被所述处理器执行时,使得所述处理器执行如第一方面实施例所述的游戏效果构建方法。
本发明第四方面实施例提出了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行如第一方面实施例所述的游戏效果构建方法。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种游戏效果构建方法的流程示意图;
图2为本发明实施例提供的一个投射结构光的装置组合示意图;
图3为本发明实施例提供的不同形式的结构光的示意图;
图4为本发明实施例提供的另一种游戏效果构建方法的流程示意图;
图5为本发明实施例提供的又一种游戏效果构建方法的流程示意图;
图6为本发明实施例提供的再一种游戏效果构建方法的流程示意图;
图7为本发明实施例提供的一种非均匀的结构光的投影集合示意图;
图8为本发明实施例提供的一种游戏效果构建装置的结构示意图;
图9为本发明实施例提供的一种终端设备中的图像处理电路的示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的游戏效果构建方法及装置。
图1为本发明实施例提供的一种游戏效果构建方法的流程示意图。
如图1所示,该游戏效果构建方法包括以下步骤:
步骤101,获取携带试图在游戏中构建3D模型的用户的深度信息。
其中,深度信息对实际场景进行结构光图像处理后生成的。
其中,已知空间方向光的投影的集合称为结构光。
作为一种示例,图2为一个投射结构光的装置组合示意图。图2中仅以结构光的投影集合为线的集合进行示例,对于投影集合为散斑图案的结构光的原理类似。如图2所示,该装置中可以包括光学投射器和摄像机,其中,光学投射器将一定模式的结构光投射于被测物体处的空间内,在物体表面上形成由物体表面的形状所调制的图像。该图像由处于另一位置的摄像机探测,从而获得结构光图像。
在获得结构光图像后,从该结构光图像中采集被测物的光条图像,将被测物的光条图像与参考光条图像按照预定算法进行图像数据计算,获取被测物上光条图像的各个光条相对于参考光条图像中的参考光条的移动距离。利用三角法转换计算得到光条图像的各个光条的深度值,并根据该深度值得到被测物的深度信息。
作为一种示例,结构光的类型包括光栅型、光点型、斑纹型(包括圆形斑纹和十字斑纹),如图3所示,上述结构光是均匀排布的。对应地,生成结构光的设备可以是将光点、线、光栅、格网或斑纹投影到被测物体上的某种投影设备或仪器,比如光学投射器,也可以是生成激光束的激光器。
本发明实施例中的摄像机可以为终端如手机、掌上电脑等的后置摄像头。由此,当拿起终端对用户时,即可调用终端上的光学投射器和摄像头,获取用户的结构光图像,通过对用户进行结构光图像处理,可准确地获取用户的深度信息。
步骤102,根据深度信息构建用户的3D模型。
本实施例中,可将用户的深度信息与摄像头采集的用户的色彩信息进行融合,得到用户的3D模型。具体地,从深度信息和色彩信息中分别提取用户的特征。其中,用户的特征可以是脸部五官、胳膊、腿等。然后,将从深度信息中提取的用户的特征和从色彩信息中提取的用户的特征进行配准和特征融合处理,最终根据融合后的特征,生成3D模型。
步骤103,获取用于构建游戏效果的构建信息;构建信息中携带3D模型需要做出的目标动作。
本实施例中,可预先采集游戏中游戏人物的多个动作的运动数据,并将动作的标识与对应的运动数据进行存储。用户可通过点击终端屏幕上的动作库,选择3D模型将要做出的动作。终端可实时对用户的点击操作进行监控,当监控到点击操作时,可以识别出该点击操作所对应的区域,后台可以分析该区域所对应的动作,进而获取3D模型需要做出的目标动作。
例如,动作库中存储的动作有“微笑”、“张嘴”、“行走”、“踢右腿”等。当用户点击动作库的图标,从动作库中选择“微笑”时,终端可识别出点击操作所点击的区域,后台可以分析出该区域对应的动作“微笑”,进而获取3D模型需要做出的目标动作“微笑”。
步骤104,控制3D模型做出目标动作,形成游戏的游戏效果。
在获取目标动作后,可根据目标动作的标识,获取目标动作对应的运动数据。之后,可以控制3D模型根据运动数据做出相应的动作,进而形成游戏的游戏效果。
例如,用户选择目标动作“微笑”,终端可以根据“微笑”的动作标识获取对应的运动数据,进而可以控制用户的3D模型根据微笑对应的运动数据做出微笑的动作,形成游戏效果。
步骤105,将游戏效果植入到游戏中。
在控制用户的3D模型完成目标动作,形成游戏效果后,将游戏效果植入到游戏中进行预存,丰富了游戏中的游戏效果。
上述实施例中,通过控制3D模型根据运动数据完成目标动作,下面通过另外一个实施例,描述如何根据需要做出目标动作的身体部位完成目标动作。
如图4所示,该游戏效果构建方法包括以下步骤:
步骤401,获取携带试图在游戏中构建3D模型的用户的深度信息。
步骤402,根据深度信息构建用户的3D模型。
步骤401-402与上述实施例中的步骤101-102类似,在此不再赘述。
步骤403,获取用于构建游戏效果的构建信息;构建信息中携带3D模型需要做出的目标动作。
本实施例中,用户可通过点击终端屏幕上的动作库,选择3D模型将要做出的动作。终端可实时对用户的点击操作进行监控,当监控到点击操作时,可以识别出该点击操作所对应的区域,后台可以分析该区域所对应的动作,进而获取3D模型需要做出的目标动作。
步骤404,从目标动作中提取需要做出目标动作的用户的身体部位。
本实施例中,可预先为动作库中的每个动作建立描述信息,其中,描述信息中包括做出动作的身体部位、身体部位的尺寸和动作的运动参数。例如,动作“微笑”的描述信息包括脸部、脸部尺寸和嘴角上扬的幅度。
在获取目标动作后,可从目标动作的描述信息中提取需要做出目标动作的身体部位、身体部位的尺寸以及运动参数。
步骤405,从3D模型中识别出身体部位,并控制身体部位做出目标动作,形成游戏的游戏效果。
在提取需要做出目标动作的身体部位后,根据身体部位的尺寸从3D模型中识别出该身体部位。之后,根据运动参数控制身体部位做出相应的动作。
例如,用户选取的动作为“微笑”,根据做出“微笑”动作的脸部尺寸,从3D模型中识别出脸部,然后根据“微笑”的运动参数控制脸部做出微笑的动作。
步骤406,将游戏效果植入到游戏中。
在控制用户的3D模型完成目标动作,形成游戏效果后,将游戏效果植入到游戏中进行预存,丰富了游戏中的游戏效果。
本实施例中,通过从3D模型中识别出需要做出目标动作的身体部位,而不需要提取其他身体部位,针对性强。
在游戏中很多游戏人物的动作需要与其他物体相结合,下面通过一个实施例,介绍本发明提出的游戏效果构建方法。
如图5所示,游戏效果构建方法包括以下步骤:
步骤501,向用户身体发射结构光。
本实施例中,可以在终端中设置投射装置,用于向用户发射结构光。当将终端对着用户时,终端中设置的投射装置可以向用户发射结构光。
步骤502,采集结构光在用户身体上的反射光并形成深度信息。
本实施例中,可通过终端背面的摄像头采集结构光在用户身体上的反射光。当向用户发射的结构光到达用户之后,由于用户身体会对结构光造成阻碍,结构光会在用户身体上发生反射。此时,可以通过终端中设置的摄像头对结构光在用户身体上的反射光进行采集,通过采集到的反射光可以得到用户的结构光图像,进而对结构光图像进行处理,可以准确地获取用户的深度信息。
步骤503,根据深度信息构建用户的3D模型。
本实施例中,可将深度信息与摄像头采集的用户身体的色彩信息进行融合,得到用户的3D模型。具体地,从深度信息和色彩信息中分别提取用户身体特征。然后,将从深度信息中提取的用户身体特征和从色彩信息中提取的用户身体特征进行配准和特征融合处理,最终根据融合后的特征,生成用户的3D模型。
步骤504,获取用于构建游戏效果的构建信息;构建信息中携带3D模型需要做出的目标动作。
步骤505,控制3D模型做出目标动作,形成游戏的游戏效果。
步骤504-505与上述实施例中的步骤103-104类似,在此不再赘述。
步骤506,从构建信息中提取目标对象。
本实施例中,构建信息中除了包含目标动作外,还可包括目标对象、目标动作与目标对象的结合数据等。其中,目标对象是指与目标动作结合的物体,结合数据可包括结合位置参数。
步骤507,将目标动作与目标对象结合形成目标游戏效果。
在控制用户的3D模型完成目标动作后,根据从构建信息中提取的目标对象,将目标动作与目标对象进行结合形成目标游戏效果。具体地,可根据结合数据将目标动作与目标对象进行结合,使结合更加完美。
例如,目标动作为嘴巴张开,目标对象为苹果,根据嘴巴与苹果的结合位置参数,将嘴巴张开的动作与苹果进行结合,形成嘴巴咬苹果的游戏效果。
步骤508,将目标游戏效果植入到游戏中。
在形成目标游戏效果后,将目标游戏效果植入到游戏中进行预存。
本实施例中,通过将3D模型做出的动作与其他对象进行结合,可以形成更加多样化的游戏效果,而且相比游戏人物做出的动作与其他对象的结合,更加真实。
在将用户的3D模型做出的目标动作形成游戏效果,植入到游戏中之后,还可在游戏运行过程中,展示游戏效果。下面通过一个实施例,描述本发明提出的游戏效果构建方法。
如图6所示,该游戏效果构建方法包括以下步骤:
步骤601,向用户身体发射结构光。
步骤602,采集结构光在用户身体上的反射光并形成深度信息。
步骤603,根据深度信息构建用户的3D模型。
步骤601-603与前述实施例中步骤501-503类似,在此不再赘述。
步骤604,获取用于构建游戏效果的构建信息;构建信息中携带3D模型需要做出的目标动作。
步骤605,控制3D模型做出目标动作,形成游戏的游戏效果。
步骤604-605与前述实施例中的步骤103-104类似,在此不再赘述。
步骤606,对用户的位置选取操作进行监控。
本实施例中,可以对用户在屏幕上的位置选取操作,如点击操作,进行实时监控。
步骤607,根据监控的位置选取操作,确定游戏效果在游戏中的展示位置。
终端监控到屏幕上的点击操作时,后台可以识别出点击位置所对应的区域,进而可以确定该区域为游戏效果在游戏中的展示位置。
步骤608,在游戏运行过程中,接收对游戏效果的展示指令。
本实施例中,可在展示位置上显示“展示游戏效果”的提示信息框。在游戏运行过程中,用户可以点击提示信息框。终端监控到用户点击提示信息框的操作时,根据点击操作生成展示指令。
步骤609,根据展示指令在展示位置上展示游戏效果。
在接收到展示指令后,根据展示指令,在展示位置上展示由用户的3D模型做出的动作形成的游戏效果。由于用户3D模型更加接近用户的实际形象,因而增强了游戏效果的现实感,丰富了游戏效果。
此处需要说明的是,作为一种示例,上述实施例中采用的结构光可以为非均匀的结构光,非均匀的结构光为多个光斑的集合构成的散斑图案或乱点图案。
图7为本发明实施例中非均匀的结构光的投影集合示意图。如图7所示,本发明实施例中采用的是非均匀的结构光,其中,非均匀的结构光为随机排列非均匀的散斑图案,也就是说,该非均匀的结构光为多个光斑的集合,且多个光斑之间采用不均匀的分散方式排布,进而构成一个散斑图案。由于散斑图案所占的存储空间较小,因而,投射装置运行时不会对终端的运行效率造成太大影响,能够节约终端的存储空间。
此外,本发明实施例中采用的散斑图案,相较于其他现有的结构光类型而言,散列排布能够降低能量消耗,节省电量,提高终端的续航能力。
在本发明实施例中,可以在电脑、手机、掌上电脑等终端中设置投射装置和摄像头。投射装置向用户发射非均匀的结构光即散斑图案。具体地,可以利用投射装置中的衍射光学元件形成散斑图案,其中,该衍射光学元件上设置有一定数量的浮雕,不规则的散斑图案就由衍射光学元件上不规则的浮雕产生。本发明实施例中,浮雕凹槽深度和数量可以通过算法设置。
其中,投射装置可以用于向被测对象所处的空间投射一个预设的散斑图案。摄像头可以用于对已投射散斑图案的被测对象进行采集,以得到带有散斑图案的被测对象的结构光图像。
本发明实施例中,当终端的摄像头对准用户时,终端中的投射装置可以向用户所处的空间投射预设的散斑图案,该散斑图案中具有多个散斑点,当该散斑图案被投射到用户身体上时,该散斑图案中的好多散斑点会由于身体各个部分的原因而发生偏移。通过终端的摄像头对用户身体上的结构光进行采集,得到带有散斑图案的用户的结构光图像。
进一步地,将采集到的用户的散斑图像与参考散斑图像按照预定算法进行图像数据计算,获取用户的散斑图像的各个散斑点相对于参考散斑点的移动距离。最后根据该移动距离、参考散斑图像与终端上摄像头的距离以及投射装置与摄像头之间的相对间隔值,利用三角法得到散斑图像的各个散斑点的深度值,并根据该深度值得到深度信息,进而根据深度信息获得用户的3D模型。
本发明实施例的游戏效果构建方法,通过获取携带试图在游戏中构建3D模型的用户的深度信息,根据深度信息构建用户的3D模型,获取用于构建游戏效果的构建信息,所述构建信息中携带3D模型需要做出的动作,控制3D模型做出目标动作,形成游戏的游戏效果,并将游戏效果植入到游戏中。本实施例中,通过控制用户的3D模型做出动作,形成游戏效果,并植入游戏中,由于用户的3D模型比游戏中游戏人物形象更加接近用户的实际形象,因此用户的3D模型做出的动作更显真实,将其植入游戏中,提高了游戏的代入感。
本发明实施例还提出一种游戏效果构建装置。
如图8所示,该游戏效果构建装置包括:第一获取模块810、构建模块820、第二获取模块830、第一形成模块840、植入模块850。
第一获取模块810用于获取携带试图在游戏中构建3D模型的用户的深度信息;其中,深度信息对用户进行结构光图像处理后生成的。
构建模块820用于根据深度信息构建用户的所述3D模型。
第二获取模块830用于获取用于构建游戏效果的构建信息;构建信息中携带3D模型需要做出的目标动作。
第一形成模块840用于控制3D模型做出目标动作,形成游戏的游戏效果。
植入模块850用于将游戏效果植入到游戏中。
在本实施例一种可能的实现方式中,第一形成模块840还用于:
从目标动作中提取需要做出目标动作的用户的身体部位;
从3D模型中识别出身体部位,并控制身体部位做出目标动作。
在本实施例一种可能的实现方式中,第一形成模块840还用于:
从构建信息中提取目标对象;
将目标动作与目标对象结合形成目标游戏效果;
将目标游戏效果植入到游戏中。
在本实施例一种可能的实现方式中,该装置还包括:
监控模块,用于对用户的位置选取操作进行监控;
确定模块,用于根据监控的位置选取操作,确定游戏效果在游戏中的展示位置。
在本实施例一种可能的实现方式中,该装置还包括:
接收模块,用于在游戏运行过程中,接收对游戏效果的展示指令;
展示模块,用于根据展示指令在展示位置上展示游戏效果。
在本实施例一种可能的实现方式中,该装置还包括:
发射模块,用于向用户身体发射结构光;
第二形成模块,用于采集结构光在用户身体上的反射光并形成深度信息。
在本实施例一种可能的实现方式中,结构光为非均匀的结构光,非均匀的结构光为多个光斑的集合构成的散斑图案或乱点图案,是由设置在终端上的投射装置中的衍射光学元件形成的,其中,衍射光学元件上设置有一定数量的浮雕,浮雕的凹槽深度不同。
上述游戏效果构建装置中各个模块的划分仅用于举例说明,在其他实施例中,可将游戏效果构建装置按照需要划分为不同的模块,以完成上述游戏效果构建装置的全部或部分功能。
需要说明的是,前述对游戏效果构建方法实施例的解释说明,也适用于该实施例的游戏效果构建装置,在此不再赘述。
本发明实施例的游戏效果构建装置,通过获取携带试图在游戏中构建3D模型的用户的深度信息,根据深度信息构建用户的3D模型,获取用于构建游戏效果的构建信息,所述构建信息中携带3D模型需要做出的动作,控制3D模型做出目标动作,形成游戏的游戏效果,并将游戏效果植入到游戏中。本实施例中,通过控制用户的3D模型做出动作,形成游戏效果,并植入游戏中,由于用户的3D模型比游戏中游戏人物形象更加接近用户的实际形象,因此用户的3D模型做出的动作更显真实,将其植入游戏中,提高了游戏的代入感。
本发明实施例还提供一种终端设备。上述终端设备中包括图像处理电路,图像处理电路可以利用硬件和/或软件组件实现,可包括定义ISP(Image Signal Processing,图像信号处理)管线的各种处理单元。图9为一个实施例中图像处理电路的示意图。如图9所示,为便于说明,仅示出与本发明实施例相关的图像处理技术的各个方面。
如图9所示,图像处理电路900包括成像设备910、ISP处理器930和控制逻辑器940。成像设备910可包括具有一个或多个透镜912、图像传感器914的照相机和结构光投射器916。结构光投射器916将结构光投影至被测物。其中,该结构光图案可为激光条纹、格雷码、正弦条纹、或者,随机排列的散斑图案等。图像传感器914捕捉投影至被测物形成的结构光图像,并将结构光图像发送至ISP处理器930,由ISP处理器930对结构光图像进行解调获取被测物的深度信息。同时,图像传感器914也可以捕捉被测物的色彩信息。当然,也可以由两个图像传感器914分别捕捉被测物的结构光图像和色彩信息。
其中,以散斑结构光为例,ISP处理器930对结构光图像进行解调,具体包括,从该结构光图像中采集被测物的散斑图像,将被测物的散斑图像与参考散斑图像按照预定算法进行图像数据计算,获取被测物上散斑图像的各个散斑点相对于参考散斑图像中的参考散斑点的移动距离。利用三角法转换计算得到散斑图像的各个散斑点的深度值,并根据该深度值得到被测物的深度信息。
当然,还可以通过双目视觉的方法或基于飞行时差TOF的方法来获取该深度图像信息等,在此不做限定,只要能够获取或通过计算得到被测物的深度信息的方法都属于本实施方式包含的范围。
在ISP处理器930接收到图像传感器914捕捉到的被测物的色彩信息之后,可被测物的色彩信息对应的图像数据进行处理。ISP处理器930对图像数据进行分析以获取可用于确定和/或成像设备910的一个或多个控制参数的图像统计信息。图像传感器914可包括色彩滤镜阵列(如Bayer滤镜),图像传感器914可获取用图像传感器914的每个成像像素捕捉的光强度和波长信息,并提供可由ISP处理器930处理的一组原始图像数据。
ISP处理器930按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器930可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的图像统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
ISP处理器930还可从图像存储器920接收像素数据。图像存储器920可为存储器装置的一部分、存储设备、或电子设备内的独立的专用存储器,并可包括DMA(Direct MemoryAccess,直接直接存储器存取)特征。
当接收到原始图像数据时,ISP处理器930可进行一个或多个图像处理操作。
在ISP处理器930获取到被测物的色彩信息和深度信息后,可对其进行融合,得到三维图像。其中,可通过外观轮廓提取方法或轮廓特征提取方法中的至少一种提取相应的被测物的特征。例如通过主动形状模型法ASM、主动外观模型法AAM、主成分分析法PCA、离散余弦变换法DCT等方法,提取被测物的特征,在此不做限定。再将分别从深度信息中提取到被测物的特征以及从色彩信息中提取到被测物的特征进行配准和特征融合处理。这里指的融合处理可以是将深度信息以及色彩信息中提取出的特征直接组合,也可以是将不同图像中相同的特征进行权重设定后组合,也可以有其他融合方式,最终根据融合后的特征,生成三维图像。
三维图像的图像数据可发送给图像存储器920,以便在被显示之前进行另外的处理。ISP处理器930从图像存储器920接收处理数据,并对所述处理数据进行原始域中以及RGB和YCbCr颜色空间中的图像数据处理。三维图像的图像数据可输出给显示器960,以供用户观看和/或由图形引擎或GPU(Graphics Processing Unit,图形处理器)进一步处理。此外,ISP处理器930的输出还可发送给图像存储器920,且显示器960可从图像存储器920读取图像数据。在一个实施例中,图像存储器920可被配置为实现一个或多个帧缓冲器。此外,ISP处理器930的输出可发送给编码器/解码器950,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器960设备上之前解压缩。编码器/解码器950可由CPU或GPU或协处理器实现。
ISP处理器930确定的图像统计信息可发送给控制逻辑器940单元。控制逻辑器940可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的图像统计信息,确定成像设备910的控制参数。
以下为运用图9中图像处理技术实现游戏效果构建方法的步骤:
获取携带试图在游戏中构建3D模型的用户的深度信息;其中,深度信息对用户进行结构光图像处理后生成的;
根据深度信息构建用户的所述3D模型;
获取用于构建游戏效果的构建信息;构建信息中携带所述3D模型需要做出的目标动作;
控制3D模型做出目标动作,形成游戏的游戏效果;
将游戏效果植入到游戏中。
本发明实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行以下步骤:
获取携带试图在游戏中构建3D模型的用户的深度信息;其中,深度信息对用户进行结构光图像处理后生成的;
根据深度信息构建用户的所述3D模型;
获取用于构建游戏效果的构建信息;构建信息中携带所述3D模型需要做出的目标动作;
控制3D模型做出目标动作,形成游戏的游戏效果;
将游戏效果植入到游戏中。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种游戏效果构建方法,其特征在于,包括:
获取携带试图在游戏中构建3D模型的用户的深度信息;其中,所述深度信息对用户进行结构光图像处理后生成的;
根据所述深度信息构建所述用户的所述3D模型;
获取用于构建游戏效果的构建信息;所述构建信息中携带所述3D模型需要做出的目标动作;
控制所述3D模型做出所述目标动作,形成所述游戏的游戏效果;
将所述游戏效果植入到所述游戏中。
2.根据权利要求1所述的方法,其特征在于,所述控制所述3D模型做出所述目标动作,包括:
从所述目标动作中提取需要做出所述目标动作的所述用户的身体部位;
从所述3D模型中识别出所述身体部位,并控制所述身体部位做出所述目标动作。
3.根据权利要求1所述的方法,其特征在于,所述构建信息中还包括目标对象,则所述控制所述3D模型做出所述目标动作形成所述游戏的游戏效果之后,包括:
从所述构建信息中提取所述目标对象;
将所述目标动作与所述目标对象结合形成目标游戏效果;
将所述目标游戏效果植入到所述游戏中。
4.根据权利要求1所述的方法,其特征在于,所述控制所述3D模型做出所述目标动作形成所述游戏的游戏效果之后,还包括:
对用户的位置选取操作进行监控;
根据监控的所述位置选取操作,确定所述游戏效果在所述游戏中的展示位置。
5.根据权利要求4所述的方法,其特征在于,所述确定所述游戏效果在所述游戏中的展示位置之后,还包括:
在所述游戏运行过程中,接收对所述游戏效果的展示指令;
根据所述展示指令在所述展示位置上展示所述游戏效果。
6.根据权利要求1-4任一项所述的方法,其特征在于,所述获取携带试图
在游戏中构建3D模型的用户的深度信息之前,包括:
向用户身体发射结构光;
采集所述结构光在所述用户身体上的反射光并形成所述深度信息。
7.根据权利要求6所述的方法,其特征在于,所述结构光为非均匀的结构光,所述非均匀的结构光为多个光斑的集合构成的散斑图案或乱点图案,是由设置在终端上的投射装置中的衍射光学元件形成的,其中,所述衍射光学元件上设置有一定数量的浮雕,所述浮雕的凹槽深度不同。
8.一种游戏效果构建装置,其特征在于,包括:
第一获取模块,用于获取携带试图在游戏中构建3D模型的用户的深度信息;其中,所述深度信息对用户进行结构光图像处理后生成的;
构建模块,用于根据所述深度信息构建所述用户的所述3D模型;
第二获取模块,用于获取用于构建游戏效果的构建信息;所述构建信息中携带所述3D模型需要做出的目标动作;
第一形成模块,用于控制所述3D模型做出所述目标动作,形成所述游戏的游戏效果;
植入模块,用于将所述游戏效果植入到所述游戏中。
9.一种终端设备,其特征在于,包括存储器及处理器,所述存储器中储存有计算机可读指令,所述指令被所述处理器执行时,使得所述处理器执行如权利要求1-7中任一项所述的游戏效果构建方法。
10.一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行如权利要求1-7中任一项所述的游戏效果构建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710677578.4A CN107551551B (zh) | 2017-08-09 | 2017-08-09 | 游戏效果构建方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710677578.4A CN107551551B (zh) | 2017-08-09 | 2017-08-09 | 游戏效果构建方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107551551A true CN107551551A (zh) | 2018-01-09 |
CN107551551B CN107551551B (zh) | 2021-03-26 |
Family
ID=60974405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710677578.4A Active CN107551551B (zh) | 2017-08-09 | 2017-08-09 | 游戏效果构建方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107551551B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109636898A (zh) * | 2018-11-29 | 2019-04-16 | 维沃移动通信有限公司 | 3d模型生成方法及终端 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102179048A (zh) * | 2011-02-28 | 2011-09-14 | 武汉市高德电气有限公司 | 基于动作分解和行为分析实现实景游戏的方法 |
CN102622591A (zh) * | 2012-01-12 | 2012-08-01 | 北京理工大学 | 3d人体姿态捕捉模仿系统 |
CN102681661A (zh) * | 2011-01-31 | 2012-09-19 | 微软公司 | 在玩游戏中使用三维环境模型 |
CN103258078A (zh) * | 2013-04-02 | 2013-08-21 | 上海交通大学 | 融合Kinect设备和Delmia环境的人机交互虚拟装配系统 |
CN103366782A (zh) * | 2012-04-06 | 2013-10-23 | 腾讯科技(深圳)有限公司 | 在虚拟形象上自动播放表情的方法和装置 |
CN103533449A (zh) * | 2012-12-20 | 2014-01-22 | Tcl集团股份有限公司 | 一种基于智能3d电视的3d试衣的实现方法及系统 |
CN104268138A (zh) * | 2014-05-15 | 2015-01-07 | 西安工业大学 | 融合深度图和三维模型的人体运动捕捉方法 |
CN104360729A (zh) * | 2014-08-05 | 2015-02-18 | 北京农业信息技术研究中心 | 基于Kinect和Unity3D的多交互方法与装置 |
CN106659937A (zh) * | 2014-07-14 | 2017-05-10 | 微软技术许可有限责任公司 | 用户生成的动态虚拟世界 |
CN106973224A (zh) * | 2017-03-09 | 2017-07-21 | 广东欧珀移动通信有限公司 | 辅助构图的控制方法、控制装置及电子装置 |
-
2017
- 2017-08-09 CN CN201710677578.4A patent/CN107551551B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102681661A (zh) * | 2011-01-31 | 2012-09-19 | 微软公司 | 在玩游戏中使用三维环境模型 |
CN102179048A (zh) * | 2011-02-28 | 2011-09-14 | 武汉市高德电气有限公司 | 基于动作分解和行为分析实现实景游戏的方法 |
CN102622591A (zh) * | 2012-01-12 | 2012-08-01 | 北京理工大学 | 3d人体姿态捕捉模仿系统 |
CN103366782A (zh) * | 2012-04-06 | 2013-10-23 | 腾讯科技(深圳)有限公司 | 在虚拟形象上自动播放表情的方法和装置 |
CN103533449A (zh) * | 2012-12-20 | 2014-01-22 | Tcl集团股份有限公司 | 一种基于智能3d电视的3d试衣的实现方法及系统 |
CN103258078A (zh) * | 2013-04-02 | 2013-08-21 | 上海交通大学 | 融合Kinect设备和Delmia环境的人机交互虚拟装配系统 |
CN104268138A (zh) * | 2014-05-15 | 2015-01-07 | 西安工业大学 | 融合深度图和三维模型的人体运动捕捉方法 |
CN106659937A (zh) * | 2014-07-14 | 2017-05-10 | 微软技术许可有限责任公司 | 用户生成的动态虚拟世界 |
CN104360729A (zh) * | 2014-08-05 | 2015-02-18 | 北京农业信息技术研究中心 | 基于Kinect和Unity3D的多交互方法与装置 |
CN106973224A (zh) * | 2017-03-09 | 2017-07-21 | 广东欧珀移动通信有限公司 | 辅助构图的控制方法、控制装置及电子装置 |
Non-Patent Citations (1)
Title |
---|
陈乙雄等: "《移动设备新技术简明教程》", 31 August 2016 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109636898A (zh) * | 2018-11-29 | 2019-04-16 | 维沃移动通信有限公司 | 3d模型生成方法及终端 |
CN109636898B (zh) * | 2018-11-29 | 2023-08-22 | 维沃移动通信有限公司 | 3d模型生成方法及终端 |
Also Published As
Publication number | Publication date |
---|---|
CN107551551B (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107481304A (zh) | 在游戏场景中构建虚拟形象的方法及其装置 | |
CN107465906B (zh) | 场景的全景拍摄方法、装置及终端设备 | |
CN107481317A (zh) | 人脸3d模型的面部调整方法及其装置 | |
CN107551549A (zh) | 游戏形象调整方法及其装置 | |
CN107480613A (zh) | 人脸识别方法、装置、移动终端和计算机可读存储介质 | |
CN107423716A (zh) | 人脸状态监控方法及装置 | |
CN107483845B (zh) | 拍照方法及其装置 | |
CN107682607A (zh) | 图像获取方法、装置、移动终端和存储介质 | |
CN107452034A (zh) | 图像处理方法及其装置 | |
CN107493428A (zh) | 拍摄控制方法和装置 | |
CN107370950B (zh) | 对焦处理方法、装置和移动终端 | |
CN107507269A (zh) | 个性化三维模型生成方法、装置和终端设备 | |
KR102502310B1 (ko) | 적외선 이미징을 사용한 색상 식별 | |
CN107481101A (zh) | 穿衣推荐方法及其装置 | |
CN107610171A (zh) | 图像处理方法及其装置 | |
CN107517346A (zh) | 基于结构光的拍照方法、装置及移动设备 | |
CN107657652A (zh) | 图像处理方法和装置 | |
CN107491744A (zh) | 人体身份识别方法、装置、移动终端和存储介质 | |
CN107480615A (zh) | 美颜处理方法、装置及移动设备 | |
CN107463659A (zh) | 物体搜索方法及其装置 | |
CN107395974A (zh) | 图像处理系统及方法 | |
CN107469355A (zh) | 游戏人物形象创建方法及装置、终端设备 | |
CN107437268A (zh) | 拍照方法、装置、移动终端和计算机存储介质 | |
CN107360354A (zh) | 拍照方法、装置、移动终端和计算机可读存储介质 | |
CN107610076A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 523860 No. 18, Wu Sha Beach Road, Changan Town, Dongguan, Guangdong Applicant after: OPPO Guangdong Mobile Communications Co., Ltd. Address before: 523860 No. 18, Wu Sha Beach Road, Changan Town, Dongguan, Guangdong Applicant before: Guangdong OPPO Mobile Communications Co., Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |