CN115019401A - 一种基于图像匹配的道具生成方法及系统 - Google Patents
一种基于图像匹配的道具生成方法及系统 Download PDFInfo
- Publication number
- CN115019401A CN115019401A CN202210935578.0A CN202210935578A CN115019401A CN 115019401 A CN115019401 A CN 115019401A CN 202210935578 A CN202210935578 A CN 202210935578A CN 115019401 A CN115019401 A CN 115019401A
- Authority
- CN
- China
- Prior art keywords
- image
- preset
- prop
- target
- identifiable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于图像匹配的道具生成方法及系统,所述系统包括第一获取模块、第一识别模块、第二获取模块、匹配模块和生成模块;第一获取模块用于获取目标道具的当前目标图像A;第一识别模块用于识别基础部A0上的若干可识别区域CA0a;第二获取模块用于获取预设道具的若干预设图像B的基础部B0;匹配模块用于基于目标图像A的若干可识别区域CA0a和每个预设图像B的基础部B0上与若干可识别区域CA0a对应的若干可识别区域CB0b,筛选出和目标图像A相匹配的预设图像B;生成模块用于基于筛选得到的预设图像B,将所述预设图像B的装饰部B1在目标图像A上生成。本发明能够在真人游戏中,对真人操作的实际道具进行装饰。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及一种基于图像匹配的道具生成方法及系统。
背景技术
体感游戏已经较为普及,现有技术只能通过拍摄实际人体来获取人体运动参数,并据此调整游戏画面中显示的虚拟人物的运动和动作,如果用拍摄的真实人体直接显示在游戏画面中替代虚拟人物,使用者可以看到自己的真实影像和真实动作与游戏情节良好融合,将大大提高游戏的趣味性和成就感。
传统游戏中,虚拟人物的人体姿态、动作尺度等均在游戏软件的控制下,以符合游戏画面的情节需要,譬如虚拟人物的右手握住一把锤子并挥动,在传统游戏中是一种显而易见可以轻松实现的场景,但是将真实人体图像置入游戏画面中后,由于现实中真实人体的活动和动作是不受游戏软件控制的,这会导致真人的手部姿势和游戏画面中的手持道具无法匹配,出现不符合游戏画面情节需要或不适的视觉效果,同时由于真人手中并没有实际道具,也无法获得较好的体感。所以一般需要让真人操作实际道具,然后将对其拍摄所得的图像置入游戏中,但因为不同款游戏和同一款游戏中均可能有多种道具,制作多种真实的游戏道具,会产生高昂的成本,而且在同一款游戏过程中,使用者也不可能中途更换游戏道具,所以此种方案存在很多的局限性。
而想要解决这种局限性,游戏过程中需要在真人操作的相对简单单一的实际道具基础之上进行装饰譬如特效渲染,以在游戏画面中产生符合情节需要的各种虚拟道具视觉效果,同时,由于现实中真人操作的实际道具会根据游戏需要连续运动如移动、旋转、前倾、后仰等,所以游戏画面中显示的虚拟道具也需要进行相匹配的连续运动,以确保使用者在游戏画面中看到的虚拟道具的运动轨迹及运动姿态和现实中真人操作的实际道具的运动轨迹及运动姿态相对应,这样才能实现良好的使用体感以及和使用体感相吻合的视觉效果。但是由于现实中真人操作的实际道具的运动轨迹及运动姿态不受游戏软件控制、存在极大的随机性,同时真人的拍摄环境五花八门,譬如摄像头参数、摄像头位置、摄像头视野等均是不确定的,所以传统技术如3D建模等并不能解决在真人操作的实际道具基础之上进行装饰的问题。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于图像匹配的道具生成方法及系统,在真人操作的相对简单单一的实际道具基础之上进行装饰,以在游戏画面中产生符合情节需要的各种虚拟道具视觉效果,同时,虚拟道具的运动轨迹及运动姿态和实际道具的运动轨迹及运动姿态相对应,实现良好的使用体感以及和使用体感相吻合的视觉效果。本发明也可以用于趣味性自拍、健身等场景。
本发明第一方面公开了一种基于图像匹配的道具生成方法,包括以下步骤:
步骤1、获取目标道具的当前目标图像A,所述目标图像A包括基础部A0;根据目标道具的若干区域标签GA0,识别基础部A0上的若干可识别区域CA0a;
步骤2、获取预设道具的若干预设图像B的基础部B0,所述预设图像B包括基础部B0和装饰部B1;
步骤3、基于目标图像A的若干可识别区域CA0a和每个预设图像B的基础部B0上与若干可识别区域CA0a对应的若干可识别区域CB0b,计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S,筛选出和目标图像A相匹配的预设图像B;
步骤4、基于筛选得到的预设图像B,将所述预设图像B的装饰部B1在目标图像A上生成。
上述基于图像匹配的道具生成方法,所述步骤2中获取预设道具的若干预设图像B的基础部B0,包括以下步骤:
步骤2-1、根据与若干可识别区域CA0a对应的若干区域标签GA0a,获取对应的若干区域标签GB0b;
步骤2-2、根据若干区域标签GB0b,获取对应的预设图像B的基础部B0,获取的所有预设图像B的基础部B0均具有对应于若干区域标签GB0b的若干可识别区域CB0b。
上述基于图像匹配的道具生成方法,所述步骤1还包括根据目标道具的若干区域标签GA0,获得基础部A0上的若干未识别区域CA0f,所述未识别区域CA0f指和所述区域标签GA0对应、在目标道具上存在但是无法在基础部A0上识别到的区域,是基础部A0上对应于所述区域标签GA0的虚拟区域;
所述步骤3中计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S时,基于目标图像A的“若干可识别区域CA0a、若干未识别区域CA0f”和每个预设图像B的基础部B0上与“若干可识别区域CA0a、若干未识别区域CA0f”对应的“若干可识别区域CB0b、若干未识别区域CB0f”进行计算,所述未识别区域CB0f指和所述可识别区域CA0a或所述未识别区域CA0f对应、在预设道具上存在但是无法在基础部B0上识别到的区域,是基础部B0上的虚拟区域。
上述基于图像匹配的道具生成方法,其特征在于,所述步骤3中筛选出和目标图像A相匹配的预设图像B,包括以下步骤:筛选出相似度S最高的预设图像B。
上述基于图像匹配的道具生成方法,步骤3中,计算基础部B0和基础部A0的相似度S,包括以下步骤:
步骤①、识别基础部A0上的一个可识别区域CA0a的图像特征Pa0,识别基础部B0上与可识别区域CA0a对应的可识别区域CB0b的图像特征Pb0;计算图像特征Pa0和图像特征Pb0的相似度s;
步骤②、对基础部A0上的每个可识别区域CA0a执行步骤①,获得多个相似度s,基于多个相似度s获得基础部B0和基础部A0的相似度S。
上述基于图像匹配的道具生成方法,步骤3中,计算基础部B0和基础部A0的相似度S,包括以下步骤:
步骤③、识别基础部A0上的每个可识别区域CA0a的图像特征Pa0,基于识别得到的多个图像特征Pa0,得到基础部A0的总图像特征Ra;识别基础部B0上的每个可识别区域CB0b的图像特征Pb0,基于识别得到的多个图像特征Pb0,得到基础部B0的总图像特征Rb;
步骤④、对总图像特征Ra和总图像特征Rb进行相似度计算,获得基础部B0和基础部A0的相似度S。
上述基于图像匹配的道具生成方法,所述图像特征Pa0为可识别区域CA0a的面积特征、像素点数量特征、形状特征、或区域边界线特征中的一种或多种。
上述基于图像匹配的道具生成方法,所述区域标签GA0为颜色标签、纹理标签或符号标签中的一种或多种。
上述基于图像匹配的道具生成方法,所述将装饰部B1在目标图像A上生成,包括以下步骤:
识别预设图像B上基础部B0对应的体感特征点K和装饰部B1对应的装饰特征点J;
识别目标图像A上基础部A0对应的体感特征点K’;
基于体感特征点K、装饰特征点J的相对位置关系,依据体感特征点K’,获取目标图像A上和装饰特征点J对应的装饰特征点J’;
以体感特征点K、装饰特征点J为源点,以体感特征点K’、装饰特征点J’为目标点,将预设图像B的装饰部B1装饰到目标图像A上。
需要说明的是,体感特征点K、装饰特征点J、体感特征点K’、装饰特征点J’均可以为一个或多个。
上述基于图像匹配的道具生成方法,所述体感特征点K包括基础部B0顶端的特征点K1和底端的特征点K2;所述体感特征点K’包括基础部A0对应于K1的特征点K1’和对应于K2的特征点K2’;所述装饰特征点J包括装饰部B1顶端的特征点J1和两侧的特征点J2、J3;
基于特征点K1、K2和J1、J2、J3的相对位置关系,通过特征点K1’、K2’获取特征点J1’、J2’、J3’,特征点J1’、J2’、J3’均为装饰特征点J’;
所述将预设图像B的装饰部B1装饰到目标图像A上,指将预设图像B的装饰部B1变形后叠加到目标图像A上。
上述基于图像匹配的道具生成方法,所述预设图像B通过以下步骤生成:
获取预设道具在不同空间角度下的若干平面图像,每个空间角度对应特定的平面图像;所述预设道具的装饰部预先标记有若干区域标签GB1;
对所述特定的平面图像执行以下步骤:根据预设道具的若干区域标签GB1,识别所述平面图像的装饰部B1上的若干可识别区域GB1b;根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,若是,则将当前平面图像输出,作为预设图像B。
上述基于图像匹配的道具生成方法,根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,包括以下步骤:分别计算若干图像特征Pb1的特征值与对应的若干设定阈值的差异度x,基于若干差异度x判断是否满足预设条件;每个所述预设图像B对应一个阈值队列,所述阈值队列具有所述若干设定阈值。
上述基于图像匹配的道具生成方法,对应于若干预设图像B的若干阈值队列通过以下步骤生成:
预设道具的装饰部外表有n个面,每个面预先标记有不同的区域标签GB1;
根据n个面分别在所述特定的平面图像显示与否生成2n个阈值队列组合,所述阈值队列组合为[k1,…,kx],k1对应于所述n个面中在所述特定的平面图像显示的第1个面的像素点数量值在装饰部B1的像素点总数量值中的占比,kx对应于所述n个面中在所述特定的平面图像显示的第x个面的像素点数量值在装饰部B1的像素点总数量值中的占比;
k1—kx的取值均在集合[T1,T2…Tm]中获取,所述[T1,T2…Tm]中每个元素的取值在0—100%;在每个阈值队列组合中,当k1—kx的取值满足预先设定的条件时,将当前[k1,…,kx]输出作为阈值队列。
本发明第二方面公开了一种基于图像匹配的道具生成系统,包括第一获取模块、第一识别模块、第二获取模块、匹配模块和生成模块;
所述第一获取模块,用于获取目标道具的当前目标图像A,所述目标图像A包括基础部A0;
所述第一识别模块,用于根据目标道具的若干区域标签GA0,识别基础部A0上的若干可识别区域CA0a;
所述第二获取模块,用于获取预设道具的若干预设图像B的基础部B0,所述预设图像B包括基础部B0和装饰部B1;
所述匹配模块,用于基于目标图像A的若干可识别区域CA0a和每个预设图像B的基础部B0上与若干可识别区域CA0a对应的若干可识别区域CB0b,计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S,筛选出和目标图像A相匹配的预设图像B;
所述生成模块,用于基于筛选得到的预设图像B,将所述预设图像B的装饰部B1在目标图像A上生成。
上述基于图像匹配的道具生成系统,还包括用于生成所述预设图像B的图像生成子系统,所述图像生成子系统包括第三获取模块、第二识别模块和判断模块;
所述第三获取模块,用于获取预设道具在不同空间角度下的若干平面图像,每个空间角度对应特定的平面图像;所述预设道具的装饰部预先标记有若干区域标签GB1;
所述第二识别模块,用于针对所述特定的平面图像,根据预设道具的若干区域标签GB1,识别所述平面图像的装饰部B1上的若干可识别区域GB1b;
所述判断模块,用于针对所述特定的平面图像,根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,若是,则将当前平面图像输出,作为预设图像B。
本发明与现有技术相比具有以下优点:本发明能够在真人游戏中,对真人操作的相对简单单一的实际道具进行装饰,在游戏画面中产生符合情节需要的各种虚拟道具视觉效果,同时,虚拟道具的运动轨迹及运动姿态和实际道具的运动轨迹及运动姿态相对应,实现良好的使用体感以及和使用体感相吻合的视觉效果。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为道具生成系统的架构图。
图2为使用者操作目标道具的真实画面示意图。
图3为目标道具的各区域及区域标签示意图。
图4为在目标图像A上生成装饰部B1对应区域后的示意图。
图5为预设道具的基础部及装饰部示意图。
图6为预设道具的基础部和装饰部为相互独立模块的示意图。
图7为预设道具的装饰部的各区域及区域标签示意图。
具体实施方式
如图1所示,一种基于图像匹配的道具生成系统,包括第一获取模块、第一识别模块、第二获取模块、匹配模块和生成模块;
所述第一获取模块,用于获取目标道具的当前目标图像A,所述目标图像A包括基础部A0;所述目标图像A通过对真实的目标道具拍摄获得;
所述第一识别模块,用于根据目标道具的若干区域标签GA0,识别基础部A0上的若干可识别区域CA0a;
所述第二获取模块,用于获取预设道具的若干预设图像B的基础部B0,所述预设图像B包括基础部B0和装饰部B1;
所述匹配模块,用于基于目标图像A的若干可识别区域CA0a和每个预设图像B的基础部B0上与若干可识别区域CA0a对应的若干可识别区域CB0b,计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S,筛选出和目标图像A相匹配的预设图像B;
所述生成模块,用于基于筛选得到的预设图像B,将所述预设图像B的装饰部B1在目标图像A上生成。
如图2所示,实际应用中,使用者操作相对简单单一的目标道具(即实际道具),譬如手持一根立方体形状的短棒进行挥舞,通过对用户端进行拍摄,获得用户人体图像和目标图像A,再将经过后续处理的用户人体图像和目标图像A植入游戏画面中,获得真人游戏的效果,例如实操时可以用电视上方的摄像装置拍摄自己以获取人体图像及手持的道具图像,将所述人体图像及道具图像和游戏画面合成,使用者可以在电视屏幕上观察自身人体影像及道具图像和游戏画面合成后的效果;需要说明的是,为了避免使用者手持道具时手部对目标道具的基础部的遮挡所造成的匹配误差,实操时也可以在目标道具的基础部以外配置一个手持部;
譬如根据游戏情节需要,游戏画面中需要出现使用者手持一把锤子进行挥舞的场景,就需要以获取的目标图像A中显示的基础部A0对应区域为基础(如图3所示),在目标图像A上生成装饰部B1对应区域(如图4所示),以在游戏画面中产生符合情节需要的虚拟道具视觉效果,譬如将基础部A0(短棒区域)作为锤柄区域、将装饰部B1作为锤头区域;需要说明的是,在实际操作中,所述基础部A0对应区域也是可以进行进一步调整或装饰的,以实现更好的游戏道具整体视觉效果,譬如将所述短棒区域进一步装饰为和所述锤头区域在颜色、形状等方面更加匹配的锤柄。
需要说明的是,目标道具包括基础部,所述基础部的不同区域譬如其外表上不同的面标记有不同的区域标签GA0如颜色标签、纹理标签、符号标签等(如图3所示);预设道具包括基础部和装饰部,所述预设道具基础部的不同区域和目标道具基础部的不同区域相对应,譬如标记有和区域标签GA0相对应的区域标签(如图5所示),然后预先准备好大量不同视角(视觉感知上的三维空间角度)下的预设道具的图像,得到若干预设图像B,方便与目标图像A进行匹配,需要说明的是,所述预设道具的图像可以通过3D渲染、实际拍摄等多种方式生成,需要进一步说明的是,实操时目标道具基础部和预设道具基础部的不同区域的形状保持对应相似为佳,可以提高匹配精度。
实际中使用者手持短棒进行挥舞,在三维空间中短棒的角度、位置等不断变化,并通过摄像装置连续拍摄等手段获取短棒的不同视角的平面图像即目标图像A,因此目标图像A中显示的装饰部区域需要和基础部区域保持相对应的视角变化,才能实现良好的使用体感以及和使用体感相吻合的视觉效果,但是由于现实中真人操作目标道具的运动轨迹及运动姿态不受游戏软件控制、存在较大的随机性,同时真人的拍摄环境五花八门如摄像头参数、摄像头位置、摄像头视野等均不确定,也无法和预设道具的图像的准备环境保持一致,所以传统技术如3D建模等并不能解决上述问题;
为此识别当前目标图像A中和若干区域标签GA0相对应的可识别区域CA0a,并获取预设图像B的基础部B0上与若干可识别区域CA0a对应的若干可识别区域CB0b,进而以此为基础计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S,筛选出和目标图像A相匹配的预设图像B,再基于筛选得到的预设图像B,将预设图像B上的装饰部B1在目标图像A上生成;
由于目标图像A/预设图像B为目标道具/预设道具运动到特定视角时在平面图像上的呈现,而目标道具基础部和预设道具基础部的不同区域譬如外表的不同面标记有相对应的可识别标签如颜色标签、纹理标签、符号标签等,同时目标道具和预设道具一般均为刚性物体,当目标图像A和预设图像B的视角相同或相近时,在上述两张图像上显示的具备对应关系的区域(譬如基础部外表的不同面)所包含的图像特征一定也是相同或相近的,譬如所述不同面所对应的面积特征或像素点数量特征或轮廓线特征等,而当目标图像A/预设图像B的视角发生变化时,在其上显示的不同区域所包含的图像特征通常会发生不同的变化,所以如果基于当前目标图像A中显示的和若干区域标签GA0相对应的可识别区域CA0a,能够在预设图像B的基础部B0上找到对应的可识别区域,并且双方区域的特征如图像特征的相似性匹配程度较高时,说明当前预设图像B的视角和当前目标图像A的视角比较接近、当前预设图像B上的装饰部B1和当前目标图像A上的基础部A0的视角比较接近,这样生成的虚拟道具能实现良好的使用体感以及和使用体感相吻合的视觉效果;
譬如可基于目标图像A的基础部A0上的可识别区域CA0a的对应面积特征或像素点数量特征、预设图像B的基础部B0上与CA0a对应的可识别区域CB0b的对应面积特征或像素点数量特征,在两幅图像之间进行相似性匹配,譬如还可基于所述可识别区域CA0a和所述可识别区域CB0b对应的轮廓线特征,在两幅图像之间进行相似性匹配,等等,目的是计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S,当两者的相似度越接近时,目标图像A和预设图像B的视角越接近;
举例来说,假设目标图像A为对四棱柱体结构(其外表一共有六个面)的锤柄拍摄获得的图像,其若干可识别区域CA0a为锤柄6个面在目标图像A中可看见的其中4个面,每个面均为一个可识别区域CA0a,此处将该4个面记为1号面、2号面、3号面和4号面,则相应的计算相似度S时,预设图像B的基础部B0 上对应的若干可识别区域CB0b也为对应的1号面、2号面、3号面和4号面;设所述区域标签为颜色标签,目标图像A和预设图像B的1号面、2号面、3号面和4号面均分别对应红色、黄色、蓝色、绿色,设所述像素点数量特征为可识别区域CA0a/CB0b的对应像素点数量在基础部A0/基础部B0的对应像素点总数量中的占比,即红色、黄色、蓝色、绿色对应的区域所含像素点数量在基础部A0/基础部B0所含像素点总量中的占比,如果不同颜色区域在基础部A0中的占比和对应颜色区域在基础部B0中的占比总体均比较接近,则基础部B0和基础部A0之间的相似度S较高,此时目标图像A和预设图像B的视角显然比较接近。需要说明的是,因为目标图像A的拍摄环境和预设图像B的生产环境往往不一样,导致基础部A0和基础部B0的大小不一样,此时采用对应区域像素点的数量在基础部A0/基础部B0所含像素点总量中的占比来计算相似度S更精确,当然,也可以事先将基础部A0和基础部B0的大小调整成一样,再直接基于对应区域的像素点数量来计算两者的相似性,实质是一样的。
需要说明的是,所述可识别区域CA0a可以是某个面的全部或部份区域,譬如为了提高对可识别区域CA0a的识别精度,可以将锤柄1号面的中央区域标记为红色,而将1号面的其它外围区域标记为另一种和红色有显著区别的颜色,此时红色区域对应于可识别区域CA0a;再譬如将锤柄6个面的中央区域标记成不同颜色的五角星,基于所述五角星的轮廓线特征来计算相似度S;此外,所述可识别区域CA0a可以是四棱柱体结构的全部面、部份面、面与四棱柱体其他区域的组合等多种方式,譬如可以将目标道具的基础部四棱柱体结构的6个面全部对应于不同的可识别区域CA0a,考虑到目标道具的基础部以外可能会配置一个手持部,手持部的顶面会和基础部四棱柱体结构的底面衔接遮挡,也可以仅将基础部四棱柱体结构的4个柱面和1个顶面对应于不同的可识别区域CA0a,为了提高匹配精度,此时还可以在四棱柱体结构的4个柱面上靠近底面的区域均标记成某种特定的颜色,譬如标记成所述“6个面全部对应于不同的可识别区域CA0a”方案中底面应该标记的颜色,等等。
需要说明的是,基于两张图像中多个对应区域的特征进行图像相似性匹配为本领域常用技术如直方图比较法、感知哈希算法、相等法等,譬如可以基于图像中不同颜色标签对应的区域所包含的“像素点数量”或者“区域像素点数量在像素点总数量中的占比”进行直方图图像相似度匹配,即根据不同颜色标签形成不同的样本分区,并以该颜色标签对应的“像素点数量”或者“区域像素点数量在像素点总数量中的占比”作为分区中的样本特征。
上述基于图像匹配的道具生成系统,还包括用于生成所述预设图像B的图像生成子系统,所述图像生成子系统包括第三获取模块、第二识别模块和判断模块;
所述第三获取模块,用于获取预设道具在不同空间角度下的若干平面图像,每个空间角度对应特定的平面图像;所述预设道具的装饰部预先标记有若干区域标签GB1;
所述第二识别模块,用于针对所述特定的平面图像,根据预设道具的若干区域标签GB1,识别所述平面图像的装饰部B1上的若干可识别区域GB1b;
所述判断模块,用于针对所述特定的平面图像,根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,若是,则将当前平面图像输出,作为预设图像B。
需要说明的是,所述预设道具可以是真实道具,也可以是通过三维建模等计算机手段获得的虚拟道具;预设道具在不同空间角度下的若干平面图像,是指基于预设道具在三维空间中不同的姿态、角度、位置等获得的平面图像,譬如基于三维空间中预设的道具运动轨迹、从某个观测方向获取的多幅预设道具的平面图像。
需要进一步说明的是,实际操作中,预设图像B上的基础部B0和装饰部B1,可以在一张图像上,也可以是两张单独的图像,譬如通过三维建模等手段生成对应于1个锤子的预设道具,该预设道具由2个独立的模块组成,第一模块是基础部,形状对应于目标道具的基础部,第二模块是装饰部,包括锤柄和锤头,将两个模块在三维空间中的位置重叠,譬如所述基础部的空间是所述锤柄的空间的子集,然后按照相同的运动轨迹移动两个模块,此时对应某个特定空间角度的平面图像就会包括两张单独的图像,分别对应于基础部B0和装饰部B1,这样做的好处是考虑到成本因素,目标道具基础部的形状相对简单和单一,而预设道具可能会有众多复杂的形状,因此将基础部B0仅仅用于获取道具的角度、位置等运动参数,而装饰部B1在预设图像B上的部份坐标区域会和基础部B0重叠譬如将其覆盖,进而在将预设图像B的装饰部B1装饰到目标图像A上时,亦将目标图像A上的基础部A0覆盖,以实现更好的游戏道具整体视觉效果,譬如锤柄区域和锤头区域在颜色、形状等方面更加匹配(如图6所示)。
需要说明的是,假设预设道具的装饰部的外表为多个面的棱柱结构,则每个面可认定为一个区域GB1,每个面可预设设定一个区域标签GB1(如图7所示)。
通过以上方法筛选出最终可用的预设图像B,具有以下好处:
(1)相比将预设道具所有空间角度下的平面图像均作为预设图像B,以上方法获取特定空间角度条件下的平面图像样本作为预设图像B,无疑将大大减少最终的预设图像B的数量,同时在实际应用中,从若干张预设图像B中筛选出和目标图像A最相似的图像时,筛选范围也会小很多,可以提高运算效率和游戏流畅度。
(2)很多虚拟道具的外形比较复杂,尤其是装饰部,往往比相对简单单一的基础部要复杂很多,譬如装饰部外表的面要比基础部多,而为了提高运算效率,需要获取特定空间角度条件下的平面图像样本作为预设图像B,所以基础部A0和基础部B0的视角可能是相近也可能相同,但是由于装饰部和基础部的复杂程度不一样,这样在某些情况下,虽然基础部A0和基础部B0的相似度满足条件,但是对应的装饰部B1会严重不符合基础部A0或者出现奇怪的视觉效果,譬如基于当前目标图像A的运动姿态,对应的当前装饰部应该显示3个面,但是由于基础部A0和基础部B0匹配精度不够,导致选取了装饰部B1只有2个面的预设图像B作为当前预设图像B,而通过在预设道具装饰部的不同区域譬如其外表上不同的面标记有不同的区域标签GB1,再根据所述区域标签GB1去识别各种空间角度下平面图像的装饰部B1上的若干可识别区域GB1b,进而根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,决定是否将当前平面图像输出作为预设图像B,这样可以基于外形更复杂的装饰部(而非外形相对更简单的基础部)的不同区域(譬如装饰部外表不同的面)在平面图像上的呈现特征来获取平面图像的样本作为预设图像B,实现更好的视觉效果。
本实施例中,根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,包括以下步骤:分别计算若干图像特征Pb1的特征值与对应的若干设定阈值的差异度x,基于若干差异度x判断是否满足预设条件;每个所述预设图像B对应一个阈值队列,所述阈值队列具有所述若干设定阈值。
需要说明的是,此处假设图像特征Pb1的特征值为对应的可识别区域GB1b的像素点数量值在装饰部B1的像素点总数量值中的占比值,并设定阈值为设定的占比值,而差异度x为可识别区域GB1b的占比值和设定的占比值之间的差值。
本实施例中,对应于若干预设图像B的若干阈值队列通过以下步骤生成:
预设道具的装饰部外表有n个面,每个面预先标记有不同的区域标签GB1;例如,n=6,即预设道具的装饰部共计6个面,6个面的组合共计26个;
根据n个面分别在所述特定的平面图像显示与否生成2n个阈值队列组合,所述阈值队列组合为[k1,…,kx],k1对应于所述n个面中在所述特定的平面图像显示的第1个面的像素点数量值在装饰部B1的像素点总数量值中的占比,kx对应于所述n个面中在所述特定的平面图像显示的第x个面的像素点数量值在装饰部B1的像素点总数量值中的占比;
k1—kx的取值均在集合[T1,T2…Tm]中获取,所述[T1,T2…Tm]中每个元素的取值在0—100%;在每个阈值队列组合中,当k1—kx的取值满足预先设定的条件时,将当前[k1,…,kx]输出作为阈值队列。
需要说明的是,[T1,T2…Tm]中每个元素均在0—100%之间取值,本实施例中按照梯度的方式取值,设共有m个梯度,例如m=10,则每个元素的具体取值顺序为为10%、20%...100%,依次类推;
因为每个阈值队列组合[k1,…,kx]中每个元素都有m个值可取用,所以每个阈值队列组合[k1,…,kx]又会产生很多个具体数值的集合,实际使用时,可以预先设定阈值队列组合[k1,…,kx]中若干元素的取值达到某种条件时,将当前[k1,…,kx]输出作为阈值队列,本实施例中,采用当阈值队列组合[k1,…,kx]中若干元素的取值求和等于或接近100%时(即在所述平面图像中显示的装饰部的各区域的面积之和显然等于在所述平面图像中显示的装饰部的总面积),认为满足预先设定的条件,将当前[k1,…,kx]输出作为阈值队列;
上述方法可基于不同虚拟道具的外形特征(譬如装饰部外表的面的数量),根据需要自动生成多张视角的预设图像B;同时,既兼顾了外形更复杂的装饰部的不同区域在平面图像上的呈现特征来获取平面图像的样本作为预设图像B,实现更好的视觉效果,还可以基于各区域面积在总面积中占比的组合变化来穷尽虚拟道具所有可能的视角。
本实施例的技术方案与下述一种基于图像匹配的道具生成方法实施例的技术方案实质相同,若存在不清楚的地方,请参阅下述一种基于图像匹配的道具生成方法实施例。
本发明另一个实施例公开了一种基于图像匹配的道具生成方法,包括以下步骤:
步骤1、获取游戏画面中目标道具的当前目标图像A,所述目标图像A通过对真实的目标道具拍摄获得,所述目标图像A包括基础部A0;根据目标道具的若干区域标签GA0,识别基础部A0上的若干可识别区域CA0a;
步骤2、获取预设道具的若干预设图像B的基础部B0,所述预设图像B包括基础部B0和装饰部B1;
步骤3、基于目标图像A的若干可识别区域CA0a和每个预设图像B的基础部B0上与若干可识别区域CA0a对应的若干可识别区域CB0b,计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S,筛选出和目标图像A相匹配的预设图像B;
步骤4、基于筛选得到的预设图像B,将所述预设图像B的装饰部B1在目标图像A上生成。
如图2所示,实际应用中,使用者操作相对简单单一的目标道具(即实际道具),譬如手持一根立方体形状的短棒进行挥舞,通过对用户端进行拍摄,获得用户人体图像和目标图像A,再将经过后续处理的用户人体图像和目标图像A植入游戏画面中,获得真人游戏的效果,例如实操时可以用电视上方的摄像装置拍摄自己以获取人体图像及手持的道具图像,将所述人体图像及道具图像和游戏画面合成,使用者可以在电视屏幕上观察自身人体影像及道具图像和游戏画面合成后的效果;需要说明的是,为了避免使用者手持道具时手部对目标道具的基础部的遮挡所造成的匹配误差,实操时也可以在目标道具的基础部以外配置一个手持部;
譬如根据游戏情节需要,游戏画面中需要出现使用者手持一把锤子进行挥舞的场景,就需要以获取的目标图像A中显示的基础部A0对应区域为基础(如图3所示),在目标图像A上生成装饰部B1对应区域(如图4所示),以在游戏画面中产生符合情节需要的虚拟道具视觉效果,譬如将基础部A0(短棒区域)作为锤柄区域、将装饰部B1作为锤头区域;需要说明的是,在实际操作中,所述基础部A0对应区域也是可以进行进一步调整或装饰的,以实现更好的游戏道具整体视觉效果,譬如将所述短棒区域进一步装饰为和所述锤头区域在颜色、形状等方面更加匹配的锤柄。
需要说明的是,目标道具包括基础部,所述基础部的不同区域譬如其外表上不同的面标记有不同的区域标签GA0如颜色标签、纹理标签、符号标签等(如图3所示);预设道具包括基础部和装饰部,所述预设道具基础部的不同区域和目标道具基础部的不同区域相对应,譬如标记有和区域标签GA0相对应的区域标签(如图5所示),然后预先准备好大量不同视角(视觉感知上的三维空间角度)下的预设道具的图像,得到若干预设图像B,方便与目标图像A进行匹配,需要说明的是,所述预设道具的图像可以通过3D渲染、实际拍摄等多种方式生成,需要进一步说明的是,实操时目标道具基础部和预设道具基础部的不同区域的形状保持对应相似为佳,可以提高匹配精度。
实际中使用者手持短棒进行挥舞,在三维空间中短棒的角度、位置等不断变化,并通过摄像装置连续拍摄等手段获取短棒的不同视角的平面图像即目标图像A,因此目标图像A中显示的装饰部区域需要和基础部区域保持相对应的视角变化,才能实现良好的使用体感以及和使用体感相吻合的视觉效果,但是由于现实中真人操作目标道具的运动轨迹及运动姿态不受游戏软件控制、存在较大的随机性,同时真人的拍摄环境五花八门如摄像头参数、摄像头位置、摄像头视野等均不确定,也无法和预设道具的图像的准备环境保持一致,所以传统技术如3D建模等并不能解决上述问题;
为此识别当前目标图像A中和若干区域标签GA0相对应的可识别区域CA0a,并获取预设图像B的基础部B0上与若干可识别区域CA0a对应的若干可识别区域CB0b,进而以此为基础计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S,筛选出和目标图像A相匹配的预设图像B,再基于筛选得到的预设图像B,将预设图像B上的装饰部B1在目标图像A上生成;
由于目标图像A/预设图像B为目标道具/预设道具运动到特定视角时在平面图像上的呈现,而目标道具基础部和预设道具基础部的不同区域譬如外表的不同面均标记有相对应的可识别标签如颜色标签、纹理标签、符号标签等,同时目标道具和预设道具一般均为刚性物体,当目标图像A和预设图像B的视角相同或相近时,在上述两张图像上显示的具备对应关系的区域(譬如基础部外表的不同面)所包含的图像特征一定也是相同或相近的,譬如所述不同面所对应的面积特征或像素点数量特征或轮廓线特征等,而当目标图像A/预设图像B的视角发生变化时,在其上显示的不同区域所包含的图像特征通常会发生不同的变化,所以如果基于当前目标图像A中显示的和若干区域标签GA0相对应的可识别区域CA0a,能够在预设图像B的基础部B0上找到对应的可识别区域,并且双方区域的特征如图像特征的相似性匹配程度较高时,说明当前预设图像B的视角和当前目标图像A的视角比较接近、当前预设图像B上的装饰部B1和当前目标图像A上的基础部A0的视角比较接近,这样生成的虚拟道具能实现良好的使用体感以及和使用体感相吻合的视觉效果;
譬如可基于目标图像A的基础部A0上的可识别区域CA0a的对应面积特征或像素点数量特征、预设图像B的基础部B0上与CA0a对应的可识别区域CB0b的对应面积特征或像素点数量特征,在两幅图像之间进行相似性匹配,譬如还可基于所述可识别区域CA0a和所述可识别区域CB0b对应的轮廓线特征,在两幅图像之间进行相似性匹配,等等,目的是计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S,当两者的相似度越接近时,目标图像A和预设图像B的视角越接近;
举例来说,假设目标图像A为对四棱柱体结构(其外表一共有六个面)的锤柄拍摄获得的图像,其若干可识别区域CA0a为锤柄6个面在目标图像A中可看见的其中4个面,每个面均为一个可识别区域CA0a,此处将该4个面记为1号面、2号面、3号面和4号面,则相应的计算相似度S时,预设图像B的基础部B0 上对应的若干可识别区域CB0b也为对应的1号面、2号面、3号面和4号面;设所述区域标签为颜色标签,目标图像A和预设图像B的1号面、2号面、3号面和4号面均分别对应红色、黄色、蓝色、绿色,设所述像素点数量特征为可识别区域CA0a/CB0b的对应像素点数量在基础部A0/基础部B0的对应像素点总数量中的占比,即红色、黄色、蓝色、绿色对应的区域所含像素点数量在基础部A0/基础部B0所含像素点总量中的占比,如果不同颜色区域在基础部A0中的占比和对应颜色区域在基础部B0中的占比总体均比较接近,则基础部B0和基础部A0之间的相似度S较高,此时目标图像A和预设图像B的视角显然比较接近。需要说明的是,因为目标图像A的拍摄环境和预设图像B的生产环境往往不一样,导致基础部A0和基础部B0的大小不一样,此时采用对应区域像素点的数量在基础部A0/基础部B0所含像素点总量中的占比来计算相似度S更精确,当然,也可以事先将基础部A0和基础部B0的大小调整成一样,再直接基于对应区域的像素点数量来计算两者的相似性,实质是一样的。
需要说明的是,所述可识别区域CA0a可以是某个面的全部或部份区域,譬如为了提高对可识别区域CA0a的识别精度,可以将锤柄1号面的中央区域标记为红色,而将1号面的其它外围区域标记为另一种和红色有显著区别的颜色,此时红色区域对应于可识别区域CA0a;再譬如将锤柄6个面的中央区域标记成不同颜色的五角星,基于所述五角星的轮廓线特征来计算相似度S;此外,所述可识别区域CA0a可以是四棱柱体结构的全部面、部份面、面与四棱柱体其他区域的组合等多种方式,譬如可以将目标道具的基础部四棱柱体结构的6个面全部对应于不同的可识别区域CA0a,考虑到目标道具的基础部以外可能会配置一个手持部,手持部的顶面会和基础部四棱柱体结构的底面衔接遮挡,也可以仅将基础部四棱柱体结构的4个柱面和1个顶面对应于不同的可识别区域CA0a,为了提高匹配精度,此时还可以在四棱柱体结构的4个柱面上靠近底面的区域均标记成某种特定的颜色,譬如标记成所述“6个面全部对应于不同的可识别区域CA0a”方案中底面应该标记的颜色等等。
需要说明的是,基于两张图像中多个对应区域的特征进行图像相似性匹配为本领域常用技术如直方图比较法、感知哈希算法、相等法等,譬如可以基于图像中不同颜色标签对应的区域所包含的“像素点数量”或者“区域像素点数量在像素点总数量中的占比”进行直方图图像相似度匹配,即根据不同颜色标签形成不同的样本分区,并以该颜色标签对应的“像素点数量”或者“区域像素点数量在像素点总数量中的占比”作为分区中的样本特征。
本实施例中,所述步骤3中筛选出和目标图像A相匹配的预设图像B,包括以下步骤:筛选出相似度S最高的预设图像B。
这样做的目的是提高图像匹配精度。
本实施例中,所述步骤2中获取预设道具的若干预设图像B的基础部B0,包括以下步骤:
步骤2-1、根据与若干可识别区域CA0a对应的若干区域标签GA0a,获取对应的若干区域标签GB0b;
例如,若干可识别区域CA0a分别是绿色区域、红色区域和黄色区域,则对应的区域标签GA0a分别为绿色标签、红色标签和黄色标签,进而获取和区域标签GA0a相对应的区域标签GB0b,本实施例中,区域标签GB0b和对应的区域标签GA0a保持一致,也分别为绿色标签、红色标签和黄色标签;
步骤2-2、根据若干区域标签GB0b,获取对应的预设图像B的基础部B0,获取的所有预设图像B的基础部B0均具有对应于若干区域标签GB0b的若干可识别区域CB0b。
需要说明的是,假设若干区域标签GB0b分别为绿色标签、红色标签和黄色标签,则获取的对应预设图像B的基础部B0均至少包括绿色标签、红色标签和黄色标签对应的若干可识别区域CB0b,这样可以筛选掉大量不符合当前需要的预设图像B,以提高步骤3相似度计算的运算效率。
本实施例中,步骤3中,计算基础部B0和基础部A0的相似度S,包括以下步骤:
步骤①、识别基础部A0上的一个可识别区域CA0a的图像特征Pa0,识别基础部B0上与可识别区域CA0a对应的可识别区域CB0b的图像特征Pb0;计算图像特征Pa0和图像特征Pb0的相似度s;
步骤②、对基础部A0上的每个可识别区域CA0a执行步骤①,获得多个相似度s,基于多个相似度s获得基础部B0和基础部A0的相似度S。
需要说明的是,基于图像中多个对应区域的图像特征进行图像相似性匹配为本领域常用技术如直方图比较法、感知哈希算法、相等法等,可以基于不同的可识别区域或其对应的区域标签形成不同的样本分区,并将所述可识别区域的图像特征作为对应样本分区中的样本特征,还可以根据可识别区域CA0a在基础部A0上的占比大小对多个相似度s配置不同的权重,最后求和得到最终的相似度S,等等。
本实施例中,步骤3中,计算基础部B0和基础部A0的相似度S,还可以用以下步骤:
步骤③、识别基础部A0上的每个可识别区域CA0a的图像特征Pa0,基于识别得到的多个图像特征Pa0,得到基础部A0的总图像特征Ra;识别基础部B0上的每个可识别区域CB0b的图像特征Pb0,基于识别得到的多个图像特征Pb0,得到基础部B0的总图像特征Rb;
步骤④、对总图像特征Ra和总图像特征Rb进行相似度计算,获得基础部B0和基础部A0的相似度S。
需要说明的是,图像特征Pa0为可识别区域CA0a的面积特征、像素点数量特征、形状特征(例如轮廓线特征)、或区域边界线特征(区域边界线特征,例如当可识别区域为四边形时,取四边形的长边和短边的比值作为区域边界线特征)中的一种或多种;总图像特征Ra为若干可识别区域CA0a之间的一种关联关系体现的特征,例如总图像特征Ra取多个图像特征Pa0之间的比值,相应的,所述图像特征Pb0取和图像特征Pa0相同种类的特征。
需要进一步说明的是,以上所述区域标签GA0为颜色标签、纹理标签或符号标签中的一种或多种;相应的,所述区域标签GB0取和区域标签GA0相同种类的标签。
这样做的好处是标记方法简单,可操作性强。
实际使用中,预先对目标道具的若干区域设置不同的可识别区域标签GA0,例如,预先将目标道具外表上的某一个面的颜色全部标记为黄色,则该区域对应的区域标签即为黄色标签,相应的在步骤1中获取若干可识别区域CA0a时,根据黄色标签,只需识别图像中的黄色像素点,大量黄色像素点的集合组成了一个可识别区域CA0a,需要注意的是,区域标签GA0和区域CA0一一对应,通过区域标签GA0可以在目标图像A中获取对应区域CA0;相应地,预设道具基础部的不同区域和目标道具的不同区域相对应,譬如标记有和区域标签GA0相对应的区域标签。
本实施例中,所述区域标签为颜色标签,所述图像特征为像素点数量特征,所述像素点数量特征为区域CA0a/CB0b的对应像素点数量在基础部A0/基础部B0的对应像素点总数量中的占比,即根据图像中不同颜色对应的区域所含像素点数量在基础部对应区域所含像素点总量中的占比,计算基础部A0和基础部B0的相似性,这是因为目标图像A的拍摄环境和预设图像B的生产环境往往不一样,导致基础部A0和基础部B0的大小不一样,此时采用对应区域像素点的数量“占比”来计算两者的相似性更精确,当然,也可以事先将基础部A0和基础部B0的大小调整成一样,再直接基于对应区域的像素点数量来计算两者的相似性,实质是一样的。
本实施例中,将所述将装饰部B1在目标图像A上生成,包括以下步骤:
识别预设图像B上基础部B0对应的体感特征点K和装饰部B1对应的装饰特征点J;
识别目标图像A上基础部A0对应的体感特征点K’;
基于体感特征点K、装饰特征点J的相对位置关系,依据体感特征点K’,获取目标图像A上和装饰特征点J对应的装饰特征点J’;
以体感特征点K、装饰特征点J为源点,以体感特征点K’、装饰特征点J’为目标点,将预设图像B的装饰部B1装饰到目标图像A上。
需要说明的是,通过利用基础部B0上的体感特征点K、装饰部B1上的装饰特征点J的相对位置关系表征当前预设图像B的形状,再通过对应的体感特征点K’、装饰特征点J’表征目标图像A加装装饰部B1后的形状,最后以体感特征点K、装饰特征点J为源点,以体感特征点K’、装饰特征点J’为目标点,将预设图像B的装饰部B1装饰到目标图像A上,这样既可以通过基础部A0(即使用者操作的实际道具)上的体感特征点K’实现虚拟道具的运动轨迹和实际道具的运动轨迹相对应,获得良好的使用体感,又可以避免出现加装的装饰部B1和基础部A0比例不协调、变形等问题,实现和使用体感相吻合的良好视觉效果。
优选地,所述体感特征点K包括基础部B0顶端的特征点K1和底端的特征点K2;所述体感特征点K’包括基础部A0对应于K1的特征点K1’和对应于K2的特征点K2’;所述装饰特征点J包括装饰部B1顶端的特征点J1和两侧的特征点J2、J3;
基于特征点K1、K2和J1、J2、J3的相对位置关系,通过特征点K1’、K2’获取特征点J1’、J2’、J3’,特征点J1’、J2’、J3’均为装饰特征点J’;
所述将预设图像B的装饰部B1装饰到目标图像A的基础部A0上,指将预设图像B的装饰部B1变形后叠加到目标图像A上。
实际应用中,目标图像A一般通过实际拍摄所得,由于使用者操作目标道具时,移动轨迹变化多端,而预设图像B的数量又不是无穷大的,所以目标图像A的基础部A0和经过步骤3筛选得到预设图像B的基础部B0的视角可能出现近似而不是完全一致的情况,存在一定的变形误差,通过以体感特征点K、装饰特征点J为源点,以体感特征点K’、装饰特征点J’为目标点,将预设图像B的装饰部B1变形后叠加到目标图像A的基础部A0上,可以减少所述变形误差的影响;此外,基于基础部B0顶端的特征点K1和底端的特征点K2、以及他们和装饰特征点J的相对位置关系,再通过基础部A0上相应的特征点K1’、K2’获取特征点J’,可以进一步确保在将装饰部B1装饰到基础部A0上时,两者之间相对位置的准确性,譬如在预设图像B上是锤头在上、锤柄在下(锤柄顶端点在底端点的上方),而在目标图像A上是锤头在下、锤柄在上(锤柄顶端点在底端点的下方),采用此种方案可以确保完成装饰后的基础部A0和装饰部B1之间相对位置的准确性,即锤头在下、锤柄在上;
需要说明的是,实际中有很多形状复杂的虚拟道具,尤其是其装饰部,所以体感特征点K和装饰特征点J的数量越多,则装饰部B1变形后叠加到目标图像A的基础部A0上的效果越好,需要进一步说明的是,所述基于源点和目标点对图像进行变形,为本领域常用技术,如仿射变换、透视变换、图像拉伸放缩旋转以及其它基于源点和目标点的轮廓线再造方案等。
本发明的另一个实施例中,所述步骤1还包括根据目标道具的若干区域标签GA0,获得基础部A0上的若干未识别区域CA0f;所述未识别区域CA0f指和所述区域标签GA0对应、在目标道具上存在但是无法在基础部A0上识别到的区域,是基础部A0上对应于所述区域标签GA0的虚拟区域;
所述步骤3中计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S时,基于目标图像A的“若干可识别区域CA0a、若干未识别区域CA0f”和每个预设图像B的基础部B0上与“若干可识别区域CA0a、若干未识别区域CA0f”对应的“若干可识别区域CB0b、若干未识别区域CB0f”进行计算;所述未识别区域CB0f指和所述可识别区域CA0a或所述未识别区域CA0f对应、在预设道具上存在但是无法在基础部B0上识别到的区域,是基础部B0上的虚拟区域。
设目标道具基础部的外表一共具有6个面,每个面为一个区域,每个区域标记有不同的颜色标签GA0,相应地,预设道具基础部的不同区域和目标道具基础部的不同区域相对应,譬如标记有和上述6种颜色标签GA0一一对应的颜色标签;无论在目标图像A中实际显示几个区域(面),均基于所有6个区域来计算基础部B0和基础部A0之间的相似度S,计算时,将未识别区域CA0f和未识别区域CB0f的图像特征记为0;
譬如可以基于图像中6种颜色标签对应的区域所包含的像素点数量进行直方图图像相似度匹配,即根据6种颜色标签形成不同的样本分区,并以该颜色标签对应的像素点数量作为分区中的样本特征,将未识别区域CA0f和未识别区域CB0f的像素点数量记为0;
这样做的好处是,根据可以预先确定的目标道具基础部及预设道具基础部上的所有区域分类或者其对应的区域标签分类,形成显然会一一对应的样本分区,避免了在目标图像A中实际显示区域的不确定性问题,因而可以减少如步骤2-1和步骤2-2中使用区域标签GB0b筛选掉大量不符合当前需要的预设图像B的步骤。
本实施例中,所述预设图像B通过以下步骤生成:
步骤a1、获取预设道具在不同空间角度下的若干平面图像,每个空间角度对应特定的平面图像;所述预设道具的装饰部预先标记有若干区域标签GB1;
需要说明的是,所述预设道具可以是真实道具,也可以是通过三维建模等计算机手段获得的虚拟道具;预设道具在不同空间角度下的若干平面图像,是指基于预设道具在三维空间中不同的姿态、角度、位置等获得的平面图像,譬如基于三维空间中预设的道具运动轨迹、从某个观测方向获取的多幅预设道具的平面图像。
需要进一步说明的是,实际操作中,预设图像B上的基础部B0和装饰部B1,可以在一张图像上,也可以是两张单独的图像,譬如通过三维建模等手段生成对应于1个锤子的预设道具,该预设道具由2个独立的模块组成,第一模块是基础部,形状对应于目标道具的基础部,第二模块是装饰部,包括锤柄和锤头,将两个模块在三维空间中的位置重叠,譬如所述基础部的空间是所述锤柄的空间的子集,然后按照相同的运动轨迹移动两个模块,此时对应某个特定空间角度的平面图像就会包括两张单独的图像,分别对应于基础部B0和装饰部B1,这样做的好处是考虑到成本因素,目标道具基础部的形状相对简单和单一,而预设道具可能会有众多复杂的形状,因此将基础部B0仅仅用于获取道具的角度、位置等运动参数,而装饰部B1在预设图像B上的部份坐标区域会和基础部B0重叠譬如将其覆盖,进而在将预设图像B的装饰部B1装饰到目标图像A上时,亦将目标图像A上的基础部A0覆盖,以实现更好的游戏道具整体视觉效果,譬如锤柄区域和锤头区域在颜色、形状等方面更加匹配(如图6所示)。
步骤a2、对所述特定的平面图像执行以下步骤:根据预设道具的若干区域标签GB1,识别所述平面图像的装饰部B1上的若干可识别区域GB1b;根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,若是,则将当前平面图像输出,作为预设图像B。
需要说明的是,假设预设道具的装饰部的外表为多个面的棱柱结构,则每个面可认定为一个区域GB1,每个面可预设设定一个区域标签GB1(如图7所示)。
通过以上方法筛选出最终可用的预设图像B,具有以下好处:
(1)相比将预设道具所有空间角度下的平面图像均作为预设图像B,以上方法获取特定空间角度条件下的平面图像样本作为预设图像B,无疑将大大减少最终的预设图像B的数量,同时在实际应用中,从若干张预设图像B中筛选出和目标图像A最相似的图像时,筛选范围也会小很多,可以提高运算效率和游戏流畅度。
(2)很多虚拟道具的外形比较复杂,尤其是装饰部,往往比相对简单单一的基础部要复杂很多,譬如装饰部外表的面要比基础部多,而为了提高运算效率,需要获取特定空间角度条件下的平面图像样本作为预设图像B,所以基础部A0和基础部B0的视角可能是相近也可能相同,但是由于装饰部和基础部的复杂程度不一样,这样在某些情况下,虽然基础部A0和基础部B0的相似度满足条件,但是对应的装饰部B1会严重不符合基础部A0或者出现奇怪的视觉效果,譬如基于当前目标图像A的运动姿态,对应的当前装饰部应该显示3个面,但是由于基础部A0和基础部B0匹配精度不够,导致选取了装饰部B1只有2个面的预设图像B作为当前预设图像B,而通过在预设道具装饰部的不同区域譬如其外表上不同的面标记有不同的区域标签GB1,再根据所述区域标签GB1去识别各种空间角度下平面图像的装饰部B1上的若干可识别区域GB1b,进而根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,决定是否将当前平面图像输出作为预设图像B,这样可以基于外形更复杂的装饰部(而非外形相对更简单的基础部)的不同区域(譬如装饰部外表不同的面)在平面图像上的呈现特征来获取平面图像的样本作为预设图像B,实现更好的视觉效果。
本实施例中,根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,包括以下步骤:分别计算若干图像特征Pb1的特征值与对应的若干设定阈值的差异度x,基于若干差异度x判断是否满足预设条件;每个所述预设图像B对应一个阈值队列,所述阈值队列具有所述若干设定阈值。
需要说明的是,此处假设图像特征Pb1的特征值为对应的可识别区域GB1b的像素点数量值在装饰部B1的像素点总数量值中的占比值,并设定阈值为设定的占比值,而差异度x为可识别区域GB1b的占比值和设定的占比值之间的差值。
本实施例中,对应于若干预设图像B的若干阈值队列通过以下步骤生成:
预设道具的装饰部外表有n个面,每个面预先标记有不同的区域标签GB1;例如,n=6,即预设道具的装饰部共计6个面,6个面的组合共计26个;
根据n个面分别在所述特定的平面图像显示与否生成2n个阈值队列组合,所述阈值队列组合为[k1,…,kx], K1对应于所述n个面中在所述特定的平面图像显示的第1个面的像素点数量值在装饰部B1的像素点总数量值中的占比,Kx对应于所述n个面中在所述特定的平面图像显示的第x个面的像素点数量值在装饰部B1的像素点总数量值中的占比;
k1—kx的取值均在集合[T1,T2…Tm]中获取,所述[T1,T2…Tm]中每个元素的取值在0—100%;在每个阈值队列组合中,当k1—kx的取值满足预先设定的条件时,将当前[k1,…,kx]输出作为阈值队列。
需要说明的是,[T1,T2…Tm]中每个元素均在0—100%之间取值,本实施例中按照梯度的方式取值,设共有m个梯度例如m=10,则每个元素的具体取值均为10%或20%...依次类推…直至100%;
因为每个阈值队列组合[k1,…,kx]中每个元素都有m个值可取用,所以每个阈值队列组合[k1,…,kx]又会产生很多个具体数值的集合,实际使用时,可以预先设定阈值队列组合[k1,…,kx]中若干元素的取值达到某种条件时,将当前[k1,…,kx]输出作为阈值队列,本实施例中,采用当阈值队列组合[k1,…,kx]中若干元素的取值求和等于或接近100%时(即在所述平面图像中显示的装饰部的各区域的面积之和显然等于在所述平面图像中显示的装饰部的总面积),认为满足预先设定的条件,将当前[k1,…,kx]输出作为阈值队列;
上述方法可基于不同虚拟道具的外形特征(譬如装饰部外表的面的数量),根据需要自动生成多张视角的预设图像B;同时,既兼顾了外形更复杂的装饰部的不同区域在平面图像上的呈现特征来获取平面图像的样本作为预设图像B,实现更好的视觉效果,还可以基于各区域面积在总面积中占比的组合变化来穷尽虚拟道具所有可能的视角。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。本发明的保护范围以权利要求书及其等价物的保护范围为准。
Claims (15)
1.一种基于图像匹配的道具生成方法,其特征在于,包括以下步骤:
步骤1、获取目标道具的当前目标图像A,所述目标图像A包括基础部A0;根据目标道具的若干区域标签GA0,识别基础部A0上的若干可识别区域CA0a;
步骤2、获取预设道具的若干预设图像B的基础部B0,所述预设图像B包括基础部B0和装饰部B1;
步骤3、基于目标图像A的若干可识别区域CA0a和每个预设图像B的基础部B0上与若干可识别区域CA0a对应的若干可识别区域CB0b,计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S,筛选出和目标图像A相匹配的预设图像B;
步骤4、基于筛选得到的预设图像B,将所述预设图像B的装饰部B1在目标图像A上生成。
2.按照权利要求1所述的一种基于图像匹配的道具生成方法,其特征在于,所述步骤2中获取预设道具的若干预设图像B的基础部B0,包括以下步骤:
步骤2-1、根据与若干可识别区域CA0a对应的若干区域标签GA0a,获取对应的若干区域标签GB0b;
步骤2-2、根据若干区域标签GB0b,获取对应的预设图像B的基础部B0,获取的所有预设图像B的基础部B0均具有对应于若干区域标签GB0b的若干可识别区域CB0b。
3.按照权利要求1所述的一种基于图像匹配的道具生成方法,其特征在于,所述步骤1还包括根据目标道具的若干区域标签GA0,获得基础部A0上的若干未识别区域CA0f;
所述步骤3中计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S时,基于目标图像A的“若干可识别区域CA0a、若干未识别区域CA0f”和每个预设图像B的基础部B0上与“若干可识别区域CA0a、若干未识别区域CA0f”对应的“若干可识别区域CB0b、若干未识别区域CB0f”进行计算。
4.按照权利要求1所述的一种基于图像匹配的道具生成方法,其特征在于,所述步骤3中筛选出和目标图像A相匹配的预设图像B,包括以下步骤:筛选出相似度S最高的预设图像B。
5.按照权利要求1所述的一种基于图像匹配的道具生成方法,其特征在于,步骤3中,计算基础部B0和基础部A0的相似度S,包括以下步骤:
步骤①、识别基础部A0上的一个可识别区域CA0a的图像特征Pa0,识别基础部B0上与可识别区域CA0a对应的可识别区域CB0b的图像特征Pb0;计算图像特征Pa0和图像特征Pb0的相似度s;
步骤②、对基础部A0上的每个可识别区域CA0a执行步骤①,获得多个相似度s,基于多个相似度s获得基础部B0和基础部A0的相似度S。
6.按照权利要求1所述的一种基于图像匹配的道具生成方法,其特征在于,步骤3中,计算基础部B0和基础部A0的相似度S,包括以下步骤:
步骤③、识别基础部A0上的每个可识别区域CA0a的图像特征Pa0,基于识别得到的多个图像特征Pa0,得到基础部A0的总图像特征Ra;识别基础部B0上的每个可识别区域CB0b的图像特征Pb0,基于识别得到的多个图像特征Pb0,得到基础部B0的总图像特征Rb;
步骤④、对总图像特征Ra和总图像特征Rb进行相似度计算,获得基础部B0和基础部A0的相似度S。
7.按照权利要求5或6所述的一种基于图像匹配的道具生成方法,其特征在于,所述图像特征Pa0为可识别区域CA0a的面积特征、像素点数量特征、形状特征、或区域边界线特征中的一种或多种。
8.按照权利要求1所述的一种基于图像匹配的道具生成方法,其特征在于,所述区域标签GA0为颜色标签、纹理标签或符号标签中的一种或多种。
9.按照权利要求1所述的一种基于图像匹配的道具生成方法,其特征在于,所述将装饰部B1在目标图像A上生成,包括以下步骤:
识别预设图像B上基础部B0对应的体感特征点K和装饰部B1对应的装饰特征点J;
识别目标图像A上基础部A0对应的体感特征点K’;
基于体感特征点K、装饰特征点J的相对位置关系,依据体感特征点K’,获取目标图像A上和装饰特征点J对应的装饰特征点J’;
以体感特征点K、装饰特征点J为源点,以体感特征点K’、装饰特征点J’为目标点,将预设图像B的装饰部B1装饰到目标图像A上。
10.按照权利要求9所述的一种基于图像匹配的道具生成方法,其特征在于,所述体感特征点K包括基础部B0顶端的特征点K1和底端的特征点K2;所述体感特征点K’包括基础部A0对应于K1的特征点K1’和对应于K2的特征点K2’;所述装饰特征点J包括装饰部B1顶端的特征点J1和两侧的特征点J2、J3;
基于特征点K1、K2和J1、J2、J3的相对位置关系,通过特征点K1’、K2’获取特征点J1’、J2’、J3’,特征点J1’、J2’、J3’均为装饰特征点J’;
所述将预设图像B的装饰部B1装饰到目标图像A上,指将预设图像B的装饰部B1变形后叠加到目标图像A上。
11.按照权利要求1所述的一种基于图像匹配的道具生成方法,其特征在于,所述预设图像B通过以下步骤生成:
获取预设道具在不同空间角度下的若干平面图像,每个空间角度对应特定的平面图像;所述预设道具的装饰部预先标记有若干区域标签GB1;
对所述特定的平面图像执行以下步骤:根据预设道具的若干区域标签GB1,识别所述平面图像的装饰部B1上的若干可识别区域GB1b;根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,若是,则将当前平面图像输出,作为预设图像B。
12.按照权利要求11所述的一种基于图像匹配的道具生成方法,其特征在于,所述根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,包括以下步骤:分别计算若干图像特征Pb1的特征值与对应的若干设定阈值的差异度x,基于若干差异度x判断是否满足预设条件;每个所述预设图像B对应一个阈值队列,所述阈值队列具有所述若干设定阈值。
13.按照权利要求12所述的一种基于图像匹配的道具生成方法,其特征在于,对应于若干预设图像B的若干阈值队列通过以下步骤生成:
预设道具的装饰部外表有n个面,每个面预先标记有不同的区域标签GB1;
根据n个面分别在所述特定的平面图像显示与否生成2n个阈值队列组合,所述阈值队列组合为[k1,…,kx],k1对应于所述n个面中在所述特定的平面图像显示的第1个面的像素点数量值在装饰部B1的像素点总数量值中的占比,kx对应于所述n个面中在所述特定的平面图像显示的第x个面的像素点数量值在装饰部B1的像素点总数量值中的占比;
k1—kx的取值均在集合[T1,T2…Tm]中获取,所述[T1,T2…Tm]中每个元素的取值在0—100%;在每个阈值队列组合中,当k1—kx的取值满足预先设定的条件时,将当前[k1,…,kx]输出作为阈值队列。
14.一种基于图像匹配的道具生成系统,其特征在于,包括第一获取模块、第一识别模块、第二获取模块、匹配模块和生成模块;
所述第一获取模块,用于获取目标道具的当前目标图像A,所述目标图像A包括基础部A0;
所述第一识别模块,用于根据目标道具的若干区域标签GA0,识别基础部A0上的若干可识别区域CA0a;
所述第二获取模块,用于获取预设道具的若干预设图像B的基础部B0,所述预设图像B包括基础部B0和装饰部B1;
所述匹配模块,用于基于目标图像A的若干可识别区域CA0a和每个预设图像B的基础部B0上与若干可识别区域CA0a对应的若干可识别区域CB0b,计算预设图像B的基础部B0和目标图像A的基础部A0之间的相似度S,筛选出和目标图像A相匹配的预设图像B;
所述生成模块,用于基于筛选得到的预设图像B,将所述预设图像B的装饰部B1在目标图像A上生成。
15.按照权利要求14所述的一种基于图像匹配的道具生成系统,其特征在于,还包括用于生成所述预设图像B的图像生成子系统,所述图像生成子系统包括第三获取模块、第二识别模块和判断模块;
所述第三获取模块,用于获取预设道具在不同空间角度下的若干平面图像,每个空间角度对应特定的平面图像;所述预设道具的装饰部预先标记有若干区域标签GB1;
所述第二识别模块,用于针对所述特定的平面图像,根据预设道具的若干区域标签GB1,识别所述平面图像的装饰部B1上的若干可识别区域GB1b;
所述判断模块,用于针对所述特定的平面图像,根据若干可识别区域GB1b分别对应的若干图像特征Pb1判断是否满足预设条件,若是,则将当前平面图像输出,作为预设图像B。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210935578.0A CN115019401B (zh) | 2022-08-05 | 2022-08-05 | 一种基于图像匹配的道具生成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210935578.0A CN115019401B (zh) | 2022-08-05 | 2022-08-05 | 一种基于图像匹配的道具生成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115019401A true CN115019401A (zh) | 2022-09-06 |
CN115019401B CN115019401B (zh) | 2022-11-11 |
Family
ID=83065886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210935578.0A Active CN115019401B (zh) | 2022-08-05 | 2022-08-05 | 一种基于图像匹配的道具生成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115019401B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117333601A (zh) * | 2023-11-16 | 2024-01-02 | 虚拟现实(深圳)智能科技有限公司 | 基于人工智能的数字虚拟服装生成方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105183477A (zh) * | 2015-09-10 | 2015-12-23 | 上海踏风网络科技有限公司 | 应用程序虚拟道具信息获取系统及获取方法 |
CN109200586A (zh) * | 2017-06-29 | 2019-01-15 | 深圳市掌网科技股份有限公司 | 基于增强现实的游戏实现方法和装置 |
CN109727320A (zh) * | 2018-12-29 | 2019-05-07 | 三星电子(中国)研发中心 | 一种虚拟化身的生成方法和设备 |
US10362299B1 (en) * | 2017-08-28 | 2019-07-23 | Disney Enterprises, Inc. | System for introducing physical experiences into virtual reality (VR) worlds |
CN110766602A (zh) * | 2018-07-25 | 2020-02-07 | 中兴通讯股份有限公司 | 一种自动匹配道具的拍照方法及装置 |
CN110755847A (zh) * | 2019-10-30 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 虚拟操作对象的生成方法和装置、存储介质及电子装置 |
US20210134036A1 (en) * | 2019-10-30 | 2021-05-06 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for generating virtual operating object, storage medium, and electronic device |
-
2022
- 2022-08-05 CN CN202210935578.0A patent/CN115019401B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105183477A (zh) * | 2015-09-10 | 2015-12-23 | 上海踏风网络科技有限公司 | 应用程序虚拟道具信息获取系统及获取方法 |
CN109200586A (zh) * | 2017-06-29 | 2019-01-15 | 深圳市掌网科技股份有限公司 | 基于增强现实的游戏实现方法和装置 |
US10362299B1 (en) * | 2017-08-28 | 2019-07-23 | Disney Enterprises, Inc. | System for introducing physical experiences into virtual reality (VR) worlds |
CN110766602A (zh) * | 2018-07-25 | 2020-02-07 | 中兴通讯股份有限公司 | 一种自动匹配道具的拍照方法及装置 |
CN109727320A (zh) * | 2018-12-29 | 2019-05-07 | 三星电子(中国)研发中心 | 一种虚拟化身的生成方法和设备 |
CN110755847A (zh) * | 2019-10-30 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 虚拟操作对象的生成方法和装置、存储介质及电子装置 |
US20210134036A1 (en) * | 2019-10-30 | 2021-05-06 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for generating virtual operating object, storage medium, and electronic device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117333601A (zh) * | 2023-11-16 | 2024-01-02 | 虚拟现实(深圳)智能科技有限公司 | 基于人工智能的数字虚拟服装生成方法及装置 |
CN117333601B (zh) * | 2023-11-16 | 2024-01-26 | 虚拟现实(深圳)智能科技有限公司 | 基于人工智能的数字虚拟服装生成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115019401B (zh) | 2022-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10679378B1 (en) | Mixed reality controller and headset tracking system | |
Wei et al. | Modeling hair from multiple views | |
CN108537126B (zh) | 一种人脸图像处理方法 | |
Kehl et al. | Markerless tracking of complex human motions from multiple views | |
KR101183000B1 (ko) | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법 | |
JP7566973B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN104240277B (zh) | 基于人脸检测的增强现实交互方法和系统 | |
CN105107200B (zh) | 基于实时深度体感交互与增强现实技术的变脸系统及方法 | |
CN110363867A (zh) | 虚拟装扮系统、方法、设备及介质 | |
JP2019510297A (ja) | ユーザの真実の人体モデルへの仮想的な試着 | |
WO2017086841A1 (ru) | Способ воздействия на виртуальные объекты дополненной реальности | |
CN101681438A (zh) | 跟踪三维对象的系统和方法 | |
CN1708771A (zh) | 3d建模系统 | |
JPH0689342A (ja) | 動画像処理装置 | |
CN104537705B (zh) | 基于增强现实的移动平台三维生物分子展示系统和方法 | |
CN108734194A (zh) | 一种面向虚拟现实的基于单深度图的人体关节点识别方法 | |
CN115019401B (zh) | 一种基于图像匹配的道具生成方法及系统 | |
Zou et al. | Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking | |
CN106780757A (zh) | 一种增强现实的方法 | |
JP2010211732A (ja) | 物体認識装置および方法 | |
Tsap | Gesture-tracking in real time with dynamic regional range computation | |
US11138807B1 (en) | Detection of test object for virtual superimposition | |
CN109658326A (zh) | 一种图像显示方法及装置、计算机可读存储介质 | |
Zhang et al. | A multiple camera system with real-time volume reconstruction for articulated skeleton pose tracking | |
Rogge et al. | Monocular Pose Reconstruction for an Augmented Reality Clothing System. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |