CN116777940B - 一种数据处理方法、装置、设备及存储介质 - Google Patents
一种数据处理方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116777940B CN116777940B CN202311041891.0A CN202311041891A CN116777940B CN 116777940 B CN116777940 B CN 116777940B CN 202311041891 A CN202311041891 A CN 202311041891A CN 116777940 B CN116777940 B CN 116777940B
- Authority
- CN
- China
- Prior art keywords
- image
- edge
- texture
- points
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title abstract description 18
- 238000013507 mapping Methods 0.000 claims abstract description 140
- 238000000034 method Methods 0.000 claims abstract description 88
- 238000009792 diffusion process Methods 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims description 94
- 230000008569 process Effects 0.000 claims description 42
- 238000001514 detection method Methods 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 20
- 238000004891 communication Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 13
- 238000003708 edge detection Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 description 25
- 238000005516 engineering process Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 15
- 238000009877 rendering Methods 0.000 description 15
- 230000009466 transformation Effects 0.000 description 14
- 230000003068 static effect Effects 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 12
- 238000013473 artificial intelligence Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000422846 Sequoiadendron giganteum Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000000889 atomisation Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/529—Depth or shape recovery from texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种数据处理方法、装置、设备及存储介质,该方法包括:获取第一图像数据,对第一图像数据中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据;基于第一坐标数据对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据;基于第一坐标数据和第二坐标数据,对边缘点和外部点进行顺序连接,得到贴图闭环区域;获取纹理图像,获取与贴图闭环区域匹配的第一顶点坐标组,采集第一顶点坐标组所指示的第一纹理区域图像,将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据。采用本申请实施例,可以提高贴图的使用效率,且保证贴图与图像中的目标对象的边缘位置的贴合精度。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种数据处理方法、装置、设备及存储介质。
背景技术
目前,随着图像处理技术的发展,图像识别的应用场合越来越多,例如,在识别出业务对象后,可以对业务对象添加特效。由于添加特效的过程需要用户手动拖动特效至图像中的某个位置,而通过手动拖动特效的方式,需要用户花费时间确定图像中的特效放置位置,因此效率低下,降低了使用特效进行贴图的使用效率。另外,通过手动拖动特效的方式,还需要用户不断调整才能将特效拖动到特效放置位置,所以手动拖动特效的方式难以保证特效与图像中识别出的业务对象边缘的贴合精度,降低了使用特效进行贴图的贴合精度。
发明内容
本申请实施例提供一种数据处理方法、装置、设备及存储介质,可以提高贴图的使用效率,且可以保证贴图与图像中的目标对象的边缘位置的贴合精度。
本申请实施例一方面提供了一种基于的数据处理方法,该方法包括:
获取第一图像数据,对第一图像数据中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据;
基于第一坐标数据对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据;
基于第一坐标数据和第二坐标数据,对边缘点和外部点进行顺序连接,得到贴图闭环区域;
获取纹理图像,从纹理图像中获取与贴图闭环区域匹配的第一顶点坐标组,在纹理图像中采集第一顶点坐标组所指示的第一纹理区域图像,将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据;第二图像数据中的目标对象的边缘位置处显示有由第一纹理区域图像所构成的贴图内容。
本申请实施例一方面提供了一种基于的数据处理装置,该数据处理装置包括:
第一图像数据获取模块,用于获取第一图像数据,对第一图像数据中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据;
边缘点扩散模块,用于基于第一坐标数据对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据;
顺序连接模块,用于基于第一坐标数据和第二坐标数据,对边缘点和外部点进行顺序连接,得到贴图闭环区域;
图像采集模块,用于获取纹理图像,从纹理图像中获取与贴图闭环区域匹配的第一顶点坐标组,在纹理图像中采集第一顶点坐标组所指示的第一纹理区域图像;
第二图像数据获取模块,用于将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据;第二图像数据中的目标对象的边缘位置处显示有由第一纹理区域图像所构成的贴图内容。
其中,第一图像数据获取模块,包括:
边缘检测单元,用于对第一图像数据中的目标对象进行边缘检测,得到目标对象的边缘轮廓信息;
信息光栅化单元,用于对边缘轮廓信息进行光栅化处理,得到目标对象对应的边缘点以及边缘点对应的归一化坐标;
坐标遍历单元,用于对边缘点对应的归一化坐标进行有序遍历处理,得到边缘点对应的第一坐标数据。
其中,边缘检测单元,包括:
掩膜获取子单元,用于获取掩膜图像数据,将第一图像数据与掩膜图像数据进行像素叠加处理,得到第一图像数据对应的二值化图像;
像素点检测子单元,用于对二值化图像进行第一单通道像素点检测,得到目标像素点;
像素点连接子单元,用于将目标像素点进行连接,得到第一图像数据对应的掩膜轮廓线条;
像素点赋值子单元,用于对第一图像数据对应的掩膜轮廓线条进行第二单通道像素点赋值,得到目标轮廓线条,将目标轮廓线条确定为目标对象的边缘轮廓信息。
其中,边缘点的数量为A个,A为正整数;坐标遍历单元,包括:
起始边缘点选取子单元,用于在A个边缘点中选取起始边缘点,对起始边缘点的相邻像素点按照目标顺序进行遍历处理;
第一坐标数据确定子单元,用于若遍历到相邻像素点的第一单通道像素点的值为目标检测值,则确定起始边缘点对应的归一化坐标为起始边缘点对应的第一坐标数据,将第一单通道像素点的值为目标检测值的相邻像素点确定为下一个起始边缘点;
起始边缘点删除子单元,用于若未遍历到相邻像素点的第一单通道像素点的值为目标检测值,则在A个边缘点中删除起始边缘点,得到剩余边缘点,在剩余边缘点中重新选取新的起始边缘点。
其中,边缘点的数量为N个,N为正整数;N个边缘点包括边缘点Si,i为小于等于N的正整数;边缘点Si的第一坐标数据包括横坐标x0与纵坐标y0;边缘点扩散模块,包括:
距离参数获取单元,用于获取用于确定贴图内容宽度的距离参数;
横坐标获取单元,用于基于距离参数对边缘点Si的横坐标x0进行距离运算处理,得到横坐标x1;
纵坐标获取单元,用于基于距离参数对边缘点Si的纵坐标y0进行距离运算处理,得到纵坐标y1;
外部点确定单元,用于将横坐标x1和纵坐标y1所构成的位置点,确定为针对边缘点Si进行外部扩散后的外部点;边缘点Si对应的外部点的第二坐标数据包括横坐标x1和纵坐标y1。
其中,N个边缘点分别对应的第一坐标数据之间具有空间顺序关系,N个外部点分别对应的第二坐标数据之间具有空间顺序关系;顺序连接模块,包括:
相邻边缘点确定单元,用于基于第一坐标数据之间的空间顺序关系和第二坐标数据之间的空间顺序关系,确定边缘点Si对应的相邻边缘点,将相邻边缘点中未被连接的相邻边缘点确定为待处理边缘点;
第一边缘线条获取单元,用于将边缘点Si与边缘点Si对应的外部点进行连接处理,得到第一边缘线条;
第二边缘线条获取单元,用于将边缘点Si对应的外部点与待处理边缘点进行连接处理,得到第二边缘线条;
第三边缘线条获取单元,用于将边缘点Si与待处理边缘点连接处理,得到第三边缘线条;
贴图闭环区域确定单元,用于将由第一边缘线条、第二边缘线条与第三边缘线条构成的区域确定为边缘点Si对应的贴图闭环区域。
其中,图像采集模块,包括:
默认坐标标识单元,用于获取纹理图像,对纹理图像进行默认坐标标识,得到纹理图像的默认坐标数据;
顶点坐标组映射单元,用于将与贴图闭环区域匹配的顶点坐标组映射至纹理图像的默认坐标数据中,并对映射的与贴图闭环区域匹配的顶点坐标组进行连接处理,构成贴图纹理区域,将在贴图纹理区域内所采集的纹理数据确定为纹理区域图像。
其中,纹理区域图像包括第一划分区域图像与第二划分区域图像;第一划分区域图像关联有第一触发时长,第二划分区域图像关联有第二触发时长;
图像采集模块与第二图像数据获取模块,具体用于获取纹理图像,从第一划分区域图像中获取与贴图闭环区域匹配的第一顶点坐标组,在第一划分区域图像中采集第一顶点坐标组所指示的第一纹理区域图像,将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据。
其中,数据处理装置,还包括:
第二顶点坐标组获取模块,用于当第二图像数据的显示时长达到第一触发时长时,从第二划分区域图像中获取与贴图闭环区域匹配的第二顶点坐标组,在第二划分区域图像中采集第二顶点坐标组所指示的第二纹理区域图像,将贴图闭环区域内的第一纹理区域图像更新为第二纹理区域图像;第二触发时长是指贴图闭环区域内从第二纹理区域图像更新显示为第一纹理区域图像的过程中,第二纹理区域图像的持续显示时长。
其中,数据处理装置,还包括:
尺寸数据更新模块,用于若检测到第一图像数据的尺寸数据更新,则获取更新尺寸与原尺寸的比例,得到图像更新比例;
图像更新模块,用于对第一纹理区域图像按照图像更新比例进行更新,得到更新纹理区域图像;将贴图闭环区域按照图像更新比例进行更新,得到更新闭环区域;
更新闭环区域贴图模块,用于将更新纹理区域图像在更新闭环区域中重新进行贴图处理,得到更新后的第二图像数据。
其中,第二图像数据为拍摄视频画面中的视频帧;数据处理装置,还包括:
更新贴图闭环区域获取模块,用于当第二图像数据中的目标对象在拍摄视频画面中的位置更新时,根据目标对象的更新位置以及目标对象在拍摄视频画面中的占比变化,对贴图闭环区域的位置和尺寸进行更新,得到更新贴图闭环区域;
第三图像获取模块,用于重新在纹理图像中采集与更新贴图闭环区域相匹配的更新纹理区域图像,重新将更新纹理区域图像在更新贴图闭环区域中进行贴图处理,得到第三图像;第三图像数据中的目标对象的边缘位置处显示有由更新纹理区域图像所构成的贴图内容;第二图像中的贴图内容与第三图像中的贴图内容之间的贴图变化幅度,与第二图像中的目标对象与第三图像中的目标对象之间的对象占比变化幅度相匹配。
本申请一方面提供了一种计算机设备,包括:处理器、存储器、网络接口;
上述处理器与上述存储器、上述网络接口相连,其中,上述网络接口用于提供数据通信功能,上述存储器用于存储计算机程序,上述处理器用于调用上述计算机程序,以使得计算机设备执行本申请实施例中的方法。
本申请实施例一方面提供了一种计算机可读存储介质,上述计算机可读存储介质中存储有计算机程序,上述计算机程序适于由处理器加载并执行本申请实施例中的方法。
本申请实施例一方面提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中;计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例中的方法。
本申请实施例中,通过获取第一图像数据,对第一图像数据中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据。进一步地,基于第一坐标数据对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据。进一步地,基于第一坐标数据和第二坐标数据,对边缘点和外部点进行顺序连接,得到贴图闭环区域。其中,基于第一坐标数据与第二坐标数据确定的贴图闭环区域可以清楚明了的获取到进行贴图的位置,保证了贴图与图像中的目标对象的边缘位置的贴合精度,提升了图像识别的精度。进一步地,获取纹理图像,从纹理图像中获取与贴图闭环区域匹配的第一顶点坐标组,在纹理图像中采集第一顶点坐标组所指示的第一纹理区域图像,将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据。其中,第二图像数据中的目标对象的边缘位置处显示有由第一纹理区域图像所构成的贴图内容。可以理解,在本申请实施例中,通过边缘点识别得到第一坐标数据,通过外部扩散得到第二坐标数据,根据得到的第一坐标数据与第二坐标数据得到贴图闭环区域,在贴图闭环区域进行贴图处理,该种贴图方式可以通过一次计算得到贴图位置,而不需要手动拖动特效(即第一纹理区域图像)至贴图位置,减少了将特效(即第一纹理区域图像)放置至贴图位置的尝试次数,因此可以减少确定贴图位置所花费的时间,提高了使用特效进行贴图的使用效率。而且所识别出的贴图闭环区域与目标对象的边缘位置紧密贴合,所以可以保证添加在贴图闭环区域内的贴图与图像中的目标对象的边缘位置的贴合精度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种网络交互架构示意图;
图2是本申请实施例提供的一种关于图像识别的场景示意图;
图3是本申请实施例提供的一种数据处理方法的流程示意图;
图4是本申请实施例提供的一种图像处理方法的场景示意图;
图5是本申请实施例提供的一种关于有向遍历的场景示意图;
图6是本申请实施例提供的一种关于生成贴图闭环区域的场景示意图;
图7是本申请实施例提供的一种关于纹理贴图的场景示意图;
图8是本申请实施例提供的另一种关于纹理贴图的场景示意图;
图9是本申请实施例提供的另一种数据处理方法的流程示意图;
图10是本申请实施例提供的一种关于贴图闭环区域更新的场景示意图;
图11是本申请实施例提供的一种数据处理装置的结构示意图;
图12是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
可以理解的是,在本申请的具体实施方式中,涉及到对象或用户相关的数据(如图像数据),当本申请以下实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
其中,本申请实施例提供了一种数据处理方法,该方法涉及人工智能领域。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术(语音技术)、自然语言处理技术以及机器学习/深度学习、自动驾驶、智慧交通等几大方向。
计算机视觉技术(Computer Vision,CV)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建、自动驾驶、智慧交通等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
本申请实施例提供的方案涉及技术,具体过程通过如下实施例进行说明。
请参见图1,图1是本申请实施例提供的一种网络交互架构示意图。该网络交互架构可以包括服务器100以及终端集群,终端集群可以包括:终端设备200a、终端设备200b、终端设备200c、…、终端设备200n,其中,终端集群之间可以存在通信连接,例如终端设备200a与终端设备200b之间存在通信连接,终端设备200a与终端设备200c之间存在通信连接。同时,终端集群中的任一终端设备可以与服务器100存在通信连接,例如终端设备200a与服务器100之间存在通信连接,其中,上述通信连接不限定连接方式,可以通过有线通信方式进行直接或间接地连接,也可以通过无线通信方式进行直接或间接地连接,还可以通过其它方式,本申请在此不做限制。
应该理解,如图1所示的终端集群中的每个终端设备均可以安装具有图像传输功能的应用客户端,当该应用客户端运行于各终端设备中时,可以分别与上述图1所示的服务器100之间进行数据交互。其中,该应用客户端可以为图像处理应用、图像识别应用、视频播放应用、直播应用、短视频应用、视频应用、音乐应用、购物应用、游戏应用、小说应用、浏览器等具有图像传输功能的应用客户端。其中,该应用客户端可以为独立的客户端,也可以为集成在某客户端(例如支付客户端、金融客户端或购物客户端等)中的嵌入式子客户端,在此不做限定。以图像处理应用为例,服务器100可以为包括图像处理应用对应的图像处理服务器、图像传输服务器、传输代理服务器、AI服务器等多个服务器的集合,因此,每个终端设备均可以通过该图像处理应用对应的应用客户端与服务器100进行图像数据交互,如每个终端设备均可以与服务器100进行图像数据传输(例如,在该图像处理应用中,进行图像中业务对象的识别与图像数据的变更等)。
可以理解的是,本申请实施例提供的方法可以由计算机设备执行,计算机设备包括但不限于终端设备或服务器。其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云数据库、云服务、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。其中,以上所提及的终端设备可以是一种电子设备,包括但不限于手机、平板电脑、台式电脑、笔记本电脑、掌上电脑、车载设备、增强现实/虚拟现实(Augmented Reality/Virtual Reality,AR/VR)设备、头盔显示器、智能电视、可穿戴设备、智能音箱、数码相机、摄像头及其他具备网络接入能力的移动互联网设备(mobileinternet device,MID),或者火车、轮船、飞行等场景下的终端设备等。
其中,本申请中所提及的计算机设备可以是服务器或终端设备,也可以是由服务器和终端设备所组成的系统。
进一步地,请参见图2,图2是本申请实施例提供的一种关于图像识别的场景示意图。如图2所示,其中,服务器300可以是本申请实施例中的安装有图像处理应用的业务设备所对应的后台服务器,业务设备400a可以是本申请实施例中的安装有图像处理应用的业务设备。同时,服务器300可以是图1中的服务器100,业务设备400a可以是图1中的终端设备200a。具体的,服务器300可以获取图像处理系统21A中的第一图像数据203A,对第一图像数据203A中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据204D。其中,服务器300可以获取图像处理系统21A中的原始图像201A,对原始图像201A进行人像分割检测处理,得到第一图像数据203A。具体的,图像处理系统21A可以包括图形处理器(Graphics Processing Unit,GPU)。其中,图形处理器可以包括做图像和图形相关运算工作的微处理器,例如,平板电脑的显示芯片或智能手机的显示芯片等。进一步地,服务器300可以基于中央处理系统20A中的第一坐标数据204D对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据205D。具体的,中央处理系统20A可以包括中央处理器(Central Processing Unit,CPU)。其中,中央处理器可以包括计算机中的运算和控制核心,具体可以指信息处理、程序运行的最终执行单元,例如,超大规模的集成电路等。进一步地,服务器300可以基于第一坐标数据204D和第二坐标数据205D,对边缘点和外部点进行顺序连接,得到贴图闭环区域206D。进一步地,服务器300可以获取纹理图像207D,从纹理图像207D中获取与贴图闭环区域匹配的第一顶点坐标组,在纹理图像中采集第一顶点坐标组所指示的第一纹理区域图像208D,将第一纹理区域图像208D在贴图闭环区域206D中进行贴图处理,得到第二图像数据209D。其中,第二图像数据209D中的目标对象的边缘位置处显示有由第一纹理区域图像208D所构成的贴图内容。进一步地,服务器300可以基于第二图像数据209D生成动画数据210D。进一步地,服务器300可以将动画数据210D进行渲染处理,得到屏幕显示数据211D。与此同时,服务器300可以将屏幕显示数据211D向业务设备400a进行发送,以使得业务设备400a显示屏幕显示数据211D。
其中,原始图像201A可以为一个包含对象的图像,这里的对象可以是指物体、人、动物、汽车等多种对象。具体的,原始图像201A还可以包括视频数据中提取的包含对象的视频帧图像。其中,动画数据210D可以是指产生环绕目标对象边缘轮廓的多种特效效果,诸如荧光特效、彩虹特效等,有助于突出动画数据中的目标对象并增加图像的趣味性。
具体的,服务器300可以通过着色器进行渲染处理,着色器可以包括用于进行图像渲染的穿插在渲染管线上的一段算法程序。其中,渲染管线也称为渲染流水线,是显示芯片内部用于处理图形信号的相互独立的并行处理单元。简单来讲,着色器可以将输入的顶点坐标数据以指定的方式与输入的贴图进行组合,然后输出组合后的内容。其中,顶点坐标数据可以包括第一坐标数据与第二坐标数据。服务器300中的图形处理器可以通过着色器读入相应的输入纹理,通过图形处理器的渲染管线对动画数据210D进行渲染,得到屏幕显示数据211D。例如,服务器300可以调用图形编程接口(Draw Call)进行渲染处理,例如服务器300可以调用开放图形库(Open Graphics Library,OpenGL)中的一种渲染命令(glDrawElements)或者应用程序接口(Direct eXtension,DirectX)中的一种渲染命令(DrawlndexedPrimitive),以使GPU进行渲染处理。
可以理解的是,计算机设备可以通过视频引擎为视频数据添加视频挂件。具体的,视频引擎可以包括着色器、CPU与GPU等。其中,视频挂件可以包括屏幕显示数据211D,例如,计算机设备可以基于屏幕显示数据211D的内容制作挂件。可选的,视频挂件可以包括动画数据210D,例如,计算机设备可以为视频数据中的业务对象添加荧光特效或彩虹特效等特效,生成分别对应的视频挂件。
进一步地,请参见图3,图3是本申请实施例提供的一种数据处理方法的流程示意图。如图3所示,该方法可以由计算机设备执行,该计算机设备可以为上述图1所示的终端集群中的任意一个终端设备,例如,终端设备200a,也可以为上述图1所示的服务器100,在此不做限定。为便于理解,本申请实施例以该方法由计算机设备执行为例进行说明,该数据处理方法至少可以包括以下步骤S101-步骤S104:
步骤S101,获取第一图像数据,对第一图像数据中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据。
具体的,计算机设备可以对第一图像数据中的目标对象进行边缘检测,得到目标对象的边缘轮廓信息。进一步地,计算机设备可以对边缘轮廓信息进行光栅化处理,得到目标对象对应的边缘点以及边缘点对应的归一化坐标。进一步地,计算机设备可以对边缘点对应的归一化坐标进行有序遍历处理,得到边缘点对应的第一坐标数据。
其中,获取边缘轮廓信息的过程可以为:计算机设备可以获取掩膜图像数据,将第一图像数据与掩膜图像数据进行像素叠加处理,得到第一图像数据对应的二值化图像。进一步地,计算机设备可以对二值化图像进行第一单通道像素点检测,得到目标像素点。进一步地,计算机设备可以将目标像素点进行连接,得到第一图像数据对应的掩膜轮廓线条。进一步地,计算机设备可以对第一图像数据对应的掩膜轮廓线条进行第二单通道像素点赋值,得到目标轮廓线条,将目标轮廓线条确定为目标对象的边缘轮廓信息。具体的,边缘轮廓信息可以是指对于目标对象进行识别后得到的对于目标对象的轮廓的预测数据。其中,目标轮廓线条可以包括多种样式,计算机设备可以通过替换目标轮廓线条内部的纹理来修改目标轮廓线条的样式。例如,计算机设备可以将目标轮廓线条内部的纹理修改为同方向的斜线条纹纹理,得到条纹样式的目标轮廓线条。又例如,计算机设备可以将目标轮廓线条内部的纹理修改为曲线纹理,得到曲线样式的目标轮廓线条。再例如,计算机设备可以将目标轮廓线条内部的纹理修改为空白内容纹理,得到空白样式的目标轮廓线条。进一步地,计算机设备可以通过调整边缘点的数量进而调整目标轮廓线条的长度。其中,边缘点的数量与目标轮廓线条的长度成正比关系,即边缘点的数量越多,目标轮廓线条的长度越长。具体的,计算机设备获取目标轮廓线条的过程可以用于表示对图像数据中的对象进行描边处理。其中,第一单通道与第二单通道可以是指针对第一图像数据的单一特征进行过滤后得到的单通道,例如,这里的单一特征可以是色彩特征或像素值特征等特征。在一个实施例中,单通道可以包括色彩模式(RGB)中的一种模式,例如,一种模式(R通道模式),一种模式(G通道模式)或一种模式(B通道模式)。也就是说,在一个实施例中,第一单通道可以包括RGB中的一种模式(R通道模式),第二单通道可以包括RGB中的一种模式(G通道模式)。应当理解,计算机设备可以从其他特征进行第一单通道与第二单通道的选取,这里不再进行赘述。
其中,计算机设备可以对原始图像进行分割处理得到掩膜图像数据。例如,若原始图像中包括第一静态对象、第二静态对象与第三静态对象,则计算机设备可以将原始图像分割为第一静态对象对应的分割区域、第二静态对象对应的分割区域与第三静态对象对应的分割区域。进一步地,计算机设备可以将除第一静态对象对应的分割区域之外的区域进行统一像素赋值(例如置零值),得到第一静态对象对应的掩膜图像数据。相应的,计算机设备可以对第二静态对象对应的分割区域与第三静态对象对应的分割区域进行上文类似的其他区域统一像素赋值,分别得到第二静态对象对应的掩膜图像数据与第三静态对象对应的掩膜图像数据。其中,例如,第一静态对象可以包括大树、道路、车、牛、房屋等。
为了便于理解,请参见图4,图4是本申请实施例提供的一种图像处理方法的场景示意图。在图4中,计算机设备可以将获取到的掩膜图像数据与第一图像数据进行像素叠加处理,得到第一图像数据对应的二值化图像41P。其中,二值化图像41P包括第一数值化区域401A与第二数值化区域402A。进一步地,计算机设备可以对二值化图像41P进行第一单通道像素点检测,得到目标像素点。进一步地,计算机设备可以将二值化图像41P中的目标像素点进行连接,得到第一图像数据对应的掩膜轮廓线条405L。其中,计算机设备可以获取掩膜轮廓线条405L两侧的第一数值化区域403A与第二数值化区域404A。此时,计算机设备可以将由第一数值化区域403A、第二数值化区域404A与掩膜轮廓线条405L共同构成的二值化图像确定为二值化图像42P。进一步地,计算机设备可以对第一图像数据对应的掩膜轮廓线条405L进行第二单通道像素点赋值,得到目标轮廓线条406L,将目标轮廓线条406L确定为目标对象的边缘轮廓信息。其中,计算机设备可以将二值化图像42P中的第一数值化区域403A与第二数值化区域404A进行与掩膜轮廓线条405L相反的第二单通道像素点赋值,得到图像43P。也就是说,在图像43P中,除目标轮廓线条406L之外的区域皆为与目标轮廓线条406L相反的值。其中,计算机设备可以获得图像43P中的目标轮廓线条406L的形状。应当理解,在一个具体的实施例中,在二值化图像中,每个像素点的值为1或者0,因此像素值1与像素值0互为相反值。
其中,获取边缘点的过程可以为:计算机设备可以通过光栅化处理将目标轮廓线条划分为A个边缘点。其中,计算机设备可以使用透视投影法将目标轮廓线条投射到光栅化对应的格子屏幕中,将该目标轮廓线条所占的光栅化所对应的格子的数量确定为边缘点的数量,即为A个。具体的,计算机设备可以通过设置光栅化格子的大小,进而调节得到的边缘点的数量。例如,计算机设备可以将光栅化格子的大小设置为3个格子尺寸单位,将目标轮廓线条进行光栅化处理,得到10个边缘点。基于此,计算机设备可以将光栅化格子的大小设置为5个格子尺寸单位,将目标轮廓线条进行光栅化处理,得到8个边缘点。其中,格子尺寸单位可以是指用于计算光栅化格子大小的单位,例如,厘米(cm)、毫米(mm)或纳米(nm)等,这里不对其进行具体限定。进一步地,计算机设备可以在计算光栅化所对应的格子数量时,通过计算目标轮廓线条所占一个光栅化所对应的格子的面积比例大小以计算光栅化所对应的格子数量。例如,计算机设备可以设置面积比例阈值为65%,也就是说,若目标轮廓线条所占一个光栅化所对应的格子的面积比例大小大于等于65%,则计算机设备确定该目标轮廓线条占据了该光栅化所对应的格子。
进一步地,计算机设备可以在A个边缘点中选取起始边缘点,对起始边缘点的相邻像素点按照目标顺序进行遍历处理。进一步地,若遍历到相邻像素点的第一单通道像素点的值为目标检测值,则确定起始边缘点对应的归一化坐标为起始边缘点对应的第一坐标数据,将第一单通道像素点的值为目标检测值的相邻像素点确定为下一个起始边缘点。相应的,若未遍历到相邻像素点的第一单通道像素点的值为目标检测值,则在A个边缘点中删除起始边缘点,得到剩余边缘点,在剩余边缘点中重新选取新的起始边缘点。其中,边缘点的数量为A个,A为正整数。
为了便于理解,请参见图5,图5是本申请实施例提供的一种关于有向遍历的场景示意图。在图5中,计算机设备可以获取起始边缘点周围的八个相邻像素点,将八个相邻像素点按照与起始边缘点的距离与方位进行排列后,得到起始边缘点与起始边缘点对应的八个相邻像素点的位置图像。例如,若计算机设备将起始边缘点的八个相邻像素点按照每个相邻像素点与起始边缘点等距,且每个相邻像素点之间的夹角相等进行排列,可以得到如图5所示的位置图像5000P。具体的,计算机设备可以将起始边缘点50P作为原点建立坐标轴,以起始边缘点50P的相邻像素点53P的方向为横坐标x轴的方向,以起始边缘点50P的相邻像素点55P的方向为纵坐标y轴的方向。其中,在位置图像5000P中,计算机设备可以将起始边缘点50P周围的相邻像素点进行编号处理。比如,计算机设备可以将起始边缘点50P的相邻像素点51P编号为0;相应的,计算机设备可以将起始边缘点50P的相邻像素点52P编号为1;相应的,计算机设备可以将起始边缘点50P的相邻像素点53P编号为2;相应的,计算机设备可以将起始边缘点50P的相邻像素点54P编号为3;相应的,计算机设备可以将起始边缘点50P的相邻像素点55P编号为4;相应的,计算机设备可以将起始边缘点50P的相邻像素点56P编号为5;相应的,计算机设备可以将起始边缘点50P的相邻像素点57P编号为6;相应的,计算机设备可以将起始边缘点50P的相邻像素点58P编号为7。进一步地,计算机设备可以将从起始边缘点50P开始,依次分别经过编号为0的相邻像素点、编号为1的相邻像素点、编号为2的相邻像素点、编号为3的相邻像素点、编号为4的相邻像素点、编号为5的相邻像素点、编号为6的相邻像素点与编号为7的相邻像素点的顺序确定为目标顺序。
进一步地,计算机设备可以对起始边缘点的相邻像素点按照目标顺序进行遍历处理。具体的,在图5中的遍历过程可以如下:对起始边缘点50P按照目标顺序进行起始边缘点50P的相邻像素点51P访问,得到相邻像素点51P中的第一单通道像素点的值。进一步地,若遍历到起始边缘点50P的相邻像素点51P的第一单通道像素点的值为目标检测值,则确定起始边缘点51P对应的归一化坐标为起始边缘点对应的第一坐标数据,将第一单通道像素点的值为目标检测值的相邻像素点(即起始边缘点50P的相邻像素点51P)确定为下一个起始边缘点。也就是说,若遍历到起始边缘点50P的相邻像素点51P的第一单通道像素点的值为目标检测值,则终止本次遍历。相应的,若未遍历到起始边缘点50P的相邻像素点51P的第一单通道像素点的值为目标检测值,则继续按照目标顺序进行遍历。进一步地,按照目标顺序对编号为1的起始边缘点50P的相邻像素点52P进行相邻像素点访问,得到相邻像素点52P中的第一单通道像素点的值。进一步地,若遍历到起始边缘点50P的相邻像素点52P的第一单通道像素点的值为目标检测值,则确定起始边缘点52P对应的归一化坐标为起始边缘点对应的第一坐标数据,将第一单通道像素点的值为目标检测值的相邻像素点(即起始边缘点50P的相邻像素点52P)确定为下一个起始边缘点。也就是说,若遍历到起始边缘点50P的相邻像素点52P的第一单通道像素点的值为目标检测值,则终止本次遍历。相应的,若未遍历到起始边缘点50P的相邻像素点52P的第一单通道像素点的值为目标检测值,则继续按照目标顺序进行遍历。
具体的,对编号为2的起始边缘点50P的相邻像素点53P、编号为3的起始边缘点50P的相邻像素点54P、编号为4的起始边缘点50P的相邻像素点55P、编号为5的起始边缘点50P的相邻像素点56P、编号为6的起始边缘点50P的相邻像素点57P与编号为7的起始边缘点50P的相邻像素点58P进行相邻像素点的遍历过程请参见上文图5中对于编号为1的起始边缘点50P的相邻像素点52P进行相邻像素点的遍历过程,这里不再进行赘述。进一步地,若按照目标顺序将编号为7的起始边缘点50P的相邻像素点58P遍历结束时,未遍历到起始边缘点50P的上文八个相邻像素点的第一单通道像素点的值为目标检测值,则在A个边缘点中删除起始边缘点50P,得到剩余边缘点,在剩余边缘点中重新选取新的起始边缘点。
可以理解的是,通过该种有序遍历方法进行起始边缘点50P的相邻像素点的有序遍历,可以使得最后得到的有序遍历后的边缘点集合是按照逆时针顺序构成的坐标集合。相应的,计算机设备也可以通过与该种有序遍历方法类似的方法得到顺时针顺序构成的坐标集合。
再请参见图5,又例如,若计算机设备将起始边缘点的八个相邻像素点按照以起始边缘点为九宫格的中心,且每个相邻像素点之间的夹角相等进行排列,可以得到如图5所示的位置图像5001P。具体的,计算机设备可以将起始边缘点500P作为原点建立坐标轴,以起始边缘点500P的相邻像素点503P的方向为横坐标x轴的方向,以起始边缘点500P的相邻像素点505P的方向为纵坐标y轴的方向。其中,在位置图像5001P中,计算机设备可以将起始边缘点500P周围的相邻像素点进行编号处理。比如,计算机设备可以将起始边缘点500P的相邻像素点501P编号为11;相应的,计算机设备可以将起始边缘点500P的相邻像素点502P编号为12;相应的,计算机设备可以将起始边缘点500P的相邻像素点503P编号为13;相应的,计算机设备可以将起始边缘点500P的相邻像素点504P编号为14;相应的,计算机设备可以将起始边缘点500P的相邻像素点505P编号为15;相应的,计算机设备可以将起始边缘点500P的相邻像素点506P编号为16;相应的,计算机设备可以将起始边缘点500P的相邻像素点507P编号为17;相应的,计算机设备可以将起始边缘点500P的相邻像素点508P编号为18。进一步地,计算机设备可以将从起始边缘点500P开始,依次分别经过编号为11的相邻像素点、编号为12的相邻像素点、编号为13的相邻像素点、编号为14的相邻像素点、编号为15的相邻像素点、编号为16的相邻像素点、编号为17的相邻像素点与编号为18的相邻像素点的顺序确定为目标顺序。进一步地,具体的计算机设备按照目标顺序进行起始边缘点500P的相邻像素点的有序遍历的过程请参见上文5000P中对于起始边缘点50P的相邻像素点的有序遍历的详细过程,这里不再对其进行赘述。
步骤S102,基于第一坐标数据对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据。
具体的,计算机设备可以获取用于确定贴图内容宽度的距离参数。例如,在一个具体的实施例中,距离参数可以是指dist。进一步地,计算机设备可以基于距离参数对边缘点Si的横坐标x0进行距离运算处理,得到横坐标x1。与此同时,计算机设备可以基于距离参数对边缘点Si的纵坐标y0进行距离运算处理,得到纵坐标y1。进一步地,计算机设备可以将横坐标x1和纵坐标y1所构成的位置点,确定为针对边缘点Si进行外部扩散后的外部点。其中,边缘点Si对应的外部点的第二坐标数据包括横坐标x1和纵坐标y1。具体的,边缘点的数量为N个,N为正整数。其中,N个边缘点包括边缘点Si,i为小于等于N的正整数。可以理解的是,边缘点Si的第一坐标数据包括横坐标x0与纵坐标y0。进一步地,计算机设备可以将边缘点Si进行外部扩散后的外部点与边缘点Si之间进行关联处理,将边缘点Si进行外部扩散后的外部点确定为边缘点Si对应的外部点。
具体的,计算机设备可以基于距离参数对边缘点Si的横坐标x0进行距离运算处理,该过程可以参见横坐标x1获取公式①所示:
①
如横坐标x1获取公式①所示,其中x0可以表示边缘点Si的横坐标,dist可以表示用于确定贴图内容宽度的距离参数,d0可以表示标准距离参数,可以基于公式①,得到横坐标x1。
具体的,计算机设备可以基于距离参数对边缘点Si的纵坐标y0进行距离运算处理,该过程可以参见纵坐标y1获取公式②所示:
②
如纵坐标y1获取公式②所示,其中y0可以表示边缘点Si的纵坐标,dist可以表示用于确定贴图内容宽度的距离参数,d0可以表示标准距离参数,可以基于公式②,得到纵坐标y1。
步骤S103,基于第一坐标数据和第二坐标数据,对边缘点和外部点进行顺序连接,得到贴图闭环区域。
具体的,计算机设备可以基于第一坐标数据之间的空间顺序关系和第二坐标数据之间的空间顺序关系,确定边缘点Si对应的相邻边缘点,将相邻边缘点中未被连接的相邻边缘点确定为待处理边缘点。进一步地,计算机设备可以将边缘点Si与边缘点Si对应的外部点进行连接处理,得到第一边缘线条。进一步地,计算机设备可以将边缘点Si对应的外部点与待处理边缘点进行连接处理,得到第二边缘线条。进一步地,计算机设备可以将边缘点Si与待处理边缘点连接处理,得到第三边缘线条。进一步地,计算机设备可以将由第一边缘线条、第二边缘线条与第三边缘线条构成的区域确定为边缘点Si对应的贴图闭环区域。
为了便于理解,请参见图6,图6是本申请实施例提供的一种关于生成贴图闭环区域的场景示意图。在图6中,计算机设备可以基于第一坐标数据之间的空间顺序关系和第二坐标数据之间的空间顺序关系,获取由第一图像数据的边缘点与边缘点对应的外部点连接之后构成的边缘点外扩轮廓线60L。例如,本申请实施例中的顶点坐标数据之前的空间顺序关系可以是指在将边缘点与边缘点对应的外部点连接后,按照从左至右的顺序连接相邻边缘点。具体的,计算机设备可以通过边缘点61P所在的位置构建如图6中所示的横坐标x轴与纵坐标y轴,以便于进行关于边缘点61P的关联坐标运算与坐标映射。进一步地,计算机设备可以基于第一坐标数据之间的空间顺序关系和第二坐标数据之间的空间顺序关系,确定边缘点61P对应的相邻边缘点(即边缘点62P与边缘点63P),将相邻边缘点(即边缘点62P与边缘点63P)中未被连接的相邻边缘点(即边缘点62P)确定为待处理边缘点62P。进一步地,计算机设备可以将边缘点61P与边缘点61P对应的外部点64P进行连接处理,得到第一边缘线条(即边缘点61P与外部点64P之间的连接线条)。进一步地,计算机设备可以将边缘点61P对应的外部点64P与待处理边缘点62P进行连接处理,得到第二边缘线条(即外部点64P与待处理边缘点62P之间的连接线条)。进一步地,计算机设备可以将边缘点61P与待处理边缘点62P连接处理,得到第三边缘线条(即边缘点61P与待处理边缘点62P之间的连接线条)。进一步地,计算机设备可以将由第一边缘线条(即边缘点61P与外部点64P之间的连接线条)、第二边缘线条(即外部点64P与待处理边缘点62P之间的连接线条)与第三边缘线条(即边缘点61P与待处理边缘点62P之间的连接线条)构成的区域确定为边缘点61P对应的贴图闭环区域65S(即边缘点61P、待处理边缘点62P与边缘点61P对应的外部点64P之间构成的三角形区域)。进一步地,计算机设备生成第一图像数据的其他边缘点对应的贴图闭环区域的过程,请参见上文中关于计算机设备生成边缘点61P对应的贴图闭环区域65S的具体过程,这里不再进行赘述。
步骤S104,获取纹理图像,从纹理图像中获取与贴图闭环区域匹配的第一顶点坐标组,在纹理图像中采集第一顶点坐标组所指示的第一纹理区域图像,将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据;第二图像数据中的目标对象的边缘位置处显示有由第一纹理区域图像所构成的贴图内容。
具体的,计算机设备可以获取纹理图像,对纹理图像进行默认坐标标识,得到纹理图像的默认坐标数据。进一步地,计算机设备可以将与贴图闭环区域匹配的顶点坐标组映射至纹理图像的默认坐标数据中,并对映射的与贴图闭环区域匹配的顶点坐标组进行连接处理,构成贴图纹理区域,将在贴图纹理区域内所采集的纹理数据确定为纹理区域图像。
具体的,其中,纹理可以包括表示物体表面细节的一幅或几副二维图形,也称纹理图像或纹理贴图。可以理解的是,纹理可以包括一个二维数组,二维数组中的元素可以包括一些特征(如色彩值)。当把纹理按照特定的方式映射到物体表面上的时候能使物体看上去更加真实。纹理可以用于体现需要被渲染到展示图像或视频帧上的对象所包括的内容。纹理贴图可以存储较多的信息,例如每个像素可以记录色彩、顶点数据、法向量、材质、背景光、散射、高光、透明度、几何高度或几何位移等信息中的至少一种,这些信息可以用于描绘物体表面的细节。纹理贴图具体可以是预先绘制的纹理图像。纹理图像中可以包括一个或多个图形对象所对应的色彩等信息。例如,图形对象可以包括三维场景下的地形、房屋、树木、人物等中的至少一种。其中,二维数组所处的二维坐标轴中的横坐标可以表示为U,纵坐标可以表示为V,进而构成UV坐标系。
可以理解的是,计算机设备可以通过坐标变换将三维图像转化为二维图像,也可以通过坐标变换将二维图像转化维三维图像。其中,坐标变换是从一个坐标系映射到另外一个坐标系。在三维坐标系,计算机设备可以通过几何变化进行坐标变换。其中,几何变换包括平移变换、缩放变换、旋转变换等。具体的,缩放变换,是指将对象放大或者缩小,也就是对对象上每个顶点进行放大和缩小,使得顶点坐标值变大或变小。顶点的变换矩阵一般是浮点矩阵,这个矩阵可以执行平移,旋转或者缩放。进一步地,计算机设备可以用矩阵变换来实现场景的层次结构。场景的层次结构可以用于表示三维坐标系中对象之间的相对位置关系等。可选的,计算机设备可以通过对三维对象进行视频录制,并对录制的视频提取视频帧得该到三维对象对应的二维图像。相应的,计算机设备可以通过渲染的方式将二维图像还原为三维图像。其中,具体的渲染处理可以包括:纹理坐标计算、纹理变换、视觉变换、顶点雾化、视截体剪裁和视口映射等。进一步地,渲染处理的结果,可以包括屏幕空间的位置(如坐标数据)、色彩以及纹理对应的区域等结果数据。
具体的,计算机设备可以通过着色器进行渲染处理。其中,着色器包括顶点着色器和像素着色器。其中,顶点着色器主要负责顶点的几何关系等的运算处理,像素着色器主要负责片元色彩等的运算处理。在本申请实施例中顶点可以包括边缘点与外部点。其中,顶点着色器,也称为顶点着色引擎、顶点遮蔽器。计算机设备可以通过顶点着色器将贴图内容贴图在目标对象的轮廓上,生成第二图像数据。每一个顶点可以被各种的数据变素清楚地定义,至少包括每一顶点的x、y、z坐标。例如,每一个顶点可以包括色彩、与其他顶点的对应关系、材质、光线特征等数据中的至少一种数据。
进一步地,若检测到第一图像数据的尺寸数据更新,则获取更新尺寸与原尺寸的比例,得到图像更新比例。进一步地,计算机设备可以对第一纹理区域图像按照图像更新比例进行更新,得到更新纹理区域图像。进一步地,计算机设备可以将贴图闭环区域按照图像更新比例进行更新,得到更新闭环区域。进一步地,计算机设备可以将更新纹理区域图像在更新闭环区域中重新进行贴图处理,得到更新后的第二图像数据。具体的,计算机设备可以在固定的时间间隔对尺寸数据进行检测。其中,固定的时间间隔可以由图像识别应用的应用对象进行设定,例如,1秒或者1毫秒等。进一步地,举例来说,若计算机设备检测到第一图像数据的原尺寸为长45毫米(mm),宽35毫米(mm),且在下一个时间间隔检测到第一图像数据的更新尺寸为长9毫米(mm),宽7毫米(mm),也就是说第一图像数据更新后变小了,则计算机设备可以将第一图像数据的更新尺寸(即长9毫米,宽7毫米)与第一图像数据的原尺寸(即长45毫米,宽35毫米)进行比例计算,得到图像更新比例1/5。进一步地,计算机设备可以对第一纹理区域图像按照图像更新比例1/5进行更新,得到对第一纹理区域图像按照图像更新比例1/5进行缩小的更新纹理区域图像。进一步地,计算机设备可以将贴图闭环区域按照图像更新比例1/5进行更新,得到缩小后的更新闭环区域。进一步地,计算机设备可以将更新纹理区域图像在更新闭环区域中重新进行贴图处理,得到更新后的第二图像数据。
应当理解,该种尺寸数据更新方式可以用于进行图像识别对象的动态轮廓自适应场景,即每当第一图像数据的尺寸进行更新时,第二图像数据都可以基于图像更新比例进行更新,该种尺寸数据更新方式丰富了图像识别处理的应用场景,提升了图像识别处理的实用性,提高了图像识别处理的效果。
为了便于理解,请参见图7,图7是本申请实施例提供的一种关于纹理贴图的场景示意图。在图7中,计算机设备可以获取纹理图像71P,获取包括业务对象701A与贴图闭环区域702L的第一图像数据72P。进一步地,计算机设备可以将纹理图像71P以及第一图像数据72P进行上文的图3中步骤S104中的贴图处理,得到第二图像数据73P。其中,第二图像数据73P可以包括业务对象703A与第一纹理区域图像704L。
为了便于理解,请参见图8,图8是本申请实施例提供的另一种关于纹理贴图的场景示意图。在图8中,计算机设备可以对第一图像数据进行上文的图3中步骤S104中的贴图处理,得到包括第一纹理区域图像801L的第二图像数据81P。其中,第二图像数据81P包括业务对象802A。可选的,计算机设备可以对第一图像数据进行上文的图3中步骤S104中的贴图处理,得到包括第一纹理区域图像803L的第二图像数据82P。其中,第二图像数据82P包括业务对象804A。可选的,计算机设备可以对第一图像数据进行上文的图3中步骤S104中的贴图处理,得到包括第一纹理区域图像805L的第二图像数据83P。其中,第二图像数据83P包括业务对象806A。可选的,计算机设备可以对第一图像数据进行上文的图3中步骤S104中的贴图处理,得到包括第一纹理区域图像807L的第二图像数据84P。其中,第二图像数据84P包括业务对象808A。
以理解的是,在本申请的具体实施方式中,涉及到的如图像识别应用的图像数据等数据,当本申请以上以及以下实施例运用到具体产品或技术中时,相关数据收集处理在实例应用时应该严格根据相关国家法律法规的要求,获取个人信息主体的知情同意或单独同意(或具备合法性基础),并在法律法规及个人信息主体的授权范围内,开展后续数据使用及处理行为。涉及到的人脸(或其他生物特征)识别技术时,相关数据收集、使用和处理过程应该遵守国家法律法规要求,收集人脸信息前应该告知信息处理规则并征求目标对象的单独同意(或具备合法性基础),并严格遵照法律法规要求和个人信息处理规则处理人脸信息,采取技术措施保障相关数据安全。
本申请实施例中,通过获取第一图像数据,对第一图像数据中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据。进一步地,基于第一坐标数据对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据。进一步地,基于第一坐标数据和第二坐标数据,对边缘点和外部点进行顺序连接,得到贴图闭环区域。其中,基于第一坐标数据与第二坐标数据确定的贴图闭环区域可以使得贴图闭环区域的计算更加清晰明了,经过清楚的坐标变换,可以使得贴图闭环区域的生成过程更加简便,保证了贴图与图像中的目标对象的边缘位置的贴合精度,提升了图像识别的效果。进一步地,获取纹理图像,从纹理图像中获取与贴图闭环区域匹配的第一顶点坐标组,在纹理图像中采集第一顶点坐标组所指示的第一纹理区域图像,将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据。其中,第二图像数据中的目标对象的边缘位置处显示有由第一纹理区域图像所构成的贴图内容。可以理解,在本申请实施例中,通过边缘点识别得到第一坐标数据,通过外部扩散得到第二坐标数据,根据得到的第一坐标数据与第二坐标数据得到贴图闭环区域,在贴图闭环区域进行贴图处理,该种贴图方式可以通过一次计算得到贴图位置,而不需要手动拖动特效(即第一纹理区域图像)多次至贴图位置,减少了将特效(即第一纹理区域图像)放置至贴图位置的尝试次数,因此可以减少确定贴图位置所花费的时间,提高了使用特效进行贴图的使用效率,增强了图像处理的效率。可以理解,在本申请实施例中,通过改变第一纹理区域图像的纹理样式,可以实现将不同的贴图内容贴图在第二图像数据,丰富了第二图像数据中贴图内容的类别,使得第二图像数据中的贴图内容可以适应更多的应用场景,提升了第二图像数据的实用性,增强了图像识别的效果。而且,本申请实施例中通过将边缘点与边缘点对应的外部点进行顺序连接,可以使得生成的目标轮廓线条具有方向性,使得后续进行纹理贴图时可以按照对应的顺序进行贴图,节省了纹理贴图的时间,提高了纹理贴图的效率,提升了纹理贴图的性能。而且所识别出的贴图闭环区域与目标对象的边缘位置紧密贴合,所以可以保证添加在贴图闭环区域内的贴图与图像中的目标对象的边缘位置的贴合精度。
进一步地,请参见图9,图9是本申请实施例提供的另一种数据处理方法的流程示意图。如图9所示,该方法可以由计算机设备执行,该计算机设备可以为上述图1所示的终端集群中的任意一个终端设备,例如,终端设备200a,也可以为上述图1所示的服务器100,在此不做限定。为便于理解,本申请实施例以该方法由计算机设备执行为例进行说明,该数据处理方法至少可以包括以下步骤S201-步骤S207:
步骤S201,获取第一图像数据,对第一图像数据中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据。
具体的,获取第一坐标数据的过程请参见上述图3中步骤S101中关于获取第一坐标数据过程的详细描述,这里不再进行赘述。
步骤S202,基于第一坐标数据对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据。
具体的,获取第二坐标数据的过程请参见上述图3中步骤S102中关于获取第二坐标数据过程的详细描述,这里不再进行赘述。
步骤S203,基于第一坐标数据和第二坐标数据,对边缘点和外部点进行顺序连接,得到贴图闭环区域。
具体的,获取贴图闭环区域的过程请参见上述图3中步骤S103中关于获取贴图闭环区域过程的详细描述,这里不再进行赘述。
步骤S204,获取纹理图像,从第一划分区域图像中获取与贴图闭环区域匹配的第一顶点坐标组,在第一划分区域图像中采集第一顶点坐标组所指示的第一纹理区域图像,将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据。
具体的,纹理图像包括第一划分区域图像与第二划分区域图像。例如,若第一划分区域图像为P,第二划分区域图像为Q,则纹理图像可以为第一划分区域图像P与第二划分区域图像Q的合集,或者纹理图像可以为第一划分区域图像P、第二划分区域图像Q与其他图像Z的合集。其中,其他图像可以是指除了第一划分区域图像之外与除了第二划分区域图像之外的图像。进一步地,计算机设备可以对第一划分区域图像与第二划分区域图像进行时长配置。具体的,计算机设备可以将在第一划分区域图像中采集第一顶点坐标组所指示的第一纹理区域图像的时长配置为第一触发时长,将在第二划分区域图像中采集第二顶点坐标组所指示的第二纹理区域图像的时长配置为第二触发时长。进一步地,计算机设备可以将第一划分区域图像与第二划分区域图像进行子区域划分,得到第一划分区域图像对应的多个子区域与第二划分区域图像对应的多个子区域。具体的,计算机设备可以将第一触发时长按照第一划分区域图像对应的多个子区域的数量进行时长划分,得到第一触发时长的多个子时长。进一步地,计算机设备可以将第一划分区域图像对应的多个子区域与第一触发时长的多个子时长进行关联,并在第一触发时长的每个子时长内,在各自对应的第一划分区域图像对应的子区域内,采集第一顶点坐标组所指示的第一纹理区域图像。相应的,计算机设备可以将第二触发时长按照第二划分区域图像对应的多个子区域的数量进行时长划分,得到第二触发时长的多个子时长。进一步地,计算机设备可以将第二划分区域图像对应的多个子区域与第二触发时长的多个子时长进行关联,并在第二触发时长的每个子时长内,在各自对应的第二划分区域图像对应的子区域内,采集第二顶点坐标组所指示的第二纹理区域图像。进一步地,获取第二图像数据的过程请参见上述图3中步骤S104中关于获取第二图像数据过程的详细描述,这里不再进行赘述。
步骤S205,当第二图像数据的显示时长达到第一触发时长时,从第二划分区域图像中获取与贴图闭环区域匹配的第二顶点坐标组,在第二划分区域图像中采集第二顶点坐标组所指示的第二纹理区域图像,将贴图闭环区域内的第一纹理区域图像更新为第二纹理区域图像;第二触发时长是指贴图闭环区域内从第二纹理区域图像更新显示为第一纹理区域图像的过程中,第二纹理区域图像的持续显示时长。
为了便于理解,请参见图10,图10是本申请实施例提供的一种关于贴图闭环区域更新的场景示意图。在图10中,当第二图像数据的显示时长达到第一触发时长时,计算机设备可以从第二划分区域图像102A中获取与贴图闭环区域匹配的第二顶点坐标组,在第二划分区域图像中采集第二顶点坐标组所指示的第二纹理区域图像1002A,将贴图闭环区域内的第一纹理区域图像1001A更新为第二纹理区域图像1002A。例如,计算机设备可以将第一触发时长设置为一秒,将第二触发时长设置为一秒,则计算机设备可以在一开始从第一划分区域图像101A中采集第一顶点坐标组所指示的第一纹理区域图像1001A,在贴图闭环区域中持续显示第一纹理区域图像1001A的时长达到1秒的时候,就可以在第二秒的时候从第二划分区域图像102A中采集第二顶点坐标组所指示的第二纹理区域图像1002A,以在贴图闭环区域中持续显示1秒第二纹理区域图像1002A,然后在第三秒的时候,再切换显示回第一纹理区域图像1001A,以此往复,直至采集结束。可选的,计算机设备可以在第三秒时重复在第一秒时的采集操作,即从第一划分区域图像101A中采集第一顶点坐标组所指示的第一纹理区域图像1001A,以在贴图闭环区域中持续显示1秒第一纹理区域图像1001A;相应的,计算机设备可以在第四秒时重复在第二秒时的采集操作,即从第二划分区域图像102A中采集第二顶点坐标组所指示的第二纹理区域图像1002A;以此类推,直至采集结束,这里不再进行赘述。可以理解,第一划分区域图像101A与第二划分区域图像102A所处的二维坐标轴中的横坐标可以表示为U,纵坐标可以表示为V,进而构成UV坐标系。
应当理解,计算机设备通过图10所示的交替的在第一触发时长内贴图闭环区域显示第一纹理区域图像1001A,在第二触发时长内贴图闭环区域显示第二纹理区域图像1002A的方式,可以实现动态效果,也就是说,可以实现坐标动画(UV动画)效果,可以实现贴图纹理的动态变化,丰富了贴图纹理的显示类别,提高了使用特效(即第一纹理区域图像1001A与第二纹理区域图像1002A构成的图像)进行贴图的使用效率,提升了图像处理的效果。
步骤S206,当第二图像数据中的目标对象在拍摄视频画面中的位置更新时,根据目标对象的更新位置以及目标对象在拍摄视频画面中的占比变化,对贴图闭环区域的位置和尺寸进行更新,得到更新贴图闭环区域。
具体的,计算机设备可以在固定的间隔时间段内针对第二图像数据中的目标对象在拍摄视频画面中的位置进行检测。进一步地,若检测到第二图像数据中的目标对象在拍摄视频画面中的位置更新时,则计算机设备获取目标对象的初始位置关联信息与目标对象的更新位置关联信息。具体的,目标对象的初始位置关联信息可以包括该目标对象在初始位置的拍摄视频画面中的占比面积数据,以及初始位置对应的目标对象轮廓的顶点坐标数据。进一步地,计算机设备可以通过初始位置对应的目标对象轮廓的顶点坐标数据进行坐标计算,得到该目标对象在初始位置的拍摄视频画面中的占比面积数据。相应的,目标对象的更新位置关联信息可以包括该目标对象在更新位置的拍摄视频画面中的占比面积数据,以及更新位置对应的目标对象轮廓的顶点坐标数据。进一步地,计算机设备可以通过更新位置对应的目标对象轮廓的顶点坐标数据进行坐标计算,得到该目标对象在更新位置的拍摄视频画面中的占比面积数据。进一步地,计算机设备可以将该目标对象在初始位置的拍摄视频画面中的占比面积数据与该目标对象在更新位置的拍摄视频画面中的占比面积数据进行比例计算,得到目标对象在拍摄视频画面中的占比变化的更新占比数值。进一步地,计算机设备可以基于更新占比数值对贴图闭环区域的位置和尺寸进行更新,得到更新贴图闭环区域。比如,若更新占比数值大于1,则计算机设备可以将更新贴图闭环区域按照更新占比数值进行区域位置调整(调整方向可以为图像识别应用的应用对象设定的正方向)。相应的,若更新占比数值小于1,则计算机设备可以将更新贴图闭环区域按照更新占比数值进行区域位置调整(调整方向可以为图像识别应用的应用对象设定的反方向)。
可选的,目标对象的初始位置关联信息可以包括该目标对象在初始位置的拍摄视频画面中的特征数值(如长度数值与宽度数值),以及初始位置对应的目标对象轮廓的顶点坐标数据。进一步地,计算机设备可以通过初始位置对应的目标对象轮廓的顶点坐标数据进行坐标计算,得到该目标对象在初始位置的拍摄视频画面中的特征数值。相应的,目标对象的更新位置关联信息可以包括该目标对象在更新位置的拍摄视频画面中的特征数值(如长度数值与宽度数值),以及更新位置对应的目标对象轮廓的顶点坐标数据。进一步地,计算机设备可以通过更新位置对应的目标对象轮廓的顶点坐标数据进行坐标计算,得到该目标对象在更新位置的拍摄视频画面中的特征数值。进一步地,计算机设备可以将该目标对象在初始位置的拍摄视频画面中的特征数值与该目标对象在更新位置的拍摄视频画面中的特征数值进行比例计算,得到目标对象在拍摄视频画面中的占比变化的更新占比数值。进一步地,计算机设备可以基于更新占比数值对贴图闭环区域的位置和尺寸进行更新,得到更新贴图闭环区域。
举例来说,若目标对象在拍摄视频画面中进行了转身(即从正面面向拍摄镜头变成侧面面向拍摄镜头),此时,目标对象的长度数值不变(即目标对象的身高不变),目标对象的宽度数值变小(即目标对象在画面中的身段宽度变小),则计算机设备可以将该目标对象在初始位置的拍摄视频画面中的宽度数值与该目标对象在更新位置的拍摄视频画面中的宽度数值进行比例计算,得到目标对象在拍摄视频画面中的占比变化的更新占比数值。进一步地,计算机设备可以基于更新占比数值对贴图闭环区域的位置和尺寸进行更新(即贴图闭环区域在与目标对象的长度数值对应的方向的位置和尺寸不变,贴图闭环区域在与目标对象的宽度数值对应的方向的位置和尺寸按照更新占比数值进行更新),得到更新贴图闭环区域。
应当理解,计算机设备可以通过改变目标对象在拍摄视频画面中的占比变化,进而实现调整上文图3中步骤S102的公式①与公式②中的dist。具体的,计算机设备可以通过调整目标对象在拍摄视频画面中的占比变化,进而对贴图闭环区域的位置和尺寸进行更新,得到更新贴图闭环区域(更新贴图闭环区域的边缘点数量也随之更新)。例如,计算机设备可以将包含10个边缘点的贴图闭环区域对应的dist确定为第一调整参数,将包含5个边缘点的更新贴图闭环区域对应的dist确定为第二调整参数,则第二调整参数对应的dist可以大于第一调整参数对应的dist,也就是说,第二调整参数对应的目标轮廓线条的宽度比第一调整参数对应的目标轮廓线条的宽度更宽。
步骤S207,重新在纹理图像中采集与更新贴图闭环区域相匹配的更新纹理区域图像,重新将更新纹理区域图像在更新贴图闭环区域中进行贴图处理,得到第三图像;第三图像数据中的目标对象的边缘位置处显示有由更新纹理区域图像所构成的贴图内容;第二图像中的贴图内容与第三图像中的贴图内容之间的贴图变化幅度,与第二图像中的目标对象与第三图像中的目标对象之间的对象占比变化幅度相匹配。
具体的,例如,若目标对象在拍摄视频画面中进行了转身(即从正面面向拍摄镜头变成侧面面向拍摄镜头),此时,目标对象的长度数值不变(即目标对象的身高不变),目标对象的宽度数值变小(即目标对象在画面中的身段宽度变小),计算机设备可以将该目标对象在初始位置的拍摄视频画面中的宽度数值与该目标对象在更新位置的拍摄视频画面中的宽度数值进行比例计算,得到目标对象在拍摄视频画面中的占比变化的更新占比数值。进一步地,计算机设备可以基于更新占比数值对贴图闭环区域的位置和尺寸进行更新(即贴图闭环区域在与目标对象的长度数值对应的方向的位置和尺寸不变,贴图闭环区域在与目标对象的宽度数值对应的方向的位置和尺寸按照更新占比数值进行更新),得到更新贴图闭环区域。进一步地,计算机设备重新按照更新占比数值在纹理图像中采集与更新贴图闭环区域相匹配的更新纹理区域图像(即重新采集的更新纹理区域图像在与目标对象的长度数值对应的方向的位置和尺寸不变,在与目标对象的宽度数值对应的方向的位置和尺寸按照更新占比数值进行更新),重新将更新纹理区域图像在更新贴图闭环区域中进行贴图处理,得到第三图像。其中,第二图像中的贴图内容与第三图像中的贴图内容之间的贴图变化幅度,与第二图像中的目标对象与第三图像中的目标对象之间的对象占比变化幅度相匹配。换言之,在本申请实施例中,第二图像中的贴图内容与第三图像中的贴图内容之间的贴图变化幅度即为与目标对象的长度数值对应的方向的位置和尺寸不变,与目标对象的宽度数值对应的方向的位置和尺寸按照更新占比数值进行变化。
本申请实施例中,通过获取第一图像数据,对第一图像数据中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据。进一步地,基于第一坐标数据对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据。进一步地,基于第一坐标数据和第二坐标数据,对边缘点和外部点进行顺序连接,得到贴图闭环区域。其中,基于第一坐标数据与第二坐标数据确定的贴图闭环区域可以使得贴图闭环区域的计算更加清晰明了,经过清楚的坐标变换,可以使得贴图闭环区域的生成过程更加简便,保证了贴图与图像中的目标对象的边缘位置的贴合精度,提升了图像识别的效果。进一步地,获取纹理图像,从纹理图像中获取与贴图闭环区域匹配的第一顶点坐标组,在纹理图像中采集第一顶点坐标组所指示的第一纹理区域图像,将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据。其中,第二图像数据中的目标对象的边缘位置处显示有由第一纹理区域图像所构成的贴图内容。可以理解,在本申请实施例中,通过边缘点识别得到第一坐标数据,通过外部扩散得到第二坐标数据,根据得到的第一坐标数据与第二坐标数据得到贴图闭环区域,在贴图闭环区域进行贴图处理,该种贴图方式可以通过一次计算得到贴图位置,而不需要手动拖动特效(即第一纹理区域图像)多次至贴图位置,减少了将特效(即第一纹理区域图像)放置至贴图位置的尝试次数,因此可以减少确定贴图位置所花费的时间,提高了使用特效进行贴图的使用效率,增强了图像处理的效率。可以理解,在本申请实施例中,通过固定的时间间隔对改变第一纹理区域图像的纹理样式,可以实现贴图内容的动态变化,丰富了第二图像数据中贴图内容的展示形式,使得第二图像数据可以适应更多的应用场景,提升了第二图像数据的实用性。而且所识别出的贴图闭环区域与目标对象的边缘位置紧密贴合,所以可以保证添加在贴图闭环区域内的贴图与图像中的目标对象的边缘位置的贴合精度。
进一步地,请参见图11,图11是本申请实施例提供的一种数据处理装置的结构示意图。上述数据处理装置可以是运行于计算机设备中的一个计算机程序(包括程序代码),例如该数据处理装置为一个应用软件;该装置可以用于执行本申请实施例提供的方法中的相应步骤。如图11所示,该数据处理装置1应用于业务管理平台,该数据处理装置1可以包括:第一图像数据获取模块11、边缘点扩散模块12、顺序连接模块13、图像采集模块14以及第二图像数据获取模块15。
第一图像数据获取模块11,用于获取第一图像数据,对第一图像数据中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据;
边缘点扩散模块12,用于基于第一坐标数据对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据;
顺序连接模块13,用于基于第一坐标数据和第二坐标数据,对边缘点和外部点进行顺序连接,得到贴图闭环区域;
图像采集模块14,用于获取纹理图像,从纹理图像中获取与贴图闭环区域匹配的第一顶点坐标组,在纹理图像中采集第一顶点坐标组所指示的第一纹理区域图像;
第二图像数据获取模块15,用于将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据;第二图像数据中的目标对象的边缘位置处显示有由第一纹理区域图像所构成的贴图内容。
其中,第一图像数据获取模块11、边缘点扩散模块12、顺序连接模块13、图像采集模块14以及第二图像数据获取模块15的具体功能实现方式可以参见上述图3对应实施例中的步骤S101-步骤S104,这里不再进行赘述。
再请参见图11,其中,第一图像数据获取模块11,包括:
边缘检测单元111,用于对第一图像数据中的目标对象进行边缘检测,得到目标对象的边缘轮廓信息;
信息光栅化单元112,用于对边缘轮廓信息进行光栅化处理,得到目标对象对应的边缘点以及边缘点对应的归一化坐标;
坐标遍历单元113,用于对边缘点对应的归一化坐标进行有序遍历处理,得到边缘点对应的第一坐标数据。
其中,边缘检测单元111、信息光栅化单元112以及坐标遍历单元113的具体功能实现方式可以参见上述图3对应实施例中的步骤S101,这里不再进行赘述。
再请参见图11,其中,边缘检测单元111,包括:
掩膜获取子单元1111,用于获取掩膜图像数据,将第一图像数据与掩膜图像数据进行像素叠加处理,得到第一图像数据对应的二值化图像;
像素点检测子单元1112,用于对二值化图像进行第一单通道像素点检测,得到目标像素点;
像素点连接子单元1113,用于将目标像素点进行连接,得到第一图像数据对应的掩膜轮廓线条;
像素点赋值子单元1114,用于对第一图像数据对应的掩膜轮廓线条进行第二单通道像素点赋值,得到目标轮廓线条,将目标轮廓线条确定为目标对象的边缘轮廓信息。
其中,掩膜获取子单元1111、像素点检测子单元1112以及像素点连接子单元1113的具体功能实现方式可以参见上述图3对应实施例中的步骤S101,这里不再进行赘述。
再请参见图11,其中,边缘点的数量为A个,A为正整数;坐标遍历单元113,包括:
起始边缘点选取子单元1131,用于在A个边缘点中选取起始边缘点,对起始边缘点的相邻像素点按照目标顺序进行遍历处理;
第一坐标数据确定子单元1132,用于若遍历到相邻像素点的第一单通道像素点的值为目标检测值,则确定起始边缘点对应的归一化坐标为起始边缘点对应的第一坐标数据,将第一单通道像素点的值为目标检测值的相邻像素点确定为下一个起始边缘点;
起始边缘点删除子单元1133,用于若未遍历到相邻像素点的第一单通道像素点的值为目标检测值,则在A个边缘点中删除起始边缘点,得到剩余边缘点,在剩余边缘点中重新选取新的起始边缘点。
其中,起始边缘点选取子单元1131、第一坐标数据确定子单元1132以及起始边缘点删除子单元1133的具体功能实现方式可以参见上述图3对应实施例中的步骤S103,这里不再进行赘述。
再请参见图11,其中,边缘点的数量为N个,N为正整数;N个边缘点包括边缘点Si,i为小于等于N的正整数;边缘点Si的第一坐标数据包括横坐标x0与纵坐标y0;边缘点扩散模块12,包括:
距离参数获取单元121,用于获取用于确定贴图内容宽度的距离参数;
横坐标获取单元122,用于基于距离参数对边缘点Si的横坐标x0进行距离运算处理,得到横坐标x1;
纵坐标获取单元123,用于基于距离参数对边缘点Si的纵坐标y0进行距离运算处理,得到纵坐标y1;
外部点确定单元124,用于将横坐标x1和纵坐标y1所构成的位置点,确定为针对边缘点Si进行外部扩散后的外部点;边缘点Si对应的外部点的第二坐标数据包括横坐标x1和纵坐标y1。
其中,距离参数获取单元121、横坐标获取单元122、纵坐标获取单元123以及外部点确定单元124的具体功能实现方式可以参见上述图3对应实施例中的步骤S102,这里不再进行赘述。
再请参见图11,其中,N个边缘点分别对应的第一坐标数据之间具有空间顺序关系,N个外部点分别对应的第二坐标数据之间具有空间顺序关系;顺序连接模块13,包括:
相邻边缘点确定单元131,用于基于第一坐标数据之间的空间顺序关系和第二坐标数据之间的空间顺序关系,确定边缘点Si对应的相邻边缘点,将相邻边缘点中未被连接的相邻边缘点确定为待处理边缘点;
第一边缘线条获取单元132,用于将边缘点Si与边缘点Si对应的外部点进行连接处理,得到第一边缘线条;
第二边缘线条获取单元133,用于将边缘点Si对应的外部点与待处理边缘点进行连接处理,得到第二边缘线条;
第三边缘线条获取单元134,用于将边缘点Si与待处理边缘点连接处理,得到第三边缘线条;
贴图闭环区域确定单元135,用于将由第一边缘线条、第二边缘线条与第三边缘线条构成的区域确定为边缘点Si对应的贴图闭环区域。
其中,相邻边缘点确定单元131、第一边缘线条获取单元132、第二边缘线条获取单元133、第三边缘线条获取单元134以及贴图闭环区域确定单元135的具体功能实现方式可以参见上述图3对应实施例中的步骤S103,这里不再进行赘述。
再请参见图11,其中,图像采集模块14,包括:
默认坐标标识单元141,用于获取纹理图像,对纹理图像进行默认坐标标识,得到纹理图像的默认坐标数据;
顶点坐标组映射单元142,用于将与贴图闭环区域匹配的顶点坐标组映射至纹理图像的默认坐标数据中,并对映射的与贴图闭环区域匹配的顶点坐标组进行连接处理,构成贴图纹理区域,将在贴图纹理区域内所采集的纹理数据确定为纹理区域图像。
其中,默认坐标标识单元141以及顶点坐标组映射单元142的具体功能实现方式可以参见上述图3对应实施例中的步骤S104,这里不再进行赘述。
再请参见图11,其中,纹理区域图像包括第一划分区域图像与第二划分区域图像;第一划分区域图像关联有第一触发时长,第二划分区域图像关联有第二触发时长;
图像采集模块14与第二图像数据获取模块15,具体用于获取纹理图像,从第一划分区域图像中获取与贴图闭环区域匹配的第一顶点坐标组,在第一划分区域图像中采集第一顶点坐标组所指示的第一纹理区域图像,将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据。
其中,图像采集模块14与第二图像数据获取模块15的具体功能实现方式可以参见上述图9对应实施例中的步骤S204,这里不再进行赘述。
再请参见图11,其中,数据处理装置1,还包括:
第二顶点坐标组获取模块16,用于当第二图像数据的显示时长达到第一触发时长时,从第二划分区域图像中获取与贴图闭环区域匹配的第二顶点坐标组,在第二划分区域图像中采集第二顶点坐标组所指示的第二纹理区域图像,将贴图闭环区域内的第一纹理区域图像更新为第二纹理区域图像;第二触发时长是指贴图闭环区域内从第二纹理区域图像更新显示为第一纹理区域图像的过程中,第二纹理区域图像的持续显示时长。
其中,第二顶点坐标组获取模块16的具体功能实现方式可以参见上述图9对应实施例中的步骤S205,这里不再进行赘述。
其中,数据处理装置1,还包括:
尺寸数据更新模块17,用于若检测到第一图像数据的尺寸数据更新,则获取更新尺寸与原尺寸的比例,得到图像更新比例;
图像更新模块18,用于对第一纹理区域图像按照图像更新比例进行更新,得到更新纹理区域图像;将贴图闭环区域按照图像更新比例进行更新,得到更新闭环区域;
更新闭环区域贴图模块19,用于将更新纹理区域图像在更新闭环区域中重新进行贴图处理,得到更新后的第二图像数据。
其中,尺寸数据更新模块17、图像更新模块18以及更新闭环区域贴图模块19的具体功能实现方式可以参见上述图3对应实施例中的步骤S104,这里不再进行赘述。
其中,第二图像数据为拍摄视频画面中的视频帧;数据处理装置1,还包括:
更新贴图闭环区域获取模块20,用于当第二图像数据中的目标对象在拍摄视频画面中的位置更新时,根据目标对象的更新位置以及目标对象在拍摄视频画面中的占比变化,对贴图闭环区域的位置和尺寸进行更新,得到更新贴图闭环区域;
第三图像获取模块21,用于重新在纹理图像中采集与更新贴图闭环区域相匹配的更新纹理区域图像,重新将更新纹理区域图像在更新贴图闭环区域中进行贴图处理,得到第三图像;第三图像数据中的目标对象的边缘位置处显示有由更新纹理区域图像所构成的贴图内容;第二图像中的贴图内容与第三图像中的贴图内容之间的贴图变化幅度,与第二图像中的目标对象与第三图像中的目标对象之间的对象占比变化幅度相匹配。
其中,更新贴图闭环区域获取模块20以及第三图像获取模块21的具体功能实现方式可以参见上述图9对应实施例中的步骤S206-步骤S207,这里不再进行赘述。
进一步地,请参见图12,图12是本申请实施例提供的一种计算机设备的结构示意图。如图12所示,该计算机设备1000可以包括:至少一个处理器1001,例如CPU,至少一个网络接口1004,用户接口1003,存储器1005,至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示屏(Display)、键盘(Keyboard),网络接口1004可选地可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选地还可以是至少一个位于远离前述处理器1001的存储装置。如图12所示,作为一种计算机存储介质的存储器1005可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
在图12所示的计算机设备1000中,网络接口1004可提供网络通讯功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现:
获取第一图像数据,对第一图像数据中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据;基于第一坐标数据对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据;基于第一坐标数据和第二坐标数据,对边缘点和外部点进行顺序连接,得到贴图闭环区域;获取纹理图像,从纹理图像中获取与贴图闭环区域匹配的第一顶点坐标组,在纹理图像中采集第一顶点坐标组所指示的第一纹理区域图像,将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据;第二图像数据中的目标对象的边缘位置处显示有由第一纹理区域图像所构成的贴图内容。
应当理解,本申请实施例中所描述的计算机设备1000可执行前文图2、图3、图4、图5、图6、图7、图8、图9以及图10所对应实施例中对数据处理方法的描述,也可执行前文图11所对应实施例中对数据处理装置1的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序包括程序指令,该程序指令被处理器执行时实现图2、图3、图4、图5、图6、图7、图8、图9以及图10中各个步骤所提供的数据处理方法,具体可参见上述图2、图3、图4、图5、图6、图7、图8、图9以及图10各个步骤所提供的实现方式,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
上述计算机可读存储介质可以是前述任一实施例提供的数据处理装置或者上述计算机设备的内部存储单元,例如计算机设备的硬盘或内存。该计算机可读存储介质也可以是该计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘,智能存储卡(smart media card,SMC),安全数字(secure digital,SD)卡,闪存卡(flash card)等。进一步地,该计算机可读存储介质还可以既包括该计算机设备的内部存储单元也包括外部存储设备。该计算机可读存储介质用于存储该计算机程序以及该计算机设备所需的其他程序和数据。该计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备可执行前文图2、图3、图4、图5、图6、图7、图8、图9以及图10所对应实施例中对数据处理方法的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
本申请实施例的说明书和权利要求书及附图中的术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、装置、产品或设备没有限定于已列出的步骤或模块,而是可选地还包括没有列出的步骤或模块,或可选地还包括对于这些过程、方法、装置、产品或设备固有的其他步骤单元。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例提供的方法及相关装置是参照本申请实施例提供的方法流程图和/或结构示意图来描述的,具体可由计算机程序指令实现方法流程图和/或结构示意图的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。这些计算机程序指令可提供到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或结构示意一个方框或多个方框中指定的功能的步骤。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。
Claims (12)
1.一种数据处理方法,其特征在于,包括:
获取第一图像数据,对所述第一图像数据中的目标对象进行边缘点识别,得到所述目标对象的边缘点对应的第一坐标数据;所述边缘点的数量为N个,N为正整数;所述N个边缘点包括边缘点Si,i为小于等于N的正整数;
基于所述第一坐标数据对所述边缘点进行外部扩散,得到所述边缘点对应的外部点以及所述外部点对应的第二坐标数据;所述边缘点Si对应的外部点的数量为一个,且所述边缘点Si对应的外部点是基于所述边缘点Si对应的第一坐标数据和贴图内容宽度所确定的;所述N个边缘点分别对应的第一坐标数据之间具有空间顺序关系,N个外部点分别对应的第二坐标数据之间具有空间顺序关系;
基于所述第一坐标数据之间的空间顺序关系和所述第二坐标数据之间的空间顺序关系,确定所述边缘点Si对应的相邻边缘点,将所述相邻边缘点中未被连接的相邻边缘点确定为待处理边缘点;
将所述边缘点Si与所述边缘点Si对应的外部点进行连接处理,得到第一边缘线条;
将所述边缘点Si对应的外部点与所述待处理边缘点进行连接处理,得到第二边缘线条;
将所述边缘点Si与所述待处理边缘点连接处理,得到第三边缘线条;
将由所述第一边缘线条、所述第二边缘线条与所述第三边缘线条构成的区域确定为所述边缘点Si对应的贴图闭环区域,直至得到每个边缘点对应的贴图闭环区域;
获取纹理图像,从所述纹理图像中获取与所述贴图闭环区域匹配的第一顶点坐标组,在所述纹理图像中采集所述第一顶点坐标组所指示的第一纹理区域图像,将所述第一纹理区域图像在所述贴图闭环区域中进行贴图处理,得到第二图像数据;所述第二图像数据中的所述目标对象的边缘位置处显示有由所述第一纹理区域图像所构成的贴图内容。
2.根据权利要求1所述的方法,其特征在于,所述对所述第一图像数据中的目标对象进行边缘点识别,得到所述目标对象的边缘点对应的第一坐标数据,包括:
对所述第一图像数据中的目标对象进行边缘检测,得到所述目标对象的边缘轮廓信息;
对所述边缘轮廓信息进行光栅化处理,得到所述目标对象对应的边缘点以及所述边缘点对应的归一化坐标;
对所述边缘点对应的归一化坐标进行有序遍历处理,得到所述边缘点对应的第一坐标数据。
3.根据权利要求2所述的方法,其特征在于,所述对所述第一图像数据中的目标对象进行边缘检测,得到所述目标对象的边缘轮廓信息,包括:
获取掩膜图像数据,将所述第一图像数据与所述掩膜图像数据进行像素叠加处理,得到所述第一图像数据对应的二值化图像;
对所述二值化图像进行第一单通道像素点检测,得到目标像素点;
将所述目标像素点进行连接,得到所述第一图像数据对应的掩膜轮廓线条;
对所述第一图像数据对应的掩膜轮廓线条进行第二单通道像素点赋值,得到目标轮廓线条,将所述目标轮廓线条确定为所述目标对象的边缘轮廓信息。
4.根据权利要求2所述的方法,其特征在于,所述边缘点的数量为A个,A为正整数;所述对所述边缘点对应的归一化坐标进行有序遍历处理,得到所述目标对象的边缘点对应的第一坐标数据,包括:
在A个所述边缘点中选取起始边缘点,对所述起始边缘点的相邻像素点按照目标顺序进行遍历处理;
若遍历到所述相邻像素点的第一单通道像素点的值为目标检测值,则确定所述起始边缘点对应的归一化坐标为所述起始边缘点对应的第一坐标数据,将所述第一单通道像素点的值为目标检测值的相邻像素点确定为下一个起始边缘点;
若未遍历到所述相邻像素点的第一单通道像素点的值为目标检测值,则在A个所述边缘点中删除所述起始边缘点,得到剩余边缘点,在所述剩余边缘点中重新选取新的起始边缘点。
5.根据权利要求1所述的方法,其特征在于,所述边缘点Si的第一坐标数据包括横坐标x0与纵坐标y0;所述基于所述第一坐标数据对所述边缘点进行外部扩散,得到所述边缘点对应的外部点以及所述外部点对应的第二坐标数据,包括:
获取用于确定贴图内容宽度的距离参数;
基于所述距离参数对所述边缘点Si的横坐标x0进行距离运算处理,得到横坐标x1;
基于所述距离参数对所述边缘点Si的纵坐标y0进行距离运算处理,得到纵坐标y1;
将所述横坐标x1和所述纵坐标y1所构成的位置点,确定为针对所述边缘点Si进行外部扩散后的外部点;所述边缘点Si对应的外部点的第二坐标数据包括所述横坐标x1和所述纵坐标y1。
6.根据权利要求1所述的方法,其特征在于,所述获取纹理图像,从所述纹理图像中获取与所述贴图闭环区域匹配的顶点坐标组,在所述纹理图像中采集所述顶点坐标组所指示的纹理区域图像,包括:
获取纹理图像,对所述纹理图像进行默认坐标标识,得到所述纹理图像的默认坐标数据;
将与所述贴图闭环区域匹配的顶点坐标组映射至所述纹理图像的默认坐标数据中,并对映射的与所述贴图闭环区域匹配的顶点坐标组进行连接处理,构成贴图纹理区域,将在所述贴图纹理区域内所采集的纹理数据确定为纹理区域图像。
7.根据权利要求1所述的方法,其特征在于,所述纹理区域图像包括第一划分区域图像与第二划分区域图像;所述第一划分区域图像关联有第一触发时长,所述第二划分区域图像关联有第二触发时长;
所述获取纹理图像,从所述纹理图像中获取与所述贴图闭环区域匹配的第一顶点坐标组,在所述纹理图像中采集所述第一顶点坐标组所指示的第一纹理区域图像,将所述第一纹理区域图像在所述贴图闭环区域中进行贴图处理,得到第二图像数据,包括:
获取纹理图像,从所述第一划分区域图像中获取与所述贴图闭环区域匹配的第一顶点坐标组,在第一划分区域图像中采集所述第一顶点坐标组所指示的第一纹理区域图像,将所述第一纹理区域图像在所述贴图闭环区域中进行贴图处理,得到第二图像数据;
所述方法还包括:
当所述第二图像数据的显示时长达到所述第一触发时长时,从所述第二划分区域图像中获取与所述贴图闭环区域匹配的第二顶点坐标组,在所述第二划分区域图像中采集所述第二顶点坐标组所指示的第二纹理区域图像,将所述贴图闭环区域内的所述第一纹理区域图像更新为所述第二纹理区域图像;所述第二触发时长是指所述贴图闭环区域内从所述第二纹理区域图像更新显示为所述第一纹理区域图像的过程中,所述第二纹理区域图像的持续显示时长。
8.根据权利要求1所述方法,其特征在于,还包括:
若检测到第一图像数据的尺寸数据更新,则获取更新尺寸与原尺寸的比例,得到图像更新比例;
对所述第一纹理区域图像按照所述图像更新比例进行更新,得到更新纹理区域图像;将所述贴图闭环区域按照所述图像更新比例进行更新,得到更新闭环区域;
将所述更新纹理区域图像在所述更新闭环区域中重新进行贴图处理,得到更新后的第二图像数据。
9.根据权利要求1所述方法,其特征在于,所述第二图像数据为拍摄视频画面中的视频帧;所述方法还包括:
当所述第二图像数据中的所述目标对象在所述拍摄视频画面中的位置更新时,根据所述目标对象的更新位置以及所述目标对象在所述拍摄视频画面中的占比变化,对所述贴图闭环区域的位置和尺寸进行更新,得到更新贴图闭环区域;
重新在所述纹理图像中采集与所述更新贴图闭环区域相匹配的更新纹理区域图像,重新将所述更新纹理区域图像在所述更新贴图闭环区域中进行贴图处理,得到第三图像数据;所述第三图像数据中的所述目标对象的边缘位置处显示有由所述更新纹理区域图像所构成的贴图内容;所述第二图像数据中的贴图内容与所述第三图像数据中的贴图内容之间的贴图变化幅度,与所述第二图像数据中的所述目标对象与所述第三图像数据中的所述目标对象之间的对象占比变化幅度相匹配。
10.一种数据处理装置,其特征在于,所述数据处理装置,包括:
第一图像数据获取模块,用于获取第一图像数据,对第一图像数据中的目标对象进行边缘点识别,得到目标对象的边缘点对应的第一坐标数据;所述边缘点的数量为N个,N为正整数;所述N个边缘点包括边缘点Si,i为小于等于N的正整数;
边缘点扩散模块,用于基于第一坐标数据对边缘点进行外部扩散,得到边缘点对应的外部点以及外部点对应的第二坐标数据;所述边缘点Si对应的外部点的数量为一个,且所述边缘点Si对应的外部点是基于所述边缘点Si对应的第一坐标数据和贴图内容宽度所确定的;所述N个边缘点分别对应的第一坐标数据之间具有空间顺序关系,N个外部点分别对应的第二坐标数据之间具有空间顺序关系;
顺序连接模块,用于基于第一坐标数据和第二坐标数据,对边缘点和外部点进行顺序连接,得到贴图闭环区域;
图像采集模块,用于获取纹理图像,从纹理图像中获取与贴图闭环区域匹配的第一顶点坐标组,在纹理图像中采集第一顶点坐标组所指示的第一纹理区域图像;
第二图像数据获取模块,用于将第一纹理区域图像在贴图闭环区域中进行贴图处理,得到第二图像数据;第二图像数据中的目标对象的边缘位置处显示有由第一纹理区域图像所构成的贴图内容;
其中,所述顺序连接模块,包括:
相邻边缘点确定单元,用于基于所述第一坐标数据之间的空间顺序关系和所述第二坐标数据之间的空间顺序关系,确定所述边缘点Si对应的相邻边缘点,将所述相邻边缘点中未被连接的相邻边缘点确定为待处理边缘点;
第一边缘线条获取单元,用于将所述边缘点Si与所述边缘点Si对应的外部点进行连接处理,得到第一边缘线条;
第二边缘线条获取单元,用于将所述边缘点Si对应的外部点与所述待处理边缘点进行连接处理,得到第二边缘线条;
第三边缘线条获取单元,用于将所述边缘点Si与所述待处理边缘点连接处理,得到第三边缘线条;
贴图闭环区域确定单元,用于将由所述第一边缘线条、所述第二边缘线条与所述第三边缘线条构成的区域确定为所述边缘点Si对应的贴图闭环区域,直至得到每个边缘点对应的贴图闭环区域。
11.一种计算机设备,其特征在于,包括:处理器、存储器以及网络接口;
处理器与存储器、网络接口相连,其中,网络接口用于提供数据通信功能,存储器用于存储计算机程序,处理器用于调用计算机程序,以使得计算机设备执行权利要求1-9任一项所述的方法。
12.一种计算机可读存储介质,其特征在于,计算机可读存储介质中存储有计算机程序,计算机程序适于由处理器加载并执行,以使得具有处理器的计算机设备执行权利要求1-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311041891.0A CN116777940B (zh) | 2023-08-18 | 2023-08-18 | 一种数据处理方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311041891.0A CN116777940B (zh) | 2023-08-18 | 2023-08-18 | 一种数据处理方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116777940A CN116777940A (zh) | 2023-09-19 |
CN116777940B true CN116777940B (zh) | 2023-11-21 |
Family
ID=87986175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311041891.0A Active CN116777940B (zh) | 2023-08-18 | 2023-08-18 | 一种数据处理方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116777940B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112489169A (zh) * | 2020-12-17 | 2021-03-12 | 脸萌有限公司 | 人像图像处理方法及装置 |
CN113496140A (zh) * | 2020-03-18 | 2021-10-12 | 北京沃东天骏信息技术有限公司 | 虹膜定位方法以及美瞳虚拟试戴方法和装置 |
CN113760161A (zh) * | 2021-08-31 | 2021-12-07 | 北京市商汤科技开发有限公司 | 数据生成、图像处理方法、装置、设备及存储介质 |
CN114125320A (zh) * | 2021-08-31 | 2022-03-01 | 北京达佳互联信息技术有限公司 | 一种图像特效的生成方法及装置 |
CN114445269A (zh) * | 2022-02-09 | 2022-05-06 | 北京字跳网络技术有限公司 | 一种图像特效处理方法、装置、设备及介质 |
CN114842120A (zh) * | 2022-05-19 | 2022-08-02 | 北京字跳网络技术有限公司 | 一种图像渲染处理方法、装置、设备及介质 |
CN115311396A (zh) * | 2022-08-09 | 2022-11-08 | 北京飞渡科技有限公司 | 一种超高建筑物屋顶轮廓线的自动提取方法及系统 |
CN115619902A (zh) * | 2021-07-16 | 2023-01-17 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、设备及介质 |
-
2023
- 2023-08-18 CN CN202311041891.0A patent/CN116777940B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113496140A (zh) * | 2020-03-18 | 2021-10-12 | 北京沃东天骏信息技术有限公司 | 虹膜定位方法以及美瞳虚拟试戴方法和装置 |
CN112489169A (zh) * | 2020-12-17 | 2021-03-12 | 脸萌有限公司 | 人像图像处理方法及装置 |
CN115619902A (zh) * | 2021-07-16 | 2023-01-17 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、设备及介质 |
CN113760161A (zh) * | 2021-08-31 | 2021-12-07 | 北京市商汤科技开发有限公司 | 数据生成、图像处理方法、装置、设备及存储介质 |
CN114125320A (zh) * | 2021-08-31 | 2022-03-01 | 北京达佳互联信息技术有限公司 | 一种图像特效的生成方法及装置 |
WO2023029379A1 (zh) * | 2021-08-31 | 2023-03-09 | 北京达佳互联信息技术有限公司 | 图像特效的生成方法及装置 |
CN114445269A (zh) * | 2022-02-09 | 2022-05-06 | 北京字跳网络技术有限公司 | 一种图像特效处理方法、装置、设备及介质 |
CN114842120A (zh) * | 2022-05-19 | 2022-08-02 | 北京字跳网络技术有限公司 | 一种图像渲染处理方法、装置、设备及介质 |
CN115311396A (zh) * | 2022-08-09 | 2022-11-08 | 北京飞渡科技有限公司 | 一种超高建筑物屋顶轮廓线的自动提取方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116777940A (zh) | 2023-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108648269B (zh) | 三维建筑物模型的单体化方法和系统 | |
CN113781626B (zh) | 遍历在射线追踪中使用的数据的技术 | |
Panek et al. | Meshloc: Mesh-based visual localization | |
EP3035292B1 (en) | 3d rendering method and apparatus | |
DE102019103059A1 (de) | Hieb- und stichfester Strahl-Dreieck-Schnittpunkt | |
CN112270756A (zh) | 一种应用于bim模型文件的数据渲染方法 | |
DE102019101873A1 (de) | Abfragespezifische Verhaltensmodifizierung von Baumtraversierung | |
DE102019103058A1 (de) | Verfahren für fortgesetzte begrenzungsvolumenhierarchietraversierung auf schnittpunkte ohne shader-intervention | |
Uchida et al. | Noise-robust transparent visualization of large-scale point clouds acquired by laser scanning | |
CN111640180B (zh) | 一种三维重建方法、装置及终端设备 | |
US10210618B1 (en) | Object image masking using depth cameras or three-dimensional (3D) models | |
CN113781624A (zh) | 具有可选的世界空间变换的光线跟踪硬件加速 | |
CN111652791B (zh) | 人脸的替换显示、直播方法、装置、电子设备和存储介质 | |
DE102021130031A1 (de) | Erscheinungsbildgesteuerte automatische dreidimensionale modellierung | |
US20240203030A1 (en) | 3d model rendering method and apparatus, electronic device, and storage medium | |
US20110242271A1 (en) | Synthesizing Panoramic Three-Dimensional Images | |
CN117351133B (zh) | 一种数据渲染方法、装置、设备及计算机可读存储介质 | |
CN113129420B (zh) | 一种基于深度缓冲加速的光线追踪渲染方法 | |
CN116777940B (zh) | 一种数据处理方法、装置、设备及存储介质 | |
CN117315295A (zh) | 一种bim模型相似度计算方法、系统、设备及存储介质 | |
Nguyen et al. | High-definition texture reconstruction for 3D image-based modeling | |
Kniaz et al. | Deep learning a single photo voxel model prediction from real and synthetic images | |
Marek et al. | Optimization of 3d rendering in mobile devices | |
Li et al. | Semantic volume texture for virtual city building model visualisation | |
CN114330708A (zh) | 基于点云数据的神经网络训练方法、系统、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40092329 Country of ref document: HK |