CN117974853A - 同源微表情图像自适应切换生成方法、系统、终端及介质 - Google Patents
同源微表情图像自适应切换生成方法、系统、终端及介质 Download PDFInfo
- Publication number
- CN117974853A CN117974853A CN202410369815.0A CN202410369815A CN117974853A CN 117974853 A CN117974853 A CN 117974853A CN 202410369815 A CN202410369815 A CN 202410369815A CN 117974853 A CN117974853 A CN 117974853A
- Authority
- CN
- China
- Prior art keywords
- micro
- processed
- image
- processing
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012545 processing Methods 0.000 claims abstract description 90
- 238000009826 distribution Methods 0.000 claims abstract description 20
- 239000013598 vector Substances 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 13
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
Abstract
本发明公开了同源微表情图像自适应切换生成方法、系统、终端及介质,涉及图像处理技术领域,其技术方案要点是:提取第一微表情图像中的轮廓特征、尺寸特征和分布位置特征;获取目标微表情,并根据目标微表情与第一微表情图像所表征微表情之间的差异性确定第一微表情图像中的待处理部位;依据差异性从数据库中匹配得到待处理部位的处理指令;依据处理指令和相应部位的轮廓特征、尺寸特征与分布位置特征在第一微表情图像中待处理部位处生成对应的切换处理特征;将切换处理特征与第一微表情图像中待处理部位的初始部位特征融合,得到第二微表情图像。本发明可以实现两个微表情图像之间的自动切换处理,有效提高了人脸图像生成的工作效率。
Description
技术领域
本发明涉及图像处理技术领域,更具体地说,它涉及同源微表情图像自适应切换生成方法、系统、终端及介质。
背景技术
逐帧动画是一种常见的动画形式,通过在时间轴的每帧上逐帧绘制不同的内容,使其连续播放而成动画。逐帧动画具有非常大的灵活性,可以表现任何想表现的内容,适合于表演细腻的动画。
目前,在同一剧情下的多帧连续图像中,动画人物的人脸图像之间差异主要体现在不同的表情表达,如微笑、大笑、哭、难受等微表情图像之间的差异一般体现在眼睛、嘴唇、鼻子、眉毛等部位。而以往动画制作过程中的每帧图像均是独立完成,这在一定程度上会存在较多的重复工作,导致动画制作效率较低;此外,由于不同制作人员对于表情表达的认知可能存在差异,这就容易导致所制作的动画难以快速、准确的达到预期效果。
因此,如何研究设计一种能够克服上述缺陷的同源微表情图像自适应切换生成方法、系统、终端及介质。
发明内容
为解决现有技术中的不足,本发明的目的是提供同源微表情图像自适应切换生成方法、系统、终端及介质,针对同源的两个微表情图像,可以微表情之间的差异性适应性确定微表情图像之间切换处理所需要处理的部位,再依据所匹配的处理指令和相应部位的轮廓特征、尺寸特征与分布位置特征在第一微表情图像中待处理部位处生成对应的切换处理特征,可以实现两个微表情图像之间的自动切换处理,有效提高了人脸图像生成的工作效率。
本发明的上述技术目的是通过以下技术方案得以实现的:
第一方面,提供了同源微表情图像自适应切换生成方法,包括以下步骤:
提取第一微表情图像中的轮廓特征、尺寸特征和分布位置特征;
获取目标微表情,并根据目标微表情与第一微表情图像所表征微表情之间的差异性确定第一微表情图像中的待处理部位;
依据差异性从数据库中匹配得到待处理部位的处理指令;
依据处理指令和相应部位的轮廓特征、尺寸特征与分布位置特征在第一微表情图像中待处理部位处生成对应的切换处理特征;
将切换处理特征与第一微表情图像中待处理部位的初始部位特征融合,得到第二微表情图像。
进一步的,若所述待处理部位为待增加部位,则处理指令包括模型匹配指令和缩放调整指令;
若所述待处理部位为待删除部位,则处理指令为删除命令;
和/或,若所述待处理部位为待修改部位,则处理指令包括等分点方向指令和比例控制指令。
进一步的,若所述待处理部位为待增加部位,则切换处理特征的生成过程具体为:
依据模型匹配指令从模型库中匹配得到相应待处理部位的参考模型,参考模型的属性中配置有参考长度参数和参考宽度参数;
计算待处理部位的尺寸特征中的实际长度参数与参考长度参数的比值,得到长度缩放值;
计算待处理部位的尺寸特征中的实际宽度参数与参考宽度参数的比值,得到宽度缩放值;
依据缩放调整指令将参考模型按照长度缩放值和宽度缩放值进行缩放调整,得到切换处理特征。
进一步的,所述分布位置特征包括至少一个部位的中心点坐标以及待增加部位与该部位之间的位差向量;
所述待处理部位为待增加部位时初始部位特征视为没有,则依据位差向量直接将切换处理特征放置在第一微表情图像中。
进一步的,若所述待处理部位为待修改部位,则切换处理特征的生成过程具体为:
依据等分点方向指令确定初始部位特征中待修改的边界轮廓线;
根据等分点方向指令中等分点方向向量的数量对边界轮廓线进行等分处理;
以边界轮廓线中的等分点作为相应等分点方向向量的起点,刻画出各个等分点方向向量;
依据比例控制指令中与等分点方向向量一一对应的比例控制参数将边界轮廓线上的刻画点在等分点方向向量上进行移位修改;
将相邻移位后的刻画点进行连线处理后得到已修改的边界轮廓线,所有已修改的边界轮廓线和初始部位特征中不需要进行修改的边界轮廓线构成切换处理特征。
进一步的,所述边界轮廓线上的每一个折线点均需刻画等分点方向向量。
进一步的,所述将切换处理特征与第一微表情图像中待处理部位的初始部位特征融合的过程具体为:
将初始部位特征中待修改的边界轮廓线进行删除,并以对应的已修改的边界轮廓线进行替代;
所有待处理部位均完成融合后,得到第二微表情图像。
第二方面,提供了同源微表情图像自适应切换生成系统,包括:
特征提取模块,用于提取第一微表情图像中的轮廓特征、尺寸特征和分布位置特征;
部位确定模块,用于获取目标微表情,并根据目标微表情与第一微表情图像所表征微表情之间的差异性确定第一微表情图像中的待处理部位;
指令匹配模块,用于依据差异性从数据库中匹配得到待处理部位的处理指令;
特征生成模块,用于依据处理指令和相应部位的轮廓特征、尺寸特征与分布位置特征在第一微表情图像中待处理部位处生成对应的切换处理特征;
图像生成模块,用于将切换处理特征与第一微表情图像中待处理部位的初始部位特征融合,得到第二微表情图像。
第三方面,提供了一种计算机终端,包含存储器、处理器及存储在存储器并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面中任意一项所述的同源微表情图像自适应切换生成方法。
第四方面,提供了一种计算机可读介质,其上存储有计算机程序,所述计算机程序被处理器执行可实现如第一方面中任意一项所述的同源微表情图像自适应切换生成方法。
与现有技术相比,本发明具有以下有益效果:
1、本发明提供的同源微表情图像自适应切换生成方法,针对同源的两个微表情图像,可以微表情之间的差异性适应性确定微表情图像之间切换处理所需要处理的部位,再依据所匹配的处理指令和相应部位的轮廓特征、尺寸特征与分布位置特征在第一微表情图像中待处理部位处生成对应的切换处理特征,可以实现两个微表情图像之间的自动切换处理,有效提高了人脸图像生成的工作效率;
2、本发明在待处理部位为待修改部位时,在第一微表情图像的基础上,依据分点方向指令可以初步确定初始部位特征中待修改的边界轮廓线,再结合比例控制指令可以直接得到已修改的边界轮廓线,无需图像定位校准,保证了所生成的第二微表情图像的整体协调性;
3、本发明在待处理部位为待修改部位时,依据等分点方向指令中等分点方向向量的数量对边界轮廓线进行等分处理,可以自适应处理不同大小的人脸图像,无需统一成同一标准大小。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。在附图中:
图1是本发明实施例1中的流程图;
图2是本发明实施例2中的系统框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
实施例1:同源微表情图像自适应切换生成方法,如图1所示,包括以下步骤:
步骤一:提取第一微表情图像中的轮廓特征、尺寸特征和分布位置特征;
步骤二:获取目标微表情,并根据目标微表情与第一微表情图像所表征微表情之间的差异性确定第一微表情图像中的待处理部位;
步骤三:依据差异性从数据库中匹配得到待处理部位的处理指令;
步骤四:依据处理指令和相应部位的轮廓特征、尺寸特征与分布位置特征在第一微表情图像中待处理部位处生成对应的切换处理特征;
步骤五:将切换处理特征与第一微表情图像中待处理部位的初始部位特征融合,得到第二微表情图像。
由于微表情图像类别较多,所以本发明将微表情图像之间的差异分为待增加、待删除和待修改的部位。例如,微笑的微表情与大笑的微表情之间就存在唇部大小差异,其分为待修改的部位。又例如,调皮的微表情与安静的微表情之间存在舌头部位的有无,其分为待增加或待删除的部位。
在本实施例中,若待处理部位为待增加部位,则处理指令包括模型匹配指令和缩放调整指令,切换处理特征的生成过程具体为:依据模型匹配指令从模型库中匹配得到相应待处理部位的参考模型,参考模型的属性中配置有参考长度参数和参考宽度参数;计算待处理部位的尺寸特征中的实际长度参数与参考长度参数的比值,得到长度缩放值;计算待处理部位的尺寸特征中的实际宽度参数与参考宽度参数的比值,得到宽度缩放值;依据缩放调整指令将参考模型按照长度缩放值和宽度缩放值进行缩放调整,得到切换处理特征。
在本实施例中,则处理指令为删除命令,则直接将第二微表情图像多余的差异部位删除。
在本实施例中,若待处理部位为待修改部位,则处理指令包括等分点方向指令和比例控制指令,切换处理特征的生成过程具体为:依据等分点方向指令确定初始部位特征中待修改的边界轮廓线;根据等分点方向指令中等分点方向向量的数量对边界轮廓线进行等分处理;以边界轮廓线中的等分点作为相应等分点方向向量的起点,刻画出各个等分点方向向量;依据比例控制指令中与等分点方向向量一一对应的比例控制参数将边界轮廓线上的刻画点在等分点方向向量上进行移位修改;将相邻移位后的刻画点进行连线处理后得到已修改的边界轮廓线,所有已修改的边界轮廓线和初始部位特征中不需要进行修改的边界轮廓线构成切换处理特征。
本发明在匹配得到待处理部位的处理指令后,还可以依据轮廓特征去匹配指令调整参数,经过指令调整参数对处理指令进行修改后能够适用于形态各异的人脸图像处理,进一步保证了同源微表情图像自适应切换生成的可靠性。例如,依据指令调整参数来缩放比例控制指令。
而比例控制指令实现的主要是在待修改的边界轮廓线尺寸大小基础上进行调整的,以嘴唇为例,上嘴唇与下嘴唇之间在竖直方向的高度差可以为整个嘴唇的宽度参数,如18mm。需要说明的是,宽度参数的具体值与等分点方向相关。当嘴唇所匹配的一个等分点方向指令的方向角为正90度时。例如,比例控制指令为0.8,即表示将整个嘴唇的宽度参数调整为18mm×0.8=14.4mm。又例如,比例控制指令为1.2,即表示将整个嘴唇的宽度参数调整为18mm×1.2=21.6mm。
本发明在待处理部位为待修改部位时,在第一微表情图像的基础上,依据分点方向指令可以初步确定初始部位特征中待修改的边界轮廓线,再结合比例控制指令可以直接得到已修改的边界轮廓线,无需图像定位校准,保证了所生成的第二微表情图像的整体协调性;此外,本发明在待处理部位为待修改部位时,依据等分点方向指令中等分点方向向量的数量对边界轮廓线进行等分处理,可以自适应处理不同大小的人脸图像,无需统一成同一标准大小。
分布位置特征包括至少一个部位的中心点坐标以及待增加部位与该部位之间的位差向量;待处理部位为待增加部位时初始部位特征视为没有,则依据位差向量直接将切换处理特征放置在第一微表情图像中。
例如,惊讶的微表情图像与微笑的微表情图像之间,其牙齿部位为待增加部位,在通过模型生成对应的切换处理特征后,需要将该牙齿部位放置在第一微表情图像中,通过中心点坐标定位可以初步的将牙齿部位放置唇部位置,但可能存在方向偏差,所以再结合唇部与牙齿部位之间的位差向量对牙齿部位进行定位校准。位差向量可以采用两个部位的中心点坐标之差计算得到。
需要说明的是,为了保证轮廓线的形态不发生较大差异,边界轮廓线上的每一个折线点均需刻画等分点方向向量,这样方便准确的插点连线处理。
将切换处理特征与第一微表情图像中待处理部位的初始部位特征融合的过程具体为:将初始部位特征中待修改的边界轮廓线进行删除,并以对应的已修改的边界轮廓线进行替代;所有待处理部位均完成融合后,得到第二微表情图像。
需要说明的是,为了在插点连线处理时保持两刻画点之间的形态相似度,可以在初始阶段复制出一个第一微表情图像,再将第一微表情图像中待处理部位的线条进行虚拟化处理,以得到可以移动、删除的组合点,这样可以通过移动待修改的边界轮廓线上的点来插值形成相似度更高的已修改的边界轮廓线。
另外,本发明主要针对的是人脸图像之间的线条处理,不考虑内部的灰度值变化,其可以应用于表情娱乐、动画制作、人脸识别等应用场景中。
本发明中的处理指令可以基于机器学习算法对各种样本数据进行训练获得,而针对一种微表情的切换可以形成一组样本数据,但在该组样本数据中需包括不同尺寸大小的样本,经过训练得到处理指令,需要达到至少90%以上的样本能够完成验证。
实施例2:同源微表情图像自适应切换生成系统,该系统用于实现实施例1中所记载的同源微表情图像自适应切换生成方法,如图2所示,包括特征提取模块、部位确定模块、指令匹配模块、特征生成模块和图像生成模块。
其中,特征提取模块,用于提取第一微表情图像中的轮廓特征、尺寸特征和分布位置特征;部位确定模块,用于获取目标微表情,并根据目标微表情与第一微表情图像所表征微表情之间的差异性确定第一微表情图像中的待处理部位;指令匹配模块,用于依据差异性从数据库中匹配得到待处理部位的处理指令;特征生成模块,用于依据处理指令和相应部位的轮廓特征、尺寸特征与分布位置特征在第一微表情图像中待处理部位处生成对应的切换处理特征;图像生成模块,用于将切换处理特征与第一微表情图像中待处理部位的初始部位特征融合,得到第二微表情图像。
工作原理:本发明针对同源的两个微表情图像,可以微表情之间的差异性适应性确定微表情图像之间切换处理所需要处理的部位,再依据所匹配的处理指令和相应部位的轮廓特征、尺寸特征与分布位置特征在第一微表情图像中待处理部位处生成对应的切换处理特征,可以实现两个微表情图像之间的自动切换处理,有效提高了人脸图像生成的工作效率。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.同源微表情图像自适应切换生成方法,其特征是,包括以下步骤:
提取第一微表情图像中的轮廓特征、尺寸特征和分布位置特征;
获取目标微表情,并根据目标微表情与第一微表情图像所表征微表情之间的差异性确定第一微表情图像中的待处理部位;
依据差异性从数据库中匹配得到待处理部位的处理指令;
依据处理指令和相应部位的轮廓特征、尺寸特征与分布位置特征在第一微表情图像中待处理部位处生成对应的切换处理特征;
将切换处理特征与第一微表情图像中待处理部位的初始部位特征融合,得到第二微表情图像。
2.根据权利要求1所述的同源微表情图像自适应切换生成方法,其特征是,若所述待处理部位为待增加部位,则处理指令包括模型匹配指令和缩放调整指令;
若所述待处理部位为待删除部位,则处理指令为删除命令;
和/或,若所述待处理部位为待修改部位,则处理指令包括等分点方向指令和比例控制指令。
3.根据权利要求2所述的同源微表情图像自适应切换生成方法,其特征是,若所述待处理部位为待增加部位,则切换处理特征的生成过程具体为:
依据模型匹配指令从模型库中匹配得到相应待处理部位的参考模型,参考模型的属性中配置有参考长度参数和参考宽度参数;
计算待处理部位的尺寸特征中的实际长度参数与参考长度参数的比值,得到长度缩放值;
计算待处理部位的尺寸特征中的实际宽度参数与参考宽度参数的比值,得到宽度缩放值;
依据缩放调整指令将参考模型按照长度缩放值和宽度缩放值进行缩放调整,得到切换处理特征。
4.根据权利要求3所述的同源微表情图像自适应切换生成方法,其特征是,所述分布位置特征包括至少一个部位的中心点坐标以及待增加部位与该部位之间的位差向量;
所述待处理部位为待增加部位时初始部位特征视为没有,则依据位差向量直接将切换处理特征放置在第一微表情图像中。
5.根据权利要求2所述的同源微表情图像自适应切换生成方法,其特征是,若所述待处理部位为待修改部位,则切换处理特征的生成过程具体为:
依据等分点方向指令确定初始部位特征中待修改的边界轮廓线;
根据等分点方向指令中等分点方向向量的数量对边界轮廓线进行等分处理;
以边界轮廓线中的等分点作为相应等分点方向向量的起点,刻画出各个等分点方向向量;
依据比例控制指令中与等分点方向向量一一对应的比例控制参数将边界轮廓线上的刻画点在等分点方向向量上进行移位修改;
将相邻移位后的刻画点进行连线处理后得到已修改的边界轮廓线,所有已修改的边界轮廓线和初始部位特征中不需要进行修改的边界轮廓线构成切换处理特征。
6.根据权利要求5所述的同源微表情图像自适应切换生成方法,其特征是,所述边界轮廓线上的每一个折线点均需刻画等分点方向向量。
7.根据权利要求5所述的同源微表情图像自适应切换生成方法,其特征是,所述将切换处理特征与第一微表情图像中待处理部位的初始部位特征融合的过程具体为:
将初始部位特征中待修改的边界轮廓线进行删除,并以对应的已修改的边界轮廓线进行替代;
所有待处理部位均完成融合后,得到第二微表情图像。
8.同源微表情图像自适应切换生成系统,其特征是,包括:
特征提取模块,用于提取第一微表情图像中的轮廓特征、尺寸特征和分布位置特征;
部位确定模块,用于获取目标微表情,并根据目标微表情与第一微表情图像所表征微表情之间的差异性确定第一微表情图像中的待处理部位;
指令匹配模块,用于依据差异性从数据库中匹配得到待处理部位的处理指令;
特征生成模块,用于依据处理指令和相应部位的轮廓特征、尺寸特征与分布位置特征在第一微表情图像中待处理部位处生成对应的切换处理特征;
图像生成模块,用于将切换处理特征与第一微表情图像中待处理部位的初始部位特征融合,得到第二微表情图像。
9.一种计算机终端,包含存储器、处理器及存储在存储器并可在处理器上运行的计算机程序,其特征是,所述处理器执行所述程序时实现如权利要求1-7中任意一项所述的同源微表情图像自适应切换生成方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征是,所述计算机程序被处理器执行可实现如权利要求1-7中任意一项所述的同源微表情图像自适应切换生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410369815.0A CN117974853B (zh) | 2024-03-29 | 2024-03-29 | 同源微表情图像自适应切换生成方法、系统、终端及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410369815.0A CN117974853B (zh) | 2024-03-29 | 2024-03-29 | 同源微表情图像自适应切换生成方法、系统、终端及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117974853A true CN117974853A (zh) | 2024-05-03 |
CN117974853B CN117974853B (zh) | 2024-06-11 |
Family
ID=90858390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410369815.0A Active CN117974853B (zh) | 2024-03-29 | 2024-03-29 | 同源微表情图像自适应切换生成方法、系统、终端及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117974853B (zh) |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002304638A (ja) * | 2001-04-03 | 2002-10-18 | Atr Ningen Joho Tsushin Kenkyusho:Kk | 表情アニメーション生成装置および表情アニメーション生成方法 |
CN102509333A (zh) * | 2011-12-07 | 2012-06-20 | 浙江大学 | 基于动作捕获数据驱动的二维卡通表情动画制作方法 |
US20180173942A1 (en) * | 2016-12-16 | 2018-06-21 | Samsung Electronics Co., Ltd. | Method and apparatus for generating facial expression and training method for generating facial expression |
CN108710325A (zh) * | 2018-05-24 | 2018-10-26 | 香港中文大学(深圳) | 微表情生成装置、方法 |
CN109949390A (zh) * | 2017-12-21 | 2019-06-28 | 腾讯科技(深圳)有限公司 | 图像生成方法、动态表情图像生成方法及装置 |
CN110096925A (zh) * | 2018-01-30 | 2019-08-06 | 普天信息技术有限公司 | 人脸表情图像的增强方法、获取方法和装置 |
CN110222597A (zh) * | 2019-05-21 | 2019-09-10 | 平安科技(深圳)有限公司 | 基于微表情调节屏幕显示的方法及装置 |
CN110458916A (zh) * | 2019-07-05 | 2019-11-15 | 深圳壹账通智能科技有限公司 | 表情包自动生成方法、装置、计算机设备及存储介质 |
CN110942503A (zh) * | 2019-11-13 | 2020-03-31 | 中南大学 | 一种基于虚拟人脸模型的微表情数据生成方法 |
WO2020211347A1 (zh) * | 2019-04-16 | 2020-10-22 | 平安科技(深圳)有限公司 | 基于人脸识别的修改图片的方法、装置和计算机设备 |
CN111968203A (zh) * | 2020-06-30 | 2020-11-20 | 北京百度网讯科技有限公司 | 动画驱动方法、装置、电子设备及存储介质 |
CN112364787A (zh) * | 2020-11-13 | 2021-02-12 | 江苏汉德天坤数字技术有限公司 | 一种面部微表情识别方法 |
WO2021027759A1 (en) * | 2019-08-15 | 2021-02-18 | Huawei Technologies Co., Ltd. | Facial image processing |
US20220028031A1 (en) * | 2019-11-05 | 2022-01-27 | Tencent Technology (Shenzhen) Company Limited | Image processing method and apparatus, device, and storage medium |
US20220121841A1 (en) * | 2020-10-20 | 2022-04-21 | Adobe Inc. | Utilizing a machine learning model trained to determine subtle pose differentiations to automatically capture digital images |
CN114549706A (zh) * | 2022-02-21 | 2022-05-27 | 成都工业学院 | 一种动画生成方法及动画生成装置 |
CN115564642A (zh) * | 2022-12-05 | 2023-01-03 | 腾讯科技(深圳)有限公司 | 图像变换方法、装置、电子设备、存储介质及程序产品 |
US20230368409A1 (en) * | 2022-05-13 | 2023-11-16 | Fujitsu Limited | Storage medium, model training method, and model training device |
CN117576753A (zh) * | 2023-11-24 | 2024-02-20 | 杭州电子科技大学 | 基于面部关键点的注意力特征融合的微表情识别方法 |
-
2024
- 2024-03-29 CN CN202410369815.0A patent/CN117974853B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002304638A (ja) * | 2001-04-03 | 2002-10-18 | Atr Ningen Joho Tsushin Kenkyusho:Kk | 表情アニメーション生成装置および表情アニメーション生成方法 |
CN102509333A (zh) * | 2011-12-07 | 2012-06-20 | 浙江大学 | 基于动作捕获数据驱动的二维卡通表情动画制作方法 |
US20180173942A1 (en) * | 2016-12-16 | 2018-06-21 | Samsung Electronics Co., Ltd. | Method and apparatus for generating facial expression and training method for generating facial expression |
CN109949390A (zh) * | 2017-12-21 | 2019-06-28 | 腾讯科技(深圳)有限公司 | 图像生成方法、动态表情图像生成方法及装置 |
CN110096925A (zh) * | 2018-01-30 | 2019-08-06 | 普天信息技术有限公司 | 人脸表情图像的增强方法、获取方法和装置 |
CN108710325A (zh) * | 2018-05-24 | 2018-10-26 | 香港中文大学(深圳) | 微表情生成装置、方法 |
WO2020211347A1 (zh) * | 2019-04-16 | 2020-10-22 | 平安科技(深圳)有限公司 | 基于人脸识别的修改图片的方法、装置和计算机设备 |
CN110222597A (zh) * | 2019-05-21 | 2019-09-10 | 平安科技(深圳)有限公司 | 基于微表情调节屏幕显示的方法及装置 |
CN110458916A (zh) * | 2019-07-05 | 2019-11-15 | 深圳壹账通智能科技有限公司 | 表情包自动生成方法、装置、计算机设备及存储介质 |
WO2021027759A1 (en) * | 2019-08-15 | 2021-02-18 | Huawei Technologies Co., Ltd. | Facial image processing |
US20220028031A1 (en) * | 2019-11-05 | 2022-01-27 | Tencent Technology (Shenzhen) Company Limited | Image processing method and apparatus, device, and storage medium |
CN110942503A (zh) * | 2019-11-13 | 2020-03-31 | 中南大学 | 一种基于虚拟人脸模型的微表情数据生成方法 |
CN111968203A (zh) * | 2020-06-30 | 2020-11-20 | 北京百度网讯科技有限公司 | 动画驱动方法、装置、电子设备及存储介质 |
US20220121841A1 (en) * | 2020-10-20 | 2022-04-21 | Adobe Inc. | Utilizing a machine learning model trained to determine subtle pose differentiations to automatically capture digital images |
CN112364787A (zh) * | 2020-11-13 | 2021-02-12 | 江苏汉德天坤数字技术有限公司 | 一种面部微表情识别方法 |
CN114549706A (zh) * | 2022-02-21 | 2022-05-27 | 成都工业学院 | 一种动画生成方法及动画生成装置 |
US20230368409A1 (en) * | 2022-05-13 | 2023-11-16 | Fujitsu Limited | Storage medium, model training method, and model training device |
CN115564642A (zh) * | 2022-12-05 | 2023-01-03 | 腾讯科技(深圳)有限公司 | 图像变换方法、装置、电子设备、存储介质及程序产品 |
CN117576753A (zh) * | 2023-11-24 | 2024-02-20 | 杭州电子科技大学 | 基于面部关键点的注意力特征融合的微表情识别方法 |
Non-Patent Citations (5)
Title |
---|
DINMUKHAMED MUKASHEV: "Facial expression generation of 3D avatar based on semantic analysis", 2021 30TH IEEE INTERNATIONAL CONFERENCE ON ROBOT & HUMAN INTERACTIVE COMMUNICATION (RO-MAN), 23 August 2021 (2021-08-23) * |
TIAN XIA: "Expression recognition in the wild with transfer learning", 2017 9TH INTERNATIONAL CONFERENCE ON WIRELESS COMMUNICATIONS AND SIGNAL PROCESSING (WCSP), 11 December 2017 (2017-12-11) * |
刘源: "数字动画增强现实技术在文化产业中的应用研究", 绿色包装, no. 9, 30 September 2022 (2022-09-30) * |
卢情义: "基于领域适应的跨角度面部表情图像生成和识别", 中国优秀硕士学位论文全文数据库-信息科技辑, 15 March 2022 (2022-03-15) * |
宋红: "多表情人脸肖像的自动生成", 电子学报, vol. 41, no. 8, 31 August 2013 (2013-08-31) * |
Also Published As
Publication number | Publication date |
---|---|
CN117974853B (zh) | 2024-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9609307B1 (en) | Method of converting 2D video to 3D video using machine learning | |
CN101156175B (zh) | 3d对象的基于深度图像呈现方法和使用该方法的建模方法和设备以及渲染方法和设备 | |
US8624901B2 (en) | Apparatus and method for generating facial animation | |
CN111640173B (zh) | 一种基于特定路径的家装漫游动画的云端渲染方法及系统 | |
CN113128449A (zh) | 用于人脸图像处理的神经网络训练、人脸图像处理方法及装置 | |
KR20070073803A (ko) | 비디오 이미지들을 처리하기 위한 시스템 및 방법 | |
CN113689538A (zh) | 一种视频生成方法、装置、电子设备及存储介质 | |
CN116997933A (zh) | 用于构造面部位置图的方法和系统 | |
WO2019097240A1 (en) | A method of generating training data | |
AU2006345533B2 (en) | Multi-tracking of video objects | |
CN116583881A (zh) | 用于体积视频数据的数据流、设备和方法 | |
CN117974853B (zh) | 同源微表情图像自适应切换生成方法、系统、终端及介质 | |
KR20010102718A (ko) | 애니메이션 영상 합성 장치 및 방법 | |
JP6807034B2 (ja) | 画像処理装置および画像処理方法 | |
US20210158590A1 (en) | Facial animation retargeting using an anatomical local model | |
Liu et al. | A framework for locally retargeting and rendering facial performance | |
KR100602739B1 (ko) | 재귀적 제어선 정합을 이용한 반자동 필드 기반 영상 변형방법 | |
KR101780496B1 (ko) | 컴퓨터그래픽 툴에 의한 캐릭터 모델링 기반 3d 디지털액터 영상 구현방법 | |
CN114241052A (zh) | 基于布局图的多物体场景新视角图像生成方法及系统 | |
Somepalli et al. | Implementation of single camera markerless facial motion capture using blendshapes | |
KR100322618B1 (ko) | 디지털 동화 생성 방법 및 장치 | |
Lee et al. | Real-time Object Segmentation based on GPU | |
Hu et al. | MGSO: Monocular Real-time Photometric SLAM with Efficient 3D Gaussian Splatting | |
Löfgren et al. | Generating Synthetic Data for Evaluation and Improvement of Deep 6D Pose Estimation | |
KR101999066B1 (ko) | 2차원 화상공간의 음영 처리 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |