CN112800893A - 一种基于强化学习的人脸属性编辑方法 - Google Patents

一种基于强化学习的人脸属性编辑方法 Download PDF

Info

Publication number
CN112800893A
CN112800893A CN202110060945.2A CN202110060945A CN112800893A CN 112800893 A CN112800893 A CN 112800893A CN 202110060945 A CN202110060945 A CN 202110060945A CN 112800893 A CN112800893 A CN 112800893A
Authority
CN
China
Prior art keywords
state
value
attribute
reinforcement learning
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110060945.2A
Other languages
English (en)
Other versions
CN112800893B (zh
Inventor
谭晓阳
任国伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202110060945.2A priority Critical patent/CN112800893B/zh
Publication of CN112800893A publication Critical patent/CN112800893A/zh
Application granted granted Critical
Publication of CN112800893B publication Critical patent/CN112800893B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于强化学习的人脸属性编辑方法,包括如下步骤:在预训练的生成器模型空间中获取人脸的中间潜在向量表示并将其作为强化学习的初始状态;将获取的初始状态输入Actor网络计算得到一个确定的动作值作为编辑属性的方向向量;对得到的动作值添加随训练过程逐渐减小的高斯噪声作为最终与环境交互的动作;执行采取的动作进行交互获得下一状态值;将前后两次状态值输入生成器模型转换为人脸图像;利用人脸属性评价器得到两张人脸的属性差异并计算环境奖励;利用奖励信号通过神经网络的梯度反向传播分别更新Actor和Critic网络的参数。本发明能够减少训练所需要多标签数据集,同时提供很好的属性解耦,最大化的保持原有人脸的身份特质。

Description

一种基于强化学习的人脸属性编辑方法
技术领域
本发明涉及计算机视觉技术领域,尤其是一种基于强化学习的人脸属性编辑方法。
背景技术
现实中人脸属性编辑多用于移动端相关人脸娱乐应用中,如查看自己老年之后的样貌,改变发型等。在深度学习的发展过程中,面部衰老和面部妆容已经成为独立于人脸属性编辑的新分支,除了娱乐应用外,在案件侦破和人脸伪造方面也有着很广泛的应用前景。人脸属性编辑的难点在于两个方面:其一,在编辑某一属性时保持其他属性不变;其二,虽然目前有很多种方法可以对人脸属性进行编辑,但仍存在着挑战。
目前主流的人脸属性编辑方法大致分为两种:基于模型的方法和基于附加条件的方法,二者的主要区别在于是否需要给出额外的条件。总体上来看,两种方法都基于编码器—解码器体系,但是基于模型的方法在一次训练过程中仅能对一个属性进行编辑,例如CycleGAN,因而效率比较低;相比之下,基于附加条件的方法则比较灵活,可以通过给出的附加条件来同时控制多个属性。其一般思路都是是先通过编码器来构建一个用以表示人脸的潜在空间,该潜在空间与人脸的属性空间之间存在某种联系,通过寻找二者的对应关系,可以对相关属性进行修改,最后将修改后的潜码输入到解码器中就可以得到属性修改后的人脸图像。
基于上述思路,如何构建基于属性的人脸表示空间既是实现人脸属性编辑主要问题,同时也是一个难点。基于附加条件的人脸属性编辑方法将人脸图像的潜在向量表示与给出的条件向量连接在一起,用以表示结构化的人脸属性信息。相比于直接在难以理解的潜在向量中进行属性编辑,这种方法在直观上比较容易被理解,但却造成了属性上的不连续。因此,如何在连续的潜在空间中求解出通用的属性表示向量是一个具有挑战性的待解决问题。
发明内容
本发明所要解决的技术问题在于,提供一种基于强化学习的人脸属性编辑方法,能够减少训练所需要多标签数据集,同时提供很好的属性解耦,最大化的保持原有人脸的身份特质。
为解决上述技术问题,本发明提供一种基于强化学习的人脸属性编辑方法,包括如下步骤:
(1)随机初始化智能体和环境并清空经验回放集合;
(2)在经过预训练的生成器模型的潜在空间中获取所需训练人脸的向量表示,并将其作为环境的初始状态;
(3)将步骤(2)中获取的初始状态传入Actor当前网络,经过Actor当前网络的计算得到一个确定的状态动作值,该状态动作值即是要训练的属性方向向量;
(4)执行步骤(3)中得到的状态动作值,进入下一状态,记录该状态是否为终止状态,并得到执行动作的奖励;
(5)将步骤(2)(3)(4)中的前一状态、执行动作、奖励、下一状态、是否为终止状态作为五元组存入经验回放集合;
(6)从经验回放集合中采样一个批次的样本计算当前目标Q值;
(7)使用均方差损失函数通过神经网络的梯度反向传播依次更新Critic当前网络和Actor当前网络的参数;
(8)按照更新频率利用当前网络的参数更新目标网络的参数。
优选的,步骤(2)中,人脸向量表示作为初始状态的具体步骤如下:
(2.1)选定随机数种子并生成固定的512维随机向量;
(2.2)将步骤(2.1)得到的512维向量输入生成模型(StyleGAN2生成器)的映射网络模块,得到512维的中间潜在向量并将其作为强化学习模型的初始状态。
优选的,步骤(3)中,计算确定状态动作值的具体步骤如下:
(3.1)将初始状态输入Actor当前网络,计算并输出相同维度的状态动作值;
(3.2)以(3.1)中的得到的状态动作值为均值,以初始设置值3为标准差对状态动作值添加高斯噪声;
(3.3)归一化添加噪声后的状态动作值,并将标准差乘以衰减因子0.9996。
优选的,步骤(4)中,执行动作并得到奖励反馈的具体步骤如下:
(4.1)将步骤(3)中得到的状态动作值与步骤(2)得到的初始状态值相加作为下一状态值;
(4.2)将前后两个状态值输入生成器的合成模块生成两张具体的人脸图像;
(4.3)将步骤(4.2)得到的两张人脸图像输入到人脸属性评价器(可以是自己训练好的也可以是第三方的)中,得到两张图像的属性评分;
(4.4)针对需要编辑的某一属性,计算两张图像在该属性上的差异,返回数值化的奖励。
优选的,步骤(6)中,当前目标Q值的具体步骤如下:
(6.1)从步骤(5)中的经验回放集合中采样m个样本{wi,ai,ri,wi+1,is_endi},i=1,2,…,m;
(6.2)如果is_endi为真,则当前目标Q值yi=ri
(6.3)如果is_endi为假,则当前目标Q值
Figure BDA0002902329790000031
其中π′和θ′分别代表Actor目标网络和Actor目标网络的参数,Q′和
Figure BDA0002902329790000032
分别代表Critic目标网络和Critic目标网络的参数。
优选的,步骤(7)中,通过反向传播更新Critic当前网络的损失函数为:
Figure BDA0002902329790000033
更新Actor当前网络参数的损失函数为:
Figure BDA0002902329790000034
其中ai=π(wi|θ)。
优选的,步骤(8)中利用当前网络的参数更新目标网络的参数的具体公式为:
Figure BDA0002902329790000035
θ′=τθ+(1-τ)θ′
本发明的有益效果为:本发明将强化学习和生成对抗网络联系起来,保留了生成对抗网络生成图像的真实性,又结合了强化学习探索交互的特性,通过在属性值上设定奖励函数来评价每一步探索的优劣;采用Actor-Critic模型来对问题进行优化求解,自动的交互探索使最大化累积奖励和改变预期属性这两个问题合二为一;相比其他方法的粗糙二分类容易造成属性之间的纠缠,强化学习方法可以很好的避免这一问题,可以在更精细的条件下实现属性的编辑,并且训练得到的属性向量可以通用,并不用针对不同的人脸进行二次训练,大大节省了计算成本。
附图说明
图1为本发明的方法流程示意图。
图2为本发明具体实施例中智能体的奖励计算流程示意图。
图3(a)为本发明选取的人脸原始图片。
图3(b)为本发明进行眼镜属性编辑后的图片。
图3(c)为本发明进行年龄属性编辑后的图片。
图3(d)为本发明进行性别属性编辑后的图片。
具体实施方式
如图1所示,一种基于强化学习的人脸属性编辑方法,包括如下步骤:
(1)随机初始化智能体和环境并清空经验回放集合;
(2)在经过预训练的生成器模型的潜在空间中获取所需训练人脸的向量表示,并将其作为环境的初始状态;
(3)将步骤(2)中获取的初始状态传入Actor当前网络,经过Actor当前网络的计算得到一个确定的状态动作值,该状态动作值即是要训练的属性方向向量;
(4)执行步骤(3)中得到的状态动作值,进入下一状态,记录该状态是否为终止状态,并得到执行动作的奖励;
(5)将步骤(2)(3)(4)中的前一状态、执行动作、奖励、下一状态、是否为终止状态作为五元组存入经验回放集合;
(6)从经验回放集合中采样一个批次的样本计算当前目标Q值;
(7)使用均方差损失函数通过神经网络的梯度反向传播依次更新Critic当前网络和Actor当前网络的参数;
(8)按照更新频率利用当前网络的参数更新目标网络的参数。
本发明所述的一种基于强化学习的人脸编辑方法,其特别之处在于:在巨大的人脸潜在空间中采取了基于深度确定性策略梯度强化学习算法设计了人脸属性编辑的网络结构。该新方法具有采样成本低,计算代价小等特点,使在几乎无限大的潜在空间中进行探索成为了可能。深度确定性策略人脸属性编辑算法模型包括以下步骤:
(1)初始化智能体和环境,返回人脸在潜在空间中的向量表示w。将人脸的向量表示作为状态输入Actor当前网络得到一个确定性的策略a。其具体过程为由深度网络计算得到一个与人脸表示向量w同维度的输出,为增加探索性还需要在输出之后进一步添加噪声,即a′=a+N(0,1)。
(2)智能体持续与环境进行交互,下一状态w′=w+a,期间保存前后状态及即时奖励等数据,即时奖励的具体计算流程如图2所示,先将前后状态分别利用生成器模型转换为图片,再利用属性评价器得到属性的具体评价,如果属性为连续值则即时奖励为二者相减,如果为二值属性,则需要利用二值属性和其概率可能性构建函数,将其转化为数值。当数据缓存已满时,替换旧数据,并开始更新网络参数。
(3)从经验回放集合中随机采样一个批次的数据{wi,ai,ri,wi+1,is_endi},i=1,2,…,m,按照公式计算当前目标的Q值,
Figure BDA0002902329790000051
其中π′和θ′分别代表Actor目标网络和Actor目标网络的参数,Q′和
Figure BDA0002902329790000052
分别代表Critic目标网络和Critic目标网络的参数。
(4)构建Critic当前网络的优化损失函数
Figure BDA0002902329790000053
并通过反向传播更新Critic当前网络参数,构建Actor当前网络的优化损失函数
Figure BDA0002902329790000054
其中ai=π(wi|θ),同样进行反向传播进行参数更新。
(5)利用当前网络的参数更新目标网络的参数,其具体公式为:
Figure BDA0002902329790000055
θ′=τθ+(1-τ)θ′
(6)训练完成后,利用得到的策略模型进行决策,并按照决策生成最终编辑的效果图,不同属性编辑后的的效果如图3(a)-(d)所示,最后完成对决策结果进行评估。
由于本发明提出的方法较为新颖,鲜有利用强化学习方法进行人脸属性编辑的例子,因此选取了相同模型下属性编辑方法InterFaceGAN作为对比。在都达到编辑目标的情况下,我们选取了百度平台的人脸相似度、结构相似性SSIM及FaceNet的128维距离作为对比指标。上述指标可以在一定程度上衡量属性纠缠问题,即除了在编辑的属性之外是否还有其他属性发生变化。100张人脸图像编辑的平均结果对比如表1所示:
表1本发明所述的方法和InterFaceGAN算法性能对比
Figure BDA0002902329790000061
结合上述实验结果可以看出,本发明所设计的人脸属性方法在综合性能上优于同生成模型下的InterFaceGAN方法。因为本发明采用的是最先进的生成器模型,生成的图像质量不是其它编辑方法可比的,因此仅与使用了相同生成器模型的方法进行了对比。本发明的编辑效果无论是在直观上还是性能指标上均优于InterFaceGAN方法。在相关人脸娱乐的应用上有很大的前景。

Claims (7)

1.一种基于强化学习的人脸属性编辑方法,其特征在于,包括如下步骤:
(1)随机初始化智能体和环境并清空经验回放集合;
(2)在经过预训练的生成器模型的潜在空间中获取所需训练人脸的向量表示,并将其作为环境的初始状态;
(3)将步骤(2)中获取的初始状态传入Actor当前网络,经过Actor当前网络的计算得到一个确定的状态动作值,该状态动作值即是要训练的属性方向向量;
(4)执行步骤(3)中得到的状态动作值,进入下一状态,记录该状态是否为终止状态,并得到执行动作的奖励;
(5)将步骤(2)(3)(4)中的前一状态、执行动作、奖励、下一状态、是否为终止状态作为五元组存入经验回放集合;
(6)从经验回放集合中采样一个批次的样本计算当前目标Q值;
(7)使用均方差损失函数通过神经网络的梯度反向传播依次更新Critic当前网络和Actor当前网络的参数;
(8)按照更新频率利用当前网络的参数更新目标网络的参数。
2.如权利要求1所述的基于强化学习的人脸属性编辑方法,其特征在于,步骤(2)中,人脸向量表示作为初始状态的具体步骤如下:
(2.1)选定随机数种子并生成固定的512维随机向量;
(2.2)将步骤(2.1)得到的512维向量输入生成模型的映射网络模块,得到512维的中间潜在向量并将其作为强化学习模型的初始状态。
3.如权利要求1所述的基于强化学习的人脸属性编辑方法,其特征在于,步骤(3)中,计算确定状态动作值的具体步骤如下:
(3.1)将初始状态输入Actor当前网络,计算并输出相同维度的状态动作值;
(3.2)以(3.1)中的得到的状态动作值为均值,以初始设置值3为标准差对状态动作值添加高斯噪声;
(3.3)归一化添加噪声后的状态动作值,并将标准差乘以衰减因子0.9996。
4.如权利要求1所述的基于强化学习的人脸属性编辑方法,其特征在于,步骤(4)中,执行动作并得到奖励反馈的具体步骤如下:
(4.1)将步骤(3)中得到的状态动作值与步骤(2)得到的初始状态值相加作为下一状态值;
(4.2)将前后两个状态值输入生成器的合成模块生成两张具体的人脸图像;
(4.3)将步骤(4.2)得到的两张人脸图像输入到人脸属性评价器中,得到两张图像的属性评分;
(4.4)针对需要编辑的某一属性,计算两张图像在该属性上的差异,返回数值化的奖励。
5.如权利要求1所述的基于强化学习的人脸属性编辑方法,其特征在于,步骤(6)中,当前目标Q值的具体步骤如下:
(6.1)从步骤(5)中的经验回放集合中采样m个样本{wi,ai,ri,wi+1,is_endi},i=1,2,...,m;
(6.2)如果is_endi为真,则当前目标Q值yi=ri
(6.3)如果is_endi为假,则当前目标Q值
Figure FDA0002902329780000021
其中π′和θ′分别代表Actor目标网络和Actor目标网络的参数,Q′和
Figure FDA0002902329780000022
分别代表Critic目标网络和Critic目标网络的参数。
6.如权利要求1所述的基于强化学习的人脸属性编辑方法,其特征在于,步骤(7)中,通过反向传播更新Critic当前网络的损失函数为:
Figure FDA0002902329780000023
更新Actor当前网络参数的损失函数为:
Figure FDA0002902329780000024
其中ai=π(wi|θ)。
7.如权利要求1所述的基于强化学习的人脸属性编辑方法,其特征在于,步骤(8)中利用当前网络的参数更新目标网络的参数的具体公式为:
Figure FDA0002902329780000025
θ′=τθ+(1-τ)θ′。
CN202110060945.2A 2021-01-18 2021-01-18 一种基于强化学习的人脸属性编辑方法 Active CN112800893B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110060945.2A CN112800893B (zh) 2021-01-18 2021-01-18 一种基于强化学习的人脸属性编辑方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110060945.2A CN112800893B (zh) 2021-01-18 2021-01-18 一种基于强化学习的人脸属性编辑方法

Publications (2)

Publication Number Publication Date
CN112800893A true CN112800893A (zh) 2021-05-14
CN112800893B CN112800893B (zh) 2024-05-28

Family

ID=75809989

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110060945.2A Active CN112800893B (zh) 2021-01-18 2021-01-18 一种基于强化学习的人脸属性编辑方法

Country Status (1)

Country Link
CN (1) CN112800893B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221858A (zh) * 2021-06-16 2021-08-06 中国科学院自动化研究所 人脸识别对抗攻击的防御方法及系统
CN113408673A (zh) * 2021-08-19 2021-09-17 联想新视界(南昌)人工智能工研院有限公司 生成对抗网络子空间解耦和生成编辑方法、系统及计算机
CN113420806A (zh) * 2021-06-21 2021-09-21 西安电子科技大学 一种人脸检测质量评分方法及系统
CN113705455A (zh) * 2021-08-30 2021-11-26 平安银行股份有限公司 身份核查方法、装置、电子设备及可读存储介质
CN115631527A (zh) * 2022-10-31 2023-01-20 福州大学至诚学院 基于角度自适应的发型属性编辑方法及系统
CN116630147A (zh) * 2023-07-24 2023-08-22 北京隐算科技有限公司 一种基于强化学习的人脸图像编辑方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070107859A (ko) * 2006-05-04 2007-11-08 김삼연 사진의 투명도와 캐릭터 이목구비 템플릿의 투명도를이용한 세미사진 캐릭터 자동 생성
CN111241952A (zh) * 2020-01-03 2020-06-05 广东工业大学 一种离散制造场景中的强化学习奖励自学习方法
CN111275613A (zh) * 2020-02-27 2020-06-12 辽宁工程技术大学 一种引入注意力机制生成对抗网络人脸属性编辑方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070107859A (ko) * 2006-05-04 2007-11-08 김삼연 사진의 투명도와 캐릭터 이목구비 템플릿의 투명도를이용한 세미사진 캐릭터 자동 생성
CN111241952A (zh) * 2020-01-03 2020-06-05 广东工业大学 一种离散制造场景中的强化学习奖励自学习方法
CN111275613A (zh) * 2020-02-27 2020-06-12 辽宁工程技术大学 一种引入注意力机制生成对抗网络人脸属性编辑方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221858A (zh) * 2021-06-16 2021-08-06 中国科学院自动化研究所 人脸识别对抗攻击的防御方法及系统
CN113221858B (zh) * 2021-06-16 2022-12-16 中国科学院自动化研究所 人脸识别对抗攻击的防御方法及系统
CN113420806A (zh) * 2021-06-21 2021-09-21 西安电子科技大学 一种人脸检测质量评分方法及系统
CN113420806B (zh) * 2021-06-21 2023-02-03 西安电子科技大学 一种人脸检测质量评分方法及系统
CN113408673A (zh) * 2021-08-19 2021-09-17 联想新视界(南昌)人工智能工研院有限公司 生成对抗网络子空间解耦和生成编辑方法、系统及计算机
CN113705455A (zh) * 2021-08-30 2021-11-26 平安银行股份有限公司 身份核查方法、装置、电子设备及可读存储介质
CN113705455B (zh) * 2021-08-30 2024-03-19 平安银行股份有限公司 身份核查方法、装置、电子设备及可读存储介质
CN115631527A (zh) * 2022-10-31 2023-01-20 福州大学至诚学院 基于角度自适应的发型属性编辑方法及系统
CN116630147A (zh) * 2023-07-24 2023-08-22 北京隐算科技有限公司 一种基于强化学习的人脸图像编辑方法
CN116630147B (zh) * 2023-07-24 2024-02-06 北京隐算科技有限公司 一种基于强化学习的人脸图像编辑方法

Also Published As

Publication number Publication date
CN112800893B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
CN112800893B (zh) 一种基于强化学习的人脸属性编辑方法
Bontrager et al. Deep interactive evolution
CN110866958A (zh) 一种文本到图像的方法
CN116720004B (zh) 推荐理由生成方法、装置、设备及存储介质
CN111582509A (zh) 一种基于知识图谱表示学习和神经网络的协同推荐方法
CN113837229B (zh) 一种知识驱动型的文本到图像生成方法
CN112257841A (zh) 图神经网络中的数据处理方法、装置、设备及存储介质
CN114038055A (zh) 一种基于对比学习和生成对抗网络的图像生成方法
Bharti et al. EMOCGAN: a novel evolutionary multiobjective cyclic generative adversarial network and its application to unpaired image translation
CN115358809A (zh) 一种基于图对比学习的多意图推荐方法及装置
CN117033657A (zh) 一种信息检索方法及装置
CN115858756A (zh) 基于感知情绪倾向的共情人机对话系统
CN115525740A (zh) 对话应答语句的生成方法、装置、电子设备及存储介质
CN117216223A (zh) 对话文本的生成方法和装置、存储介质及电子设备
CN116975347A (zh) 图像生成模型训练方法及相关装置
CN116610218A (zh) Ai数字人的交互方法、装置及系统
Ysique‐Neciosup et al. DeepHistory: A convolutional neural network for automatic animation of museum paintings
Sharma et al. A generalized novel image forgery detection method using generative adversarial network
CN112529772A (zh) 一种零样本设置下的无监督图像转换方法
Meira et al. Generating Synthetic Faces for Data Augmentation with StyleGAN2-ADA.
CN112328774A (zh) 基于多文档的任务型人机对话任务的实现方法
CN116542292B (zh) 图像生成模型的训练方法、装置、设备及存储介质
CN114971817B (zh) 基于用户需求画像的产品自适应服务方法、介质及装置
CN118035565B (zh) 基于多模态情绪感知的主动服务推荐方法、系统和设备
CN115293109B (zh) 一种基于细粒度语义融合的文本图像生成方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant