CN111639518A - 一种满意度测评方法,装置及存储设备 - Google Patents
一种满意度测评方法,装置及存储设备 Download PDFInfo
- Publication number
- CN111639518A CN111639518A CN202010152671.5A CN202010152671A CN111639518A CN 111639518 A CN111639518 A CN 111639518A CN 202010152671 A CN202010152671 A CN 202010152671A CN 111639518 A CN111639518 A CN 111639518A
- Authority
- CN
- China
- Prior art keywords
- expression
- picture
- angle value
- satisfaction
- standard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明提供了一种满意度的服务评价方法,装置及存储设备,可通过用户表情图片判断用户的情感倾向,为实际业务提供满意度评价方法,包括采用WGAN网络根据现有的表情图片生成无表情的标准图,以构成待训练的无表情标准图集;提取无表情标准图的敏感区域的坐标点,分别计算坐标点与中心点连线的第一角度值;提取待测评表情图片的敏感区域的坐标点,分别计算坐标点与中心点连线的第二角度值;计算无表情标准图的第一角度值和待测评表情图片的第二角度值的差值,生成表情形变参数;根据表情形变参数的权重训练支持向量机,得到满意或不满意的分类结果。
Description
技术领域
本发明涉及电子政务技术领域,具体涉及一种满意度测评方法,装置及存储设备。
背景技术
现有表情分类准确率高的实时性差,分类速度较慢;且很多领域的应用落地上,对于7种表情分类的依赖性不强,高兴、恐惧、悲伤、厌恶、生气、中性、惊讶,在很多场景的应用中终究是为了得到正向/负向的意见,分7类增加了复杂度。而设计一种针对满意度分类的轻量级应用就显得很重要。
发明内容
本发明的目的是提供一种满意度测评方法,装置及存储设备,以便于判断用户表情的情感倾向,为实际业务提供评价方法。
为了达到上述目的,本发明一方面提供一种满意度测评方法,包括:
采用WGAN网络根据现有的表情图片生成无表情的标准图,以构成待训练的无表情标准图集;
提取无表情标准图的敏感区域的坐标点,分别计算坐标点与中心点连线的第一角度值
提取待测评表情图片的敏感区域的坐标点,分别计算坐标点与中心点连线的第二角度值;
计算无表情标准图的第一角度值和待测评表情图片的第二角度值的差值,生成表情形变参数;
根据表情形变参数的权重训练支持向量机,得到满意或不满意的分类结果。
进一步的,所述WGAN网络模型包括第一生成网络和第一判别网络,所述第一生成网络包括卷积层,空洞卷积层,批归一化层,平均池化层,lrelu激活层,relu激活层和残差块,所述第一判别网络包括5个卷积块。
进一步的,所述无表情标准图和识别表情图片的敏感区域坐标点均为15个,包括每只眼睛的上下眼皮中心点,每条眉毛两端的端点,上下嘴唇的中心点,嘴角两端的端点,每只眼睛两端眼角的端点。
进一步的,计算鼻子中心点与敏感区域坐标点之间连线的角度值,分别生成14个第一角度值(x1,x2,…,x14)和第二角度值(y1,y2,…,y14)。
进一步的,将无表情标准图的第一角度值(x1,x2,…,x14)与待测评表情图片的第二角度值(y1,y2,…,y14)进行差值计算,生成形变参数(x1-y1,x2-y2,…,x14-y14);
进一步的,支持向量机的训练过程中包括:
设定表情形变参数的权重,所述权重对应形变参数(x1-y1,x2-y2,…,x14-y14)生成;
根据权重确定表情的分类标签,以进行训练支持向量机的训练。
另一方面,本发明还提供一种满意度测评装置,包括:
表情获取模块,用以获取待测评满意度的表情图片;
无表情标准图生成模块,用以通过WGAN网络根据现有的表情图片生成无表情的标准图;
表情特征角度提取模块,用以提取无表情标准图和待测评表情图片的敏感区域的坐标点,分别计算坐标点与中心点连线的第一角度值和第二角度值;
形变参数计算模块,用以计算无表情标准图的第一角度值和待测评表情图片的第二角度值的差值,生成表情形变参数;
满意度模型训练模块,用以根据表情形变参数的权重训练支持向量机,得到满意或不满意的分类结果。
另一方面,本发明还提供一种存储装置所述存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求上述满意度测评方法中的步骤。
本发明提供了一种满意度的服务评价方法,装置及存储设备,可通过用户表情图片判断用户的情感倾向,为实际业务提供满意度评价方法,包括采用WGAN网络根据现有的表情图片生成无表情的标准图,以构成待训练的无表情标准图集;提取无表情标准图的敏感区域的坐标点,分别计算坐标点与中心点连线的第一角度值;提取待测评表情图片的敏感区域的坐标点,分别计算坐标点与中心点连线的第二角度值;计算无表情标准图的第一角度值和待测评表情图片的第二角度值的差值,生成表情形变参数;根据表情形变参数的权重训练支持向量机,得到满意或不满意的分类结果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一个实施例的一种满意度测评的方法流程图。
图2为本发明一个实施例的一种满意度评测装置的系统架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。、
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
如果申请文件中出现“第一/第二”的类似描述则增加以下的说明,在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
下面参照附图描述根据本发明实施例提出的一种满意度测评方法,装置和存储设备,首先将参照附图描述根据本发明实施例提出的一种满意度测评方法。
图1是本发明一个实施例的满意度测评方法的方法流程图。如图1所示,该测评方法包括以下步骤:
步骤S1,采用WGAN网络根据现有的表情图片生成无表情的标准图,以构成待训练的无表情标准图集;
生成式对抗网络(Generative Adversarial Network,GAN)是一种生成式深度学习网络模型,近年来在计算机视觉领域应用效果良好。随着深度学习及移动设备的快速发展,将深度学习应用在图像处理、图像生成、图像风格迁移等领域有非常巨大的应用效果。GAN能生成目标数据集,以弥补训练数据不足的缺陷,因此对深度学习意义重大。
在一个实施例中,所述WGAN网络模型包括第一生成网络和第一判别网络,所述第一生成网络包括卷积层,空洞卷积层,批归一化层,平均池化层,lrelu激活层,relu激活层和残差块,所述第一判别网络包括5个卷积块。
WGAN网络的原理为:
(1)训练第一代第一生成网络和第一代第一判别网络。从一个噪声分布从采样作为输入,输入第一代第一生成器网络,它能生成一些很差的无表情标准图片。然后第一代第一判别网络可以将现有的表情图片与生成的无表情标准图片进行判断,判别器可以准确的判别出哪些是现有的表情图片哪些是生成的无表情标准图片。
(2)训练第二代生成网络和第二代判别网络。可以生成更好的无表情标准图片,让第二代第一判别器很难判断哪些是更好的无表情标准图片,哪些是更差的无表情标准图片。
(3)不断有第3代,第4代,。。。第n代。直到第n代判别网络几乎无法判断出更好的无表情标准图片时停止。此时的第n代生成器就是最好的无表情标准图片的生成器,可用于无表情标准图片生成。
具体的,本实施例的WGAN网络模型的训练过程为:加载数据,数据归一化,数据重塑;构造沃瑟斯坦距离,作为判别网络的评判指标;从高斯分布中采样出噪声图片X作为生成网络G的输入,经过又全连接构成的网络训练,将生成器网络的输出作为判别网络D的一个输入,真实训练样本作为另一个输入,经过判别网络进行损失函数的计算,最后通过最小化损失函数的大小,得到深度卷积神经网络识别要求的图像。
本实施例的的WGAN网络模型的损失函数为:
其中,Π(Pr,Pg)是Pr和Pg组合起来的所有可能的联合分布的集合,即Π(Pr,Pg)中每一个分布的边缘分布都是Pr和Pg,对于每一个可能的联合分布γ而言,可以从中采样(x,y)~γ得到一个真实样本x和一个生成样本y,并算出这对样本之间的距离||x-y||,得到该联合分布γ下样本对距离的期望值E(xx,y)~γ[||x-y||],将所有可能的联合分布中能够对这个期望值取到的下界。
具体的,本实施例分别采用2000张有表情的和无表情的图像对WGAN网络模型进行训练,学习到将有表情图转变为无表情图的图像特征。
步骤S2,提取无表情标准图的敏感区域的坐标点,分别计算坐标点与中心点连线的第一角度值。
在一个实施例中,无表情标准图和的敏感区域坐标点为15个,包括每只眼睛的上下眼皮中心点,每条眉毛两端的端点,上下嘴唇的中心点,嘴角两端的端点,每只眼睛两端眼角的端点。
进一步的,计算鼻子中心点与敏感区域坐标点之间连线的角度值,分别生成14个无表情标准图的第一角度值(x1,x2,…,x14)。
步骤S3,提取待测评表情图片的敏感区域的坐标点,分别计算坐标点与中心点连线的第二角度值。
在一个实施例中,待测评表情图片的敏感区域坐标点为15个,包括每只眼睛的上下眼皮中心点,每条眉毛两端的端点,上下嘴唇的中心点,嘴角两端的端点,每只眼睛两端眼角的端点。
进一步的,计算鼻子中心点与敏感区域坐标点之间连线的角度值,分别生成14个待测评表情图片的第二角度值(y1,y2,…,y14)。
步骤S4,计算无表情标准图的第一角度值和待测评表情图片的第二角度值的差值,生成表情形变参数;
具体的,将无表情标准图的第一角度值(x1,x2,…,x14)与待测评表情图片的第二角度值(y1,y2,…,y14)进行差值计算,生成形变参数(x1-y1,x2-y2,…,x14-y14)。
步骤S5,根据表情形变参数的权重训练支持向量机,得到满意或不满意的分类结果。
作为一个实施例,首先设定表情形变参数的权重,所述权重对应形变参数(x1-y1,x2-y2,…,x14-y14)生成。然后根据权重确定表情的分类标签,以进行训练支持向量机的训练。
本领域技术人员可以理解,支持向量机(support vector machines)是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。
具体的,给定表情形变参数集D=(x1,y1),(x2,y2),…,(xm,ym)D=(x1,y1),(x2,y2),…,(xm,ym),其中yi∈{-1,+1}yi∈{-1,+1},分类学习最基本的想法就是基于表情形变参数集D在样本空间中找到一个划分超平面,将不同类别的样本分开。
因此,通过yi(WTxi+b)≥+1,确定最大间隔将学习目标按照满意和不满意分开,并使任意样本的点到间隔距离大于等于1,所有在上间隔边上方的样本属于满意,在下间隔边下方的样本属于不满意。
如图2所示,另一方面,本发明还提供一种满意度测评装置,包括:
表情获取模块101,用以获取待测评满意度的表情图片;
无表情标准图生成模块102,用以通过WGAN网络根据现有的表情图片生成无表情的标准图;
表情特征角度提取模块103,用以提取无表情标准图和待测评表情图片的敏感区域的坐标点,分别计算坐标点与中心点连线的第一角度值和第二角度值;
形变参数计算模块104,用以计算无表情标准图的第一角度值和待测评表情图片的第二角度值的差值,生成表情形变参数;
满意度模型训练模块105,用以根据表情形变参数的权重训练支持向量机,得到满意或不满意的分类结果。
另一方面,本发明还提供一种存储装置所述存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求上述满意度测评方法中的步骤。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言-诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言-诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或终端上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)-连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种满意度测评方法,其特征在于,包括:
采用WGAN网络根据现有的表情图片生成无表情的标准图,以构成待训练的无表情标准图集;
提取无表情标准图的敏感区域的坐标点,分别计算坐标点与中心点连线的第一角度值;
提取待测评表情图片的敏感区域的坐标点,分别计算坐标点与中心点连线的第二角度值;
计算无表情标准图的第一角度值和待测评表情图片的第二角度值的差值,生成表情形变参数;
根据表情形变参数的权重训练支持向量机,得到满意或不满意的分类结果。
2.如权利要求1所述的一种满意度测评方法,其特征在于,所述WGAN网络模型包括第一生成网络和第一判别网络,所述第一生成网络包括卷积层,空洞卷积层,批归一化层,平均池化层,lrelu激活层,relu激活层和残差块,所述第一判别网络包括5个卷积块。
3.如权利要求1所述的一种满意度测评方法,其特征在于,
所述无表情标准图和识别表情图片的敏感区域坐标点均为15个,包括每只眼睛的上下眼皮中心点,每条眉毛两端的端点,上下嘴唇的中心点,嘴角两端的端点,每只眼睛两端眼角的端点。
4.如权利要求3所述的一种满意度测评方法,其特征在于,
计算鼻子中心点与敏感区域坐标点之间连线的角度值,分别生成14个第一角度值(x1,x2,…,x14)和第二角度值(y1,y2,…,y14)。
5.如权利要求4所述的一种满意度测评方法,其特征在于,
将无表情标准图的第一角度值(x1,x2,…,x14)与待测评表情图片的第二角度值(y1,y2,…,y14)进行差值计算,生成形变参数(x1-y1,x2-y2,…,x14-y14)。
6.如权利要求5所述的一种满意度测评方法,其特征在于,支持向量机的训练过程中包括:
设定表情形变参数的权重,所述权重对应形变参数(x1-y1,x2-y2,…,x14-y14)生成;
根据权重确定表情的分类标签,以进行训练支持向量机的训练。
7.一种满意度测评装置,其特征在于,包括:
表情获取模块,用以获取待测评满意度的表情图片;
无表情标准图生成模块,用以通过WGAN网络根据现有的表情图片生成无表情的标准图;
表情特征角度提取模块,用以提取无表情标准图和待测评表情图片的敏感区域的坐标点,分别计算坐标点与中心点连线的第一角度值和第二角度值;
形变参数计算模块,用以计算无表情标准图的第一角度值和待测评表情图片的第二角度值的差值,生成表情形变参数;
满意度模型训练模块,用以根据表情形变参数的权重训练支持向量机,得到满意或不满意的分类结果。
8.一种存储装置,其特征在于,所述存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至6任一项所述的满意度测评方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010152671.5A CN111639518A (zh) | 2020-03-06 | 2020-03-06 | 一种满意度测评方法,装置及存储设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010152671.5A CN111639518A (zh) | 2020-03-06 | 2020-03-06 | 一种满意度测评方法,装置及存储设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111639518A true CN111639518A (zh) | 2020-09-08 |
Family
ID=72331025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010152671.5A Pending CN111639518A (zh) | 2020-03-06 | 2020-03-06 | 一种满意度测评方法,装置及存储设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111639518A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426929A (zh) * | 2014-09-19 | 2016-03-23 | 佳能株式会社 | 对象形状对准装置、对象处理装置及其方法 |
CN107292225A (zh) * | 2016-08-18 | 2017-10-24 | 北京师范大学珠海分校 | 一种人脸识别方法 |
US20170330029A1 (en) * | 2010-06-07 | 2017-11-16 | Affectiva, Inc. | Computer based convolutional processing for image analysis |
CN107463874A (zh) * | 2017-07-03 | 2017-12-12 | 华南师范大学 | 情绪识别方法及系统、及应用该方法的智能看护系统 |
CN108182657A (zh) * | 2018-01-26 | 2018-06-19 | 深圳市唯特视科技有限公司 | 一种基于循环生成对抗网络的面部图像转换方法 |
CN110136102A (zh) * | 2019-04-17 | 2019-08-16 | 杭州数据点金科技有限公司 | 一种基于标准图比对的轮胎x光病疵检测方法 |
CN110458120A (zh) * | 2019-08-15 | 2019-11-15 | 中国水利水电科学研究院 | 一种复杂环境下不同车型识别方法及系统 |
CN110472592A (zh) * | 2019-08-20 | 2019-11-19 | 中国工商银行股份有限公司 | 基于表情识别的服务满意度评价方法和装置 |
CN110705349A (zh) * | 2019-08-26 | 2020-01-17 | 深圳壹账通智能科技有限公司 | 基于微表情的客户满意度识别方法、装置、终端及介质 |
-
2020
- 2020-03-06 CN CN202010152671.5A patent/CN111639518A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170330029A1 (en) * | 2010-06-07 | 2017-11-16 | Affectiva, Inc. | Computer based convolutional processing for image analysis |
CN105426929A (zh) * | 2014-09-19 | 2016-03-23 | 佳能株式会社 | 对象形状对准装置、对象处理装置及其方法 |
CN107292225A (zh) * | 2016-08-18 | 2017-10-24 | 北京师范大学珠海分校 | 一种人脸识别方法 |
CN107463874A (zh) * | 2017-07-03 | 2017-12-12 | 华南师范大学 | 情绪识别方法及系统、及应用该方法的智能看护系统 |
CN108182657A (zh) * | 2018-01-26 | 2018-06-19 | 深圳市唯特视科技有限公司 | 一种基于循环生成对抗网络的面部图像转换方法 |
CN110136102A (zh) * | 2019-04-17 | 2019-08-16 | 杭州数据点金科技有限公司 | 一种基于标准图比对的轮胎x光病疵检测方法 |
CN110458120A (zh) * | 2019-08-15 | 2019-11-15 | 中国水利水电科学研究院 | 一种复杂环境下不同车型识别方法及系统 |
CN110472592A (zh) * | 2019-08-20 | 2019-11-19 | 中国工商银行股份有限公司 | 基于表情识别的服务满意度评价方法和装置 |
CN110705349A (zh) * | 2019-08-26 | 2020-01-17 | 深圳壹账通智能科技有限公司 | 基于微表情的客户满意度识别方法、装置、终端及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109409222B (zh) | 一种基于移动端的多视角人脸表情识别方法 | |
CN109344908B (zh) | 用于生成模型的方法和装置 | |
WO2018121690A1 (zh) | 对象属性检测、神经网络训练、区域检测方法和装置 | |
CN108280477B (zh) | 用于聚类图像的方法和装置 | |
CN110659582A (zh) | 图像转换模型训练方法、异质人脸识别方法、装置及设备 | |
CN108537168B (zh) | 基于迁移学习技术的面部表情识别方法 | |
CN111461212A (zh) | 一种用于点云目标检测模型的压缩方法 | |
CN114332578A (zh) | 图像异常检测模型训练方法、图像异常检测方法和装置 | |
CN108509994B (zh) | 人物图像聚类方法和装置 | |
CN111783997B (zh) | 一种数据处理方法、装置及设备 | |
CN115861462B (zh) | 图像生成模型的训练方法、装置、电子设备及存储介质 | |
CN113239807B (zh) | 训练票据识别模型和票据识别的方法和装置 | |
CN110648289A (zh) | 图像的加噪处理方法及装置 | |
CN114282581A (zh) | 基于数据增强的训练样本获取方法、装置和电子设备 | |
CN114612743A (zh) | 深度学习模型的训练方法、目标对象识别方法和装置 | |
CN113361593A (zh) | 生成图像分类模型的方法、路侧设备及云控平台 | |
CN108961358B (zh) | 一种获得样本图片的方法、装置及电子设备 | |
CN112052730A (zh) | 一种3d动态人像识别监控设备及方法 | |
CN110135428B (zh) | 图像分割处理方法和装置 | |
CN115063664A (zh) | 用于工业视觉检测的模型学习方法、训练方法及系统 | |
CN113223011B (zh) | 基于引导网络和全连接条件随机场的小样本图像分割方法 | |
CN111382791B (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
CN111611917A (zh) | 模型训练方法、特征点检测方法、装置、设备及存储介质 | |
CN113762005A (zh) | 特征选择模型的训练、对象分类方法、装置、设备及介质 | |
CN116883316A (zh) | 一种芯片质量检测模型的构建方法及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200908 |
|
RJ01 | Rejection of invention patent application after publication |