CN111860485B - 图像识别模型的训练方法、图像的识别方法、装置、设备 - Google Patents
图像识别模型的训练方法、图像的识别方法、装置、设备 Download PDFInfo
- Publication number
- CN111860485B CN111860485B CN202010726141.7A CN202010726141A CN111860485B CN 111860485 B CN111860485 B CN 111860485B CN 202010726141 A CN202010726141 A CN 202010726141A CN 111860485 B CN111860485 B CN 111860485B
- Authority
- CN
- China
- Prior art keywords
- image
- training
- convolution
- model
- image recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 139
- 238000000034 method Methods 0.000 title claims abstract description 115
- 230000006870 function Effects 0.000 claims description 50
- 238000003860 storage Methods 0.000 claims description 38
- 230000007246 mechanism Effects 0.000 abstract description 30
- 238000005516 engineering process Methods 0.000 abstract description 17
- 238000013473 artificial intelligence Methods 0.000 abstract description 15
- 238000012545 processing Methods 0.000 description 28
- 230000011218 segmentation Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000013136 deep learning model Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000004043 dyeing Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种图像识别模型的训练方法、图像的识别方法、装置、设备,方法应用于人工智能的计算机视觉技术。该方法包括:获取训练数据;获取基础模型,基础模型包括编码器和解码器,编码器包括顺序连接的n个卷积模块,n是大于1的整数;根据构建在编码器上的注意力自监督机制,使用训练数据训练基础模型得到图像识别模型,注意力自监督机制用于根据n个卷积模块中的第i+1个卷积模块输出的第i+1个特征图像监督调整第i个卷积模块,i是大于0小于n的整数。该方法可以降低使用卷积网络识别图像中目标区域的计算复杂度。
Description
技术领域
本申请涉及人工智能的计算机视觉技术,特别涉及一种图像识别模型的训练方法、图像的识别方法、装置、设备。
背景技术
在短视频、图片编辑领域,利用头发区域分割方法对用户头发制造染发效果、进行头发颜色纹理再编辑等需求与日俱增。
相关技术中,服务器在接收到用户发送的图片后,根据图像特征以及预先训练的人脸先验卷积网络,提取人脸先验特征;然后再根据图像特征、人脸先验特征以及预先训练的头发分割卷积网络,生成头发掩模图。
相关技术中的方法,服务器需要先使用人脸先验卷积网络提取人脸先验特征,然后利用人脸先验特征、使用头发分割卷积网络来分割头发区域,计算复杂度较大,难以在手机等移动端设备进行实时处理。
发明内容
本申请实施例提供了一种图像识别模型的训练方法、图像的识别方法、装置、设备,可以降低使用卷积网络识别图像中头发区域的计算复杂度。所述技术方案如下:
根据本申请的一个方面,提供了一种图像识别模型的训练方法,所述方法包括:
获取训练数据;
获取基础模型,所述基础模型包括编码器和解码器,所述编码器包括顺序连接的n个卷积模块,所述n是大于1的整数;
根据构建在所述编码器上的注意力自监督机制,使用所述训练数据训练所述基础模型得到图像识别模型,所述注意力自监督机制用于根据所述n个卷积模块中的第i+1个卷积模块输出的第i+1个特征图像监督调整第i个卷积模块,所述i是大于0小于所述n的整数。
根据本申请的另一个方面,提供了一种图像的识别方法,所述方法应用于运行有图像识别模型的计算机设备,所述图像识别模型是采用如上方面所述的图像识别模型的训练方法训练得到的,所述方法包括:
获取目标图像;
通过编码器对所述目标图像进行编码处理得到编码特征图像;
通过解码器对所述编码特征图像进行解码处理得到解码特征图像;
根据所述解码特征图像输出所述目标图像的图像识别结果,所述图像识别结果包括将所述目标图像中的目标区域识别为目标类型。
根据本申请的另一方面,提供了一种图像识别模型的训练装置,所述装置包括:
第一获取模块,用于获取训练数据;
预训练模块,用于获取基础模型,所述基础模型包括编码器和解码器,所述编码器包括顺序连接的n个卷积模块,所述n是大于1的整数;
训练模块,用于根据构建在所述编码器上的注意力自监督机制,使用所述训练数据训练所述基础模型得到图像识别模型,所述注意力自监督机制用于根据所述n个卷积模块中的第i+1个卷积模块输出的第i+1个特征图像监督调整第i个卷积模块,所述i是大于0小于所述n的整数。
根据本申请的另一方面,提供了一种图像的识别装置,所述装置应用于运行有图像识别模型的计算机设备,所述图像识别模型是采用如上方面所述的图像识别模型的训练方法训练得到的,所述装置包括:
第二获取模块,用于获取目标图像;
编码模块,用于通过编码器对所述目标图像进行编码处理得到编码特征图像;
解码模块,用于通过解码器对所述编码特征图像进行解码处理得到解码特征图像;
输出模块,用于根据所述解码特征图像输出所述目标图像的图像识别结果,所述图像识别结果包括将所述目标图像中的目标区域识别为目标类型。
根据本申请的另一方面,提供了一种计算机设备,所述计算机设备包括:处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的图像识别模型的训练方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上方面所述的图像识别模型的训练方法。
根据本申请的另一方面,提供了一种计算机设备,所述计算机设备包括:处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的图像的识别方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上方面所述的图像的识别方法。
根据本公开实施例的另一个方面,提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述可选实现方式中提供的图像识别模型的训练方法。
根据本公开实施例的另一个方面,提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述可选实现方式中提供的图像的识别方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过在训练图像识别模型时,采用注意力自监督机制对解码器的多个卷积层进行自监督训练,利用后一个卷积层输出的特征图像的注意力特征,对前一个卷积层进行监督,使浅层特征学习到具有上下文信息的深层语义特征,同时又在浅层特征向下传递时反过来提供给深层特征更加丰富的细节信息,使得浅层特征和深层特征之间构建了一个自监督的注意力体系,增加图像识别模型识别的准确度。并且,该图像识别模型只需要在训练阶段使用注意力自监督机制,在应用阶段并不会使用,在提高图像识别模型准确度的同时可以降低图像识别模型在应用阶段的计算量,使图像识别模型可以应用在手机等移动终端中进行实时处理,提高图像识别的效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的计算机系统的框图;
图2是本申请一个示例性实施例提供的图像识别模型的训练方法的流程图;
图3是本申请另一个示例性实施例提供的图像识别模型的训练方法的流程图;
图4是本申请另一个示例性实施例提供的图像识别模型的训练方法的流程图;
图5是本申请另一个示例性实施例提供的编码器的框图;
图6是本申请另一个示例性实施例提供的图像的识别方法的流程图;
图7是本申请另一个示例性实施例提供的图像的识别方法的流程图;
图8是本申请另一个示例性实施例提供的图像的识别方法的流程图;
图9是本申请另一个示例性实施例提供的图像的识别方法的流程图;
图10是本申请另一个示例性实施例提供的图像识别结果的示意图;
图11是本申请另一个示例性实施例提供的图像处理结果的示意图;
图12是本申请另一个示例性实施例提供的图像识别模型的训练装置的框图;
图13是本申请另一个示例性实施例提供的图像的识别装置的框图;
图14是本申请另一个示例性实施例提供的服务器的结构示意图;
图15是本申请另一个示例性实施例提供的终端的框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先对本申请实施例涉及的若干个名词进行简介:
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
参考图1,示出了本申请一个示例性实施例提供的计算机系统的结构示意图,该计算机系统包括终端120和服务器140中的至少一种。下面以该计算机系统包括终端和服务器进行举例说明,示例性的,该计算机系统还可以只包括终端或只包括服务器。
终端120与服务器140之间通过有线或者无线网络相互连接。
可选地,终端120可以包括笔记本电脑、台式电脑、智能手机、平板电脑、智能音箱、智能机器人中的至少一种。
终端120包括第一存储器和第一处理器。第一存储器中存储有第一程序;上述第一程序被第一处理器调用执行以实现图像识别模型的训练方法或图像的识别方法。第一存储器可以包括但不限于以下几种:随机存取存储器(Random Access Memory,RAM)、只读存储器(Read Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM)、以及电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)。
第一处理器可以是一个或者多个集成电路芯片组成。可选地,第一处理器可以是通用处理器,比如,中央处理器(Central Processing Unit,CPU)或者网络处理器(NetworkProcessor,NP)。可选地,第一处理器可以通过调用基础模型来实现本申请提供的图像识别模型的训练方法,或,通过调用图像识别模型来实现本申请提供的图像的识别方法。示例性的,终端中的图像识别模型可以是由终端训练得到的;或,由服务器训练得到、由终端从服务器获取。
可选地,终端120中包括显示器;显示器用于显示图像的识别结果,或,显示根据图像的识别结果优化后的图像。
服务器140包括第二存储器和第二处理器。第二存储器中存储有第二程序,上述第二程序被第二处理器调用来实现本申请提供的图像识别模型的训练方法或图像的识别方法。示例性的,第二存储器中存储有图像识别模型,上述图像识别模型被第二处理器调用以实现图像的识别方法。可选地,第二存储器可以包括但不限于以下几种:RAM、ROM、PROM、EPROM、EEPROM。可选地,第二处理器可以是通用处理器,比如,CPU或者NP。
示意性的,本申请提供的图像的识别方法可以应用于图像识别、图片美化、视频美化中。
图2示出了本申请一个示例性实施例提供的图像识别模型的训练方法的流程图。该方法可以由计算机设备来执行,例如,由图1所示的服务器或终端来执行。所述方法包括:
步骤201,获取训练数据。
示例性的,图像识别模型用于识别图像中属于目标类型的区域。示例性的,将目标图像输入图像识别模型,图像识别模型可以计算得到目标图像中每个像素点属于目标类型的概率。图像识别模型可以输出该概率;或,根据该概率对目标图像进行区域划分,将概率大于阈值的区域确定为目标类型的区域,将概率小于阈值的区域确定为非目标类型的区域,将划分后的目标图像输出。
因此,训练数据包括用于训练图像识别模型的训练图像,以及训练图像对应的标记信息。示例性的,标记信息包括标记训练图像中每个像素点是否属于目标类型。
示例性的,目标类型用于对图像进行区域划分。目标类型可以是任意的,例如,目标类型可以是头发、天空、猫、文字等中的任意一种,对应的,使图像识别模型用于识别图像中的头发区域、天空区域、猫的区域、文字区域等任意一种类型的区域。
示例性的,训练数据是至少一个包括头发区域的训练图像,和在训练图像上标注出的头发区域的标记信息。
步骤202,获取基础模型,基础模型包括编码器和解码器,编码器包括顺序连接的n个卷积模块,n是大于1的整数。
示例性的,基础模型包括编码器和解码器,编码器用于对输入的图像进行卷积,提取图像中的特征得到编码特征图像。解码器用于对编码器输出的编码特征图像进行解码得到解码特征图像。根据解码特征图像计算输入的图像中每个像素点的概率值,并输出概率值。示例性的,编码器中包括顺序连接的多个卷积模块,前一个卷积模块的输出作为后一个卷积模块的输入,从而通过深层卷积提取图像的深层特征。
示例性的,基础模型可以是通过初始化获得的初始化模型,也可以是对初始化模型进行预训练获得的预训练模型。
示例性的,当基础模型是通过初始化获得的初始化模型时,计算机设备通过设置模型中各个参数的初始值来获得初始化模型。
示例性的,当基础模型是通过预训练获得的预训练模型时,如图3所示,步骤202还包括步骤2021和步骤2022。
步骤2021,获取初始化模型,初始化模型包括编码器和解码器。
示例性的,计算机设备通过设置模型中各个参数的初始值来获得初始化模型。初始化模型是还未经过训练的初始模型。
步骤2022,根据第二预训练损失函数,使用训练数据训练初始化模型得到基础模型。
示例性的,在得到初始化模型后,计算机设备可以使用训练数据对初始化模型进行预训练,得到具有一定识别能力的基础模型。
示例性的,预训练利用第二预训练损失函数来进行优化。第二预训练损失函数可以是任意一种损失函数,例如,第二预训练损失函数可以是CE loss(Cross Entropy loss,交叉熵损失)函数。具体地,CE loss公式如下:
其中,Lce为损失值,为训练图像中第i个像素点的标记信息,αi为模型输出的对训练图像中第i个像素点的识别结果,gt(ground truth,真实数据)。
示例性的,根据预训练得到的基础模型具有一定的识别能力,能够初步地识别图像中属于目标类型的区域。
步骤203,根据构建在编码器上的注意力自监督机制,使用训练数据训练基础模型得到图像识别模型,注意力自监督机制用于根据n个卷积模块中的第i+1个卷积模块输出的第i+1个特征图像监督调整第i个卷积模块,i是大于0小于n的整数。
示例性的,在获得基础模型后,计算机设备根据构建在编码器上的注意力自监督机制来对基础模型进行训练,得到图像识别模型。示例性的,注意力自监督机制用于对编码器中的卷积模块进行调整,根据相邻的两个卷积模块中,后一个卷积模块的输出来调整前一个卷积模块,使前一个卷积模块能够学习更深层的特征,提高浅层卷积模块的特征提取能力。示例性的,利用注意力自监督机制对后一个卷积模块输出的特征图像提取注意力特征图,将注意力特征图作为前一个卷积模块的监督来调整前一个卷积模块。
示例性的,给出一种根据注意力自监督机制训练图像识别模型的方法,如图3所示,步骤203还包括步骤2031至步骤2034。
步骤2031,将训练数据输入基础模型。
示例性的,计算机设备将训练数据中的训练图像输入基础模型,经过一系列计算后得到对训练图像的识别结果,根据识别结果和训练数据中的标记信息,利用损失函数来对基础模型进行调优。然后再输入下一个训练图像,重复上述步骤迭代调整基础模型最终得到图像识别模型。
步骤2032,根据基础模型的输出和第一预训练损失函数计算第一损失。
示例性的,第一预训练损失函数与第二预训练损失函数相同,计算机设备根据基础模型对训练图像的识别结果,以及训练图像的标记信息,利用CE loss函数计算得到第一损失值(第一损失)。
步骤2033,根据卷积模块的输出和自监督损失函数计算第二损失。
示例性的,对基础模型的训练用到了两个损失函数:自监督损失函数和第一预训练损失函数。自监督损失函数用于根据第i+1个卷积模块的输出、第i个卷积模块的输出,计算第i个卷积模块的损失值,从而使计算机设备根据损失值来训练第i个卷积模块。第一预训练损失函数用于根据基础模型对训练图像的识别结果和训练数据对应的标记信息来计算基础模型的损失值,从而使计算机设备根据损失值来训练基础模型。
示例性的,第一预训练损失函数和第二预训练损失函数可以是相同的损失函数也可以是不同的损失函数。示例性的,第一与训练损失函数与第二预训练损失函数相同。
示例性的,第二损失包括多个卷积模块分别对应的多个损失值,给出一种计算第二损失的方法,如图4所示,步骤2033还包括步骤2033-1至步骤2033-4。
步骤2033-1,获取第i个卷积模块输出的第i个特征图像和第i+1个卷积模块输出的第i+1个特征图像,i是大于0小于n的整数。
第i个特征图像是指第i个卷积模块输出的特征图像。第i+1个特征图像是指第i+1个卷积模块输出的特征图像。
步骤2033-2,计算第i个特征图像对应的第i个注意力特征图和第i+1个特征图像对应的第i+1个注意力特征图。
示例性的,计算机设备提取第i个特征图像和第i+1个特征图像对应的注意力特征图。注意力特征图的求取方式如下:
其中,ATi是第i个特征图像对应的第i个注意力特征图,j是第i个特征图像的第j个通道,j是大于0小于K的整数,K是第i个特征图像的通道总数,Fi是第i个特征图像,p是范数,示例性的,p取2,示例性的,p也可以取1或其他整数。
步骤2033-3,根据第i+1个注意力特征图、第i个注意力特征图和自监督损失函数计算第i个卷积模块对应的第i个损失值。
示例性的,自监督损失函数可以采用任意一种损失函数。本实施例以自监督损失函数为MSE loss(Minimum mean Square Error loss,最小均方差损失)函数为例。示例性的,MSE loss公式如下:
其中,ATi是第i个特征图像对应的第i个注意力特征图,是第i+1个特征图像对应的第i+1个注意力特征图,K为特征图像的总数量(卷积模块的数量)。
步骤2033-4,重复上述步骤计算得到第二损失,第二损失包括n-1个卷积模块对应的n-1个损失值。
示例性的,由于编码器包含n个卷积模块,当i+1取n时,i取n-1,则计算机设备一共可以使用上述方法获得n-1个卷积模块分别对应的n-1个损失值,将这n-1个损失值作为第二损失,用于训练基础模型。
例如,如图5所示,以编码器包括顺序连接的4个卷积模块为例,计算设备输入的训练图像经过第1个卷积模块301输出第1个特征图像,将第1特征图像输入第2个卷积模块302输出第2个特征图像,将第2特征图像输入第3个卷积模块303输出第3个特征图像,将第3特征图像输入第4个卷积模块304输出第4个特征图像,然后根据4个特征图像分别计算得到第1个注意力特征图505、第2个注意力特征图506、第3个注意力特征图507、第4个注意力特征图508,根据第1个注意力特征图505和第2个注意力特征图506计算得到第1个卷积模块301对应的第1个损失值,根据第2个注意力特征图506和第3个注意力特征图507计算得到第2个卷积模块302对应的第2个损失值,根据第3个注意力特征图507和第4个注意力特征图508计算得到第3个卷积模块303对应的第3个损失值,第1个损失值、第2个损失值、第3个损失值组成了第二损失。
示例性的,卷积模块采用深度可分离卷积结构。
相比常规的卷积操作,深度可分离卷积的参数数量和计算量较低。深度可分离卷积通过分别对图像进行空间维度(宽度和高度)和深度维度(通道数)进行卷积,通过两个卷积层的两次卷积来完成常规卷积一个卷积层的卷积操作。示例性的,卷积模块中包括两个卷积层:深度卷积层和逐点卷积层,输入卷积模块的图像顺序经过深度卷积层和逐点卷积层进行卷积后得到该卷积模块输出的特征图像。
相比于常规卷积,深度可分离卷积所使用的卷积核参数和计算次数要小于常规卷积。
例如,分别使用常规卷积和深度可分离卷积对3通道12*12大小的图像进行卷积得到8*8*256特征图像。
对于常规卷积:对图像进行5*5卷积,没有填充(padding)且步长为1,如果只考虑图像的宽度和高度,卷积过程即为:12*12图像卷积(5*5)卷积核得到8*8特征图像。5*5卷积核每25个像素进行标量乘法,每次输出1个数,最终得到一个8*8像素的特征图像,因为没有填充(12-5+1=8)。然而,由于图像有3个通道,卷积核也需要有3个通道。也即,每次卷积核移动时,实际上执行了5*5*3=75次乘法,而不是进行5*5=25次乘法。和二维中的情况一样,每25个像素进行一次标量矩阵乘法,输出1个数字。经过5*5*3的卷积核后,12*12*3的图像将成为8*8*1的图像。如果想输出256通道的特征图像,则需要256个5*5*3大小的卷积核,来得到256个8*8*1大小的特征图像,最终得到8*8*256的特征图像。
对于深度可分离卷积:首先对图像进行深度卷积,每个5*5*1卷积核卷积图像的一个通道,得到每25个像素组的标量积,得到一个8*8*1特征图像。三个通道的图像使用三个5*5*1的卷积核就可以得到8*8*3点的特征图像,深度卷积将12*12*3图像转换为8*8*3图像。然后对得到的特征图像进行逐点卷积,逐点卷积的卷积核大小为1*1*M,其中M为上一层的通道数(即深度卷积输出的特征图像的通道数,在本例中M为3)。因此,通过8*8*3图像迭代1*1*3卷积核,得到8*8*1图像。创建256个1*1*3卷积核,每个卷积核输出一个8*8*1特征图像,最终得到形状为8*8*256的特征图像。
即,常规卷积是:将12*12*3的图像卷积256个5*5*3的卷积核得到8*8*256的特征图像。深度可分离卷积是:将12*12*3的图像卷积3个5*5*1的卷积核然后再卷积256个1*1*3的卷积核得到8*8*256的特征图像。
则计算机设备在常规卷积中要做的乘法的个数:256个5*5*3内核移动8*8次,即256*3*5*5*8*8=1228800次乘法。对于深度可分离卷积,在深度卷积中,3个5*5*1的卷积核移动了8*8次,即3*5*5*8*8=4800次乘法;在逐点卷积中,256个1*1*3的卷积核移动了8*8次。即,256*1*1*3*8*8=49152次乘法;则深度可分离卷积一共进行了53952次乘法。可以明显看出使用深度可分离卷积的计算次数远远小于常规卷积。
步骤2034,根据第一损失和第二损失训练基础模型得到图像识别模型。
计算机设备利用第一损失来调整编码器和解码器,利用第二损失来调整编码器中的卷积模块,从而完成一次学习过程。计算机是设备通过重复上述步骤进行迭代学习,训练基础模型,最终获得图像识别模型。
综上所述,本实施例提供的方法,通过在训练图像识别模型时,采用注意力自监督机制对解码器的多个卷积模块进行自监督训练,利用后一个卷积模块输出的特征图像的注意力特征,对前一个卷积模块进行监督,使浅层特征学习到具有上下文信息的深层语义特征,同时又在浅层特征向下传递时反过来提供给深层特征更加丰富的细节信息,使得浅层特征和深层特征之间构建了一个自监督的注意力体系,增加图像识别模型识别的准确度。并且,该图像识别模型只需要在训练阶段使用注意力自监督机制,在应用阶段并不会使用,在提高图像识别模型准确度的同时可以降低图像识别模型在应用阶段的计算量,使图像识别模型可以应用在手机等移动终端中进行实时处理,提高图像识别的效率。
本实施例提供的方法,通过先对初始化模型进行预训练得到基础模型,然后在编码器上加入注意力自监督机制,进一步对基础模型进行训练调优,得到最终的图像识别模型。使编码器在使用注意力自监督机制前具备一定的特征提取能力,在第二次训练调优时,利用深层的卷积输出对浅层的卷积核进行调优,提高浅层卷积核的特征提取能力,提高训练得到的图像识别模型的识别准确度。
本实施例提供的方法,在采用注意力自监督机制训练图像识别模型时,分别计算每一个卷积模块输出的特征图像的注意力特征图,然后根据相邻的两个卷积模块的两个注意力特征图和自监督损失函数调整浅层的卷积模块,使浅层的卷积模块可以学习到深层的特征,提高特征提取的准确度。
本实施例提供的方法,通过采用深度可分离卷积构建卷积模块,深度可分离卷积相比于常规的卷积方式,可以以更小的计算量来得到指定通道数的特征图像,从而减少了图像识别模型的计算量。并且深度可分离卷积的参数量少于常规的卷积方式,减小了图像识别模型的存储大小,使图像识别模型可以在手机等移动终端上使用,实时输出识别结果。
示例性的,本实施例提供的图像识别模块,只在训练阶段使用了注意力自监督机制对模型进行调优训练,在模型使用阶段并不会用到注意力自监督机制,因此,注意力自监督机制并不会增加图像识别模型在使用阶段的计算量,使用上述方法训练得到的图像识别模型在使用阶段可以用很小的计算量得到准确的图像识别结果。
图6示出了本申请一个示例性实施例提供的图像的识别方法的流程图。该方法可以由计算机设备来执行,该计算机设备运行有图像识别模型,该图像识别模型是采用上述任意一种图像识别模型的训练方法训练得到的,例如,计算机设备可以是图1所示的服务器或终端。所述方法包括:
步骤401,获取目标图像。
示例性的,目标图像是用户提供的需要进行图像识别的图像。示例性的,目标图像需要识别头发区域的图像。
示例性的,当目标图像的尺寸不满足图像识别模型对输入图像的尺寸要求时,还可以对目标图像进行预处理,将预处理后的目标图像输入图像识别模型。预处理包括缩放、剪裁、旋转中的至少一种。
步骤402,通过编码器对目标图像进行编码处理得到编码特征图像。
示例性的,计算机设备通过编码器对目标图像进行深层卷积,得到目标图像的特征图像。
示例性的,给出一种编码器对目标图像进行编码处理的方法,如图7所示,步骤402还包括步骤4021至步骤4023。
步骤4021,将目标图像输入第1个卷积模块,得到第1个特征图像。
步骤4022,将第i个特征图像输入第i+1个卷积模块,得到第i+1个特征图像,i是大于0小于n的整数。
步骤4023,将第n个特征图像确定为编码特征图像。
示例性的,编码器包括顺序连接的n个卷积模块,卷积模块是采用深度可分离结构构建的。前一个卷积模块的输出作为后一个卷积模块的输入,进而对输入的目标图像进行深层卷积,提取目标图像的深层特征。目标图像经过n个卷积模块最终在第n个卷积模块输出编码特征图像。编码特征图像是编码器输出的特征图像。示例性的,n取大于1的整数,例如,n取4、5、6。
步骤403,通过解码器对编码特征图像进行解码处理得到解码特征图像。
示例性的,计算机设备通过解码器对编码特征图像进行逐层上采样和卷积,得到解码特征图像。
示例性的,给出两种解码器对编码特征图像进行解码处理的方法,如图7所示,步骤403还包括步骤4031至步骤4032;或,如图8所示,步骤403还包括步骤4033。
步骤4031,采用双线性差值上采样对编码特征图像进行逐层上采样得到上采样特征图像。
示例性的,编码特征图像包括多个通道,计算机设备采用双线性插值上采样法逐个通道地对编码特征图像进行上采样。
示例性的,上采样用于对编码特征图像进行放大,放大后图像中空缺的点(未知点)根据已知点来填充。示例性的,双线性差值上采样法根据两个方向上分别相邻的两个已知点(共四个已知点)与未知点的距离,以及已知点对应的数值来确定未知点的取值。
例如,利用第一已知点:位置(0,0),取值1;第二已知点:位置(0,4),取值2;第三已知点:位置(4,4),取值3;第四已知点:位置(4,0),取值4;来确定(1,1)位置的取值。利用第一已知点和第四已知点可以得到位置(1,0)的取值为7/4,利用第二已知点和第三已知点可以得到位置(1,4)的取值为9/4,利用位置(1,0)和位置(1,4)的取值可以计算得到位置(1,1)的取值为15/8。
步骤4032,对上采样特征图像进行卷积得到解码特征图像。
示例性的,计算机设备对上采样得到的上采样特征图像进行卷积,得到解码特征图像。
步骤4033,对编码特征图像进行卷积得到解码特征图像。
示例性的,计算机设备也可以不进行上采样,直接对编码特征图像进行卷积得到解码特征图像。
步骤404,根据解码特征图像输出目标图像的图像识别结果,图像识别结果包括将目标图像中的目标区域识别为目标类型。
示例性的,计算机设备根据解码特征图像计算得到图像识别结果。示例性的,图像识别结果包括目标图像中的像素点属于目标类型的概率值。
示例性的,计算机设备可以采用softmax函数计算图像识别结果,softmax函数计算如下:
其中,f为概率值,αj为解码特征图像中第j个像素点对应的取值。
综上所述,本实施例提供的方法,通过在训练图像识别模型时,采用注意力自监督机制对解码器的多个卷积层进行自监督训练,利用后一个卷积层输出的特征图像的注意力特征,对前一个卷积层进行监督,使浅层特征学习到具有上下文信息的深层语义特征,同时又在浅层特征向下传递时反过来提供给深层特征更加丰富的细节信息,使得浅层特征和深层特征之间构建了一个自监督的注意力体系,增加图像识别模型识别的准确度。并且,该图像识别模型只需要在训练阶段使用注意力自监督机制,在应用阶段并不会使用,在提高图像识别模型准确度的同时可以降低图像识别模型在应用阶段的计算量,使图像识别模型可以应用在手机等移动终端中进行实时处理,提高图像识别的效率。
示例性的,本申请还给出了一种将上述图像识别模型的训练方法和图像的识别方法应用于头发识别的实施例。图9示出了本申请一个示例性实施例提供的图像的识别方法的流程图。该方法可以由计算机设备来执行,例如,由图1所示的服务器或终端来执行。该方法包括以下步骤。
步骤501,准备头发分割训练数据。
计算机设备获取头发分割训练数据(训练数据)。
步骤502,头发分割深度学习模型预训练。
计算机设备利用头发分割训练数据训练初始化模型,得到基础模型。
步骤503,头发分割模型注意力自监督训练调优。
计算机设备在基础模型的编码器中构建注意力自监督机制,再利用头发分割训练数据对基础模型进行训练调优,来提升基础模型对头发区域的识别能力,得到图像识别模型(头发分割深度学习模型)。
例如,如图10所示,(1)为输入图像识别模型的目标图像,(2)为使用基础模型识别得到的识别结果,(3)为使用经过注意力自监督机制进行调优后的图像识别模型得到的识别结果。示例性的,根据图像识别模型输出的各个像素点的概率值确定像素点的颜色,将概率值为0-0.5的像素点确定为黑色,将概率值为0.5-1的像素点确定为白色,概率值越大表明是头发的可能性越高。通过比较(2)和(3)可以明显看出注意力自监督机制调优后的识别结果(3)的头发区域更完整、置信度更高,对于头发这种二义性比较强的分割区域整体细节更丰富。
步骤504,输出头发分割深度学习模型。
步骤505,获取用户输入图像。
在得到头发分割深度学习模型(图像识别模型)后,计算机设备获取用户输入的图像(目标图像)。
步骤506,头发分割模型预测头发前景区域。
计算机设备调用头发分割模型对图像进行预测,得到图像中每个像素点属于头发的概率值。将概率值大于阈值的像素点确定为头发前景区域。示例性的,计算机设备还可以使用不同的颜色来标注属于头发的像素点和不属于头发的像素点,例如,将概率值大于阈值的像素点标为白色,将概率值小于阈值的像素点标为黑色。
步骤507,头发分割区域后处理输出最终结果。
计算机设备可以对分割得到的头发区域进行处理,然后输出最终结果。示例性的,计算机设备可以将头发区域进行区别显示,或根据用户选择的特效对头发区域进行美化。
例如,如图11所示,在识别得到图像中的头发前景区域后,如(1)所示,在头发区域上显示特效,或,如(2)所示,改变头发区域的色彩从而改变图片中女孩的头发的颜色。
综上所述,本实施例提供的方法,采用参数量少,计算复杂度低的深度可分离卷积设计神经网络,然后针对头发区域二义性较强、边界不明显、细节区域密集的特点,设计了注意力自监督机制对头发分割预测细节进行优化,在满足移动端实时推断的前提下,进一步地提高了头发区域预测的完整性和细节丰富性。整体方案无须复杂后处理算法,可行性强,成本低,精度高并适合在移动端部署。
以下为本申请的装置实施例,对于装置实施例中未详细描述的细节,可以结合参考上述方法实施例中相应的记载,本文不再赘述。
图12示出了本申请的一个示例性实施例提供的图像识别模型的训练装置的结构示意图。该装置可以通过软件、硬件或者两者的结合实现成为服务器或终端的全部或一部分,该装置包括:
第一获取模块801,用于获取训练数据;
预训练模块802,用于获取基础模型,所述基础模型包括编码器和解码器,所述编码器包括顺序连接的n个卷积模块,所述n是大于1的整数;
训练模块803,用于根据构建在所述编码器上的注意力自监督机制,使用所述训练数据训练所述基础模型得到图像识别模型,所述注意力自监督机制用于根据所述n个卷积模块中的第i+1个卷积模块输出的第i+1个特征图像监督调整第i个卷积模块,所述i是大于0小于所述n的整数。
在一个可选的实施例中,所述训练模块803包括:输入子模块804、计算子模块806和训练子模块807;
所述输入子模块804,用于将所述训练数据输入所述基础模型;
所述计算子模块806,还用于根据所述基础模型的输出和第一预训练损失函数计算第一损失;
所述计算子模块806,用于根据所述卷积模块的输出和自监督损失函数计算第二损失;
所述训练子模块807,用于根据所述第一损失和所述第二损失训练所述基础模型得到所述图像识别模型。
在一个可选的实施例中,所述训练模块803还包括输出子模块805;
所述输出子模块805,用于获取所述第i个卷积模块输出的第i个特征图像和所述第i+1个卷积模块输出的所述第i+1个特征图像,所述i是大于0小于所述n的整数;
所述计算子模块806,还用于计算所述第i个特征图像对应的第i个注意力特征图和所述第i+1个特征图像对应的第i+1个注意力特征图;
所述计算子模块806,还用于根据所述第i+1个注意力特征图、所述第i个注意力特征图和所述自监督损失函数计算所述第i个卷积模块对应的第i个损失值;
所述计算子模块806,还用于重复上述步骤计算得到所述第二损失,所述第二损失包括n-1个卷积模块对应的n-1个损失值。
在一个可选的实施例中,所述预训练模块802包括:初始化子模块808和预训练子模块809;
所述初始化子模块808,用于获取初始化模型,所述初始化模型包括所述编码器和所述解码器;
所述预训练子模块809,用于根据第二预训练损失函数,使用所述训练数据训练所述初始化模型得到所述基础模型。
在一个可选的实施例中,所述卷积模块采用深度可分离卷积结构。
图13示出了本申请的一个示例性实施例提供的图像的识别装置的结构示意图。该装置可以通过软件、硬件或者两者的结合实现成为服务器或终端的全部或一部分,所述装置应用于运行有图像识别模型的计算机设备,所述图像识别模型是采用上述的图像识别模型的训练方法训练得到的,所述装置包括:
第二获取模块901,用于获取目标图像;
编码模块902,用于通过编码器对所述目标图像进行编码处理得到编码特征图像;
解码模块903,用于通过解码器对所述编码特征图像进行解码处理得到解码特征图像;
输出模块904,用于根据所述解码特征图像输出所述目标图像的图像识别结果,所述图像识别结果包括将所述目标图像中的目标区域识别为目标类型。
在一个可选的实施例中,所述编码器包括n个顺序连接的卷积模块,所述n是大于1的整数;
所述编码模块902,还用于将所述目标图像输入第1个所述卷积模块,得到第1个所述特征图像;
所述编码模块902,还用于将第i个所述特征图像输入第i+1个所述卷积模块,得到第i+1个所述特征图像,所述i是大于0小于所述n的整数;
所述编码模块902,还用于将第n个所述特征图像确定为所述编码特征图像。
在一个可选的实施例中,所述解码模块903,还用于采用双线性差值上采样对所述编码特征图像进行逐层上采样得到上采样特征图像;对所述上采样特征图像进行卷积得到所述解码特征图像;
或,
所述解码模块903,还用于对所述编码特征图像进行卷积得到所述解码特征图像。
图14是本申请一个实施例提供的服务器的结构示意图。具体来讲:服务器1000包括中央处理单元(英文:Central Processing Unit,简称:CPU)1001、包括随机存取存储器(英文:Random Access Memory,简称:RAM)1002和只读存储器(英文:Read-Only Memory,简称:ROM)1003的系统存储器1004,以及连接系统存储器1004和中央处理单元1001的系统总线1005。服务器1000还包括帮助计算机内的各个器件之间传输信息的基本输入/输出系统(I/O系统)1006,和用于存储操作系统1013、应用程序1014和其他程序模块1015的大容量存储设备1007。
基本输入/输出系统1006包括有用于显示信息的显示器1008和用于用户输入信息的诸如鼠标、键盘之类的输入设备1009。其中显示器1008和输入设备1009都通过连接到系统总线1005的输入/输出控制器1010连接到中央处理单元1001。基本输入/输出系统1006还可以包括输入/输出控制器1010以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入/输出控制器1010还提供输出到显示屏、打印机或其他类型的输出设备。
大容量存储设备1007通过连接到系统总线1005的大容量存储控制器(未示出)连接到中央处理单元1001。大容量存储设备1007及其相关联的计算机可读介质为服务器1000提供非易失性存储。也就是说,大容量存储设备1007可以包括诸如硬盘或者只读光盘(英文:Compact Disc Read-Only Memory,简称:CD-ROM)驱动器之类的计算机可读介质(未示出)。
不失一般性,计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、可擦除可编程只读存储器(英文:Erasable Programmable Read-Only Memory,简称:EPROM)、电可擦除可编程只读存储器(英文:Electrically Erasable Programmable Read-Only Memory,简称:EEPROM)、闪存或其他固态存储其技术,CD-ROM、数字通用光盘(英文:Digital Versatile Disc,简称:DVD)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知计算机存储介质不局限于上述几种。上述的系统存储器1004和大容量存储设备1007可以统称为存储器。
根据本申请的各种实施例,服务器1000还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即服务器1000可以通过连接在系统总线1005上的网络接口单元1011连接到网络1012,或者说,也可以使用网络接口单元1011来连接到其他类型的网络或远程计算机系统(未示出)。
本申请还提供了一种终端,该终端包括处理器和存储器,存储器中存储有至少一条指令,至少一条指令由处理器加载并执行以实现上述各个方法实施例提供的图像的识别方法。需要说明的是,该终端可以是如下图15所提供的终端。
图15示出了本申请一个示例性实施例提供的终端1100的结构框图。该终端1100可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group AudioLayer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1100还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1100包括有:处理器1101和存储器1102。
处理器1101可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1101可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1101也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1101可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1101还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1102可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1102还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1102中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1101所执行以实现本申请中方法实施例提供的图像的识别方法。
在一些实施例中,终端1100还可选包括有:外围设备接口1103和至少一个外围设备。处理器1101、存储器1102和外围设备接口1103之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1103相连。具体地,外围设备包括:射频电路1104、显示屏1105、摄像头组件1106、音频电路1107、定位组件1108和电源1109中的至少一种。
外围设备接口1103可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1101和存储器1102。在一些实施例中,处理器1101、存储器1102和外围设备接口1103被集成在同一芯片或电路板上;在一些其他实施例中,处理器1101、存储器1102和外围设备接口1103中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1104用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1104通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1104将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1104包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1104可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1104还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1105用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1105是触摸显示屏时,显示屏1105还具有采集在显示屏1105的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1101进行处理。此时,显示屏1105还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1105可以为一个,设置终端1100的前面板;在另一些实施例中,显示屏1105可以为至少两个,分别设置在终端1100的不同表面或呈折叠设计;在再一些实施例中,显示屏1105可以是柔性显示屏,设置在终端1100的弯曲表面上或折叠面上。甚至,显示屏1105还可以设置成非矩形的不规则图形,也即异形屏。显示屏1105可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1106用于采集图像或视频。可选地,摄像头组件1106包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1106还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1107可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1101进行处理,或者输入至射频电路1104以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1100的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1101或射频电路1104的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1107还可以包括耳机插孔。
定位组件1108用于定位终端1100的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件1108可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统的定位组件。
电源1109用于为终端1100中的各个组件进行供电。电源1109可以是交流电、直流电、一次性电池或可充电电池。当电源1109包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1100还包括有一个或多个传感器1110。该一个或多个传感器1110包括但不限于:加速度传感器1111、陀螺仪传感器1112、压力传感器1113、指纹传感器1114、光学传感器1115以及接近传感器1116。
加速度传感器1111可以检测以终端1100建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1111可以用于检测重力加速度在三个坐标轴上的分量。处理器1101可以根据加速度传感器1111采集的重力加速度信号,控制显示屏1105以横向视图或纵向视图进行用户界面的显示。加速度传感器1111还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1112可以检测终端1100的机体方向及转动角度,陀螺仪传感器1112可以与加速度传感器1111协同采集用户对终端1100的3D动作。处理器1101根据陀螺仪传感器1112采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1113可以设置在终端1100的侧边框和/或显示屏1105的下层。当压力传感器1113设置在终端1100的侧边框时,可以检测用户对终端1100的握持信号,由处理器1101根据压力传感器1113采集的握持信号进行左右手识别或快捷操作。当压力传感器1113设置在显示屏1105的下层时,由处理器1101根据用户对显示屏1105的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1114用于采集用户的指纹,由处理器1101根据指纹传感器1114采集到的指纹识别用户的身份,或者,由指纹传感器1114根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1101授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1114可以被设置终端1100的正面、背面或侧面。当终端1100上设置有物理按键或厂商Logo时,指纹传感器1114可以与物理按键或厂商Logo集成在一起。
光学传感器1115用于采集环境光强度。在一个实施例中,处理器1101可以根据光学传感器1115采集的环境光强度,控制显示屏1105的显示亮度。具体地,当环境光强度较高时,调高显示屏1105的显示亮度;当环境光强度较低时,调低显示屏1105的显示亮度。在另一个实施例中,处理器1101还可以根据光学传感器1115采集的环境光强度,动态调整摄像头组件1106的拍摄参数。
接近传感器1116,也称距离传感器,通常设置在终端1100的前面板。接近传感器1116用于采集用户与终端1100的正面之间的距离。在一个实施例中,当接近传感器1116检测到用户与终端1100的正面之间的距离逐渐变小时,由处理器1101控制显示屏1105从亮屏状态切换为息屏状态;当接近传感器1116检测到用户与终端1100的正面之间的距离逐渐变大时,由处理器1101控制显示屏1105从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图15中示出的结构并不构成对终端1100的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,所述一个或者一个以上程序包含用于进行本申请实施例提供的图像的识别方法。
本申请还提供一种计算机设备,该计算机设备包括:处理器和存储器,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的图像识别模型的训练方法。
本申请还提供一种计算机可读存储介质,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的图像识别模型的训练方法。
本申请还提供一种计算机设备,该计算机设备包括:处理器和存储器,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的图像的识别方法。
本申请还提供一种计算机可读存储介质,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的图像的识别方法。
本申请还提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述可选实现方式中提供的图像识别模型的训练方法。
本申请还提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述可选实现方式中提供的图像的识别方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (13)
1.一种图像识别模型的训练方法,其特征在于,所述方法包括:
获取训练数据;
获取基础模型,所述基础模型包括编码器和解码器,所述编码器包括顺序连接的n个卷积模块,所述n是大于1的整数;
将所述训练数据输入所述基础模型;
根据所述基础模型的输出和第一预训练损失函数计算第一损失;
根据所述卷积模块的输出和自监督损失函数计算第二损失;
根据所述第一损失和所述第二损失训练所述基础模型得到图像识别模型;
其中,所述第一预训练损失函数用于计算所述基础模型的损失值,所述自监督损失函数用于计算第i个卷积模块的损失值。
2.根据权利要求1所述的方法,其特征在于,所述根据所述卷积模块的输出和自监督损失函数计算第二损失,包括:
获取所述第i个卷积模块输出的第i个特征图像和所述第i+1个卷积模块输出的所述第i+1个特征图像,所述i是大于0小于所述n的整数;
计算所述第i个特征图像对应的第i个注意力特征图和所述第i+1个特征图像对应的第i+1个注意力特征图;
根据所述第i+1个注意力特征图、所述第i个注意力特征图和所述自监督损失函数计算所述第i个卷积模块对应的第i个损失值;
重复上述步骤计算得到所述第二损失,所述第二损失包括n-1个卷积模块对应的n-1个损失值。
3.根据权利要求1或2所述的方法,其特征在于,所述获取基础模型,包括:
获取初始化模型,所述初始化模型包括所述编码器和所述解码器;
根据第二预训练损失函数,使用所述训练数据训练所述初始化模型得到所述基础模型。
4.根据权利要求1或2所述的方法,其特征在于,所述卷积模块采用深度可分离卷积结构。
5.一种图像的识别方法,其特征在于,所述方法应用于运行有图像识别模型的计算机设备,所述图像识别模型是采用如权利要求1至4任一所述的方法训练得到的,所述方法包括:
获取目标图像;
通过编码器对所述目标图像进行编码处理得到编码特征图像;
通过解码器对所述编码特征图像进行解码处理得到解码特征图像;
根据所述解码特征图像输出所述目标图像的图像识别结果,所述图像识别结果包括将所述目标图像中的目标区域识别为目标类型。
6.根据权利要求5所述的方法,其特征在于,所述编码器包括n个顺序连接的卷积模块,所述n是大于1的整数;
所述通过编码器对所述目标图像进行卷积得到编码特征图像,包括:
将所述目标图像输入第1个所述卷积模块,得到第1个所述特征图像;
将第i个所述特征图像输入第i+1个所述卷积模块,得到第i+1个所述特征图像,所述i是大于0小于所述n的整数;
将第n个所述特征图像确定为所述编码特征图像。
7.根据权利要求5所述的方法,其特征在于,所述通过解码器对所述编码特征图像进行解码处理得到解码特征图像,包括:
采用双线性差值上采样对所述编码特征图像进行逐层上采样得到上采样特征图像;对所述上采样特征图像进行卷积得到所述解码特征图像;
或,
对所述编码特征图像进行卷积得到所述解码特征图像。
8.一种图像识别模型的训练装置,其特征在于,所述装置包括:
第一获取模块,用于获取训练数据;
预训练模块,用于获取基础模型,所述基础模型包括编码器和解码器,所述编码器包括顺序连接的n个卷积模块,所述n是大于1的整数;
训练模块,用于将所述训练数据输入所述基础模型;
根据所述基础模型的输出和第一预训练损失函数计算第一损失;
根据所述卷积模块的输出和自监督损失函数计算第二损失;
根据所述第一损失和所述第二损失训练所述基础模型得到图像识别模型;
其中,所述第一预训练损失函数用于计算所述基础模型的损失值,所述自监督损失函数用于计算第i个卷积模块的损失值。
9.一种图像的识别装置,其特征在于,所述装置应用于运行有图像识别模型的计算机设备,所述图像识别模型是采用如权利要求1至4任一所述的方法训练得到的,所述装置包括:
第二获取模块,用于获取目标图像;
编码模块,用于通过编码器对所述目标图像进行编码处理得到编码特征图像;
解码模块,用于通过解码器对所述编码特征图像进行解码处理得到解码特征图像;
输出模块,用于根据所述解码特征图像输出所述目标图像的图像识别结果,所述图像识别结果包括将所述目标图像中的目标区域识别为目标类型。
10.一种计算机设备,所述计算机设备包括:处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行,以实现如权利要求1至4任一项所述的图像识别模型的训练方法。
11.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行,以实现如权利要求1至4任一项所述的图像识别模型的训练方法。
12.一种计算机设备,所述计算机设备包括:处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行,以实现如权利要求5至7任一项所述的图像的识别方法。
13.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行,以实现如权利要求5至7任一项所述的图像的识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010726141.7A CN111860485B (zh) | 2020-07-24 | 2020-07-24 | 图像识别模型的训练方法、图像的识别方法、装置、设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010726141.7A CN111860485B (zh) | 2020-07-24 | 2020-07-24 | 图像识别模型的训练方法、图像的识别方法、装置、设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111860485A CN111860485A (zh) | 2020-10-30 |
CN111860485B true CN111860485B (zh) | 2024-04-26 |
Family
ID=72949668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010726141.7A Active CN111860485B (zh) | 2020-07-24 | 2020-07-24 | 图像识别模型的训练方法、图像的识别方法、装置、设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111860485B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112581358B (zh) * | 2020-12-17 | 2023-09-26 | 北京达佳互联信息技术有限公司 | 图像处理模型的训练方法、图像处理方法及装置 |
CN112965488B (zh) * | 2021-02-05 | 2022-06-03 | 重庆大学 | 基于迁移学习神经网络的婴儿监控移动机器小车 |
CN113112400B (zh) * | 2021-05-07 | 2024-04-09 | 深圳追一科技有限公司 | 一种模型训练方法及模型训练装置 |
CN113380237A (zh) * | 2021-06-09 | 2021-09-10 | 中国科学技术大学 | 增强局部依赖关系无监督预训练语音识别模型及训练方法 |
CN113592769B (zh) * | 2021-06-23 | 2024-04-12 | 腾讯医疗健康(深圳)有限公司 | 异常图像的检测、模型的训练方法、装置、设备及介质 |
CN113420579B (zh) * | 2021-06-29 | 2023-05-26 | 北大方正集团有限公司 | 标识码位置定位模型的训练及定位方法、装置、电子设备 |
CN113902018A (zh) * | 2021-10-12 | 2022-01-07 | 深圳壹账通智能科技有限公司 | 图像样本生成方法、装置、计算机可读介质及电子设备 |
CN117540789B (zh) * | 2024-01-09 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 模型训练方法、面部表情迁移方法、装置、设备及介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647603A (zh) * | 2018-04-28 | 2018-10-12 | 清华大学 | 基于注意力机制的半监督连续手语翻译方法及装置 |
WO2019101021A1 (zh) * | 2017-11-23 | 2019-05-31 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置及电子设备 |
CN110147852A (zh) * | 2019-05-29 | 2019-08-20 | 北京达佳互联信息技术有限公司 | 图像识别的方法、装置、设备及存储介质 |
CN110363296A (zh) * | 2019-06-28 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 任务模型获取方法和装置、存储介质及电子装置 |
CN110672905A (zh) * | 2019-09-16 | 2020-01-10 | 东南大学 | 基于cnn的自监督电压暂降源辨识方法 |
CN111091166A (zh) * | 2020-03-25 | 2020-05-01 | 腾讯科技(深圳)有限公司 | 图像处理模型训练方法、图像处理方法、设备及存储介质 |
CN111325320A (zh) * | 2020-02-10 | 2020-06-23 | 深圳前海微众银行股份有限公司 | 弱监督机器学习优化方法、装置、设备及存储介质 |
CN111325726A (zh) * | 2020-02-19 | 2020-06-23 | 腾讯医疗健康(深圳)有限公司 | 模型训练方法、图像处理方法、装置、设备及存储介质 |
CN111340785A (zh) * | 2020-02-27 | 2020-06-26 | 广州大学 | 模型训练方法、产品表面缺陷检测方法和存储介质 |
-
2020
- 2020-07-24 CN CN202010726141.7A patent/CN111860485B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019101021A1 (zh) * | 2017-11-23 | 2019-05-31 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置及电子设备 |
CN108647603A (zh) * | 2018-04-28 | 2018-10-12 | 清华大学 | 基于注意力机制的半监督连续手语翻译方法及装置 |
CN110147852A (zh) * | 2019-05-29 | 2019-08-20 | 北京达佳互联信息技术有限公司 | 图像识别的方法、装置、设备及存储介质 |
CN110363296A (zh) * | 2019-06-28 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 任务模型获取方法和装置、存储介质及电子装置 |
CN110672905A (zh) * | 2019-09-16 | 2020-01-10 | 东南大学 | 基于cnn的自监督电压暂降源辨识方法 |
CN111325320A (zh) * | 2020-02-10 | 2020-06-23 | 深圳前海微众银行股份有限公司 | 弱监督机器学习优化方法、装置、设备及存储介质 |
CN111325726A (zh) * | 2020-02-19 | 2020-06-23 | 腾讯医疗健康(深圳)有限公司 | 模型训练方法、图像处理方法、装置、设备及存储介质 |
CN111340785A (zh) * | 2020-02-27 | 2020-06-26 | 广州大学 | 模型训练方法、产品表面缺陷检测方法和存储介质 |
CN111091166A (zh) * | 2020-03-25 | 2020-05-01 | 腾讯科技(深圳)有限公司 | 图像处理模型训练方法、图像处理方法、设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
Stacked convolutional sparse denoising auto-encoder for identification of defect patterns in semiconductor wafer map;Jianbo Yu 等;《Computers in Industry》;第121-133页 * |
基于卷积神经网络的人脸表情识别研究;李思泉;张轩雄;;软件导刊(01);第32-35页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111860485A (zh) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111860485B (zh) | 图像识别模型的训练方法、图像的识别方法、装置、设备 | |
CN110163048B (zh) | 手部关键点的识别模型训练方法、识别方法及设备 | |
CN110110145B (zh) | 描述文本生成方法及装置 | |
CN110544272B (zh) | 脸部跟踪方法、装置、计算机设备及存储介质 | |
CN110807361B (zh) | 人体识别方法、装置、计算机设备及存储介质 | |
CN111062981B (zh) | 图像处理方法、装置及存储介质 | |
CN110147533B (zh) | 编码方法、装置、设备及存储介质 | |
CN111476783B (zh) | 基于人工智能的图像处理方法、装置、设备及存储介质 | |
CN110147532B (zh) | 编码方法、装置、设备及存储介质 | |
CN111091166A (zh) | 图像处理模型训练方法、图像处理方法、设备及存储介质 | |
CN110570460B (zh) | 目标跟踪方法、装置、计算机设备及计算机可读存储介质 | |
CN110162604B (zh) | 语句生成方法、装置、设备及存储介质 | |
CN112036331A (zh) | 活体检测模型的训练方法、装置、设备及存储介质 | |
CN110991457B (zh) | 二维码处理方法、装置、电子设备及存储介质 | |
CN114359225B (zh) | 图像检测方法、装置、计算机设备及存储介质 | |
CN115471662B (zh) | 语义分割模型的训练方法、识别方法、装置和存储介质 | |
CN112115900B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN113076814A (zh) | 文本区域的确定方法、装置、设备及可读存储介质 | |
CN113516665A (zh) | 图像分割模型的训练方法、图像分割方法、装置、设备 | |
CN114283299A (zh) | 图像聚类方法、装置、计算机设备及存储介质 | |
CN113821658A (zh) | 对编码器进行训练的方法、装置、设备及存储介质 | |
CN113763931B (zh) | 波形特征提取方法、装置、计算机设备及存储介质 | |
CN112528760B (zh) | 图像处理方法、装置、计算机设备及介质 | |
CN112053360B (zh) | 图像分割方法、装置、计算机设备及存储介质 | |
CN113642359B (zh) | 人脸图像生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40030847 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |