CN114511082A - 特征提取模型的训练方法、图像处理方法、装置及设备 - Google Patents
特征提取模型的训练方法、图像处理方法、装置及设备 Download PDFInfo
- Publication number
- CN114511082A CN114511082A CN202210142473.XA CN202210142473A CN114511082A CN 114511082 A CN114511082 A CN 114511082A CN 202210142473 A CN202210142473 A CN 202210142473A CN 114511082 A CN114511082 A CN 114511082A
- Authority
- CN
- China
- Prior art keywords
- image
- fusion
- fused
- loss value
- extraction model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 139
- 238000000034 method Methods 0.000 title claims abstract description 96
- 238000012549 training Methods 0.000 title claims abstract description 76
- 238000003672 processing method Methods 0.000 title claims abstract description 25
- 230000004927 fusion Effects 0.000 claims abstract description 160
- 238000003062 neural network model Methods 0.000 claims abstract description 108
- 238000012545 processing Methods 0.000 claims abstract description 85
- 238000007499 fusion processing Methods 0.000 claims abstract description 25
- 238000002372 labelling Methods 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 description 27
- 210000002569 neuron Anatomy 0.000 description 22
- 238000005516 engineering process Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 18
- 238000013473 artificial intelligence Methods 0.000 description 12
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000005315 distribution function Methods 0.000 description 6
- 230000002159 abnormal effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000013145 classification model Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种特征提取模型的训练方法、图像处理方法、装置及设备,属于计算机技术领域。方法包括:获取至少两张样本图像;对至少两张样本图像进行融合处理,得到融合图像;基于神经网络模型,获取各张样本图像的图像特征和融合图像的图像特征;基于各张样本图像的图像特征和融合图像的图像特征,对神经网络模型进行调整,得到特征提取模型,使得特征提取模型学习到了样本图像的图像特征和融合图像的图像特征,提高了特征提取模型的准确性和鲁棒性,从而提高了图像特征的准确性,进而提高了图像处理结果的准确性。
Description
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种特征提取模型的训练方法、图像处理方法、装置及设备。
背景技术
随着计算机技术的不断发展,越来越多的图像是通过计算机进行图像处理的。计算机在对图像进行图像处理时,可以先利用特征提取模型提取图像特征,再基于图像特征进行图像处理。
相关技术中,特征提取模型往往是嵌入在图像处理模型中,在训练得到图像处理模型的过程中,也训练得到了特征提取模型。以训练得到图像分类模型为例,将样本图像输入至神经网络模型,由神经网络模型先获取样本图像的图像特征,再基于样本图像的图像特征确定样本图像的预测分类结果。之后,基于样本图像的标注分类结果和预测分类结果,对神经网络模型的模型参数进行调整,得到图像分类模型,该图像分类模型中包括特征提取模型。
上述技术得到的特征提取模型的准确性和鲁棒性均较差,导致基于特征提取模型提取的图像特征的准确性也不高,从而导致基于图像特征进行图像处理后的图像处理结果的准确性也不高。
发明内容
本申请实施例提供了一种特征提取模型的训练方法、图像处理方法、装置及设备,可用于解决相关技术中特征提取模型的准确性和鲁棒性均较差,从而导致图像处理结果的准确性也不高的问题,所述技术方案包括如下内容。
一方面,提供了一种特征提取模型的训练方法,所述方法包括:
获取至少两张样本图像;
对所述至少两张样本图像进行融合处理,得到融合图像;
基于神经网络模型获取所述至少两张样本图像中的各张样本图像的图像特征和所述融合图像的图像特征;
基于所述各张样本图像的图像特征和所述融合图像的图像特征,对所述神经网络模型进行调整,得到特征提取模型。
另一方面,本申请实施例提供了一种图像处理方法,所述方法包括:
获取目标图像;
基于特征提取模型获取所述目标图像的图像特征,所述特征提取模型是按照上述任一所述的特征提取模型的训练方法训练得到的;
基于所述目标图像的图像特征,对所述目标图像进行图像处理。
另一方面,本申请实施例提供了一种特征提取模型的训练装置,所述装置包括:
第一获取模块,用于获取至少两张样本图像;
融合模块,用于对所述至少两张样本图像进行融合处理,得到融合图像;
第二获取模块,用于基于神经网络模型获取所述至少两张样本图像中的各张样本图像的图像特征和所述融合图像的图像特征;
调整模块,用于基于所述各张样本图像的图像特征和所述融合图像的图像特征,对所述神经网络模型进行调整,得到特征提取模型。
在一种可能的实现方式中,所述融合模块,用于基于所述各张样本图像的融合权重,对所述至少两张样本图像进行融合处理,得到融合图像。
在一种可能的实现方式中,所述调整模块,用于对所述各张样本图像的图像特征进行融合处理,得到融合特征;基于所述融合特征和所述融合图像的图像特征,确定所述第一损失值;基于所述第一损失值对所述神经网络模型进行调整,得到所述特征提取模型。
在一种可能的实现方式中,所述调整模块,用于基于所述各张样本图像的融合权重,对所述各张样本图像的图像特征进行融合处理,得到融合特征。
在一种可能的实现方式中,所述调整模块,用于基于所述融合特征确定第二损失值;基于所述第一损失值和所述第二损失值,对所述神经网络模型进行调整,得到所述特征提取模型。
在一种可能的实现方式中,所述调整模块,用于基于所述融合特征预测得到所述融合图像的第一分类结果;获取所述融合图像的标注分类结果;基于所述融合图像的第一分类结果和所述融合图像的标注分类结果,确定所述第二损失值。
在一种可能的实现方式中,所述调整模块,用于对所述融合特征进行信息熵最大化处理,得到所述第二损失值。
在一种可能的实现方式中,所述调整模块,用于基于所述融合图像的图像特征确定第三损失值;基于所述第一损失值和所述第三损失值,对所述神经网络模型进行调整,得到所述特征提取模型。
在一种可能的实现方式中,所述调整模块,用于基于所述融合图像的图像特征预测得到所述融合图像的第二分类结果;获取所述融合图像的标注分类结果;基于所述融合图像的第二分类结果和所述融合图像的标注分类结果,确定所述第三损失值。
在一种可能的实现方式中,所述调整模块,用于对所述融合图像的图像特征进行信息熵最大化处理,得到所述第三损失值。
另一方面,本申请实施例提供了一种图像处理装置,所述装置包括:
获取模块,用于获取目标图像;
所述获取模块,还用于基于特征提取模型获取所述目标图像的图像特征,所述特征提取模型是按照上述任一所述的特征提取模型的训练方法训练得到的;
处理模块,用于基于所述目标图像的图像特征,对所述目标图像进行图像处理。
另一方面,本申请实施例提供了一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述处理器加载并执行,以使所述电子设备实现上述任一所述的特征提取模型的训练方法或者实现上述任一所述的图像处理方法。
另一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行,以使计算机实现上述任一所述的特征提取模型的训练方法或者实现上述任一所述的图像处理方法。
另一方面,还提供了一种计算机程序或计算机程序产品,所述计算机程序或计算机程序产品中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行,以使计算机实现上述任一种特征提取模型的训练方法或者实现上述任一所述的图像处理方法。
本申请实施例提供的技术方案至少带来如下有益效果:
本申请实施例提供的技术方案是利用各张样本图像的图像特征和融合图像的图像特征,对神经网络模型进行调整,得到特征提取模型,使得特征提取模型学习到了样本图像的图像特征和融合图像的图像特征,提高了特征提取模型的准确性和鲁棒性,从而提高了图像特征的准确性,进而提高了图像处理结果的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种特征提取模型的训练方法或者图像处理方法的实施环境示意图;
图2是本申请实施例提供的一种特征提取模型的训练方法的流程图;
图3是本申请实施例提供的一种正交分类器的示意图;
图4是本申请实施例提供的一种编码空间的示意图;
图5是本申请实施例提供的一种图像处理方法的流程图;
图6是本申请实施例提供的一种特征提取模型的训练方法的示意图;
图7是本申请实施例提供的一种特征提取模型的训练装置的结构示意图;
图8是本申请实施例提供的一种图像处理装置的结构示意图;
图9是本申请实施例提供的一种终端设备的结构示意图;
图10是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面先对本申请实施例涉及到的名词进行解释与说明。
对抗攻击(Adversarial Attack):通过最大化模型的损失函数生成具有针对性的噪音扰动,使得深度学习模型预测错误的一种攻击。
全连接层(Fully-Connected Layer):一种常见的网络结构,前一层网络和后一层网络的神经元节点完全连接。
快速梯度符号法(Fast Gradient Sign Method,FGSM):一种生成对抗样本以进行对抗攻击的方法。由于该方法只迭代一次,因此,该方法具有较快的生成速度,但攻击性不强。
投影梯度下降(Projected Gradient Descent,PGD):一种生成对抗样本以进行对抗攻击的方法。由于该方法需要多次迭代,因此,该方法的攻击性较强但生成速度较慢。
李普希茨约束(Lipschitz Constraint),也称为Lipschitz平滑,是用于描述映射函数的平滑性的一个约束,被广泛应用于机器学习领域。若模型满足该约束,则模型具有训练更稳定、迁移性更好、针对对抗攻击具有更好的鲁棒性等较为理想的特性。
下面将结合附图对本申请实施方式作进一步地详细描述。
图1是本申请实施例提供的一种特征提取模型的训练方法或者图像处理方法的实施环境示意图,如图1所示,该实施环境包括终端设备101和服务器102。其中,本申请实施例中的特征提取模型的训练方法或者图像处理方法可以由终端设备101执行,也可以由服务器102执行,或者由终端设备101和服务器102共同执行。
终端设备101可以是智能手机、游戏主机、台式计算机、平板电脑、膝上型便携计算机、智能电视、智能车载设备、智能语音交互设备、智能家电等。服务器102可以为一台服务器,或者为多台服务器组成的服务器集群,或者为云计算平台和虚拟化中心中的任意一种,本申请实施例对此不加以限定。服务器102可以与终端设备101通过有线网络或无线网络进行通信连接。服务器102可以具有数据处理、数据存储以及数据收发等功能,在本申请实施例中不加以限定。终端设备101和服务器102的数量不受限制,可以是一个或多个。
本申请实施例提供的特征提取模型的训练方法或者图像处理方法可以基于人工智能技术实现。人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、光学字符识别(Optical Character Recognition,OCR)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
基于上述实施环境,本申请实施例提供了一种特征提取模型的训练方法,以图2所示的本申请实施例提供的一种特征提取模型的训练方法的流程图为例,该方法可由图1中的终端设备101或者服务器102执行,也可以由终端设备101和服务器102共同执行。为便于描述,将执行本申请实施例中的特征提取模型的训练方法的终端设备101或者服务器102称为电子设备,也就是说,本申请实施例的特征提取模型的训练方法可以由电子设备来执行。如图2所示,该方法包括步骤201至步骤204。
步骤201,获取至少两张样本图像。
本申请实施例不对样本图像的获取方式做限定。示例性的,从任意视频中提取出的任意一帧图像均可以作为样本图像,或者,利用网络爬虫抓取的任意一张图像均可以作为样本图像,或者利用图像生成技术生成的任意一张图像也可以作为样本图像。
本申请实施例也不对样本图像的内容、大小、格式等做限定。示例性的,样本图像是包含猫、狗等目标对象的图像,样本图像的格式为位图(Bitmap,BMP)格式、标签图像文件格式(Tag Image File Format,TIFF)、图形交换格式(Graphics Interchange Format,GIF)等。
步骤202,对至少两张样本图像进行融合处理,得到融合图像。
本申请实施例中,可以将至少两张样本图像融合成一张融合图像,此时,这至少两张样本图像和这张融合图像可以称作一个图像集合。可以理解的是,图像集合的数量为至少一个。也就是说,本申请实施例可以获取至少一个图像集合,任一个图像集合中包括至少两张样本图像和一张融合图像,该融合图像是由至少两张样本图像融合得到的。
例如,将样本图像A和样本图像B融合成一张融合图像AB,将样本图像A和样本图像C融合成一张融合图像AC,则一个图像集合中包括样本图像A、样本图像B和融合图像AB,另一个图像集合中包括样本图像A、样本图像C和融合图像AC。
需要说明的是,任一个图像集合均是按照步骤203和步骤204的方式进行处理的,下文详细介绍了步骤203和步骤204,在此不再赘述。
在一种可能的实现方式中,对至少两张样本图像进行融合处理,得到融合图像,包括:基于各张样本图像的融合权重,对至少两张样本图像进行融合处理,得到融合图像。
本申请实施例中,对于任一张样本图像,可以从概率分布函数中随机采样得到任一张样本图像的融合权重,也可以在确定了至少两张样本图像中除该任一张样本图像之外的其他样本图像的融合权重之后,根据至少两张样本图像中除该任一张样本图像之外的其他样本图像的融合权重,确定该任一张样本图像的融合权重,还可以将目标数据作为该任一张样本图像的融合权重。其中,本申请实施例不对概率分布函数、目标数据做限定。示例性的,概率分布函数为α=1的贝塔(Beta)分布函数,目标数据为数字1与样本图像的数量的比值。
通过上述方式,可以确定出至少两张样本图像的融合权重。接下来,基于各张样本图像的融合权重,采用线性插值的方式,对至少两张样本图像进行融合处理,得到融合图像。
以两张样本图像为例,这两张样本图像分别记为xi和xj,其中,样本图像xi的融合权重是从α=1的贝塔分布函数中随机取样得到的,记为样本图像xi的融合权重λ。基于样本图像xi的融合权重λ,可以确定样本图像xj的融合权重为1-λ。此时,基于样本图像xi的融合权重λ、样本图像xj的融合权重1-λ,采用线性插值的方式,对样本图像xi和样本图像xj进行融合处理,得到融合图像且
需要说明的是,任一张样本图像的融合权重的取值为[0.0-1.0]。当基于各张样本图像的融合权重,采用线性插值的方式,对至少两张样本图像进行融合处理,得到融合图像时,该融合处理即为线性插值处理,此时,任一张样本图像的融合权重可以称为任一张样本图像的线性插值参数,融合图像可以理解为聚合中心图像。
步骤203,基于神经网络模型,获取各张样本图像的图像特征和融合图像的图像特征。
本申请实施例不对神经网络模型的模型结构和大小做限定。示例性的,神经网络模型为下表1所示的Wide Resnet模型。
表1
其中,k是神经网络模型中有关通道维度的超参数,N表示卷积组(Group)中卷积块(Block)的数量。k和N均为正整数,本申请实施例不对k和N的数值做限定,示例性的,k=10。本申请实施例中的卷积块与Resnet模型中的卷积块一致,该卷积块是两层卷积,每层卷积使用3×3的卷积核进行卷积处理。
需要说明的是,神经网络模型是初始化后的第一原始模型(当前训练为第一次训练)或者对初始化后的第一原始模型进行至少一次训练得到的模型(当前训练为第一次训练之后的训练)。第一原始模型的结构与神经网络模型的结构相同,二者仅模型参数不同。可以采用任意的模型初始化方式,对第一原始模型进行初始化处理,得到初始化后的第一原始模型。例如,采用方差为1、均值为0的高斯分布函数,对第一原始模型进行初始化处理,得到初始化后的第一原始模型。
本申请实施例中,将各张样本图像输入至神经网络模型,由神经网络模型输出各张样本图像的图像特征,同时,将融合图像输入至神经网络模型,由神经网络模型输出融合图像的融合特征。
也就是说,对于任一个图像集合,将任一个图像集合输入至神经网络模型,由神经网络模型输出任一个图像集合中各张样本图像的图像特征和任一个图像集合中融合图像的融合特征。通过这种方式,可以得到各个图像集合中各张样本图像的图像特征和各个图像集合中融合图像的融合特征。
可以理解的是,一次可以将至少一个图像集合输入神经网络模型,由神经网络模型输出大小为(Batch,M)的向量,该(Batch,M)的向量包括至少一个图像集合中各张样本图像的图像特征和至少一个图像集合中融合图像的融合特征。其中,Batch表征批大小,也就是输入至神经网络模型中的图像(包括样本图像和融合图像)的数量,M表征通道数,M为正整数。
步骤204,基于各张样本图像的图像特征和融合图像的图像特征,对神经网络模型进行调整,得到特征提取模型。
本申请实施例中,可以基于各张样本图像的图像特征和融合图像的图像特征,确定神经网络模型的损失值。基于神经网络模型的损失值,对神经网络模型进行调整,得到调整后的神经网络模型。若满足训练结束条件,则将调整后的神经网络模型作为特征提取模型,则不满足训练结束条件,则将调整后的神经网络模型作为下一次训练的神经网络模型,并按照步骤201至步骤204的方式,对调整后的神经网络模型再次进行调整,直至得到特征提取模型。
本申请实施例不对满足训练结束条件做限定,示例性的,满足训练结束条件为达到目标训练次数,不满足训练结束条件为没有达到目标训练次数。其中,本申请实施例不对目标训练次数做限定,示例性的,目标训练次数是500次。
需要说明的是,本申请实施例可以采用随机梯度下降法(Stochastic GradientDescent,SGD),基于神经网络模型的损失值,对神经网络模型进行调整,得到调整后的神经网络模型。示例性的,基于神经网络模型的损失值,采用SGD确定神经网络模型的损失值的梯度,利用神经网络模型的损失值的梯度,对神经网络模型进行调整,得到调整后的神经网络模型。
在一种可能的实现方式中,基于各张样本图像的图像特征和融合图像的图像特征,对神经网络模型进行调整,得到特征提取模型,包括:对各张样本图像的图像特征进行融合处理,得到融合特征;基于融合特征和融合图像的图像特征,确定第一损失值;基于第一损失值对神经网络模型进行调整,得到特征提取模型。
本申请实施例中,可以将至少两张样本图像的图像特征融合成一个融合特征。也就是说,对于任一个图像集合,可以将该任一个图像集合中各张样本图像的图像特征融合成一个融合特征,也就是说,一个图像集合对应一个融合特征。
例如,一个图像集合中包括样本图像A、样本图像B和融合图像AB,则样本图像A的图像特征和样本图像B的图像特征,可以融合成一个融合特征。另一个图像集合中包括样本图像A、样本图像C和融合图像AC,则样本图像A的图像特征和样本图像C的图像特征,可以融合成另一个融合特征。
可选的,对各张样本图像的图像特征进行融合处理,得到融合特征,包括:基于各张样本图像的融合权重,对各张样本图像的图像特征进行融合处理,得到融合特征。
上文已介绍了任一张样本图像的融合权重的确定方式,在此不再赘述。本申请实施例中,在确定出至少两张样本图像的融合权重之后,基于各张样本图像的融合权重,采用线性插值的方式,对至少两张样本图像的图像特征进行融合处理,得到融合特征。
以两张样本图像为例,这两张样本图像分别记为xi和xj,其中,样本图像xi的融合权重为λ,且样本图像xj的融合权重为1-λ,样本图像xi的图像特征为vi,且样本图像xj的图像特征为vj。此时,基于样本图像xi的融合权重λ、样本图像xj的融合权重1-λ,采用线性插值的方式,对样本图像xi的图像特征为vi和样本图像xj的图像特征为vj进行融合处理,可以得到融合特征λvi+(1-λ)vj。
接下来,基于融合特征和融合图像的图像特征,确定第一损失值。可选的,先计算融合特征和融合图像的图像特征之间的差值,基于融合特征和融合图像的图像特征之间的差值,确定第一损失值。例如,融合特征为λvi+(1-λ)vj,融合图像的图像特征为则基于融合特征和融合图像的图像特征之间的差值确定第一损失值。
由于第一损失值是基于融合特征和融合图像的图像特征之间的差值确定的,而融合特征是对各张样本图像的图像特征进行融合处理得到的,使得基于第一损失值调整神经网络模型时,神经网络模型能够将样本图像的图像特征向融合图像的图像特征拉近,从而压缩了图像特征空间,使得图像特征空间较为紧凑,在缺乏足够的空间的情况下,对抗样本难以对神经网络模型进行有效的攻击。因此,基于神经网络模型得到的特征提取模型具有较强的抗攻击性、较高的鲁棒性以及较高的准确性。
本申请实施例中,可以从噪声函数中随机采样得到噪音项,基于融合特征和融合图像的图像特征之间的差值、该噪音项,确定第一损失值。本申请实施例不对噪声函数做限定,示例性的,该噪声函数为一个标准差为0.05、均值为0的高斯噪音函数。
可选的,先确定融合特征和融合图像的图像特征之间的差值,再确定该差值与该噪音项的和值,接着确定该和值的范数,将该范数的二次根数作为第一损失值。
例如,从标准差为0.05、均值为0的高斯噪音函数中随机采样得到噪音项δ,融合特征和融合图像的图像特征之间的差值为则第一损失值为其中,||·||为范数符号,为二次根式符号,“·”表示范数符号或者二次根式符号内的参数。
在确定了第一损失值之后,基于第一损失值对神经网络模型进行调整,得到特征提取模型。本申请实施例中,可以将第一损失值作为神经网络模型的损失值,基于神经网络模型的损失值,对神经网络模型进行调整,直至得到特征提取模型。
本申请实施例中,将第一损失值作为神经网络模型的损失值,利用神经网络模型的损失值对神经网路模型进行训练,得到特征提取模型,这种特征提取模型的确定方式为正则化确定方式。为了避免正则化确定方式引起的模型坍塌,本申请实施例还基于融合特征确定第二损失值、基于融合图像的图像特征确定第三损失值,以利用第一损失值和第二损失值,或者第一损失值和第三损失值,或者第一损失值、第二损失值以及第三损失值,确定特征提取模型,下面详细介绍了特征提取模型的确定方式。
可选的,基于第一损失值对神经网络模型进行调整,得到特征提取模型,包括:基于融合特征确定第二损失值;基于第一损失值和第二损失值,对神经网络模型进行调整,得到特征提取模型。
本申请实施例中,可以基于融合特征确定第二损失值,第二损失值用于对神经网络模型进行调整。其中,可以利用分类器,基于融合特征确定第二损失值,也可以利用损失函数公式,基于融合特征确定第二损失值,下面分别进行阐述。
在一种可能的实现方式中,基于融合特征确定第二损失值,包括:基于融合特征预测得到融合图像的第一分类结果;获取融合图像的标注分类结果;基于融合图像的第一分类结果和融合图像的标注分类结果,确定第二损失值。
本申请实施例中,将融合特征输入分类器中,由分类器预测并输出融合图像的第一分类结果。其中,分类器可以是正交化的分类层,简称正交分类器。
如图3所示,图3是本申请实施例提供的一种正交分类器的示意图,该正交分类器是一个全联接的网络结构。该正交分类器包括至少两层网络,为便于描述,下面以正交分类器包括两层网络为例进行详细说明。
在图3中,正交分类器包括两层网络,这两层网络分别记为前一层网络和后一层网络。其中,每一层网络包括至少一个神经元,在图3中,前一层网络包括三个神经元,后一层网络包括两个神经元,且前一层网络中的每一个神经元均与后一层网络中的每一个神经元相连接。
当后一层网络为分类器的最后一个网络层时,后一层网络中的任一个神经元为一个类别对应的神经元,且每个类别对应的神经元的权重是相互正交的。在图3中,当后一层网络为分类器的最后一个网络层时,后一层网络中的两个神经元分别记为类别j对应的神经元和类别i对应的神经元,且类别i对应的神经元的权重记为Wi,类别j对应的神经元的权重记为Wj。类别i对应的神经元的权重类别j对应的神经元的权重Wj=0,表示点积的符号,也就是说,类别i对应的神经元的权重与类别j对应的神经元的权重相互正交。
本申请实施例中,分类器可以基于图像的特征确定图像的分类结果。例如,分类器可以基于样本图像的图像特征确定样本图像的预测分类结果,基于融合特征确定融合图像的第一分类结果,基于融合图像的图像特征确定融合图像的第二分类结果。下面以分类器基于样本图像的图像特征确定样本图像的预测分类结果为例,对该确定方式进行阐述。
将样本图像的图像特征输入分类器,经过分类器的各个网络层之后,输出样本图像的预测分类结果。其中,对于分类器的最后一个网络层中的第k个神经元,k为正整数,该神经元的输出如下:
需要说明的是,分类器基于融合特征确定融合图像的第一分类结果、基于融合图像的图像特征确定融合图像的第二分类结果的方式,与分类器基于样本图像的图像特征确定样本图像的预测分类结果的方式相类似,在此不再赘述。
本申请实施例提供的特征提取模型的训练方法并不调整上述分类器的模型参数,也就是说,上述在对第二原始模型进行初始化之后,得到分类器,在训练得到特征提取模型的过程中,分类器的模型参数固定不变。其中,可以采用任意的模型初始化方式,对第二原始模型进行初始化处理,得到初始化后的第二原始模型,即得到分类器。例如,采用正交初始化的方式,对第一原始模型进行初始化处理,得到分类器。
本申请实施例中,还可以获取融合图像的标注分类结果。其中,融合图像的标注分类结果是基于各张样本图像的融合权重、各张样本图像的标注分类结果确定的。其中,上文已介绍了任一张样本图像的融合权重的确定方式,在此不做限定。
可选的,任一张样本图像的融合权重和该张样本图像的标注分类结果的乘积记为任一张样本图像对应的乘积,融合图像的标注分类结果是各张样本图像对应的乘积之和。
例如,样本图像xi的融合权重为λ,样本图像xi的标注分类结果为yi,样本图像xj的融合权重为1-λ,样本图像xj的标注分类结果为yj,则融合图像的标注分类结果是λyi+(1-λ)yj。
本申请实施例中,基于融合图像的第一分类结果和融合图像的标注分类结果,按照交叉熵损失函数,确定第二损失值。利用分类器基于融合特征预测融合图像的第一分类结果,并利用融合图像的第一分类结果和融合图像的标注分类结果确定第二损失值,以利用第二损失值对神经网络模型进行调整,可以避免图像特征空间的坍塌,提高特征提取模型的鲁棒性和准确性。
在另一种可能的实现方式中,基于融合特征确定第二损失值,包括:对融合特征进行信息熵最大化处理,得到第二损失值。
在得到融合特征之后,按照最大化熵函数,对融合特征进行信息熵最大化处理,得到信息熵最大化处理后的融合特征。基于信息熵最大化处理后的融合特征,确定第二损失值。
可选的,按照最大化熵函数,对样本图像的图像特征进行信息熵最大化处理,得到信息熵最大化处理后的样本图像的图像特征。基于信息熵最大化处理后的样本图像的图像特征和信息熵最大化处理后的融合特征,确定第二损失值。
需要说明的是,对特征(融合特征、图像特征等)进行信息熵最大化处理,即是确定特征的熵,对特征的熵进行最大化处理,得到信息熵最大化处理后的特征。
可选的,可以基于信息熵最大化处理后的样本图像的图像特征和信息熵最大化处理后的融合特征中的至少一项,以及融合图像的第一分类结果、融合图像的标注分类结果,确定第二损失值。之后,可以将第一损失值和第二损失值的平均值,作为神经网络模型的损失值,基于神经网络模型的损失值的梯度,对神经网络模型进行调整,直至得到特征提取模型。也可以采用SGD确定第一损失值的梯度和第二损失值的梯度,利用第一损失值的梯度和第二损失值的梯度,确定梯度平均值,利用梯度平均值对神经网络模型进行调整,直至得到特征提取模型。
本申请实施例中,对融合特征进行信息熵最大化处理,得到第二损失值,避免了使用标注分类结果作为约束项,降低了对标注分类结果的依赖,提高了特征提取模型的训练效率。
可选的,基于第一损失值对神经网络模型进行调整,得到特征提取模型,包括:基于融合图像的图像特征确定第三损失值;基于第一损失值和第三损失值,对神经网络模型进行调整,得到特征提取模型。
本申请实施例中,可以基于融合图像的图像特征确定第三损失值,第三损失值用于对神经网络模型进行调整。其中,可以利用分类器,基于融合图像的图像特征确定第三损失值,也可以利用损失函数公式,基于融合图像的图像特征确定第三损失值,下面分别进行阐述。
在一种可能的实现方式中,基于融合图像的图像特征确定第三损失值,包括:基于融合图像的图像特征预测得到融合图像的第二分类结果;获取融合图像的标注分类结果;基于融合图像的第二分类结果和融合图像的标注分类结果,确定第三损失值。
本申请实施例中,将融合图像的图像特征输入分类器中,由分类器预测并输出融合图像的第二分类结果。还可以获取融合图像的标注分类结果,基于融合图像的第二分类结果和融合图像的标注分类结果,按照交叉熵损失函数,确定第三损失值。利用分类器基于融合图像的图像特征预测融合图像的第二分类结果,并利用融合图像的第二分类结果和融合图像的标注分类结果确定第三损失值,以利用第三损失值对神经网络模型进行调整,可以避免图像特征空间的坍塌,提高特征提取模型的鲁棒性和准确性。其中,上文已介绍了分类器的结构、融合图像的标注分类结果的确定方式,在此不再赘述。
在另一种可能的实现方式中,基于融合图像的图像特征确定第三损失值,包括:对融合图像的图像特征进行信息熵最大化处理,得到第三损失值。
在得到融合图像的图像特征之后,按照最大化熵函数,对融合图像的图像特征进行信息熵最大化处理,得到信息熵最大化处理后的融合图像的图像特征。基于信息熵最大化处理后的融合图像的图像特征,确定第三损失值。
可选的,按照最大化熵函数,对样本图像的图像特征进行信息熵最大化处理,得到信息熵最大化处理后的样本图像的图像特征。基于信息熵最大化处理后的样本图像的图像特征和信息熵最大化处理后的融合图像的图像特征,确定第三损失值。
可选的,可以基于信息熵最大化处理后的样本图像的图像特征和信息熵最大化处理后的融合图像的图像特征中的至少一项,以及融合图像的第二分类结果、融合图像的标注分类结果,确定第三损失值。之后,将第一损失值和第三损失值的平均值,作为神经网络模型的损失值,基于神经网络模型的损失值的梯度,对神经网络模型进行调整,直至得到特征提取模型。也可以采用SGD确定第一损失值的梯度和第三损失值的梯度,利用第一损失值的梯度和第三损失值的梯度,确定梯度平均值,利用梯度平均值对神经网络模型进行调整,直至得到特征提取模型。
可以理解的是,本申请实施例可以基于融合特征和融合图像的图像特征,确定第一损失值,基于融合特征确定第二损失值,基于融合图像的图像特征确定第三损失值。之后,将第一损失值、第二损失值和第三损失值的平均值,作为神经网络模型的损失值,基于神经网络模型的损失值的梯度,对神经网络模型进行调整,得到特征提取模型,或者,采用SGD确定第一损失值的梯度、第二损失值的梯度和第三损失值的梯度,利用第一损失值的梯度、第二损失值的梯度和第三损失值的梯度,确定梯度平均值,利用梯度平均值对神经网络模型进行调整,直至得到特征提取模型。其中,上文已介绍了第一损失值、第二损失值和第三损失值的确定方式,在此不再赘述。
通过步骤201至步骤204的方式,可以挤压编码空间,该编码空间即为上文提及的图像特征空间。请参见图4,图4是本申请实施例提供的一种编码空间的示意图。其中,图4包括(a)和(b),(a)为相关技术中的特征提取模型对应的编码空间的示意图,(b)为本申请实施例的特征提取模型对应的编码空间的示意图。
请参见(a),利用训练样本A和训练样本B训练得到相关技术中的特征提取模型之后,该特征提取模型的编码空间较大,编码空间中存在较大的攻击空间,使得攻击样本容易对特征提取模型进行攻击。请参见(b),利用训练样本A和训练样本B训练得到本申请实施例中的特征提取模型之后,该特征提取模型的编码空间被挤压,使得编码空间较小,编码空间较为紧凑,在缺乏足够的空间的情况下,攻击样本难以对特征提取模型进行有效的攻击。因此,本申请实施例中的特征提取模型具有较强的抗攻击性,特征提取模型的鲁棒性较高,能够抵抗FGSM、PGD等的攻击,提高模型的安全性和准确性。由于编码空间被挤压,使得异常图像在编码空间有明显的差异性,易于被检测出来,提高异常图像检测的准确性。
需要说明的是,本申请所涉及的信息(包括但不限于用户设备信息、用户个人信息等)、数据(包括但不限于用于分析的数据、存储的数据、展示的数据等)以及信号,均为经用户授权或者经过各方充分授权的,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。例如,本申请中涉及到的样本图像都是在充分授权的情况下获取的。
上述方法是利用各张样本图像的图像特征和融合图像的图像特征,对神经网络模型进行调整,得到特征提取模型,使得特征提取模型学习到了样本图像的图像特征和融合图像的图像特征,提高了特征提取模型的准确性和鲁棒性,从而提高了图像特征的准确性,进而提高了图像处理结果的准确性。
基于上述实施环境,本申请实施例提供了一种图像处理方法,以图5所示的本申请实施例提供的一种图像处理方法的流程图为例,该方法可由图1中的终端设备101或者服务器102执行,也可以由终端设备101和服务器102共同执行。为便于描述,将执行本申请实施例中的图像处理方法的终端设备101或者服务器102称为电子设备,该方法可以由电子设备来执行。如图5所示,该方法包括步骤501至步骤503。
步骤501,获取目标图像。
本申请实施例不对目标图像的获取方式做限定。示例性的,从任意视频中提取出的任意一帧图像可以均可以作为目标图像,或者,利用网络爬虫抓取的任意一张图像均可以作为目标图像。
本申请实施例也不对目标图像的内容、大小、格式等做限定。示例性的,目标图像是包含猫、狗等目标对象的图像,目标图像的格式为BMP格式、TIFF、GIF等。
步骤502,基于特征提取模型获取目标图像的图像特征。
其中,特征提取模型是按照上述任一所述的特征提取模型的训练方法训练得到的。
本申请实施例中,将目标图像输入至特征提取模型,由特征提取模型输出目标图像的图像特征。其中,上文已经介绍了特征提取模型的训练方式,在此不再赘述。
步骤503,基于目标图像的图像特征,对目标图像进行图像处理。
本申请实施例中,基于目标图像的图像特征,对目标图像进行图像处理,包括但不限于基于目标图像的图像特征,对目标图像进行图像分类处理、图像生成处理、图像编辑处理、图像的异常检测处理等图像处理,得到图像处理结果。
针对图像分类处理,可以将目标图像的图像特征输入至分类器中,由分类器基于目标图像的图像特征进行图像分类处理,得到目标图像的图像分类结果。其中,目标图像的图像分类结果用于表明目标图像所属的至少一个图像类别。
针对图像生成处理,目标图像可以是生成的图像。将目标图像的图像特征输入至判别器,由判别器预测并输出目标图像的判别结果,目标图像的判别结果用于表征目标图像是否为真实的图像。基于目标图像的判别结果,可以确定目标图像是否为真实的图像,从而确定生成的图像是否真实。
针对图像编辑处理,目标图像的图像特征包括目标图像中对象的参数信息。可以获取待调整的参数信息的调整值,基于待调整的参数信息的调整值,调整目标图像的图像特征,得到调整后的目标图像的图像特征,利用调整后的目标图像的图像特征,确定调整后的目标图像。调整后的目标图像即为图像编辑处理后的目标图像。
针对图像的异常检测处理,特征提取模型可以学习到一个特征平均值,该特征平均值用于表征非异常图像的图像特征。在利用特征提取模型得到目标图像的图像特征之后,确定目标图像的图像特征与特征平均值之间的距离。若该距离大于距离阈值,则确定目标图像为异常图像,若该距离小于距离阈值,则确定目标图像为非异常图像。通过这种方式,可以确定出目标图像是否为异常图像。
上述方法中的特征提取模型是利用各张样本图像的图像特征和融合图像的图像特征,对神经网络模型进行调整得到的,使得特征提取模型学习到了样本图像的图像特征和融合图像的图像特征,提高了特征提取模型的准确性和鲁棒性,从而提高了图像特征的准确性,进而提高了图像处理结果的准确性。
上述实施例是从方法步骤的角度阐述了特征提取模型的训练方法和图像处理方法,下面从一个详细实施例的角度,阐述本申请实施例的特征提取模型的训练方法和图像处理方法。
请参见图6,图6是本申请实施例提供的一种特征提取模型的训练方法的示意图,本申请实施例是对神经网络模型进行多次训练,直至得到特征提取模型的。
本申请实施例中,获取样本图像A和样本图像B,将样本图像A和样本图像B进行融合处理,得到融合图像。然后,将样本图像A输入神经网络模型,由神经网络模型输出样本图像A的图像特征,将样本图像B输入神经网络模型,由神经网络模型输出样本图像B的图像特征,将融合图像输入神经网络模型,由神经网络模型输出融合图像的图像特征。
一方面,根据样本图像A的图像特征、样本图像B的图像特征和融合图像的图像特征,确定第一损失值。其中,上文已经介绍了第一损失值的确定方式,在此不再赘述。
另一方面,将样本图像A的图像特征、样本图像B的图像特征进行融合后输入分类器,由分类器输出融合图像的第一分类结果,获取融合图像的标注分类结果,基于第一分类结果和标注分类结果,确定第二损失值。其中,上文已经介绍了第二损失值的确定方式,在此不再赘述。
再一方面,将融合图像的图像特征输入分类器,由分类器输出融合图像的第二分类结果,获取融合图像的标注分类结果,基于第二分类结果和标注分类结果,确定第三损失值。其中,上文已经介绍了第三损失值的确定方式,在此不再赘述。
之后,基于第一损失值、第二损失值和第三损失值,确定神经网络模型的损失值,并基于神经网络模型的损失值对神经网络模型进行调整,得到特征提取模型。该特征提取模型是利用各张样本图像的图像特征和融合图像的图像特征,对神经网络模型进行调整得到的,使得特征提取模型学习到了样本图像的图像特征和融合图像的图像特征,提高了特征提取模型的准确性和鲁棒性,从而提高了图像特征的准确性,进而提高了图像处理结果的准确性。
图7所示为本申请实施例提供的一种特征提取模型的训练装置的结构示意图,如图7所示,该装置包括:
第一获取模块701,用于获取至少两张样本图像;
融合模块702,用于对至少两张样本图像进行融合处理,得到融合图像;
第二获取模块703,用于基于神经网络模型获取至少两张样本图像中的各张样本图像的图像特征和融合图像的图像特征;
调整模块704,用于基于各张样本图像的图像特征和融合图像的图像特征,对神经网络模型进行调整,得到特征提取模型。
在一种可能的实现方式中,融合模块702,用于基于各张样本图像的融合权重,对至少两张样本图像进行融合处理,得到融合图像。
在一种可能的实现方式中,调整模块704,用于对各张样本图像的图像特征进行融合处理,得到融合特征;基于融合特征和融合图像的图像特征,确定第一损失值;基于第一损失值对神经网络模型进行调整,得到特征提取模型。
在一种可能的实现方式中,调整模块704,用于基于各张样本图像的融合权重,对各张样本图像的图像特征进行融合处理,得到融合特征。
在一种可能的实现方式中,调整模块704,用于基于融合特征确定第二损失值;基于第一损失值和第二损失值,对神经网络模型进行调整,得到特征提取模型。
在一种可能的实现方式中,调整模块704,用于基于融合特征预测得到融合图像的第一分类结果;获取融合图像的标注分类结果;基于融合图像的第一分类结果和融合图像的标注分类结果,确定第二损失值。
在一种可能的实现方式中,调整模块704,用于对融合特征进行信息熵最大化处理,得到第二损失值。
在一种可能的实现方式中,调整模块704,用于基于融合图像的图像特征确定第三损失值;基于第一损失值和第三损失值,对神经网络模型进行调整,得到特征提取模型。
在一种可能的实现方式中,调整模块704,用于基于融合图像的图像特征预测得到融合图像的第二分类结果;获取融合图像的标注分类结果;基于融合图像的第二分类结果和融合图像的标注分类结果,确定第三损失值。
在一种可能的实现方式中,调整模块704,用于对融合图像的图像特征进行信息熵最大化处理,得到第三损失值。
上述装置是利用各张样本图像的图像特征和融合图像的图像特征,对神经网络模型进行调整,得到特征提取模型,使得特征提取模型学习到了样本图像的图像特征和融合图像的图像特征,提高了特征提取模型的准确性和鲁棒性,从而提高了图像特征的准确性,进而提高了图像处理结果的准确性。
应理解的是,上述图7提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图8所示为本申请实施例提供的一种图像处理装置的结构示意图,如图8所示,该装置包括:
获取模块801,用于获取目标图像;
获取模块801,还用于基于特征提取模型获取目标图像的图像特征,特征提取模型是按照上述任一所述的特征提取模型的训练方法训练得到的;
处理模块802,用于基于目标图像的图像特征,对目标图像进行图像处理。
上述装置中的特征提取模型是利用各张样本图像的图像特征和融合图像的图像特征,对神经网络模型进行调整得到的,使得特征提取模型学习到了样本图像的图像特征和融合图像的图像特征,提高了特征提取模型的准确性和鲁棒性,从而提高了图像特征的准确性,进而提高了图像处理结果的准确性。
应理解的是,上述图8提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图9示出了本申请一个示例性实施例提供的终端设备900的结构框图。该终端设备900包括有:处理器901和存储器902。
处理器901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器901可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器901也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器901可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器901还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器902中的非暂态的计算机可读存储介质用于存储至少一个计算机程序,该至少一个计算机程序用于被处理器901所执行以实现本申请中方法实施例提供的特征提取模型的训练方法或者图像处理方法。
在一些实施例中,终端设备900还可选包括有:外围设备接口903和至少一个外围设备。处理器901、存储器902和外围设备接口903之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口903相连。具体地,外围设备包括:射频电路904、显示屏905、摄像头组件906、音频电路907和电源908中的至少一种。
外围设备接口903可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器901和存储器902。在一些实施例中,处理器901、存储器902和外围设备接口903被集成在同一芯片或电路板上;在一些其他实施例中,处理器901、存储器902和外围设备接口903中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路904用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路904通过电磁信号与通信网络以及其他通信设备进行通信。射频电路904将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路904可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路904还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏905用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏905是触摸显示屏时,显示屏905还具有采集在显示屏905的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器901进行处理。此时,显示屏905还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏905可以为一个,设置在终端设备900的前面板;在另一些实施例中,显示屏905可以为至少两个,分别设置在终端设备900的不同表面或呈折叠设计;在另一些实施例中,显示屏905可以是柔性显示屏,设置在终端设备900的弯曲表面上或折叠面上。甚至,显示屏905还可以设置成非矩形的不规则图形,也即异形屏。显示屏905可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件906用于采集图像或视频。可选地,摄像头组件906包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件906还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路907可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器901进行处理,或者输入至射频电路904以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端设备900的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器901或射频电路904的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路907还可以包括耳机插孔。
电源908用于为终端设备900中的各个组件进行供电。电源908可以是交流电、直流电、一次性电池或可充电电池。当电源908包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端设备900还包括有一个或多个传感器909。该一个或多个传感器909包括但不限于:加速度传感器911、陀螺仪传感器912、压力传感器913、光学传感器914以及接近传感器915。
加速度传感器911可以检测以终端设备900建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器911可以用于检测重力加速度在三个坐标轴上的分量。处理器901可以根据加速度传感器911采集的重力加速度信号,控制显示屏905以横向视图或纵向视图进行用户界面的显示。加速度传感器911还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器912可以检测终端设备900的机体方向及转动角度,陀螺仪传感器912可以与加速度传感器911协同采集用户对终端设备900的3D动作。处理器901根据陀螺仪传感器912采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器913可以设置在终端设备900的侧边框和/或显示屏905的下层。当压力传感器913设置在终端设备900的侧边框时,可以检测用户对终端设备900的握持信号,由处理器901根据压力传感器913采集的握持信号进行左右手识别或快捷操作。当压力传感器913设置在显示屏905的下层时,由处理器901根据用户对显示屏905的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
光学传感器914用于采集环境光强度。在一个实施例中,处理器901可以根据光学传感器914采集的环境光强度,控制显示屏905的显示亮度。具体地,当环境光强度较高时,调高显示屏905的显示亮度;当环境光强度较低时,调低显示屏905的显示亮度。在另一个实施例中,处理器901还可以根据光学传感器914采集的环境光强度,动态调整摄像头组件906的拍摄参数。
接近传感器915,也称距离传感器,通常设置在终端设备900的前面板。接近传感器915用于采集用户与终端设备900的正面之间的距离。在一个实施例中,当接近传感器915检测到用户与终端设备900的正面之间的距离逐渐变小时,由处理器901控制显示屏905从亮屏状态切换为息屏状态;当接近传感器915检测到用户与终端设备900的正面之间的距离逐渐变大时,由处理器901控制显示屏905从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图9中示出的结构并不构成对终端设备900的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图10为本申请实施例提供的服务器的结构示意图,该服务器1000可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器1001和一个或多个的存储器1002,其中,该一个或多个存储器1002中存储有至少一条计算机程序,该至少一条计算机程序由该一个或多个处理器1001加载并执行以实现上述各个方法实施例提供的特征提取模型的训练方法或者图像处理方法,示例性的,处理器1001为CPU。当然,该服务器1000还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器1000还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,该存储介质中存储有至少一条计算机程序,该至少一条计算机程序由处理器加载并执行,以使电子设备实现上述任一种特征提取模型的训练方法或者图像处理方法。
可选地,上述计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-OnlyMemory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序或计算机程序产品,该计算机程序或计算机程序产品中存储有至少一条计算机程序,该至少一条计算机程序由处理器加载并执行,以使计算机实现上述任一种特征提取模型的训练方法或者图像处理方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (16)
1.一种特征提取模型的训练方法,其特征在于,所述方法包括:
获取至少两张样本图像;
对所述至少两张样本图像进行融合处理,得到融合图像;
基于神经网络模型获取所述至少两张样本图像中的各张样本图像的图像特征和所述融合图像的图像特征;
基于所述各张样本图像的图像特征和所述融合图像的图像特征,对所述神经网络模型进行调整,得到特征提取模型。
2.根据权利要求1所述的方法,其特征在于,所述对所述至少两张样本图像进行融合处理,得到融合图像,包括:
基于所述各张样本图像的融合权重,对所述至少两张样本图像进行融合处理,得到融合图像。
3.根据权利要求1所述的方法,其特征在于,所述基于所述各张样本图像的图像特征和所述融合图像的图像特征,对所述神经网络模型进行调整,得到特征提取模型,包括:
对所述各张样本图像的图像特征进行融合处理,得到融合特征;
基于所述融合特征和所述融合图像的图像特征,确定第一损失值;
基于所述第一损失值对所述神经网络模型进行调整,得到所述特征提取模型。
4.根据权利要求3所述的方法,其特征在于,所述对所述各张样本图像的图像特征进行融合处理,得到融合特征,包括:
基于所述各张样本图像的融合权重,对所述各张样本图像的图像特征进行融合处理,得到融合特征。
5.根据权利要求3所述的方法,其特征在于,所述基于所述第一损失值对所述神经网络模型进行调整,得到所述特征提取模型,包括:
基于所述融合特征确定第二损失值;
基于所述第一损失值和所述第二损失值,对所述神经网络模型进行调整,得到所述特征提取模型。
6.根据权利要求5所述的方法,其特征在于,所述基于所述融合特征确定第二损失值,包括:
基于所述融合特征预测得到所述融合图像的第一分类结果;
获取所述融合图像的标注分类结果;
基于所述融合图像的第一分类结果和所述融合图像的标注分类结果,确定所述第二损失值。
7.根据权利要求5所述的方法,其特征在于,所述基于所述融合特征确定第二损失值,包括:
对所述融合特征进行信息熵最大化处理,得到所述第二损失值。
8.根据权利要求3所述的方法,其特征在于,所述基于所述第一损失值对所述神经网络模型进行调整,得到所述特征提取模型,包括:
基于所述融合图像的图像特征确定第三损失值;
基于所述第一损失值和所述第三损失值,对所述神经网络模型进行调整,得到所述特征提取模型。
9.根据权利要求8所述的方法,其特征在于,所述基于所述融合图像的图像特征确定第三损失值,包括:
基于所述融合图像的图像特征预测得到所述融合图像的第二分类结果;
获取所述融合图像的标注分类结果;
基于所述融合图像的第二分类结果和所述融合图像的标注分类结果,确定所述第三损失值。
10.根据权利要求8所述的方法,其特征在于,所述基于所述融合图像的图像特征确定第三损失值,包括:
对所述融合图像的图像特征进行信息熵最大化处理,得到所述第三损失值。
11.一种图像处理方法,其特征在于,所述方法包括:
获取目标图像;
基于特征提取模型获取所述目标图像的图像特征,所述特征提取模型是按照权利要求1至10任一所述的特征提取模型的训练方法训练得到的;
基于所述目标图像的图像特征,对所述目标图像进行图像处理。
12.一种特征提取模型的训练装置,其特征在于,所述装置包括:
第一获取模块,用于获取至少两张样本图像;
融合模块,用于对所述至少两张样本图像进行融合处理,得到融合图像;
第二获取模块,用于基于神经网络模型获取所述至少两张样本图像中的各张样本图像的图像特征和所述融合图像的图像特征;
调整模块,用于基于所述各张样本图像的图像特征和所述融合图像的图像特征,对所述神经网络模型进行调整,得到特征提取模型。
13.一种图像处理装置,其特征在于,所述装置包括:
获取模块,用于获取目标图像;
所述获取模块,还用于基于特征提取模型获取所述目标图像的图像特征,所述特征提取模型是按照权利要求1至10任一所述的特征提取模型的训练方法训练得到的;
处理模块,用于基于所述目标图像的图像特征,对所述目标图像进行图像处理。
14.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述处理器加载并执行,以使所述电子设备实现如权利要求1至10任一所述的特征提取模型的训练方法或者实现如权利要求11所述的图像处理方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行,以使计算机实现如权利要求1至10任一所述的特征提取模型的训练方法或者实现如权利要求11所述的图像处理方法。
16.一种计算机程序产品,其特征在于,所述计算机程序产品中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行,以使计算机实现如权利要求1至10任一所述的特征提取模型的训练方法或者实现如权利要求11所述的图像处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210142473.XA CN114511082A (zh) | 2022-02-16 | 2022-02-16 | 特征提取模型的训练方法、图像处理方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210142473.XA CN114511082A (zh) | 2022-02-16 | 2022-02-16 | 特征提取模型的训练方法、图像处理方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114511082A true CN114511082A (zh) | 2022-05-17 |
Family
ID=81552062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210142473.XA Pending CN114511082A (zh) | 2022-02-16 | 2022-02-16 | 特征提取模型的训练方法、图像处理方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114511082A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115994243A (zh) * | 2023-01-13 | 2023-04-21 | 北京百度网讯科技有限公司 | 跨模态检索模型处理方法、装置、设备、产品及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229455A (zh) * | 2017-02-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 物体检测方法、神经网络的训练方法、装置和电子设备 |
CN109919888A (zh) * | 2019-02-26 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 一种图像融合的方法、模型训练的方法以及相关装置 |
CN111274946A (zh) * | 2020-01-19 | 2020-06-12 | 杭州涂鸦信息技术有限公司 | 一种人脸识别方法和系统及设备 |
CN111382758A (zh) * | 2018-12-28 | 2020-07-07 | 杭州海康威视数字技术股份有限公司 | 训练图像分类模型、图像分类方法、装置、设备及介质 |
CN111652121A (zh) * | 2020-06-01 | 2020-09-11 | 腾讯科技(深圳)有限公司 | 一种表情迁移模型的训练方法、表情迁移的方法及装置 |
CN112257665A (zh) * | 2020-11-12 | 2021-01-22 | 腾讯科技(深圳)有限公司 | 图像内容的识别方法、图像识别模型的训练方法及介质 |
-
2022
- 2022-02-16 CN CN202210142473.XA patent/CN114511082A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229455A (zh) * | 2017-02-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 物体检测方法、神经网络的训练方法、装置和电子设备 |
CN111382758A (zh) * | 2018-12-28 | 2020-07-07 | 杭州海康威视数字技术股份有限公司 | 训练图像分类模型、图像分类方法、装置、设备及介质 |
CN109919888A (zh) * | 2019-02-26 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 一种图像融合的方法、模型训练的方法以及相关装置 |
CN111274946A (zh) * | 2020-01-19 | 2020-06-12 | 杭州涂鸦信息技术有限公司 | 一种人脸识别方法和系统及设备 |
CN111652121A (zh) * | 2020-06-01 | 2020-09-11 | 腾讯科技(深圳)有限公司 | 一种表情迁移模型的训练方法、表情迁移的方法及装置 |
CN112257665A (zh) * | 2020-11-12 | 2021-01-22 | 腾讯科技(深圳)有限公司 | 图像内容的识别方法、图像识别模型的训练方法及介质 |
Non-Patent Citations (2)
Title |
---|
余泽东 等: "《基于特征融合的道路交通标志识别》", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》, 15 July 2020 (2020-07-15) * |
黄友文: "《融合卷积注意力机制的图像描述生成模型》", 《计算机应用》, 10 January 2020 (2020-01-10) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115994243A (zh) * | 2023-01-13 | 2023-04-21 | 北京百度网讯科技有限公司 | 跨模态检索模型处理方法、装置、设备、产品及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097019B (zh) | 字符识别方法、装置、计算机设备以及存储介质 | |
CN110807361B (zh) | 人体识别方法、装置、计算机设备及存储介质 | |
CN111476783B (zh) | 基于人工智能的图像处理方法、装置、设备及存储介质 | |
CN111325726A (zh) | 模型训练方法、图像处理方法、装置、设备及存储介质 | |
CN111091166B (zh) | 图像处理模型训练方法、图像处理方法、设备及存储介质 | |
CN111243668B (zh) | 分子结合位点检测方法、装置、电子设备及存储介质 | |
CN110675412B (zh) | 图像分割方法、图像分割模型的训练方法、装置及设备 | |
CN114332530A (zh) | 图像分类方法、装置、计算机设备及存储介质 | |
CN110647881B (zh) | 确定图像对应的卡片类型的方法、装置、设备及存储介质 | |
CN114359225A (zh) | 图像检测方法、装置、计算机设备及存储介质 | |
CN111753498A (zh) | 文本处理方法、装置、设备及存储介质 | |
CN113724189A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN114283299A (zh) | 图像聚类方法、装置、计算机设备及存储介质 | |
CN113821658A (zh) | 对编码器进行训练的方法、装置、设备及存储介质 | |
CN114511082A (zh) | 特征提取模型的训练方法、图像处理方法、装置及设备 | |
CN113570510A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN115168643B (zh) | 音频处理方法、装置、设备及计算机可读存储介质 | |
CN113569822B (zh) | 图像分割方法、装置、计算机设备及存储介质 | |
CN113343709B (zh) | 意图识别模型的训练方法、意图识别方法、装置及设备 | |
CN111080630B (zh) | 眼底图像检测设备、方法、装置及存储介质 | |
CN111310701B (zh) | 手势识别方法、装置、设备及存储介质 | |
CN114462580A (zh) | 文本识别模型的训练方法、文本识别方法、装置和设备 | |
CN114298268A (zh) | 图像获取模型的训练方法、图像检测方法、装置及设备 | |
CN113569052A (zh) | 知识图谱的表示学习方法及装置 | |
CN115131635A (zh) | 图像生成模型的训练方法、图像生成方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40067587 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |