CN111222560A - 一种图像处理模型生成方法、智能终端及存储介质 - Google Patents

一种图像处理模型生成方法、智能终端及存储介质 Download PDF

Info

Publication number
CN111222560A
CN111222560A CN201911424964.8A CN201911424964A CN111222560A CN 111222560 A CN111222560 A CN 111222560A CN 201911424964 A CN201911424964 A CN 201911424964A CN 111222560 A CN111222560 A CN 111222560A
Authority
CN
China
Prior art keywords
image processing
model
image
sample
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911424964.8A
Other languages
English (en)
Other versions
CN111222560B (zh
Inventor
谭舜泉
卓龙
李斌
黄继武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201911424964.8A priority Critical patent/CN111222560B/zh
Publication of CN111222560A publication Critical patent/CN111222560A/zh
Application granted granted Critical
Publication of CN111222560B publication Critical patent/CN111222560B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种图像处理模型生成方法、智能终端及存储介质。在对图像处理初始模型的训练过程中,第一模型输出图像处理初始模型的处理结果评价结果,将结果反馈到图像处理模型,可以自动地对图像处理模型的处理结果进行反向传播,从而实现图像处理模型自动调整学习方向,提高了生成图像处理模型的训练效率。

Description

一种图像处理模型生成方法、智能终端及存储介质
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像处理模型生成方法、智能终端及存储介质。
背景技术
随着智能终端设备的发展,图像处理技术越来越受到重视,如何生成图像处理模型,使得该图像处理模型能够在实际使用中,针对各种未知的图像,都能够输出较好的图像处理结果是研究重点,同时在训练图像处理模型的时候,训练时间过长导致资源的浪费,如何提高训练效率也是当前所要关注的重点问题。目前,深度学习已经被用于训练图像处理模型以使得其能够适用于处理各种图像,但是,目前基于深度学习的图像处理模型训练过程中还需要人工对生成的图像打标签,耗费大量的人力,效率低。
因此,现有技术还有待改进和发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种图像处理模型生成方法、智能终端及存储介质,旨在解决现有技术中深度学习的图像处理模型训练过程效率低的问题。
本发明的技术方案如下:
本发明的第一方面,提供了一种图像处理模型生成方法,所述方法包括:
根据第一模型以及第一数据集训练图像处理初始模型;
获取所述图像处理初始模型训练完成后生成的图像处理模型;
其中,所述第一数据集包括多个不同的第一样本待处理图像,所述第一模型用于在训练过程中输出所述图像处理初始模型对第一样本待处理图像的处理结果的评价结果。
所述的图像处理模型生成方法,其中,所所述第一数据集还包括所述第一样本待处理图像对应的第一样本目标图像,述根据第一模型以及第一数据集训练图像处理初始模型包括:
将所述第一数据集中的第一样本待处理图像输入至所述图像处理初始模型进行训练,获取所述图像处理初始模型输出的第二样本图像;
将所述第二样本图像输入至所述第一模型,获取所述第一模型根据所述第二样本图像输出的评价结果;
将所述第二样本图像的评价结果和所述第一样本目标图像反馈至所述图像处理初始模型,以使得所述图像处理初始模型调整学习方向;
继续执行所述将第一数据集中的一第一样本待处理图像输入至图像处理初始模型进行训练的步骤,直至所述图像处理初始模型输出的所述第二样本图像已达预设效果。
所述的图像处理模型生成方法,其中,所述第一模型为图像隐写分析模型。
所述的图像处理模型生成方法,其中,所述第一模型是根据第二数据集训练完成的,所述第二数据集包括多组第二样本数据,每组第二样本数据包括第三样本图像以及第三样本图像对应的评价结果。
所述的图像处理模型生成方法,其中,所述根据第一模型以及第一数据集训练图像处理初始模型包括:
获取图像处理要求,根据所述图像处理要求获取所述图像处理初始模型。
所述的图像处理模型生成方法,其中,所述第三样本图像对应的评价结果是根据所述图像处理要求生成的。
所述的图像处理模型生成方法,其中,所述第一模型包括依次相互连接的通道滤波层、联合层、多个卷积-激活层、多个全连接层和输出层。
所述的图像处理模型生成方法,其中,所述通道滤波层的卷积核由高通滤波器初始化,所述通道滤波层不接受反向传播。
本发明的第二方面,提供了一种智能终端,其中,所述智能终端包括:处理器、与处理器通信连接的存储介质,所述存储介质适于存储多条指令;所述处理器适于调用所述存储介质中的指令,以执行实现上述任一项所述的图像处理模型生成方法。
本发明的第三方面,提供了一种存储介质,其中,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上述任意一项所述的图像处理模型生成方法。
本发明的技术效果:本发明提供的图像处理模型生成方法,通过使用第一模型在对图像处理初始模型的训练过程中输出图像处理初始模型的处理结果评价结果,在图像处理模型的训练过程中,可以自动地对图像处理模型的处理结果进行评价,从而实现图像处理模型自动调整学习方向,提高了生成图像处理模型的效率。
附图说明
图1是本发明提供的一种图像处理模型生成方法的实施例的流程简图;
图2是本发明提供的一种图像处理模型生成方法中第一模型的结构示意图;
图3是本发明提供的一种图像处理模型生成方法中不同的第一模型的训练损失比较图;
图4是本发明提供的一种智能终端的功能原理图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例一
请参阅图1,图1是本发明提供的图像处理模型生成方法的实施例的流程图。
如图1所示,在实施例一中,所述图像处理模型生成方法包括步骤:
S100、根据第一模型以及第一数据集训练图像处理初始模型。
具体地,所述图像处理初始模型是根据不同的图像处理要求而不同的,所述根据第一模型以及第一数据集训练图像处理初始模型之前包括:
获取图像处理要求,根据所述图像处理要求获取所述图像处理初始模型。
在本领域中,存在多种不同的基础图像处理模型,本领域技术人员可以根据需求进行选用基础图像处理模型作为所述图像处理初始模型,并根据具体的目的进行具体训练后生成需要的图像处理模型。
所述第一数据集包括多个不同的第一样本待处理图像,所述第一数据集可以使用现有的图片数据集,如ImageNet、DIV2K等。所述第一模型用于在训练过程中输出所述图像处理初始模型对第一样本待处理图像的处理结果的评价结果,也就是说,在对所述图像处理初始模型进行训练,即,所述图像处理初始模型学习的过程中,对于所述图像处理初始模型对训练样本进行处理生成的图像,是由第一模型来自动输出评价结果的,评价结果反馈至所述图像处理初始模型,以使得所述图像处理初始模型根据评价结果来调节学习方向。
具体地,所述第一数据集中还包括所述第一样本待处理图像对应的第一样本目标图像,第一样本待处理图像对应的第一样本目标图像是第一样本待处理图像理想的处理结果,即,根据图像处理要求对第一样本待处理图像进行处理的目标图像。所述根据第一模型以及第一数据集训练图像处理初始模型包括:
S110、将所述第一数据集中的第一样本待处理图像输入至图像处理初始模型进行训练,获取所述图像处理初始模型输出的第二样本图像。
所述第一数据集中包括多个不同的第一样本待处理图像,对所述图像处理初始模型进行训练时,是将所述第一数据集中的包括的多个第一样本待处理图像分别输入至所述图像处理初始模型中,所述图像处理初始模型对第一样本待处理图像进行处理,输出第二样本图像。
S120、将所述第二样本图像输入至所述第一模型,获取所述第一模型根据所述第二样本图像输出的评价结果。
所述图像处理初始模型输出第二样本图像后,将所述第二样本图像输入至所述第一模型,所述第一模型输出所述第二样本图像的评价结果。也就是说是,所述第一模型能够自动对输入的图像进行评价,生成相应的评价结果。
所述第一模型是预先训练完成的,具体地,所述第一模型是根据第二数据集训练完成的,所述第二数据集包括多组第二样本数据,每组第二样本数据包括第三样本图像以及第三样本图像对应的评价结果,也就是说,通过多组所述第二样本数据的训练,所述第一模型具备根据输入的图像生成对应的评价结果的能力。
S130、将所述第二样本图像的评价结果和所述第一样本目标图像反馈至所述图像处理初始模型,以使得所述图像处理初始模型调整学习方向。
在所述第一模型输出所述第二样本图像的评价结果后,将所述第二样本图像的评价结果和所述第一样本目标图像反馈至所述图像处理初始模型,所述图像处理初始模型获取到所述第一样本待处理图像以及第二样本图像的评价结果后,根据所述评价结果来调整学习方向。
为了使得所述第一模型生成的评价结果能够准确地评价所述图像处理初始模型根据所述处理要求生成的所述第二样本图像,所述第三样本图像对应的评价结果是根据所述图像处理要求设置的,即所述评价结果能够反映所述第二样本图像能否满足所述图像处理要求,这样,通过所述第三样本图像以及所述第三样本图像对应的评价结果训练得到的所述第一模型是生成所述第二样本图像在所述图像处理要求下的评价结果,这样,在将所述第二样本图像的评价结果反馈至所述图像处理初始模型,调整所述图像处理初始模型的学习方向时,是保证所述图像处理初始模型是按照更满足所述图像处理要求的方向调整学习方向。
S140、继续执行所述将第一数据集中的一第一样本待处理图像输入至图像处理初始模型进行训练的步骤,直至所述图像处理初始模型输出的所述第二样本图像已达预设效果。
在每次获取到所述评价结果,并利用所述评价结果调整所述图像处理初始模型的学习方向后,是再次从所述第一数据集中获取新的第一样本待处理图像,重复S110至S130的步骤,直至所述图像处理初始模型输出的所述第二样本图像已达预设效果,所述预设效果,例如所述预设效果可以是所述图像处理初始模型输出的所述第二样本图像与所述第一样本目标图像的损失值在预设范围内。
S200、获取所述图像处理初始模型训练完成后生成的图像处理模型。
当所述图像处理初始模型输出的所述第二样本图像已达预设效果,所述图像处理初始模型的训练完成,此时,所述图像处理初始模型经过多次的学习方向调整,已经转变为适用于所述图像处理要求的图像处理模型,即,生成了新的图像处理模型,获取生成的所述图像处理模型作为图像处理工具,来进行图像处理。
所述第一模型可以是简单的分类网络,在本实施例中,所述第一模型为隐写分析模型,隐写分析模型(也被称为隐写分析器)是为了进行隐写分析而被开发出的模型,常见的有XuNet、WiserNet等,目前,这种模型只被用于隐写分析,发明人通过大量实验验证发现,将隐写分析模型应用于本发明提供的一种图像处理模型生成方法,具有意想不到的效果。
具体地,当所述第一模型为隐写分析模型时,所述第一模型包括依次相互连接的通道滤波层、联合层、多个卷积-激活层、多个全连接层和输出层,前一层的输出是下一层的输入。
所述通道滤波层的卷积核由高通滤波器初始化,所述通道滤波层不接受反向传播,即,所述通道滤波层不能够被训练,用于放大微小特征的差异。在训练所述第一模型的过程中,是所述第一模型的所述联合层、所述多个卷积-激活层、所述多个全连接层和所述输出层被训练。如图4所示,当所述第二样本图像输入至所述第一模型后,被分为三个通道,三个通道分别经过所述通道滤波层,输出三个通道的特征,优选地,所述通道滤波层中包括30个卷积核,大小为5*5,步长为1;三个通道的特征输入至所述联合层,所述联合层将所述通道滤波层的输出结果连接在一起后输出;连接结果依次输入至所述多个卷积-激活层,每个卷积-激活层中包含大量的卷积核,优选地,所述卷积核的个数为8的倍数,在本实施例中,所述卷积-激活层有3层,每层分别包括72、288、1152个卷积核;每层卷积-激活层中使用批规范化正则化参数,每层卷积-激活层中还包括激活及池化函数,优选地,选用RectifiedLinear Unit(整流线性单元)进行激活以及平均池化操作;在经过所述卷积-激活层的处理后,输出的结果输入至所述多个全连接层,优选地,所述全连接层有4层,每层分别含有800个、400个、200个以及1个线性单元;所述输出层包括1个线性单元,用于输出最终的评价结果。
所述第一模型的详细信息可以如表1所示:
Figure BDA0002346931100000091
Figure BDA0002346931100000101
Figure BDA0002346931100000111
表1
选用多种简单分类网络和隐写分析模型作为所述第一模型进行实验,生成的图像处理模型的图像处理结果如表2和图3所示:
分类器 PSNR(峰值信噪比) SSIM(结构相似性)
EASY-DIS 15.73 76.52
VGG19 16.55 77.92
XCEPTION 18.52 80.32
WISERNET 20.31 88.64
表2
表2中的实验结果的实验条件如下:
图像处理要求为着色;使用ImageNet数据集进行训练,包括10000张原图训练集,以及2000张测试集,所述第一模型分别为Easy-Dis、VGG19、Xception(均为分类网络)、WiserNet(一种隐写分析模型)。
图3为分别根据Easy-Dis、VGG19、Xception以及WiserNet进行训练时,所述图像处理初始模型的训练损失对比图,图3中四条曲线,由上至下分别为Easy-Dis、VGG19、Xception和WiserNet。
从表2和图3可以看出,选用隐写分析模型训练得到的所述图像处理模型明显优于其余的分类网络模型。
进一步选用已有的图像处理模型与本发明提供的图像处理模型生成方法生成的图像的图像处理性能进行比较。
具体地,实验中,采用WiserNet隐写分析模型作为所述第一模型,训练超参数设置如下:
图像处理初始模型:学习速率:0.001,beta_1:0.9,beta_2:0.999,权重裁剪:0.5;
第一模型:学习速率:0.001,功率:0.75,Gamma系数:0.0001,衰减权值:0.0005,动力:0.9;
批大小:16,最大迭代次数:300,均使用LSGAN的训练损失函数。
表2为使用本发明提供的图像处理模型生成方法生成的图像处理模型与其他现有的图像处理模型训练生成的图像处理模型在不同的图像处理任务试验中的处理结果数据,试验中本发明提供的图像处理模型生成方法生成的图像处理模型与其他现有的图像处理模型训练生成的图像处理模型均采用相同训练集、测试集。
Figure BDA0002346931100000121
Figure BDA0002346931100000131
表2
如表2所示,本发明提供的图像处理模型生成方法,在着色、超分辨率、图像翻译等多种图像处理任务中取得优越的成绩,具有更好的性能。并且,对各种图像处理模型的存储体积、参数大小、浮点计算量比较如下:
Figure BDA0002346931100000132
Figure BDA0002346931100000141
表3
从表3可以看出,本发明提供的图像处理模型生成方法生成的图像处理模型,在适用于多种图像处理要求时,整体网络参数数量更加小,数据量更少、计算量也更低,更节约计算资源。
应该理解的是,虽然本发明说明书附图中给出的的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
由以上实施例可以看出,本发明提供的一种图像处理模型生成方法,通过使用第一模型在对图像处理初始模型的训练过程中输出图像处理初始模型的处理结果评价结果,在图像处理模型的训练过程中,可以自动地对图像处理模型的处理结果进行评价,从而实现图像处理模型自动调整学习方向,提高了生成图像处理模型的效率。
实施例二
基于上述实施例,本发明还提供了一种智能终端,其原理框图可以如图4所示。该智能终端包括通过系统总线连接的处理器、存储器、网络接口、显示屏、温度传感器。其中,该智能终端的处理器用于提供计算和控制能力。该智能终端的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该智能终端的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种图像处理模型生成方法。该智能终端的显示屏可以是液晶显示屏或者电子墨水显示屏,该智能终端的温度传感器是预先在智能终端内部设置,用于检测内部设备的当前运行温度。
本领域技术人员可以理解,图4中示出的原理框图,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的智能终端的限定,具体的智能终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种智能终端,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时至少可以实现以下步骤:
根据第一模型以及第一数据集训练图像处理初始模型;
获取所述图像处理初始模型训练完成后生成的图像处理模型;
其中,所述第一数据集包括多个不同的第一样本待处理图像,所述第一模型用于在训练过程中输出所述图像处理初始模型对第一样本待处理图像的处理结果的评价结果。
其中,所述第一数据集还包括所述第一样本待处理图像对应的第一样本目标图像所述根据第一模型以及第一数据集训练图像处理初始模型包括:
将所述第一数据集中的第一样本待处理图像输入至图像处理初始模型进行训练,获取所述图像处理初始模型输出的第二样本图像;
将所述第二样本图像输入至所述第一模型,获取所述第一模型根据所述第二样本图像输出的评价结果;
将所述第二样本图像的评价结果和所述第一样本目标图像反馈至所述图像处理初始模型,以使得所述图像处理初始模型调整学习方向;
继续执行所述将第一数据集中的第一样本待处理图像输入至图像处理初始模型进行训练的步骤,直至所述图像处理初始模型输出的所述第二样本图像已达预设效果。
其中,所述第一模型为图像隐写分析模型。
其中,所述第一模型是根据第二数据集训练完成的,所述第二数据集包括多组第二样本数据,每组第二样本数据包括第三样本图像以及第三样本图像对应的评价结果。
其中,所述根据第一模型以及第一数据集训练图像处理初始模型之前包括:
获取图像处理要求,根据所述图像处理要求获取所述图像处理初始模型。
其中,所述第三样本图像对应的评价结果是根据所述图像处理要求生成的。
其中,所述第一模型包括依次相互连接的通道滤波层、联合层、多个卷积-激活层、多个全连接层和输出层。
其中,所述通道滤波层的卷积核由高通滤波器初始化,所述通道滤波层不接受反向传播。
实施例三
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
本发明还提供了一种存储介质,其中,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如实施例一所述的图像处理模型生成方法。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (10)

1.一种图像处理模型生成方法,其特征在于,所述图像处理模型生成方法包括:
根据第一模型以及第一数据集训练图像处理初始模型;
获取所述图像处理初始模型训练完成后生成的图像处理模型;
其中,所述第一数据集包括多个不同的第一样本待处理图像,所述第一模型用于在训练过程中输出所述图像处理初始模型对第一样本待处理图像的处理结果的评价结果。
2.根据权利要求1所述的图像处理模型生成方法,其特征在于,所述第一数据集还包括所述第一样本待处理图像对应的第一样本目标图像,所述根据第一模型以及第一数据集训练图像处理初始模型包括:
将所述第一数据集中的第一样本待处理图像输入至所述图像处理初始模型进行训练,获取所述图像处理初始模型输出的第二样本图像;
将所述第二样本图像输入至所述第一模型,获取所述第一模型根据所述第二样本图像输出的评价结果;
将所述第二样本图像的评价结果和所述第一样本目标图像反馈至所述图像处理初始模型,以使得所述图像处理初始模型调整学习方向;
继续执行所述将第一数据集中的第一样本待处理图像输入至图像处理初始模型进行训练的步骤,直至所述图像处理初始模型输出的所述第二样本图像已达预设效果。
3.根据权利要求1所述的图像处理模型生成方法,其特征在于,所述第一模型为图像隐写分析模型。
4.根据权利要求3所述的图像处理模型生成方法,其特征在于,所述第一模型是根据第二数据集训练完成的,所述第二数据集包括多组第二样本数据,每组第二样本数据包括第三样本图像以及第三样本图像对应的评价结果。
5.根据权利要求4所述的图像处理模型生成方法,其特征在于,所述根据第一模型以及第一数据集训练图像处理初始模型之前包括:
获取图像处理要求,根据所述图像处理要求获取所述图像处理初始模型。
6.根据权利要求5所述的图像处理模型生成方法,其特征在于,所述第三样本图像对应的评价结果是根据所述图像处理要求生成的。
7.根据权利要求3所述的图像处理模型生成方法,其特征在于,所述第一模型包括依次相互连接的通道滤波层、联合层、多个卷积-激活层、多个全连接层和输出层。
8.根据权利要求7所述的图像处理模型生成方法,其特征在于,所述通道滤波层的卷积核由高通滤波器初始化,所述通道滤波层不接受反向传播。
9.一种智能终端,其特征在于,所述智能终端包括:处理器、与处理器通信连接的存储介质,所述存储介质适于存储多条指令;所述处理器适于调用所述存储介质中的指令,以执行实现上述权利要求1-8任一项所述的图像处理模型生成方法。
10.一种存储介质,其特征在于,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-8任意一项所述的图像处理模型生成方法。
CN201911424964.8A 2019-12-30 2019-12-30 一种图像处理模型生成方法、智能终端及存储介质 Active CN111222560B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911424964.8A CN111222560B (zh) 2019-12-30 2019-12-30 一种图像处理模型生成方法、智能终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911424964.8A CN111222560B (zh) 2019-12-30 2019-12-30 一种图像处理模型生成方法、智能终端及存储介质

Publications (2)

Publication Number Publication Date
CN111222560A true CN111222560A (zh) 2020-06-02
CN111222560B CN111222560B (zh) 2022-05-20

Family

ID=70831240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911424964.8A Active CN111222560B (zh) 2019-12-30 2019-12-30 一种图像处理模型生成方法、智能终端及存储介质

Country Status (1)

Country Link
CN (1) CN111222560B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113112400A (zh) * 2021-05-07 2021-07-13 深圳追一科技有限公司 一种模型训练方法及模型训练装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080175429A1 (en) * 2007-01-19 2008-07-24 New Jersey Institute Of Technology Method and apparatus for steganalysis for texture images
US10303977B2 (en) * 2016-06-28 2019-05-28 Conduent Business Services, Llc System and method for expanding and training convolutional neural networks for large size input images
CN109829890A (zh) * 2018-12-29 2019-05-31 武汉大学 一种jpeg图像载体安全性评价方法
CN109919317A (zh) * 2018-01-11 2019-06-21 华为技术有限公司 一种机器学习模型训练方法和装置
CN110276446A (zh) * 2019-06-26 2019-09-24 北京百度网讯科技有限公司 模型训练和选择推荐信息的方法和装置
CN110322399A (zh) * 2019-07-05 2019-10-11 深圳开立生物医疗科技股份有限公司 一种超声图像调整方法、系统、设备及计算机存储介质
CN110415230A (zh) * 2019-07-25 2019-11-05 东北大学 一种基于深度学习的ct切片图像语义分割系统及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080175429A1 (en) * 2007-01-19 2008-07-24 New Jersey Institute Of Technology Method and apparatus for steganalysis for texture images
US10303977B2 (en) * 2016-06-28 2019-05-28 Conduent Business Services, Llc System and method for expanding and training convolutional neural networks for large size input images
CN109919317A (zh) * 2018-01-11 2019-06-21 华为技术有限公司 一种机器学习模型训练方法和装置
CN109829890A (zh) * 2018-12-29 2019-05-31 武汉大学 一种jpeg图像载体安全性评价方法
CN110276446A (zh) * 2019-06-26 2019-09-24 北京百度网讯科技有限公司 模型训练和选择推荐信息的方法和装置
CN110322399A (zh) * 2019-07-05 2019-10-11 深圳开立生物医疗科技股份有限公司 一种超声图像调整方法、系统、设备及计算机存储介质
CN110415230A (zh) * 2019-07-25 2019-11-05 东北大学 一种基于深度学习的ct切片图像语义分割系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHUNQUAN TAN 等: "WISERNet: Wider Separate-Then-Reunion Network for Steganalysis of Color Images", 《IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113112400A (zh) * 2021-05-07 2021-07-13 深圳追一科技有限公司 一种模型训练方法及模型训练装置
CN113112400B (zh) * 2021-05-07 2024-04-09 深圳追一科技有限公司 一种模型训练方法及模型训练装置

Also Published As

Publication number Publication date
CN111222560B (zh) 2022-05-20

Similar Documents

Publication Publication Date Title
US20230051648A1 (en) Convolutional neural network (cnn) processing method and apparatus
WO2022042123A1 (zh) 图像识别模型生成方法、装置、计算机设备和存储介质
US11243895B2 (en) Data pre-processing method and device, and related computer device and storage medium
CN110378419B (zh) 一种图像集扩充方法、装置、设备及可读存储介质
CN112200722A (zh) 图像超分辨重构模型的生成方法、重构方法及电子设备
CN111199516B (zh) 基于图像生成网络模型的图像处理方法、系统及存储介质
WO2017166155A1 (zh) 一种对神经网络模型进行训练的方法、装置及电子设备
CN112001399B (zh) 基于局部特征显著化的图像场景分类方法和装置
CN111814905A (zh) 目标检测方法、装置、计算机设备和存储介质
CN111199507A (zh) 一种图像隐写分析方法、智能终端及存储介质
CN112818893A (zh) 一种面向移动终端的轻量化开集地标识别方法
US10733498B1 (en) Parametric mathematical function approximation in integrated circuits
CN111709516A (zh) 神经网络模型的压缩方法及压缩装置、存储介质、设备
CN112132279A (zh) 卷积神经网络模型压缩方法、装置、设备及存储介质
CN109345604B (zh) 图片处理方法、计算机设备和存储介质
CN114663662B (zh) 超参数搜索方法、装置、计算机设备和存储介质
CN111222560B (zh) 一种图像处理模型生成方法、智能终端及存储介质
CN113421276A (zh) 一种图像处理方法、装置及存储介质
CN111488945A (zh) 图像处理方法、装置、计算机设备和计算机可读存储介质
CN111695624A (zh) 数据增强策略的更新方法、装置、设备及存储介质
CN116091823A (zh) 一种基于快速分组残差模块的单特征无锚框目标检测方法
CN111178495A (zh) 用于检测图像中极小物体的轻量卷积神经网络
CN114358252A (zh) 目标神经网络模型中的操作执行方法及装置、存储介质
CN112598012B (zh) 神经网络模型中数据处理方法、存储介质和电子装置
CN112766397A (zh) 一种分类网络及其实现方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant