CN110047076B - 一种图像信息的处理方法、装置及存储介质 - Google Patents

一种图像信息的处理方法、装置及存储介质 Download PDF

Info

Publication number
CN110047076B
CN110047076B CN201910252352.9A CN201910252352A CN110047076B CN 110047076 B CN110047076 B CN 110047076B CN 201910252352 A CN201910252352 A CN 201910252352A CN 110047076 B CN110047076 B CN 110047076B
Authority
CN
China
Prior art keywords
matrix information
target
convolutional layer
neural network
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910252352.9A
Other languages
English (en)
Other versions
CN110047076A (zh
Inventor
揭泽群
刘威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910252352.9A priority Critical patent/CN110047076B/zh
Publication of CN110047076A publication Critical patent/CN110047076A/zh
Application granted granted Critical
Publication of CN110047076B publication Critical patent/CN110047076B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例公开了一种图像信息的处理方法、装置及存储介质,本发明实施例通过获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;根据第一矩阵信息对第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;根据第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。以此通过让第二矩阵信息模仿学习第一矩阵信息的特点,得到具有第一矩阵信息特点的第二目标矩阵信息,并以更完善的第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理,可以得到更佳的处理效果和处理速度,提升了图像信息的处理效率。

Description

一种图像信息的处理方法、装置及存储介质
技术领域
本发明涉及信息处理领域,具体涉及一种图像信息的处理方法、装置及存储介质。
背景技术
近年来,随着机器学习的不断发展,终端对于图像的理解能力越来越强,可以轻松的完成将图像中的物体进行自动分割,并识别出分割后的物体相应的内容,实现实时的智能抠图应用或者无人车的场景解析应用,极大的方便了用户的生活。
现有技术中,需要预先构建神经网络模型,并通过输入大量的训练图像对构建的神经网络模型进行物体识别训练,得到具备物体识别能力的神经网络模型,且神经网络模型的规模越大,相应的物体识别准确率越高。
在对现有技术的研究和实践过程中,本发明的发明人发现,大型的神经网络模型虽然对物体识别准确率高,但是相应的识别时间较长,导致对图像信息的处理效率过低。
发明内容
本发明实施例提供一种图像信息的处理方法、装置及存储介质,旨在提升图像信息的处理效率。
为解决上述技术问题,本发明实施例提供以下技术方案:
一种图像信息的处理方法,包括:
获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;
获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;
根据所述第一矩阵信息对所述第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;
根据所述第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。
一种图像信息的处理装置,包括:
第一获取单元,用于获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;
第二获取单元,用于获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;
学习单元,用于根据所述第一矩阵信息对所述第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;
处理单元,用于根据所述第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。
在一些实施例中,所第一获取单元,具体还用于:
获取预设目标神经网络模型对图像处理时相应的第一中间层特征;
将所述第一中间层与第一卷积层进行线性变换,得到相应的第一卷积层特征;
将所述第一中间层与第二卷积层进行线性变换,得到相应的第二卷积层特征;
对所述第一卷积层特征和第二卷积层特征进行维度压缩,得到维度压缩后相应的第一目标卷积层特征和第二目标卷积层特征;
将所述第一目标卷积层特征和第二目标卷积层特征进行相乘,生成相应的第一临时矩阵信息;
对所述第一临时矩阵信息进行归一化处理,生成归一化处理后的第一矩阵信息。
在一些实施例中,所述第二获取单元,具体用于:
获取预设待学习神经网络模型对图像处理时相应的第二中间层特征;
将所述第二中间层与第三卷积层进行线性变换,得到相应的第三卷积层特征;
将所述第二中间层与第四卷积层进行线性变换,得到相应的第四卷积层特征;
对所述第三卷积层特征和第四卷积层特征进行维度压缩,得到维度压缩后相应的第三目标卷积层特征和第四目标卷积层特征;
将所述第三目标卷积层特征和第四目标卷积层特征进行结合,生成第二矩阵信息。
在一些实施例中,所述第二获取单元,具体还用于:
获取预设待学习神经网络模型对图像处理时相应的第二中间层特征;
将所述第二中间层与第三卷积层进行线性变换,得到相应的第三卷积层特征;
将所述第二中间层与第四卷积层进行线性变换,得到相应的第四卷积层特征;
对所述第三卷积层特征和第四卷积层特征进行维度压缩,得到维度压缩后相应的第三目标卷积层特征和第四目标卷积层特征;
将所述第三目标卷积层特征和第四目标卷积层特征进行相乘,生成相应的第二临时矩阵信息;
对所述第二临时矩阵信息进行归一化处理,生成归一化处理后的第二矩阵信息。
在一些实施例中,所述处理单元,具体用于:
获取所述预设待学习神经网络模型相应的待学习特征;
将所述待学习特征与所述第二目标矩阵信息相乘,并与所述第二中间层特征相加,得到目标待学习特征;
根据所述目标待学习特征对图像信息进行处理。
一种存储介质,所述存储介质存储有多条指令,所述指令适于处理器进行加载,以执行上述图像信息的处理方法中的步骤。
本发明实施例通过获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;根据第一矩阵信息对第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;根据第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。以此通过让第二矩阵信息模仿学习第一矩阵信息的特点,得到具有第一矩阵信息特点的第二目标矩阵信息,并以更完善的第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理,相对于单独使用大型神经网络模型或小型神经网络模型的方案而言,可以得到更佳的处理效果和处理速度,提升了图像信息的处理效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的图像信息的处理系统的场景示意图;
图2是本发明实施例提供的图像信息的处理方法的流程示意图;
图3是本发明实施例提供的图像信息的处理方法的另一流程示意图;
图4a是本发明实施例提供的图像信息的处理方法的架构示意图;
图4b是本发明实施例提供的自注意力矩阵的训练流程框架图;
图4c是本发明实施例提供的图像信息的处理方法的场景示意图;
图5a是本发明实施例提供的图像信息的处理装置的结构示意图;
图5b是本发明实施例提供的图像信息的处理装置的另一结构示意图;
图6是本发明实施例提供的终端的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种图像信息的处理方法、装置、及存储介质。
请参阅图1,图1为本发明实施例所提供的图像信息的处理系统的场景示意图,包括:终端A、和服务器(该处理系统还可以包括除终端A之外的其他终端,终端具体个数在此处不作限定),终端A与服务器之间可以通过通信网络连接,该通信网络,可以包括无线网络以及有线网络,其中无线网络包括无线广域网、无线局域网、无线城域网、以及无线个人网中的一种或多种的组合。网络中包括路由器、网关等等网络实体,图中并未示意出。终端A可以通过通信网络与服务器进行信息交互,比如终端A可以通过通信网络向服务器发送图像,服务器在接收到图像之后,可以根据图像生成相应的分割或者物体识别等处理结果并反馈到终端A上。
该图像信息的处理系统可以包括图像信息的处理装置,该图像信息的处理装置具体可以集成在平板电脑、手机、笔记本电脑、台式电脑等具备储存单元并安装有微处理器而具有运算能力的终端中,在一实施方式中,该图像信息的处理装置还可以直接集成在具备存储单元并安装有微处理器而具有运算能力的服务器中,此处以安装在服务器中进行举例说明,在图1中,该终端即为图1中的终端A,该终端A可以安装各种用户需要的应用,比如图像处理类应用,该图像处理类应用中可以包括相应的图像识别和切割功能,该图像处理类应用可以根据得到的图像,得到相应的处理结果,该处理结果可以为对于图像上物体的分割结果,或者得到关于图像相应的场景分析结果。
该图像信息的处理系统还可以包括服务器,主要用于接收终端A发送的图像,并在接收到图像之后,获取预设目标神经网络模型对图像处理时相应的第一矩阵信息,获取预设目标待学习神经网络模型对图像处理时相应的第二矩阵信息,该矩阵信息反映了图像每个像素与其他所有像素之间的相关性,是一种像素间相对关系的刻画,且目标神经网络模型的第一矩阵信息的刻画效果高于第二矩阵信息的刻画效果,因此,根据需要学习的第一矩阵信息对第二矩阵信息进行学习处理,使得该第二矩阵信息学习模仿第一矩阵信息,得出学习处理后的第二目标矩阵信息,该第二目标矩阵信息更加接近于目标神经网络模型的第一矩阵信息,以该第二目标矩阵信息和待学习神经网络模型对图像信息进行处理,可以得到更好的处理结果。
需要说明的是,图1所示的图像信息的处理系统的场景示意图仅仅是一个示例,本发明实施例描述的图像信息的处理系统以及场景是为了更加清楚的说明本发明实施例的技术方案,并不构成对于本发明实施例提供的技术方案的限定,本领域普通技术人员可知,随着图像信息的处理系统的演变和新业务场景的出现,本发明实施例提供的技术方案对于类似的技术问题,同样适用。
以下分别进行详细说明。需说明的是,以下实施例的序号不作为对实施例优选顺序的限定。
实施例一、
在本实施例中,将从图像信息的处理装置的角度进行描述,该图像信息的处理装置具体可以集成在具备储存单元并安装有微处理器而具有运算能力的终端中。
一种图像信息的处理方法,包括:获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;根据第一矩阵信息对第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;根据第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。
请参阅图2,图2是本发明实施例提供的图像信息的处理方法的流程示意图。该图像信息的处理方法包括:
在步骤101中,获取预设目标神经网络模型对图像处理时相应的第一矩阵信息。
可以理解的是,该预设目标神经网络模型可以为卷积神经网络模型(Convolutional Neural Network,CNN)模型或者人工神经网络模型(Artificial NeuralNetworks,ANN)等等,该卷积神经网络模型或人工神经网络模型可以对图像进行智能处理,识别出图像中相应的物体信息和场景信息等等。
其中,该第一矩阵信息为该预设目标神经网络模型相应的自注意力矩阵,该自注意力矩阵反应了图像每个像素与其他所有像素之间的相关性,为一种像素间相对关系的刻画,该自注意力矩阵细节越好,对于图像的像素间相对关系的刻画越好,该自注意力矩阵细节越差,对于图像的像素间相对关系的刻画越差,而该自注意力矩阵的完善程度与相应的神经网络模型的规模相关联,大型的神经网络模型相应的自注意力矩阵细节一般较高,小型的神经网络模型相应的自注意力矩阵细节一般较差。该预设目标神经网络模型可以为大型神经网络模型。
进一步的,可以根据预设目标神经网络模型对图像进行处理时的中间层特征经过相应的处理,得到第一矩阵信息,由于该第一矩阵信息对应的神经网络模型为大型神经网络模型,所以该第一矩阵信息的细节较好,对于图像的像素间相对关系的刻画效果较好,根据该第一矩阵信息对图像信息进行处理得到的处理效果也会较好。
在一些实施方式中,该获取预设目标神经网络模型对图像处理时相应的第一矩阵信息的步骤,可以包括:
(1)获取预设目标神经网络模型对图像处理时相应的第一中间层特征;
(2)将该第一中间层与第一卷积层进行线性变换,得到相应的第一卷积层特征;
(3)将该第一中间层与第二卷积层进行线性变换,得到相应的第二卷积层特征;
(4)对该第一卷积层特征和第二卷积层特征进行维度压缩,得到维度压缩后相应的第一目标卷积层特征和第二目标卷积层特征;
(5)将该第一目标卷积层特征和第二目标卷积层特征进行结合,生成第一矩阵信息。
其中,获取预设目标神经网络模型对图像处理时相应的第一中间层特征,以预设目标神经网络模型为卷积神经网络模型为例,该预设目标神经网络模型可以对图像不断地进行特征提取,进而自动分割并识别出图像的内容,比如给出一个人骑摩托车的照片,该预设目标神经网络模型可以根据提取的特征识别出人和车。该第一中间层特征为该预设目标神经网络模型在对图像处理过程中间的某一层特征,该特征可以为3维特征,第一卷积层和第二卷积层都由若干个卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,不同的卷积层可以提取不同的特征。
因此,将第一中间层与第一卷积层进行线性变换,得到包含第一卷积层特性的第一卷积层特征,将第一中间层与第二卷积层进行线性变换,得到包含第二卷积层特性的第二卷积层特征,该第一卷积层特征和第二卷积层特征仍为3维特征。
进一步的,可以将该第一卷积层特征和第二卷积层相应的第二维和第三维特征进行压缩,得到维度压缩后相应的第一目标卷积层特征和第二目标卷积层特征,该第一目标卷积层特征和第二目标卷积层特征均为2维特征,所以,可以将该第一目标卷积层特征和第二目标卷积层特征进行矩阵结合,生成第一矩阵信息。
在一些实施方式中,该将该第一目标卷积层特征和第二目标卷积层特征进行结合,生成第一矩阵信息的步骤,可以包括:
(1.1)将该第一目标卷积层特征和第二目标卷积层特征进行相乘,生成相应的第一临时矩阵信息;
(1.2)对该第一临时矩阵信息进行归一化处理,生成归一化处理后的第一矩阵信息。
其中,由于该第一目标卷积层特征和第二目标卷积层特征均为2维特征,所以可以将该第一目标卷积层特征和该第二目标卷积层特征进行矩阵相乘,生成相应的第一临时矩阵信息。
进一步的,为了方便后续的计算处理,需要对第一临时矩阵信息进行归一化处理,在一实施方式中,该归一化处理可以为通过归一化指数函数对第一临时矩阵信息进行处理,得到归一化处理后的第一矩阵信息,该归一化处理后的第一矩阵信息的每一行与每一列的和都为1,保证了第一矩阵信息中每个像素与其他像素的相关性之和为1。
在步骤102中,获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息。
可以理解的是,该预设待学习神经网络模型可以为卷积神经网络模型或者人工神经网络模型等等,且该预设待学习神经网络模型与预设目标神经网络模型为相同的神经网络模型。
其中,该第二矩阵信息为该预设待学习神经网络模型相应的自注意力矩阵,该预设待学习神经网络模型可以为小型神经网络模型,也就是说该预设待学习神经网络模型的自注意力矩阵的完善程度不如预设目标神经网络模型的自注意力矩阵的完善程度,即该预设待学习神经网络模型的自注意力矩阵需要向该预设目标神经网络模型进行学习。
进一步的,可以根据预设待学习神经网络模型对图像进行处理时的中间层特征经过相应的处理,得到第二矩阵信息,由于该第二矩阵信息对应的神经网络模型为小型神经网络模型,所以该第二矩阵信息的细节较差,对于图像的像素间相对关系的刻画效果较差,根据该第二矩阵信息对图像信息进行处理得到的处理效果也会较差。
在一些实施方式中,该获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息的步骤,可以包括:
(1)获取预设待学习神经网络模型对图像处理时相应的第二中间层特征;
(2)将该第二中间层与第三卷积层进行线性变换,得到相应的第三卷积层特征;
(3)将该第二中间层与第四卷积层进行线性变换,得到相应的第四卷积层特征;
(4)对该第三卷积层特征和第四卷积层特征进行维度压缩,得到维度压缩后相应的第三目标卷积层特征和第四目标卷积层特征;
(5)将该第三目标卷积层特征和第四目标卷积层特征进行结合,生成第二矩阵信息。
其中,获取预设待学习神经网络模型对图像处理时相应的第二中间层特征,以预设待学习神经网络模型也为卷积神经网络模型为例,该预设待学习神经网络模型可以对图像不断地进行特征提取,进而自动分割并识别出图像的内容。该第二中间层特征为该预设待学习神经网络模型在对图像处理过程中间的某一层特征,该特征可以为3维特征,第三卷积层和第四卷积层都由若干个卷积单元组成。
因此,将第二中间层与第三卷积层进行线性变换,得到包含第三卷积层特性的第三卷积层特征,将第二中间层与第四卷积层进行线性变换,得到包含第四卷积层特性的第四卷积层特征,该第三卷积层特征和第四卷积层特征仍为3维特征。
进一步的,可以将该第三卷积层特征和第四卷积层相应的第二维和第三维特征进行压缩,得到维度压缩后相应的第三目标卷积层特征和第四目标卷积层特征,该第三目标卷积层特征和第四目标卷积层特征均为2维特征,所以,可以将该第三目标卷积层特征和第四目标卷积层特征进行矩阵结合,生成第二矩阵信息。
在一些实施方式中,该将该第三目标卷积层特征和第四目标卷积层特征进行结合,生成第二矩阵信息的步骤,可以包括:
(1.1)将该第三目标卷积层特征和第四目标卷积层特征进行相乘,生成相应的第二临时矩阵信息;
(1.2)对该第二临时矩阵信息进行归一化处理,生成归一化处理后的第二矩阵信息。
其中,由于该第三目标卷积层特征和第四目标卷积层特征均为2维特征,所以可以将该第三目标卷积层特征和该第四目标卷积层特征进行矩阵相乘,生成相应的第二临时矩阵信息。
进一步的,为了方便后续的计算处理,需要对第二临时矩阵信息进行归一化处理,在一实施方式中,该归一化处理可以为通过归一化指数函数对第二临时矩阵信息进行处理,得到归一化处理后的第二矩阵信息,该归一化处理后的第二矩阵信息的每一行与每一列的和也都为1,保证了第一矩阵信息中每个像素与其他像素的相关性之和也为1。
在步骤103中,根据第一矩阵信息对第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息。
其中,由于该第一矩阵信息的细节优于该第二矩阵信息的细节,也就是说对于图像的像素间相对关系的刻画效果来说,该第一矩阵信息优于第二矩阵信息,所以需要将该第一矩阵信息确定为需要学习的矩阵信息,基于该第一矩阵信息对第二矩阵信息进行相应的模仿学习,使得该第二矩阵信息尽量接近于该第一矩阵信息,将模仿学习后的第二矩阵信息确定为第二目标矩阵信息,该第二目标矩阵信息由于接近于第一矩阵信息,所以该第二目标矩阵信息的细节要优于原始的第二矩阵信息的,也就是说对于图像的像素间相对关系的刻画效果来说,该第二目标矩阵信息优于原始的第二矩阵信息。
在一些实施方式中,该根据第一矩阵信息对第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息的步骤,可以包括:
(1)计算该第一矩阵信息与该第二矩阵信息之间的空间距离;
(2)根据该空间距离对该第二矩阵信息进行收敛调节,确定相应的第二目标矩阵信息。
其中,该空间距离为第一矩阵信息与第二矩阵信息在空间上的距离差,该空间距离可以为曼哈顿距离,需要说明的是,该空间距离越小,说明该第一矩阵信息与该第二矩阵信息越接近,该空间距离越大,说明该第一矩阵信息与该第二矩阵信息越不接近。
进一步的,由于第一矩阵信息的细节优于第二矩阵信息的细节,所以需要使第二矩阵信息尽量接近于第一矩阵信息,也就是说,在实际训练中,也就是说需要尽量缩小空间距离,使得第二矩阵信息尽量接近第一矩阵信息,具体为根据第一矩阵信息与第二矩阵信息之间的空间距离对第二矩阵信息不断进行调节,直至该空间距离开始收敛时,确定出与第一矩阵信息最为接近的第二目标矩阵信息。
在一些实施方式中,该计算该第一矩阵信息与该第二矩阵信息之间的空间距离的步骤,可以包括通过损失函数计算该第一矩阵信息与该第二矩阵信息之间的空间距离。
其中,该损失函数(loss function)通常作为学习准则与优化问题相联系,通过特定的损失函数可以不断的计算第一矩阵信息与第二矩阵信息之间的空间距离,直至损失值,即空间距离开始收敛。
在一些实施方式中,该根据该空间距离对该第二矩阵信息进行收敛调节,确定相应的第二目标矩阵信息的步骤,可以包括;
(1.1)根据该空间距离对该第二矩阵信息进行调节,得到调节后的第二矩阵信息;
(1.2)将该调节后的第二矩阵信息替换该第二矩阵信息,并返回执行通过损失函数计算该第一矩阵信息与该第二矩阵信息之间的空间距离,直至计算出的空间距离开始收敛;
(1.3)将空间距离收敛时相应的第二矩阵信息确定为第二目标矩阵信息。
其中,根据空间距离对该第二矩阵信息进行调节,得到调节后的第二矩阵信息,由于经过该调节操作,使得该调节后的第二矩阵信息的细节更接近于该第一矩阵信息的细节。
进一步的,将调节后的第二矩阵信息替换调节前的第二矩阵信息,并返回执行通过损失函数计算该第一矩阵信息与该第二矩阵信息之间的空间距离,根据新的空间距离继续对新的第二矩阵信息进行调节,不断完善第二矩阵信息的细节,使得第二矩阵信息越来越接近于第一矩阵信息,直至空间距离开始收敛,此时,第二矩阵信息已经到达接近第一矩阵信息的极限程度了,所以可以将空间距离收敛时相应的第二矩阵信息确定为第二目标矩阵信息。
在步骤104中,根据第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。
其中,由于该第二目标矩阵信息经过对细节较好的第一矩阵信息的学习处理,所以该第二目标矩阵信息的细节更好,对于图像的像素间相对关系的刻画效果更好,因此,通过该第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理,可以得到接近于预设目标神经网络模型对于图像信息处理的效果和精确度。
在一些实施方式中,该根据第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理的步骤,可以包括:
(1)获取该预设待学习神经网络模型相应的待学习特征;
(2)将该待学习特征与该第二目标矩阵信息相乘,并与该第二中间层特征相加,得到目标待学习特征;
(3)根据该目标待学习特征对图像信息进行处理。
其中,该待学习特征可以为预设待学习神经网络模型中的第二中间层特征与某一卷积层相乘后得到的特征,该待学习特征既包括中间层特征的特性,也包括了卷积层的特性。
进一步的,将该待学习特征与经过学习处理后的第二目标矩阵信息相乘,进行全局像素组合,并在进行全局像素组合之后与预设待学习神经网络模型中的第一中间层特征相加,得到目标待学习特征,该目标待学习特征与预设目标神经网络模型对图像进行处理时提取的特征相近,因此,通过该目标待学习特征对图像信息处理,可以在小型的预设待学习神经网络模型的前提下,得到更加接近于大型的预设目标神经网络模型的处理效果和处理精度。在一实施方式中,在得到该目标学习特征之前,该预设待学习网络模型还受到像素级分类损失(pixel-level loss GT)监督和知识差距感知的模仿损失(knowledgedistillation loss)监督,该像素级分类损失指对于该预设带学习网络模型生成的特征的像素损失进行监督,保证最后生成的图像的像素质量不低于正常标准。该知识差距感知的模仿损失指预设目标神经网络模型对预设待学习神经网络模型的学习效果进行监督,保证学习效果高于正常标准。
由上述可知,本发明实施例通过获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;根据第一矩阵信息对第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;根据第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。以此通过让第二矩阵信息模仿学习第一矩阵信息的特点,得到具有第一矩阵信息特点的第二目标矩阵信息,并以更完善的第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理,相对于单独使用大型神经网络模型或小型神经网络模型的方案而言,可以得到更佳的处理效果和处理速度,提升了图像信息的处理效率。
实施例二、
根据实施例一所描述的方法,以下将举例作进一步详细说明。
在本实施例中,将以该图像信息的处理装置具体集成在终端中为例进行说明。
请参阅图3,图3为本发明实施例提供的图像信息的处理方法的另一流程示意图。该方法流程可以包括:
在步骤201中,终端获取预设目标神经网络模型对图像处理时相应的第一中间层特征。
需要说明的是,为了更好的解释本申请实施例,将该预设目标神经网络模型和预设待学习神经网络模型均以卷积神经网络模型进行说明。
其中,如图4a所示,该预设目标神经网络模型可以为teacher神经网络模型2,该teacher神经网络模型2为大型神经网络模型,对图像信息处理的效果和精确度优于小型神经网络模型,终端获取该预设目标神经网络模型对输入的图像进行处理时的第一中间层特征21,该第一中间层特征21为3维特征。
在步骤202中,终端将第一中间层与第一卷积层进行线性变换,得到相应的第一卷积层特征,将第一中间层与第二卷积层进行线性变换,得到相应的第二卷积层特征。
其中,如图4b所示,图4b为自注意力矩阵的训练流程框架图,第一中间层特征21的维度相应的为C*(即乘)H*W,该C为通道数量,该H为高度height的缩写,该W为宽度width的缩写,该Wk为该预设目标神经网络模型相应的第一卷积层,该Wq为该预设目标神经网络模型相应的第二卷积层,终端将第一中间层特征21与第一卷积层Wk进行线性变换,得到变换后的第一卷积层特征32,将第一中间层特征21与第二卷积层Wq进行线性变换,得到变换后的第二卷积层特征33,该第一卷积层特征32和第二卷积层特征33的维度均为
Figure GDA0002818578680000141
在步骤203中,终端对第一卷积层特征和第二卷积层特征进行维度压缩,得到维度压缩后相应的第一目标卷积层特征和第二目标卷积层特征。
其中,如图4b所示,终端对第一卷积层特征32和第二卷积层特征33进行维度压缩,将第一卷积层特征32和第二卷积层特征33的第二维和第三维压缩到同一维度,得到维度压缩后相应的第一目标卷积层特征34和第二目标卷积层特征35,该第一目标卷积层特征34和第二目标卷积层特征35的维度均为
Figure GDA0002818578680000142
即该第一目标卷积层特征34和第二目标卷积层特征35均压缩为2维特征。
在步骤204中,终端将第一目标卷积层特征和第二目标卷积层特征进行相乘,生成相应的第一临时矩阵信息,对第一临时矩阵信息进行归一化处理,生成归一化处理后的第一矩阵信息。
其中,如图4b所示,终端将第一目标卷积层特征34和第二目标卷积层特征35相乘,得到HW*HW维度的第一临时矩阵信息(即自注意力矩阵),为了后续的计算,终端可以通过归一化指数函数(Softmax)对HW*HW维度的第一临时矩阵信息进行归一化处理,得到归一化处理后的第一矩阵信息,该第一矩阵信息为图4a中的自注意力矩阵22,该第一矩阵信息的每一行与每一列的和都为1,保证了第一矩阵信息中每个像素与其他像素的相关性之和为1。具体的归一化过程如下公式所示:
Figure GDA0002818578680000151
该Mij为第i行第j列的第一矩阵信息,该Sij为第一临时矩阵中第i行第j列的矩阵相应的维数大小,该exp为以e为底的指数函数,上述参数都是已知参数,所以可以通过上述公式得到归一化后的第一矩阵信息,该第一矩阵信息为大型的预设目标神经网络模型相应的自注意力矩阵22。
在步骤205中,终端获取预设待学习神经网络模型对图像处理时相应的第二中间层特征。
其中,如图4a所示,该预设待学习神经网络模型可以为student神经网络模型1,该student神经网络模型1为小型神经网络模型,对图像信息处理的效果和精确度远远低于大型神经网络模型,终端获取该预设待学习神经网络模型对输入的图像进行处理时的第二中间层特征11,该第二中间层特征11为3维特征。
在步骤206中,终端将第二中间层与第三卷积层进行线性变换,得到相应的第三卷积层特征,将第二中间层与第四卷积层进行线性变换,得到相应的第四卷积层特征。
其中,如图4b所示,第二中间层特征11的维度相应的为C*H*W,该Wk为该预设待学习神经网络模型相应的第三卷积层,该Wq为该预设待学习神经网络模型相应的第四卷积层,终端将第二中间层特征11与第三卷积层Wk进行线性变换,得到变换后的第三卷积层特征32,将第二中间层特征11与第四卷积层Wq进行线性变换,得到变换后的第四卷积层特征33,该第三卷积层特征32和第四卷积层特征33的维度均为
Figure GDA0002818578680000152
在步骤207中,终端对第三卷积层特征和第四卷积层特征进行维度压缩,得到维度压缩后相应的第三目标卷积层特征和第四目标卷积层特征。
其中,如图4b所示,终端对第三卷积层特征32和第四卷积层特征33进行维度压缩,将第三卷积层特征32和第四卷积层特征33的第二维和第三维压缩到同一维度,得到维度压缩后相应的第三目标卷积层特征34和第四目标卷积层特征35,该第三目标卷积层特征34和第四目标卷积层特征35的维度均为
Figure GDA0002818578680000153
即该第三目标卷积层特征34和第四目标卷积层特征35压缩均为2维特征。
在步骤208中,终端将第三目标卷积层特征和第四目标卷积层特征进行相乘,生成相应的第二临时矩阵信息,对第二临时矩阵信息进行归一化处理,生成归一化处理后的第二矩阵信息。
其中,如图4b所示,终端将第三目标卷积层特征34和第四目标卷积层特征35相乘,得到HW*HW维度的第二临时矩阵信息(即自注意力矩阵),为了后续的计算,终端可以通过归一化指数函数对HW*HW维度的第二临时矩阵信息进行归一化处理,得到归一化处理后的第二矩阵信息,该第二矩阵信息为图4a中的自注意力矩阵12,该第二矩阵信息的每一行与每一列的和都为1,保证了第二矩阵信息中每个像素与其他像素的相关性之和为1。具体的归一化过程如下公式所示:
Figure GDA0002818578680000161
其中,该Mij为第i行第j列的第二矩阵信息,该Sij为第二临时矩阵中第i行第j列的矩阵相应的维数大小,该exp为以e为底的指数函数,上述参数都是已知参数,所以可以通过上述公式得到归一化后的第二矩阵信息,该第二矩阵信息为小型的预设待学习神经网络模型相应的自注意力矩阵12。
在步骤209中,终端通过损失函数计算第一矩阵信息与第二矩阵信息之间的空间距离。
其中,由于第一矩阵信息为大型的预设目标神经网络模型相应的自注意力矩阵22,而该第二矩阵信息为小型的预设待学习神经网络模型相应的自注意力矩阵12,因此该自注意力矩阵22的细节程度必然远远高于该自注意力矩阵12的细节程度,如图4c所示,图组51为输入的图像,图组52为通过第二矩阵信息相应生成的小型神经网络模型相应的小型网络自注意力图,而该图组54为通过第一矩阵信息相应生成的大型神经网络模型相应的大型网络自注意力图,很明显可以看出该图组54对于图像中的特征的细节处理远远高于图组52。
因此,终端可以使预设待学习神经网络模型相应的第二矩阵信息尽量学习预设目标神经网络模型相应的第一矩阵信息(即如图4a所示的矩阵模仿),提升对图像的细节处理效果,具体可以为通过特定的损失函数不断的计算出第一矩阵信息与第二信息之间的空间距离,该损失函数可以为如下公式所示:
Figure GDA0002818578680000171
该L即为空间距离,该N为像素个数,该Mi t为teacher神经网络模型(即预设目标神经网络模型)相应的第一矩阵信息中第i个矩阵,Mi s为student神经网络模型(即预设待学习神经网络模型)相应的第二矩阵信息中第i个矩阵。上述参数都是已知参数,所以可以通过上述公式得到相应的空间距离L,该空间距离L越小,该第一矩阵信息与该第二矩阵信息越接近,该空间距离L越大,该第一矩阵信息与该第二矩阵信息越不接近。
在步骤210中,根据空间距离对第二矩阵信息进行调节,得到调节后的第二矩阵信息。
其中,终端根据空间距离L对第二矩阵信息进行动态调节,使得调节后的第二矩阵信息更接近于第一矩阵信息的细节。
在步骤211中,终端将调节后的第二矩阵信息替换第二矩阵信息,并返回执行通过损失函数计算第一矩阵信息与第二矩阵信息之间的空间距离,直至计算出的空间距离开始收敛。
其中,终端将更接近于第一矩阵的细节的调节后的第二矩阵信息替换调节前的第二矩阵信息,并返回执行通过损失函数计算第一矩阵信息与第二矩阵信息之间的空间距离,不断完善第二矩阵信息的细节,使得该第二矩阵信息越来越接近于第一矩阵信息,直至计算出的空间距离开始收敛,说明第二矩阵信息的细节已经到达接近第一矩阵信息的极限程度。
在步骤212中,终端将空间距离收敛时相应的第二矩阵信息确定为第二目标矩阵信息。
其中,该空间距离开始收敛时的第二矩阵信息的细节为接近第一矩阵信息的细节的最大程度,所以终端可以将空间距离收敛时相应的第二矩阵信息确定为第二目标矩阵信息。
因为该第二目标矩阵信息接近于大型的预设目标神经网络模型相应的第一矩阵信息,所以该第二目标矩阵信息的细节程度肯定优于原第二矩阵信息的细节程度,如图4c所示,图组53为通过第二目标矩阵信息相应生成的调节后的小型网络自注意力图,很明显可以看出该图组53对于图像中的特征细节处理优于图组52。
在步骤213中,终端获取预设待学习神经网络模型相应的待学习特征。
其中,如图4a所示,终端可以获取预设待学习神经网络模型中的某一卷积层,如Wv,和预设待学习神经网络模型中的第二中间层特征11,将该第二中间层特征11和该卷积层Wv相乘得到相应的待学习特征,该待学习特征既包括了第二中间层特征11的特性,也包括了卷积层Wv的特性。
在步骤214中,终端将待学习特征与第二目标矩阵信息相乘,并与第一中间层特征相加,得到目标待学习特征,根据目标待学习特征对图像信息进行处理。
其中,如图4a所示,终端将该待学习特征13与第二目标矩阵信息进行全局像素组合,即将待学习特征13与第二目标矩阵信息进行相乘,并在组合后与预设待学习神经网络模型中相应的第二中间层特征11相加,得到该预设待学习神经网络模型在矩阵模仿后的目标待学习特征15,该目标待学习特征15与目标神经网络模型对图像进行处理时提取的特征更为接近,因此,通过该目标待学习特征对图像信息处理,可以在小型的预设待学习神经网络模型的前提下,得到更加接近于大型的预设目标神经网络模型的处理效果和处理精度。
由上述可知,本发明实施例通过获取预设目标神经网络模型对图像处理时相应的第一中间层特征,并将该第一中间层特征与第一卷积层和第二卷积层进行线性变换并进行维度压缩,得到相应的第一目标卷积特征和第二目标卷积特征,将该第一目标卷积特征和第二目标卷积特征进相乘并归一化处理,得到第一矩阵信息,获取预设待学习神经网络模型对图像处理时相应的二中间层特征,并将该第二中间层特征与第三卷积层和第四卷积层进行线性变换并进行维度压缩,得到相应的第三目标卷积特征和第四目标卷积特征,将该第三目标卷积特征和第四目标卷积特征进相乘并归一化处理,得到第二矩阵信息,根据损失函数计算第一矩阵信息与第二矩阵信息之间空间距离,根据该空间距离对第二矩阵信息进行调节,得到调节后的第二矩阵信息,将调节后的第二矩阵信息替换先前的第二矩阵信息,并返回执行计算空间距离,直至空间距离开始收敛,将空间距离收敛时相应的第二矩阵信息确定为第二目标矩阵信息,根据该第二目标矩阵信息与待学习特征进行相乘,并与第二中间层特征相加,得到目标待学习特征,根据目标待学习特征对图像信息进行处理。以此通过让第二矩阵信息模仿学习第一矩阵信息的特点,得到具有第一矩阵信息特点的第二目标矩阵信息,并以更完善的第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理,相对于单独使用大型神经网络模型或小型神经网络模型的方案而言,可以得到更佳的处理效果和处理速度,提升了图像信息的处理效率。
实施例三、
为便于更好的实施本发明实施例提供的图像信息的处理方法,本发明实施例还提供一种基于上述图像信息的处理方法的装置。其中名词的含义与上述图像信息的处理方法中相同,具体实现细节可以参考方法实施例中的说明。
请参阅图5a,图5a为本发明实施例提供的图像信息的处理装置的结构示意图,其中该图像信息的处理装置可以包括第一获取单元301、第二获取单元302、学习单元303、及处理单元304等。
第一获取单元301,用于获取预设目标神经网络模型对图像处理时相应的第一矩阵信息。
可以理解的是,该预设目标神经网络模型可以为卷积神经网络模型模型或者人工神经网络模型等等。
其中,该第一矩阵信息为该预设目标神经网络模型相应的自注意力矩阵,该自注意力矩阵反应了图像每个像素与其他所有像素之间的相关性,为一种像素间相对关系的刻画,该自注意力矩阵细节越好,对于图像的像素间相对关系的刻画越好,该自注意力矩阵细节越差,对于图像的像素间相对关系的刻画越差,而该自注意力矩阵的完善程度与相应的神经网络模型的规模相关联,大型的神经网络模型相应的自注意力矩阵细节一般较高,小型的神经网络模型相应的自注意力矩阵细节一般较差。该预设目标神经网络模型可以为大型神经网络模型。
进一步的,第一获取单元301可以根据预设目标神经网络模型对图像进行处理时的中间层特征经过相应的处理,得到第一矩阵信息,由于该第一矩阵信息对应的神经网络模型为大型神经网络模型,所以该第一矩阵信息的细节较好,对于图像的像素间相对关系的刻画效果较好,根据该第一矩阵信息对图像信息进行处理得到的处理效果也会较好。
在一些实施方式中,该第一获取单元301,具体用于获取预设目标神经网络模型对图像处理时相应的第一中间层特征;将该第一中间层与第一卷积层进行线性变换,得到相应的第一卷积层特征;将该第一中间层与第二卷积层进行线性变换,得到相应的第二卷积层特征;对该第一卷积层特征和第二卷积层特征进行维度压缩,得到维度压缩后相应的第一目标卷积层特征和第二目标卷积层特征;将该第一目标卷积层特征和第二目标卷积层特征进行结合,生成第一矩阵信息。
其中,第一获取单元301获取预设目标神经网络模型对图像处理时相应的第一中间层特征,以预设目标神经网络模型为卷积神经网络模型为例,该预设目标神经网络模型可以对图像不断地进行特征提取,进而自动分割并识别出图像的内容,比如给出一个人骑摩托车的照片,该预设目标神经网络模型可以根据提取的特征识别出人和车。该第一中间层特征为该预设目标神经网络模型在对图像处理过程中间的某一层特征,该特征可以为3维特征,第一卷积层和第二卷积层都由若干个卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,不同的卷积层可以提取不同的特征。
因此,第一获取单元301将第一中间层与第一卷积层进行线性变换,得到包含第一卷积层特性的第一卷积层特征,将第一中间层与第二卷积层进行线性变换,得到包含第二卷积层特性的第二卷积层特征,该第一卷积层特征和第二卷积层特征仍为3维特征。
进一步的,第一获取单元301可以将该第一卷积层特征和第二卷积层相应的第二维和第三维特征进行压缩,得到维度压缩后相应的第一目标卷积层特征和第二目标卷积层特征,该第一目标卷积层特征和第二目标卷积层特征均为2维特征,所以,可以将该第一目标卷积层特征和第二目标卷积层特征进行矩阵结合,生成第一矩阵信息。
在一些实施方式中,该第一获取单元301,具体还用于获取预设目标神经网络模型对图像处理时相应的第一中间层特征;将该第一中间层与第一卷积层进行线性变换,得到相应的第一卷积层特征;将该第一中间层与第二卷积层进行线性变换,得到相应的第二卷积层特征;对该第一卷积层特征和第二卷积层特征进行维度压缩,得到维度压缩后相应的第一目标卷积层特征和第二目标卷积层特征;将该第一目标卷积层特征和第二目标卷积层特征进行相乘,生成相应的第一临时矩阵信息;对该第一临时矩阵信息进行归一化处理,生成归一化处理后的第一矩阵信息。
第二获取单元302,用于获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息。
可以理解的是,该预设待学习神经网络模型可以为卷积神经网络模型或者人工神经网络模型等等,且该预设待学习神经网络模型与预设目标神经网络模型为相同的神经网络模型。
其中,该第二矩阵信息为该预设待学习神经网络模型相应的自注意力矩阵,该预设待学习神经网络模型可以为小型神经网络模型,也就是说该预设待学习神经网络模型的自注意力矩阵的完善程度不如预设目标神经网络模型的自注意力矩阵的完善程度,即该预设待学习神经网络模型的自注意力矩阵需要向该预设目标神经网络模型进行学习。
进一步的,第二获取单元302可以根据预设待学习神经网络模型对图像进行处理时的中间层特征经过相应的处理,得到第二矩阵信息,由于该第二矩阵信息对应的神经网络模型为小型神经网络模型,所以该第二矩阵信息的细节较差,对于图像的像素间相对关系的刻画效果较差,根据该第二矩阵信息对图像信息进行处理得到的处理效果也会较差。
在一些实施方式中,该第二获取单元302,具体用于获取预设待学习神经网络模型对图像处理时相应的第二中间层特征;将该第二中间层与第三卷积层进行线性变换,得到相应的第三卷积层特征;将该第二中间层与第四卷积层进行线性变换,得到相应的第四卷积层特征;对该第三卷积层特征和第四卷积层特征进行维度压缩,得到维度压缩后相应的第三目标卷积层特征和第四目标卷积层特征;将该第三目标卷积层特征和第四目标卷积层特征进行结合,生成第二矩阵信息。
其中,第二获取单元302获取预设待学习神经网络模型对图像处理时相应的第二中间层特征,以预设待学习神经网络模型也为卷积神经网络模型为例,该预设待学习神经网络模型可以对图像不断地进行特征提取,进而自动分割并识别出图像的内容。该第二中间层特征为该预设待学习神经网络模型在对图像处理过程中间的某一层特征,该特征可以为3维特征,第三卷积层和第四卷积层都由若干个卷积单元组成。
因此,第二获取单元302将第二中间层与第三卷积层进行线性变换,得到包含第三卷积层特性的第三卷积层特征,将第二中间层与第四卷积层进行线性变换,得到包含第四卷积层特性的第四卷积层特征,该第三卷积层特征和第四卷积层特征仍为3维特征。
进一步的,第二获取单元302可以将该第三卷积层特征和第四卷积层相应的第二维和第三维特征进行压缩,得到维度压缩后相应的第三目标卷积层特征和第四目标卷积层特征,该第三目标卷积层特征和第四目标卷积层特征均为2维特征,所以,可以将该第三目标卷积层特征和第四目标卷积层特征进行矩阵结合,生成第二矩阵信息。
在一些实施方式中,该第二获取单元302,具体还用于获取预设待学习神经网络模型对图像处理时相应的第二中间层特征;将该第二中间层与第三卷积层进行线性变换,得到相应的第三卷积层特征;将该第二中间层与第四卷积层进行线性变换,得到相应的第四卷积层特征;对该第三卷积层特征和第四卷积层特征进行维度压缩,得到维度压缩后相应的第三目标卷积层特征和第四目标卷积层特征;将该第三目标卷积层特征和第四目标卷积层特征进行相乘,生成相应的第二临时矩阵信息;对该第二临时矩阵信息进行归一化处理,生成归一化处理后的第二矩阵信息。
学习单元303,用于根据该第一矩阵信息对该第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息。
其中,由于该第一矩阵信息的细节优于该第二矩阵信息的细节,也就是说对于图像的像素间相对关系的刻画效果来说,该第一矩阵信息优于第二矩阵信息,所以学习单元303需要将该第一矩阵信息确定为需要学习的矩阵信息,基于该第一矩阵信息对第二矩阵信息进行相应的模仿学习,使得该第二矩阵信息尽量接近于该第一矩阵信息,将模仿学习后的第二矩阵信息确定为第二目标矩阵信息,该第二目标矩阵信息由于接近于第一矩阵信息,所以该第二目标矩阵信息的细节要优于原始的第二矩阵信息的,也就是说对于图像的像素间相对关系的刻画效果来说,该第二目标矩阵信息优于原始的第二矩阵信息。
在一些实施方式中,如图5b所示,该学习单元303,可以包括:
计算子单元3021,用于计算该第一矩阵信息与该第二矩阵信息之间的空间距离。
调节子单元3032,用于根据该空间距离对该第二矩阵信息进行收敛调节,确定相应的第二目标矩阵信息。
其中,该空间距离为第一矩阵信息与第二矩阵信息在空间上的距离差,该空间距离可以为曼哈顿距离,需要说明的是,该空间距离越小,说明该第一矩阵信息与该第二矩阵信息越接近,该空间距离越大,说明该第一矩阵信息与该第二矩阵信息越不接近。
进一步的,由于第一矩阵信息的细节优于第二矩阵信息的细节,所以需要使第二矩阵信息尽量接近于第一矩阵信息,也就是说,在实际训练中,计算子单元3021需要尽量缩小空间距离,使得第二矩阵信息尽量接近第一矩阵信息,具体为调节子单元3032根据第一矩阵信息与第二矩阵信息之间的空间距离对第二矩阵信息不断进行调节,直至该空间距离开始收敛时,确定出与第一矩阵信息最为接近的第二目标矩阵信息。
在一些实施方式中,该计算子单元3031,具体用于通过损失函数计算该第一矩阵信息与该第二矩阵信息之间的空间距离。
在一些实施方式中,该调节子单元3032,具体用于根据该空间距离对该第二矩阵信息进行调节,得到调节后的第二矩阵信息;将该调节后的第二矩阵信息替换该第二矩阵信息,并返回执行通过损失函数计算该第一矩阵信息与该第二矩阵信息之间的空间距离,直至计算出的空间距离开始收敛;将空间距离收敛时相应的第二矩阵信息确定为第二目标矩阵信息。
处理单元304,用于根据该第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。
其中,由于该第二目标矩阵信息经过对细节较好的第一矩阵信息的学习处理,所以该第二目标矩阵信息的细节更好,对于图像的像素间相对关系的刻画效果更好,因此,处理单元304通过该第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理,可以得到接近于预设目标神经网络模型对于图像信息处理的效果和精确度。
在一些实施方式中,处理单元304,具体用于获取该预设待学习神经网络模型相应的待学习特征;将该待学习特征与该第二目标矩阵信息相乘,并与该第二中间层特征相加,得到目标待学习特征;根据该目标待学习特征对图像信息进行处理。
其中,该待学习特征可以为预设待学习神经网络模型中的第二中间层特征与某一卷积层相乘后得到的特征,该待学习特征既包括中间层特征的特性,也包括了卷积层的特性。
进一步的,处理单元304将该待学习特征与经过学习处理后的第二目标矩阵信息相乘,进行全局像素组合,并在进行全局像素组合之后与预设待学习神经网络模型中的第二中间层特征相加,得到目标待学习特征,该目标待学习特征与预设目标神经网络模型对图像进行处理时提取的特征相近,因此,处理单元304通过该目标待学习特征对图像信息处理,可以在小型的预设待学习神经网络模型的前提下,得到更加接近于大型的预设目标神经网络模型的处理效果和处理精度。在一实施方式中,该装置还包括,监督单元(未标识),用于通过像素级分类损失监督和知识差距感知的模仿损失监督对预设待学习网络模型进行处理,该像素级分类损失指对于该预设带学习网络模型生成的特征的像素损失进行监督,保证最后生成的图像的像素质量不低于正常标准。该知识差距感知的模仿损失指预设目标神经网络模型对预设待学习神经网络模型的学习效果进行监督,保证学习效果高于正常标准。
由上述可知,本发明实施例通过第一获取单元301获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;第二获取单元302获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;学习单元303根据第一矩阵信息对第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;处理单元304根据第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。以此通过让第二矩阵信息模仿学习第一矩阵信息的特点,得到具有第一矩阵信息特点的第二目标矩阵信息,并以更完善的第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理,相对于单独使用大型神经网络模型或小型神经网络模型的方案而言,可以得到更佳的处理效果和处理速度,提升了图像信息的处理效率。
实施例四、
本发明实施例还提供一种终端,如图6所示,该终端可以包括射频(RF,RadioFrequency)电路601、包括有一个或一个以上计算机可读存储介质的存储器602、输入单元603、显示单元604、传感器605、音频电路606、无线保真(WiFi,Wireless Fidelity)模块607、包括有一个或者一个以上处理核心的处理器608、以及电源609等部件。本领域技术人员可以理解,图6中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
RF电路601可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,交由一个或者一个以上处理器608处理;另外,将涉及上行的数据发送给基站。通常,RF电路601包括但不限于天线、至少一个放大器、调谐器、一个或多个振荡器、用户身份模块(SIM,Subscriber Identity Module)卡、收发信机、耦合器、低噪声放大器(LNA,Low Noise Amplifier)、双工器等。此外,RF电路601还可以通过无线通信与网络和其他设备通信。无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(GSM,Global System of Mobile communication)、通用分组无线服务(GPRS,GeneralPacket Radio Service)、码分多址(CDMA,Code Division Multiple Access)、宽带码分多址(WCDMA,Wideband Code Division Multiple Access)、长期演进(LTE,Long TermEvolution)、电子邮件、短消息服务(SMS,Short Messaging Service)等。
存储器602可用于存储软件程序以及模块,处理器608通过运行存储在存储器602的软件程序以及模块,从而执行各种功能应用以及即时通讯信息的处理。存储器602可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器602可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器602还可以包括存储器控制器,以提供处理器608和输入单元603对存储器602的访问。
输入单元603可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,在一个具体的实施例中,输入单元603可包括触敏表面以及其他输入设备。触敏表面,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面上或在触敏表面附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器608,并能接收处理器608发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面。除了触敏表面,输入单元603还可以包括其他输入设备。具体地,其他输入设备可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元604可用于显示由用户输入的信息或提供给用户的信息以及终端的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元604可包括显示面板,可选的,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-Emitting Diode)等形式来配置显示面板。进一步的,触敏表面可覆盖显示面板,当触敏表面检测到在其上或附近的触摸操作后,传送给处理器608以确定触摸事件的类型,随后处理器608根据触摸事件的类型在显示面板上提供相应的视觉输出。虽然在图6中,触敏表面与显示面板是作为两个独立的部件来实现输入和输入功能,但是在某些实施例中,可以将触敏表面与显示面板集成而实现输入和输出功能。
终端还可包括至少一种传感器605,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板的亮度,接近传感器可在终端移动到耳边时,关闭显示面板和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于终端还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路606、扬声器,传声器可提供用户与终端之间的音频接口。音频电路606可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路606接收后转换为音频数据,再将音频数据输出处理器608处理后,经RF电路601以发送给比如另一终端,或者将音频数据输出至存储器602以便进一步处理。音频电路606还可能包括耳塞插孔,以提供外设耳机与终端的通信。
WiFi属于短距离无线传输技术,终端通过WiFi模块607可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图6示出了WiFi模块607,但是可以理解的是,其并不属于终端的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器608是终端的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器602内的软件程序和/或模块,以及调用存储在存储器602内的数据,执行终端的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器608可包括一个或多个处理核心;优选的,处理器608可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器608中。
终端还包括给各个部件供电的电源609(比如电池),优选的,电源可以通过电源管理系统与处理器608逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源609还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管未示出,终端还可以包括摄像头、蓝牙模块等,在此不再赘述。具体在本实施例中,终端中的处理器608会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器602中,并由处理器608来运行存储在存储器602中的应用程序,从而实现各种功能:
获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;根据该第一矩阵信息对该第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;根据该第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对图像信息的处理方法的详细描述,此处不再赘述。
由上可知,本发明实施例的终端可以通过获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;根据第一矩阵信息对第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;根据第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。以此通过让第二矩阵信息模仿学习第一矩阵信息的特点,得到具有第一矩阵信息特点的第二目标矩阵信息,并以更完善的第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理,相对于单独使用大型神经网络模型或小型神经网络模型的方案而言,可以得到更佳的处理效果和处理速度,提升了图像信息的处理效率。
实施例五、
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本发明实施例提供一种存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本发明实施例所提供的任一种图像信息的处理方法中的步骤。例如,该指令可以执行如下步骤:
获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;根据该第一矩阵信息对该第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;根据该第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的指令,可以执行本发明实施例所提供的任一种图像信息的处理方法中的步骤,因此,可以实现本发明实施例所提供的任一种图像信息的处理方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本发明实施例所提供的一种图像信息的处理方法、装置、存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (13)

1.一种图像信息的处理方法,其特征在于,包括:
获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;
所述获取预设目标神经网络模型对图像处理时相应的第一矩阵信息的步骤,包括:
获取预设目标神经网络模型对图像处理时相应的第一中间层特征;
将所述第一中间层与第一卷积层进行线性变换,得到相应的第一卷积层特征;
将所述第一中间层与第二卷积层进行线性变换,得到相应的第二卷积层特征;
对所述第一卷积层特征和第二卷积层特征进行维度压缩,得到维度压缩后相应的第一目标卷积层特征和第二目标卷积层特征;
将所述第一目标卷积层特征和第二目标卷积层特征进行结合,生成第一矩阵信息;
获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;
根据所述第一矩阵信息对所述第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;
根据所述第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。
2.根据权利要求1所述的处理方法,其特征在于,所述根据所述第一矩阵信息对所述第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息的步骤,包括:
计算所述第一矩阵信息与所述第二矩阵信之间的空间距离息;
根据所述空间距离对所述第二矩阵信息进行收敛调节,确定相应的第二目标矩阵信息。
3.根据权利要求2所述的处理方法,其特征在于,所述计算所述第一矩阵信息与所述第二矩阵信息之间的空间距离的步骤,包括:
通过损失函数计算所述第一矩阵信息与所述第二矩阵信息之间的空间距离。
4.根据权利要求3所述的处理方法,其特征在于,所述根据所述空间距离对所述第二矩阵信息进行收敛调节,确定相应的第二目标矩阵信息的步骤,包括:
根据所述空间距离对所述第二矩阵信息进行调节,得到调节后的第二矩阵信息;
将所述调节后的第二矩阵信息替换所述第二矩阵信息,并返回执行通过损失函数计算所述第一矩阵信息与所述第二矩阵信息之间的空间距离,直至计算出的空间距离开始收敛;
将空间距离收敛时相应的第二矩阵信息确定为第二目标矩阵信息。
5.根据权利要求1所述的处理方法,其特征在于,所述将所述第一目标卷积层特征和第二目标卷积层特征进行结合,生成第一矩阵信息步骤,包括:
将所述第一目标卷积层特征和第二目标卷积层特征进行相乘,生成相应的第一临时矩阵信息;
对所述第一临时矩阵信息进行归一化处理,生成归一化处理后的第一矩阵信息。
6.根据权利要求1所述的处理方法,其特征在于,所述获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息的步骤,包括:
获取预设待学习神经网络模型对图像处理时相应的第二中间层特征;
将所述第二中间层与第三卷积层进行线性变换,得到相应的第三卷积层特征;
将所述第二中间层与第四卷积层进行线性变换,得到相应的第四卷积层特征;
对所述第三卷积层特征和第四卷积层特征进行维度压缩,得到维度压缩后相应的第三目标卷积层特征和第四目标卷积层特征;
将所述第三目标卷积层特征和第四目标卷积层特征进行结合,生成第二矩阵信息。
7.根据权利要求6所述的处理方法,其特征在于,所述将所述第三目标卷积层特征和第四目标卷积层特征进行结合,生成第二矩阵信息的步骤,包括:
将所述第三目标卷积层特征和第四目标卷积层特征进行相乘,生成相应的第二临时矩阵信息;
对所述第二临时矩阵信息进行归一化处理,生成归一化处理后的第二矩阵信息。
8.根据权利要求6或7所述的处理方法,其特征在于,所述根据所述第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理的步骤,包括:
获取所述预设待学习神经网络模型相应的待学习特征;
将所述待学习特征与所述第二目标矩阵信息相乘,并与所述第二中间层特征相加,得到目标待学习特征;
根据所述目标待学习特征对图像信息进行处理。
9.一种图像信息的处理装置,其特征在于,包括:
第一获取单元,用于获取预设目标神经网络模型对图像处理时相应的第一矩阵信息;
所述第一获取单元,具体用于:
获取预设目标神经网络模型对图像处理时相应的第一中间层特征;
将所述第一中间层与第一卷积层进行线性变换,得到相应的第一卷积层特征;
将所述第一中间层与第二卷积层进行线性变换,得到相应的第二卷积层特征;
对所述第一卷积层特征和第二卷积层特征进行维度压缩,得到维度压缩后相应的第一目标卷积层特征和第二目标卷积层特征;
将所述第一目标卷积层特征和第二目标卷积层特征进行结合,生成第一矩阵信息;
第二获取单元,用于获取预设待学习神经网络模型对图像处理时相应的第二矩阵信息;
学习单元,用于根据所述第一矩阵信息对所述第二矩阵信息进行相应的学习处理,确定学习处理后的第二目标矩阵信息;
处理单元,用于根据所述第二目标矩阵信息和预设待学习神经网络模型对图像信息进行处理。
10.根据权利要求9所述的处理装置,其特征在于,所述学习单元,包括:
计算子单元,用于计算所述第一矩阵信息与所述第二矩阵信息之间的空间距离;
调节子单元,用于根据所述空间距离对所述第二矩阵信息进行收敛调节,确定相应的第二目标矩阵信息。
11.根据权利要求10所述的处理装置,其特征在于,所述计算子单元,具体用于:
通过损失函数计算所述第一矩阵信息与所述第二矩阵信息之间的空间距离。
12.根据权利要求11所述的处理装置,其特征在于,所述调节子单元,具体用于:
根据所述空间距离对所述第二矩阵信息进行调节,得到调节后的第二矩阵信息;
将所述调节后的第二矩阵信息替换所述第二矩阵信息,并返回执行通过损失函数计算所述第一矩阵信息与所述第二矩阵信息之间的空间距离,直至计算出的空间距离开始收敛;
将空间距离收敛时相应的第二矩阵信息确定为第二目标矩阵信息。
13.一种存储介质,其特征在于,所述存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至8任一项所述的图像信息的处理方法中的步骤。
CN201910252352.9A 2019-03-29 2019-03-29 一种图像信息的处理方法、装置及存储介质 Active CN110047076B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910252352.9A CN110047076B (zh) 2019-03-29 2019-03-29 一种图像信息的处理方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910252352.9A CN110047076B (zh) 2019-03-29 2019-03-29 一种图像信息的处理方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN110047076A CN110047076A (zh) 2019-07-23
CN110047076B true CN110047076B (zh) 2021-03-23

Family

ID=67275522

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910252352.9A Active CN110047076B (zh) 2019-03-29 2019-03-29 一种图像信息的处理方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN110047076B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106909902A (zh) * 2017-03-01 2017-06-30 北京航空航天大学 一种基于改进的层次化显著模型的遥感目标检测方法
CN107247989A (zh) * 2017-06-15 2017-10-13 北京图森未来科技有限公司 一种神经网络训练方法及装置
US9965705B2 (en) * 2015-11-03 2018-05-08 Baidu Usa Llc Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering
CN108229534A (zh) * 2017-11-28 2018-06-29 北京市商汤科技开发有限公司 神经网络模型迁移方法和系统、电子设备、程序和介质
CN108399431A (zh) * 2018-02-28 2018-08-14 国信优易数据有限公司 分类模型训练方法以及分类方法
CN108427927A (zh) * 2018-03-16 2018-08-21 深圳市商汤科技有限公司 目标再识别方法和装置、电子设备、程序和存储介质
CN108647736A (zh) * 2018-05-16 2018-10-12 南京大学 一种基于感知损失和匹配注意力机制的图像分类方法
CN108875521A (zh) * 2017-12-20 2018-11-23 北京旷视科技有限公司 人脸检测方法、装置、系统和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107085696A (zh) * 2016-10-15 2017-08-22 安徽百诚慧通科技有限公司 一种基于卡口图像的车辆定位及型号识别方法
CN108932715B (zh) * 2018-07-13 2022-06-07 北京红云智胜科技有限公司 一种基于深度学习的冠状动脉造影图分割的优化方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965705B2 (en) * 2015-11-03 2018-05-08 Baidu Usa Llc Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering
CN106909902A (zh) * 2017-03-01 2017-06-30 北京航空航天大学 一种基于改进的层次化显著模型的遥感目标检测方法
CN107247989A (zh) * 2017-06-15 2017-10-13 北京图森未来科技有限公司 一种神经网络训练方法及装置
CN108229534A (zh) * 2017-11-28 2018-06-29 北京市商汤科技开发有限公司 神经网络模型迁移方法和系统、电子设备、程序和介质
CN108875521A (zh) * 2017-12-20 2018-11-23 北京旷视科技有限公司 人脸检测方法、装置、系统和存储介质
CN108399431A (zh) * 2018-02-28 2018-08-14 国信优易数据有限公司 分类模型训练方法以及分类方法
CN108427927A (zh) * 2018-03-16 2018-08-21 深圳市商汤科技有限公司 目标再识别方法和装置、电子设备、程序和存储介质
CN108647736A (zh) * 2018-05-16 2018-10-12 南京大学 一种基于感知损失和匹配注意力机制的图像分类方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"Distilling the knowledge in a neural network";Hinton,at el.;《arXiv》;20150309;1-9 *
"Paying more attention to attention:improving the performance of convolutional neural networks via attention transfer";Zagoruyko,at el.;《arXiv》;20170212;1-13 *
"FitNets:Hints for thin deep nets";Romero,at el.;《arXiv》;20150327;1-13 *
"Knowledge distillation using unlabeled mismatched images";Mandar Kulkarni,at el.;《arXiv》;20180321;1-6 *
"深度神经网络压缩与加速综述";纪荣嵘等;《计 算 机 研 究 与 发 展》;20180930;第55卷(第9期);1871-1888 *

Also Published As

Publication number Publication date
CN110047076A (zh) 2019-07-23

Similar Documents

Publication Publication Date Title
CN106919918B (zh) 一种人脸跟踪方法和装置
CN110163806B (zh) 一种图像处理方法、装置以及存储介质
CN110798718B (zh) 一种视频推荐方法以及装置
CN105989572B (zh) 图片处理方法及装置
US20170109756A1 (en) User Unsubscription Prediction Method and Apparatus
CN111612093A (zh) 一种视频分类方法、视频分类装置、电子设备及存储介质
CN107749046B (zh) 一种图像处理方法及移动终端
CN111949239B (zh) 一种屏幕共享方法、装置、存储介质及终端
JP2023518548A (ja) 検出結果出力方法、電子機器及び媒体
CN108366171B (zh) 一种温升控制方法和移动终端
CN105513098B (zh) 一种图像处理的方法和装置
CN113469923B (zh) 一种图像处理方法、装置、电子设备及存储介质
CN110047076B (zh) 一种图像信息的处理方法、装置及存储介质
CN113780291A (zh) 一种图像处理方法、装置、电子设备及存储介质
CN113205452A (zh) 一种图像处理方法、装置、电子设备及存储介质
CN115841575A (zh) 关键点检测方法、装置、电子设备、存储介质和程序产品
CN109379531B (zh) 一种拍摄方法及移动终端
CN111372001A (zh) 图像融合方法、装置、存储介质及移动终端
CN111563838A (zh) 图像处理方法及电子设备
CN112733573B (zh) 表格检测方法、装置、移动终端及存储介质
CN111966271B (zh) 屏幕全景截图方法、装置、终端设备和存储介质
CN108280816B (zh) 一种高斯滤波方法及移动终端
CN114155142A (zh) 图像处理方法、装置、计算机可读存储介质及计算机设备
CN115797187A (zh) 图像处理方法、装置、设备及存储介质
CN110996030A (zh) 视频生成方法、装置、存储介质及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant