CN110222717A - 图像处理方法和装置 - Google Patents

图像处理方法和装置 Download PDF

Info

Publication number
CN110222717A
CN110222717A CN201910384600.5A CN201910384600A CN110222717A CN 110222717 A CN110222717 A CN 110222717A CN 201910384600 A CN201910384600 A CN 201910384600A CN 110222717 A CN110222717 A CN 110222717A
Authority
CN
China
Prior art keywords
image
compression
network
loss
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910384600.5A
Other languages
English (en)
Other versions
CN110222717B (zh
Inventor
杨朝晖
王云鹤
许春景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201910384600.5A priority Critical patent/CN110222717B/zh
Publication of CN110222717A publication Critical patent/CN110222717A/zh
Application granted granted Critical
Publication of CN110222717B publication Critical patent/CN110222717B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3059Digital compression and data reduction techniques where the original information is represented by a subset or similar information, e.g. lossy compression
    • H03M7/3062Compressive sampling or sensing

Abstract

本申请公开了人工智能领域中计算机视觉领域的一种图像处理方法及装置。其中,该图像处理方法,包括:获取待处理图像;根据目标图像压缩网络对该待处理图像进行压缩处理,得到该待处理图像的目标压缩图像,其中,该目标图像压缩网络的参数是根据该目标图像压缩网络对样本图像进行压缩处理的图像损失确定的,该图像损失包括感知损失,该感知损失是指该样本图像的特征向量与该样本图像对应的压缩图像的特征向量之间的差异,该待处理图像的特征向量与该目标压缩图像的特征向量的差异在预设范围内;基于该目标压缩图像进行识别,得到识别结果。本申请的技术方案能够提高计算机视觉系统识别目标压缩图像的准确率。

Description

图像处理方法和装置
技术领域
本申请涉及人工智能领域,更具体地,涉及计算机视觉领域中的图像处理方法和装置。
背景技术
随着图像处理技术的不断发展,以及人们对图像显示画质要求的不断提升,神经网络(例如,深度神经网络)近年来在在图像处理领域得到了快速发展,尤其在电子设备(例如,手机、摄像头、智能家居、自动驾驶汽车)上的应用也越来越多,例如,人脸识别、物体检测、场景分割等。
图像压缩技术是图像存储、处理和传输的基础,是指用尽可能少的数据来进行图像的存储和传输。其中,大多数情况下,并不要求经压缩处理后的压缩图像和原图完全相同,而允许存在少量失真,只要这些失真不被人眼察觉均可以接受。正因为如此,可以在允许保真度的条件下压缩待存储的图像数据,大大节约存储空间,而且在图像传输时也大大减少信道容量。然而,越来越多的压缩图像会进行后续任务的处理,例如,压缩图像可以通过使用卷积神经网络进行分类、识别等。但是,人眼所认为的相似图像和机器所能识别的图像之间往往存在较大的差异,通过传统的图像处理方法获得的压缩图像往往在后续任务中表现不尽如人意甚至导致计算机视觉系统无法识别。
因此,如何提高计算机视觉系统识别压缩图像的准确率成为一个亟需解决的问题。
发明内容
本申请提供一种图像处理方法、装置、计算机可读存储介质和芯片,以使得提高计算机视觉系统识别压缩图片的准确率。
第一方面,提供了一种图像处理方法,该方法包括:获取待处理图像;根据目标图像压缩网络对所述待处理图像进行压缩处理,得到所述待处理图像的目标压缩图像,其中,所述目标图像压缩网络的参数是根据所述目标图像压缩网络对样本图像进行压缩处理的图像损失确定的,所述图像损失包括感知损失,所述感知损失是指所述样本图像的特征向量与所述样本图像对应的压缩图像的特征向量之间的差异,所述待处理图像的特征向量与所述目标压缩图像的特征向量的差异在预设范围内;基于所述目标压缩图像进行识别,得到识别结果。
上述图像损失可以包括基于机器视觉系统的认知标准的感知损失。
例如,感知损失可以是样本图像和样本图像对应的压缩图像的关键区域的特征向量。例如,样本图像可以是一张动物图像,关键区域可以是样本动物图像与样本动物图像对应的压缩图像中动物脸部的特征向量;例如,样本图像可以是一张汽车图像,关键区域可以是样本汽车图像与样本汽车图像对应的压缩图像中汽车车轮部分的特征向量,通过关键区域的特征向量可以有效的区分或者识别不同的图像。
应理解,待处理图像的特征向量与所述目标压缩图像的特征向量的差异可以是指特征向量之间的距离,其中,特征向量之间的距离越近意味着差异越小。在本申请中待处理图像的特征向量与目标压缩图像的特征向量的差异在预设范围内意味着待处理图像与目标压缩图像之间具有感知一致性,即计算机视觉系统识别待处理图像和识别目标压缩图像得到的识别结果相同。
在本申请的实施例中,可以通过目标压缩网络对待处理图像进行压缩处理,得到待处理图像对应的目标压缩图像,其中,待处理图像的特征向量与目标压缩图像的特征向量的差异在预设范围内,即意味着通过本申请实施例的目标图像压缩网络得到的压缩图像进行后续识别得到的识别结果与识别待处理图像的识别结果相同,也就是说,在本申请中待处理图像与得到的目标压缩图像之间具有感知一致性,从而能够提高计算机视觉系统识别压缩图像的准确率。
例如,可以将所述样本图像和所述压缩图像输入至感知损失提取网络;根据所述感知损失提取网络提取所述样本图像的特征向量和所述压缩图像的特征向量。
上述感知损失提取网络可以采用在计算机视觉的图像分类任务中预训练的分类网络ResNet-18作为提取特征的预训练网络。由于分类任务是诸多计算机视觉任务的基础,而且所提取的特征具有较强的泛化能力,因此,提取图像的特征能够支持后续的如分类、识别等任务。
例如,感知损失提取网络可以是预先训练的图像识别网络,或者,感知损失提取网络可以是预先训练的图像检测网络,或者,感知提取网络可以是预先训练的图像分割网络。
结合第一方面,在第一方面的某些实现方式中,所述图像损失还包括压缩损失,所述压缩损失是指所述压缩图像相对于所述样本图像的损失。
进一步地,图像损失还可以包括基于人对于图像的认知标准的压缩损失,即目标图像压缩网络的参数可以是根据基于人对于图像的认知标准的压缩损失和基于机器视觉系统的认知标准的感知损失确定的,此时,通过目标图像压缩网络得到的目标压缩图像不仅可以提高计算机视觉系统对压缩图像的识别的准确率,并且通过人眼进行识别待处理图像和目标压缩图像之间的差异也较小,即可以提高人眼对目标压缩图像识别的准确性。
例如,压缩损失可以通过峰值信噪比(peak signal to noise ratio,PSNR),或者,多尺度结构相似性(multi-scale structural similarity,MS-SSIM)等参数进行度量。
应理解,在本申请中,图像损失、压缩损失以及感知损失可以是具体地数值。
可选地,所述目标图像压缩网络的参数可以是基于所述压缩损失和所述感知损失通过反向传播算法多次迭代得到的。
结合第一方面,在第一方面的某些实现方式中,所述图像损失是通过对所述压缩损失和所述感知损失加权处理得到的。
结合第一方面,在第一方面的某些实现方式中,所述压缩损失乘以第一权重值与所述感知损失乘以第二权重值处于相同的数量级。
在本申请中,目标图像压缩网络可以均衡考虑压缩损失和感知损失两方面的损失,从而在对待处理图像进行压缩时,不仅考虑了基于人眼的认知标准同时也考虑了基于机器视觉系统的认知标准,从而得提高了人眼和计算机视觉系统对目标压缩图像识别的准确性。
结合第一方面,在第一方面的某些实现方式中,所述感知损失是根据所述样本图像的特征向量和所述压缩图像的特征向量之间的均方误差和分布差异确定的。
例如,感知损失可以是根据样本图像的特征向量、样本图像对应的压缩图像的特征向量以及损失函数确定的。
结合第一方面,在第一方面的某些实现方式中,所述感知损失是根据以下等式得到的,
LMSE=||F(yi)-F(xi)||2
L1=λ1LMMD(F1,F2)+λ2LMSE(F1,F2);
其中,LMMD表示最大平均差异损失函数,LMSE表示均方误差损失函数,L1表示所述感知损失,n表示所述样本图像的数量,F()表示将图像从图像空间映射到第一特征空间,ψ()表示将提取的图像特征从所述第一特征空间映射到第二特征空间,x表示所述样本图像,y表示所述压缩图像,F1表示所述样本图像的特征向量,F2表示所述压缩图像的特征向量,λ1表示所述最大平均差异损失函数的预设系数,λ2表示所述均方误差损失函数的预设系数。
应理解,上述第一特征空间可以是感知损失提取网络提取特征所在的特征空间,第二特征空间可以是再生核希尔伯特空间(reproducing kernel hilbert space,RKHS)。
第二方面,提供了一种图像处理装置,包括:获取待处理图像;根据目标图像压缩网络对所述待处理图像进行压缩处理,得到所述待处理图像的目标压缩图像,其中,所述目标图像压缩网络的参数是根据所述目标图像压缩网络对样本图像进行压缩处理的图像损失确定的,所述图像损失包括感知损失,所述感知损失是指所述样本图像的特征向量与所述样本图像对应的压缩图像的特征向量之间的差异,所述待处理图像的特征向量与所述目标压缩图像的特征向量的差异在预设范围内;基于所述目标压缩图像进行识别,得到识别结果。
上述图像损失可以包括基于机器视觉系统的认知标准的感知损失。
例如,感知损失可以是样本图像和样本图像对应的压缩图像的关键区域的特征向量。例如,样本图像可以是一张动物图像,关键区域可以是样本动物图像与样本动物图像对应的压缩图像中动物脸部的特征向量;例如,样本图像可以是一张汽车图像,关键区域可以是样本汽车图像与样本汽车图像对应的压缩图像中汽车车轮部分的特征向量,通过关键区域的特征向量可以有效的区分或者识别不同的图像。
应理解,待处理图像的特征向量与所述目标压缩图像的特征向量的差异可以是指特征向量之间的距离,其中,特征向量之间的距离越近意味着差异越小。在本申请中待处理图像的特征向量与目标压缩图像的特征向量的差异在预设范围内意味着待处理图像与目标压缩图像之间具有感知一致性,即计算机视觉系统识别待处理图像和识别目标压缩图像得到的识别结果相同。
在本申请的实施例中,图像处理装置可以通过目标压缩网络对待处理图像进行压缩处理,得到待处理图像对应的目标压缩图像,其中,待处理图像的特征与目标压缩图像的特征的差异在预设范围内,即通过本申请实施例的目标图像压缩网络得到的压缩图像进行后续识别得到的识别结果与识别待处理图像的识别结果相同,也就是说,在本申请中待处理图像与得到的目标压缩图像之间具有感知一致性,从而能够提高计算机视觉系统识别目标压缩图像的准确率。
例如,可以将所述样本图像和所述压缩图像输入至感知损失提取网络;根据所述感知损失提取网络提取所述样本图像的特征向量和所述压缩图像的特征向量。
上述感知损失提取网络可以采用在计算机视觉的图像分类任务中预训练的分类网络ResNet-18作为提取特征的预训练网络。由于分类任务是诸多计算机视觉任务的基础,而且所提取的特征具有较强的泛化能力,因此,提取图像的特征能够支持后续的如分类、识别等任务。
例如,感知损失提取网络可以是预先训练的图像识别网络,或者,感知损失提取网络可以是预先训练的图像检测网络,或者,感知提取网络可以是预先训练的图像分割网络。
结合第二方面,在第二方面的某些实现方式中,所述处理器还用于执行以下过程:所述图像损失还包括压缩损失,所述压缩损失是指所述压缩图像相对于所述样本图像的损失。
进一步地,图像损失还可以包括基于人对于图像的认知标准的压缩损失,即目标图像压缩网络的参数可以是根据基于人对于图像的认知标准的压缩损失和基于机器视觉系统的认知标准的感知损失确定的,此时,通过目标图像压缩网络得到的目标压缩图像不仅可以提高计算机视觉系统对压缩图像的识别的准确率,并且通过人眼进行识别待处理图像和目标压缩图像之间的差异也较小,即可以提高人眼对目标压缩图像识别的准确性。
例如,压缩损失可以通过峰值信噪比(peak signal to noise ratio,PSNR),或者,多尺度结构相似性(multi-scale structural similarity,MS-SSIM)等参数进行度量。
应理解,在本申请中,图像损失、压缩损失以及感知损失可以是具体地数值。
可选地,所述目标图像压缩网络的参数可以是基于所述压缩损失和所述感知损失通过反向传播算法多次迭代得到的。
结合第二方面,在第二方面的某些实现方式中,所述图像损失是通过对所述压缩损失和所述感知损失加权处理得到的。
示例性地,上述感知损失提取网络可以采用在计算机视觉的图像分类任务中预训练的分类网络ResNet-18作为提取特征的预训练网络。由于分类任务是诸多计算机视觉任务的基础,而且所提取的特征具有较强的泛化能力,因此,提取图像的特征能够支持后续的如分类、识别等任务。
例如,感知损失提取网络可以是预先训练的图像识别网络,或者,感知损失提取网络可以是预先训练的图像检测网络,或者,感知提取网络可以是预先训练的图像分割网络。
结合第二方面,在第二方面的某些实现方式中,所述压缩损失乘以第一权重值与所述感知损失乘以第二权重值处于相同的数量级。
在本申请中,目标图像压缩网络可以均衡考虑压缩损失和感知损失两方面的损失,从而在对待处理图像进行压缩时,不仅考虑了基于人眼的认知标准同时也考虑了基于机器视觉系统的认知标准,从而得提高了人眼和计算机视觉系统对目标压缩图像识别的准确性。
结合第二方面,在第二方面的某些实现方式中,所述感知损失是根据所述样本图像的特征向量和所述压缩图像的特征向量之间的均方误差和分布差异确定的。
例如,感知损失可以是根据样本图像的特征向量、样本图像对应的压缩图像的特征向量以及损失函数确定的。
结合第二方面,在第二方面的某些实现方式中,所述处理器具体用于执行以下过程:所述感知损失是根据以下等式得到的,
LMSE=||F(yi)-F(xi)||2
L1=λ1LMMD(F1,F2)+λ2LMSE(F1,F2);
其中,LMMD表示最大平均差异损失函数,LMSE表示均方误差损失函数,L1表示所述感知损失,n表示所述样本图像的数量,F()表示将图像从图像空间映射到第一特征空间,ψ()表示将提取的图像特征从所述第一特征空间映射到第二特征空间,x表示所述样本图像,y表示所述压缩图像,F1表示所述样本图像的特征向量,F2表示所述压缩图像的特征向量,λ1表示所述最大平均差异损失函数的预设系数,λ2表示所述均方误差损失函数的预设系数。
应理解,上述第一特征空间可以是感知损失提取网络提取特征所在的特征空间,第二特征空间可以是再生核希尔伯特空间(reproducing kernel hilbert space,RKHS)。
第三方面,提供一种计算机可读介质,该计算机可读介质存储用于设备执行的程序代码,该程序代码包括用于执行第一方面中的任意一种实现方式中的方法。
第四方面,提供一种芯片,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,执行上述第一方面中的任意一种实现方式中的方法。
可选地,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行第一方面中的任意一种实现方式中的方法。
附图说明
图1是本申请实施例提供的一种人工智能主体框架示意图;
图2是本申请实施例提供的一种应用环境的示意图;
图3是本申请实施例提供的系统架构的结构示意图;
图4是本申请实施例提供的一种卷积神经网络结构示意图;
图5是本申请实施例提供的一种卷积神经网络结构示意图;
图6本申请实施例提供的一种芯片硬件结构示意图;
图7本申请实施例的图像处理方法的示意图;
图8本申请实施例的目标图像压缩网络训练方法的示意图;
图9是本申请实施例的目标图像压缩网络训练装置的示意性框图;
图10是本申请实施例的图像处理装置的示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1示出一种人工智能主体框架示意图,该主体框架描述了人工智能系统总体工作流程,适用于通用的人工智能领域需求。
下面从“智能信息链”(水平轴)和“信息技术(information technology,IT)价值链”(垂直轴)两个维度对上述人工智能主题框架进行详细的阐述。
“智能信息链”反映从数据的获取到处理的一列过程。举例来说,可以是智能信息感知、智能信息表示与形成、智能推理、智能决策、智能执行与输出的一般过程。在这个过程中,数据经历了“数据—信息—知识—智慧”的凝练过程。
“IT价值链”从人智能的底层基础设施、信息(提供和处理技术实现)到系统的产业生态过程,反映人工智能为信息技术产业带来的价值。
(1)基础设施:
基础设施为人工智能系统提供计算能力支持,实现与外部世界的沟通,并通过基础平台实现支撑。
基础设施可以通过传感器与外部沟通,基础设施的计算能力可以由智能芯片提供。
这里的智能芯片可以是中央处理器(central processing unit,CPU)、神经网络处理器(neural-network processing unit,NPU)、图形处理器(graphics processingunit,GPU)、专门应用的集成电路(application specific integrated circuit,ASIC)以及现场可编程门阵列(field programmable gate array,FPGA)等硬件加速芯片。
基础设施的基础平台可以包括分布式计算框架及网络等相关的平台保障和支持,可以包括云存储和计算、互联互通网络等。
例如,对于基础设施来说,可以通过传感器和外部沟通获取数据,然后将这些数据提供给基础平台提供的分布式计算系统中的智能芯片进行计算。
(2)数据:
基础设施的上一层的数据用于表示人工智能领域的数据来源。该数据涉及到图形、图像、语音、文本,还涉及到传统设备的物联网数据,包括已有系统的业务数据以及力、位移、液位、温度、湿度等感知数据。
(3)数据处理:
上述数据处理通常包括数据训练,机器学习,深度学习,搜索,推理,决策等处理方式。
其中,机器学习和深度学习可以对数据进行符号化和形式化的智能信息建模、抽取、预处理、训练等。
推理是指在计算机或智能系统中,模拟人类的智能推理方式,依据推理控制策略,利用形式化的信息进行机器思维和求解问题的过程,典型的功能是搜索与匹配。
决策是指智能信息经过推理后进行决策的过程,通常提供分类、排序、预测等功能。
(4)通用能力:
对数据经过上面提到的数据处理后,进一步基于数据处理的结果可以形成一些通用的能力,比如可以是算法或者一个通用系统,例如,翻译,文本的分析,计算机视觉的处理,语音识别,图像的识别等等。
(5)智能产品及行业应用:
智能产品及行业应用指人工智能系统在各领域的产品和应用,是对人工智能整体解决方案的封装,将智能信息决策产品化、实现落地应用,其应用领域主要包括:智能制造、智能交通、智能家居、智能医疗、智能安防、自动驾驶,平安城市,智能终端等。
本申请实施例可以应用在人工智能中的很多领域,例如,智能制造、智能交通、智能家居、智能医疗、智能安防、自动驾驶,平安城市等领域。
随着图像处理技术的不断发展,可视化通信、多媒体通信、视频监控等业务越来越受到关注,将原始图像进行压缩处理得到压缩图像可以在允许保真度的条件下压缩待存储的图像数据,大大节约存储空间,此外在图像传输时也大大减少信道容量。然而,目前图像压缩网络主要基于人眼对于图像的认知标准进行构建。然而,随着技术的发展,计算机视觉系统的使用越来越普遍,即越来越多的压缩图像被用于执行后续任务的处理,如图像压缩后使用卷积神经网络进行分类、识别等。人眼所认为的相似图像和计算机视觉系统所能识别图像之间往往存在差异,通过传统的方法获得的压缩图像往往在后续任务中表现不尽如人意。
有鉴于此,本申请提出了一种图像处理方法,通过目标压缩网络得对待处理图像进行压缩处理,得到待处理图像对应的目标压缩图像,其中,待处理图像的特征与目标压缩图像的特征的差异在预设范围内,目标压缩网络可以是通过图像损失不断调整待训练压缩网络的模型参数得到的,图像损失可以包括图像损失可以包括基于人对于图像的认知标准的压缩损失和基于机器视觉系统的认知标准的感知损失,通过本申请实施例的目标图像压缩网络得到的压缩图像进行后续识别得到的识别结果与识别待处理图像的识别结果相同,也就是说,在本申请中待处理图像与得到的目标压缩图像之间具有感知一致性,从而能够提高计算机视觉系统识别压缩图像的准确率。
具体地,本申请实施例可以具体应用在图像分类、图像检索、图像语义分割等需要使用(深度)神经网络的领域。
示例性地,可以对本申请实施的应用场景进行说明,下面对城市交通图像数据识别、和传输压缩图片识别这两种应用场景进行简单的介绍。
场景一:城市交通图像数据识别
城市交通监控数据是智能城市中重要的组成部分,一座城市中上万个交通摄像头无时无刻不在汇总数据,直接存储巨量的数据对于存储有着巨大的压力,但是存储压缩后的图片往往会影响针对后续任务,如车辆识别的精度。因此,可以采用本申请所提供目标图像压缩网络,即基于感知一致性的图像压缩方法训练针对后续任务的图像压缩模型,并使用训练好的模型对于原始图像进行压缩,通过此种方式压缩后的图像在后续任务中表现良好,并可能进行后续的分析,例如,识别车辆,或者,分析车流量等。在缓解了存储压力的同时能够一定程度上保持后续任务的精度。
场景二:传输压缩图片识别
例如,为了节省传输带宽,发送方可以通过微信等软件向接收方发送进行压缩处理后的压缩图片,采用本申请实施例的目标压缩网络进行图片压缩生成的压缩图片不仅使得接收方的用户可以识别该压缩图片,同时接收方的电子设备也可以识别该压缩图片,进而可以使用该压缩图片进行后续其它任务的处理。
如图2所示,本申请实施例可以向用户提供图像处理算法的云服务,即本申请的实施例可以应用于云端的服务器中,例如,用户可以向云服务器上传在某个任务预训练的神经网络模型以及待处理图像,云服务可以向用户提供本申请的目标图像压缩的神经网络以及待处理图像对应的压缩图像。或者,用户可以向云服务器上传在某个任务预训练的神经网络模型,云服务器可以向用户提供本申请的目标图像压缩,用户可以在本地通过向目标图像压缩网络输入待处理图像进行压缩处理,得到待处理图像对应的目标压缩图像。应理解,上述为对应用场景的举例说明,并不对本申请的应用场景作任何限定。
示例性地,用户可以提供支持后续任务的某个预训练的网络,此外还可以提供待处理图像。云服务器可以使用标准的大型数据集合,如COCO数据库,ImageNet,并采用前沿压缩算法,结合用户所提供的在某个任务预训练的神经网络模型在云服务器中训练得到目标图像压缩网络。云服务器可以将训练好的图像压缩网络即具有感知一致性的目标图像压缩网络和待处理图像对应的压缩图像返回至用户,云服务器也可以向用户提供目标图像压缩网络,由用户在本地根据待处理图像和目标图像压缩网络得到待处理图像对应的压缩图像。
由于本申请实施例涉及大量神经网络的应用,为了便于理解,下面先对本申请实施例可能涉及的神经网络的相关术语和概念进行介绍。
(1)神经网络
神经网络可以是由神经单元组成的,神经单元可以是指以xs和截距1为输入的运算单元,该运算单元的输出可以为:
其中,s=1、2、……n,n为大于1的自然数,Ws为xs的权重,b为神经单元的偏置。f为神经单元的激活函数(activation functions),用于将非线性特性引入神经网络中,来将神经单元中的输入信号转换为输出信号。该激活函数的输出信号可以作为下一层卷积层的输入,激活函数可以是sigmoid函数。神经网络是将多个上述单一的神经单元联结在一起形成的网络,即一个神经单元的输出可以是另一个神经单元的输入。每个神经单元的输入可以与前一层的局部接受域相连,来提取局部接受域的特征,局部接受域可以是由若干个神经单元组成的区域。
(2)深度神经网络
深度神经网络(deep neural network,DNN),也称多层神经网络,可以理解为具有多层隐含层的神经网络。按照不同层的位置对DNN进行划分,DNN内部的神经网络可以分为三类:输入层,隐含层,输出层。一般来说第一层是输入层,最后一层是输出层,中间的层数都是隐含层。层与层之间是全连接的,也就是说,第i层的任意一个神经元一定与第i+1层的任意一个神经元相连。
虽然DNN看起来很复杂,但是就每一层的工作来说,其实并不复杂,简单来说就是如下线性关系表达式:其中,是输入向量,是输出向量,是偏移向量,W是权重矩阵(也称系数),α()是激活函数。每一层仅仅是对输入向量经过如此简单的操作得到输出向量由于DNN层数多,系数W和偏移向量的数量也比较多。这些参数在DNN中的定义如下所述:以系数W为例:假设在一个三层的DNN中,第二层的第4个神经元到第三层的第2个神经元的线性系数定义为上标3代表系数W所在的层数,而下标对应的是输出的第三层索引2和输入的第二层索引4。
综上,第L-1层的第k个神经元到第L层的第j个神经元的系数定义为
需要注意的是,输入层是没有W参数的。在深度神经网络中,更多的隐含层让网络更能够刻画现实世界中的复杂情形。理论上而言,参数越多的模型复杂度越高,“容量”也就越大,也就意味着它能完成更复杂的学习任务。训练深度神经网络的也就是学习权重矩阵的过程,其最终目的是得到训练好的深度神经网络的所有层的权重矩阵(由很多层的向量W形成的权重矩阵)。
(3)卷积神经网络
卷积神经网络(convolutional neuron network,CNN)是一种带有卷积结构的深度神经网络。卷积神经网络包含了一个由卷积层和子采样层构成的特征抽取器,该特征抽取器可以看作是滤波器。卷积层是指卷积神经网络中对输入信号进行卷积处理的神经元层。在卷积神经网络的卷积层中,一个神经元可以只与部分邻层神经元连接。一个卷积层中,通常包含若干个特征平面,每个特征平面可以由一些矩形排列的神经单元组成。同一特征平面的神经单元共享权重,这里共享的权重就是卷积核。共享权重可以理解为提取图像信息的方式与位置无关。卷积核可以以随机大小的矩阵的形式初始化,在卷积神经网络的训练过程中卷积核可以通过学习得到合理的权重。另外,共享权重带来的直接好处是减少卷积神经网络各层之间的连接,同时又降低了过拟合的风险。
(4)循环神经网络
循环神经网络(recurrent neural networks,RNN)是用来处理序列数据的。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,而对于每一层层内之间的各个节点是无连接的。这种普通的神经网络虽然解决了很多难题,但是却仍然对很多问题无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐含层本层之间的节点不再无连接而是有连接的,并且隐含层的输入不仅包括输入层的输出还包括上一时刻隐含层的输出。理论上,RNN能够对任何长度的序列数据进行处理。对于RNN的训练和对传统的CNN或DNN的训练一样。
既然已经有了卷积神经网络,为什么还要循环神经网络?原因很简单,在卷积神经网络中,有一个前提假设是:元素之间是相互独立的,输入与输出也是独立的,比如猫和狗。但现实世界中,很多元素都是相互连接的,比如股票随时间的变化,再比如一个人说了:我喜欢旅游,其中最喜欢的地方是云南,以后有机会一定要去。这里填空,人类应该都知道是填“云南”。因为人类会根据上下文的内容进行推断,但如何让机器做到这一步?RNN就应运而生了。RNN旨在让机器像人一样拥有记忆的能力。因此,RNN的输出就需要依赖当前的输入信息和历史的记忆信息。
(5)损失函数
在训练深度神经网络的过程中,因为希望深度神经网络的输出尽可能的接近真正想要预测的值,所以可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重向量(当然,在第一次更新之前通常会有初始化的过程,即为深度神经网络中的各层预先配置参数),比如,如果网络的预测值高了,就调整权重向量让它预测低一些,不断地调整,直到深度神经网络能够预测出真正想要的目标值或与真正想要的目标值非常接近的值。因此,就需要预先定义“如何比较预测值和目标值之间的差异”,这便是损失函数(loss function)或目标函数(objective function),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数的输出值(loss)越高表示差异越大,那么深度神经网络的训练就变成了尽可能缩小这个loss的过程。
(6)反向传播算法
神经网络可以采用误差反向传播(back propagation,BP)算法在训练过程中修正初始的神经网络模型中参数的大小,使得神经网络模型的重建误差损失越来越小。具体地,前向传递输入信号直至输出会产生误差损失,通过反向传播误差损失信息来更新初始的神经网络模型中参数,从而使误差损失收敛。反向传播算法是以误差损失为主导的反向传播运动,旨在得到最优的神经网络模型的参数,例如权重矩阵。
如图3所示,本申请实施例提供了一种系统架构100。在图3中,数据采集设备160用于采集训练数据。针对本申请实施例的图像处理方法来说,训练数据可以包括训练样本图像以及训练样本图像对应的压缩图像。
在采集到训练数据之后,数据采集设备160将这些训练数据存入数据库130,训练设备120基于数据库130中维护的训练数据训练得到目标模型/规则101。
下面对训练设备120基于训练数据得到目标模型/规则101进行描述,训练设备120对输入的原始图像进行处理,将输出的图像与原始图像进行对比,直到训练设备120输出的图像与原始图像的差值小于一定的阈值,从而完成目标模型/规则101的训练。
上述目标模型/规则101能够用于实现本申请实施例的图像处理方法或者图像处理方法。本申请实施例中的目标模型/规则101具体可以为神经网络。需要说明的是,在实际的应用中,所述数据库130中维护的训练数据不一定都来自于数据采集设备160的采集,也有可能是从其他设备接收得到的。另外需要说明的是,训练设备120也不一定完全基于数据库130维护的训练数据进行目标模型/规则101的训练,也有可能从云端或其他地方获取训练数据进行模型训练,上述描述不应该作为对本申请实施例的限定。
例如,在本申请的实施例中,可以根据获取的图像损失采用反向传播算法不断调整图像压缩网络的参数,使得图像压缩网络压缩处理样本图像的图像损失收敛时,确定该图像压缩网络的参数从而得到目标图像压缩网络,其中,图像损失可以包括基于人对于图像的认知标准的压缩损失和基于机器视觉系统的认知标准的感知损失,目标压缩网络可以是深度学习网络,例如,可以是神经网络。
根据训练设备120训练得到的目标模型/规则101可以应用于不同的系统或设备中,如应用于图3所示的执行设备110,所述执行设备110可以是终端,如手机终端,平板电脑,笔记本电脑,增强现实(augmented reality,AR)AR/虚拟现实(virtual reality,VR),车载终端等,还可以是服务器,或者,云端等。在图3中,执行设备110配置输入/输出(input/output,I/O)接口112,用于与外部设备进行数据交互,用户可以通过客户设备140向I/O接口112输入数据,所述输入数据在本申请实施例中可以包括:客户设备输入的待处理图像。
预处理模块113和预处理模块114用于根据I/O接口112接收到的输入数据(如待处理图像)进行预处理,在本申请实施例中,也可以没有预处理模块113和预处理模块114(也可以只有其中的一个预处理模块),而直接采用计算模块111对输入数据进行处理。
在执行设备110对输入数据进行预处理,或者在执行设备110的计算模块111执行计算等相关的处理过程中,执行设备110可以调用数据存储系统150中的数据、代码等以用于相应的处理,也可以将相应处理得到的数据、指令等存入数据存储系统150中。
最后,I/O接口112将处理结果,如上述得到的压缩处理后的压缩图像返回给客户设备140,从而提供给用户。
值得说明的是,训练设备120可以针对不同的目标或称不同的任务,基于不同的训练数据生成相应的目标模型/规则101,该相应的目标模型/规则101即可以用于实现上述目标或完成上述任务,从而为用户提供所需的结果。
在图3中所示情况下,用户可以手动给定输入数据,该手动给定可以通过I/O接口112提供的界面进行操作。另一种情况下,客户设备140可以自动地向I/O接口112发送输入数据,如果要求客户设备140自动发送输入数据需要获得用户的授权,则用户可以在客户设备140中设置相应权限。用户可以在客户设备140查看执行设备110输出的结果,具体的呈现形式可以是显示、声音、动作等具体方式。客户设备140也可以作为数据采集端,采集如图所示输入I/O接口112的输入数据及输出I/O接口112的输出结果作为新的样本数据,并存入数据库130。当然,也可以不经过客户设备140进行采集,而是由I/O接口112直接将如图所示输入I/O接口112的输入数据及输出I/O接口112的输出结果,作为新的样本数据存入数据库130。
值得注意的是,图3仅是本申请实施例提供的一种系统架构的示意图,图中所示设备、器件、模块等之间的位置关系不构成任何限制,例如,在图3中,数据存储系统150相对执行设备110是外部存储器,在其它情况下,也可以将数据存储系统150置于执行设备110中。
如图3所示,根据训练设备120训练得到目标模型/规则101,该目标模型/规则101在本申请实施例中可以是本申请中的神经网络,具体的,本申请实施例提供的神经网络可以CNN,深度卷积神经网络(deep convolutional neural networks,DCNN),循环神经网络(recurrent neural network,RNNS)等等。
由于CNN是一种非常常见的神经网络,下面结合图4重点对CNN的结构进行详细的介绍。如上文的基础概念介绍所述,卷积神经网络是一种带有卷积结构的深度神经网络,是一种深度学习(deep learning)架构,深度学习架构是指通过机器学习的算法,在不同的抽象层级上进行多个层次的学习。作为一种深度学习架构,CNN是一种前馈(feed-forward)人工神经网络,该前馈人工神经网络中的各个神经元可以对输入其中的图像作出响应。
本申请实施例的图像处理方法具体采用的神经网络的结构可以如图4所示。在图4中,卷积神经网络(CNN)200可以包括输入层210,卷积层/池化层220(其中池化层为可选的),以及神经网络层230。其中,输入层210可以获取待处理图像,并将获取到的待处理图像交由卷积层/池化层220以及后面的神经网络层230进行处理,可以得到图像的处理结果。下面对图4中的CNN 200中内部的层结构进行详细的介绍。
卷积层/池化层220:
卷积层:
如图4所示卷积层/池化层220可以包括如示例221-226层,举例来说:在一种实现中,221层为卷积层,222层为池化层,223层为卷积层,224层为池化层,225为卷积层,226为池化层;在另一种实现方式中,221、222为卷积层,223为池化层,224、225为卷积层,226为池化层。即卷积层的输出可以作为随后的池化层的输入,也可以作为另一个卷积层的输入以继续进行卷积操作。
下面将以卷积层221为例,介绍一层卷积层的内部工作原理。
卷积层221可以包括很多个卷积算子,卷积算子也称为核,其在图像处理中的作用相当于一个从输入图像矩阵中提取特定信息的过滤器,卷积算子本质上可以是一个权重矩阵,这个权重矩阵通常被预先定义,在对图像进行卷积操作的过程中,权重矩阵通常在输入图像上沿着水平方向一个像素接着一个像素(或两个像素接着两个像素……这取决于步长stride的取值)的进行处理,从而完成从图像中提取特定特征的工作。该权重矩阵的大小应该与图像的大小相关,需要注意的是,权重矩阵的纵深维度(depth dimension)和输入图像的纵深维度是相同的,在进行卷积运算的过程中,权重矩阵会延伸到输入图像的整个深度。因此,和一个单一的权重矩阵进行卷积会产生一个单一纵深维度的卷积化输出,但是大多数情况下不使用单一权重矩阵,而是应用多个尺寸(行×列)相同的权重矩阵,即多个同型矩阵。每个权重矩阵的输出被堆叠起来形成卷积图像的纵深维度,这里的维度可以理解为由上面所述的“多个”来决定。
不同的权重矩阵可以用来提取图像中不同的特征,例如,一个权重矩阵用来提取图像边缘信息,另一个权重矩阵用来提取图像的特定颜色,又一个权重矩阵用来对图像中不需要的噪点进行模糊化等。该多个权重矩阵尺寸(行×列)相同,经过该多个尺寸相同的权重矩阵提取后的卷积特征图的尺寸也相同,再将提取到的多个尺寸相同的卷积特征图合并形成卷积运算的输出。
这些权重矩阵中的权重值在实际应用中需要经过大量的训练得到,通过训练得到的权重值形成的各个权重矩阵可以用来从输入图像中提取信息,从而使得卷积神经网络200进行正确的预测。
当卷积神经网络200有多个卷积层的时候,初始的卷积层(例如221)往往提取较多的一般特征,该一般特征也可以称之为低级别的特征;随着卷积神经网络200深度的加深,越往后的卷积层(例如226)提取到的特征越来越复杂,比如高级别的语义之类的特征,语义越高的特征越适用于待解决的问题。
池化层:
由于常常需要减少训练参数的数量,因此卷积层之后常常需要周期性的引入池化层,在如图4中220所示例的221-226各层,可以是一层卷积层后面跟一层池化层,也可以是多层卷积层后面接一层或多层池化层。在图像处理过程中,池化层的唯一目的就是减少图像的空间大小。池化层可以包括平均池化算子和/或最大池化算子,以用于对输入图像进行采样得到较小尺寸的图像。平均池化算子可以在特定范围内对图像中的像素值进行计算产生平均值作为平均池化的结果。最大池化算子可以在特定范围内取该范围内值最大的像素作为最大池化的结果。另外,就像卷积层中用权重矩阵的大小应该与图像尺寸相关一样,池化层中的运算符也应该与图像的大小相关。通过池化层处理后输出的图像尺寸可以小于输入池化层的图像的尺寸,池化层输出的图像中每个像素点表示输入池化层的图像的对应子区域的平均值或最大值。
神经网络层230:
在经过卷积层/池化层220的处理后,卷积神经网络200还不足以输出所需要的输出信息。因为如前所述,卷积层/池化层220只会提取特征,并减少输入图像带来的参数。然而为了生成最终的输出信息(所需要的类信息或其他相关信息),卷积神经网络200需要利用神经网络层230来生成一个或者一组所需要的类的数量的输出。因此,在神经网络层230中可以包括多层隐含层(如图4所示的231、232至23n)以及输出层240,该多层隐含层中所包含的参数可以根据具体的任务类型的相关训练数据进行预先训练得到,例如该任务类型可以包括图像识别,图像分类,图像检测以及图像超分辨率重建等等。
在神经网络层230中的多层隐含层之后,也就是整个卷积神经网络200的最后层为输出层240,该输出层240具有类似分类交叉熵的损失函数,具体用于计算预测误差,一旦整个卷积神经网络200的前向传播(如图4由210至240方向的传播为前向传播)完成,反向传播(如图4由240至210方向的传播为反向传播)就会开始更新前面提到的各层的权重值以及偏差,以减少卷积神经网络200的损失,及卷积神经网络200通过输出层输出的结果和理想结果之间的误差。
本申请实施例的图像处理方法具体采用的神经网络的结构可以如图5所示。在图5中,卷积神经网络(CNN)300可以包括输入层310,卷积层/池化层320(其中池化层为可选的),以及神经网络层330。与图4相比,图5中的卷积层/池化层320中的多个卷积层/池化层并行,将分别提取的特征均输入给全神经网络层330进行处理。
需要说明的是,图4和图5所示的卷积神经网络仅作为一种本申请实施例的图像处理方法的两种可能的卷积神经网络的示例,在具体的应用中,本申请实施例的图像处理方法所采用的卷积神经网络还可以以其他网络模型的形式存在。
另外,本申请实施例的目标压缩网络的结构可以如图4和图5中的卷积神经网络结构所示。
图6为本申请实施例提供的一种芯片的硬件结构,该芯片包括神经网络处理器60。该芯片可以被设置在如图3所示的执行设备110中,用以完成计算模块111的计算工作。该芯片也可以被设置在如图3所示的训练设备120中,用以完成训练设备120的训练工作并输出目标模型/规则101。如图4或图5所示的卷积神经网络中各层的算法均可在如图6所示的芯片中得以实现。
神经网络处理器NPU 60作为协处理器挂载到主中央处理器(central processingunit,CPU)(host CPU)上,由主CPU分配任务。NPU60的核心部分为运算电路603,控制器604控制运算电路603提取存储器(权重存储器或输入存储器)中的数据并进行运算。
在一些实现中,运算电路603内部包括多个处理单元(process engine,PE)。在一些实现中,运算电路603是二维脉动阵列。运算电路603还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现中,运算电路603是通用的矩阵处理器。
举例来说,假设有输入矩阵A,权重矩阵B,输出矩阵C。运算电路603从权重存储器602中取矩阵B相应的数据,并缓存在运算电路603中每一个PE上。运算电路603从输入存储器601中取矩阵A数据与矩阵B进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器(accumulator)608中。
向量计算单元607可以对运算电路603的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。例如,向量计算单元607可以用于神经网络中非卷积/非FC层的网络计算,如池化(pooling),批归一化(batch normalization),局部响应归一化(local response normalization)等。
在一些实现种,向量计算单元能607将经处理的输出的向量存储到统一缓存器606。例如,向量计算单元607可以将非线性函数应用到运算电路603的输出,例如累加值的向量,用以生成激活值。在一些实现中,向量计算单元607生成归一化的值、合并值,或二者均有。在一些实现中,处理过的输出的向量能够用作到运算电路603的激活输入,例如用于在神经网络中的后续层中的使用。
统一存储器606用于存放输入数据以及输出数据。
权重数据直接通过存储单元访问控制器605(direct memory accesscontroller,DMAC)将外部存储器中的输入数据搬运到输入存储器601和/或统一存储器606、将外部存储器中的权重数据存入权重存储器602,以及将统一存储器606中的数据存入外部存储器。
总线接口单元(bus interface unit,BIU)610,用于通过总线实现主CPU、DMAC和取指存储器609之间进行交互。
与控制器604连接的取指存储器(instruction fetch buffer)609,用于存储控制器604使用的指令;
控制器604,用于调用指存储器609中缓存的指令,实现控制该运算加速器的工作过程。
一般地,统一存储器606,输入存储器601,权重存储器602以及取指存储器609均为片上(On-Chip)存储器,外部存储器为该NPU外部的存储器,该外部存储器可以为双倍数据率同步动态随机存储器(double data rate synchronous dynamic random accessmemory,简称DDR SDRAM)、高带宽存储器(high bandwidth memory,HBM)或其他可读可写的存储器。
其中,图4或图5所示的卷积神经网络中各层的运算可以由运算电路603或向量计算单元607执行。
上文中介绍的图3中的执行设备110能够执行本申请实施例的图像处理方法或者图像处理方法的各个步骤,图4和图5所示的CNN模型和图6所示的芯片也可以用于执行本申请实施例的图像处理方法或者图像处理方法的各个步骤。下面结合附图对本申请实施例的图像处理方法和本申请实施例的图像处理方法进行详细的介绍。
本申请实施例提供的图像处理方法可以在服务器上被执行,也可以在云端被执行,还可以在具有图像压缩需求的电子设备上被执行。例如,本申请实施例的技术方案可以应用于电子设备,该电子设备可以为移动的或固定的,例如该电子设备可以是具有图像处理功能的移动电话、平板个人电脑(tablet personal computer,TPC)、媒体播放器、智能电视、笔记本电脑(laptop computer,LC)、个人数字助理(personal digital assistant,PDA)、个人计算机(personal computer,PC)、照相机、摄像机、智能手表、可穿戴式设备(wearable device,WD)或者,自动驾驶的车辆等,本发明实施例对此不作限定。
下面先结合图7对本申请实施例的图像处理法进行详细的介绍。图7所示的方法可以由图像处理装置来执行,该图像处理装置可以是服务器,例如,位于云端的服务器,还可以是具有图像压缩需求的电子设备。图7所示的方法包括步骤201至203,下面分别对这些步骤进行详细的描述。
步骤201、获取待处理图像。
其中,待处理图像可以是上述电子设备通过摄像头拍摄到的图像,或者,该待处理图像还可以是从电子设备内部获得的图像(例如,电子设备的相册中存储的图像,或者,电子设备从云端获取的图片)。
应理解,上述待处理图像可以是具有图像压缩需求的图像,本申请并不对待处理图像的来源作任何限定。
步骤202、根据目标图像压缩网络对所述待处理图像进行压缩处理,得到所述待处理图像的目标压缩图像,其中,得到所述待处理图像的目标压缩图像,其中,所述目标图像压缩网络的参数是根据所述目标图像压缩网络对样本图像进行压缩处理的图像损失确定的,所述图像损失包括感知损失,所述感知损失是指所述样本图像的特征向量与所述样本图像对应的压缩图像的特征向量之间的差异,所述待处理图像的特征向量与所述目标压缩图像的特征向量的差异在预设范围内。
应理解,在本申请中目标图像压缩网路可以是能够根据参数进行学习的网络或者模型,例如,目标图像压缩网络可以是具有学习功能的神经网路。
还应理解,上述待处理图像的特征与目标压缩图像的特征的差异在预设范围内,即待处理图像与待处理图像对应的目标压缩图像具有感知一致性,感知一致性可以是指当感知对象(例如,待处理图像)在一定的条件范围内发生变化时(例如,待处理图像对应的目标压缩图像),对其的感知表示仍能保持恒定性。
示例性地,在计算机视觉研究领域中,感知一致性可以是指对于图像或物体等的视觉特征的计算表示及相似性度量与人的视觉感知相一致。在本申请中,感知一致性可以是对目标压缩图像进行识别,得到的识别结果与待处理图像的识别结果相同。
本申请中,目标图像压缩网络的参数可以是基于图像损失通过反向传播算法多次迭代确定的,其中,图像损失可以包括基于机器视觉系统的认知标准的感知损失。感知损失可以是提取待处理的原始图像和经过压缩处理后的压缩图像的特征向量,对于基于机器视觉系统确定原始图像的特征和压缩图像的特征之间的差异。
例如,可以通过特征向量之间的距离确定特征向量之间的差异,其中,特征向量之间的距离越近意味着差异越小。
上述机器视觉系统可以是用机器代替人眼来做测量和判断的系统。视觉系统可以是指通过机器视觉产品(可以是图像摄取装置)将被摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。其中,机器视觉系统可以是深度学习网络,例如,该深度学习网络可以用于进行图像识别、图像检测、图像分割等。
可选地,图像损失还可以包括压缩损失,压缩损失可以是压缩图像相对于样本图像的损失。
进一步地,目标图像压缩网络的参数可以是基于图像损失通过反向传播算法多次迭代确定的,其中,图像损失可以包括感知损失和压缩损失。压缩损失可以是指所述压缩图像相对于所述样本图像的损失。其中,图像数据之所以能被压缩,就是因为数据中存在着冗余。图像数据的冗余主要表现为:图像中相邻像素间的相关性引起的空间冗余;图像序列中不同帧之间存在相关性引起的时间冗余;不同彩色平面或频谱带的相关性引起的频谱冗余。数据压缩的目的就是通过去除这些数据冗余来减少表示数据所需的比特数。
例如,可以通过样本图像的像素与压缩图像的像素之间的差异确定压缩损失。其中,像素可以组成样本图像或者压缩图像的最基本的元素,例如是一种逻辑尺寸单位。
例如,压缩损失可以通过峰值信噪比(peak signal to noise ratio,PSNR),或者,多尺度结构相似性(multi-scale structural similarity,MS-SSIM)等参数进行度量。即目标图像压缩网络可以是以基于人对于图像的认知标准的压缩损失和基于机器视觉系统的认知标准的感知损失为目标进行图像压缩处理。
上述样本图像的特征向量或者压缩图像的特征向量可以是图像的颜色特征向量、纹理特征向量、形状特征向量以及空间关系特征向量等,该特征向量可以用于机器视觉系统识别图片。
在本申请的实施例中,由于目标压缩网络是基于机器视觉系统的认知标准的感知损失的图像损失训练得到的,因此,通过目标压缩图像进行压缩处理得到的压缩图像在执行后续的机器视觉系统的任务时,可以提高机器识别压缩图像的准确率,即计算机视觉系统识别压缩图像和该压缩图像对应的原始图像的识别结果可以相同,也就是说通过本申请实施例得到的压缩图像和该压缩图像对应的原始图像具有感知一致性。
可选地,图像损失是通过对压缩损失和感知损失加权处理得到的。
例如,压缩损失对应第一权重值,感知损失对应第二权重值,其中,压缩损失乘以第一权重值与感知损失乘以第二权重值后可以处于相同的数量级。
在本申请中,目标图像压缩网络可以均衡考虑压缩损失和感知损失两方面的损失,从而在对待处理图像进行压缩时,不仅考虑了基于人眼的认知标准同时也考虑了基于机器视觉系统的认知标准,从而得提高了人眼和计算机视觉系统对目标压缩图像识别的准确性。
例如,上述感知损失可以是通过感知损失提取网络获取的,感知提取网络可以是预先训练的神经网络,感知损失提取网络可以用于提取样本图像的特征以及样本图像对应的压缩图像的特征,通过提取的样本图像的特征和样本图像对应的压缩图像的特征可以确定压缩处理时的特征损失,即感知损失。
示例性地,感知损失可以是样本图像和样本图像对应的压缩图像的关键区域的特征。例如,样本图像可以是一张动物图像,关键区域可以是样本动物图像与样本动物图像对应的压缩图像中动物脸部的特征;例如,样本图像可以是一张汽车图像,关键区域可以是样本汽车图像与样本汽车图像对应的压缩图像中汽车车轮部分的特征,通过关键区域的特征可以有效的区分或者识别不同的图像。
示例性地,上述感知损失提取网络可以采用在计算机视觉的图像分类任务中预训练的分类网络ResNet-18作为提取特征的预训练网络。由于分类任务是诸多计算机视觉任务的基础,而且所提取的特征具有较强的泛化能力,因此,提取图像的特征能够支持后续的如分类、识别等任务。
例如,感知损失提取网络可以是预先训练的图像识别网络,或者,感知损失提取网络可以是预先训练的图像检测网络,或者,感知提取网络可以是预先训练的图像分割网络,上述为感知提取网络的举例说明,并不对感知提取网络作任何限定。
在本申请中,样本图像对应的压缩图像可以是通过图像压缩网络得到的,其中,图像压缩网络可以是采用现有技术得到的图像压缩网络,其中,图像压缩网络可以是通过图像压缩方法构建的图像压缩网络。例如,可以采用条件概率的方法构建图像压缩网络,或者,可以采用带权方法构建图像压缩网络,或者,可以采用循环神经网络的方法构建图像压缩网络,本申请中的图像压缩网络可以是采用现有技术构建的图像压缩网络,将样本图像输入至构建的图像压缩网络进行压缩处理可以得到样本图像对应的压缩图像。
进一步地,将得到的样本图像和样本图像对应的压缩图像可以输入至本申请中的感知损失提取网络,感知提取网络可以提取样本图像和样本图像对应的压缩图像的特征向量。
可选地,感知损失可以是根据样本图像的特征向量和压缩图像的特征向量之间的均方误差和分布差异确定的。
例如,可以根据样本图像的特征向量和样本图像对应的压缩图像的特征向量通过计算机视觉中的损失函数确定感知损失。其中,损失函数可以用来表示预测数据与实际数据的差距程度。通常情况下,损失函数越小,则意味着模型的鲁棒性就越好。
示例性地,可以根据样本图像的特征和样本图像对应的压缩图像的特征通过最大平均差异损失函数(maximum mean discrepancy,MMD)和均方误差损失函数(mean squareerror,MSE)确定感知损失。其中,均方误差损失函数可以通过对将样本图像的特征和样本图像对应的压缩图像的特征进行作差处理,最大平均差异损失函数需要先将获取的样本图像的特征和样本图像对应的压缩图像对应的特征进行映射,基于映射后的特征进行作差处理。
具体地,可以基于根据以下等式得到所述感知损失,
LMSE=||F(yi)-F(xi)||2
L1=λ1LMMD(F1,F2)+λ2LMSE(F1,F2);
其中,LMMD表示最大平均差异损失函数,LMSE表示均方误差损失函数,L1表示感知损失,n表示样本图像的数量,F()表示将图像从图像空间映射到第一特征空间,ψ()表示将提取的图像特征从所述第一特征空间映射到第二特征空间,x表示所述样本图像,y表示所述压缩图像,F1表示所述样本图像的特征向量,F2表示所述压缩图像的特征向量,λ1表示所述最大平均差异损失函数的预设系数,λ2表示所述均方误差损失函数的预设系数。
应理解,上述第一特征空间可以是感知损失提取网络提取特征所在的特征空间,第二特征空间可以是再生核希尔伯特空间(reproducing kernel hilbert space,RKHS)。
步骤203、基于所述目标压缩图像进行识别,得到识别结果。
例如,上述基于目标压缩图像进行识别处理可以是根据目标压缩图像通过计算机视觉系统对目标压缩图像进行识别或者分类处理。
表1
例如,表1中为根据本申请所提出的图像处理方法进行图像压缩后,在后续的识别任务中表现较好。其中,分类网络使用ResNet18和ResNet50对于压缩后的ImageNet2012validation集合中的图像进行测试。表1所示的top-1acc.表示预测分类中概率最大的预测结果的置信度,若预测结果中概率最大的分类正确,则预测正确,否则预测错误;top-5acc.表示预测分类中概率排名前五的预测结果的置信度,置信度越高表示对图像的预测分类越准确。
在本申请的实施例中,可以通过目标压缩网络得对待处理图像进行压缩处理,得到待处理图像对应的目标压缩图像,其中,待处理图像的特征与目标压缩图像的特征的差异在预设范围内,目标压缩网络可以是通过图像损失不断调整待训练压缩网络的模型参数得到的,图像损失可以包括图像损失可以包括基于人对于图像的认知标准的压缩损失和基于机器视觉系统的认知标准的感知损失,通过本申请实施例的目标图像压缩网络得到的压缩图像进行后续识别得到的识别结果与识别待处理图像的识别结果相同,也就是说,在本申请中待处理图像与得到的目标压缩图像之间具有感知一致性,从而能够提高计算机视觉系统识别压缩图像的准确率。
下面结合图8对本申请实施例的目标图像压缩网络的训练方法进行详细的介绍。图8所示的方法可以由目标图像压缩网络训练装置来执行,该目标图像压缩网络训练装置可以是服务器,例如,可以是位于云端的服务器,还可以是具有图像压缩需求的电子设备。其中,图8所示的目标图像压缩网络可以是图7所示的目标图像压缩网络。
图8所示的方法包括步骤301至307,下面分别对这些步骤进行详细的描述。
步骤301、构建待训练图像压缩网络。
其中,待训练的图像压缩网络对样本图像进行压缩处理得到的样本图像对应的压缩图像不具有感知一致性,即基于计算机视觉系统识别样本图像和样本图像对应的压缩图像的识别结果不一致。例如,样本图像可以是蔬菜辣椒的图像,将样本图像输入至待训练的图像压缩网络,得到样本图像的压缩图像,计算机视觉系统识别该样本图像对应的压缩图像得到的识别结果可能为蔬菜茄子,即此时说明计算机视觉系统对样本图像和样本图像对应的压缩图像的识别不具有感知一致性。
应理解,上述待训练的图像压缩网络输出的压缩图像具有进一步执行后续计算机视觉系统处理的需求,待训练的图像压缩网络进行图像压缩处理得到的压缩图像存在后续计算机视觉系统任务中存在识别误差甚至无法识别等问题,本申请对待训练的压缩网络的构建方式不作任何限定。
示例性地,图像压缩网络可以是通过图像压缩方法构建的图像压缩网络,例如,可以采用条件概率的方法构建图像压缩网络,或者,可以采用带权方法构建图像压缩网络,或者,可以采用循环神经网络的方法构建图像压缩网络。
步骤302、根据待训练图像压缩网路对样本图像(即训练图像)进行压缩处理,得到样本图像对应的压缩图像。
其中,压缩处理的过程可以是将原始图像经过编码处理能够压缩成为占用空间极小的压缩数据(compressed data),压缩数据经过解码处理后能够恢复出压缩图像。
进一步地,样本图像对应的压缩图像相比于样本图像,所占空间较少。因此,可以计算样本对应的压缩图像与样本图像二者之间的压缩损失,即可以是图7中所示的压缩损失,压缩损失可以是指样本图像的像素与样本图像对应的压缩图像的像素之间的损失值。
例如,压缩损失可以是是峰值信噪比,或者,压缩损失也可以是多尺度结构相似性,或者,还可以包括其它损失。
步骤303、根据感知损失提取网络提取图像的特征向量,所述图像包括样本图像和样本图像对应的压缩图像。
在本申请中,可以将样本图像和样本图像对应的压缩图像同时输入感知损失提取网络并提取图像的高层次特征,根据预先设定的损失函数计算感知损失。
上述感知损失提取网络可以采用在计算机视觉的图像分类任务中预训练的分类网络ResNet-18作为提取特征的预训练网络。由于分类任务是诸多计算机视觉任务的基础,而且所提取的特征具有较强的泛化能力,因此,提取图像的特征能够支持后续的如分类、识别等任务。高层次特征可以是样本图像或者压缩图像的颜色特征、纹理特征、形状特征以及空间关系特征等,该特征可以用于机器视觉系统识别图片。
例如,感知损失提取网络可以是预先训练的图像识别网络,或者,感知损失提取网络可以是预先训练的图像检测网络,或者,感知提取网络可以是预先训练的图像分割网络,上述为感知提取网络的举例说明,并不对感知提取网络作任何限定。
步骤304、根据图像的特征向量和损失函数确定感知损失。
其中,损失函数可以用来表示预测数据与实际数据的差距程度。通常情况下,损失函数越小,则意味着模型的鲁棒性就越好。
示例性地,可以根据样本图像的特征和样本图像对应的压缩图像的特征通过最大平均差异损失函数(maximum mean discrepancy,MMD)和均方误差损失函数(mean squareerror,MSE)确定感知损失。其中,均方误差损失函数可以通过对将样本图像的特征和样本图像对应的压缩图像的特征进行作差处理,最大平均差异损失函数需要先将获取的样本图像的特征和样本图像对应的压缩图像对应的特征进行映射,基于映射后的特征进行作差处理。
例如,可以基于根据以下等式得到感知损失,
LMSE=||F(yi)-F(xi)||2
L1=λ1LMMD(F1,F2)+λ2LMSE(F1,F2);
其中,LMMD表示最大平均差异损失函数,LMSE表示均方误差损失函数,L1表示感知损失,n表示样本图像的数量,F()表示将图像从图像空间映射到第一特征空间,ψ()表示将提取的图像特征从所述第一特征空间映射到第二特征空间,x表示所述样本图像,y表示所述压缩图像,F1表示所述样本图像的特征向量,F2表示所述压缩图像的特征向量,λ1表示所述最大平均差异损失函数的预设系数,λ2表示所述均方误差损失函数的预设系数。
假设N为感知损失提取网络,即预训练的网络,样本图像为I1,样本图像对应的压缩图像为I2,所提取的样本图像的特征向量为F1,样本图像对应的压缩图像的特征向量为F2,则满足以下等式:
F1=N(I1);
F2=N(I2)。
步骤305、根据感知损失和压缩损失确定图像损失。
示例性地,可以对将样本图像和样本图像对应的压缩图像二者的压缩损失和感知网络计算所得的感知损失加权求和,得到图像损失。
例如,可以基于根据以下等式得到图像损失,
Ltotal=L1+Lcompress(I1,I2);
L1=||yi-xi||2
其中,Ltotal表示图像损失,L1表示感知损失,Lcompress(I1,I2)表示使用CNN网络进行图像压缩的损失函数,即可以表示压缩损失。
步骤306、根据图像损失和反向传播算法对待训练的图像压缩网络的参数多次迭代,更新待训练的图像压缩网络的参数。
其中,在反向传播算法的训练过程中,感知损失提取网络的参数可以保持不变,所计算的损失可以是针对待训练的图像压缩网络求梯度。
例如,可以根据学习率等参数,更新待训练图像压缩网络的参数,其中,学习率可以表示参数数值优化的幅度大小。
步骤307、当待训练图像压缩网络的损失收敛时,确定待训练图像压缩网络的参数,得到目标图像压缩网络。
在本申请中,可以重复执行上述步骤302至步骤306,直至待训练的图像压缩网络的参数收敛,此时,该待训练图像压缩网络进行压缩处理得到的压缩图片能够在一定程度上保持高层次特征的感知一致性。
在本申请的实施例中,可以根据获取的图像损失采用反向传播算法不断调整图像压缩网络的参数,当图像压缩网络压缩处理样本图像的图像损失收敛时,确定该图像压缩网络的参数从而得到目标图像压缩网络,其中,图像损失可以包括基于人对于图像的认知标准的压缩损失和基于机器视觉系统的认知标准的感知损失,本申请实施例中的目标图像压缩网络进行图像压缩处理得到的压缩图像与该压缩图像对应的原始图像能够在一定程度上保持特征的一致性,从而能够提高计算机视觉系统识别压缩图像的准确率。
上文结合图1至图8,详细描述了本申请实施例提供的目标图像压缩网络训练的方法以及图像处理方法,下面将结合图9和图10,详细描述本申请的装置实施例。应理解,本申请实施例中的图像处理装置可以执行前述本申请实施例的各种方法,即以下各种产品的具体工作过程,可以参考前述方法实施例中的对应过程。
图9是本申请实施例提供的目标图像压缩网络训练装置的硬件结构示意图。图8所示的目标图像压缩网络构建400(该装置400具体可以是一种计算机设备)包括存储器401、处理器402、通信接口403以及总线404。其中,存储器401、处理器402、通信接口403通过总线404实现彼此之间的通信连接。
存储器401可以是只读存储器(read only memory,ROM),静态存储设备,动态存储设备或者随机存取存储器(random access memory,RAM)。存储器401可以存储程序,当存储器401中存储的程序被处理器402执行时,处理器402用于执行本申请实施例的目标压缩图像网络构建的各个步骤,例如,可以执行图8所示实施例的各个步骤。
处理器402可以采用通用的中央处理器(central processing unit,CPU),微处理器,应用专用集成电路(application specific integrated circuit,ASIC),图形处理器(graphics processing unit,GPU)或者一个或多个集成电路,用于执行相关程序,以实现本申请方法实施例的目标图像压缩网络的训练方法。
处理器402还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请的目标压缩网络的训练方法的各个步骤可以通过处理器402中的硬件的集成逻辑电路或者软件形式的指令完成。
上述处理器402还可以是通用处理器、数字信号处理器(digital signalprocessing,DSP)、专用集成电路(ASIC)、现成可编程门阵列(field programmable gatearray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器401,处理器402读取存储器401中的信息,结合其硬件完成本目标图像压缩网络训练装置中包括的单元所需执行的功能,或者,执行本申请方法实施例的目标图像压缩网络的训练方法,例如,可以执行图8所示实施例的各个步骤/功能。
通信接口403使用例如但不限于收发器一类的收发装置,来实现装置400与其他设备或通信网络之间的通信。例如,可以通过通信接口403获取待训练的待训练图像压缩网络中需要的训练图像(例如,样本图像)。
总线404可包括在装置400各个部件(例如,存储器401、处理器402、通信接口403)之间传送信息的通路。
在通过图9所示的目标图像压缩网络训练装置训练得到了目标图像压缩网络之后,可以通过图10所示的图像处理装置500用于执行本申请实施例的图像处理方法了。
具体地,图9所示的装置可以通过通信接口403从外界获取训练图像以及待训练图像压缩网络,然后由处理器根据训练图像对待训练图像压缩网络进行训练。
应理解,本申请实施例所示的目标图像压缩网络训练装置可以是服务器,例如,可以是云端的服务器,或者,也可以是配置于云端的服务器中的芯片。此外,目标图像压缩网络训练装置还可以是具有图像压缩需求的电子设备,或者,也可以是配置于电子设备中的芯片。
图10是本申请实施例的图像处理装置的硬件结构示意图。图10所示的图像处理装置500包括存储器501、处理器502、通信接口503以及总线504。其中,存储器501、处理器502、通信接口503通过总线504实现彼此之间的通信连接。
存储器501可以是ROM,静态存储设备和RAM。存储器501可以存储程序,当存储器501中存储的程序被处理器502执行时,处理器502和通信接口503用于执行本申请实施例的图像处理方法的各个步骤。
处理器502可以采用通用的,CPU,微处理器,ASIC,GPU或者一个或多个集成电路,用于执行相关程序,以实现本申请实施例的图像处理装置中的单元所需执行的功能,或者执行本申请方法实施例的图像处理方法。
处理器502还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请实施例的图像处理方法的各个步骤可以通过处理器502中的硬件的集成逻辑电路或者软件形式的指令完成。
上述处理器502还可以是通用处理器、DSP、ASIC、FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器501,处理器502读取存储器501中的信息,结合其硬件完成本申请实施例的图像处理装置中包括的单元所需执行的功能,或者,执行本申请方法实施例的图像处理方法,例如,可以执行图7所示实施例的各个步骤/功能。
通信接口503使用例如但不限于收发器一类的收发装置,来实现装置500与其他设备或通信网络之间的通信。例如,可以通过通信接口503获取待处理图像。
总线504可包括在装置500各个部件(例如,存储器501、处理器502、通信接口503)之间传送信息的通路。
应理解,本申请实施例所示的图像处理装置可以是服务器,例如,可以是位于云端的服务器,或者,也可以是配置于云端的服务器中的芯片。此外,图像处理装置还可以是具有图像压缩需求的电子设备,或者,也可以是配置于电子设备中的芯片。
应注意,尽管上述装置400和装置500仅仅示出了存储器、处理器、通信接口,但是在具体实现过程中,本领域的技术人员应当理解,装置400和装置500还可以包括实现正常运行所必须的其他器件。同时,根据具体需要,本领域的技术人员应当理解,装置400和装置500还可包括实现其他附加功能的硬件器件。此外,本领域的技术人员应当理解,装置400和装置500也可仅仅包括实现本申请实施例所必须的器件,而不必包括图9和图10中所示的全部器件。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (16)

1.一种图像处理方法,其特征在于,包括:
获取待处理图像;
根据目标图像压缩网络对所述待处理图像进行压缩处理,得到所述待处理图像的目标压缩图像,其中,所述目标图像压缩网络的参数是根据所述目标图像压缩网络对样本图像进行压缩处理的图像损失确定的,所述图像损失包括感知损失,所述感知损失是指所述样本图像的特征向量与所述样本图像对应的压缩图像的特征向量之间的差异,所述待处理图像的特征向量与所述目标压缩图像的特征向量的差异在预设范围内;
基于所述目标压缩图像进行识别,得到识别结果。
2.如权利要求1所述的方法,其特征在于,所述图像损失还包括压缩损失,所述压缩损失是指所述压缩图像相对于所述样本图像的损失。
3.如权利要求2所述的方法,其特征在于,所述图像损失是通过对所述压缩损失和所述感知损失加权处理得到的。
4.如权利要求2或3所述的方法,其特征在于,所述压缩损失乘以第一权重值与所述感知损失乘以第二权重值处于相同的数量级。
5.如权利要求1至4中任一项所述的方法,其特征在于,所述感知损失是根据所述样本图像的特征向量和所述压缩图像的特征向量之间的均方误差和分布差异确定的。
6.如权利要求5所述的方法,其特征在于,所述感知损失是根据以下等式得到的,
LMSE=||F(yi)-F(xi)||2
L1=λ1LMMD(F1,F2)+λ2LMSE(F1,F2);
其中,LMMD表示最大平均差异损失函数,LMSE表示均方误差损失函数,L1表示所述感知损失,n表示所述样本图像的数量,F()表示将图像从图像空间映射到第一特征空间,ψ()表示将提取的图像特征从所述第一特征空间映射到第二特征空间,x表示所述样本图像,y表示所述压缩图像,F1表示所述样本图像的特征向量,F2表示所述压缩图像的特征向量,λ1表示所述最大平均差异损失函数的预设系数,λ2表示所述均方误差损失函数的预设系数。
7.如权利要求2至6中任一项所述的方法,其特征在于,所述目标图像压缩网络的参数是基于所述压缩损失和所述感知损失通过反向传播算法多次迭代得到的。
8.一种图像处理装置,其特征在于,包括:
存储器,用于存储程序;
处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行以下过程:
获取待处理图像;
根据目标图像压缩网络对所述待处理图像进行压缩处理,得到所述待处理图像的目标压缩图像,其中,所述目标图像压缩网络的参数是根据所述目标图像压缩网络对样本图像进行压缩处理的图像损失确定的,所述图像损失包括感知损失,所述感知损失是指所述样本图像的特征向量与所述样本图像对应的压缩图像的特征向量之间的差异,所述待处理图像的特征向量与所述目标压缩图像的特征向量的差异在预设范围内;
基于所述目标压缩图像进行识别,得到识别结果。
9.如权利要求8所述的装置,其特征在于,所述图像损失还包括压缩损失,所述压缩损失是指所述压缩图像相对于所述样本图像的损失。
10.如权利要求9所述的装置,其特征在于,所述图像损失是通过对所述压缩损失和所述感知损失加权处理得到的。
11.如权利要求9或10所述的装置,其特征在于,所述压缩损失乘以第一权重值与所述感知损失乘以第二权重值处于相同的数量级。
12.如权利要求8至11中任一项所述的装置,其特征在于,所述感知损失是根据所述样本图像的特征向量和所述压缩图像的特征向量之间的均方误差和分布差异确定的。
13.如权利要求12所述的装置,其特征在于,所述感知损失是根据以下等式得到的,
LMSE=||F(yi)-F(xi)||2
L1=λ1LMMD(F1,F2)+λ2LMSE(F1,F2);
其中,LMMD表示最大平均差异损失函数,LMSE表示均方误差损失函数,L1表示所述感知损失,n表示所述样本图像的数量,F()表示将图像从图像空间映射到第一特征空间,ψ()表示将提取的图像特征从所述第一特征空间映射到第二特征空间,x表示所述样本图像,y表示所述压缩图像,F1表示所述样本图像的特征向量,F2表示所述压缩图像的特征向量,λ1表示所述最大平均差异损失函数的预设系数,λ2表示所述均方误差损失函数的预设系数。
14.如权利要求8至13中任一项所述的装置,其特征在于,所述目标图像压缩网络的参数是基于所述压缩损失和所述感知损失通过反向传播算法多次迭代得到的。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有程序指令,当所述程序指令由处理器运行时,实现权利要求1至7中任一项所述的方法。
16.一种芯片,其特征在于,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,以执行如权利要求1至7中任一项所述的方法。
CN201910384600.5A 2019-05-09 2019-05-09 图像处理方法和装置 Active CN110222717B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910384600.5A CN110222717B (zh) 2019-05-09 2019-05-09 图像处理方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910384600.5A CN110222717B (zh) 2019-05-09 2019-05-09 图像处理方法和装置

Publications (2)

Publication Number Publication Date
CN110222717A true CN110222717A (zh) 2019-09-10
CN110222717B CN110222717B (zh) 2022-01-14

Family

ID=67820710

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910384600.5A Active CN110222717B (zh) 2019-05-09 2019-05-09 图像处理方法和装置

Country Status (1)

Country Link
CN (1) CN110222717B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705460A (zh) * 2019-09-29 2020-01-17 北京百度网讯科技有限公司 图像类别识别方法及装置
CN111405285A (zh) * 2020-03-27 2020-07-10 北京百度网讯科技有限公司 用于压缩图像的方法及装置
CN111814655A (zh) * 2020-07-03 2020-10-23 浙江大华技术股份有限公司 目标重识别方法及其网络训练方法、相关装置
CN111932467A (zh) * 2020-07-13 2020-11-13 东软医疗系统股份有限公司 一种图像处理方法及装置
CN112668366A (zh) * 2019-10-15 2021-04-16 华为技术有限公司 图像识别方法、装置、计算机可读存储介质及芯片
CN112926585A (zh) * 2021-01-11 2021-06-08 深圳大学 一种基于再生核希尔伯特空间的跨域语义分割方法
CN113259665A (zh) * 2020-02-07 2021-08-13 华为技术有限公司 一种图像处理方法以及相关设备
CN114091498A (zh) * 2020-07-31 2022-02-25 斑马技术公司 优化机器视觉系统的性能的系统和方法
CN115408552A (zh) * 2022-07-28 2022-11-29 深圳市磐鼎科技有限公司 显示调整方法、装置、设备及存储介质
WO2023231796A1 (zh) * 2022-05-31 2023-12-07 华为技术有限公司 一种视觉任务处理方法及其相关设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130084003A1 (en) * 2011-09-30 2013-04-04 Richard E. Crandall Psychovisual Image Compression
CN106791836A (zh) * 2016-12-02 2017-05-31 深圳市唯特视科技有限公司 一种基于一对多网络的减少图像压缩效应的方法
CN107240136A (zh) * 2017-05-25 2017-10-10 华北电力大学 一种基于深度学习模型的静态图像压缩方法
CN108062780A (zh) * 2017-12-29 2018-05-22 百度在线网络技术(北京)有限公司 图像压缩方法和装置
CN108537104A (zh) * 2018-01-30 2018-09-14 西安电子科技大学 基于全图观测的压缩感知网络及感知损失重构方法
CN109086806A (zh) * 2018-07-16 2018-12-25 福州大学 一种基于低分辨率压缩图像的iot便携式设备视觉识别加速方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130084003A1 (en) * 2011-09-30 2013-04-04 Richard E. Crandall Psychovisual Image Compression
CN106791836A (zh) * 2016-12-02 2017-05-31 深圳市唯特视科技有限公司 一种基于一对多网络的减少图像压缩效应的方法
CN107240136A (zh) * 2017-05-25 2017-10-10 华北电力大学 一种基于深度学习模型的静态图像压缩方法
CN108062780A (zh) * 2017-12-29 2018-05-22 百度在线网络技术(北京)有限公司 图像压缩方法和装置
CN108537104A (zh) * 2018-01-30 2018-09-14 西安电子科技大学 基于全图观测的压缩感知网络及感知损失重构方法
CN109086806A (zh) * 2018-07-16 2018-12-25 福州大学 一种基于低分辨率压缩图像的iot便携式设备视觉识别加速方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HAOJIE LIU ET AL: "Deep Image Compression via End-to-End Learning", 《ARXIV:1806.01496V1》 *
康琦 等: "《机器学习中的不平衡分类方法》", 31 October 2017, 同济大学出版社 *
许锋 等: "神经网络在图像处理中的应用", 《信息与控制》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705460A (zh) * 2019-09-29 2020-01-17 北京百度网讯科技有限公司 图像类别识别方法及装置
CN112668366A (zh) * 2019-10-15 2021-04-16 华为技术有限公司 图像识别方法、装置、计算机可读存储介质及芯片
CN112668366B (zh) * 2019-10-15 2024-04-26 华为云计算技术有限公司 图像识别方法、装置、计算机可读存储介质及芯片
CN113259665B (zh) * 2020-02-07 2022-08-09 华为技术有限公司 一种图像处理方法以及相关设备
CN113259665A (zh) * 2020-02-07 2021-08-13 华为技术有限公司 一种图像处理方法以及相关设备
CN111405285A (zh) * 2020-03-27 2020-07-10 北京百度网讯科技有限公司 用于压缩图像的方法及装置
CN111814655A (zh) * 2020-07-03 2020-10-23 浙江大华技术股份有限公司 目标重识别方法及其网络训练方法、相关装置
CN111814655B (zh) * 2020-07-03 2023-09-01 浙江大华技术股份有限公司 目标重识别方法及其网络训练方法、相关装置
CN111932467A (zh) * 2020-07-13 2020-11-13 东软医疗系统股份有限公司 一种图像处理方法及装置
CN114091498A (zh) * 2020-07-31 2022-02-25 斑马技术公司 优化机器视觉系统的性能的系统和方法
CN112926585B (zh) * 2021-01-11 2023-07-28 深圳大学 一种基于再生核希尔伯特空间的跨域语义分割方法
CN112926585A (zh) * 2021-01-11 2021-06-08 深圳大学 一种基于再生核希尔伯特空间的跨域语义分割方法
WO2023231796A1 (zh) * 2022-05-31 2023-12-07 华为技术有限公司 一种视觉任务处理方法及其相关设备
CN115408552A (zh) * 2022-07-28 2022-11-29 深圳市磐鼎科技有限公司 显示调整方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110222717B (zh) 2022-01-14

Similar Documents

Publication Publication Date Title
CN110222717A (zh) 图像处理方法和装置
CN110378381A (zh) 物体检测方法、装置和计算机存储介质
WO2021057056A1 (zh) 神经网络架构搜索方法、图像处理方法、装置和存储介质
CN110188795A (zh) 图像分类方法、数据处理方法和装置
CN110309856A (zh) 图像分类方法、神经网络的训练方法及装置
CN110175671A (zh) 神经网络的构建方法、图像处理方法及装置
CN110532871A (zh) 图像处理的方法和装置
CN112418392A (zh) 一种神经网络构建方法以及装置
WO2021022521A1 (zh) 数据处理的方法、训练神经网络模型的方法及设备
WO2022052601A1 (zh) 神经网络模型的训练方法、图像处理方法及装置
CN110070107A (zh) 物体识别方法及装置
WO2022001805A1 (zh) 一种神经网络蒸馏方法及装置
CN111797983A (zh) 一种神经网络构建方法以及装置
CN110222718B (zh) 图像处理的方法及装置
CN111667399A (zh) 风格迁移模型的训练方法、视频风格迁移的方法以及装置
CN113326930B (zh) 数据处理方法、神经网络的训练方法及相关装置、设备
CN113705769A (zh) 一种神经网络训练方法以及装置
WO2021051987A1 (zh) 神经网络模型训练的方法和装置
CN111832592B (zh) Rgbd显著性检测方法以及相关装置
WO2022007867A1 (zh) 神经网络的构建方法和装置
CN113570029A (zh) 获取神经网络模型的方法、图像处理方法及装置
CN112561028A (zh) 训练神经网络模型的方法、数据处理的方法及装置
CN113807183A (zh) 模型训练方法及相关设备
CN115081588A (zh) 一种神经网络参数量化方法和装置
CN114492723A (zh) 神经网络模型的训练方法、图像处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant