CN112712489A - 图像处理的方法、系统及计算机可读存储介质 - Google Patents

图像处理的方法、系统及计算机可读存储介质 Download PDF

Info

Publication number
CN112712489A
CN112712489A CN202011643772.9A CN202011643772A CN112712489A CN 112712489 A CN112712489 A CN 112712489A CN 202011643772 A CN202011643772 A CN 202011643772A CN 112712489 A CN112712489 A CN 112712489A
Authority
CN
China
Prior art keywords
images
deep learning
learning model
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011643772.9A
Other languages
English (en)
Inventor
罗伯特·罗恩思
马原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Pengsi Technology Co ltd
Original Assignee
Beijing Pengsi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Pengsi Technology Co ltd filed Critical Beijing Pengsi Technology Co ltd
Priority to CN202011643772.9A priority Critical patent/CN112712489A/zh
Publication of CN112712489A publication Critical patent/CN112712489A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种图像处理的方法、系统、计算机可读存储介质及计算机程序产品。该方法包括:获取待处理的多张图像;将多张图像进行拼接,得到拼接之后的拼图;将拼图输入到预先训练好的深度学习模型中,得到输出,其中深度学习模型中的卷积层的补齐模式为有效,并且深度学习模型中的池化核大小不大于池化步长;根据所述输出得到与多张图像一一对应的图像处理结果。可见,本申请中将多张图像拼接成拼图后再利用深度学习模型进行处理,由于针对拼图处理时的前向推理的时间更短,因此能够极大地缩短图像处理时间,提升处理效率。并且,使用本申请中的深度学习模型对拼图进行处理所得到的结果与针对多张图像进行批处理所得到的结果是一致的。

Description

图像处理的方法、系统及计算机可读存储介质
技术领域
本发明实施例涉及图像处理领域,并且更具体地,涉及一种图像处理的方法、系统、计算机可读存储介质及计算机程序产品。
背景技术
在各种应用场景中,有时要对大量的图像进行各种各样的批处理,在采用神经网络进行批处理的过程中,会将图像逐一地输入到神经网络,得到对应的输出。由此,针对大量的图像,需要神经网络对每一图像进行处理,这样的批处理方式造成了处理耗时过长,效率太低。
发明内容
本发明实施例提供了一种图像处理的方法、系统、计算机可读存储介质及计算机程序产品。
在第一方面,提供了一种图像处理的方法,包括:
获取待处理的多张图像;
将所述多张图像进行拼接,得到拼接之后的拼图;
将所述拼图输入到预先训练好的深度学习模型中,得到输出,其中所述深度学习模型中的卷积层的补齐模式为有效,并且所述深度学习模型中的池化核大小不大于池化步长;
根据所述输出得到与所述多张图像一一对应的图像处理结果。
在一个实施例中,所述深度学习模型为质量判断模型,所述图像处理结果包括图像质量得分。
在一个实施例中,所述多张图像为同一帧图像中的多个人脸图像或多个人体图像。
在一个实施例中,所述深度学习模型为目标跟踪模型,所述图像处理结果包括被跟踪的目标的边界框坐标。
在一个实施例中,所述多张图像中每张图像的宽为所述深度学习模型的总体步长的整数倍,且所述多张图像中每张图像的高为所述深度学习模型的总体步长的整数倍。
在一个实施例中,所述多张图像中每张图像具有相同的宽和高。
在一个实施例中,所述多张图像的数量为N,每张图像的宽为W,每张图像的高为H,并且所述拼图的宽为W×N,所述拼图的高为H。
在一个实施例中,所述多张图像的数量为N,每张图像的宽为W,每张图像的高为H,并且所述拼图的宽为W,所述拼图的高为H×N。
第二方面,提供了一种图像处理的系统,包括存储器、处理器及存储在存储器上的计算机程序,所述处理器执行所述计算机程序以实现第一方面所述方法的步骤。
第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现第一方面所述方法的步骤。
第四方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现第一方面所述方法的步骤。
由此可见,本申请中将多张图像拼接成拼图后再利用深度学习模型进行处理,由于针对拼图处理时的前向推理的时间更短,因此能够极大地缩短图像处理时间,提升处理效率。并且,使用本申请中的深度学习模型对拼图进行处理所得到的结果与针对多张图像进行批处理所得到的结果是一致的。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种图像处理的方法的示意性流程图;
图2是本发明实施例的多张图像的一个示意图;
图3是本发明实施例的将图2中的多张图像拼接后的拼图的示意图;
图4是本发明实施例的批处理方法的网络拓扑的一个示意图;
图5是本发明实施例中拼图处理方法的网络拓扑的一个示意图;
图6是本发明实施例中拼图处理的层a=13的特征图尺寸的示意图;
图7是本发明实施例的图像处理的系统的一个示意框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
在各种应用场景中,有时要对大量的图像进行各种各样的批处理,在采用神经网络进行批处理的过程中,会将图像逐一地输入到神经网络,得到对应的输出。由此,针对大量的图像,需要神经网络对每一图像进行处理,这样的批处理方式造成了处理耗时过长,效率太低。基于此,本申请提供了一种图像处理的方法,能够将多张图像处理成拼图,再对拼图进行处理,这样能够极大地减小处理量,缩短处理时长。
如图1所示,是本申请实施例的图像处理的方法的一个示意性流程图。
图1所示的方法包括:
S10,获取待处理的多张图像;
S20,将所述多张图像进行拼接,得到拼接之后的拼图;
S30,将所述拼图输入到预先训练好的深度学习模型中,得到输出,其中所述深度学习模型中的卷积层的补齐模式为有效,并且所述深度学习模型中的池化核大小不大于池化步长;
S40,根据所述输出得到与所述多张图像一一对应的图像处理结果。
可理解的是,本申请中对S10中的多张图像的来源不做限定,作为一例,多张图像可以是在同一视频中的多帧图像;作为另一例,多张图像可以是同一帧图像中所截取出的不同区域。
可理解的是,本申请中对S10中的多张图像中所包含的对象不做限定,例如,每张图像可以包括人体或人脸或车牌或其他目标等。
在一个实施例中,多张图像可以是同一帧图像中的多个人脸图像或多个人体图像。在该实施例中,S10可以包括:获取一帧图像,通过人脸检测或人体检测得到所述一帧图像中的多个边界框。可选地,多个边界框可以具有相同的宽和高。
本申请,多张图像可以具有相同的空间尺寸,即具有相同的宽和高。例如,多张图像中每张图像的宽都为W,高都为H。
一般地,为了对多张图像进行批处理,可以表示为一个四维张量,如其形状为[n,h,w,c]或[n,w,h,c],其中n为批的大小,即多张图像的数量。h,w,c分别为图像高度、宽度以及通道数。作为一个示例,S10中的多张图像可以如图2所示,如图2中包括3张图像,且每张的宽相等,每张的高也相等,表示为四维张量为[3,H,W,C]。
示例性地,S20中,可以通过将多张图像沿着宽度方向依次拼接形成拼图,这样,拼图的宽等于多张图像的宽之和,拼图的高等于多张图像中高的最大值。或者,可以通过将多张图像沿着高度方向依次拼接形成拼图,这样,拼图的高等于多张图像的高之和,拼图的宽等于多张图像中宽的最大值。
假设每张图像的宽都是W,每张图像的高都是H,且假设多张图像的数量为N,那么S20中所得到的拼图的宽为W×N,拼图的高为H。
作为一个示例,将如图2所示的3张图像进行拼接后,得到的拼图如图3所示,表示为四维张量为[1,H,3×W,C]。
本申请中,S30中的深度学习模型应满足(1)补齐模式为有效,即padding=‘VALID’;(2)池化核大小不大于池化步长,即池化核大小等于或小于池化步长。
另外,应注意,本申请对S30中的深度学习模型的具体功能不做限定。在一个实施例中,深度学习模型为质量判断模型,S40中的图像处理结果包括图像质量得分。相应地,输出特征图的空间维度可以为1×1,通道数等于多张图像的数量,即N。在另一个实施例中,深度学习模型为目标跟踪模型,S40中的图像处理结果包括被跟踪的目标的边界框坐标。相应地,输出特征图的空间维度可以为11×11,通道数等于多张图像的数量加4,即N+4,这里4表示边界框的坐标数。
下面将结合具体的示例描述该深度学习模型。其中,假设多张图像的数量为2,其中每张的宽为72,高为96。
当对多张图像依次进行处理时,即进行处理时的输入图像的尺寸为96×72,相应地,网络拓扑可以如图4所示。应注意,本申请中在结合图4至图6的示例中,图像尺寸表示高×宽的尺寸,而不再单独示出通道数。
在图4中,变量a表示层的编号,INPUT、CONV、ACTIVATE、POOL分别为输入层、卷积层、激活层和池化层。方括号中的[hi×wi]表示对应层的特征图尺寸,方括号之后的圆括号里边的数字(m)代表对应层的通道数。最后两个数字nWeights和nBiases分别表示可训练参数weights和biases的数量。
以a=13为例,该层为激活层,该激活层的输入的特征图尺寸是6×3,通道数为128。
针对图4中的网络结构,其中层a=14是非常特殊的一个卷积层,其使用了6×3的卷积核,并且其补齐模式为padding=‘VALID’,从而使得6×3的特征图尺寸变为1×1。因此,层a=14的操作也可以等价地由全连接层(FullyConnected Layer)代替。
应当注意的是,在本申请中,为了避免不确定的因素,本申请中假设网络拓扑避开任何边缘效应。举例来说,如果2×2池化层操作的输入特征图的尺寸为45×45,那么由于45不是2的倍数,因此可能会存在不同边缘处理的方式,导致输出特征图的尺寸可能是23,也可能是22。本领域技术人员可理解,确实不同深度学习框架之间会存在边缘处理方式的差异。然而,本申请所讨论的网络拓扑(如上面的图3以及下面的图4)都不存在这种问题,本申请中的网络拓扑中,任意池化层的输入特征图的尺寸都是2的倍数。
假设待处理的多张图像的数量是2,那么基于图4中的场景,拼图的尺寸为96×144。类似于图3中拼接方式,在该拼图中,两张图像之间不存在间隙,即不存在空区域,而是直接相挨着的(72+72=144)。相应地,输入图像尺寸为96×144时,网络拓扑可以如图5所示。
在结合图4的描述中已经示出了,拼图方法的特点在于全连接操作由卷积操作替代的那一层,即层a=14。
针对图5中的网络拓扑,图6示出了从输入层a=0到全连接层(a=14)之前的层a=13的特征图尺寸变化。具体地,其通过补齐模式padding=‘VALID’的卷积和池化引起的欠采样操作,把层a=0的尺寸96×144被逐步地降低到层a=13的尺寸6×12。
通过将图4与图5进行比较可以发现,图5中层a=13的特征图尺寸为6×12,而图4中层a=13的特征图尺寸为6×3。也就是说,将两个图4中层a=13的特征图尺寸进行连接(concatenate)之后的特征图尺寸为6×6,与图中层a=13的特征图尺寸为6×12时不一致的。结合图6可以看出,在图5的层a=13的6×12特征图的中间存在6×6的无效区域。这个无效区域是由两张图像的重叠区域所计算出来的值,并且由于层a=13的重叠区域中的值无效,因此可以在层a=14的卷积核使用步长1×9来跳过中间的无效区域。返回图5可以看出,在层a=14时,特征图尺寸变为1×2,其中2代表批处理大小。
可理解的是,其他层a=1,…,12的特征图中也存在无效的列。举例来说,对于层a=3,图4中的特征图尺寸为46×34,图5中的特征图尺寸为46×70,由于34+34<70,且70-34-34=2,因此会在中间存在2个无效的列,并且这两个无效的列不会影响后续的网络最终结果。但是应注意的是,在图5的网络拓扑中,尽管层a=3中存在2个无效的列,但是在层a=4并不使用卷积核的步长3跳过这两列,否则在这2个无效列的前后会发送跳列的现象,进而得到不正确的前向计算结果。
也就是说,本申请中在针对拼图进行图像处理时,需要由卷积层操作替代了原先批处理网络拓扑中的全连接层操作,并且卷积核的大小是全连接层之前的特征图尺寸。进一步,还应该按照网络拓扑来设定该卷积核的步长参数,以便跳过无效区域。
基于上面的描述,本申请中在对多张图像进行图像处理时,尽管对多张图像分别进行处理和对拼图进行处理的总的像素点数量是相等的,例如均为n×h×w×c。尽管如图4的批处理方法的浮点运算数(FLOPS)低于如图5的拼图处理方法,并且如图5的拼图处理方法在处理无效区域时还会增加一些没必要的计算量;但是,一方面处理无效区域所引起的计算量增加是有限的、能够接受的,其被控制在一定范围内;另一方面,拼图处理方法的前向推理时间要远小于批处理方法的前向推理时间,并且批大小n越大,该推理时间的差异会越明显。例如,如果n为30的话,相比于批处理方法,拼图处理方法的前向推理时间要快大概3倍。
通过本发明实施例的方法,能够将用于批处理的多张图像拼接成拼图,并使用如S30中的深度学习模型对拼图进行处理。由于极大地缩短了前向推理的时间,因此能够极大地缩短图像处理时间,提升处理效率。并且,使用本申请中的深度学习模型对拼图进行处理所得到的结果与针对多张图像进行批处理所得到的结果是一致的。
具体地,如在S30中所述,深度学习模型中的卷积层的补齐模式为有效(Valid),并且深度学习模型中的池化核大小不大于池化步长,这样才能够保证拼图中相邻两图像之间的感受野相互独立,不出现相互覆盖的现象,即避免跟边缘效应挂钩。
依然结合图5,在层a=1的卷积核大小为5×5,其将特征图尺寸从96×144变到92×140。由于采用补齐模式padding=‘VALID’,从而在层a=1的具体公式可以表示为:
y1[0,67]=…+x[0][67]+x[0][68]+x[0][69]+x[0][70]+x[0][71]+…;
y2[0,67]=…+x[0][67]+x[0][68]+x[0][69]+x[0][70]+x[0][71]+…;
其中,y1记为批处理方式(图4)第一行左边图像最右边的输出值,y2记为同样位置的拼图处理方法(图5)的输出值。可见,两种方法得来的值是相等的,也就是说,拼图处理的结果与批处理的结果是一致的。
但是,在拼图处理方式中,在层a=1的特征图尺寸为92×140,其中左边图像和右边图像的宽度的有效值均为68,位于中间的是4个无效列,即:
左边图像 y2[0,0],…,y2[0,67]
中间区域 y2[0,68],y2[0,69],y2[0,70],y2[0,71]
右边图像 y2[0,72],…,y2[0,139]
也就是说,通过设定补齐模式padding=‘VALID’,即pad=0,在本申请的方案中,不会存在感受野同时覆盖两幅图的现象。
实际上,假设在针对拼图处理的过程中,设定补齐模式是“SAME”,即pad=2。那么:
y1[0,71]=…+x[0][69]+x[0][70]+x[0][71]+0+0+…
y2[0,71]=…+x[0][69]+x[0][70]+x[0][71]+x[0][72]+x[0][73]+…,可见,在计算y1时,因pad=2的原因加了两个0。且在计算y2的过程中越界了,x[0][72]和x[0][73]属于右边图像的值。也就是说,y2本身属于左边图像的阶段性的值,但是其感受野也包含了右边图像的值x[0][72]和x[0][73]。并且可理解的是,层编号越大,误差累计越多,导致最终结果的差异比较大。因此,在本申请实施例中,补齐模式padding=‘VALID’是“深度学习模型对拼图进行处理所得到的结果与针对多张图像进行批处理所得到的结果一致”的必要条件。
类似地,池化核大小不大于池化步长也是“深度学习模型对拼图进行处理所得到的结果与针对多张图像进行批处理所得到的结果一致”的必要条件。简单举例来讲,假设选择池化核大小大于池化步长的池化层。例如,核大小3×3、步长2×2的最大池化(max-pooling),这种情形下会存在有边缘效应。
具体地,
y1[0,33]=max{…,x[0][66],x[0][67],0,…}
y2[0,33]=max{…,x[0][66],x[0][67],x[0][68],…}。
在x[0][68]大于x[0][66]和x[0][67]的情况下,则该层的计算结果不一致。对点y2[0,33]来讲,其感受野超过了左边图像本身的范围。
因此,本申请的实施例中,需满足池化核大小不大于池化步长,例如可以是池化核大小等于池化步长,从而避免感受野同时覆盖两幅图的现象,且保证了深度学习模型对拼图进行处理所得到的结果与针对多张图像进行批处理所得到的结果一致。
进一步地,在S40中,可以基于输出得到多个图像处理结果,且与多张图像一一对应。这样的图像处理结果与批处理的结果是一致的。在S40中基于输出之后的得到图像处理结果的具体处理过程与深度学习模型的输出的维度、模型的用途等相关联的。例如,如果深度学习模型是质量判断模型,那么得到质量得分值的处理过程是较为简单的;但是如果深度学习模型是跟踪模型,那么得到目标的边界框的处理过程是稍微复杂一些的。这个处理过程与批处理中的是类似的,本说明书中不再详细描述。
另外,可选地,在一种可能的实现方式中,多张图像中每张图像的宽为深度学习模型的总体步长的整数倍,且多张图像中每张图像的高为深度学习模型的总体步长的整数倍。这样,能够确保深度学习模型在处理拼图的过程中,每一层的特征图的尺寸都是唯一的。
示例性地,在S10之后,可以对多张图像进行缩放,以使得每张图像的尺寸都相等,且宽和高都是总体步长的整数倍。并且可以在缩放之后再执行S20。
依然以图5为例,其中层3、层6、层9的池化层包含步长为非1的操作,其步长全部为2,那么网络的总体步长为2×2×2=8。并且,多张图像中每张图像的高为96、宽为72,且96和72都是总体步长8的整数倍。
每张图像的尺寸(即输入到深度学习模型的输入图像的尺寸)、卷积核大小和池化步长唯一地决定了层a=13的特征图尺寸。
由于层3、层6、层9的池化层的步长均为2,若将w0表示为输入图像的宽,那么在图4的情形下,层13的特征图的宽w13满足:w13={[(w0-4)/2-2]/2-2}/2-2–2,即,w13=w0/8–6。
基于此,可以归纳至一般的网络拓扑,满足w13=w0/s-p,其中,s表示网络的总体步长,p表示偏移量。由于w13是整数,且w0是s的整数倍,那么p也是整数。并且可以基于此确定出层13的中间区域(即无效区域)的宽度x等于p。
具体推导过程如下:
针对如图5所示的网络拓扑,将w13’表示为图5中针对拼图的层a=13的特征图的宽,那么层a=13的中间区域满足:w13’=(2×w0)/s–p,且满足w13’=w13+x+w13,从而(2×w0)/s–p=w0/s-p+x+w0/s-p进而推导出x=p。
由于图5是将两张图像进行拼接后得到拼图的处理过程,即n=2。进一步地,还可以针对任意数量的n通过分析得出:x=p。也就是说,对于多张图像得到的拼图而言,任何两张相邻图像之间的无效区域的宽度都是相等的,且都等于偏移量。
由此可见,本申请中将多张图像拼接成拼图后再利用深度学习模型进行处理,由于针对拼图处理时的前向推理的时间更短,因此能够极大地缩短图像处理时间,提升处理效率。并且,使用本申请中的深度学习模型对拼图进行处理所得到的结果与针对多张图像进行批处理所得到的结果是一致的。
另外,本申请还提供了一种图像处理的系统,如图7所示,包括存储器、处理器及存储在存储器上的计算机程序。并且当处理器执行计算机程序能够实现上述结合图1所述方法的步骤。
存储器可以是只读存储器(read only memory,ROM),静态存储设备,动态存储设备或者随机存取存储器(random access memory,RAM)等。
处理器可以采用通用的中央处理器(central processing unit,CPU),微处理器,应用专用集成电路(application specific integrated circuit,ASIC)或者一个或多个集成电路,用于执行相关程序,以实现本申请实施例的方法。
处理器还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请的方法的各个步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器还可以是通用处理器、数字信号处理器(digital signal processing,DSP)、专用集成电路(ASIC)、现成可编程门阵列(fieldprogrammable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成本申请实施例的系统中包括的单元所需执行的功能,或者执行本申请方法实施例的方法。
可选地,该系统还可以进一步包括通信接口和总线。其中,通信接口使用例如但不限于收发器一类的收发装置,来实现与其他设备或网络之间的通信。例如,可以通过通信接口可以从图像采集设备获取多张图像,可以通过通信接口将图像处理结果传输至其他外部设备,等等。其中,总线可包括在装置各个部件(例如,存储器、处理器、通信接口)之间传送信息的通路。
可理解,图7中的图像处理的系统可以是计算机系统、计算机设备等。
另外,本发明实施例还提供了一种计算机存储介质,其上存储有计算机程序。当该计算机程序被计算机或者处理器执行时,可以实现前述结合图1所述的方法的步骤。例如,该计算机存储介质为计算机可读存储介质。
在一个实施例中,该计算机程序指令在被计算机或处理器运行时使计算机或处理器执行以下步骤:获取待处理的多张图像;将所述多张图像进行拼接,得到拼接之后的拼图;将所述拼图输入到预先训练好的深度学习模型中,得到输出,其中所述深度学习模型中的卷积层的补齐模式为有效,并且所述深度学习模型中的池化核大小不大于池化步长;根据所述输出得到与所述多张图像一一对应的图像处理结果。
计算机存储介质例如可以包括智能电话的存储卡、平板电脑的存储部件、个人计算机的硬盘、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器、或者上述存储介质的任意组合。计算机可读存储介质可以是一个或多个计算机可读存储介质的任意组合。
另外,本发明实施例还提供了一种计算机程序产品,其包含计算机程序或指令,当该计算机程序或指令被计算机或处理器所执行时,使得执行上述结合图1所述的方法的步骤。
由此可见,本申请中将多张图像拼接成拼图后再利用深度学习模型进行处理,由于针对拼图处理时的前向推理的时间更短,因此能够极大地缩短图像处理时间,提升处理效率。并且,使用本申请中的深度学习模型对拼图进行处理所得到的结果与针对多张图像进行批处理所得到的结果是一致的。
尽管这里已经参考附图描述了示例实施例,应理解上述示例实施例仅仅是示例性的,并且不意图将本发明的范围限制于此。本领域普通技术人员可以在其中进行各种改变和修改,而不偏离本发明的范围和精神。所有这些改变和修改意在被包括在所附权利要求所要求的本发明的范围之内。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

Claims (10)

1.一种图像处理的方法,其特征在于,包括:
获取待处理的多张图像;
将所述多张图像进行拼接,得到拼接之后的拼图;
将所述拼图输入到预先训练好的深度学习模型中,得到输出,其中所述深度学习模型中的卷积层的补齐模式为有效,并且所述深度学习模型中的池化核大小不大于池化步长;
根据所述输出得到与所述多张图像一一对应的图像处理结果。
2.根据权利要求1所述的方法,其特征在于,所述深度学习模型为质量判断模型,所述图像处理结果包括图像质量得分。
3.根据权利要求2所述的方法,其特征在于,所述多张图像为同一帧图像中的多个人脸图像或多个人体图像。
4.根据权利要求1所述的方法,其特征在于,所述深度学习模型为目标跟踪模型,所述图像处理结果包括被跟踪的目标的边界框坐标。
5.根据权利要求1所述的方法,其特征在于,所述多张图像中每张图像的宽为所述深度学习模型的总体步长的整数倍,且所述多张图像中每张图像的高为所述深度学习模型的总体步长的整数倍。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述多张图像中每张图像具有相同的宽和高。
7.根据权利要求6所述的方法,其特征在于,所述多张图像的数量为N,每张图像的宽为W,每张图像的高为H,并且所述拼图的宽为W×N,所述拼图的高为H。
8.根据权利要求6所述的方法,其特征在于,所述多张图像的数量为N,每张图像的宽为W,每张图像的高为H,并且所述拼图的宽为W,所述拼图的高为H×N。
9.一种图像处理的系统,包括存储器、处理器及存储在存储器上的计算机程序,其特征在于,所述处理器执行所述计算机程序以实现权利要求1至8中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至8中任一项所述方法的步骤。
CN202011643772.9A 2020-12-31 2020-12-31 图像处理的方法、系统及计算机可读存储介质 Pending CN112712489A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011643772.9A CN112712489A (zh) 2020-12-31 2020-12-31 图像处理的方法、系统及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011643772.9A CN112712489A (zh) 2020-12-31 2020-12-31 图像处理的方法、系统及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN112712489A true CN112712489A (zh) 2021-04-27

Family

ID=75548072

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011643772.9A Pending CN112712489A (zh) 2020-12-31 2020-12-31 图像处理的方法、系统及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN112712489A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105243395A (zh) * 2015-11-04 2016-01-13 东方网力科技股份有限公司 一种人体图像比对方法和装置
CN108229390A (zh) * 2018-01-02 2018-06-29 济南中维世纪科技有限公司 基于深度学习的快速行人检测方法
CN111259666A (zh) * 2020-01-15 2020-06-09 上海勃池信息技术有限公司 一种结合多头自注意力机制的cnn文本分类方法
CN111890365A (zh) * 2020-07-31 2020-11-06 平安科技(深圳)有限公司 目标跟踪方法、装置、计算机设备及存储介质
CN111914601A (zh) * 2019-05-10 2020-11-10 南京视能智能科技有限公司 一种基于深度学习的高效批量人脸识别和抠图系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105243395A (zh) * 2015-11-04 2016-01-13 东方网力科技股份有限公司 一种人体图像比对方法和装置
CN108229390A (zh) * 2018-01-02 2018-06-29 济南中维世纪科技有限公司 基于深度学习的快速行人检测方法
CN111914601A (zh) * 2019-05-10 2020-11-10 南京视能智能科技有限公司 一种基于深度学习的高效批量人脸识别和抠图系统
CN111259666A (zh) * 2020-01-15 2020-06-09 上海勃池信息技术有限公司 一种结合多头自注意力机制的cnn文本分类方法
CN111890365A (zh) * 2020-07-31 2020-11-06 平安科技(深圳)有限公司 目标跟踪方法、装置、计算机设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
雒培磊;李国庆;曾怡;: "一种改进的基于深度学习的遥感影像拼接方法", 计算机工程与应用, no. 20 *

Similar Documents

Publication Publication Date Title
US9230148B2 (en) Method and system for binarization of two dimensional code image
US11849226B2 (en) Image processing device including neural network processor and operating method thereof
EP3723006A1 (en) Signal processing method and device
WO2020186385A1 (zh) 图像处理方法、电子设备及计算机可读存储介质
CN111681165A (zh) 图像处理方法、装置、计算机设备和计算机可读存储介质
CN112381061A (zh) 一种面部表情识别方法及系统
CN111325161B (zh) 一种基于注意力机制的人脸检测神经网络的构建方法
CN114926342A (zh) 图像超分辨率重建模型构建方法、装置、设备及存储介质
CN112115811A (zh) 基于隐私保护的图像处理方法、装置和电子设备
CN109753957B (zh) 图像显著性检测方法、装置、存储介质及电子设备
US11704546B2 (en) Operation processing apparatus that calculates addresses of feature planes in layers of a neutral network and operation processing method
JP6937782B2 (ja) 画像処理方法及びデバイス
CN113628259A (zh) 图像的配准处理方法及装置
CN112712489A (zh) 图像处理的方法、系统及计算机可读存储介质
CN115546073B (zh) 地砖图像阴影去除方法、装置、计算机设备及存储介质
US9082041B2 (en) Pattern identifying apparatus
CN116109481A (zh) 缩放方法、芯片、存储介质及电子设备
CN112733685A (zh) 人脸跟踪方法、系统及计算机可读存储介质
CN111860809A (zh) 采用伪单元填充图像传感芯片进行首层卷积层处理的方法
EP3565253A1 (en) A method and an apparatus for reducing an amount of data representative of a multi-view plus depth content
CN110443835B (zh) 图像配准方法、装置、设备和存储介质
CN110971785B (zh) 摄像头遮挡状态检测方法、装置、终端和存储介质
CN109961083A (zh) 用于将卷积神经网络应用于图像的方法和图像处理实体
US20240163578A1 (en) Image signal processor, image sensor, and operating method of the image sensor
CN116416195A (zh) 图像处理方法、计算机设备和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination