CN107909537A - 一种基于卷积神经网络的图像处理方法及移动终端 - Google Patents

一种基于卷积神经网络的图像处理方法及移动终端 Download PDF

Info

Publication number
CN107909537A
CN107909537A CN201711135304.9A CN201711135304A CN107909537A CN 107909537 A CN107909537 A CN 107909537A CN 201711135304 A CN201711135304 A CN 201711135304A CN 107909537 A CN107909537 A CN 107909537A
Authority
CN
China
Prior art keywords
data
feature
texture
layer
texture maps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711135304.9A
Other languages
English (en)
Other versions
CN107909537B (zh
Inventor
李启东
李志阳
张伟
许清泉
傅松林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Meitu Technology Co Ltd
Original Assignee
Xiamen Meitu Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Meitu Technology Co Ltd filed Critical Xiamen Meitu Technology Co Ltd
Priority to CN201711135304.9A priority Critical patent/CN107909537B/zh
Publication of CN107909537A publication Critical patent/CN107909537A/zh
Application granted granted Critical
Publication of CN107909537B publication Critical patent/CN107909537B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

本发明公开了一种基于卷积神经网络的图像处理方法,卷积神经网络包括多个数据层和多个处理层,每个数据层包括多个特征图,该方法在移动终端的图形处理器中执行,图形处理器包括图形存储器,图形存储器中存储有纹理图,纹理图中以第一数据类型存储有当前数据层的多个第一特征图,该方法包括:将纹理图中的数据转化为第二数据类型,以获取当前数据层的多个第一特征图;当前处理层对第二数据类型的多个第一特征图进行渲染处理,以生成下一个数据层的多个第二特征图;将多个第二特征图中的数据转化为第一数据类型,存储至纹理图中。本发明一并公开了相应的移动终端。

Description

一种基于卷积神经网络的图像处理方法及移动终端
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于卷积神经网络的图像处理方法及移动终端。
背景技术
卷积神经网络(CNN,Convolutional Neural Network)在图像处理领域扮演着重要的角色,例如,图像的分类、分割、风格转换、画质改善等,均可以采用CNN来实现,以取得比传统处理方法更好的效果。目前,基于CNN的图像处理在PC端得到了广泛应用,然而,其在移动终端上的应用仍存在瓶颈,尤其是当CNN达到数百层时,需要大量的浮点数乘法运算及大量的内存申请,导致移动终端的计算效率跟不上CNN的发展速度。
移动端GPU的发展以及跨平台的OpenGL ES 3.x(Open Graphics Library forEmbedded Systems 3.x)图形程序接口为移动端的CNN计算带来了极大的便利。虽然基于OpenGL ES3.x的GPU并行计算提高了CNN的处理效率,在脚本渲染时能够快速进行浮点数的运算,但其在数据存储方面仍存在瓶颈。一方面,OpenGL ES 3.x可以支持32位浮点型(float32)以及32位无符号整型(uint32)的纹理存储,但是纹理最多只能存储四通道(RGBA)数据。另一方面,OpenGL ES 3.x支持的纹理的大小也有限制,相对低端的GPU芯片,纹理的宽和高均需限制在2048个像素的范围内。此外,对于图像风格转换、视频风格转换等复杂的图像处理,CNN往往多达几十层甚至数百层,在采用纹理存储CNN数据时,势必会导致大量纹理的创建、绑定和解绑,降低了计算效率。
因此,需要提供一种存储效率更高、处理速度更快的CNN图像处理方法。
发明内容
为此,本发明提供一种基于卷积神经网络的图像处理方法及移动终端,以解决或至少缓解上面存在的问题。
根据本发明的一个方面,提供一种基于卷积神经网络的图像处理方法,所述卷积神经网络包括多个数据层和多个处理层,每个数据层包括多个特征图,所述方法在移动终端的图形处理器中执行,所述图形处理器包括图形存储器,所述图形存储器中存储有纹理图,所述纹理图中以第一数据类型存储有当前数据层的多个第一特征图,所述方法包括:将纹理图中的数据转化为第二数据类型,以获取当前数据层的多个第一特征图;当前处理层对第二数据类型的多个第一特征图进行渲染处理,以生成下一个数据层的多个第二特征图;将所述多个第二特征图中的数据转化为第一数据类型,存储至所述纹理图中。
可选地,在根据本发明的基于卷积神经网络的图像处理方法中,所述第一数据类型为32位无符号整型,所述第二数据类型为16位浮点型;所述将纹理图中的数据转化为第二数据类型的步骤包括:将纹理图中的每一个32位无符号整数转化为两个16位浮点数。
可选地,在根据本发明的基于卷积神经网络的图像处理方法中,所述将所述多个第二特征图中的数据转化为第一数据类型的步骤包括:将所述多个第二特征图两两进行组合,得到多个第二特征图对;对于每一个第二特征图对,将其中一个第二特征图的每一个16位浮点数与另一个第二特征图的相应位置的16位浮点数转化为一个32位无符号整数。
可选地,在根据本发明的基于卷积神经网络的图像处理方法中,所述纹理图包括多个纹理区块,每个纹理区块包括RGBA四个通道,每个通道适于存储一个第二特征图对;所述存储至所述纹理图中的步骤包括:将多个第二特征图对按顺序存储至各纹理区块的各通道中。
可选地,在根据本发明的基于卷积神经网络的图像处理方法中,所述网络参数还包括第二特征图的数量和尺寸,以及下一个数据层所对应的纹理图所包括的纹理区块的数量和纹理图的尺寸,其中,所述第二特征图的尺寸包括第二特征图的横向数据点的数量和纵向数据点的数量;所述纹理区块的数量为ceil(c/8),其中,c为第二特征图的数量,ceil(c/8)表示大于等于(c/8)的最小整数;所述纹理图的尺寸按照以下步骤确定:将纹理区块的数量因数分解为w*h,以使得(w*第二特征图的横向数据点的数量)与(h*第二特征图的纵向数据点的数量)的差值的绝对值最小;所述纹理图的横向数据点的数量为(w*第二特征图的横向数据点的数量),所述纹理图的纵向数据点的数量为(h*第二特征图的纵向数据点的数量)。
可选地,在根据本发明的基于卷积神经网络的图像处理方法中,所述将多个第二特征图对按顺序存储至各纹理区块的各通道中的步骤包括:将第i个第二特征图对存储至第ceil(i/4)个纹理区块的第(mod(i-1,4)+1)个通道中,其中,mod(i-1,4)表示(i-1)除以4所得的余数。
可选地,在根据本发明的基于卷积神经网络的图像处理方法中,所述移动终端还包括存储器,所述存储器中存储有待处理图像;所述方法还包括:将存储器中的所述待处理图像缓存至所述图形存储器中,并将所述待处理图像作为第一个数据层输入到所述卷积神经网络;所述卷积神经网络的第一个处理层对所述待处理图像进行渲染处理,以生成第二个数据层的多个特征图;将第二个数据层的多个特征图中的数据转化为第一数据类型,存储至所述纹理图中。
可选地,在根据本发明的基于卷积神经网络的图像处理方法中,还包括:将纹理图中的数据转化为第二数据类型,以获取倒数第二个数据层的多个特征图;所述卷积神经网络的最后一个处理层对倒数第二个数据层的多个特征图进行渲染处理,以生成结果图像;将所述结果图像输出至所述存储器中进行存储。
可选地,在根据本发明的基于卷积神经网络的图像处理方法中,所述渲染处理的步骤由OpenGL ES 3.x图形程序接口来完成,所述图形存储器中还存储有适于执行所述渲染处理的OpenGL ES 3.x脚本。
根据本发明的另一个方面,提供一种移动终端,包括:至少一个图形处理器;和存储有程序指令的存储器,其中,所述程序指令被配置为适于由所述至少一个图形处理器执行,所述程序指令包括用于执行如上所述的基于卷积神经网络的图像处理方法的指令。
根据本发明的又一个方面,提供一种存储有程序指令的可读存储介质,当所述程序指令被移动终端读取并执行时,使得所述移动终端执行如上所述的基于卷积神经网络的图像处理方法。
根据本发明的技术方案,纹理图中包括多个纹理区块,每个纹理区块包括RGBA四个通道,每个通道以uint32(第一数据类型)来存储数据。在CNN的各处理层中,参与计算的数据、以及其渲染所得出的特征图中的数据均为第二数据类型(float16),但在纹理图中,将两个特征图中的float16的数据转化为一个第一数据类型(uint32)的数据进行存储。这样,纹理图中的每一个通道可以存储两个特征图,提高了多通道的存储效率以及并行计算的效率,实现了CNN图像处理的加速。
本发明的技术方案中,数据层的所有特征图均存储于一张纹理图中。在CNN的处理层进行渲染处理时,从纹理图的各纹理区块的各通道中读取数据,进行分块渲染,无需创建多个纹理,避免了纹理渲染过程中不断地绑定、解绑纹理的操作,从而节省了计算时间,提高了计算效率。
由于本发明的纹理图中存储了当前参与计算的所有特征图,且图形存储器中存储有CNN的各项网络参数以及OpenGL ES 3.x脚本,在GPU执行CNN计算时,可以直接从图形存储器中快速读写数据并进行渲染。除了待处理图像的输入以及结果图像的输出,各处理层的计算完全由GPU完成,而无需与CPU、内存进行数据交换,充分利用了GPU并行浮点数计算的优势,大大提高了计算效率。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
为了实现上述以及相关目的,本文结合下面的描述和附图来描述某些说明性方面,这些方面指示了可以实践本文所公开的原理的各种方式,并且所有方面及其等效方面旨在落入所要求保护的主题的范围内。通过结合附图阅读下面的详细描述,本公开的上述以及其它目的、特征和优势将变得更加明显。遍及本公开,相同的附图标记通常指代相同的部件或元素。
图1示出了根据本发明一个实施例的移动终端100的示意图;
图2示出了根据本发明一个实施例的卷积神经网络的结构图;
图3示出了根据本发明一个实施例的中央处理器103、图形处理器104、以及存储器150的示意图;
图4示出了根据本发明一个实施例的基于卷积神经网络的图像处理方法400的流程图;以及
图5示出了根据本发明一个实施例的纹理图的示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
图1示出了根据本发明一个实施例的移动终端100的示意图。移动终端100例如可以是手机、平板电脑、游戏机、多媒体设备、智能可穿戴设备等,但不限于此。如图1所示,移动终端100可以包括存储器接口102、图形处理器(GPU,Graphics Processing Unit)103、中央处理器(CPU,Central Processing Unit)104以及外围接口106。
存储器接口102、图形处理器103、中央处理器104以及外围接口106既可以是分立元件,也可以集成在一个或多个集成电路中。在移动终端100中,各种元件可以通过一条或多条通信总线或信号线来耦合。传感器、设备和子系统可以耦合到外围接口106,以便帮助实现多种功能。
例如,运动传感器110、光线传感器112和距离传感器114可以耦合到外围接口106,以方便定向、照明和测距等功能。其他传感器116同样可以与外围接口106相连,例如定位系统(例如GPS接收机)、温度传感器、生物测定传感器或其他感测设备,由此可以帮助实施相关的功能。
相机子系统120和光学传感器122可以用于方便诸如记录照片和视频剪辑的相机功能的实现,其中所述相机子系统和光学传感器例如可以是电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)光学传感器。可以通过一个或多个无线通信子系统124来帮助实现通信功能,其中无线通信子系统可以包括射频接收机和发射机和/或光(例如红外)接收机和发射机。无线通信子系统124的特定设计和实施方式可以取决于移动终端100所支持的一个或多个通信网络。例如,移动终端100可以包括被设计成支持LTE、3G、GSM网络、GPRS网络、EDGE网络、Wi-Fi或WiMax网络以及BlueboothTM网络的通信子系统124。
音频子系统126可以与扬声器128以及麦克风130相耦合,以便帮助实施启用语音的功能,例如语音识别、语音复制、数字记录和电话功能。I/O子系统140可以包括触摸屏控制器142和/或一个或多个其他输入控制器144。触摸屏控制器142可以耦合到触摸屏146。举例来说,该触摸屏146和触摸屏控制器142可以使用多种触摸感测技术中的任何一种来检测与之进行的接触和移动或是暂停,其中感测技术包括但不局限于电容性、电阻性、红外和表面声波技术。一个或多个其他输入控制器144可以耦合到其他输入/控制设备148,例如一个或多个按钮、摇杆开关、拇指旋轮、红外端口、USB端口、和/或指示笔之类的指点设备。所述一个或多个按钮(未显示)可以包括用于控制扬声器128和/或麦克风130音量的向上/向下按钮。
存储器接口102可以与存储器150相耦合。该存储器150可以包括高速随机存取存储器和/或非易失性存储器,例如一个或多个磁盘存储设备,一个或多个光学存储设备,和/或闪存存储器(例如NAND,NOR)。存储器150可以存储操作系统152,例如Android、iOS或是Windows Phone之类的操作系统。该操作系统152可以包括用于处理基本系统服务以及执行依赖于硬件的任务的指令。存储器150还可以存储应用154。在移动设备运行时,会从存储器150中加载操作系统152,并且由处理器104执行。应用154在运行时,也会从存储器150中加载,并由中央处理器104和/或图形处理器103执行。应用154运行在操作系统152之上,利用操作系统以及底层硬件提供的接口实现各种用户期望的功能,如即时通信、网页浏览、图片管理等。应用154可以是独立于操作系统152提供的,也可以是操作系统152自带的。另外,应用154被安装到移动终端100中时,也可以向操作系统152中添加驱动模块。
在上述各种应用154中,其中的一种应用为根据本发明的基于卷积神经网络(Convolutional Neural Network,下文简称为CNN)的图像处理装置156。装置156实际上是一系列代码指令,其用于指示GPU103执行相应的图像处理操作。根据一种实施例,装置156由OpenGL ES 3.x图形程序接口来实现,即,装置156的代码需符合OpenGL ES 3.x的编码规则,从而提高编码效率、以及提高GPU的图像渲染效率。装置156中的CNN已经完成训练,适于接收待处理图像,将待处理图像作为输入,进行前向计算,从而完成对待处理图像的图像处理(例如图像分类、图像分割、图像风格转换、图像画质改善等),最终输出结果图像。
图2示出了根据本发明一个实施例的CNN的结构图。如图2所示,本发明的CNN包括多个数据层(A)和多个处理层(B),每个数据层包括多个特征图,一个特征图中包括多个数据点,每个数据点可以用来表示一个像素值。处理层用于对上一个数据层的多个特征图进行处理,以生成下一个数据层的多个特征图。处理层例如可以是卷积层、反卷积层、池化层、激活层等,但不限于此。待处理图像作为第一个数据层A1输入CNN,经过各处理层的处理,最终得到最后一个数据层An,即结果图像,作为CNN的输出。
图3示出了根据本发明一个实施例的图形处理器(GPU)103、中央处理器(CPU)104、以及存储器150的示意图,以更清楚地说明本发明的基于CNN的图像处理过程。
如图3所示,GPU103包括着色器和图形存储器。着色器进一步包括顶点着色器和片段着色器,顶点着色器用于插值纹理的坐标位置,片段着色器用于对每个坐标位置进行相应的计算处理,顶点着色器和片段着色器相互配合,可以实现对图像的渲染处理,也即,可以实现CNN中各处理层的计算功能。图形存储器用于存储GPU计算所需要的数据。
GPU103和CPU104均可以从存储器150中读取数据,存储器150例如可以是内存。存储器150中存储有CNN的各项网络参数,例如每一个数据层的特征图的数量和尺寸、每一个数据层所对应的纹理图的尺寸以及其所包括的纹理区块的数量等。此外,存储器150中还存储有CNN各处理层所对应的OpenGL ES 3.x渲染脚本(即基于CNN的图像处理装置156),以及待处理图像中各像素的RGB值。
传统方法通常采用CPU104来实现如图2所示的CNN的前向计算。由于CNN中涉及大量的浮点数计算,而CPU的浮点数计算效率较低,因此,采用CPU来执行CNN计算效率较低,无法满足移动终端的复杂图像处理需求。
而对于本发明的基于CNN的图像处理方法来说,GPU103的图形存储器可用于存储CNN的网络参数(包括每一个数据层的特征图的数量和尺寸、每一个数据层所对应的纹理图的尺寸以及其所包括的纹理区块的数量等)、纹理图(纹理图以第一数据类型存储有CNN当前数据层的特征图)以及基于OpenGL ES 3.x来编写的各处理层的渲染脚本(即装置156)。
特别地,本发明的纹理图中以第一数据类型(uint32)存储数据,对于CNN的各处理层,先将纹理图中的数据转化为第二数据类型(float16),再对第二数据类型的数据进行渲染处理。一个uint32可以转化成两个float16,因此,本发明的纹理图可以存储八通道数据,提高了数据存储效率。
此外,根据本发明的技术方案,数据层的所有特征图均存储于一张纹理图中,在CNN的各处理层进行渲染处理时,从纹理图的各纹理区块的各通道中读取数据,进行分块渲染,无需创建多个纹理,避免了纹理渲染过程中不断地绑定、解绑纹理的操作,从而节省了计算时间,提高了计算效率。
在执行本发明的基于CNN的图像处理方法时,CPU104向GPU103发出执行CNN计算的指示,GPU103接收该指示,将待处理图像中各像素的RGB值、CNN网络参数以及CNN渲染脚本从存储器150拷贝到图形存储器中。对于CNN的每一个处理层,着色器从图形存储器的纹理图中读取当前数据层的多个特征图、网络参数和渲染脚本,将各特征图中的数据转化为第二数据类型,再按照渲染脚本对第二数据类型的数据进行处理,得到下一个数据层的多个特征图,将下一个数据层的各特征图中的数据转化为第一数据类型并存储于纹理图中。当CNN的最后一个处理层完成计算后,即可得到结果图像。GPU103将结果图像输出至存储器150,并通知CPU104计算完成。在本发明的技术方案中,除了待处理图像的输入以及结果图像的输出,CNN各处理层的计算完全由GPU完成,而无需与CPU或存储器进行数据交换,充分利用了GPU并行浮点数计算的优势,大大提高了计算效率。
图4示出了根据本发明一个实施例的基于CNN的图像处理方法400的流程图。在本发明中,CNN已经完成了训练,适于接收待处理图像,将待处理图像作为输入,进行前向计算,从而完成对待处理图像的图像处理(例如图像分类、图像分割、图像风格转换、图像画质改善等),最终输出结果图像。本发明的CNN包括多个数据层和多个处理层,每个数据层包括多个特征图。
方法400适于在具有GPU的移动终端(例如前述移动终端100)中执行。GPU中包括图形存储器。GPU的图形存储器中存储有纹理图和网络参数,纹理图中以第一数据类型存储有当前数据层的多个第一特征图,网络参数包括每一个数据层的特征图的数量和尺寸、每一个数据层所对应的纹理图的尺寸和其所包括的纹理区块的数量,等等。应当指出,这些网络参数是事先确定的,在方法400的执行过程中,可以直接从图形存储器中取出网络参数使用,而无需重新计算。
如图4所示,方法400始于步骤S410。
在步骤S410中,将纹理图中的数据转化为第二数据类型,以获取当前数据层的多个第一特征图。
应当指出,此处的当前数据层(Anow)不是特指CNN中的某一个数据层,而可以是CNN中除了待处理图像(第一个数据层A1)和结果图像(最后一个数据层An)之外的任意一个数据层。类似地,下文中的当前处理层(Bnow)、下一个数据层(Anext)也不是特指CNN中的某一个处理层或某一个数据层,而是相对于当前数据层而言。当前处理层、下一个数据层分别指的是与当前数据层相连的处理层、以及位于当前数据层之后的数据层。此外,此处的第一特征图、以及下文中的第二特征图中也不是特指某一个特征图,只是为了方便表述,而将当前数据层的特征图命名为第一特征图、将下一个数据层的特征图命名为第二特征图。例如,如图2所示,当前数据层Anow可以是数据层A2或数据层A3。若数据层A2为当前数据层,则当前处理层为处理层B2,下一个数据层为数据层A3,第一特征图指的是数据层A2中的特征图,第二特征图指的是数据层A3中的特征图。若数据层A3为当前数据层,则当前处理层为处理层B3,下一个数据层为数据层A4,第一特征图指的是数据层A3中的特征图,第二特征图指的是数据层A4中的特征图。
纹理图中以第一数据类型存储有当前数据层的多个第一特征图。根据一种实施例,第一数据类型为32位无符号整型(uint32),第二数据类型为16位浮点型(float16),从而实现纹理图的通道扩展,提高存储以及并行计算的效率。也就是说,纹理图中的一个uint32的数据实际上存储的是两个第一特征图中的两个float16数据。根据一种实施例,可以按照以下步骤将纹理图中的数据转化为第二数据类型:将纹理图中的每一个32位无符号整数转化为两个16位浮点数,其中,uint32的高16位可以转化为一个float16,低16位可以转化为另一个float16。具体地,上述将uint32拆分为两个float16的过程可以采用OpenGLES 3.x提供的vec2unpackHalf2x16(uint32v)函数来实现。
随后,在步骤S420中,当前处理层对第二数据类型的多个第一特征图进行渲染处理,以生成下一个数据层的多个第二特征图。应当指出,当前处理层包括多种类型,例如卷积层、反卷积层、池化层、激活层,等等。根据一种实施例,渲染处理的步骤由OpenGL ES 3.x图形程序接口来完成,图形存储器中存储有适于执行渲染处理的OpenGL ES 3.x脚本。
应当指出,由于OpenGL ES 3.x在脚本中传入的参数有限,当前处理层在生成下一个数据层时,可以依次渲染下一个数据层的每一个纹理区块。将当前处理层的渲染操作标记为Φ,则当前数据层的各纹理区块Mi(i=1,2,…,c,c为当前数据层的纹理区块的数量)、下一个数据层的纹理区块Nk(k=1,2,…,d,d为下一个数据层的纹理区块的数量)存在以下关系:
其中,∑(·)表示对当前数据层的各纹理区块Mi(i=1,2,3)进行Φ处理后的某种组合,当然,不同的当前处理层对于不同的组合,例如,若当前处理层为卷积层,则∑(·)表示求和。
经过步骤S420的处理,可以得到下一个数据层的多个第二特征图,这时,第二特征图中的数据仍为第二数据类型,即float16。
随后,在步骤S430中,将多个第二特征图中的数据转化为第一数据类型,存储至所述纹理图中。根据一种实施例,步骤S430进一步可以按照以下步骤实施:将多个第二特征图两两进行组合,得到多个第二特征图对;对于每一个第二特征图对,将其中一个第二特征图的每一个16位浮点数与另一个第二特征图的相应位置的16位浮点数转化为一个32位无符号整数。例如,将第二特征图1中坐标(1,1)处的float16与第二特征图2中坐标(1,1)处的float16合并,转化为一个uint32。具体地,上述将两个float16合并为一个uint32的过程可以采用OpenGL ES 3.x提供的uint32packHalf2x16(vec2v)函数来实现。
在将多个第二特征图中的数据转化为第一数据类型(uint32)之后,将第一数据类型的数据存储至纹理图中。应当指出,此处的纹理图是一张大纹理图,该纹理图被划分为多个纹理区块,每个纹理区块包括RGBA四个通道,每个通道可以存储一个第二特征图对,即两个第二特征图。根据一种实施例,步骤S430相当于,将多个第二特征图对按顺序存储至各纹理区块的各通道中。
根据一种实施例,图形存储器所存储的网络参数还包括第二特征图的数量和尺寸(第二特征图的尺寸包括第二特征图的横向数据点的数量和纵向数据点的数量),以及下一个数据层所对应的纹理图所包括的纹理区块的数量以及该纹理图的尺寸。其中,纹理区块的数量根据第二特征图的数量来确定,纹理图的尺寸根据第二特征图的尺寸和纹理区块的数量来确定。例如,纹理区块的数量为ceil(c/8),其中,c为第二特征图的数量,ceil(c/8)表示对(c/8)向上取整,即,取大于等于(c/8)的最小整数。纹理图的尺寸可以按照以下步骤确定:将纹理区块的数量因数分解为w*h,以使得(w*第二特征图的横向数据点的数量)与(h*第二特征图的纵向数据点的数量)的差值的绝对值最小;将纹理图的横向数据点的数量设置为(w*第二特征图的横向数据点的数量),纵向数据点的数量设置为(h*第二特征图的纵向数据点的数量)。
例如,经过前述步骤S410、S420,得到了45个第二特征图,每个特征图所包括的横向数据点的数量为80,纵向数据点的数量为64,即,第二特征图的数量为45,尺寸为80*64。则,纹理区块的数量为ceil(45/8)=6。将6因数分解为w*h,有四种分解方法:1)w=1,h=6;2)w=2,h=3;3)w=3,h=2;4)w=6,h=1。将第二特征图的横向数据点的数量记为a,纵向数据点的数量记为b,分别计算在上述每一种分解方法下,|w*a-h*b|的值:
1)|w*a-h*b|=|1*80-6*64|=304;
2)|w*a-h*b|=|2*80-3*64|=32;
3)|w*a-h*b|=|3*80-2*64|=112;
4)|w*a-h*b|=|6*80-1*64|=416;
显然,在上述四种分解方法中,第2)种分解方法的|w*a-h*b|的值最小,因此,纹理图横向上有2个纹理区块,纵向上有3个纹理区块,纹理图的横向数据点的数量为2*80=160,纵向数据点的数量为3*64=192,也即,纹理图的尺寸为(2*80)*(3*64)=160*192。
按照上述方法设置纹理图的尺寸是因为,OpenGL ES 3.x支持的纹理的大小有限制,纹理的宽和高均需限制在2048个像素的范围内。上述方法可以使纹理图的横向数据点的数量与纵向数据点的数量最为接近,从而可以使得有限的空间内所存储的纹理数据量最大化。
对将纹理图划分为多个纹理区块可以将多个第二特征图存储于一个纹理图中,在CNN的各处理层进行渲染处理时,从纹理图的各纹理区块的各通道中读取数据,进行分块渲染,无需创建多个纹理,避免了纹理渲染过程中不断地绑定、解绑纹理的操作,从而节省了计算时间,提高了计算效率。通过设置纹理图的尺寸,可以确定纹理区块的排列情况,使得纹理图中的数据存储得更为紧凑,提高存储空间的利用率。
应当指出,以上详细介绍纹理区块的数量以及纹理图的尺寸的确定方法,只是为了更清楚地说明本发明的原理以及优点。但是,各数据层所对应的纹理图所包括的纹理区块的数量以及纹理图的尺寸并非在执行方法400的时候才确定,而是在执行方法400之前,作为CNN的网络参数预先存储于图形存储器中。在执行方法400时,可以直接从图形存储器中读取,无需重新计算。
基于纹理区块的数量以及纹理图的尺寸(纹理图的尺寸相当于纹理区块的排列情况),可以将多个第二特征图存储于纹理图中。根据一种实施例,将第i个第二特征图对存储至第ceil(i/4)个纹理区块的第(mod(i-1,4)+1)个通道中,其中,mod(i-1,4)表示(i-1)除以4所得的余数,第i个第二特征图对包括第二特征图(2i-1)以及第二特征图2i两个第二特征图。例如,经过前述步骤S410、S420,得到了45个第二特征图,每个特征图所包括的横向数据点的数量为80,纵向数据点的数量为64,即,第二特征图的数量为45,尺寸为80*64。这45个第二特征图可以组成(第二特征图1,第二特征图2)、(第二特征图3,第二特征图4)、…、(第二特征图45,NULL)共23个第二特征图对。相应地,下一个数据层所对应的纹理图中所包括的纹理区块的数量为ceil(45/8)=6,纹理图的尺寸为(2*80)*(3*64)=160*192。
如图5所示,将第二特征图对1存储至第1个纹理区块的第1个通道(R通道)中,也即,将第二特征图1和第二特征图2存储至第1个纹理区块的第R通道中。该通道中包括80*64个数据点,每个数据点存储一个uint32数据,这个uint32数据由第二特征图1和第二特征图2的相应位置的float16合并而成。例如,该通道的坐标位置为(1,1)的数据点存储一个uint32数据,这个uint32数据由第二特征图1的(1,1)位置处的float16和第二特征图2的(1,1)位置处的float16合并而成。
与上述过程类似地,如图5所示,将第二特征图对2存储至第1个纹理区块的第2个通道(G通道)中,将第二特征图对3存储至第1个纹理区块的第3个通道(B通道)中,以此类推,将第二特征图对22存储至第6个纹理区块的第2个通道(G通道)中,将第二特征图对23存储至第6个纹理区块的第3个通道(B通道)中。至此,所有45个第二特征图都完成了存储。应当指出,第二特征图对23存在一定的特殊性,因为其仅包括一个第二特征图45。在将第二特征图对23存储至第6个纹理区块的B通道时,可以直接将第二特征图45中的float16数据转化为uint32,也可以将float16数据与值为0的float16合并为一个uint32。另外,应当注意,在45个第二特征图都完成存储后,第6个纹理区块的第4个通道(A通道)未存储数据,基于补全原则,可以将第6个纹理区块的第4个通道的数据全部填充为0。
经过步骤S430,下一个数据层(Anext)的多个第二特征图以第一数据类型存储于纹理图中。接下来,可以以该数据层(Anext)作为当前数据层(Anow),再次执行方法400,直至下一个数据层(Anext)为倒数第二个数据层为止。例如,如图2所示,在CNN中,数据层A2~数据层A3的计算过程可以用方法400来执行,数据层A2为当前数据层,数据层A3为下一个数据层;随后,将数据层A3作为当前数据层,数据层A3~数据层A4的计算过程也可以用方法400来执行,得到下一个数据层A4;以此类推,直至将数据层A(n-2)作为当前数据层,得到下一个数据层A(n-1)。
数据层A(n-1)的下一个数据层为数据层An,即结果图像。数据层A(n-1)~数据层An的计算过程有一定特殊性,其不一定适用方法400。若结果图像需要继续存储于GPU的图形存储器中以备他用,则数据层An可以按照步骤S430的方法存储于纹理图中,数据层A(n-1)~数据层An的计算过程适用方法400。若结果图像不需要继续存储于GPU中,而是直接作为图像处理结果反馈给CPU(进一步可以展示给用户),则数据层An的数据无需被转化为第一数据类型、也无需存储于纹理图中,不必执行步骤S430,因此,这种情况下,数据层A(n-1)~数据层An的计算过程不再适用方法400。
根据一种实施例,在结果图像直接作为图像处理结果反馈给CPU的情况下,数据层A(n-1)~数据层An的计算过程如下:将纹理图中的数据转化为第二数据类型,以获取倒数第二个数据层(A(n-1))的多个特征图;卷积神经网络的最后一个处理层(B(n-1))对倒数第二个数据层的多个特征图进行渲染处理,以生成结果图像;将结果图像输出至存储器中进行存储。同时,GPU向CPU发出图像处理完成的指令,CPU可以从存储器中读取结果图像以展示给用户或做他用。
此外,应当指出,数据层A1~数据层A2的计算过程也有一定的特殊性。因为数据层A1为待处理图像,此时,纹理图中尚未存储数据。因此,数据层A1~数据层A2的计算过程不必执行步骤S410,不适用方法400。
根据一种实施例,数据层A1~数据层A2的计算过程如下:将存储器中的待处理图像缓存至所述图形存储器中,并将待处理图像作为第一个数据层(A1)输入到卷积神经网络;卷积神经网络的第一个处理层(B1)对待处理图像进行渲染处理,以生成第二个数据层(A2)的多个特征图;将第二个数据层的多个特征图中的数据转化为第一数据类型,存储至纹理图中。
根据本发明的技术方案,纹理图中包括多个纹理区块,每个纹理区块包括RGBA四个通道,每个通道以uint32(第一数据类型)来存储数据。在CNN的各处理层中,参与计算的数据、以及其渲染所得出的特征图中的数据均为第二数据类型(float16),但在纹理图中,将两个特征图中的float16的数据转化为一个第一数据类型(uint32)的数据进行存储。这样,纹理图中的每一个通道可以存储两个特征图,提高了多通道的存储效率以及并行计算的效率,实现了CNN图像处理的加速。
本发明的技术方案中,数据层的所有特征图均存储于一张纹理图中。在CNN的处理层进行渲染处理时,从纹理图的各纹理区块的各通道中读取数据,进行分块渲染,无需创建多个纹理,避免了纹理渲染过程中不断地绑定、解绑纹理的操作,从而节省了计算时间,提高了计算效率。
由于本发明的纹理图中存储了当前参与计算的所有特征图,且图形存储器中存储有CNN的各项网络参数以及OpenGL ES 3.x脚本,在GPU执行CNN计算时,可以直接从图形存储器中快速读写数据并进行渲染。除了待处理图像的输入以及结果图像的输出,各处理层的计算完全由GPU完成,而无需与CPU或内存进行数据交换,充分利用了GPU并行浮点数计算的优势,大大提高了计算效率。
经过测试,本发明的优化后的GPU图像处理方案与传统的CPU图像处理方案相比,计算效率可以提高16~20倍。
A9:A1-8中任一项所述的方法,其中,所述渲染处理的步骤由OpenGL ES3.x图形程序接口来完成,所述图形存储器中还存储有适于执行所述渲染处理的OpenGL ES 3.x脚本。
这里描述的各种技术可结合硬件或软件,或者它们的组合一起实现。从而,本发明的方法和设备,或者本发明的方法和设备的某些方面或部分可采取嵌入有形媒介,例如可移动硬盘、U盘、软盘、CD-ROM或者其它任意机器可读的存储介质中的程序代码(即指令)的形式,其中当程序被载入诸如计算机之类的机器,并被所述机器执行时,所述机器变成实践本发明的设备。
在程序代码在可编程计算机上执行的情况下,计算设备/移动终端一般包括处理器、处理器可读的存储介质(包括易失性和非易失性存储器和/或存储元件),至少一个输入装置,和至少一个输出装置。其中,存储器被配置用于存储程序代码;处理器被配置用于根据该存储器中存储的所述程序代码中的指令,执行本发明的基于卷积神经网络的图像处理方法。
以示例而非限制的方式,可读介质包括可读存储介质和通信介质。可读存储介质存储诸如计算机可读指令、数据结构、程序模块或其它数据等信息。通信介质一般以诸如载波或其它传输机制等已调制数据信号来体现计算机可读指令、数据结构、程序模块或其它数据,并且包括任何信息传递介质。以上的任一种的组合也包括在可读介质的范围之内。
在此处所提供的说明书中,算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与本发明的示例一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下被实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员应当理解在本文所公开的示例中的设备的模块或单元或组件可以布置在如该实施例中所描述的设备中,或者可替换地可以定位在与该示例中的设备不同的一个或多个设备中。前述示例中的模块可以组合为一个模块或者此外可以分成多个子模块。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
此外,所述实施例中的一些在此被描述成可以由计算机系统的处理器或者由执行所述功能的其它装置实施的方法或方法元素的组合。因此,具有用于实施所述方法或方法元素的必要指令的处理器形成用于实施该方法或方法元素的装置。此外,装置实施例的在此所述的元素是如下装置的例子:该装置用于实施由为了实施该发明的目的的元素所执行的功能。
如在此所使用的那样,除非另行规定,使用序数词“第一”、“第二”、“第三”等等来描述普通对象仅仅表示涉及类似对象的不同实例,并且并不意图暗示这样被描述的对象必须具有时间上、空间上、排序方面或者以任意其它方式的给定顺序。
尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的而非限制性的,本发明的范围由所附权利要求书限定。

Claims (10)

1.一种基于卷积神经网络的图像处理方法,所述卷积神经网络包括多个数据层和多个处理层,每个数据层包括多个特征图,所述方法在移动终端的图形处理器中执行,所述图形处理器包括图形存储器,所述图形存储器中存储有纹理图,所述纹理图中以第一数据类型存储有当前数据层的多个第一特征图,所述方法包括:
将纹理图中的数据转化为第二数据类型,以获取当前数据层的多个第一特征图;
当前处理层对第二数据类型的多个第一特征图进行渲染处理,以生成下一个数据层的多个第二特征图;
将所述多个第二特征图中的数据转化为第一数据类型,存储至所述纹理图中。
2.如权利要求1所述的方法,其中,所述第一数据类型为32位无符号整型,所述第二数据类型为16位浮点型;
所述将纹理图中的数据转化为第二数据类型的步骤包括:将纹理图中的每一个32位无符号整数转化为两个16位浮点数。
3.如权利要求2所述的方法,其中,所述将所述多个第二特征图中的数据转化为第一数据类型的步骤包括:
将所述多个第二特征图两两进行组合,得到多个第二特征图对;
对于每一个第二特征图对,将其中一个第二特征图的每一个16位浮点数与另一个第二特征图的相应位置的16位浮点数转化为一个32位无符号整数。
4.如权利要求3所述的方法,其中,所述纹理图包括多个纹理区块,每个纹理区块包括RGBA四个通道,每个通道适于存储一个第二特征图对;
所述存储至所述纹理图中的步骤包括:
将多个第二特征图对按顺序存储至各纹理区块的各通道中。
5.如权利要求4所述的方法,其中,所述网络参数还包括第二特征图的数量和尺寸,以及下一个数据层所对应的纹理图所包括的纹理区块的数量和纹理图的尺寸,其中,所述第二特征图的尺寸包括第二特征图的横向数据点的数量和纵向数据点的数量;
所述纹理区块的数量为ceil(c/8),其中,c为第二特征图的数量,ceil(c/8)表示大于等于(c/8)的最小整数;
所述纹理图的尺寸按照以下步骤确定:
将纹理区块的数量因数分解为w*h,以使得(w*第二特征图的横向数据点的数量)与(h*第二特征图的纵向数据点的数量)的差值的绝对值最小;
所述纹理图的横向数据点的数量为(w*第二特征图的横向数据点的数量),所述纹理图的纵向数据点的数量为(h*第二特征图的纵向数据点的数量)。
6.如权利要求5所述的方法,其中,所述将多个第二特征图对按顺序存储至各纹理区块的各通道中的步骤包括:将第i个第二特征图对存储至第ceil(i/4)个纹理区块的第(mod(i-1,4)+1)个通道中,其中,mod(i-1,4)表示(i-1)除以4所得的余数。
7.如权利要求1-6中任一项所述的方法,其中,所述移动终端还包括存储器,所述存储器中存储有待处理图像;所述方法还包括:
将存储器中的所述待处理图像缓存至所述图形存储器中,并将所述待处理图像作为第一个数据层输入到所述卷积神经网络;
所述卷积神经网络的第一个处理层对所述待处理图像进行渲染处理,以生成第二个数据层的多个特征图;
将第二个数据层的多个特征图中的数据转化为第一数据类型,存储至所述纹理图中。
8.如权利要求7所述的方法,其中,还包括:
将纹理图中的数据转化为第二数据类型,以获取倒数第二个数据层的多个特征图;
所述卷积神经网络的最后一个处理层对倒数第二个数据层的多个特征图进行渲染处理,以生成结果图像;
将所述结果图像输出至所述存储器中进行存储。
9.一种移动终端,包括:
至少一个图形处理器;和
存储有程序指令的存储器,其中,所述程序指令被配置为适于由所述至少一个图形处理器执行,所述程序指令包括用于执行如权利要求1-8中任一项所述的基于卷积神经网络的图像处理方法的指令。
10.一种存储有程序指令的可读存储介质,当所述程序指令被移动终端读取并执行时,使得所述移动终端执行如权利要求1-8中任一项所述的基于卷积神经网络的图像处理方法。
CN201711135304.9A 2017-11-16 2017-11-16 一种基于卷积神经网络的图像处理方法及移动终端 Active CN107909537B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711135304.9A CN107909537B (zh) 2017-11-16 2017-11-16 一种基于卷积神经网络的图像处理方法及移动终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711135304.9A CN107909537B (zh) 2017-11-16 2017-11-16 一种基于卷积神经网络的图像处理方法及移动终端

Publications (2)

Publication Number Publication Date
CN107909537A true CN107909537A (zh) 2018-04-13
CN107909537B CN107909537B (zh) 2020-11-06

Family

ID=61844294

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711135304.9A Active CN107909537B (zh) 2017-11-16 2017-11-16 一种基于卷积神经网络的图像处理方法及移动终端

Country Status (1)

Country Link
CN (1) CN107909537B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097525A (zh) * 2019-04-23 2019-08-06 厦门美图之家科技有限公司 一种图像渲染方法、装置和计算设备
CN110135580A (zh) * 2019-04-26 2019-08-16 华中科技大学 一种卷积网络全整型量化方法及其应用方法
CN110163790A (zh) * 2018-06-11 2019-08-23 腾讯科技(深圳)有限公司 图像处理方法、装置、系统、存储介质和计算机设备
CN110175949A (zh) * 2018-06-11 2019-08-27 腾讯科技(深圳)有限公司 图像处理方法、装置、系统、存储介质和计算机设备
CN110309855A (zh) * 2019-05-30 2019-10-08 上海联影智能医疗科技有限公司 图像分割的训练方法、计算机设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1441183A1 (en) * 2003-01-27 2004-07-28 Tecnocasa S.R.L. Electronic hydraulic device for heat pumps
CN103985130A (zh) * 2014-05-27 2014-08-13 华东理工大学 一种针对复杂纹理图像的图像显著性分析方法
CN105528191A (zh) * 2015-12-01 2016-04-27 中国科学院计算技术研究所 数据累加装置、方法及数字信号处理装置
CN105678680A (zh) * 2015-12-30 2016-06-15 魅族科技(中国)有限公司 一种图像处理的方法和装置
CN105765502A (zh) * 2013-11-19 2016-07-13 株式会社和冠 用于墨水数据生成、墨水数据呈现、墨水数据操纵以及墨水数据通信的方法和系统
US20170148222A1 (en) * 2014-10-31 2017-05-25 Fyusion, Inc. Real-time mobile device capture and generation of art-styled ar/vr content
AU2017101166A4 (en) * 2017-08-25 2017-11-02 Lai, Haodong MR A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1441183A1 (en) * 2003-01-27 2004-07-28 Tecnocasa S.R.L. Electronic hydraulic device for heat pumps
CN105765502A (zh) * 2013-11-19 2016-07-13 株式会社和冠 用于墨水数据生成、墨水数据呈现、墨水数据操纵以及墨水数据通信的方法和系统
CN103985130A (zh) * 2014-05-27 2014-08-13 华东理工大学 一种针对复杂纹理图像的图像显著性分析方法
US20170148222A1 (en) * 2014-10-31 2017-05-25 Fyusion, Inc. Real-time mobile device capture and generation of art-styled ar/vr content
CN105528191A (zh) * 2015-12-01 2016-04-27 中国科学院计算技术研究所 数据累加装置、方法及数字信号处理装置
CN105678680A (zh) * 2015-12-30 2016-06-15 魅族科技(中国)有限公司 一种图像处理的方法和装置
AU2017101166A4 (en) * 2017-08-25 2017-11-02 Lai, Haodong MR A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LEON A. GATYS 等: "Texture Synthesis Using Convolutional Neural Networks", 《ARXIV:1505.07376V3 [CS.CV]》 *
张永良 等: "基于深度学习的小面积指纹匹配方法", 《计算机应用》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110163790A (zh) * 2018-06-11 2019-08-23 腾讯科技(深圳)有限公司 图像处理方法、装置、系统、存储介质和计算机设备
CN110175949A (zh) * 2018-06-11 2019-08-27 腾讯科技(深圳)有限公司 图像处理方法、装置、系统、存储介质和计算机设备
CN110175949B (zh) * 2018-06-11 2024-08-13 腾讯科技(深圳)有限公司 图像处理方法、装置、系统、存储介质和计算机设备
CN110163790B (zh) * 2018-06-11 2024-08-16 腾讯科技(深圳)有限公司 图像处理方法、装置、系统、存储介质和计算机设备
CN110097525A (zh) * 2019-04-23 2019-08-06 厦门美图之家科技有限公司 一种图像渲染方法、装置和计算设备
CN110097525B (zh) * 2019-04-23 2021-01-29 厦门美图之家科技有限公司 一种图像渲染方法、装置和计算设备
CN110135580A (zh) * 2019-04-26 2019-08-16 华中科技大学 一种卷积网络全整型量化方法及其应用方法
CN110309855A (zh) * 2019-05-30 2019-10-08 上海联影智能医疗科技有限公司 图像分割的训练方法、计算机设备及存储介质

Also Published As

Publication number Publication date
CN107909537B (zh) 2020-11-06

Similar Documents

Publication Publication Date Title
CN107909537A (zh) 一种基于卷积神经网络的图像处理方法及移动终端
CN107832843B (zh) 一种信息处理方法及相关产品
US11816559B2 (en) Dilated convolution using systolic array
CN110678841B (zh) 张量处理器指令集架构
CN110738324B (zh) 深度学习系统和用于深度学习系统的处理数据的方法
CN107729997A (zh) 零系数跳过卷积神经网络引擎
CN107424184B (zh) 一种基于卷积神经网络的图像处理方法、装置及移动终端
CN108885596A (zh) 数据处理方法、设备、dma控制器及计算机可读存储介质
US20220083857A1 (en) Convolutional neural network operation method and device
CN107145902A (zh) 一种基于卷积神经网络的图像处理方法、装置及移动终端
CN107808394B (zh) 一种基于卷积神经网络的图像处理方法及移动终端
CN106779057A (zh) 基于gpu的计算二值神经网络卷积的方法及装置
CN111583095B (zh) 图像数据存储方法、图像数据处理方法、系统及相关装置
US12106222B2 (en) Neural network training under memory restraint
CN108681773A (zh) 数据运算的加速方法、装置、终端及可读存储介质
CN112074847A (zh) 拆分用于在神经网络处理器中处理的输入数据
CN107871162A (zh) 一种基于卷积神经网络的图像处理方法及移动终端
US20220188961A1 (en) Data processing method and sensor device for performing the same
CN109324984A (zh) 在卷积运算中使用循环寻址的方法和装置
US20240281393A1 (en) Circular buffer for input and output of tensor computations
US20240281376A1 (en) Decompressing non-contiguous blocks of data using instruction-based direct-memory access (dma)
US11636569B1 (en) Matrix transpose hardware acceleration
CN114626515A (zh) 基于通道数量执行卷积运算的npu装置及其操作方法
EP4268140A1 (en) Tensor controller architecture
CN111291884B (zh) 神经网络剪枝方法、装置、电子设备及计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant