CN113159267A - 一种图像数据处理方法、装置及终端设备 - Google Patents
一种图像数据处理方法、装置及终端设备 Download PDFInfo
- Publication number
- CN113159267A CN113159267A CN202010014406.0A CN202010014406A CN113159267A CN 113159267 A CN113159267 A CN 113159267A CN 202010014406 A CN202010014406 A CN 202010014406A CN 113159267 A CN113159267 A CN 113159267A
- Authority
- CN
- China
- Prior art keywords
- data
- zero
- weight
- initial
- calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 26
- 238000004364 calculation method Methods 0.000 claims abstract description 85
- 238000012545 processing Methods 0.000 claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 49
- 238000010586 diagram Methods 0.000 claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 claims abstract description 25
- 238000013144 data compression Methods 0.000 claims abstract description 20
- 238000004422 calculation algorithm Methods 0.000 claims description 58
- 238000004590 computer program Methods 0.000 claims description 24
- 238000003062 neural network model Methods 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000013500 data storage Methods 0.000 claims description 11
- 238000007906 compression Methods 0.000 abstract description 7
- 230000006835 compression Effects 0.000 abstract description 7
- 230000005540 biological transmission Effects 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 30
- 230000008569 process Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 11
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
本申请适用于数据处理技术领域,提供了一种图像数据处理方法、装置及终端设备,方法包括:所述卷积计算模块获取卷积层的输入数据,并对所述输入数据进行卷积计算,得到所述卷积层的初始特征图数据;所述数据压缩模块对所述初始特征图数据进行去零压缩处理,得到所述初始特征图数据的目标特征图数据。本申请通过用去零处理后的输入数据去索引需要的目标权重数据,输入数据中已经不存在零数据,所以计算时只需要计算非零数据,对于零数据不用再做计算,最后对卷积计算后的初始特征图数据进行去零处理,然后再进行后续计算,提高了神经网络的数据传输和计算速度。
Description
技术领域
本发明属于数据处理技术领域,尤其涉及一种图像数据处理方法、装置及终端设备。
背景技术
神经网络是一种模仿生物神经网络的结构和功能的计算模块,用于对函数进行估计或近似。随着神经网络的发展,神经网络在计算机视觉、自然语言处理等方面均得到了广泛应用。
神经网络在处理大数据时,例如超分辨率图像的处理,由于数据量大,神经网络需要存储、传输和计算大量数据,造成数据传输和数据计算速度慢,甚至会出现计算结果错误的现象,因此,提高神经网络的计算速度是目前需要解决的问题。
发明内容
有鉴于此,本发明实施例提供了一种图像数据处理方法、装置及终端设备,以解决现有技术中神经网络的计算速度慢的问题。
第一方面,本申请实施例提供了一种图像数据处理方法,所述方法用于神经网络模型,所述神经网络模型包括:卷积计算模块和数据压缩模块;
所述方法包括:
将卷积层的输入数据输入所述卷积计算模块,所述卷积计算模块对所述输入数据进行卷积计算,输出卷积层的初始特征图数据至所述数据压缩模块,其中,所述输入数据包括对初始图像数据经过去零处理后的数据或对上一卷积层的初始特征图数据经过去零处理后的数据;
所述数据压缩模块对所述初始特征图数据进行去零处理,输出对应的目标特征图数据。
第二方面,本申请实施例提供了一种图像数据处理装置,包括:
所述神经网络模型和外部控制器,所述外部控制器与所述神经网络模型相连,所述外部控制器将所述输入数据传输至所述神经网络模型。
第三方面,本申请实施例提供了一种终端设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述第一方面中任一项所述的图像数据处理方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述第一方面中任一项所述的图像数据处理方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的图像数据处理方法。
本申请实施例与现有技术相比存在的有益效果是:本申请通过接收卷积层去零处理后的输入数据并对输入数据进行卷积计算,得到卷积层的初始特征图数据,最后对初始特征图数据进行去零压缩,得到目标特征图数据,本申请可以对去零处理后的输入数据直接进行处理,然后将计算后的初始特征图数据进行压缩后再进行后续计算,相较于现有技术中要将压缩后的数据先进行解压缩后再进行数据计算的方法,本申请直接使用去零处理后的数据进行后续计算,提高了神经网络的计算速度。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的神经网络模型的结构示意图;
图2是本发明实施例提供的图像数据处理方法的流程示意图;
图3是本发明实施例提供的图2中步骤101中计算初始特征图数据的方法的流程示意图;
图4是本发明实施例提供的图3中步骤1012获得目标权重数据的方法的具体流程示意图一;
图5是本发明实施例提供的图3中步骤1012获得目标权重数据的方法的具体流程示意图二;
图6是本发明实施例提供的图1中步骤102数据去零处理的方法的流程示意图;
图7是本发明实施例提供的图像数据处理装置的结构示意图;
图8是本申请一实施例提供的终端设备的结构示意图;
图9是本申请一实施例提供的计算机的部分结构的框图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
为了加速神经网络的处理过程,其中一种加速方法是将数据压缩,现有关于压缩计算的方案,如Cambricon-x、Cnvlutin、DEEP COMPRESSION、EIE、Xiaowei Li、Eyeriss等。由于压缩后的数据不会按照顺序排列,压缩后的数据的顺序是混乱的,目前,神经网络在处理压缩后的数据时,需要将压缩后的数据解压缩后才能进行处理,否则神经网络会出现错误,这样的处理过程降低了神经网络对数据的处理速度。
基于上述问题,本申请提供了一种图像数据处理方法、装置及终端设备,对于神经网络中的每一个卷积层,根据当前卷积层对应的算法,将初始图像数据进行去零后输入神经网络模型中进行计算,在有多个卷积层的神经网络中对当前卷积层进行计算时,将上一卷积层得到的初始特征图数据进行去零处理后送入神经网络模型中进行计算,减少了数据运算量,提高了数据处理的运行速度。
如图1所示,本申请图像数据处理方法用于神经网络模型200,所述神经网络模型200包括:卷积计算模块210和数据压缩模块220,所述卷积计算模块210和数据压缩模块220相连。
卷积计算模块210包括:数据存储单元212、控制单元215、计算单元217和权重存储单元216,所述权重存储单元216存储神经网络的初始权重数据,数据存储单元212存储各个卷积层的输入数据,计算单元217存储各个卷积层对应的预设算法,并对输入数据进行卷积计算,得到初始特征图数据;
数据压缩模块220将初始特征图数据进行去零处理,得到目标特征图数据;
控制单元215控制数据存储单元214、计算单元217、权重存储单元216和数据压缩模块220之间的数据传输以及各个单元/模块的运行。
在本实施例中,初始权重数据可以是神经网络中所有卷积层的权重数据,初始权重数据可以预先存储在权重存储单元中,也可以从外部控制器传输至权重存储单元。
如图1所示,在一种可能的实现方式中,卷积计算模块210还可以包括:数据接口单元211、数据缓存单元212和控制接口单元213;
数据接口单元211获取外部控制器中存储的初始权重数据和输入数据,将初始权重数据和输入数据传输至数据缓存单元212;数据缓存单元212对初始权重数据和输入数据进行缓存后,将初始权重数据传输至权重存储单元216进行存储,将输入数据传输至数据存储单元214进行存储;
控制接口单元213获取外部控制器中的控制信号,并将控制信号传输至控制单元215。
如图1所示,在一种可能的实现方式中,神经网络模型200还可以包括数据输出模块230,数据输出模块230获取数据压缩模块220的目标特征图数据,并将目标特征图数据传输至外部控制器,作为下一卷积层的计算的输入数据,当需要进行下一卷积层的计算时数据存储单元212从外部控制器获取上述目标特征图数据进行卷积计算。
如图1所示,在一种可能的实现方式中,数据存储单元212可以包括:数据缓存子单元和数据分发子单元,所述数据缓存子单元与所述数据分发子单元相连。
图2示出了本申请提供的图像数据处理方法的示意性流程图,参照图2,对上述图像数据处理方法的详述如下:
S101,将卷积层的输入数据输入所述卷积计算模块,所述卷积计算模块对所述输入数据进行卷积计算,输出卷积层的初始特征图数据至所述数据压缩模块,其中,所述输入数据包括对初始图像数据经过去零处理后的数据或对上一卷积层的初始特征图数据经过去零处理后的数据。
在本实施例中,由于神经网络模型是一层卷积层一层卷积层进行计算的,在有多个卷积层的神经网络中,当前卷积层计算时需要获取上一卷积层输出的初始特征图数据经过去零处理后的数据进行卷积计算,得到当前卷积层的初始特征图数据。在只有一个卷积层或第一个卷积层计算时的输入数据为需要进行卷积处理的图像的初始图像数据经过去零处理后的数据。
具体的,对初始图像数据去零处理的方法可以包括:
S201,去除初始图像数据中的零数据,得到初始图像数据中的非零数据;
S202,基于上述非零数据在初始图像数据中所在的行和列,得到非零数据的数据编码;
S203,将非零数据与数据编码进行对应存储,得到去零处理后的数据。
需要说明的是,对上一卷积层输出的初始特征图数据进行去零处理的方法与对初始图像数据进行去零处理的过程相同,参照S201至S203。
如图3所示,在一种可能的实现方式中,步骤S101具体可以包括:
S1011,所述数据存储单元接收并存储所述卷积层的输入数据。
在本实施例中,在有多个卷积层的神经网络中,输入数据为对上一卷积层的初始特征图数据进行去零处理后得到的数据。现有的,每经过一次卷积后都会得到一组数据,将上述数据存储起来就是本次卷积后的特征图数据,而本次卷积得到的特征图数据会作为下一卷积层的输入数据继续进行卷积计算,直到神经网络中所有的运算规则运行结束。
卷积层的输入数据是经过去零后的数据,去零处理可以减少数据量,增加传输速度,还可以加快计算速度。
S1012,所述控制单元从所述计算单元获取预设算法,并基于所述预设算法在所述初始权重数据中获得与所述输入数据对应的目标权重数据。
在本实施例中,由于初始权重数据中的数据比较少,所以初始权重数据压缩或不压缩对处理速度的影响程度不大,因此,初始权重数据可以是去零处理后的权重数据,也可以是没有去零处理后的权重数据。
具体的,在神经网络中,权重数据是以核函数且是矩阵形式存在的,核函数的矩阵中的每一个数据都是一个权重。经过压缩后的初始权重数据是将原始权重数据中的零数据去除后得到的,所以权重数据的原始顺序可能会发生改变,经过压缩后的权重数据中每个权重都会根据权重在原始矩阵中的行和列进行编号,所以即使权重数据经过压缩也是可以根据编号准确找到所需的权重;没有经过压缩的权重数据是按照矩阵顺序排列的,是有规则的,权重是没有编号的,但是,由于权重数据没有压缩,所以权重数据还是按照原始顺序排列的,即使没有编号,也可以顺利找到所需的权重。
作为举例,如果初始权重数据是没有经过压缩的,则一个卷积层的权重数据可以是如果初始权重数据是经过压缩的,则原始的权重数据经过去零处理后可以记为[1:a11,2:a21,3:a22],其中,a11表示1在矩阵中的位置是第一行第一列;a21表示2在矩阵中的位置为第二行第一列;a22表示3在矩阵中的位置为第二行第二列。
在一种可能的实现方式中,所述预设算法包括:未经过去零处理的所述输入数据中各个数据的数据编码与对应的权重数据的权重编码乘积的和。
在本实施例中,卷积层的预设算法是计算卷积层的输出结果的计算规则,例如计算式。卷积层的预设算法可以包括多个计算式,本申请中的预设算法是根据卷积计算的过程设置的,可以根据预设算法查找与输入数据相关的目标权重数据。
卷积神经网络中的卷积计算是两个变量在某个范围内相乘后求和的结果,其中,两个变量指的是输入数据中的一个输入值和上述输入值对应的权重,所以预设算法是遵循上述卷积计算规则设置的,预设算法的结构可以是由若干个输入值的编码和输入值对应的权重编码的乘积的和构成,其中,输入值的编码可以是输入值在没有经过去零处理的输入矩阵中的行和列的编号,权重编码可以是权重值在核函数矩阵中的行和列的编号,若干个可以是核函数中权重的个数。
根据上述预设算法可以得到输入数据中每个输入值对应的目标权重数据,也就是当前卷积层进行卷积计算需要的输入值和需要与输入值相乘的权重值,由于输入数据是经过去零处理后的数据,所以只需要已知输入数据对应的权重编码,通过权重编码索引权重值,对于去零处理前的输入数据中的零数据是不需要知道对应的权重编码的,也就不需要索引对应的权重值,同样的在卷积计算时也是不需要计算零数据的,减少了计算量,加快了计算速度。
因此,预设算法是基于神经网络的配置设置的,根据预设算法可以得到计算式中的用到的输入数据的数据编码和权重数据的权重编码,如果已知需要的输入数据的输入值就可以通过数据编码知道对应的权重编码,进而通过权重编码索引权重值。
如图4所示,在一种可能的实现方式中,所述输入数据包括:第二非零数据和各个所述第二非零数据对应的第二数据编码;步骤S1012具体可以包括:
S10121,基于所述第二数据编码在所述预设算法中的相应位置,获得在所述预设算法中与所述第二非零数据计算对应的第二权重编码;
S10122,基于所述第二权重编码,在所述初始权重数据中索引与所述第二权重编码对应的所述目标权重数据。
在本实施例中,由于预设算法都是由输入值的数据编码和输入值对应的权重数据的权重编码的乘积的和构成的,所以已知输入值的数据编码就可以得到对应的权重编码,在所有的权重中索引与权重编码对应的权重值即可得到计算所需权重值。
作为举例:输入数据[1:a11,2:a13,2:a22,3:a23,4:a31,1:a32],输入数据中的1、2、2、3、4、1就是第二非零数据,a11、a13、a22、a23、a31和a32为第二数据编码;预设算法为:预设算法中的b11….b22为权重编码;初始权重数据中当前卷积层的权重数据为则基于预设算法C11=a11b11+a12b12+a21b21+a22b22,可得输入数据中第一数据编码a11对应的第二权重编码为b11,a22对应的第二权重编码为b22,由于当前输入数据中不存在C11计算需要的a12和a21,说明a12和a21的值为零,在去零处理时已经被去除,所以不需要查询a12和a21部分对应的权重值,在计算C11时也不需要计算a12和a21部分。
在初始权重数据中索引到b11的值为1,b22的值为3,则C11=1+6=7,C12,C21和C22的计算过程与C11的计算过程相同,C12=0+4+9=13,C21=8+3=11,C22=2+2=4。
如图5所示,在一种可能的实现方式中,所述输入数据包括:第三非零数据和各个所述第三非零数据对应的第三数据编码;步骤S1012具体可以包括:
S10123,根据各个所述第三非零数据的所述第三数据编码,将所述第三非零数据分发至所述预设算法中的对应位置;
S10124,基于所述第三非零数据在所述预设算法中的位置,确定所述各个第三非零数据对应的第三权重编码;
S10125,基于所述第三权重编码,在所述初始权重数据中索引与所述第三权重编码对应的所述目标权重数据。
在本实施例中,可以根据预设算法中的第三数据编码将第三非零数据分发到预设算法中对应的位置,然后根据预设算法中哪个第三数据编码位置上有输入值,就可以知道对应位置的第三权重编码,根据第三权重编码可以在初始权重数据中索引到目标权重数据。
作为举例:当前输入数据[1:a11,2:a13,2:a22,3:a23,4:a31,1:a32],输入数据中的1、2、2、3、4、1就是第三非零数据,a11、a13、a22、a23、a31和a32为第三数据编码;预设算法为:预设算法中的b11….b22为权重编码;初始权重数据中当前卷积层的权重数据为则基于预设算法C11=1*b11+a12b12+a21b21+2*b22,从上述式子中可以得到1对应位置的第三权重编码为b11,2对应位置的第三权重编码为b22,C11计算需要的a12和a21位置没有数值存在,说明在当前输入数据中不存在a12和a21的数值,说明a12和a21的数值为零,在去零处理时已经被去除,在计算C11时不需要对a12和a21的部分进行计算。
在初始权重数据中索引到b11的值为1,b22的值为3,则C11=1+6=7,C12,C21和C22的计算过程与C11的计算过程相同,参照C11的计算过程。
S1013,所述计算单元基于所述预设算法、所述目标权重数据和所述输入数据,确定所述卷积层的初始特征图数据。
在一种可能的实现方式中,若输入数据包括:第二非零数据和各个所述第二非零数据对应的第二数据编码,步骤S1013具体可以包括:
根据所述第二非零数据与对应的所述目标权重数据乘积的和,确定所述初始特征图数据中的各个数据。
在一种可能的实现方式中,若输入数据包括:第三非零数据和各个所述第三非零数据对应的第三数据编码,步骤S1013具体可以包括:
根据所述第三非零数据与对应的所述目标权重数据乘积的和,确定所述初始特征图数据中的各个数据。
在本实施例中,卷积层的预设算法可以包括多个计算式,每个计算式计算的结果是初始特征图数据中的一个数,所有的计算式的计算结果共同组成初始特征图数据,其中,初始特征图数据可以是一组数据,也可以是两组或多组数据,初始特征图数据的数据组数是由神经网络的结构设置决定的,神经网络中卷积层有几组核函数,经过卷积计算后输出的初始特征图数据就有几组数据。
具体的,根据非零数据与对应的所述目标权重数据乘积的和,确定所述初始特征图数据中的各个数据,所有预设算法进行计算的结果组成初始特征图数据。
本申请实施例中,由于输入数据是去零处理后的数据,在查询预设算法中需要的权重数据时,只需查找输入数据对应的目标权重数据即可,对于未经过去零处理的输入数据中的零数据对应的权重数据是不需要查询的,通过预设算法计算卷积计算时,只需计算非零数据与对应的权重数据的乘积的和,未经过去零压缩的输入数据中的零数据与零数据对应的权重数据的乘积是不用计算的,这样就可以大大减少数据处理量,加快卷积计算的速度。
S102,所述数据压缩模块对所述初始特征图数据进行去零处理,输出对应的目标特征图数据。
如图6所示,在一种可能的实现方式中,所述初始特征图数据包括矩阵排列的特征数据,所述特征数据包括零数据及非零数据;步骤S102具体可以包括:
S1021,去除所述初始特征图数据中的零数据,得到所述初始特征图数据中的第一非零数据;
S1022,基于所述第一非零数据在所述初始特征图数据中的位置,得到对应的第一数据编码;
S1023,将所述第一非零数据与所述第一数据编码进行对应存储,得到所述目标特征图数据。
在本实施例中,如果初始特征图数据中有零数据,要将零数据去除,只保留初始特征图数据中不是零的数据。
具体的,初始特征图数据可以是一组数据也可以两组或多组数据,例如,输入数据为图像时,图像分为RGB三通道,所以输入有三组,且每一组输入数据都是以矩阵形式存在的;当输入数据经过卷积后得到的初始特征图数据的组数与当前卷积层中的核函数的数量相同,有几组核函数,当前卷积层输出的初始特征图数据就会有几组。
作为举例,初始特征图数据可以有3组数据,分别为和上述三组数据共同记作当前卷积层的初始特征图数据。另外,如果第一卷积层中有一个核函数,每一组数据分别与核函数进行计算,经过第一卷积层计算后会输出一组初始特征图数据。
在本实施例中,由于初始特征图数据都是以矩阵形式存在的,在使用时也是根据数据在矩阵中的位置与对应的权重进行运算的,所以在对初始特征图数据中的非零数据进行编码时,按照非零数据在初始特征图矩阵中的行和列进行编码,一个数据对应一个编码,方便以后查找使用。
在本实施例中,一个非零数据对应一个数据编码,将非零数据与对应的数据编码对应存储,也可以是关联存储,将初始特征图数据中所有的非零数据与非零数据对应的数据编码存储为目标特征图数据,目标特征图数据作为下一卷积层的输入数据进行下一卷积层的计算。
第二,按照非零数据在初始特征图数据中的行和列,对[1,2,2,3,4,1]进行编码,得到的数据编码分别是a11,a13,a22,a23,a31,a32。
第三,将各个非零数据与非零数据对应的编码对应存储,得到目标特征图数据[1:a11,2:a13,2:a22,3:a23,4:a31,1:a32]。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的神经网络计算方法,图7示出了本申请实施例提供的图像数据处理装置300的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图7,该图像数据处理装置300可以包括:外部控制器310和所述神经网络模型200,所述外部控制器310与所述神经网络模型200相连,所述外部控制器310将所述输入数据传输至所述神经网络模型200;外部控制器310包括:主处理器和内存器,主处理器与内存器相连,所述神经网络模型200包括:卷积计算模块210和数据压缩模块220;
卷积计算模块210,用于获取卷积层的输入数据并对所述输入数据进行卷积计算,输出卷积层的初始特征图数据至所述数据压缩模块220,其中,所述输入数据包括对初始图像数据经过去零处理后的数据或对上一卷积层的初始特征图数据经过去零处理后的数据;
数据压缩模块220,用于对所述初始特征图数据进行去零处理。
在一种可能的实现方式中,所述初始特征图数据包括矩阵排列的特征数据,所述特征数据包括零数据及非零数据;
数据压缩模块220具体可以用于:
去除所述初始特征图数据中的零数据,得到所述初始特征图数据中的第一非零数据;
基于所述第一非零数据在所述初始特征图数据中的位置,得到对应的第一数据编码;
将所述第一非零数据与所述第一数据编码进行对应存储,得到所述目标特征图数据。
在一种可能的实现方式中,卷积计算模块210具体可以包括:
数据存储单元214,用于接收并存储所述卷积层的输入数据;
控制单元215,用于从所述计算单元获取预设算法,并基于所述预设算法在所述初始权重数据中获得与所述输入数据对应的目标权重数据;
计算单元217,用于基于所述预设算法、所述目标权重数据和所述输入数据,确定所述卷积层的初始特征图数据。
在一种可能的实现方式中,所述输入数据包括:第二非零数据和各个所述第二非零数据对应的第二数据编码;
控制单元215具体可以用于:
基于所述第二数据编码在所述预设算法中的相应位置,获得在所述预设算法中与所述第二非零数据计算对应的第二权重编码;
基于所述第二权重编码,在所述初始权重数据中索引与所述第二权重编码对应的所述目标权重数据。
在一种可能的实现方式中,所述输入数据包括:第三非零数据和各个所述第三非零数据对应的第三数据编码;
控制单元215具体可以用于:
根据各个所述第三非零数据的所述第三数据编码,将所述第三非零数据分发至所述预设算法中的对应位置;
基于所述第三非零数据在所述预设算法中的位置,确定所述各个第三非零数据对应的第三权重编码;
基于所述第三权重编码,在所述初始权重数据中索引与所述第三权重编码对应的所述目标权重数据。
在一种可能的实现方式中,所述预设算法包括:未经过去零处理的所述输入数据中各个数据的数据编码与对应的权重数据的权重编码乘积的和。
在一种可能的实现方式中,计算单元217具体可以用于:
根据所述第二非零数据或第三非零数据与对应的所述目标权重数据乘积的和,确定所述初始特征图数据中的各个数据。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种终端设备,参见图8,该终端设400可以包括:至少一个处理器410、存储器420以及存储在所述存储器420中并可在所述至少一个处理器410上运行的计算机程序,所述处理器410执行所述计算机程序时实现上述任意各个方法实施例中的步骤,例如图2所示实施例中的步骤S101至步骤S102。或者,处理器410执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如图7所示神经网络模型200的功能。
示例性的,计算机程序可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器420中,并由处理器410执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序段,该程序段用于描述计算机程序在终端设备400中的执行过程。
本领域技术人员可以理解,图8仅仅是终端设备的示例,并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者对应存储某些部件,或者不同的部件,例如输入输出设备、网络接入设备、总线等。
处理器410可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器420可以是终端设备的内部存储单元,也可以是终端设备的外部存储设备,例如插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。所述存储器420用于存储所述计算机程序以及终端设备所需的其他程序和数据。所述存储器420还可以用于暂时地存储已经输出或者将要输出的数据。
总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral Component,PCI)总线或扩展工业标准体系结构(ExtendedIndustry Standard Architecture,EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,本申请附图中的总线并不限定仅有一根总线或一种类型的总线。
本申请实施例提供的图像数据处理方法可以应用于计算机、平板电脑、笔记本电脑、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
以所述终端设备为计算机为例。图9示出的是与本申请实施例提供的计算机的部分结构的框图。参考图9,计算机包括:通信电路510、存储器520、输入单元530、显示单元540、音频电路550、无线保真(wireless fidelity,WiFi)模块560、处理器570以及电源580等部件。
下面结合图9对计算机的各个构成部件进行具体的介绍:
通信电路510可用于收发信息或通话过程中,信号的接收和发送,特别地,将图像采集设备发送的图像样本接收后,给处理器570处理;另外,将图像采集指令发送给图像采集设备。通常,通信电路包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low Noise Amplifier,LNA)、双工器等。此外,通信电路510还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System of Mobile communication,GSM)、通用分组无线服务(GeneralPacket Radio Service,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、长期演进(Long TermEvolution,LTE))、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器520可用于存储软件程序以及模块,处理器570通过运行存储在存储器520的软件程序以及模块,从而执行计算机的各种功能应用以及数据处理。存储器520可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器520可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元530可用于接收输入的数字或字符信息,以及产生与计算机的用户设置以及功能控制有关的键信号输入。具体地,输入单元530可包括触控面板531以及其他输入设备532。触控面板531,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板531上或在触控面板531附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板531可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器570,并能接收处理器570发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板531。除了触控面板531,输入单元530还可以包括其他输入设备532。具体地,其他输入设备532可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元540可用于显示由用户输入的信息或提供给用户的信息以及计算机的各种菜单。显示单元540可包括显示面板541,可选的,可以采用液晶显示器(Liquid CrystalDisplay,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板541。进一步的,触控面板531可覆盖显示面板541,当触控面板531检测到在其上或附近的触摸操作后,传送给处理器570以确定触摸事件的类型,随后处理器570根据触摸事件的类型在显示面板541上提供相应的视觉输出。虽然在图9中,触控面板531与显示面板541是作为两个独立的部件来实现计算机的输入和输入功能,但是在某些实施例中,可以将触控面板531与显示面板541集成而实现计算机的输入和输出功能。
音频电路550可提供用户与计算机之间的音频接口。音频电路550可将接收到的音频数据转换后的电信号,传输到扬声器由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路550接收后转换为音频数据,再将音频数据输出处理器570处理后,经通信电路510以发送给比如另一计算机,或者将音频数据输出至存储器520以便进一步处理。
WiFi属于短距离无线传输技术,计算机通过WiFi模块560可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图9示出了WiFi模块560,但是可以理解的是,其并不属于计算机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器570是计算机的控制中心,利用各种接口和线路连接整个计算机的各个部分,通过运行或执行存储在存储器520内的软件程序和/或模块,以及调用存储在存储器520内的数据,执行计算机的各种功能和处理数据,从而对计算机进行整体监控。可选的,处理器570可包括一个或多个处理单元;优选的,处理器570可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器570中。
计算机还包括给各个部件供电的电源580(比如电池),优选的,电源580可以通过电源管理系统与处理器570逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述图像数据处理方法各个实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述图像数据处理方法各个实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种图像数据处理方法,其特征在于,所述方法用于神经网络模型,所述神经网络模型包括:卷积计算模块和数据压缩模块;
所述方法包括:
将卷积层的输入数据输入所述卷积计算模块,所述卷积计算模块对所述输入数据进行卷积计算,输出卷积层的初始特征图数据至所述数据压缩模块,其中,所述输入数据包括对初始图像数据经过去零处理后的数据或对上一卷积层的初始特征图数据经过去零处理后的数据;
所述数据压缩模块对所述初始特征图数据进行去零处理,输出对应的目标特征图数据。
2.根据权利要求1所述的图像数据处理方法,其特征在于,所述初始特征图数据包括矩阵排列的特征数据,所述特征数据包括零数据及非零数据;
所述数据压缩模块对所述初始特征图数据进行去零处理,输出对应的目标特征图数据,包括:
去除所述初始特征图数据中的零数据,得到所述初始特征图数据中的第一非零数据;
基于所述第一非零数据在所述初始特征图数据中的位置,得到对应的第一数据编码;
将所述第一非零数据与所述第一数据编码进行对应存储,得到所述目标特征图数据。
3.根据权利要求1所述的图像数据处理方法,其特征在于,所述卷积计算模块包括:数据存储单元、控制单元、计算单元和权重存储单元,所述权重存储单元存储所述神经网络的初始权重数据;
所述将卷积层的输入数据输入所述卷积计算模块,所述卷积计算模块对所述输入数据进行卷积计算,输出卷积层的初始特征图数据至所述数据压缩模块,包括:
所述数据存储单元接收并存储所述卷积层的输入数据;
所述控制单元从所述计算单元获取预设算法,并基于所述预设算法在所述初始权重数据中获得与所述输入数据对应的目标权重数据;
所述计算单元基于所述预设算法、所述目标权重数据和所述输入数据,确定所述卷积层的初始特征图数据。
4.根据权利要求3所述的图像数据处理方法,其特征在于,所述输入数据包括:第二非零数据和各个所述第二非零数据对应的第二数据编码;
所述控制单元从所述计算单元获取预设算法,并基于所述预设算法在所述初始权重数据中获得与所述输入数据对应的目标权重数据,包括:
基于所述第二数据编码在所述预设算法中的相应位置,获得在所述预设算法中与所述第二非零数据计算对应的第二权重编码;
基于所述第二权重编码,在所述初始权重数据中索引与所述第二权重编码对应的所述目标权重数据。
5.根据权利要求3所述的图像数据处理方法,其特征在于,所述输入数据包括:第三非零数据和各个所述第三非零数据对应的第三数据编码;
所述控制单元从所述计算单元获取预设算法,并基于所述预设算法在所述初始权重数据中获得与所述输入数据对应的目标权重数据,包括:
根据各个所述第三非零数据的所述第三数据编码,将所述第三非零数据分发至所述预设算法中的对应位置;
基于所述第三非零数据在所述预设算法中的位置,确定所述各个第三非零数据对应的第三权重编码;
基于所述第三权重编码,在所述初始权重数据中索引与所述第三权重编码对应的所述目标权重数据。
6.根据权利要求4或5所述的图像数据处理方法,其特征在于,所述预设算法包括:未经过去零处理的所述输入数据中各个数据的数据编码与对应的权重数据的权重编码乘积的和。
7.根据权利要求6所述的图像数据处理方法,其特征在于,所述计算单元基于所述预设算法、所述目标权重数据和所述输入数据,确定所述卷积层的初始特征图数据,包括:
根据所述第二非零数据或第三非零数据与对应的所述目标权重数据乘积的和,确定所述初始特征图数据中的各个数据。
8.一种图像数据处理装置,其特征在于,包括:上述权利要求1至7任一项所述神经网络模型和外部控制器,所述外部控制器与所述神经网络模型相连,所述外部控制器将所述输入数据传输至所述神经网络模型。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机计算机程序时实现如权利要求1至7任一项所述的图像数据处理方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机计算机程序,其特征在于,所述计算机计算机程序被处理器执行时实现如权利要求1至7任一项所述的图像数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010014406.0A CN113159267A (zh) | 2020-01-07 | 2020-01-07 | 一种图像数据处理方法、装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010014406.0A CN113159267A (zh) | 2020-01-07 | 2020-01-07 | 一种图像数据处理方法、装置及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113159267A true CN113159267A (zh) | 2021-07-23 |
Family
ID=76881717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010014406.0A Pending CN113159267A (zh) | 2020-01-07 | 2020-01-07 | 一种图像数据处理方法、装置及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113159267A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11750213B1 (en) | 2022-08-31 | 2023-09-05 | Hong Kong Applied Science and Technology Research Institute Company Limited | Train-linking lossless compressor of numeric values |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875924A (zh) * | 2018-02-09 | 2018-11-23 | 北京旷视科技有限公司 | 基于神经网络的数据处理方法、装置、系统及存储介质 |
CN109389588A (zh) * | 2018-09-28 | 2019-02-26 | 大连民族大学 | 度量视频连续帧与其卷积特征图间差异的方法 |
CN109409518A (zh) * | 2018-10-11 | 2019-03-01 | 北京旷视科技有限公司 | 神经网络模型处理方法、装置及终端 |
CN109635944A (zh) * | 2018-12-24 | 2019-04-16 | 西安交通大学 | 一种稀疏卷积神经网络加速器及实现方法 |
US20190294413A1 (en) * | 2018-03-23 | 2019-09-26 | Amazon Technologies, Inc. | Accelerated quantized multiply-and-add operations |
-
2020
- 2020-01-07 CN CN202010014406.0A patent/CN113159267A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875924A (zh) * | 2018-02-09 | 2018-11-23 | 北京旷视科技有限公司 | 基于神经网络的数据处理方法、装置、系统及存储介质 |
US20190294413A1 (en) * | 2018-03-23 | 2019-09-26 | Amazon Technologies, Inc. | Accelerated quantized multiply-and-add operations |
CN109389588A (zh) * | 2018-09-28 | 2019-02-26 | 大连民族大学 | 度量视频连续帧与其卷积特征图间差异的方法 |
CN109409518A (zh) * | 2018-10-11 | 2019-03-01 | 北京旷视科技有限公司 | 神经网络模型处理方法、装置及终端 |
CN109635944A (zh) * | 2018-12-24 | 2019-04-16 | 西安交通大学 | 一种稀疏卷积神经网络加速器及实现方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11750213B1 (en) | 2022-08-31 | 2023-09-05 | Hong Kong Applied Science and Technology Research Institute Company Limited | Train-linking lossless compressor of numeric values |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363279B (zh) | 基于卷积神经网络模型的图像处理方法和装置 | |
CN111310890B (zh) | 深度学习模型的优化方法、装置及终端设备 | |
CN106156807B (zh) | 卷积神经网络模型的训练方法及装置 | |
CN108664957B (zh) | 车牌号码匹配方法及装置、字符信息匹配方法及装置 | |
CN111060514B (zh) | 缺陷检测方法、装置及终端设备 | |
CN107704321A (zh) | 内存分配的方法、装置及终端设备 | |
WO2021089008A1 (zh) | 一种分子间的结合活性预测方法及装置 | |
CN103826136A (zh) | 一种快速离散余弦反变换的方法和终端 | |
CN104881367A (zh) | 处理分布式缓存组织结构中的已压缩数据 | |
CN113268572A (zh) | 问答方法及装置 | |
CN110688347A (zh) | 文件存储方法、文件存储装置及终端设备 | |
CN110705497A (zh) | 图像帧处理方法、装置、终端设备及计算机可读存储介质 | |
CN107925421A (zh) | 虚拟存储器系统中的改进的经压缩的高速缓存 | |
CN113159267A (zh) | 一种图像数据处理方法、装置及终端设备 | |
CN106961612A (zh) | 一种图像处理方法及设备 | |
CN111242081B (zh) | 视频检测方法、目标检测网络训练方法、装置及终端设备 | |
CN107580015A (zh) | 数据处理方法和装置、服务器 | |
CN111210299B (zh) | 一种单号生成及管理方法及装置 | |
CN113112442A (zh) | 缺陷检测方法、装置及终端设备 | |
CN107889164A (zh) | 无线局域网分流处理方法以及相关产品 | |
CN110706158A (zh) | 图像处理方法、图像处理装置及终端设备 | |
CN113361551A (zh) | 图像识别网络训练方法、装置及终端设备 | |
CN114254756A (zh) | 一种分布式机器学习方法、装置、终端设备及存储介质 | |
CN105468603A (zh) | 数据选择方法及装置 | |
CN110738258B (zh) | 图像分类方法、装置及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Country or region after: China Address after: 516006 TCL science and technology building, No. 17, Huifeng Third Road, Zhongkai high tech Zone, Huizhou City, Guangdong Province Applicant after: TCL Technology Group Co.,Ltd. Address before: 516006 Guangdong province Huizhou Zhongkai hi tech Development Zone No. nineteen District Applicant before: TCL Corp. Country or region before: China |