CN112232491A - 基于卷积神经网络模型的特征提取方法和装置 - Google Patents
基于卷积神经网络模型的特征提取方法和装置 Download PDFInfo
- Publication number
- CN112232491A CN112232491A CN202011180903.4A CN202011180903A CN112232491A CN 112232491 A CN112232491 A CN 112232491A CN 202011180903 A CN202011180903 A CN 202011180903A CN 112232491 A CN112232491 A CN 112232491A
- Authority
- CN
- China
- Prior art keywords
- data
- point number
- number corresponding
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 77
- 238000000605 extraction Methods 0.000 title claims abstract description 43
- 238000004364 calculation method Methods 0.000 claims abstract description 28
- 238000013139 quantization Methods 0.000 claims description 43
- 238000000034 method Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/483—Computations with numbers represented by a non-linear combination of denominational numbers, e.g. rational numbers, logarithmic number system or floating-point numbers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/483—Computations with numbers represented by a non-linear combination of denominational numbers, e.g. rational numbers, logarithmic number system or floating-point numbers
- G06F7/485—Adding; Subtracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/483—Computations with numbers represented by a non-linear combination of denominational numbers, e.g. rational numbers, logarithmic number system or floating-point numbers
- G06F7/487—Multiplying; Dividing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Nonlinear Science (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于卷积神经网络模型的特征提取方法和装置,其中,该特征提取方法包括以下步骤:获取目标对象对应的待处理数据;采用卷积神经网络模型中conv层对待处理数据进行特征提取以获取第一数据;采用卷积神经网络模型中Eltwise层根据第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数;根据第三数据对应的定点数获取目标对象对应的特征数据。根据本发明的基于卷积神经网络模型的特征提取方法,能够大大提高系统的计算速度,并且占用的存储空间较小。
Description
技术领域
本发明涉及模型量化技术领域,具体涉及一种基于卷积神经网络模型的特征提取方法和一种基于卷积神经网络模型的特征提取装置。
背景技术
卷积神经网络模型在语音识别、文字识别、以及图像视频识别等许多领域中已经有了广泛而成功的应用。在一些指定的目标任务中,训练好的卷积神经网络模型需要进一步部署到目标设备进行加速,由于一般的神经网络模型都是双精度或单精度浮点数运算,因此,需要对卷积神经网络模型进行量化处理,才能使尽可能多的目标设备能够满足运算需求。
相关技术中,在对卷积神经网络模型进行量化时,系统的计算速度较慢,并且占用的存储空间较大。
发明内容
本发明为解决上述技术问题,提供了一种基于卷积神经网络模型的特征提取方法,能够大大提高系统的计算速度,并且占用的存储空间较小。
本发明采用的技术方案如下:
一种基于卷积神经网络模型的特征提取方法,包括以下步骤:获取目标对象对应的待处理数据;采用卷积神经网络模型中conv层对待处理数据进行特征提取以获取第一数据;采用所述卷积神经网络模型中Eltwise层根据所述第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数;根据所述第三数据对应的定点数获取所述所述目标对象对应的特征数据。
所述采用所述卷积神经网络模型中Eltwise层根据所述第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数,包括:分别计算所述第二数据和所述第三数据对应的量化系数;根据所述第三数据对应的量化系数和所述第一数据对应的浮点数获取所述第一数据对应的定点数;根据所述第二数据对应的量化系数和所述第二数据对应的浮点数获取所述第二数据对应的定点数;根据所述第一数据对应的定点数、所述第二数据对应的定点数、所述第二数据对应的量化系数和所述第三数据对应的量化系数计算所述第四数据对应的定点数。
通过以下公式计算所述第三数据对应的定点数:
其中,q2为所述第二数据对应的量化系数;q3为所述第三数据对应的量化系数;y2q为所述第二数据对应的定点数、accum为所述第一数据对应的定点数;qx为所述conv层的输入对应的量化系数;qw为所述conv层的权重对应的量化系数;y3q为所述第三数据对应的定点数。
一种基于卷积神经网络模型的特征提取装置,包括:第一获取模块,所述第一获取模块用于获取所述目标对象对应的待处理数据;第二获取模块,所述第二获取模块用于采用所述卷积神经网络模型中conv层对所述待处理数据进行特征提取以获取第一数据;计算模块,所述计算模块用于采用所述卷积神经网络模型中Eltwise层根据所述第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数;第三获取模块,所述第三获取模块用于根据所述第三数据对应的定点数获取目标对象对应的特征数据。
所述计算模块包括:第一计算单元,所述第一计算单元用于分别计算所述第二数据和所述第三数据对应的量化系数;第一获取单元,所述第一获取单元用于根据所述第三数据对应的量化系数和所述第一数据对应的浮点数获取所述第一数据对应的定点数;第二获取单元,所述第二获取单元用于根据所述第二数据对应的量化系数和所述第二数据对应的浮点数获取所述第二数据对应的定点数;第二计算单元,所述第二计算单元用于根据所述第一数据对应的定点数、所述第二数据对应的定点数、所述第二数据对应的量化系数和所述第三数据对应的量化系数计算所述第三数据对应的定点数。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述的基于卷积神经网络模型的特征提取方法。
一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的基于卷积神经网络模型的特征提取方法。
本发明的有益效果:
本发明将卷积神经网络模型中conv层和Eltwise层合并为一层进行操作计算,从而大大提高了系统的计算速度,并且占用的存储空间较小。
附图说明
图1为本发明实施例的基于卷积神经网络模型的特征提取方法的流程图;
图2为本发明一个实施例的基于卷积神经网络模型的特征提取方法的流程图;
图3为本发明实施例的基于卷积神经网络模型的特征提取装置的方框示意图;
图4为本发明一个实施例的基于卷积神经网络模型的特征提取装置的方框示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是根据本发明实施例的基于卷积神经网络模型的特征提取方法的流程图。
相关技术中,在对目标对象进行特征提取的过程中,对卷积神经网络模型进行量化时,是单独对卷积神经网络模型中Eltwise层进行定点量化。具体地,在卷积神经网络模型中conv层输出数据之后,先单独地将Eltwise层的两个输入数据进行定点后,再执行相应的操作,例如,进行加法操作、减法操作、乘法操作等。因此,计算速度较慢,并且占用的存储空间较大。
为此,本发明实施例提出了一种基于卷积神经网络模型的特征提取方法,将卷积神经网络模型中conv层和Eltwise层合并为一层进行操作计算,从而大大提高了系统的计算速度,并且占用的存储空间较小。
具体地,如图1所示,本发明实施例的基于卷积神经网络模型的特征提取方法可包括以下步骤:
S1,获取目标对象对应的待处理数据。
具体而言,卷积神经网络模型应用在不同的领域中,对应的目标对象是不同的,因此,目标对象对应的待处理数据也不相同。例如,当卷积神经网络模型应用在语音识别领域时,目标对象为目标语音,对应的待处理数据为目标语音数据;当卷积神经网络模型应用在文字识别领域时,目标对象为目标文字,对应的待处理数据为目标文字数据;当卷积神经网络模型应用在图像视频领域时,目标对象为目标图像视频,对应的待处理数据为目标图像视频数据。当然,卷积神经网络模型也可应用在其他的领域,在此不再一一赘述。
S2,采用卷积神经网络模型中conv层对待处理数据进行特征提取以获取第一数据。
具体而言,可将待处理数据作为卷积神经网络模型中conv层的输入,并将其输入到conv层中,以通过conv层对待处理数据进行特征提取从而输出第一数据。
需要说明的是,在特征提取的过程中,还可获取conv层的输入对应的量化系数qx和conv层的权重对应的量化系数qw。
S3,采用卷积神经网络模型中Eltwise层根据第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数。
具体地,在采用卷积神经网络模型中conv层获取到第一数据后,可将第一数据对应的浮点数和第二数据对应的浮点数作为卷积神经网络模型中Eltwise层输入,此时,可采用卷积神经网络模型中Eltwise层对第一数据对应的浮点数和第二数据对应的浮点数进行相应的操作,以计算第三数据对应的定点数。其中,Eltwise层可进行sum(相加减)、product(点乘)、max(取大值)等操作。
下面结合具体实施例来详细说明如何采用卷积神经网络模型中Eltwise层根据第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数。
根据本发明的一个实施例,如图2,采用卷积神经网络模型中Eltwise层根据第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数可包括以下步骤:
S201,分别计算第二数据和第三数据对应的量化系数。
S202,根据第三数据对应的量化系数和第一数据对应的浮点数获取第一数据对应的定点数。
具体而言,在本发明实施例中,对于Eltwise层和conv层相邻的情况,第二数据对应的量化系数与第三数据对应的量化系数相同,因此,仅需重新计算第三数据对应的量化系数,无需再计算第一数据对应的量化系数,从而简化了计算过程,提高了计算速度。
进一步而言,在计算出第三数据对应的量化系数后,可对第三数据对应的量化系数与第一数据对应的浮点数进行乘法运算以获取第一数据对应的定点数。
S203,根据第二数据对应的量化系数和第二数据对应的浮点数获取第二数据对应的定点数。
具体地,在计算出第二数据对应的量化系数后,可对第二数据对应的量化系数和第二数据对应的浮点数进行乘法运算以获取第二数据对应的定点数。
S204,根据第一数据对应的定点数、第二数据对应的定点数、第二数据对应的量化系数和第三数据对应的量化系数计算第三数据对应的定点数。
具体而言,在分别计算出第一数据对应的定点数和第二数据对应的定点数后,可根据第一数据对应的定点数、第二数据对应的定点数、第二数据对应的量化系数和第三数据对应的量化系数计算第三数据对应的定点数。
下面结合具体实施例来详细说明如何计算第三数据对应的定点数。
根据本发明的一个实施例,通过以下公式计算第三数据对应的定点数:
其中,q2为第二数据对应的量化系数;q3为第三数据对应的量化系数;y2q为第二数据对应的定点数、accum为第一数据对应的定点数;qx为conv层的输入对应的量化系数;qw为conv层的权重对应的量化系数;y3q为第四数据对应的定点数。
具体而言,作为一种可能的实施方式,当卷积神经网络模型中Eltwise层进行相加操作时,可将获取到的第二数据对应的量化系数q2、第三数据对应的量化系数q3、第二数据对应的定点数y2q、第一数据对应的定点数accum、conv层的输入对应的量化系数qx以及conv层的权重对应的量化系数qw带入公式(1)以计算第四数据对应的定点数y3q。
根据本发明的另一个实施例,当卷积神经网络模型中Eltwise层进行其他操作,例如进行相减、点乘、取大值等操作时,也可根据第一数据对应的定点数、第二数据对应的定点数、第二数据对应的量化系数和第三数据对应的量化系数计算第三数据对应的定点数,具体的计算过程与上述Eltwise层进行相加操作时的计算过程类似,在此不再详述。
S4,根据第三数据对应的定点数获取目标对象对应的特征数据。
具体而言,在通过上述方式计算出第三数据对应的定点数后,可先将第三数据对应的定点数于第三数据对应的量化系数进行除法运算,以获取第三数据对应的浮点数。然后根据第三数据对应的浮点数获取目标对象对应的特征数据。
由此,本发明实施例中,将卷积神经网络模型中conv层和Eltwise层合并为一层进行操作计算,并且在计算过程中减少了对第一数据对应的量化系数进行计算的步骤,同时采用近似除法对公式(1)中的系数进行计算,从而大大提高了系统的计算速度,并且占用的存储空间较小。
综上所述,根据本发明实施例的基于卷积神经网络模型的特征提取方法,获取目标对象对应的待处理数据,以及采用卷积神经网络模型中conv层对待处理数据进行特征提取以获取第一数据,并采用卷积神经网络模型中Eltwise层根据第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数,以及根据第三数据对应的定点数获取目标对象对应的特征数据。由此,能够大大提高系统的计算速度,并且占用的存储空间较小。
对应上述实施例的基于卷积神经网络模型的特征提取方法,本发明还提出一种基于卷积神经网络模型的特征提取装置。
如图3所示,本发明实施例的基于卷积神经网络模型的特征提取装置可包括第一获取模块100、第二获取模块200、计算模块300和第三获取模块400。
其中,第一获取模块100用于获取所述目标对象对应的待处理数据;第二获取模块200用于采用卷积神经网络模型中conv层对待处理数据进行特征提取以获取第一数据;计算模块300用于采用卷积神经网络模型中Eltwise层根据第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数;第三获取模块400用于根据第三数据对应的定点数获取目标对象对应的特征数据。
根据本发明的一个实施例,如图4所示,计算模块300可包括第一计算单元310、第一获取单元320、第二获取单元330和第二计算单元340。
其中,第一计算单元310用于分别计算第二数据和第三数据对应的量化系数;第一获取单元320用于根据第三数据对应的量化系数和第一数据对应的浮点数获取第一数据对应的定点数;第一获取单元330用于根据第二数据对应的量化系数和第二数据对应的浮点数获取第二数据对应的定点数;第二计算单元340用于根据第一数据对应的定点数、第二数据对应的定点数、第二数据对应的量化系数和第三数据对应的量化系数计算第三数据对应的定点数。
需要说明的是,本发明实施例的基于卷积神经网络模型的特征提取装置更具体的实施方式可参照上述基于卷积神经网络模型的特征提取方法的实施例,在此不再赘述。
根据本发明实施例的基于卷积神经网络模型的特征提取装置,通过第一获取模块获取目标对象对应的待处理数据,以及通过第二获取模块采用卷积神经网络模型中conv层对待处理数据进行特征提取以获取第一数据,并通过计算模块采用卷积神经网络模型中Eltwise层根据第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数,以及通过第三获取模块根据第三数据对应的定点数获取第三数据对应的浮点数。由此,能够大大提高系统的计算速度,并且占用的存储空间较小。
对应上述实施例,本发明还提出一种计算机设备。
本发明实施例的计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时,实现上述实施例的基于卷积神经网络模型的特征提取方法。
根据本发明实施例的计算机设备,能够大大提高系统的计算速度,并且占用的存储空间较小。
对应上述实施例,本发明还提出一种非临时性计算机可读存储介质。
本发明实施例的非临时性计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现上述的基于卷积神经网络模型的特征提取方法。
根据本发明实施例的非临时性计算机可读存储介质,能够大大提高系统的计算速度,并且占用的存储空间较小。
在本发明的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (7)
1.一种基于卷积神经网络模型的特征提取方法,其特征在于,包括以下步骤:
获取目标对象对应的待处理数据;
采用所述卷积神经网络模型中conv层对所述待处理数据进行特征提取以获取第一数据;
采用所述卷积神经网络模型中Eltwise层根据所述第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数;
根据所述第三数据对应的定点数获取所述目标对象对应的特征数据。
2.根据权利要求1所述的基于卷积神经网络模型的特征提取方法,其特征在于,所述采用所述卷积神经网络模型中Eltwise层根据所述第一数据对应的浮点数和第二数据对应的浮点数计算第四数据对应的定点数,包括:
分别计算所述第二数据和所述第三数据对应的量化系数;
根据所述第三数据对应的量化系数和所述第一数据对应的浮点数获取所述第一数据对应的定点数;
根据所述第二数据对应的量化系数和所述第二数据对应的浮点数获取所述第二数据对应的定点数;
根据所述第一数据对应的定点数、所述第二数据对应的定点数、所述第二数据对应的量化系数和所述第三数据对应的量化系数计算所述第三数据对应的定点数。
4.一种基于卷积神经网络模型的特征提取装置,其特征在于,包括:
第一获取模块,所述第一获取模块用于获取所述目标对象对应的待处理数据;
第二获取模块,所述第二获取模块用于采用所述卷积神经网络模型中conv层对所述待处理数据进行特征提取以获取第一数据;
计算模块,所述计算模块用于采用所述卷积神经网络模型中Eltwise层根据所述第一数据对应的浮点数和第二数据对应的浮点数计算第三数据对应的定点数;
第三获取模块,所述第三获取模块用于根据所述第三数据对应的定点数获取所述目标对象对应的特征数据。
5.根据权利要求4所述的基于卷积神经网络模型的特征提取装置,其特征在于,所述计算模块包括:
第一计算单元,所述第一计算单元用于分别计算所述第二数据和所述第三数据对应的量化系数;
第一获取单元,所述第一获取单元用于根据所述第三数据对应的量化系数和所述第一数据对应的浮点数获取所述第一数据对应的定点数;
第二获取单元,所述第二获取单元用于根据所述第二数据对应的量化系数和所述第二数据对应的浮点数获取所述第二数据对应的定点数;
第二计算单元,所述第二计算单元用于根据所述第一数据对应的定点数、所述第二数据对应的定点数、所述第二数据对应的量化系数和所述第三数据对应的量化系数计算所述第三数据对应的定点数。
6.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现根据权利要求1-3中任一项所述的基于卷积神经网络模型的特征提取方法。
7.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现根据权利要求1-3中任一项所述的基于卷积神经网络模型的特征提取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011180903.4A CN112232491A (zh) | 2020-10-29 | 2020-10-29 | 基于卷积神经网络模型的特征提取方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011180903.4A CN112232491A (zh) | 2020-10-29 | 2020-10-29 | 基于卷积神经网络模型的特征提取方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112232491A true CN112232491A (zh) | 2021-01-15 |
Family
ID=74109797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011180903.4A Pending CN112232491A (zh) | 2020-10-29 | 2020-10-29 | 基于卷积神经网络模型的特征提取方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112232491A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108898168A (zh) * | 2018-06-19 | 2018-11-27 | 清华大学 | 用于目标检测的卷积神经网络模型的压缩方法和系统 |
US20180349758A1 (en) * | 2017-06-06 | 2018-12-06 | Via Alliance Semiconductor Co., Ltd. | Computation method and device used in a convolutional neural network |
CN109284761A (zh) * | 2018-09-04 | 2019-01-29 | 苏州科达科技股份有限公司 | 一种图像特征提取方法、装置、设备及可读存储介质 |
KR20190130443A (ko) * | 2018-05-14 | 2019-11-22 | 삼성전자주식회사 | 뉴럴 네트워크의 양자화 방법 및 장치 |
CN111260022A (zh) * | 2019-11-22 | 2020-06-09 | 中国电子科技集团公司第五十二研究所 | 一种卷积神经网络全int8定点量化的方法 |
CN111542838A (zh) * | 2018-12-12 | 2020-08-14 | 深圳鲲云信息科技有限公司 | 一种卷积神经网络的量化方法、装置及电子设备 |
CN111723901A (zh) * | 2019-03-19 | 2020-09-29 | 百度在线网络技术(北京)有限公司 | 神经网络模型的训练方法及装置 |
-
2020
- 2020-10-29 CN CN202011180903.4A patent/CN112232491A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180349758A1 (en) * | 2017-06-06 | 2018-12-06 | Via Alliance Semiconductor Co., Ltd. | Computation method and device used in a convolutional neural network |
KR20190130443A (ko) * | 2018-05-14 | 2019-11-22 | 삼성전자주식회사 | 뉴럴 네트워크의 양자화 방법 및 장치 |
CN108898168A (zh) * | 2018-06-19 | 2018-11-27 | 清华大学 | 用于目标检测的卷积神经网络模型的压缩方法和系统 |
CN109284761A (zh) * | 2018-09-04 | 2019-01-29 | 苏州科达科技股份有限公司 | 一种图像特征提取方法、装置、设备及可读存储介质 |
CN111542838A (zh) * | 2018-12-12 | 2020-08-14 | 深圳鲲云信息科技有限公司 | 一种卷积神经网络的量化方法、装置及电子设备 |
CN111723901A (zh) * | 2019-03-19 | 2020-09-29 | 百度在线网络技术(北京)有限公司 | 神经网络模型的训练方法及装置 |
CN111260022A (zh) * | 2019-11-22 | 2020-06-09 | 中国电子科技集团公司第五十二研究所 | 一种卷积神经网络全int8定点量化的方法 |
Non-Patent Citations (1)
Title |
---|
SEAN O. SETTLE ET AL: "Quantizing Convolutional Neural Networks for Low-Power High-Throughput Inference Engines", 《ARXIV:1805.07941V1》, 21 May 2018 (2018-05-21), pages 1 - 10 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10929746B2 (en) | Low-power hardware acceleration method and system for convolution neural network computation | |
CN108701250B (zh) | 数据定点化方法和装置 | |
CN108364064B (zh) | 操作神经网络的方法、设备及系统 | |
CN111488985B (zh) | 深度神经网络模型压缩训练方法、装置、设备、介质 | |
CN111401550A (zh) | 神经网络模型量化方法、装置及电子设备 | |
CN109800865B (zh) | 神经网络生成及图像处理方法和装置、平台、电子设备 | |
US20200389182A1 (en) | Data conversion method and apparatus | |
CN111105017B (zh) | 神经网络量化方法、装置及电子设备 | |
CN111723901B (zh) | 神经网络模型的训练方法及装置 | |
US11580194B2 (en) | Information processing apparatus, information processing method, and program | |
CN109117940B (zh) | 基于卷积神经网络的目标检测方法、装置、终端及存储介质 | |
KR102585470B1 (ko) | 정보 처리장치, 정보 처리방법, 비일시적인 컴퓨터 판독가능한 기억매체 | |
US20230237331A1 (en) | Neural networks for embedded devices | |
CN110728358A (zh) | 基于神经网络的数据处理方法和装置 | |
CN110531955B (zh) | 用在深度神经网络的指数运算方法、计算机装置、记录介质 | |
CN115147598A (zh) | 目标检测分割方法、装置、智能终端及存储介质 | |
WO2021064529A1 (en) | Bi-scaled deep neural networks | |
CN114386590A (zh) | 用于压缩人工神经网络的方法和设备 | |
CN112085175B (zh) | 基于神经网络计算的数据处理方法和装置 | |
EP3940603A1 (en) | Processing apparatus for performing pointwise convolutions and depthwise convolutions | |
CN112232491A (zh) | 基于卷积神经网络模型的特征提取方法和装置 | |
CN109740733B (zh) | 深度学习网络模型优化方法、装置及相关设备 | |
CN112686365A (zh) | 运行神经网络模型的方法、装置和计算机设备 | |
CN116385369A (zh) | 深度图像质量评价方法、装置、电子设备及存储介质 | |
CN112181360B (zh) | 浮点数的乘法运算方法及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |