CN110998656B - 鉴别计算装置、鉴别计算方法及存储介质 - Google Patents
鉴别计算装置、鉴别计算方法及存储介质 Download PDFInfo
- Publication number
- CN110998656B CN110998656B CN201880051377.6A CN201880051377A CN110998656B CN 110998656 B CN110998656 B CN 110998656B CN 201880051377 A CN201880051377 A CN 201880051377A CN 110998656 B CN110998656 B CN 110998656B
- Authority
- CN
- China
- Prior art keywords
- authentication
- result
- calculation
- data
- bits
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 239
- 238000012545 processing Methods 0.000 claims description 237
- 238000013527 convolutional neural network Methods 0.000 claims description 72
- 230000015654 memory Effects 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 238000013500 data storage Methods 0.000 description 39
- 230000009467 reduction Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 20
- 238000000034 method Methods 0.000 description 20
- 238000009825 accumulation Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 238000003909 pattern recognition Methods 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 7
- 238000013075 data extraction Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Medical Informatics (AREA)
- Neurology (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明提供鉴别计算装置、鉴别计算方法及存储介质。为了使用小容量存储单元进行鉴别计算,鉴别计算装置包括:特征计算部被构造为针对各个层级层依次地计算鉴别目标数据的特征;鉴别计算部被构造为使用通过特征计算部依次地计算出的特征而对鉴别目标数据依次地进行部分鉴别计算,并将部分鉴别计算的结果存储在鉴别结果存储单元中;以及控制部被构造为控制鉴别计算部使用通过特征计算部依次地计算出的特征和鉴别结果存储单元中存储的部分鉴别计算的结果,进行下一部分鉴别计算,并将下一部分鉴别计算的结果存储在鉴别结果存储单元中。
Description
技术领域
本发明涉及一种用于对数据进行鉴别计算的鉴别计算装置、鉴别计算方法及存储介质。
背景技术
日本专利第4217664号公开了一种从包括面部的图像进行面部的个人识别的处理的图像处理装置。为了检测图像中包括的面部区域,检测形成面部的局部特征的边缘、形成通过整合边缘而获得的面部的局部特征的边缘部分、通过整合边缘部分而获得的面部的局部特征以及通过整合局部特征而获得的面部区域。设置部在面部区域中设置第一局部区域使得,在检测部检测到的特征中,根据形成面部的部分的形状而形成局部特征的边缘,被包括在第一局部区域中。此外,设置部在面部区域中设置第二局部区域,使得第二局部区域包括根据形成面部的部分之间的位置关系而形成局部特征的边缘部分。基于通过设置部在面部区域中设置的第一局部区域和第二局部区域中的特征组,识别部识别面部区域属于不同个人中谁的面部。
发明内容
技术问题
在日本专利第4217664号中,检测部使用用于检测图像中包括的面部的特征的层级神经网络来检测图像中包括的面部区域中的各个特征。日本专利第4217664号中公开的技术需要大容量的存储器来存储由检测部检测到的特征。具体地,为了实现基于最新技术的使用大规模层级神经网络的图像处理装置,发生存储成本的增加,这可能导致问题。
本发明的目的是提供一种能够使用小容量存储单元进行鉴别计算的鉴别计算装置、鉴别计算方法和存储介质。
技术方案
根据本发明的方面,一种鉴别计算装置包括:特征计算部,其被构造为针对各个层级层依次地计算鉴别目标数据的特征;鉴别计算部,其被构造为使用通过特征计算部依次地计算出的特征而依次地对鉴别目标数据进行部分鉴别计算,并将部分鉴别计算的结果存储在鉴别结果存储单元中;以及控制部,其被构造为控制鉴别计算部使用通过特征计算部依次地计算出的特征和鉴别结果存储单元中存储的部分鉴别计算的结果,进行下一部分鉴别计算,并将下一部分鉴别计算的结果存储在鉴别结果存储单元中。
发明的有益效果
根据本发明,能够使用小容量存储单元进行鉴别计算。
附图说明
[图1]图1是例示根据第一实施例的图像处理系统的构造的示例的图。
[图2]图2是例示鉴别处理的示例的图。
[图3]图3是例示根据第一实施例的鉴别计算装置的构造的示例的图。
[图4]图4是例示图案识别处理的算法的示例的图。
[图5]图5是例示CNN计算处理单元的构造的示例的图。
[图6]图6是例示根据第一实施例的鉴别计算方法的流程图。
[图7]图7是例示部分鉴别计算处理单元的构造的示例的图。
[图8]图8是例示另一鉴别计算方法的流程图。
[图9]图9是例示根据基本技术的鉴别计算装置的构造的示例的图。
[图10]图10是例示根据基本技术的鉴别计算方法的流程图。
[图11]图11是例示根据第二实施例的鉴别计算装置的构造的示例的图。
[图12]图12是例示根据第二实施例的鉴别计算方法的流程图。
[图13]图13是示出缩减位数的示例的图。
[图14]图14是例示根据第三实施例的鉴别计算装置的构造的示例的图。
[图15]图15是例示根据第三实施例的鉴别计算方法的流程图。
具体实施方式
(第一实施例)
图1是示出根据本发明的第一实施例的图像处理系统220的构造的示例的图。图像处理系统220包括图像输入单元200、鉴别计算装置211、图像总线203、桥204、预处理单元205、DMAC 206、CPU 207、ROM 208、RAM 209及CPU总线210。鉴别计算装置211包括RAM 201和图案识别处理单元202。图像处理系统220具有从图像数据检测特定对象的区域的功能。
图像输入单元200包括光学系统、光电转换器件、控制光电转换器件的驱动器电路、模数转换器、进行图像校正的信号处理电路、帧缓冲器等。光电转换器件是通过光电转换生成图像信号的CCD(电荷耦合器件)或CMOS(互补金属氧化物半导体)传感器。图像输入单元200将数字图像数据输出到图像总线203。RAM(随机存取存储器)201是图案识别处理单元202使用的计算工作缓冲器。图案识别处理单元202使用RAM 201从图像识别特定图案。
DMAC(直接存储器存取控制器)206在图像总线203上的各个处理单元与CPU总线210之间传输数据。桥204在图像总线203与CPU总线210之间提供桥接功能。预处理单元205进行各种预处理,以使得图案识别处理单元202有效地进行图案识别处理。更具体地,预处理单元205通过硬件进行诸如颜色转换处理、对比度校正处理等的图像数据转换处理。ROM(只读存储器)208存储定义CPU 207的操作的程序和参数数据。CPU 207通过执行存储在ROM208中的程序来控制图像处理系统220的操作。RAM 209是操作CPU 207所需的存储器。CPU207也可以经由桥204访问图像总线203上的RAM 201。
图像输入单元200将图像数据输出到预处理单元205。预处理单元205对图像数据进行预处理,并将预处理后的图像数据输出至图案识别处理单元202。图案识别处理单元202以像素为单位对输入的预处理图像数据进行预定的鉴别处理,确定输入图像中的预定对象的区域,并将确定结果作为鉴别映射以图像格式存储在RAM 201中。
图2是示意性地例示要由图案识别处理单元202鉴别的图像的确定结果的示例的图。图像31中的人物区域32(由实线区域指示)是作为确定的结果而以像素为单位所获得的区域。图案识别处理单元202将图2所示的确定结果存储在RAM 201中。DMAC 206将存储在RAM 201中的确定结果传输到RAM 209。CPU 207使用存储在RAM 209中的确定结果来执行各种应用处理。例如,CPU 207根据对象的区域执行诸如最优图像处理等的处理。
图3是例示图1所示的鉴别计算装置211的构造的示例的图。鉴别计算装置211包括CNN计算处理单元11、层级数据存储单元12、部分鉴别计算处理单元13、鉴别结果存储单元14和控制单元15。CNN(Convolutional Neural Network,卷积神经网络)代表卷积神经网络。
CNN计算处理单元11对层级数据存储单元12中存储的前一层数据进行多种类型的卷积运算,并将计算结果存储在层级数据存储单元12中。部分鉴别计算处理单元13使用作为CNN计算处理单元11的结果而获得的中间层级层的计算结果来部分地进行鉴别处理的计算,并且部分鉴别计算处理单元13将鉴别处理的部分计算结果存储在鉴别结果存储单元14中。此处进行的鉴别处理是通过学习方法(诸如支持向量机或逻辑回归)生成的线性鉴别处理。层级数据存储单元12和鉴别结果存储单元14对应于图1中的RAM 201。控制单元15是被构造为控制由CNN计算处理单元11进行的处理序列和由部分鉴别计算处理单元13进行的处理序列的处理单元。控制单元15由小型CPU或硬件定序器构造。
图4是例示由图3所示的CNN计算处理单元11进行的处理的算法和由部分鉴别计算处理单元13进行的处理的算法的示例的图。在下面的描述中,将针对使用的CNN规模小并且仅具有三层408至410的情况说明使用CNN和特征面数据的鉴别处理。注意,许多实用的CNN是使用大量特征面数据和大量层级层构造的。
在对图像数据进行CNN计算处理的情况下,输入层401由具有预定大小的光栅扫描图像数据给出。注意,输入层401中的图像数据是鉴别目标数据。特征面数据403a至403c是第一层级层408中的特征面数据。获得特征面数据作为预定特征提取计算(卷积计算和非线性处理)的处理结果。由于特征面数据是光栅扫描图像数据的处理结果,因此该处理结果也由面给出。图案识别处理单元202使用特征面数据403a至403c作为中间层级层中的数据进行鉴别。通过对输入层401进行卷积运算和非线性处理来计算特征面数据403a至403c。CNN计算处理单元11的处理单元4021a通过对输入层401使用二维卷积核进行卷积运算并进一步对其计算结果进行非线性变换来计算特征面数据403a。CNN计算处理单元11的处理单元4021b通过对输入层401使用二维卷积核进行卷积运算并进一步对其计算结果进行非线性变换来计算特征面数据403b。CNN计算处理单元11的处理单元4021c通过对输入层401使用二维卷积核进行卷积运算并进一步对其计算结果进行非线性变换来计算特征面数据403c。处理单元4021a至4021c分别计算不同的特征面数据403a至403c。
例如,各个处理单元4021a至4021c通过进行诸如式(1)所示的积和运算,利用由columnSize(列大小)×rowSize(行大小)给定大小的核(系数矩阵)进行卷积运算。
[数式1]
在该式(1)中,input(x,y)表示在输入层401中的二维坐标(x,y)处的参考像素值,output(x,y)表示在二维坐标(x,y)中的计算结果,weight(column,row)表示坐标(x+column,y+row)处的加权系数,columnSize和rowSize是二维卷积核的水平和垂直大小。
CNN计算处理单元11在以像素为单位扫描多个卷积核的同时,对输入层401重复积和运算,并对最终积和结果进行非线性变换,从而获得特征面数据403a至403c。注意,当计算特征面数据403a时,与前一层的连接数为1,因此存在一个卷积核。
图5是例示图3所示的CNN计算处理单元11的主计算单元的图。参照图5,下面将针对计算图4所示的特征面数据405a的示例情况来描述主计算单元的基本操作。通过对前一层级层408中的三个特征面数据403a至403c进行卷积运算来计算特征面数据405a。CNN计算处理单元11包括卷积运算处理单元501、累积加法器502和非线性转换处理单元503。卷积运算处理单元501对特征面数据403a使用核进行卷积运算4041a,并将运算结果存储在累积加法器502中。类似地,卷积运算处理单元501分别对特征面数据403b和403c使用核进行卷积运算4041b和4041c,并将运算结果存储在累积加法器502中。注意,卷积运算处理单元501可以依次地或并行地处理三个核。累积加法器502对运算结果进行累积相加,并将累积相加结果输出至非线性转换处理单元503。非线性转换处理单元503对累积相加结果使用ReLU(校正线性单元)函数或逻辑函数进行非线性转换处理,并输出特征面数据405a。CNN计算处理单元11通过在逐像素扫描整个特征面数据403a至403c的同时进行上述处理来计算特征面数据405a。
类似地,如图4所示,CNN计算处理单元11分别对前一层级层408中的多个特征面数据403a至403c进行三次卷积运算4041b、4042b和4043b,从而计算特征面数据405b。CNN计算处理单元11还对第二层级层409中的特征面数据405a和405b进行两次卷积运算4061和4062,从而计算第三层级层410中的特征面数据407。如上所述,CNN计算处理单元11用作被构造为逐层依次地计算特征面数据的特征计算部。注意,各个卷积运算的系数是通过使用诸如反向传播学习等的一般方法通过学习预先确定的。
部分鉴别计算处理单元13将位于各个特征面数据403a至403c、405a至405b和407的像素位置处的数据进行级联,使得特征矢量由各特征面数据的各级联的数据所形成的矢量给出。对这些特征矢量,部分鉴别计算处理单元13进行线性鉴别计算处理,并输出鉴别映射411。由于特征矢量是通过将与像素位置相对应的特征面数据进行级联而获得的数据,因此在图4所示的网络的情况下,针对对应的六个特征面数据403a至403c、405a至405b和407获得了6维特征矢量。部分鉴别计算处理单元13根据式(2)对各个像素位置进行线性鉴别计算。
[数式2]
在该式(2)中,featuremap(n,f,x,y)是第n层级层中坐标(x,y)处的第f特征面数据的值,result(x,y)是坐标(x,y)处的数据的鉴别结果,weight(n,f)是第n层级层中第f特征面数据的系数,LayerNumber是层级层的数量,FeaturemapNumber是第n层级层中包括的特征面数据的数量。
此外,weight(n,f)是通过逻辑回归、支持向量机等预先学习的系数。部分鉴别计算处理单元13通过式(2)的计算来输出特征面数据的各个像素位置的处理的结果作为鉴别映射411。由于部分鉴别计算处理单元13对各个像素位置进行鉴别处理,所以鉴别结果也被生成为图像格式的鉴别映射411。在鉴别映射411中,与各个像素位置相对应的值指示目标对象区域的概率。
图6是例示通过图3所示的鉴别计算装置211的鉴别计算方法的流程图。在步骤S601中,控制单元15设置用于指定CNN计算处理单元11的操作和部分鉴别计算处理单元13的操作的参数。接下来,在步骤S602中,CNN计算处理单元11对一个层级层进行CNN计算,并为一个层级层计算特征面数据。例如,CNN计算处理单元11在图4的层级层408中计算特征面数据,并且计算特征面数据405a和405b。接下来,在步骤S603中,CNN计算处理单元11将在步骤S602中计算出的特征面数据作为中间层级数据存储在层级数据存储单元12中。CNN计算处理单元11在步骤S602中依次进行CNN计算,并在步骤S603中将特征面数据存储在层级数据存储单元12中。
接下来,在步骤S604中,部分鉴别计算处理单元13基于对鉴别结果存储单元14中存储的前一层级层的特征提取处理的结果,读取鉴别处理的部分计算结果。接下来,在步骤S605中,基于在步骤S604中读出的计算结果和根据经由通过CNN计算处理单元11的处理而输出的层级层的特征面数据,部分鉴别计算处理单元13根据式(3)进行部分鉴别处理。
[数式3]
在该式(3)中,featuremap(n,f,x,y)是第n层级层中坐标(x,y)处的第f特征面数据的值,weight(n,f)是第n层级层中第f特征面数据的系数,featuremap_number是第n层级层中的特征面数据的数量,part_result(n-1,x,y)是针对直到第(n-1)层级层的特征面数据进行的部分鉴别计算的结果,part_result(n,x,y)是针对直到第n层级层的特征面数据进行的部分鉴别计算的结果。
部分鉴别计算处理单元13计算作为式(3)中的针对直到第(n-1)层级层进行的鉴别计算处理的结果而给出的part_result(n-1,x,y),与特征面数据featuremap(n,f,x,y)和加权因子weight(n,f)的内积的和。因此,部分鉴别计算处理单元13获得part_result(n,x,y)作为对第n层级层的部分鉴别计算的结果。
如式(2)所示,通过计算整个特征面数据的featuremap(n,f,x,y)与相应的加权因子weight(n,f)的内积的和,获得线性鉴别计算结果(x,y)的总结果。在本实施例中,在步骤S604中,部分鉴别计算处理单元13从鉴别结果存储单元14中读出,指示针对直到前一层级层进行的部分鉴别计算的结果的part_result(n-1,x,y)。接下来,在步骤S605中,部分鉴别计算处理单元13计算式(3)右侧的第二项,并且计算式(3)右侧的第二项与在步骤S604中读取的计算结果part_result(n-1,x,y)之和。因此,部分鉴别计算处理单元13获得针对直到当前层级层而计算出的部分鉴别计算结果part_result(n,x,y)。即,部分鉴别计算处理单元13执行鉴别处理计算中的一部分层级层的计算。因此,在步骤S603中,CNN计算处理单元11可以在层级数据存储单元12中仅存储下一CNN计算所需的层级层的特征面数据。
图7是例示图3所示的部分鉴别计算处理单元13的构造的示例的图。部分鉴别计算处理单元13包括乘法器71、累积加法器72和加法器73。乘法器71进行,第n层级层中第f特征面数据featuremap(n,f,x,y)与权重系数weight(n,f)的乘法。累积加法器72针对各特征面数据对由乘法器71输出的乘法结果进行累积相加,并输出式(3)右侧的第二项的数据。
乘法器71可以在正在处理的第n层级层中读出特征面数据,使得每当完成通过CNN计算处理单元11的以像素为单位的CNN计算的处理时读出特征面数据,或者使得在层级数据存储单元12中缓冲特征面数据和一次以特定单位读出特征面数据。例如,图8例示了图6所示的流程图的变型的示例。在该变型例中,步骤S603的位置与图6所示的位置不同。在图8中,与步骤S604至S606并行地处理步骤S603。在使用物理上不同的存储器等构造层级数据存储单元12和鉴别结果存储单元14的情况下,期望上述并行处理导致处理速度的提高。
图7所示的加法器73计算,鉴别结果存储单元14中存储的、针对直到前一层级层的部分确定运算结果part_result(n-1,x,y),与由累积加法器72输出的式(3)右侧的第二项的数据的和。然后,加法器73输出式(3)左侧的、针对直到当前层级层的部分鉴别计算结果part_result(n,x,y)。
如上所述,乘法器71和累积加法器72计算本层级层中的特征面数据featuremap(n,f,x,y)与权重系数weight(n,f)的乘积之和。加法器73将针对由累积加法器72输出的当前层级层所计算出的乘积之和的结果,同鉴别结果存储单元14中存储的针对直到前一层级层所计算出的乘积之和的结果part_result(n-1,x,y)相加,并将所得和存储在鉴别结果存储单元14中。
接下来,在图6的步骤S606中,部分鉴别计算处理单元13将针对直到在步骤S605中获得的当前层级层所计算出的部分鉴别计算结果part_result(n,x,y)存储在鉴别结果存储单元14中。该鉴别计算结果part_result(n,x,y)在下一层级层的处理中用作直到前一层级层的部分鉴别计算结果part_result(n-1,x,y)。接下来,在步骤S607中,控制单元15确定是否针对所有层级层完成了处理。在控制单元15确定未针对所有层级层完成处理的情况下,控制单元15将处理返回至步骤S602,并针对下一层级层重复该处理。在控制单元15确定针对所有层级层完成了处理的情况下,控制单元15结束处理。因此,通过进行上述处理,鉴别计算装置211获得鉴别映射411,作为对所有层级层的鉴别计算处理的结果。
如上所述,CNN计算处理单元11用作特征计算单元,该特征计算单元被构造为对输入层401中逐层给出的鉴别目标数据依次计算特征面数据。更具体地,CNN计算处理单元11基于输入层401中给出的鉴别目标数据来计算第一层级层408中的特征面数据403a至403c,并且将第一层级层408中的特征面数据403a至403c存储到层级数据存储单元(特征存储单元)12中。接下来,CNN计算处理单元11基于层级数据存储单元12中存储的第一层级层408中的特征面数据403a至403c,计算第二层级层409中的特征面数据405a和405b,并将计算出的特征面数据405a和405b存储到层级数据存储单元12中。接下来,CNN计算处理单元11基于层级数据存储单元12中存储的第二层级层409中的特征面数据405a和405b,计算第三层级层410中的特征面数据407,并将计算出的特征面数据407存储到层级数据存储单元12中。
部分鉴别计算处理单元13使用由CNN计算处理单元11依次计算出的特征面数据,对输入层401中给出的鉴别目标数据依次进行部分鉴别计算,并将部分鉴别计算的结果存储在鉴别结果存储单元(the discrimination result storage unit)14中。部分鉴别计算处理单元13使用由CNN计算处理单元11依次计算出的特征面数据和鉴别结果保持单元14中存储的部分鉴别计算的结果来进行下一部分鉴别计算,并将该下一部分鉴别计算的结果存储在鉴别结果存储单元14中。
接下来,与根据图9和图10所示的基本技术的鉴别计算装置80相比较,描述图3和图6所示的根据本实施例的鉴别计算装置211的特征。图9是例示根据基本技术的鉴别计算装置80的构造的示例的图。鉴别计算装置80包括CNN计算处理单元81、特征面数据存储单元82、鉴别计算处理单元83、鉴别结果存储单元84和控制单元85。CNN计算处理单元81对特征面数据存储单元82中存储的特征面数据进行卷积运算,并将计算结果存储在特征面数据存储单元82中。CNN计算处理单元81将所有层级层的特征面数据存储在特征面数据存储单元82中。鉴别计算处理单元83参考特征面数据存储单元82中存储的特征面数据,并执行鉴别计算处理。鉴别计算处理单元83将其结果存储在鉴别结果存储单元84中。控制单元85是被构造为控制由CNN计算处理单元81进行的处理序列和由鉴别计算处理单元83进行的处理序列的处理单元。控制单元85由小型CPU或硬件定序器构造。
图10是例示通过图9所示的鉴别计算装置80的鉴别计算方法的流程图。在步骤S901中,控制单元85设置用于指定CNN计算处理单元81的操作和鉴别计算处理单元83的操作的参数。接下来,在步骤S902中,CNN计算处理单元81对一个层级层进行CNN计算,从而获得一个层级层的特征面数据。接下来,在步骤S903中,CNN计算处理单元81将在步骤S902中计算出的特征面数据存储在特征面数据存储单元82中。接下来,在步骤S904中,在控制单元85确定未针对所有层级层完成处理的情况下,控制单元85将处理返回至步骤S902,并对下一层级层重复该处理。在这种情况下,在步骤S903中,CNN计算处理单元81将各层级层的特征面数据存储在特征面数据存储单元82的不同区域中。在控制单元85确定针对所有层级层完成了处理的情况下,控制单元85使处理进入步骤S905。在步骤S905中,鉴别计算处理单元83参照特征面数据存储单元82中存储的各个层级层的特征面数据,并根据式(2)进行鉴别计算处理。接下来,在步骤S906中,鉴别计算处理单元83将鉴别结果存储在鉴别结果存储单元84中。
在根据基本技术的鉴别计算装置80中,CNN计算处理单元81将所有层级层的特征面数据存储在特征面数据存储单元82中。例如,当处理图4所示的网络时,特征面数据存储单元82需要存储5×特征面数据大小的特征面数据(假设对于所有层级层,特征面数据大小均相等)。
另一方面,在根据本实施例的鉴别计算装置211中,层级数据存储单元12仅需要能够保持特征面数据用于处理CNN计算处理单元11的下一CNN计算所必需的两层。在图4的网络中,在计算层级层409的特征面数据的情况下,层级数据存储单元12存储最大量的特征面数据。在这种情况下,层级数据存储单元12保持4×特征面数据大小的特征面数据。即,在本实施例的情况下,鉴别计算装置211可以减小用于存储特征面数据的层级数据存储单元12的容量。
在图4所示的示例中,为便于说明,CNN的尺寸较小。然而,在实际的CNN中,CNN包括大量的层级层。因此,减小层级数据存储单元12的容量的效果非常大。例如,以下说明各个层级层具有64个特征面的情况(假设所有层级层的特征面的数量相等),并且层级层的数量为10。在这种情况下,根据基本技术的鉴别计算装置80需要容量为64×10个特征面数据的特征面数据存储单元82。另一方面,在根据本实施例的鉴别计算装置211中,层级数据存储单元12仅需要64×2个特征面数据的容量。具体地,当将本实施例应用于诸如日本专利第5184824号中公开的具有小容量的存储器的CNN的计算方法时,可以实现进一步的增强效果。
如上所述,在根据本实施例的鉴别计算装置211中,在层级数据存储单元12中存储CNN的中间层级数据(特征面数据)使得可以减小层级数据存储单元12的容量,这使得能够降低成本。
(第二实施例)
图11是例示根据本发明的第二实施例的鉴别计算装置211的构造的示例的图。通过将数据缩减处理单元126添加到图3所示的鉴别计算装置211来获得图11所示的鉴别计算装置211。数据缩减处理单元126配设在部分鉴别计算处理单元13与鉴别结果存储单元14之间。注意,数据缩减处理单元126可以配设在部分鉴别计算处理单元13中。下面描述本实施例与第一实施例的不同之处。
在第一实施例中,部分鉴别计算处理单元13将各个层级层的部分计算结果的累积加法的结果存储在鉴别结果存储单元14中。在这种情况下,随着累积加法处理的进行,部分鉴别计算处理单元13需要增加的数量的计算位数。因此,在使用整数定点计算进行处理的情况下,需要增加鉴别结果存储单元14的存储器数据宽度。存储器数据宽度的增加直接导致鉴别结果存储单元14的容量的增加,并使得鉴别计算装置211的成本增加。因此,期望以尽可能小的存储器数据宽度进行处理。在本实施例中,数据缩减处理单元126和部分鉴别计算处理单元13缩减部分鉴别计算处理单元13输出的鉴别计算结果的位数,并将缩减了位数的鉴别计算结果存储在鉴别结果存储单元14中。
图12是示出通过图11所示的鉴别计算装置211的鉴别计算方法的流程图。在图12所示的流程图中,代替图6所示的流程图中的步骤S606和S607而配设了步骤S1106至S1108。
首先,与图6所示的处理一样,鉴别计算装置211进行步骤S601至S605中的处理。接下来,在步骤S1106中,数据缩减处理单元126和部分鉴别计算处理单元13根据式(3)缩减在步骤S605的鉴别处理中的部分计算结果的位数。更具体地,数据缩减处理单元126和部分鉴别计算处理单元13从式(3)右侧的第二项的乘积之和的结果中提取特定位位置处的特定位数的数据,然后将式(3)右侧的第一项的值添加到提取的数据。即,数据缩减处理单元126和部分鉴别计算处理单元13缩减当前层级层的特征面数据与加权系数的乘积之和的结果的位数,并将缩减了位数的乘积之和的结果添加到针对直到前一层级层所计算出的乘积之和的结果。将相加结果存储在鉴别结果存储单元14中。
图13是例示通过数据缩减处理单元126的位数缩减处理的具体示例的图。二值数据位串1301是从通过部分鉴别计算处理单元13输出的部分计算结果的数据位串,并且包括32位数据Dn(n:0至31)。位数据Dn是二值数据位串1301的元素,并且指示32位数据串。在步骤S1106中,数据缩减处理单元126在二值数据位串1301中的预定数据提取位位置1302处提取所需数量的有效位的数据1303。例如,数据1303可以是10位数据。数据提取位位置1302是在步骤S1106中预先给出的参数。数据提取位位置1302由基于在步骤S602中特征面数据的小数点位置所确定的值、鉴别处理中使用的加权系数的小数点位置以及鉴别结果存储单元14中所存储的数据的小数点位置来指定。即,数据提取位位置1302是用于对式(3)右侧的第一项的位位置与式(3)右侧的第二项的位位置进行匹配所必需的参数。
数据提取位位置1302对于各个层级层或对于鉴别目标数据的各个类别可以是不同的。步骤S602的结果和鉴别处理的相应加权系数的数据分布可以根据层级和类别而不同。在这种情况下,各个小数点位置都不同。在步骤S1106中,考虑到各个小数点位置,数据缩减处理单元126提取具有所需位数的数据1303,使得位数与鉴别结果存储单元14中存储的数据的位数匹配。使用测试数据预先确定各个小数点位置,并且相应地,预先确定数据提取位位置1302。在确定数据1303的位数时,在存储器成本与计算精度之间存在折衷,这也通过使用测试数据来预先确定。
在本实施例中,从式(3)可以看出,首先进行计算,以确定所有层级层的特征面数据与加权系数的内积,同鉴别结果存储单元14中存储的前一层级层的部分计算之和,然后进行位数的缩减。然而,处理不限于此。例如,可以进行处理使得针对层级层中的各个预定数量的特征面数据进行位数的缩减,并且由于安装限制等而将数据累积在鉴别结果存储单元14中。从鉴别精度的观点出发,期望的是,使用具有足够大位数的累积加法器72(图7),对尽可能多的特征面数据进行内积运算后,进行位数的缩减。然而,处理不限于这种方法。
接下来,在图12中的步骤S1107中,部分鉴别计算处理单元13将步骤S1106中缩减了位数的、针对直到当前层级的部分鉴别计算结果写入鉴别结果存储单元14中。接下来,在步骤S1108中,控制单元15确定是否针对所有层级层完成了处理。在控制单元15确定未针对所有层级层完成处理的情况下,控制单元15将处理返回至步骤S602,并针对下一层级层重复该处理。在控制单元15确定针对所有层级层完成了处理的情况下,控制单元15结束该处理。通过进行上述处理,鉴别计算装置211获得所有层级层的鉴别计算结果作为鉴别映射411。
如上所述,根据本实施例,可以使用具有小容量的层数据存储单元12使用CNN的中间层数据来实现鉴别处理。此外,数据缩减处理单元126适当地缩减了部分鉴别计算的位数,因此可以减小鉴别结果存储单元14的容量。结果,期望RAM 201的容量进一步减小。
(第三实施例)
图14是例示根据本发明的第三实施例的鉴别计算装置211的构造的示例的图。通过向图11所示的鉴别计算装置211添加第一数据缩减处理单元147而获得图14所示的鉴别计算装置211。图14中的第二数据缩减处理单元126对应于图11中的数据缩减处理单元126。第一数据缩减处理单元147配设在CNN计算处理单元11与层级数据存储单元12之间。第一数据缩减处理单元147可以配设在CNN计算处理单元11中。下面描述本实施例与第二实施例的不同之处。通常,在鉴别计算装置211是嵌入式装置的情况下,所有处理都使用整数定点计算来进行。CNN计算处理单元11通过使用整数类型进行CNN计算处理来生成特征面数据。第一数据缩减处理单元147和CNN计算处理单元11缩减特征面数据的位数,并将缩减了位数的特征面数据存储到层级数据存储单元12中。
图15是例示通过图14所示的鉴别计算装置211的鉴别计算方法的流程图。通过将步骤S1509添加到图12中的流程图来获得图15中的流程图。步骤S1509配设在步骤S602与S603之间。在步骤S1106中,第二数据缩减处理单元126进行与图12类似的处理。
在步骤S1509中,第一数据缩减处理单元147缩减步骤S602中计算出的特征面数据的位数。接下来,在步骤S603中,CNN计算处理单元11将缩减了位数的特征面数据存储在层级数据存储单元12中。在步骤S1106中,如第二实施例中所述,第二数据缩减处理单元126将位数缩减到10位数据。另一方面,在步骤S1509中,第一数据缩减处理单元147将位数缩减为具有8位数据宽度的数据。由第一数据缩减处理单元147缩减的位数和由第二数据缩减处理单元126缩减的位数彼此不同。通常,在通过CNN计算处理单元11的特征提取处理中,位数的缩减导致鉴别精度的少量降低。与此相对,在通过部分鉴别计算处理单元13的鉴别处理计算中,计算位数的缩减通常对鉴别精度有很大的影响。
在本实施例中,考虑到以下事实:鉴别结果存储单元14中存储的数据量小于必须要存储在层级数据存储单元12中的数据量(在图4中示出的示例中的一个面的特征面数据),将鉴别结果存储单元14中存储的数据的位数设置为大于其他处理单元的位数。这使得使用CNN中间层级数据并使用小容量的RAM 201来实现鉴别处理,而不会明显降低鉴别精度。
在第一实施例至第三实施例中,作为示例,对逐层执行鉴别处理的部分计算的情况进行了说明。然而,实施例不限于该示例。可以以根据层级网络中的特征面数据的数量、特征面数据的大小以及层级数据存储单元12的存储器大小确定的数据为单位进行部分计算。例如,可以以多个层为单位进行鉴别处理的部分计算。如第二实施例中所述,当在鉴别结果存储单元14中存储数据的位数时,如果将部分计算结果存储在确定结果保持单元14中的次数尽可能地减少,则可以减少位数对性能的影响。
在第一实施例至第三实施例中,已经给出了针对二维图像数据进行CNN计算处理的示例情况的说明。然而,CNN计算处理也可以应用于诸如音频数据等的一维数据、随时间变化的三维数据等。
在第一实施例至第三实施例中,作为示例,针对进行CNN计算处理作为特征提取处理的情况进行了说明。然而,实施例不限于该示例。可以采用各种其他层级处理,例如受限玻尔兹曼机(Restricted Boltzmann Machines)、递归神经网络(Recursive NeuralNetwork)等。
在第一实施例至第三实施例中,作为示例,针对CPU用作控制单元15的情况进行了说明。然而,整个控制单元15可以使用用于控制序列的硬件来实现。
在第一实施例至第三实施例中,作为示例,针对通过硬件进行卷积运算和内积运算的情况进行了说明。然而,实施例不限于该示例。通过图案识别处理单元202的所有处理可以通过由通用CPU执行程序来实现。即使在这种情况下,也可以大大减少CPU所需的工作内存量。当通过通用计算机系统或云系统进行处理时,实施例也是有效的。
本发明还可以通过向系统或装置提供一种存储介质来实现,该存储介质包括在其中存储的用于实现上述实施例中公开的一个或更多个功能的程序,并且通过在系统或装置中设置的计算机中的一个或更多个处理器上读取并执行该程序来实现。本发明还可以通过被构造为实现上述一个或更多个功能的电路(诸如ASIC等)来实现。
上述实施例仅仅是实施本发明的实施方式的示例,并且本发明的技术范围不应以限定的方式理解。也就是说,本发明可以以各种形式实施而不会脱离本发明的技术构思或主要特征。
本发明不限于上述实施例,并且可以在不脱离本发明的精神和范围的情况下进行各种改变和变型。因此,为了使本发明的范围公开,附上权利要求书。
本申请要求基于2017年8月8日提交的日本专利申请第2017-153187号的优先权,其全部内容通过引用合并于此。
Claims (13)
1.一种鉴别计算装置,其包括:
特征计算部,其被构造为在层级神经网络的至少三个处理层的各个层中计算目标数据的特征;和
鉴别计算部,其被构造为通过多个鉴别计算来进行目标数据的鉴别;
其中,所述多个鉴别计算中的各个鉴别计算包括:将从所述至少三个处理层的一个对应层中提取的一个或更多个特征与加权因子的乘积之和的结果同先于所述一个对应层的鉴别计算结果相加。
2.根据权利要求1所述的鉴别计算装置,其中,在提取时,基于目标数据而从所述至少三个处理层的第一层级层中提取一个或更多个特征,在一个或更多个存储器的特征存储区域中存储所述第一层级层中的一个或更多个特征,并且基于存储在特征存储区域中的所述第一层级层中的一个或更多个特征而在所述至少三个处理层的第二层级层中提取一个或更多个特征。
3.根据权利要求1或2所述的鉴别计算装置,其中,所述层级神经网络是卷积神经网络,并且在提取一个或更多个特征时进行使用所述卷积神经网络的卷积操作。
4.根据权利要求1或2所述的鉴别计算装置,其中,在鉴别时,缩减鉴别计算结果的位数,并且将具有缩减了位数的鉴别计算结果存储在一个或更多个存储器的鉴别结果存储区域中。
5.根据权利要求1所述的鉴别计算装置,其中,在鉴别时,缩减从所述一个对应层中提取的一个或更多个特征与加权因子的乘积之和的结果的位数,将具有缩减了位数的乘积之和的结果与针对先于所述一个对应层的层的鉴别计算结果相加,并将相加的结果存储在一个或更多个存储器的鉴别结果存储区域中。
6.根据权利要求4所述的鉴别计算装置,其中,在鉴别时,从在所述一个对应层中提取的一个或更多个特征与加权因子的乘积之和的结果中提取特定位位置处的特定位数的数据,将所提取的数据与针对先于所述一个对应层的层的鉴别计算结果相加,并将相加的结果存储在一个或更多个存储器的鉴别结果存储区域中。
7.根据权利要求6所述的鉴别计算装置,其中,特定位位置针对所述至少三个处理层的各个层而变化。
8.根据权利要求6所述的鉴别计算装置,其中,特定位位置针对目标数据的各个类别而变化。
9.根据权利要求2所述的鉴别计算装置,其中,在提取时,缩减一个或更多个特征的位数,并将具有缩减了位数的一个或更多个特征存储在特征存储区域中。
10.根据权利要求1所述的鉴别计算装置,其中,
在提取一个或更多个特征时,缩减特征的位数,并且将具有缩减了位数的特征存储在一个或更多个存储器的特征存储区域中,并且
在鉴别时,缩减鉴别结果的位数,并将具有缩减了位数的鉴别结果存储在一个或更多个存储器的鉴别结果存储区域中。
11.根据权利要求10所述的鉴别计算装置,其中,在提取时缩减的位数与在鉴别时缩减的位数彼此不同。
12.一种鉴别计算方法,其包括如下步骤:
在层级神经网络的至少三个处理层的各个层中计算目标数据的特征;和
通过多个鉴别计算来进行目标数据的鉴别;
其中,多个鉴别计算中的各个鉴别计算包括:将从所述至少三个处理层的一个对应层中提取的一个或更多个特征与加权因子的乘积之和的结果同先于所述一个对应层的鉴别计算结果相加。
13.一种计算机可读存储介质,其存储程序,所述程序使计算机用作根据权利要求1至11中的任一项所述的鉴别计算装置的各个部。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-153187 | 2017-08-08 | ||
JP2017153187A JP6929734B2 (ja) | 2017-08-08 | 2017-08-08 | 判別演算装置、判別演算方法及びプログラム |
PCT/JP2018/028366 WO2019031282A1 (ja) | 2017-08-08 | 2018-07-30 | 判別演算装置、判別演算方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110998656A CN110998656A (zh) | 2020-04-10 |
CN110998656B true CN110998656B (zh) | 2024-02-20 |
Family
ID=65271445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880051377.6A Active CN110998656B (zh) | 2017-08-08 | 2018-07-30 | 鉴别计算装置、鉴别计算方法及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11755893B2 (zh) |
EP (1) | EP3667613A4 (zh) |
JP (1) | JP6929734B2 (zh) |
CN (1) | CN110998656B (zh) |
WO (1) | WO2019031282A1 (zh) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4217664B2 (ja) | 2004-06-28 | 2009-02-04 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
JP5171118B2 (ja) * | 2007-06-13 | 2013-03-27 | キヤノン株式会社 | 演算処理装置及びその制御方法 |
JP5184824B2 (ja) | 2007-06-15 | 2013-04-17 | キヤノン株式会社 | 演算処理装置及び方法 |
JP5376920B2 (ja) * | 2008-12-04 | 2013-12-25 | キヤノン株式会社 | コンボリューション演算回路、階層的コンボリューション演算回路及び物体認識装置 |
US20170124409A1 (en) * | 2015-11-04 | 2017-05-04 | Nec Laboratories America, Inc. | Cascaded neural network with scale dependent pooling for object detection |
GB2545661A (en) * | 2015-12-21 | 2017-06-28 | Nokia Technologies Oy | A method for analysing media content |
JP6144374B1 (ja) | 2016-02-22 | 2017-06-07 | 加賀電子株式会社 | 電力変換装置 |
US10621486B2 (en) * | 2016-08-12 | 2020-04-14 | Beijing Deephi Intelligent Technology Co., Ltd. | Method for optimizing an artificial neural network (ANN) |
-
2017
- 2017-08-08 JP JP2017153187A patent/JP6929734B2/ja active Active
-
2018
- 2018-07-30 CN CN201880051377.6A patent/CN110998656B/zh active Active
- 2018-07-30 WO PCT/JP2018/028366 patent/WO2019031282A1/ja unknown
- 2018-07-30 EP EP18844587.8A patent/EP3667613A4/en active Pending
-
2020
- 2020-02-07 US US16/784,946 patent/US11755893B2/en active Active
Non-Patent Citations (1)
Title |
---|
Tsung-Yi Lin."Feature Pyramid Networks for Object Detection".ARXIV.ORG,CORNELL UNIVERSITY LIBRARY,2010LIN LIBRARY CORNELL UNIVERSITY ITHACA,NY14853.2016,第2117-2120页、附图1-4. * |
Also Published As
Publication number | Publication date |
---|---|
EP3667613A1 (en) | 2020-06-17 |
WO2019031282A1 (ja) | 2019-02-14 |
US20200175327A1 (en) | 2020-06-04 |
JP2019032698A (ja) | 2019-02-28 |
JP6929734B2 (ja) | 2021-09-01 |
CN110998656A (zh) | 2020-04-10 |
US11755893B2 (en) | 2023-09-12 |
EP3667613A4 (en) | 2021-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11164003B2 (en) | System and method for detecting objects in video sequences | |
CN111814794B (zh) | 文本检测方法、装置、电子设备及存储介质 | |
KR101991763B1 (ko) | 조밀 탐색 방법 및 화상 처리 장치 | |
CN112560980B (zh) | 目标检测模型的训练方法、装置及终端设备 | |
US9053387B2 (en) | Image processing circuit and image detection device | |
JP6800656B2 (ja) | 演算回路、その制御方法及びプログラム | |
CN106791503B (zh) | 图像处理方法 | |
JP7204586B2 (ja) | 学習方法、プログラム及び画像処理装置 | |
JP2017027314A (ja) | 並列演算装置、画像処理装置及び並列演算方法 | |
CN110998656B (zh) | 鉴别计算装置、鉴别计算方法及存储介质 | |
CN103841340A (zh) | 图像传感器及其运作方法 | |
JP7391553B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Zhou et al. | An efficient implementation of the gradient-based Hough transform using DSP slices and block RAMs on the FPGA | |
CN115619678B (zh) | 一种图像变形的矫正方法、装置、计算机设备及存储介质 | |
JP2021009566A (ja) | 演算処理装置及び演算処理方法 | |
CN113033578B (zh) | 基于多尺度特征匹配的图像校准方法、系统、终端及介质 | |
KR101460699B1 (ko) | 고성능 스테레오 정합 연산을 위한 병렬 스테레오 정합 연산 장치 | |
EP0585861A2 (en) | Image verification method | |
CN113674383A (zh) | 生成文本图像的方法及装置 | |
KR101620928B1 (ko) | 우선순위 주소 배분과 이동창 기법을 이용한 얼굴검출 시스템 | |
WO2019082283A1 (ja) | 画像解析装置 | |
JP7114321B2 (ja) | データ処理装置及びその方法 | |
US20230162489A1 (en) | Method of extracting unsuiitable and defective data from plurality of pieces of training data used for learning of machine learning model, information processing device, and non-transitory computer-readable storage medium storing computer program | |
CN112258550B (zh) | 终端设备的运动方向监测方法、介质、装置和计算设备 | |
US20230169307A1 (en) | Method of executing class classification processing using machine learning model, information processing device, and non-transitory computer-readable storage medium storing computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |