CN1470022A - 仿神经皮层网络 - Google Patents

仿神经皮层网络 Download PDF

Info

Publication number
CN1470022A
CN1470022A CNA008200017A CN00820001A CN1470022A CN 1470022 A CN1470022 A CN 1470022A CN A008200017 A CNA008200017 A CN A008200017A CN 00820001 A CN00820001 A CN 00820001A CN 1470022 A CN1470022 A CN 1470022A
Authority
CN
China
Prior art keywords
group
imitative
identified
index
ram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA008200017A
Other languages
English (en)
Inventor
卜永明
Л
阿列克谢·米哈伊洛夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of CN1470022A publication Critical patent/CN1470022A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Abstract

一个仿神经网络系统,包括一个随机存取存储器(RAM)和一个具有柱状图形地址的基于索引的失重仿神经网络(weightlessneural network),其中,二元连接模式和输出节点的活动值被存储在RAM中。通过利用该仿神经网络的模式识别进行信息处理:将待识别的许多个输出模式存储到一个模式索引中;接受一个输入模式并将该输入模式分为许多个组;按照模式索引处理每一组从而确定一个已被识别的且与该输入模式相对应的输出模式。

Description

仿神经皮层网络
发明领域
本发明涉及一种基于索引的仿神经网络以及涉及一种通过利用仿神经网络的模式识别进行信息处理的方法。本发明尤其涉及但不限于这样一种仿神经网络计算机系统:该系统包含一个具有柱状图形地址的基于索引的失重仿神经网络(weightless neural network);本发明还尤其涉及但不限于这样一种方法:依该方法,一个输入模式被分为许多个组,而且按照一个单一模式索引对每一组进行处理从而确定一个已被识别的且与该输入模式相对应的输出模式。
发明背景
一个人工仿神经网络为一个由许多互相连接的单元组成的结构,该单元通常称为人造神经元。每个单元有一个输入/输出特征并执行一项局部计算或功能。任何单元的输出可以由它的输入/输出特征以及它与其他单元的互相连接决定。通常,单元输入/输出特征相对简单。
有关人工仿神经网络有三个主要问题,即:(a)缩放比例及硬件尺寸的实际限制;(b)网络拓扑结构;及(c)训练(training)。缩放比例及硬件尺寸问题的出现是因为在应用的复杂性与人工仿神经网络尺寸之间存在一种关系,因此容纳一个高分辨率图像的缩放比例可能需要超过实际限制的硬件资源。
网络拓扑结构问题的出现是因为这样一个事实:虽然整体功能或所实现的功能由网络拓扑结构决定,但对任意的应用没有提供明确的规则或设计指南。
训练问题的出现是因为训练很难完成。
n-元组分类器已被提出以尝试解决这些问题。这一分类器就是最早被提出的基于RAM的仿神经网络概念。n-元组概念的最早硬件实施是布鲁内尔大学(Brunel University)约在1979年研制的WISARD系统【参见“工业用计算机视觉系统:比较”(“Computer VisionSystems for Industy:Comparisons),在《工业用计算机视觉系统)》(“Computer Vision Systems for Industy”)第10章,I ALEXANDER,T STONHAM和B WILKIE著,1982年】。WISARD系统属于基于RAM的失重仿神经网络类。这种类型的仿神经网络通过将数据写入RAM网络,解决了大量基于计算的训练问题以及通过提出一个通用的基于RAM的网络结构解决了拓扑结构问题。但是,WISARD类型通用结构的网络拓扑结构没有模拟更高级别的生物仿神经网络中创建的仿神经元组织。这便导致不能有效地利用存储器,最终在基于RAM的仿神经网络中仍然尖锐地存在缩放比例问题,而且WISARD技术的应用范围也受到了限制。
通过一个简单的记忆任务来克服训练问题的另一个仿神经网络例子是“稀疏分布式存储器”(Sparse Distributed Memory)【PKANERVA著,1998,“Sparse Distributed Memory”,剑桥,MA:NIT出版社】。然而,同WISARD系统一样,稀疏分布式存储器的问题之一是存储器尺寸大。稀疏分布式存储器的另一个缺点是它的计算的复杂性。这是因为对于这类型的存储器,一个输入单词必须与所有存储区域比较。
N-元组分类系统使用这样一种识别方法:依此方法,一个仿神经网络的输入被划分为若干组(n-元组),而且每一组与一系列组查找表比较。通常每一组有独自的查找表。然后,网络按照大量的查找表处理每一组,以确定是否存在匹配。当对一个组出现一个匹配时,则表示该组已被识别。识别了一个输入的每一组,便识别了该输入。
大量查找表的存在使得存储器尺寸要大。所要求的存储器尺寸与系统可能识别的组的数量成正比。这可能导致模式容量增加时内存显著增大。例如,一个人工仿神经网络可以设计为一个图像处理应用程序,初始时使用一个n×n的图像,n=128。按照现在的标准衡量,这是一个相对低分辨率的图像。当处理的图像从n=128提高至n=2048时,神经元的数量、网络的尺寸,增加了256倍。该内存的增加导致对网络扩展的需求,潜在地要求增加硬件模块。当图像分辨率提高时,很快地,容纳高分辨率图像的缩放比例便超过了实际可达到的内存限额。
本发明的目的之一是要解决、克服或减轻现有技术中的部分或全部缺陷。
发明概要
根据本发明的第一个方面,提供了一个仿神经网络系统,包括:
(a)一个随机存取存储器(RAM);和
(b)一个具有柱状图形地址的基于索引的失重仿神经网络;
其中,二元连接模式和输出节点的活动值被存储在RAM中。
优选的是,该仿神经网络系统包括一个计算机硬件部件。
在一个优选形式中,该仿神经网络系统具有缩放的潜力。缩放可以通过任何适宜的方式来实现。优选的是,系统的扩展可以通过增大RAM的容量来实现。
可以以任何合适的方式来训练该仿神经网络。优选的是,通过向RAM写入数据来训练该仿神经网络,而且网络拓扑结构在训练当中出现。
优选的是,可以通过改变输入数据的分解类型、从而改变输入组的动态范围来调整该仿神经网络的性能。
优选的是,该仿神经网络的输入组访问一个单一公共索引。
根据本发明的第二个方面,提供了一种通过利用一个仿神经网络的模式识别来处理信息的方法,包括以下步骤:
(a)将待识别的许多个输出模式存储到一个模式索引;
(b)接受一个输入模式并将输入模式分为许多个组;
(c)按照模式索引处理每一组,从而确定一个已被识别的且与
该输入模式相对应的输出模式。
优选的是,每个输出模式被分为许多个已被识别的组,同时每个已被识别的组被存储在模式索引中以进行识别。优选的是,索引由柱形栏组成,每个柱形栏对应一个或多个已被识别的组。优选的是,该索引被分为若干柱形栏,该柱形栏的数目等于或少于已被识别的组的数目。更佳的是,该索引被分为若干柱形栏,该柱形栏的数目与已被识别的组的数目相等。
该方法可以进一步包括以下步骤:将每一个输入的组与对应的已被识别的组的柱形栏比较,而且将一个分值分配到一个或多个已被识别的组。优选的是,增加一个模式中每个已被识别的组的分值,而且具有最高分值的已被识别的模式被确认为输出模式。
附图简要说明
现在,参照附图展示的本发明示范形式对本发明进行更详细的描述。需要理解的是,以下说明的专指性并不限制前述公开内容的一般性。
图1为一个索引表,说明依照本发明的一个具体实施方案对一个输入的处理;
图2为一个示意性的方框图表,说明依照本发明的一个具体实施方案对一个输入的处理;
图3为一个示意性的方框图表,说明依照本发明的一个具体实施方案对一个输出的处理。
详细说明
本发明可以通过利用标准化数字芯片建立的仿神经卡片的使用来实现。本发明为一个具有柱状拓扑结构的基于索引的失重仿神经网络,其RAM中存有二元连接模式和输出节点的活动值。该网络提供:
(a)缩放潜力:仿神经网络的系统扩展可以不通过如在以往的人工仿神经网络中增加额外的建构模块来实现,而是通过增大RAM的容量以包括更多的柱形栏来实现或通过增加索引的高度来实现。例如,16,000,000个连接可以用一个64MB的RAM来实现。
(b)如果与以往的n-元组系统如WISARD系统相比较,所需存储器尺寸减少了N倍,N为输入组(n-元组)的数目。这是因为n-元组分类器要求有N个查找表,而本发明只要求一个公共的存储空间。
(c)网络拓扑结构在训练过程中自动出现;
(d)训练简化为向RAM写入数据;
(e)通过改变输入数据的分解类型、进而改变输入组的动态范围,从而对性能进行顺利的调整。
按照本发明制造的一种设备,以下称为仿神经皮层网络。传统的人工仿神经网络及传统的基于RAM的人工仿神经网络均为类神经元计算单元的网络。然而,人脑的计算单元为多神经元皮质柱。综合而论,本发明所基于的单一公共索引最佳地能描述为一个垂直柱形栏的集合,其中,信号能够被以从底至顶的方式(bottom-to-top)传递。
与传统的基于RAM的仿神经网络不同,仿神经皮层网络不是通过记住组查找表中类别的名字来运行,而是通过创建和记住输入组的一个索引(一个连接的数据代号)来运行。该索引包括类别名称(类别参考号),并且是在训练的基础上创立。
检索时,仿神经皮层网络像n-元组分类器一样,计算输入组产生的名字的数量。这一求和功能提供了仿神经网络典型的归纳能力。然而,与n-元组分类器使用“一个赢者通吃”(winner-takes-all)的策略所不同的是,仿神经皮层网络使用“多个赢者通吃”(winners-take-all)策略。这不是一个可选性问题,而是使用单一公共存储器所带来的必然需要。n-元组分类器中,每一输入组(n-元组)访问各自的查找表。对于仿神经皮层网络,所有输入组均访问一个单一公共索引。这便使得存储尺寸大幅减少。在n-元组分类器及稀疏分布式存储器系统中没有一个单一公共索引,这便解释了为什么以往的基于RAM的仿神经网络对存储器的要求上存在困难,其对大尺寸的存储器的要求极大地限制了其应用范围。
此外,一个单一公共索引是解决网络扩展问题的有效方案。如前述中所指出的,传统的人工仿神经网络和传统的基于RAM的人工仿神经网络在应用尺寸增大时均存在缩放的困难。例如,如果图形尺寸从128×128象素增大到2048×2048象素,则一个传统的人工仿神经网络需要增加256倍的内存,因为n-元组的数量以256=2048*2048/128*128的倍数增加了。然而同样情况下与之相反的是,根据本发明的仿神经皮层网络尺寸可以保持不变,因为仍然只是使用一个公共索引。
本发明创建了一个输入组的单一模式索引。该索引包括输出组,并且通过存储输出模式以及训练神经元以识别存储在模式索引中的模式而创建。
一个输出模式S被分解为N个组S1,S2,...,SN,由此每个组Si被解释为索引中柱形栏的地址。每个柱形栏存储那些在一个或多个组中有值Si的模式的参考号;每一参考号在每一柱形栏出现不多于一次。当一个输入I被接收时,被分为若干组I1,I2,...,IX。每一输入组I1至Ix由网络通过比较该组与模式索引来进行处理。当输入Ii的一个组与输出Si的一个组相匹配时,则Si的柱形栏列出的每个参考号在其总数上加一分。这一处理过程对每一输入组重复。然后,将分数相加确定赢家。赢家就是分数最多的参考号。这个与一个已被识别的输出模式相对应的参考号就被网络识别出来了。
图1描述了模式索引的一个例子。该图描述了索引已被训练或被编程来识别三个单词“background”(背景),“variable”(变量),和“mouse”(鼠)。该图中,单词被分配的参考号分别为1,2及3。输出模式为从“a”到“z”的字母,这些字母为索引中包含的柱形栏。当一个输入被网络接收时,输入的每个组参照这一单一模式索引被处理。在该例中,输入形式为单词“mouse”。这一输入随后被分解为五个字母。每一字母通过使用索引在网络中被处理。网络处理的同时特性能够保证每一组的处理实际上是同时的。采取的步骤如下:(a)输入组“m”被处理,这时变量3分数增加1分;(b)输入组“o”被处理,这时变量1和3增加1分;(c)输入组“u”被处理,这时变量1和3增加1分;(d)输入组“s”被处理,这时变量3增加1分;(e)输入组“e”被处理,这时变量2和3增加1分。
然后,网络计算每一变量的分数。本例中,变量1为2分,变量2为1分,变量3为5分。分数最高的变量为赢者并被识别。与“mouse”一词对应的变量3为5分,因此被识别出来。
如果为标准的RAM,两个不同的地址单词通常指向两个不同的内存地址。但在本仿神经皮层网络中不存在这种情况。例如,如果输入模式有三个组(a,b,c)而且组的动态范围为1个字节,那么模式(a,c,b),(b,a,c),(b,c,a),(c,a,b),(c,b,a)将产生同样的分值为3,因为本仿神经皮层网络就排列来说是不变的。这一不变性是因为这样一个事实,即所有的组(n-元组)访问单一公共存储器。公共存储器将N维空间折叠为一个一维的空间,因此便产生了排列的不变性,这便是与传统的基于RAM的仿神经网络相比存储尺寸大幅减少的结果。这一不变性对本仿神经皮层网络十分重要。同时,它也是本发明方法的突出特点所在,因为当组的动态范围增大时,这一不变性实际上不会受到任何损害。在上例中,如果使用2字节动态范围,即模式(a,b,c)被转换为2元组的模式(ab,bc),则将获得以下分值:(a,b,c)=>2,(a,c,b)=>0,(b,a,c)=>0,(b,c,a)=>1,(c,a,b)=>1,(c,b,a)=>0,因此模式(a,b,c)将被准确地识别出来。
通常情况下,本仿神经皮层网络卡片的软件驱动器能很好地实现将n组的输入模式(s1,s2,...,sN)变换成新的并且其中的组具有更大动态范围的模式(c1,c2,...,cM),而且M<N。
如果这一变换将所有输入模式的序列变换为一个一维的无序的复述图,这一变换可称为C(haos)变换。避免出现识别模糊的充分条件是,所有经C变换的输入模式的序列是一个无序的复述图。这是因为在这种情况下所有的模式组将不同,这便不会产生识别模糊的可能性。事实上,这一条件过于苛刻,因为在每一组中任意两个模式不同就已经足够了。为实用的目的,可以通过增加组的动态范围至2字节、3字节等来实现对C变换的最大逼近。
图2所示为一个本仿神经皮层网络的阅读循环方框图表。方框“Roots”,“Links”,“Names”,“Score”为RAM装置。∑为一个加法器,T-逻辑为一个终端逻辑装置。1、每一模式组(一个单词)被传递至“Roots”RAM的地址总线。2、“Roots”RAM的输出值R被传递至“Links”RAM的地址总线。3、“Links”RAM的输出值L被传递至“Names”RAM的地址总线。4、最后,“Names”RAM的输出值N被传递至“Score”RAM的地址总线。
如果L为0,那么T逻辑终止处理。否则,由“Name”RAM输出所决定的、且在地址N找到的“Score”RAM的内容增加分值1。接下来,“Links”RAM的输出反馈至“Links”RAM的地址总线。程序从以上第3步开始不断重复。
图3所示为一个仿神经皮层网络写入循环方框图表,方框“Roots”,“Links”,“Name”为RAM装置。CU为其控制单元。1、每一模式组A被传递至“Roots”RAM的地址总线。2、“Roots”RAM的输出值R被传递至“Links”RAM的地址总线。3、“Links”RAM的输出值L被传递至“Names”RAM的地址总线。“Names”RAM的输出值由N表示,其现时模式名称为P。4、值R、L、N及P被传递至使用以下逻辑的控制单元。如果L为0,那么控制单元作出决定(第5步),更新“Roots”、“Links”和“Names”RAM。否则,L被反馈至“Links”RAM地址总线。程序从第3步开始重复。5、决定逻辑:a)如果N=P,结束处理;如果R=0,计数值C增加1,
将C写入位于地址A的“Roots”RAM,
将C写入位于地址R的“Links”RAM,
将P写入位于地址L的“Names”RAM,如果R>0而且L=0,计数值C增加1,
将C写入位于地址R的“Links”RAM,
将P写入位于地址L的“Names”RAM,b)结束程序。
就存储容量和读写时间而言,本仿神经皮层网络的性能可以调节。通常,当训练持续时类别数目增加,这时存储及检索次数增加。增加的类别会增大存储在索引柱形栏中的参考号的数量,从而增大需存取的索引单元的数量。作为补偿,可以增大输入模式组的动态范围D。这会增加索引柱形栏的数目,因为索引地址空间与D相等。结果,同样数目的参考号将传播至更多的区域,最终减少了平均索引高度H。
处理存储和检索所需的时间与可存取存储单元成正比,该存取存储单元与HN成比例。这里,N为模式组的数目。当D增加时,处理时间接近0(N)。这是由于H与D成反比。
存储器尺寸与HD成比例。然而,H比D增加/减少得更快。因此,调整动态范围D可以有效地控制存储器的尺寸。最坏的情况下,本仿神经皮层网络的尺寸不超过CD,这里C为模式类别数目,这是因为本仿神经皮层网络只有一个“查找表”。另一方面,传统的基于RAM人工仿神经网络的存储尺寸为CDN,因为对于这一类型的人工仿神经网络来说,输入查找表数目与输入模式组的数目N相等。
应当理解的是,在不脱离本发明范围的前提下,可以对前述部分进行各种修改、变更及/或增加。

Claims (13)

1、一个仿神经网络系统,包括:
(a)一个随机存取存储器(RAM);和
(b)一个具有柱状图形地址的基于索引的失重仿神经网络;
其中,二元连接模式和输出节点的活动值被存储在RAM中。
2、按照权利要求1的一个仿神经网络系统,其中,该系统包含一个计算机硬件。
3、按照权利要求1或2的一个仿神经网络系统,其中,系统的扩展可以通过增大RAM的容量来实现。
4、按照权利要求1至3中任意一项的一个仿神经网络系统,其中,通过向RAM写入数据来训练仿神经网络,而且网络拓扑结构在训练当中出现。
5、按照权利要求1至4中任意一项的一个仿神经网络系统,其中,通过改变输入数据的分解类型、从而改变输入组的动态范围来调整仿神经网络的性能。
6、按照权利要求1至5中任意一项的一个仿神经网络系统,其中,输入组访问一个单一公共索引。
7、一种通过利用一个仿神经网络的模式识别来处理信息的方法,包括以下步骤:
(a)将待识别的许多个输出模式存储到一个模式索引中;
(b)接受一个输入模式并将输入模式分为许多个组;
(c)按照模式索引处理每一组,从而确定一个已被识别的且与该输入模式相对应的输出模式。
8、按照权利要求7的一个方法,其中,每个输出模式被分为许多个已被识别的组,同时每个已被识别的组被存储在模式索引中以进行识别。
9、按照权利要求8的一个方法,其中,索引由柱形栏组成,每个柱形栏对应一个或多个已被识别的组。
10、按照权利要求9的一个方法,其中,索引被分割为许多柱形栏,该柱形栏的数目等于或少于已识别组的数目。
11、按照权利要求9的一个方法,其中,索引被分为若干柱形栏,该柱形栏的数目与已被识别的组的数目相等。
12、按照权利要求8至10中任意一项的一个方法,其中,将每个输入的组与对应的已被识别的组的柱形栏比较,而且将一个分值分配到一个或多个已被识别的组。
13、按照权利要求12的一个方法,其中,增加一个模式中每个已被识别的组的分值,而且具有最高分值的已被识别的模式被确认为输出模式。
CNA008200017A 2000-11-30 2000-11-30 仿神经皮层网络 Pending CN1470022A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/SG2000/000182 WO2002044926A1 (en) 2000-11-30 2000-11-30 Neural cortex

Publications (1)

Publication Number Publication Date
CN1470022A true CN1470022A (zh) 2004-01-21

Family

ID=20428883

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA008200017A Pending CN1470022A (zh) 2000-11-30 2000-11-30 仿神经皮层网络

Country Status (9)

Country Link
US (1) US7305370B2 (zh)
EP (1) EP1340160A4 (zh)
JP (1) JP2004515002A (zh)
KR (1) KR20030057562A (zh)
CN (1) CN1470022A (zh)
AU (1) AU2001215675A1 (zh)
CA (1) CA2433999A1 (zh)
MX (1) MXPA03005942A (zh)
WO (1) WO2002044926A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1331092C (zh) * 2004-05-17 2007-08-08 中国科学院半导体研究所 模式识别专用神经网络计算机系统
CN101331505B (zh) * 2005-12-13 2011-12-14 新加坡科技劲力私人有限公司 用于解决一类现实组合优化问题的算法开发环境的方法和装置
CN107278310A (zh) * 2015-01-28 2017-10-20 谷歌公司 批次归一化层
CN108109694A (zh) * 2018-01-05 2018-06-01 李向坤 事件判定方法及装置、存储介质、电子设备
CN108885716A (zh) * 2016-03-31 2018-11-23 索尼公司 信息处理装置、信息处理方法以及信息提供方法
CN109313720A (zh) * 2016-02-05 2019-02-05 渊慧科技有限公司 具有稀疏访问的外部存储器的增强神经网络

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060271342A1 (en) * 2005-05-27 2006-11-30 Trustees Of The University Of Pennsylvania Cort_x: a dynamic brain model
KR101037885B1 (ko) * 2011-01-18 2011-05-31 주식회사 청오에이치앤씨 이동식 진공 청소장치
US10140574B2 (en) * 2016-12-31 2018-11-27 Via Alliance Semiconductor Co., Ltd Neural network unit with segmentable array width rotator and re-shapeable weight memory to match segment width to provide common weights to multiple rotator segments
KR102499396B1 (ko) 2017-03-03 2023-02-13 삼성전자 주식회사 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5285522A (en) 1987-12-03 1994-02-08 The Trustees Of The University Of Pennsylvania Neural networks for acoustical pattern recognition
JPH02195400A (ja) * 1989-01-24 1990-08-01 Canon Inc 音声認識装置
DE69032712T2 (de) 1989-06-14 1999-07-01 Hitachi Ltd Hierarchischer vorsuch-typ dokument suchverfahren, vorrichtung dazu, sowie eine magnetische plattenanordnung für diese vorrichtung
US6408402B1 (en) * 1994-03-22 2002-06-18 Hyperchip Inc. Efficient direct replacement cell fault tolerant architecture
GB2289969A (en) 1994-05-24 1995-12-06 Ibm Character segmentation
US5621848A (en) * 1994-06-06 1997-04-15 Motorola, Inc. Method of partitioning a sequence of data frames
DE69422406T2 (de) 1994-10-28 2000-05-04 Hewlett Packard Co Verfahren zum Durchführen eines Vergleichs von Datenketten
US5995868A (en) * 1996-01-23 1999-11-30 University Of Kansas System for the prediction, rapid detection, warning, prevention, or control of changes in activity states in the brain of a subject
US6058206A (en) 1997-12-01 2000-05-02 Kortge; Chris Alan Pattern recognizer with independent feature learning
DE69802372D1 (de) * 1998-02-05 2001-12-13 Intellix As Frederiksberg Klassifizierungssystem und -verfahren mit N-Tuple- oder RAM-basiertem neuronalem Netzwerk

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1331092C (zh) * 2004-05-17 2007-08-08 中国科学院半导体研究所 模式识别专用神经网络计算机系统
CN101331505B (zh) * 2005-12-13 2011-12-14 新加坡科技劲力私人有限公司 用于解决一类现实组合优化问题的算法开发环境的方法和装置
US11853885B2 (en) 2015-01-28 2023-12-26 Google Llc Image classification using batch normalization layers
CN107278310A (zh) * 2015-01-28 2017-10-20 谷歌公司 批次归一化层
US10902319B2 (en) 2015-01-28 2021-01-26 Google Llc Batch normalization layers
US11281973B2 (en) 2015-01-28 2022-03-22 Google Llc Batch normalization layers
US11308394B2 (en) 2015-01-28 2022-04-19 Google Llc Image classification using batch normalization layers
US11893485B2 (en) 2015-01-28 2024-02-06 Google Llc Batch normalization layers
CN109313720A (zh) * 2016-02-05 2019-02-05 渊慧科技有限公司 具有稀疏访问的外部存储器的增强神经网络
CN109313720B (zh) * 2016-02-05 2023-07-18 渊慧科技有限公司 具有稀疏访问的外部存储器的增强神经网络
CN108885716A (zh) * 2016-03-31 2018-11-23 索尼公司 信息处理装置、信息处理方法以及信息提供方法
CN108109694A (zh) * 2018-01-05 2018-06-01 李向坤 事件判定方法及装置、存储介质、电子设备
CN108109694B (zh) * 2018-01-05 2023-06-30 李向坤 事件判定方法及装置、存储介质、电子设备

Also Published As

Publication number Publication date
KR20030057562A (ko) 2003-07-04
EP1340160A1 (en) 2003-09-03
WO2002044926A8 (en) 2003-10-02
US7305370B2 (en) 2007-12-04
AU2001215675A1 (en) 2002-06-11
JP2004515002A (ja) 2004-05-20
EP1340160A4 (en) 2005-03-23
MXPA03005942A (es) 2005-02-14
CA2433999A1 (en) 2002-06-06
US20040034609A1 (en) 2004-02-19
WO2002044926A1 (en) 2002-06-06

Similar Documents

Publication Publication Date Title
US7103596B2 (en) Data sort method, data sort apparatus, and data sort program
CN1470022A (zh) 仿神经皮层网络
CN112784964A (zh) 基于桥接知识蒸馏卷积神经网络的图像分类方法
CN113627376B (zh) 基于多尺度密集连接深度可分离网络的人脸表情识别方法
CN109416758A (zh) 神经网络及神经网络训练的方法
CN1613073A (zh) 改进型多路基数树
CN1867901A (zh) 用于快速表查找的存储器和功率有效机构
TW202046184A (zh) 神經網路搜索方法及裝置、處理器、電子設備和電腦可讀儲存媒體
DE102020133266A1 (de) Technologien zur Verfeinerung von stochastischen Ähnlichkeitssuchekandidaten
CN1051633A (zh) 目标识别系统
CN1187933C (zh) 路由器的ip地址的建立和寻找方法及其装置
Masood et al. Scene recognition from image using convolutional neural network
CN113642445A (zh) 一种基于全卷积神经网络的高光谱影像分类方法
CN114462587B (zh) 一种用于光电混合计算神经网络的fpga实现方法
CN1551013A (zh) 用于产生矢量字体的方法及设备
CN113326329A (zh) 一种基于区块链共识推举记账者的方法
CN112884061A (zh) 一种基于参数优化元学习的恶意软件家族分类方法
US5640249A (en) Image processing apparatus using derived ordered dither matrix
CN111414941B (zh) 一种基于特征复用的点云卷积神经网络
CN114168770A (zh) 一种基于深度学习的以图搜图方法及装置
US6938064B1 (en) Method for computing fast Fourier transform and inverse fast Fourier transform
CN112801289A (zh) 基于注意力机制的自适应分组卷积神经网络结构设计方法
CN1169569A (zh) 能够容易地产生多种不同字体字符的字符图形产生装置
CN110543589A (zh) 一种万物分类表
Zhou et al. LADet: A light-weight and adaptive network for multi-scale object detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
C20 Patent right or utility model deemed to be abandoned or is abandoned