CN113239077B - 一种基于神经网络的搜索方法、系统和计算机可读存储介质 - Google Patents
一种基于神经网络的搜索方法、系统和计算机可读存储介质 Download PDFInfo
- Publication number
- CN113239077B CN113239077B CN202110782445.XA CN202110782445A CN113239077B CN 113239077 B CN113239077 B CN 113239077B CN 202110782445 A CN202110782445 A CN 202110782445A CN 113239077 B CN113239077 B CN 113239077B
- Authority
- CN
- China
- Prior art keywords
- data
- sample
- neural network
- search
- hopfield
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 145
- 238000000034 method Methods 0.000 title claims abstract description 64
- 210000002569 neuron Anatomy 0.000 claims description 95
- 238000012549 training Methods 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 abstract description 55
- 230000008569 process Effects 0.000 abstract description 25
- 238000004364 calculation method Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 25
- 239000011159 matrix material Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 239000010410 layer Substances 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 230000005284 excitation Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000006386 memory function Effects 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000005183 dynamical system Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于神经网络的搜索方法、系统和计算机可读存储介质。本发明通过将样本数据根据计算节点的不同进行分段,得到多个分段数据,然后利用构造的联想记忆神经网络将每个数据内容转换成符号形式的向量,并对数据的向量模式进行训练,以及将训练好的向量进行联想记忆,之后将待搜索数据以二分查找形式快速搜索整个联想记忆神经网络的数据空间,将查找到的匹配的样本数据作为搜索结果并根据匹配的样本数据的文件位置输出该数据,实现了稳定的大规模数据的大规模计算和空间搜索,降低了搜索过程中计算和存储方面的开销,满足了实际复杂场景的应用需要。
Description
技术领域
本发明涉及人工智能技术领域,更确切的说,特别是涉及一种基于神经网络的搜索方法、系统和计算机可读存储介质。
背景技术
人工神经网络(Artificial Neural Networks,ANNs)也简称为神经网络(NNs)或称作连接模型(Connection Model),它是一种模仿动物神经网络行为特征,通过对人脑的基本单元-神经元的建模和联接,探索模拟人脑神经系统功能的模型。研制一种具有学习、联想、记忆和模式识别等智能信息处理功能的人工系统,其重要特性是它能够从环境中学习,并把学习的结果分布存储于网络的突触连接中。神经网络的学习是一个过程,在其所处环境的激励下,相继给网络输入一些样本模式,并按照一定的规则(学习算法)调整网络各层的权重值矩阵,待网络各层权重值都收敛到一定值,学习过程结束。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理数据的目的。
近几年来,随着人工智能技术的发展,基于神经网络的搜索技术将网络结构和参数的选择自动化,可以针对特定的数据集生成定制化的网络模型。现有技术一般采用先定义搜索空间,然后在搜索空间中搜索最优的网络结构,一般情况下可以采用启发式方法来进行网络结构搜索,或者使用进化算法来进行网络结构搜索。然而,基于结构搜索的神经网络设计方案通常需要在数据量庞大的搜索空间中反复进行网络的筛选和训练,通过不断尝试新的网络以找到性能更加优异的网络结构,这种方式可能存在以下问题:
(1)由于不同的结构搜索模型需要经过长时间的模型训练、解码等步骤才能评价其性能,不同网络结构的尝试并没有收到好的效果,导致搜索效率低;
(2)由于新设计出的结构搜索模型中往往存在大量的参数冗余,不仅需要耗费大量的计算、存储资源,而且普遍存在搜索结果不稳定等问题。
综上所述,随着数据量的日益增长以及数据的复杂化,现有的结构搜索模型已不能适应实际复杂化的应用场景,如何设计一种结构紧凑、搜索速度较快、效果又好的搜索模型,能够在计算量极大,数据集较大的情况下,快速搜索到最优数据,且降低搜索过程中计算和存储方面的开销,以满足实际复杂场景的应用需要是个亟待解决的问题。
发明内容
本发明要解决的技术问题在于,针对现有技术的搜索过程中搜索效率低、搜索结果不稳定问题,提供一种基于神经网络的搜索方法、系统和计算机可读存储介质,其能够实现稳定的大规模数据的大规模计算和空间搜索,降低了搜索过程中计算和存储方面的开销,满足了实际复杂场景的应用需要。
根据本发明的第一方面的实施例,提供了一种基于神经网络的搜索方法,包括以下步骤:
步骤S1、对样本数据进行预处理,获取样本子数据;
步骤S2、基于所述样本子数据构建所述样本数据对应的神经网络搜索模型;
步骤S3、训练所述神经网络搜索模型以定义搜索空间;
步骤S4、将待搜索数据置于所述搜索空间中,通过预设的搜索策略进行目标数据的查找,所述目标数据为所述待搜索数据的搜索结果。
进一步地,所述步骤S1进一步包括:将所述样本数据按照计算节点的不同进行分段,将分段后的每个数据段作为一个样本子数据,不同的计算节点对应不同的样本子数据,不同的样本子数据的数据参数不同。
进一步地,所述步骤S2进一步包括:为所述样本子数据对应的计算节点分配一个对应的网络地址,基于所述网络地址将所述计算节点建模为一个Hopfield神经元,将每个样本子数据对应的Hopfield神经元进行联接构成所述样本数据对应的Hopfield神经网络搜索模型。
进一步地,所述步骤S3进一步包括:利用所述Hopfield神经网络搜索模型中的每个Hopfield神经元分别对所述每个Hopfield神经元对应的样本子数据进行训练,基于训练好的所述Hopfield神经网络搜索模型确定所述搜索空间。
进一步地,所述步骤S4进一步包括以下步骤:
步骤S41、将所述待搜索数据置于所述搜索空间中进行二分查找,根据查找结果确定所述目标数据。
进一步地,所述步骤S41进一步包括根据所述待搜索数据的数据参数确定所述待搜索数据在所述搜索空间中对应的目标Hopfield神经元;利用所述目标Hopfield神经元对所述待搜索数据进行训练;基于所述待搜索数据的训练结果判断所述搜索空间中是否存在匹配的样本数据;在确定所述搜索空间中存在匹配的样本数据的情况下,将所述匹配的样本数据作为所述目标数据。
进一步地,所述基于神经网络的搜索方法还包括以下步骤:
步骤S5、获取所述目标数据所在的文件位置,根据所述文件位置将所述目标数据进行输出。
根据本发明的第二方面的实施例,提供了一种基于神经网络的搜索系统,包括:
处理模块,用于对样本数据进行预处理,获取样本子数据;
构建模块,用于基于所述样本子数据构建所述样本数据对应的神经网络搜索模型;
定义模块,用于训练所述神经网络搜索模型以确定搜索空间;
搜索模块,用于将待搜索数据置于所述搜索空间中,通过预设的搜索策略进行目标数据的查找,所述目标数据为所述待搜索数据的搜索结果。
进一步地,所述处理模块进一步用于将所述样本数据按照计算节点的不同进行分段,将分段后的每个数据段作为一个样本子数据,不同的计算节点对应不同的样本子数据,不同的样本子数据的数据参数不同。
进一步地,所述构建模块包括地址分配单元和神经网络创建单元;
所述地址分配单元,用于为所述样本子数据对应的计算节点分配一个对应的网络地址;
所述神经网络创建单元,用于基于所述网络地址将所述计算节点建模为一个Hopfield神经元,将每个样本子数据对应的Hopfield神经元进行联接构成所述样本数据对应的Hopfield神经网络搜索模型。
进一步地,所述定义模块进一步用于利用所述Hopfield神经网络搜索模型中的每个Hopfield神经元分别对所述每个Hopfield神经元对应的样本子数据进行训练,基于训练好的所述Hopfield神经网络搜索模型确定所述搜索空间。
进一步地,所述搜索模块进一步用于将所述待搜索数据置于所述搜索空间中进行二分查找,根据查找结果确定所述目标数据。
进一步地,所述搜索模块进一步包括确定单元、训练单元、判断单元、获取单元以及输出单元;
所述确定单元,用于根据所述待搜索数据的数据参数确定所述待搜索数据在所述搜索空间中对应的目标Hopfield神经元;
所述训练单元,用于利用所述目标Hopfield神经元对所述待搜索数据进行训练;
所述判断单元,用于基于所述待搜索数据的训练结果判断所述搜索空间中是否存在匹配的样本数据;
所述获取单元,用于在确定所述搜索空间中存在匹配的样本数据的情况下,将所述匹配的样本数据作为所述目标数据;
所述输出单元,用于获取所述目标数据所在的文件位置,根据所述文件位置将所述目标数据进行输出。
根据本发明的第三方面的实施例,提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现根据本发明的第一方面的任何实施例所述的基于神经网络的搜索方法。
实施本发明的基于神经网络的搜索方法、系统和计算机可读存储介质,通过将样本数据根据计算节点的不同进行分段,得到多个分段数据,然后利用构造的联想记忆神经网络将每个数据内容转换成符号形式的向量,并对数据的向量模式进行训练,以及将训练好的向量进行联想记忆,之后将待搜索数据以二分查找形式快速搜索整个联想记忆神经网络的数据空间,将查找到的匹配的样本数据作为搜索结果并根据匹配的样本数据的文件位置输出该数据,实现了稳定的大规模数据的大规模计算和空间搜索,降低了搜索过程中计算和存储方面的开销,满足了实际复杂场景的应用需要。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。附图中:
图1为本发明优选实施例提供的一种基于神经网络的搜索方法的流程图;
图2为本发明优选实施例提供的一种Hopfield神经网络训练方法的流程图;
图3为图2所示的Hopfield神经网络训练方法获得的Hopfield神经网络的示意图;
图4为本发明实施例提供的一种基于神经网络的搜索系统的架构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在对本发明申请实施例提供的基于神经网络的搜索方法及系统等技术方案作出详细说明之前,先对本发明申请中涉及到的技术术语进行简单介绍和说明:
(1)神经网络,神经网络(neural networks,NN)是一种运算模型,由大量的节点(或称神经元)之间相互联接构成,每个节点代表一种特定的输出函数,称为激励函数(activation function),每两个节点间的连接都代表一个对于通过该连接信号的加权重值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。
神经网络可以是由神经元组成的,神经元可以是指以Xs和截距1为输入的运算单元,该运算单元的输出可以如下述公式所示:
其中,s=1、2、……、n,n为大于1的自然数,Ws为Xs的权重,b为神经元的偏置,f为神经元的激活函数,用于将非线性特性引入神经网络中,来将神经元中的输入信号转换为输出信号。该激活函数的输出信号可以作为下一层卷积层的输入,激活函数可以是Sigmoid函数。神经网络是将多个上述单一的神经元联结在一起形成的网络,即一个神经元的输出可以是另一个神经元的输入。每个神经元的输入可以与前一层的局部接受域相连,来提取局部接受域的特征,局部接受域可以是由若干个神经元组成的区域。
(1)Hopfield神经网络,Hopfield神经网络是神经网络发展历史上的一个重要的里程碑,由美国加州理工学院物理学家J.J.Hopfield 教授于1982年提出,是一种单层反馈神经网络,反馈神经网络,又称自联想记忆网络,其目的是为了设计一个网络,储存一组平衡点,使得当给网络一组初始值时,网络通过自行运行而最终收敛到这个设计的平衡点上,反馈神经网络是一种将输出经过一步时移再接入到输入层的神经网络系统。反馈神经网络能够表现出非线性动力学系统的动态特性,它所具有的主要特性为以下两点:
第一,网络系统具有若干个稳定状态。当网络从某一初始状态开始运动,网络系统总可以收敛到某一个稳定的平衡状态;
第二,系统稳定的平衡状态可以通过设计网络的权重值而被存储到网络中。
该网络主要用于联想记忆和优化计算,在这种网络中,每个神经元同时将自身的输出信号作为输入信号反馈给其他神经元,它需要工作一段时间才能达到稳定。
Hopfield神经网络是反馈神经网络中最简单且应用广泛的模型,它具有联想记忆的功能,也是一种循环神经网络,从输出到输入有反馈连接,在输入的激励下,会产生不断的状态变化。
(2)联想记忆,所谓的联想记忆,就是预先把要记忆的完整模式以一定方式形成记忆矩阵,然后把它们记忆在计算机中,以后,当网络输入不完整模式时,可通过记忆矩阵和阈值函数的作用,在网络的输出端得到完整的模式。
联想记忆有两个突出的特点:
第一,信息(数据)的存取不是像传统计算机那样通过存储器的地址来实现,而是由信息本身的内容来实现,所以它是“按内容存取记忆”;
第二,信息也不是集中存储在某些单元中,而是分布存储的,在人脑中记忆单元与处理单元是合一的。
需要说明的是,本发明实施例描述的结构或构造以及业务场景是为了更加清楚的说明本发明实施例的技术方案,并不构成对于本发明实施例提供的技术方案的限定,本发明实施例描述的数据可以是一些连续的值,比如声音、图像等模拟数据;也可以是一些离散的值,如符号、文字等数字数据,此处不对数据的类型作具体限定,本领域普通技术人员可知,随着设备结构或构造的演变和新业务场景的出现,本发明实施例提供的技术方案对于类似的技术问题,同样适用。
如图1所示,为本发明实施例提供的一种基于神经网络的搜索方法的流程图,该方法包括如下步骤。
在步骤101中,对样本数据进行预处理,获取样本子数据。其中,该步骤具体包括:将所述样本数据按照计算节点的不同进行分段,将分段后的每个数据段作为一个样本子数据,不同的计算节点对应不同的样本子数据,不同的样本子数据的数据参数不同。
在本步骤中,将采样到的数据(即样本数据)作为一个计算任务,所谓的计算任务是指完成一个构建计算模型、数据分析算法、科学计算模型等的过程,然后按照计算任务中计算节点的不同将样本数据进行分段处理,所谓的计算节点是指负责计算任务中的某个过程,完成同一个计算任务的计算节点具有相同的唯一标识,计算节点通过网络与计算平台相连接,通过计算平台与关联计算节点协作,由于计算节点的配置以及存储容量不同,分段后的每个数据段都可看作为一个样本子数据,各样本子数据互不相同,不同的计算节点对应的样本子数据不同,因此,不同的样本子数据所对应的数据参数也就不同,数据参数主要是指数据的存储容量(即数据大小),示例性的,可以将样本数据按照存储容量的整数空间进行分段,分段后的每个数据段(即样本子数据)可对应一个样本子集,这样便可以得到样本数据分段后的各个样本子集,各个样本子集之间不存在交集,且所有样本子集的并集组成完整的集合,具体分段规则如下:
在步骤102中,基于所述样本子数据构建所述样本数据对应的神经网络搜索模型。其中,该步骤优选进一步包括:为所述样本子数据对应的计算节点分配一个对应的网络地址,基于所述网络地址将所述计算节点建模为一个Hopfield神经元,将每个样本子数据对应的Hopfield神经元进行联接构成所述样本数据对应的Hopfield神经网络搜索模型。
结合步骤101可知,在本步骤中,由于分段后的每个样本子集对应一个样本子数据,每个样本子数据对应一个计算节点,每个样本子数据包含自身的数据参数,可以理解的是,样本子数据、样本子集、样本子数据的数据参数以及样本子数据对应的计算节点之间是一一对应关系,通过任意一项内容都能关联到其他类,因此可以将各个样本子集与对应的计算节点进行关联,并为各个样本子集对应的计算节点分配一个对应的网络地址,可按照每个样本子数据的存储容量大小,由大到小顺序分配网络地址,然后将获得网络地址的计算节点按照Hopfield神经网络模型进行神经元的建模,使得该计算节点可以作为一个Hopfield神经元,不同的计算节点分别对应不同的Hopfield神经元,该Hopfield神经元可作为一个计算平台与关联的计算节点协同工作,通过为各个样本子集对应的计算节点分配一个对应的网络地址,使得各个计算节点所对应的Hopfield神经网络的地址不会重合,避免各个计算节点的计算冲突,进而实现多个样本子数据计算的并行处理,为后续提高数据的搜索效率垫定基础,之后再将每个样本子数据对应的Hopfield神经元按照计算节点之间的相互关系(如计算节点的前后顺序,关联关系)进行联接,从而构成样本数据对应的Hopfield神经网络,即所述的Hopfield神经网络搜索模型。
在步骤103中,训练所述神经网络搜索模型以定义搜索空间。其中,所述搜索空间为待搜索的Hopfield神经网络搜索模型。进一步的,该步骤优选包括:利用所述Hopfield神经网络搜索模型中的每个Hopfield神经元分别对所述每个Hopfield神经元对应的样本子数据进行训练,基于训练好的所述Hopfield神经网络搜索模型确定所述搜索空间。
结合步骤102可知,在本步骤中,由于不同的计算节点对应该Hopfield神经网络中不同的Hopfield神经元,Hopfield神经网络中的每个Hopfield神经元执行不同的运算任务,因此可利用每个Hopfield神经元分别对其对应的样本子数据进行训练,以达到整个Hopfield神经网络训练的目的。
Hopfield神经网络的训练过程可参照如图2-3所示,具体可分为如下几个子步骤。在子步骤1031中,训练样本。结合图3可知,在本步骤中,根据样本数据的分段情况,Hopfield神经网络中的每个Hopfield神经元对各自对应的样本子数据离线进行有监督训练,具体的,可以将对应的样本子集里包含的数据内容利用栅格进行符号化处理,每个样本子集中的每个数据内容均以符号的形式进行表示,以栅格形式所转换的符号向量即为每个样本子数据的内容,这样就形成了每个样本子数据以符号形式表示的样本子向量,也可以是先将整个样本数据对应的样本集里包含的数据内容利用栅格进行符号化处理后,整个样本集中的每个数据内容均以符号的形式进行表示得到样本数据所对应的样本向量,然后将样本向量根据样本数据的分段情况划分为每个样本子集所对应的样本子向量,此处不对符号化处理的顺序作具体限定,之后每个Hopfield神经元再对各自对应的样本子向量离线的进行有监督训练,由于每个符号所代表的内容不同,所以每个符号对应设定的栅格的识别机制也会有所不同,比如栅格为空则为0,栅格不为空则为1,例如,数字“1”为一个样本数据,可以先将数字“1”整个的进行符号化处理,得到一个基于数字“1”的样本向量,然后根据数字“1”的分段情况,将基于数字“1”所分段获得的各个样本子向量作为各个样本子向量对应的Hopfield神经元的训练样本,以便可以把每一个样本子向量作为Hopfield神经网络的一种待存储模式(即待存向量),所有的存储模式由文件进行存储(即将样本向量中的符号利用文件进行存储,而不是数据本身的存储),方便读入,且每个存储文件对应唯一的位置(即文件位置),每个存储文件对应的位置具有唯一的文件编号。
在子步骤1032中,读入样本。结合图3可知,本步骤中,由于在Hopfield神经网络中,每个样本子向量通过训练可作为Hopfield神经网络的一种存储模式,存储的过程中也就是完成样本记忆的过程,因此每个样本子向量中包含的符号即可作为Hopfield神经网络的一种记忆模式,所有的样本子数据是以向量中的符号的形式存储在对应的文件中,读入程序直接读取该文件中样本子向量中的符号便可作为训练样本的输入,需要说明的是,每个样本子数据可以是以转换成符号形式的向量作为Hopfield神经网络的一种记忆模式,也可以是通过生成一个随机数的方式作为Hopfield神经网络的一种记忆模式,可根据实际应用场景进行选择设置,此处不做具体限定,在本发明实施例中,优选将样本子数据转换成符号形式的向量作为Hopfield神经网络的一种记忆模式,以便样本转换模式简单、快速,也不需要占用太多的计算、存储资源,有利于样本的快速训练以及查找。
在子步骤1033中,检测样本的稳定性。结合图3可知,在本步骤中,在完成样本子数据的形式转换以及存储后,需要对样本子数据的稳定性进行检测,由于每个样本子数据是以栅格输出的符号形式的向量(样本子向量),其作为Hopfield神经网络的一种记忆模式(样本子向量),对形式转换以及存储后的样本子数据的稳定性进行检测即是对每个记忆模式的稳定性进行检测,在Hopfield神经网络中,记忆模式V需要满足的稳定性条件如下:
其中,是正常数,,n为神经元个数,从Hopfield神经网络所包含的M个记忆模式(即M个样本子向量)中任意取出两个不相同的记忆模式,在相应的两个记忆模式中,因为1的元素数必须大于等于这两个向量中任意一个向量的1的元素数的数目的半数,然而,在通常情况下,这个条件是难以得到满足的,所以在实际应用中只要满足记忆模式的“正交性”即达到稳定,所谓“正交性”在空间向量中,表示两个向量的标量积为零即两个向量正交。
在子步骤1034中,计算样本的权重。结合图3可知,在本步骤中,将达到稳定状态(稳态)后记忆模式(样本子向量)在Hopfield神经网络中的权重值作为最终权重值(即该样本子数据的权重),由于所有样本子向量的存储文件中需要包含对应的权重值,不同的样本子向量所对应的权重值是不一样的,该权重值是决定所有计算节点并行同步计算的基础,因此需要搭建一个记忆矩阵对所有样本子向量的权重值进行计算和记忆。在本发明实施例中,可以采用外积法搭建Hopfield神经网络的记忆矩阵,并且在此过程为使得搭建的记忆矩阵更具有可控性以及联想效果越好,可根据记忆模式(样本子向量)的稳定性来保证搭建的记忆矩阵的吸引性,训练结果越稳定,越有利于记忆矩阵的吸引性,所谓的吸引性是指每个记忆模式都要求具有吸引性,且吸引范围是可控的,同时,为使得Hopfield神经网络的联想效果越好,可利用误差来保证搭建的记忆矩阵的耐噪声性,误差越小,搭建的记忆矩阵的耐噪声性越强,所谓的耐噪声性是指当输入模式或是不完整的,或是携带噪声,或是发生某些变形等情况时,网络仍然能正确地联想,稳定性的标准可由上述步骤1033进行判断,误差的具体计算方式和取值可根据实际的训练结果进行误差函数的选择和设置,此处不作具体限定。
外积法搭建记忆矩阵的方法如下:
假设处于Hopfield神经网络能量极小点的记忆模式(样本子向量)的数目为M,其中第m个记忆模式表示为,N为神经元数目,记忆模式对应的Hopfield神经元输出值非0即1,其组合值就用M个N维向量进行表示,此时,Hopfield神经元的权重值W ij用外积法计算如下:
由于存储容量的限制,一般要求M<0.15N;该式不显含时间t,实际是每一个记忆模式的输出即为该时刻的输出,下一个模式的输出即为下一时刻的输出。
在子步骤1035中,更新神经元的状态。在本步骤中,需要对Hopfield神经网络中每一个Hopfield神经元进行状态更新,状态的更新也即是每个Hopfield神经元对应的权重值的更新,神经元状态的更新同时涉及激活函数的选取。
例如,可以选择符号函数进行神经元的状态更新以及输出,按照如下步骤进行神经元的状态更新。
步骤1:在整个Hopfield神经网络中随机选择一个Hopfield神经元。
由于每个计算节点对应Hopfield神经网络的一个Hopfield神经元,Hopfield神经元可以由管理器进行分发,每个计算节点对分发到的Hopfield神经元的状态启动计算和更新。
步骤5:转向步骤1。
在子步骤1036中,计算Hopfield神经网络的能量函数。在本步骤中,因为上述每个执行过程中需要涉及能量函数,用以计算每个记忆模式的能量,判断是否按照能量减小的方向演化,根据Hopfield神经网络的特点,利用能量函数来计算每一种记忆模式的能量,采用的能量函数为:
通过能量函数可以进行Hopfield神经网络是否在向能量减小的方向演化的判断,也可以在能量变化为0时确定Hopfield神经网络达到稳态。
在子步骤1037中,记忆样本。在本步骤中,当所有样本子数据对应的Hopfield神经元状态更新完成后,即表示所有记忆模式都已存储在Hopfield神经网络中,记忆矩阵固定下来,然后对每个样本子向量中的符号利用文件进行存储,并对每个存储文件在Hopfield神经网络中的位置(即文件位置)赋予唯一编号。
在子步骤1038中,联想样本。结合子步骤1037可知,在本步骤中,通过设定误差阈值或者相似度阈值判断待搜索数据转换成符号形式的向量(待搜索向量)与已存在的向量的匹配情况,以便为整个Hopfield神经网络的联想记忆功能提供支持,匹配是指在预先设定的误差阈值或者相似度阈值范围内待搜索向量与已存在的向量一致或者主成分一致,关于误差阈值或者相似度阈值的设置方法以及取值,可根据结合训练结果以及实际的应用场景进行设置,此处不做具体限定,这时相当于Hopfield神经网络的训练基本完成。
在对样本子向量训练好后,Hopfield神经网络的联想记忆功能的构建基本得以完成,该训练好的Hopfield神经网络包含上述每个样本子向量的记忆内容以及用于支持联想过程中设定的误差阈值或者相似度阈值,不同的样本数据对应不同的训练好的Hopfield神经网络,此时,便可以将所有样本数据对应的训练好的Hopfield神经网络作为一个待搜索的神经网络(即搜索空间)。
需要说明的是,上述Hopfield神经网络是结合联想记忆的特性,所构建的一种联想记忆神经网络,具有很好的容错性,非常适合于不完整或畸变数据的识别与分类,在实际应用场景中,还可以采用如双向联想记忆神经网络等进行联想记忆神经网络的构建,此处不做具体限定,由于Hopfield神经网络具有联想记忆的可控性,所以在本发明实施例中,优选Hopfield神经网络作举例说明。
在步骤104中,将待搜索数据置于所述搜索空间中通过预设的搜索策略进行目标数据的查找。其中,所述目标数据为所述待搜索数据的搜索结果。并且,该步骤优选包括:将所述待搜索数据置于所述搜索空间中进行二分查找,根据查找结果确定所述目标数据。
进一步的,所述将所述待搜索数据置于所述搜索空间中进行二分查找,包括:根据所述待搜索数据的数据参数确定所述待搜索数据在所述搜索空间中对应的目标Hopfield神经元,利用所述目标Hopfield神经元对所述待搜索数据进行训练,基于所述待搜索数据的训练结果判断所述搜索空间中是否存在匹配的样本数据,在确定存在的情况下,将所述匹配的样本数据作为所述目标数据。
结合图2可知,在本步骤中,对获取到的待搜索数据进行二分查找,具体的,根据该待搜索数据的存储容量与搜索空间中已存在的上述样本数据的中间分割点的存储容量进行对比,由于Hopfield神经网络中的每个Hopfield神经元的网络地址是按照样本子数据的存储容量大小,由大到小顺序进行分配的,所以,如果该待搜索数据的存储容量大于该分割点数据的存储容量,则在搜索空间中后半部分分配的网络地址范围所对应的Hopfield神经元中查找,如果该待搜索数据的存储容量小于该分割点数据的存储容量,则在搜索空间前半部分分配的网络地址范围所对应的Hopfield神经元中查找,如此循环迭代,直到找到该待搜索数据所在的Hopfield神经元(即目标Hopfield神经元),确定该待搜索数据所在的Hopfield神经元的具体网络地址,之后,再利用该待搜索数据所在的Hopfield神经元对该待搜索数据进行训练,将待搜索数据进行符号化处理,使之转换成符号形式的向量,作为该目标Hopfield神经网络的输入(即待搜索向量,训练的过程可参见前述样本的训练过程),然后判断该待搜索向量在Hopfield神经网络中的能量是否达到稳态(判断过程可参见前述样本的稳定性检测过程),并遍历该待搜索向量所在的搜索空间,根据预先设定的误差阈值或者相似度阈值,在确定该待搜索向量与存储的向量在预先设定的误差阈值或者相似度阈值范围内一致或者主成分一致的情况下,将与该待搜索向量匹配的向量所对应的数据确定为需要输出的数据(即目标数据),所述目标数据即作为待搜索数据的搜索结果。
在步骤105中,获取所述目标数据并输出。优选地,所述步骤进一步包括获取所述目标数据所在的文件位置,根据所述文件位置将所述目标数据进行输出。当然,在本发明的简化实施例中,也可以省略步骤S105。
结合图2可知,在本步骤中,根据步骤104中确定出来的目标数据,根据该目标数据对应的向量在Hopfield神经网络中的存储文件的具体编号,确定该目标数据对应的存储文件的具体位置,从而根据该具体的文件位置将该目标数据进行输出。
由于每个计算节点所对应的Hopfield神经元的网络地址不同,不会造成计算任务中每个运算的冲突,可实现多个计算的同步且稳定的进行,使得计算资源得到有效利用,并且,样本数据的内容均是以符号形式的向量存储在Hopfield神经网络中,存储内容不涉及数据本身的大小,因此占用的内存空间较小,有效的节约了计算的存储资源,同时,基于联想记忆神经网络构建的搜索空间不需要对采样数据进行多次且长时间的模型训练、解码等步骤,搜索结构以及训练过程均简单化,不存在大量的参数冗余,能够有效提高搜索效率,有效的解决了搜索结果不稳定等问题。
本发明实施例提供了一种基于神经网络的搜索方法,包括:通过对样本数据进行预处理,获取样本子数据,然后基于所述样本子数据构建所述样本子数据对应的神经网络搜索模型,进而根据所述神经网络搜索模型定义搜索空间,之后将待搜索数据置于所述搜索空间中通过预设的搜索策略进行目标数据的查找,最后获取所述目标数据并输出。通过将样本数据基于计算节点的不同进行分段,得到多个分段数据,然后利用构造的联想记忆神经网络将每个数据内容转换成符号形式的向量,并对数据的向量模式进行训练以及将训练好的向量进行联想记忆,之后将待搜索数据以二分查找形式快速搜索整个联想记忆神经网络的数据空间,将查找到的匹配的样本数据作为搜索结果并根据匹配的样本数据的文件位置输出该数据,能够实现大规模数据的大规模数据计算和空间搜索,解决了现有搜索过程中搜索效率低、搜索结果不稳定等问题,能够在计算量极大,数据集较大的情况下,快速搜索到最优数据,且降低搜索过程中计算和存储方面的开销,以满足实际复杂场景的应用需要。
如图4所示,为本发明实施例提供的一种基于神经网络的搜索系统200,包括:处理模块201、构建模块202、定义模块203以及搜索模块204。所述处理模块201用于对样本数据进行预处理,获取样本子数据。所述构建模块202用于基于所述样本子数据构建所述样本数据对应的神经网络搜索模型。所述定义模块203用于训练所述神经网络搜索模型以确定搜索空间。所述搜索模块204用于将待搜索数据置于所述搜索空间中,通过预设的搜索策略进行目标数据的查找,所述目标数据为所述待搜索数据的搜索结果。
进一步的,所述处理模块201进一步用于将所述样本数据按照计算节点的不同进行分段,将分段后的每个数据段作为一个样本子数据,不同的计算节点对应不同的样本子数据,不同的样本子数据的数据参数不同。
进一步的,所述构建模块202包括地址分配单元2021和神经网络创建单元2022。所述地址分配单元2021,用于为所述样本子数据对应的计算节点分配一个对应的网络地址。所述神经网络创建单元2022,用于基于所述网络地址将所述计算节点建模为一个Hopfield神经元,将每个样本子数据对应的Hopfield神经元进行联接构成所述样本数据对应的Hopfield神经网络。
进一步的,所述定义模块203具体用于利用所述Hopfield神经网络搜索模型中的每个Hopfield神经元分别对所述每个Hopfield神经元对应的样本子数据进行训练,基于训练好的所述Hopfield神经网络搜索模型确定所述搜索空间。
进一步的,所述定义模块203包括样本训练单元2031、样本读取单元2032、检测单元2033、权重计算单元2034、更新单元2035、能量计算单元2036、记忆单元2037以及联想单元2038。所述样本训练单元2031用于训练样本。所述样本读取单元2032用于读入样本。所述检测单元2033用于检测样本的稳定性。所述权重计算单元2034用于计算样本的权重。所述更新单元2035用于更新神经元的状态。所述能量计算单元2036用于计算Hopfield神经网络的能量函数。所述记忆单元2037用于记忆样本。所述联想单元2038用于联想样本。
进一步的,所述搜索模块204具体用于:将所述待搜索数据置于所述搜索空间中进行二分查找,根据查找结果确定所述目标数据。
进一步的,所述搜索模块204包括确定单元2041、训练单元2042、判断单元2043、获取单元2044以及输出单元2045。所述确定单元2041用于根据所述待搜索数据的数据参数确定所述待搜索数据在所述搜索空间中对应的目标Hopfield神经元。所述训练单元2042用于利用所述目标Hopfield神经元对所述待搜索数据进行训练。所述判断单元2043用于在确定所述搜索空间中存在匹配的样本数据的情况下,将所述匹配的样本数据作为所述目标数据。所述获取单元2044用于在确定所述搜索空间中存在匹配的样本数据的情况下,将所述匹配的样本数据作为所述目标数据。所述输出单元2045,用于根据所述文件位置将所述目标数据进行输出。
本发明实施例所提供的一种基于神经网络的搜索系统200,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,相应的产品实施例部分未提及之处,可参考如图1方法实施例中相应内容,此处不再赘述。
本发明实施例提供的一种基于神经网络的搜索系统,包括:处理模块对样本数据进行预处理,获取样本子数据,然后构建模块基于所述样本子数据构建所述样本子数据对应的神经网络搜索模型,之后根据所述神经网络搜索模型定义搜索空间,最后将待搜索数据置于所述搜索空间中通过预设的搜索策略进行目标数据的查找,获取所述目标数据并输出。通过将样本数据基于计算节点的不同进行分段,得到多个分段数据,然后利用构造的联想记忆神经网络将每个数据内容转换成符号形式的向量,并对数据的向量模式进行训练以及将训练好的向量进行联想记忆,之后将待搜索数据以二分查找形式快速搜索整个联想记忆神经网络的数据空间,将查找到的匹配的样本数据作为搜索结果并根据匹配的样本数据的文件位置输出该数据,能够实现大规模数据的大规模数据计算和空间搜索,解决了现有搜索过程中搜索效率低、搜索结果不稳定等问题,能够在计算量极大,数据集较大的情况下,快速搜索到最优数据,且降低搜索过程中计算和存储方面的开销,以满足实际复杂场景的应用需要。
另外,本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被计算机运行时执行如图1所示任一实施方式所述的基于神经网络的搜索方法。
需要说明的是,本发明申请实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
此外,在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (7)
1.一种基于神经网络的搜索方法,其特征在于,包括以下步骤:
步骤S1、对样本数据进行预处理,获取样本子数据;
步骤S2、基于所述样本子数据构建所述样本数据对应的神经网络搜索模型;
步骤S3、训练所述神经网络搜索模型以定义搜索空间;
步骤S4、将待搜索数据置于所述搜索空间中,通过预设的搜索策略进行目标数据的查找,所述目标数据为所述待搜索数据的搜索结果;
所述步骤S1进一步包括:将所述样本数据按照计算节点的不同进行分段,将分段后的每个数据段作为一个样本子数据,不同的计算节点对应不同的样本子数据,不同的样本子数据的数据参数不同;
所述步骤S2进一步包括:为所述样本子数据对应的计算节点分配一个对应的网络地址,基于所述网络地址将所述计算节点建模为一个Hopfield神经元,将每个样本子数据对应的Hopfield神经元进行联接构成所述样本数据对应的Hopfield神经网络搜索模型;所述步骤S3进一步包括:利用所述Hopfield神经网络搜索模型中的每个Hopfield神经元分别对所述每个Hopfield神经元对应的样本子数据进行训练,基于训练好的所述Hopfield神经网络搜索模型确定所述搜索空间。
2.如权利要求1所述的基于神经网络的搜索方法,其特征在于,所述步骤S4进一步包括以下步骤:
步骤S41、将所述待搜索数据置于所述搜索空间中进行二分查找,根据查找结果确定所述目标数据。
3.如权利要求2所述的基于神经网络的搜索方法,其特征在于,所述步骤S41进一步包括根据所述待搜索数据的数据参数确定所述待搜索数据在所述搜索空间中对应的目标Hopfield神经元;利用所述目标Hopfield神经元对所述待搜索数据进行训练;基于所述待搜索数据的训练结果判断所述搜索空间中是否存在匹配的样本数据;在确定所述搜索空间中存在匹配的样本数据的情况下,将所述匹配的样本数据作为所述目标数据。
4.如权利要求2所述的基于神经网络的搜索方法,其特征在于,进一步包括以下步骤:
步骤S5、获取所述目标数据所在的文件位置,根据所述文件位置将所述目标数据进行输出。
5.一种基于神经网络的搜索系统,其特征在于,包括:
处理模块,用于对样本数据进行预处理,获取样本子数据;
构建模块,用于基于所述样本子数据构建所述样本数据对应的神经网络搜索模型;
定义模块,用于训练所述神经网络搜索模型以确定搜索空间;
搜索模块,用于将待搜索数据置于所述搜索空间中,通过预设的搜索策略进行目标数据的查找,所述目标数据为所述待搜索数据的搜索结果;
所述处理模块进一步用于将所述样本数据按照计算节点的不同进行分段,将分段后的每个数据段作为一个样本子数据,不同的计算节点对应不同的样本子数据,不同的样本子数据的数据参数不同;
所述构建模块进一步包括地址分配单元和神经网络创建单元,
所述地址分配单元,用于为所述样本子数据对应的计算节点分配一个对应的网络地址,
所述神经网络创建单元,用于基于所述网络地址将所述计算节点建模为一个Hopfield神经元,将每个样本子数据对应的Hopfield神经元进行联接构成所述样本数据对应的Hopfield神经网络搜索模型;
所述定义模块进一步用于利用所述Hopfield神经网络搜索模型中的每个Hopfield神经元分别对所述每个Hopfield神经元对应的样本子数据进行训练,基于训练好的所述Hopfield神经网络搜索模型确定所述搜索空间。
6.如权利要求5所述的基于神经网络的搜索系统,其特征在于,
所述搜索模块进一步包括确定单元、训练单元、判断单元、获取单元以及输出单元,
所述确定单元,用于根据所述待搜索数据的数据参数确定所述待搜索数据在所述搜索空间中对应的目标Hopfield神经元,
所述训练单元,用于利用所述目标Hopfield神经元对所述待搜索数据进行训练,
所述判断单元,用于基于所述待搜索数据的训练结果判断所述搜索空间中是否存在匹配的样本数据,
所述获取单元,用于在确定所述搜索空间中存在匹配的样本数据的情况下,将所述匹配的样本数据作为所述目标数据,
所述输出单元,用于获取所述目标数据所在的文件位置,根据所述文件位置将所述目标数据进行输出。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现根据权利要求1-4中任意一项权利要求所述的基于神经网络的搜索方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110782445.XA CN113239077B (zh) | 2021-07-12 | 2021-07-12 | 一种基于神经网络的搜索方法、系统和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110782445.XA CN113239077B (zh) | 2021-07-12 | 2021-07-12 | 一种基于神经网络的搜索方法、系统和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113239077A CN113239077A (zh) | 2021-08-10 |
CN113239077B true CN113239077B (zh) | 2021-10-26 |
Family
ID=77135313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110782445.XA Active CN113239077B (zh) | 2021-07-12 | 2021-07-12 | 一种基于神经网络的搜索方法、系统和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113239077B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101017508A (zh) * | 2006-12-21 | 2007-08-15 | 四川大学 | 一种基于离散Hopfield神经网络的SoC软/硬件划分方法 |
US7610185B1 (en) * | 2007-02-26 | 2009-10-27 | Quintura, Inc. | GUI for subject matter navigation using maps and search terms |
WO2020238039A1 (zh) * | 2019-05-31 | 2020-12-03 | 北京市商汤科技开发有限公司 | 神经网络搜索方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919304B (zh) * | 2019-03-04 | 2021-07-02 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、可读存储介质和计算机设备 |
CN111814966A (zh) * | 2020-08-24 | 2020-10-23 | 国网浙江省电力有限公司 | 神经网络架构搜索方法、神经网络应用方法、设备及存储介质 |
CN112766486A (zh) * | 2020-12-31 | 2021-05-07 | 鹏城实验室 | 神经网络结构的搜索方法、终端、服务器及可读存储介质 |
-
2021
- 2021-07-12 CN CN202110782445.XA patent/CN113239077B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101017508A (zh) * | 2006-12-21 | 2007-08-15 | 四川大学 | 一种基于离散Hopfield神经网络的SoC软/硬件划分方法 |
US7610185B1 (en) * | 2007-02-26 | 2009-10-27 | Quintura, Inc. | GUI for subject matter navigation using maps and search terms |
WO2020238039A1 (zh) * | 2019-05-31 | 2020-12-03 | 北京市商汤科技开发有限公司 | 神经网络搜索方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113239077A (zh) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113449857B (zh) | 一种数据处理方法和数据处理设备 | |
KR102450374B1 (ko) | 데이터 인식 및 트레이닝 장치 및 방법 | |
CN111382868B (zh) | 神经网络结构搜索方法和神经网络结构搜索装置 | |
CN111612134A (zh) | 神经网络结构搜索方法、装置、电子设备及存储介质 | |
KR20200129639A (ko) | 모델 학습 방법 및 장치 | |
CN109992773A (zh) | 基于多任务学习的词向量训练方法、系统、设备及介质 | |
KR20200128938A (ko) | 모델 학습 방법 및 장치 | |
CN111709493B (zh) | 对象分类方法、训练方法、装置、设备及存储介质 | |
KR102695519B1 (ko) | 영상 모델 구축 장치 및 방법 | |
CN111382190A (zh) | 一种基于智能的对象推荐方法、装置和存储介质 | |
CN113435520A (zh) | 神经网络的训练方法、装置、设备及计算机可读存储介质 | |
CN108171328A (zh) | 一种卷积运算方法和基于该方法的神经网络处理器 | |
CN112446888A (zh) | 图像分割模型的处理方法和处理装置 | |
US9436912B1 (en) | Symmetric schema instantiation method for use in a case-based reasoning system | |
WO2019180314A1 (en) | Artificial neural networks | |
CN112508177A (zh) | 一种网络结构搜索方法、装置、电子设备及存储介质 | |
CN114329029A (zh) | 对象检索方法、装置、设备及计算机存储介质 | |
CN112560639A (zh) | 人脸关键点数目转换方法、系统、电子设备及存储介质 | |
CN117708698A (zh) | 一种类别确定方法、装置、设备及存储介质 | |
CN117273105A (zh) | 一种针对神经网络模型的模块构建方法及装置 | |
KR20210103912A (ko) | 뉴럴 네트워크를 학습시키는 학습 방법 및 장치, 뉴럴 네트워크를 이용한 데이터 처리 방법 및 장치 | |
CN113239077B (zh) | 一种基于神经网络的搜索方法、系统和计算机可读存储介质 | |
JP2021028816A (ja) | 計算機システム及びモデル学習方法 | |
CN116957006A (zh) | 预测模型的训练方法、装置、设备、介质及程序产品 | |
CN116976402A (zh) | 超图卷积神经网络的训练方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |