CN110751275B - 图训练系统、数据访问方法及装置、电子设备、存储介质 - Google Patents
图训练系统、数据访问方法及装置、电子设备、存储介质 Download PDFInfo
- Publication number
- CN110751275B CN110751275B CN201911013968.7A CN201911013968A CN110751275B CN 110751275 B CN110751275 B CN 110751275B CN 201911013968 A CN201911013968 A CN 201911013968A CN 110751275 B CN110751275 B CN 110751275B
- Authority
- CN
- China
- Prior art keywords
- graph
- node
- persistent memory
- data
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000002085 persistent effect Effects 0.000 claims abstract description 111
- 238000005070 sampling Methods 0.000 claims description 24
- 238000000547 structure data Methods 0.000 claims description 15
- 230000002829 reductive effect Effects 0.000 abstract description 13
- 238000013528 artificial neural network Methods 0.000 abstract description 11
- 238000010801 machine learning Methods 0.000 abstract description 6
- 230000006872 improvement Effects 0.000 abstract description 5
- 238000012545 processing Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 6
- 238000011084 recovery Methods 0.000 description 6
- 238000013467 fragmentation Methods 0.000 description 5
- 238000006062 fragmentation reaction Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000009530 blood pressure measurement Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开关于一种图训练系统、数据访问方法及装置、电子设备、存储介质。一种图训练系统,包括参数服务器,所述参数服务器内设置有持久性内存,所述持久性内存被配置为保证所述参数服务器在非对称场景下读数据和写数据的数据访问;其中,所述图训练系统的参数以及嵌入,分布式地存储在所述参数服务器中。因此,通过在大规模图神经网络训练系统中使用可持久性内存,带来极大的性能改善,为改善大规模机器学习模型训练系统的性能开辟了新的方向。并且,该图训练系统以及持久性内存也可以应用于推荐系统以满足大规模推荐场景的需求,提高推荐系统的数据吞吐量,并可以降低存储成本。同时,使得故障重启时间大大减少,极大提高了系统可用性。
Description
相关申请的交叉引用
本申请要求在2019年8月3日提交中国专利局、申请号为201910714160.5、申请名称为“推荐系统、数据访问方法及装置、电子设备、存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本公开涉及视频编码技术领域,尤其涉及一种图训练系统、数据访问方法及装置、电子设备、存储介质。
背景技术
近来,图神经网络(GNN)在各个领域广受关注,比如社交网络、知识图谱、推荐系统以及生命科学等。GNN在对图节点之间依赖关系进行建模的强大功能使得与图分析相关的研究领域取得了突破。
为了支持数百亿边级别规模的动态图学习,传统的图计算引擎需要通过图划分算法将图划分成多个分片,然后进行分布式处理。而作为图神经网络训练中相对耗时的图遍历采样部分,图分片算法的好坏直接决定了图遍历采样中跨分片跨机器访问的数量,直接关系到图遍历采样的性能和效率。而且很多现有经典划分算法往往对稠密图是很难降低跨机器跨分片访问数量的。
因此,如何改善大规模机器学习模型训练系统的性能,以突破由于跨分片跨机器访问导致的性能和效率差的问题,成为亟需解决的问题。
发明内容
本公开提供一种图训练系统、数据访问方法及装置、电子设备、存储介质,以解决相关技术中存在的问题。
本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种图训练系统,所述图训练系统包括:参数服务器,所述参数服务器内设置有持久性内存,所述持久性内存被配置为保证所述参数服务器在非对称场景下读数据和写数据的数据访问;其中,所述图训练系统的参数以及嵌入,分布式地存储在所述参数服务器中。
可选地,所述图训练系统包括多个工作节点,每个工作节点内设置有持久性内存,所述持久性内存被配置为保证所述工作节点在非对称场景下读数据和写数据的数据访问,其中,所述图训练系统将所训练的图的整个图链接结构数据存储在每个工作节点的持久性内存内。
可选地,所述参数服务器和/或所述工作节点基于键值存储系统存储数据;所述键值存储系统包括缓存池组件;所述缓存池组件与所述持久性内存和预先设置的动态随机存取存储器通信,被配置为获取数据访问请求的访问类型,并基于所述访问类型确定从所述持久性内存或所述动态随机存取存储器读写数据。
可选地,在在线模型预估服务的场景中,所述缓存池组件被配置为在接收到预估模型发送的数据访问请求时,确定所述预估模型从所述动态随机存取存储器内读写数据。
可选地,所述整个图链接结构数据压缩存储在每个工作节点的持久性内存内,其中,所述图链接结构的每个图节点及其邻接节点信息被存储为键值对,所述键值对的键对应于图节点的节点ID,所述键值对的值中保存所述节点ID对应的邻接节点信息。
可选地,使用循环数组保存所述邻接节点信息。
可选地,所述值的存储结构为容量大小固定的连续内存结构,所述容量为预先分配的。可选地,所述图训练系统用于推荐系统,所述参数服务器是所述推荐系统的参数服务器,所述推荐系统还包括分布式索引服务器,所述分布式索引服务器内设置有持久性内存,所述持久性内存被配置为保证所述分布式索引服务器在非对称场景下读数据和写数据的数据访问。
可选地,所述键值存储系统内绑定非统一内容访问NUMA节点,以使所述持久性内存的数据访问不跨越NUMA节点。
可选地,所述键值存储系统内采用零拷贝ZeroCopy方式访问所述持久性内存和所述动态随机存取存储器。
可选地,在设定时长内,所述键值存储系统内临界区对所述持久性内存的数据访问次数不超过设定次数。
可选地,在预先设置的高频写入低字节的场景下,所述持久性内存内设置缓存,在所述缓存器内写满字节后,将其所述缓存器内的字节写入所述持久性内存内。
根据本公开实施例的第二方面,提供一种数据访问方法,适用于设置有持久性内存的图训练系统的工作节点,所述方法包括:
获取所接收的数据访问请求的访问类型;
根据所述访问类型,对存储在所述工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样。
可选地,所述图链接结构的每个图节点及其邻接节点信息被存储为键值对,对存储在所述工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样,包括:
从所述键值对的键中获取节点ID;以及/或者
从所述键值对的值中获取所述节点ID对应的邻接点信息。
可选地,所述方法还包括:
获取样本流,所述样本流包括节点ID及其对应的邻接点信息;以及
基于所述样本流,更新所述整个图链接结构。
可选地,所述基于所述样本流,更新所述整个图链接结构,包括:
若所述样本流中的图节点为新增节点,则将所述新增节点的节点ID存储至所述键值对的键中,并基于训练好的图,将所述新增节点的邻接点信息存储至所述新增节点的键值对的值中。
可选地,使用循环数组保存所述邻接节点信息;并且/或者所述值的存储结构为容量大小固定的连续内存结构,所述容量为预先分配的。
可选地,所述方法还可以包括:
获取所接收的数据访问请求的访问类型;
根据所述访问类型从所述持久性内存或所述动态随机存取存储器读写数据。
可选地,根据所述访问类型从所述持久性内存或所述动态随机存取存储器读写数据包括:
若确定出数据访问请求来自预估模型,则确定所述预估模型从所述动态随机存取存储器内读写数据。
可选地,根据所述访问类型从所述持久性内存或所述动态随机存取存储器读写数据包括:
若写入数据的字节数低于设定数量,则将所述字节写入到所述持久性内存内的缓存内;
若所述缓存内已写满字节,则将所述缓存内的全部字节写入所述持久性内存。
根据本公开实施例的第三方面,提供一种数据访问装置,适用于设置有持久性内存的图训练系统的工作节点,所述装置包括:
访问类型获取单元,被配置为执行获取所接收的数据访问请求的访问类型;
图引擎单元,被配置为执行根据所述访问类型,对存储在所述工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样。
可选地,所述图链接结构的每个图节点及其邻接节点信息被存储为键值对,图引擎单元被配置为:
从所述键值对的键中获取节点ID;以及/或者
从所述键值对的值中获取所述节点ID对应的邻接点信息。
可选地,所述装置还包括图链接结构更新单元,所述图链接结构更新单元被配置为:
获取样本流,所述样本流包括节点ID及其对应的邻接点信息;以及
基于所述样本流,更新所述整个图链接结构。
可选地,所述图链接结构更新单元被配置为:
若所述样本流中的图节点为新增节点,则将所述新增节点的节点ID存储至所述键值对的键中,并基于训练好的图,将所述新增节点的邻接点信息存储至所述新增节点的键值对的值中。
可选地,使用循环数组保存所述邻接节点信息;并且/或者所述值的存储结构为容量大小固定的连续内存结构,所述容量为预先分配的。可选地,所述装置还可以包括读写位置确定单元,所述读写位置确定单元被配置为根据所述访问类型从所述持久性内存或所述动态随机存取存储器读写数据。
可选地,所述读写位置确定单元包括:
预估数据确定模块,被配置为执行在确定出数据访问请求来自预估模型时,确定所述预估模型从所述动态随机存取存储器内读写数据。
可选地,所述读写位置确定单元包括:
缓存写入模块,被配置为执行在写入数据的字节数低于设定数量时,将所述字节写入到所述持久性内存内的缓存内;
内存写入模块,被配置为执行在所述缓存内已写满字节时,将所述缓存内的全部字节写入所述持久性内存。
根据本公开实施例的第四方面,提供一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为执行所述存储器中的可执行指令,以实现如第二方面任一项所述方法的步骤。
根据本公开实施例的第五方面,提供一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如第二方面所述方法的步骤。
本公开的实施例提供的技术方案至少带来以下有益效果:
本实施例中通过在推荐系统中采用持久性内存,可以满足大规模推荐场景的需求,提高推荐系统的数据吞吐量,并可以降低存储成本。同时,由于其持久性内存的特点,推荐系统的数据恢复比以前从网络或者磁盘进行故障恢复时间能从小时级别降低到分钟级,使得故障重启时间大大减少,极大提高了系统可用性。此外,在大规模图神经网络训练系统中使用可持久性内存也带了极大的性能改善,为改善大规模机器学习模型训练系统的性能开辟了新的方向。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种推荐系统的框图;
图2是根据一示例性实施例示出的存储层次结构图;
图3是根据一示例性实施例示出的一种采用持久性内存的推荐系统的框图;
图4是根据一示例性实施例示出的键值存储系统的结构图;
图5是根据一示例性实施例示出的推荐系统的压测效果对比图;
图6是根据一示例性实施例示出的一种图深度学习下的应用场景图;
图7是根据一示例性实施例示出的一种数据访问方法的流程图;
图8是根据一示例性实施例示出的一种数据访问装置的框图;
图9是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
目前,大规模分布式存储系统一直是各平台推荐系统的核心基石。推荐系统的各个模块包括用户和视频特征索引、推荐模型的训练和预估都对底层存储系统的容量、延迟和吞吐量等各个方面的扩展性有着极其严格的要求。尤其是随着用户和视频规模的快速增长、以及大规模深度模型在推荐系统中的广泛使用,增强存储系统扩展性的需求日益凸显出来。
本实施例中,提供了一种推荐系统,图1示出了一种推荐系统的架构。参见图1,推荐系统可以包括参数服务器(parameter server)、分布式索引服务器(index server),并可以提供预估服务(prediction service),该预估服务内的预估服务器可以从分布式索引服务器内的索引值和从参数服务器内读取参数生成预估数据,并提供给客户端。
本公开的发明人发现,分布式索引服务器需要提供每秒百万级别的在线查询量,十亿级别的存储数据量;而且索引需要实时更新,且同时满足低延迟的要求,是一种典型的读写性能非对称的应用场景。在线预估场景需要支持低延迟、高并发的访问,并且需要实时更新模型,同样是一种典型的读写性能非对称的应用场景。另外,分布式索引服务器每次读取内容大小是KB级别,大于参数服务器每次的读取内容,顺序读的性能更好。
基于上述两个场景的读写性能非对称,本公开的发明人考虑将具有读写性能非对称特点的持久性内存技术应用到图1所示的推荐系统中。
图2示出了一种服务器的存储层次结构,参见图2,持久性内存是介于动态随机存取存储器(Dynamic Random Access Memory,DRAM)和固态硬盘(Solid State Drive,SSD)之间的一个新的存储层级,主要为温数据(即温数据是非即时的状态和行为数据)提供读写数据服务。持久性内存不仅能提供类似DRAM的延迟,同时提供持久化和更大的存储容量。持久性内存采用与DRAM相同的通道接口,直接插在DRAM插槽上,因此享用比PCI-e更高效的与CPU通讯带宽。DRAM主要为热数据(即指即时的位置状态、交易和浏览行为)提供读写数据服务。机械硬盘HDD主要为冷数据(即不需要实时访问的离线数据,用于灾难恢复的备份或者法律规定保留的数据)提供读写数据服务。
持久性内存支持多种操作模式,主要包括内存模式(Memory Mode)和应用直接访问模式(App Direct Mode)。因为上层应用对数据访问模式有更多的信息,因此本实施例中在推荐系统中使用的是应用直接访问模式。
参见图3,在应用直接访问模式下,持久性内存将作为块设备(即是一类I/O设备,将信息存在在固定大小的块中,每个块有自己的地址,这样在知道块地址的情况下可以读取到该块内的数据)的形式使用Linux文件系统的DAX挂载模式来使用,第四代扩展文件系统(Fourth extended filesystem,Ext4)和高级日志文件系统XFS都支持DAX模式。DAX挂载模式具有以下特点,分配和使用持久性内存空间对应的操作时在相应的文件系统路径上创建并打开文件,并使用文件系统接口或者Intel提供的和持久内存开发工具包(PersistentMemory Development Kit,PMDK)来进行访问和控制。
本实施例中,在推荐系统中,大规模模型训练时,每个批处理batch会更新24GB/s的数据量,对于参数服务器的读写比约为1:1。在这种场景下,本实施例对持久性内存进行更加细致的架构设计,不仅仅是降低成本,同时通过单机大容量减少跨网络传输从而提升整体效率。
由于分布式索引服务器和参数服务器的存储内核都是基于键值存储(Key-Value,KV),针对持久性内存的特性和键值存储系统的结构,本实施例对持久性内存优化方案如下:在键值存储系统中增加一个缓存池MemPool的组件,键值存储系统结构如图4所示。
参见图4,键值存储系统采用两层的索引结构:第一层为HashMap,存储HashKey和指向第二层的指针Index;第二层是按值大小(Value size)以Slab机制为组织方式的数据页,存储了实际的Value。其中,内存分配机制(Slab机制)下slab分配器的管理数据划分为两大结构:管理数据结构kmem_cache(称之为缓存)和保存3D模型文件(obj对象)的各个slab。即系统启动时会进行预先分配数据页(Embedding Table),以减少Slab动态分配带来的额外开销。MemPool组件可以获取访问请求的访问类型,并根据访问类型决定是从DRAM缓存读写数据,还是从持久性内存读写数据。例如,在推荐模型预估的场景中,由于模型中神经网络大小与数据页Embedding Table相比很小,因此神经网络也会被MemPool直接分配进入DRAM来提高预估的性能。
除了上述的架构优化,本实施例还对键值存储系统进行如下处理,包括:
(1)对于数据读写场景采用非统一内存访问(NUMA)节点绑定的方式,使得持久性内存访问不跨越NUMA节点,从而获得更好的读写性能。在NUMA下,处理器访问自己的本地存储器的速度比非本地存储器快一些,其中非本地存储器是指其他处理器的本地存储器。
(2)采用零拷贝ZeroCopy方式访问持久性内存和动态随机存取存储器DRAM。
(3)键值存储系统内临界区对所述持久性内存的数据访问次数不超过设定次数。即减少锁的使用,尤其是减少临界区中对持久性内存的数据访问,以提高持久性内存读写数据的性能。
(4)在预先设置的高频写入低字节的场景下,持久性内存内设置缓存器,在缓存器内写满字节后,将其所述缓存器内的字节写入所述持久性内存内。如,对于低字节、高频写的更新场景,对于持久性内存是不友好的,通过做缓存cache的方式,在内存中保持写入缓存器Buffer,合并写操作,缓存器Buffer满后再用PMDK的API刷入持久性内存NVM。虽然会损失一些持久化特性,但是带来写性能接近内存的性能提升。
本实施例还设置对比实验来验证上述推荐系统的性能,参见图5,经过上述改进,将基于持久性内存的索引系统用真实的线上请求数据进行模拟压测。在压测中,基于持久性内存的索引系统的请求吞吐(request item)和网络带宽与基于DRAM的系统比较基本持平;在平均时延(avg_time)上基本持平,比DRAM的平均时延略高5%;但是P99的性能持久性内存没有DRAM稳定,会有随时间和压力变化的现象,总体P99时延在测试中大概比DRAM高15%。其中改写相关的请求相比读请求少几个量级,因此基本不影响线上读写操作的性能。在机器重启的情况下,基于持久性内存的异常恢复时间相比DRAM方案降低120倍,从两小时降低到分钟级别,极大的提高系统可用性。
在推荐系统的高吞吐量数据请求的场景,可以大规模使用持久性内存,以降低存储成本的目的。同时,由于其持久性存储的特点,推荐系统的数据恢复比以前从网络或者磁盘进行故障恢复时间能从小时级别降低到分钟级,使得故障重启时间大大减少,极大提高了推荐系统可用性。
另外,实际应用中,为了支持数百亿边级别规模的动态图学习,传统的图计算引擎需要通过图划分算法将图划分成多个分片,然后进行分布式处理,来突破单机内存的限制。而作为图神经网络训练中相对耗时的图遍历采样部分,图分片算法的好坏直接决定了图遍历采样中跨分片跨机器访问的数量,直接关系到图遍历采样的性能和效率。而且很多现有经典划分算法往往对稠密图是很难降低跨机器跨分片访问数量的。因此,如何改善大规模机器学习模型训练系统的性能,以突破由于跨分片跨机器访问导致的性能和效率差的问题,成为亟需解决的问题。
本公开的发明人发现,一些基于图神经网络训练系统的平台(例如推荐系统)往往存在海量的用户访问量和视频上传量,这些图的图节点数达到数亿量级,而边的数量达到百亿量级,需要占用TB量级的存储量;为了让图学习算法支持在线学习,这些新增的数据需要实时更新到图结构中,这就要求图存储引擎支持高吞吐的插入更新操作和旧数据的淘汰机制;图算法在训练时会从图中采样出子图数据,每次采样需要访问数百甚至更多的图节点和边数据,单组模型训练每秒钟需要执行几万次采样操作,图存储引擎需要支持每秒钟至少上百万的数据访问请求。
基于上述场景的读写性能非对称,在一实施例中,本公开的发明人考虑,还可以将具有读写性能非对称特点的持久性内存技术应用于大规模图深度学习中,通过利用可持久性内存技术来直接提高单机存储容量。并可以重新设计图神经网络分布式训练系统的架构,使得该图训练系统能够快速地进行各种图遍历和/或图采样。并且,对于高阶的稠密图遍历,采用可持久化内存在本地运算甚至能节省数十次远程调用,从而极大的提升了图深度学习的训练效率。
图6是根据一示例性实施例示出的一种图深度学习下的应用场景图。其中,在该实施例中,以结合图1所示的推荐系统这一应用场景,来对本申请的图训练系统进行说明。
参见图6,本实施例中重新设计图神经网络分布式训练系统(简称图训练系统)的架构,在构建的图训练系统中,可以包括参数服务器和工作节点(worker)。其中,图训练系统中述及的参数服务器例如可以是图1所述推荐系统中的参数服务器。其中,关于持久性内存的具体实现可参见上文的相关描述,在此不再赘述。
所述参数服务器内可以设置有持久性内存,所述持久性内存被配置为保证所述参数服务器在非对称场景下读数据和写数据的数据访问。在一个实施例中,可以将图训练系统的相关的参数和嵌入(Embedding),分布式地存储在参数服务器中。其中,该图训练系统的相关参数例如可以包括模型参数、用于所训练的图的图节点以及边数据的相关参数等。
工作节点(Worker)可以内设置有持久性内存,所述持久性内存被配置为保证所述工作节点在非对称场景下读数据和写数据的数据访问。其中,对于每个工作节点(Worker),可以将图训练系统所训练的整个图的链接结构压缩后存储在Worker的持久性内存中。这样,由于每个Worker在本地都有图链接结构,因此能够快速的进行各种图遍历采样。对于高阶的稠密图遍历,采用持久性内存在本地运算甚至能节省数十次远程调用,从而极大的提升了图深度学习的训练效率。
本公开实施例中,可以使得整个图的链接结构随着样本流进行动态的结构更新。具体地,例如可以是通过获取样本流,并基于所述样本流,更新所述整个图链接结构。其中,该样本流可以包括图节点的节点ID及其邻接点信息,更新图链接结构例如可以是:若所述样本流中的图节点为新增节点,则将所述新增节点的节点ID存储至所述键值对的键中,并基于训练好的图,将所述新增节点的邻接点信息存储至所述新增节点的键值对的值中。若所述样本流中包括已有图节点的新增邻接点信息,则将新增的邻接点信息至所述已有图节点的节点ID的键值对的值中。由此,实现对整个图的链接结构的更新。
本公开实施例中,例如可以设计基于动态随机存取存储器、NVM的KV存储引擎,使得图引擎可以支持TB量级的数据存储,每秒钟至少上百万的数据访问请求,支持高吞吐的插入更新操作和旧数据的淘汰机制,各种关系图每日新增的边数可以达到数亿甚至数十亿,新增的数据也可以实时更新到图结构中,并使得本公开实施例的图训练系统支持在线学习。
其中具体地,与上文结合推荐系统中的持久性内存的描述相似,图训练系统的参数服务器和/或所述工作节点可以基于键值存储系统存储数据;所述键值存储系统包括缓存池组件;所述缓存池组件与所述持久性内存和预先设置的动态随机存取存储器通信,被配置为获取数据访问请求的访问类型,并基于所述访问类型确定从所述持久性内存或所述动态随机存取存储器读写数据。在另一个实施例中,在在线模型预估服务的场景中,所述缓存池组件被配置为在接收到预估模型发送的数据访问请求时,确定所述预估模型从所述动态随机存取存储器内读写数据。
在本公开实施例中,所述图链接结构的每个图节点及其邻接节点信息可以被存储为键值对,其中,所述键值对的键对应于图节点的节点ID,所述键值对的值中保存所述节点ID对应的邻接节点信息。在有数据访问需求时,工作节点或其图引擎,可以根据所接收的数据访问请求的访问类型,对存储在工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样。在一个实施例中,对存储在所述工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样,例如可以包括:从所述键值对的键中获取节点ID;以及/或者从所述键值对的值中获取所述节点ID对应的邻接点信息。
由此,图算法在训练时会从图中采样出子图数据,每次采样可以访问数百甚至更多的图节点和边数据,单组模型训练每秒钟可以执行几万次采样操作,图引擎支持每秒钟至少上百万的数据访问请求。
此外,本公开实施例中,为了支持旧数据的快速淘汰,键值对的值(value)存储可以使用循环数组来保存邻接节点数据。这样,在插入新的边节点数据后,会自动把超出容量的旧数据淘汰掉。
为了减小内存碎片和加快访问速度,键值对的值(value)存储的存储结构中也可以保持为容量大小固定的连续内存结构。该容量大小可以为预先设置的,在程序启动时可以预分配出与该容量大小对应的value存储。其中,该容量例如可以为设置的最大容量。此外,如果单机存储量不足,整个图可以以图节点为单位,分shard存储到多台物理机器上,采样过程读取多个图节点的数据,会按照图节点所在的物理机器分组,把相同物理机器上的多个图节点请求批量发送出去。
此外,本公开实施例中,通过将持久性内存应用于大规模图深度学习中,可以直接提高单机存储容量(例如TB量级),使得所存储图的图节点数和边数可以达到数亿甚至是数百亿量级。基于该图训练系统,可以存储多种异构图,例如,用户间社交关系图、对象(例如视频)点击关系图等。其中,用户间社交关系图可以表征不同用户之间的社交关系,对象点击关系图可以表征对象(例如视频)与点击该对象的用户的关系。图中可以由图节点和边构成,图中的图节点例如可以包括用户节点和对象节点,边例如可以包括表示用户间社交关系的边和/或表示用户和对象之间的点击关系的边。
由此,通过对图训练系统的相关配置,以使得其能够快速地进行各种图遍历采样,并支持高吞吐的插入更新操作和旧数据的淘汰机制,从而极大地改善大规模机器学习模型训练系统的性能。
换言之,在大规模图神经网络训练系统中使用可持久性内存也带了极大的性能改善,为改善大规模机器学习模型训练系统的性能开辟了新的方向。
图7是根据一示例性实施例示出的一种数据访问方法的流程图。参见图7,一种数据访问方法,适用于图1~图6所示的设置有持久性内存的图训练系统和/或推荐系统,所述方法包括:
701,获取所接收的数据访问请求的访问类型;
702,根据所述访问类型从所述持久性内存或所述动态随机存取存储器读写数据。
在一实施例中,根据所述访问类型从所述持久性内存或所述动态随机存取存储器读写数据包括:
若确定出数据访问请求来自预估模型,则确定所述预估模型从所述动态随机存取存储器内读写数据。
在一实施例中,根据所述访问类型从所述持久性内存或所述动态随机存取存储器读写数据包括:
若写入数据的字节数低于设定数量,则将所述字节写入到所述持久性内存内的缓存内;
若所述缓存内已写满字节,则将所述缓存内的全部字节写入所述持久性内存。
在一个实施例中,本申请实施例的数据访问方法,可以适用于图6所示的设置有持久性内存的工作节点,所述方法包括:
获取所接收的数据访问请求的访问类型;
根据所述访问类型,对存储在所述工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样。
在一个实施例中,所述图链接结构的每个图节点及其邻接节点信息被存储为键值对,对存储在所述工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样,包括:
从所述键值对的键中获取节点ID;以及/或者
从所述键值对的值中获取所述节点ID对应的邻接点信息。
在一个实施例,所述方法还可以包括:
获取样本流,所述样本流包括节点ID及其对应的邻接点信息;以及
基于所述样本流,更新所述整个图链接结构。
在一个实施例,所述基于所述样本流,更新所述整个图链接结构,包括:
若所述样本流中的图节点为新增节点,则将所述新增节点的节点ID存储至所述键值对的键中,并基于训练好的图,将所述新增节点的邻接点信息存储至所述新增节点的键值对的值中。
在一个实施例,可以使用循环数组保存所述邻接节点信息;并且/或者
所述值的存储结构可以为容量大小固定的连续内存结构,所述容量为预先分配的。
图8是根据一示例性实施例示出的一种数据访问装置的框图。参见图8,一种数据访问装置,适用于设置有持久性内存的图训练系统和/或推荐系统,所述装置包括:
访问类型获取单元801,被配置为执行获取所接收的数据访问请求的访问类型;
读写位置确定单元802,被配置为执行根据所述访问类型从所述持久性内存或所述动态随机存取存储器读写数据。
在一实施例中,所述读写位置确定单元802包括:
预估数据确定模块,被配置为执行在确定出数据访问请求来自预估模型时,确定所述预估模型从所述动态随机存取存储器内读写数据。
在一实施例中,所述读写位置确定单元802包括:
缓存写入模块,被配置为执行在写入数据的字节数低于设定数量时,将所述字节写入到所述持久性内存内的缓存内;
内存写入模块,被配置为执行在所述缓存内已写满字节时,将所述缓存内的全部字节写入所述持久性内存。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
在一个实施例中,本申请实施例的数据访问装置,可以适用于设置有持久性内存的图训练系统的工作节点,所述装置包括:
访问类型获取单元,被配置为执行获取所接收的数据访问请求的访问类型;
图引擎单元,被配置为执行根据所述访问类型,对存储在所述工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样。
在一实施例中,所述图链接结构的每个图节点及其邻接节点信息被存储为键值对,所述图引擎单元中包括键读取单元和值读取单元。其中,所诉键读取单元被配置为从所述键值对的键中获取节点ID,所述值读取单元被配置为从所述键值对的值中获取所述节点ID对应的邻接点信息。
在一个实施例中,所述装置还可以包括图链接结构更新单元。其中,所述图链接结构更新单元被配置为获取样本流,并基于所述样本流,更新所述整个图链接结构。其中,所述样本流包括节点ID及其对应的邻接点信息,所述基于所述样本流更新所述整个图链接结构可以包括:若所述样本流中的图节点为新增节点,则将所述新增节点的节点ID存储至所述键值对的键中,并基于训练好的图,将所述新增节点的邻接点信息存储至所述新增节点的键值对的值中。
在一个实施例中,使用循环数组保存所述邻接节点信息;并且/或者所述值的存储结构为容量大小固定的连续内存结构,所述容量为预先分配的。
图9是根据一示例性实施例示出的一种电子设备的框图。例如,电子设备900可以是服务器,移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图9,电子设备900可以包括以下一个或多个组件:处理组件902,存储器904,电源组件906,多媒体组件908,音频组件910,输入/输出(I/O)的接口912,传感器组件914,以及通信组件916。
处理组件902通常控制电子设备900的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件902可以包括一个或多个处理器920来执行指令,以完成图7所示方法的全部或部分步骤。此外,处理组件902可以包括一个或多个模块,便于处理组件902和其他组件之间的交互。例如,处理组件902可以包括多媒体模块,以方便多媒体组件908和处理组件902之间的交互。
存储器904被配置为存储各种类型的数据以支持在电子设备900的操作。这些数据的示例包括用于在电子设备900上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器904可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件906为电子设备900的各种组件提供电力。电源组件906可以包括电源管理系统,一个或多个电源,及其他与为电子设备900生成、管理和分配电力相关联的组件。
多媒体组件908包括在电子设备900和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件908包括一个前置摄像头和/或后置摄像头。当电子设备900处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件910被配置为输出和/或输入音频信号。例如,音频组件910包括一个麦克风(MIC),当电子设备900处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器904或经由通信组件916发送。在一些实施例中,音频组件910还包括一个扬声器,用于输出音频信号。
I/O接口912为处理组件902和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件914包括一个或多个传感器,用于为电子设备900提供各个方面的状态评估。例如,传感器组件914可以检测到电子设备900的打开/关闭状态,组件的相对定位,例如所述组件为电子设备900的显示器和小键盘,传感器组件914还可以检测电子设备900或电子设备900一个组件的位置改变,用户与电子设备900接触的存在或不存在,电子设备900方位或加速/减速和电子设备900的温度变化。传感器组件914可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件914还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件914还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件916被配置为便于电子设备900和其他设备之间有线或无线方式的通信。电子设备900可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件916经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件916还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在本公开一实施例中,电子设备900可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在本公开一实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器904,上述指令可由电子设备900的处理器920执行以完成上述方法的步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在本公开一实施例中,还提供了一种应用程序,当该应用程序由电子设备的处理器执行时,使得所述电子设备能够执行上述方法的步骤,以获取相同的技术效果。
在本公开一实施例中,还提供了一种计算机程序产品,当该计算机程序产品由电子设备的处理器执行时,使得所述电子设备能够执行上述方法的步骤,以获取相同的技术效果。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置/电子设备/存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (13)
1.一种图训练系统,其特征在于,所述图训练系统包括:
参数服务器,所述参数服务器内设置有持久性内存,所述持久性内存被配置为保证所述参数服务器在非对称场景下读数据和写数据的数据访问;
其中,所述图训练系统的参数以及嵌入,分布式地存储在所述参数服务器中;
所述图训练系统包括多个工作节点,每个工作节点内设置有持久性内存,所述持久性内存被配置为保证所述工作节点在非对称场景下读数据和写数据的数据访问;
其中,所述图训练系统将所训练的图的整个图链接结构数据存储在每个工作节点的持久性内存内;
所述参数服务器和/或所述工作节点基于键值存储系统存储数据;所述键值存储系统包括缓存池组件;所述缓存池组件与所述持久性内存和预先设置的动态随机存取存储器通信,被配置为获取数据访问请求的访问类型,并基于所述访问类型确定从所述持久性内存或所述动态随机存取存储器读写数据;或者,在在线模型预估服务的场景中,所述缓存池组件被配置为在接收到预估模型发送的数据访问请求时,确定所述预估模型从所述动态随机存取存储器内读写数据。
2.根据权利要求1所述的图训练系统,其特征在于,所述整个图链接结构数据压缩存储在每个工作节点的持久性内存内,其中,所述图链接结构的每个图节点及其邻接节点信息被存储为键值对,所述键值对的键对应于图节点的节点ID,所述键值对的值中保存所述节点ID对应的邻接节点信息。
3.根据权利要求2所述的图训练系统,其特征在于,使用循环数组保存所述邻接节点信息。
4.根据权利 要求2所述的图训练系统,其特征在于,所述值的存储结构为容量大小固定的连续内存结构,所述容量为预先分配的。
5.根据权利要求1所述的图训练系统,其特征在于,所述图训练系统用于推荐系统,所述参数服务器是所述推荐系统的参数服务器,所述推荐系统还包括:
分布式索引服务器,所述分布式索引服务器内设置有持久性内存,所述持久性内存被配置为保证所述分布式索引服务器在非对称场景下读数据和写数据的数据访问。
6.根据权利要求5所述的图训练系统,其特征在于,所述键值存储系统内绑定非统一内容访问NUMA节点,以使所述持久性内存的数据访问不跨越NUMA节点;
或者,
所述键值存储系统内采用零拷贝ZeroCopy方式访问所述持久性内存和所述动态随机存取存储器;
或者,
在设定时长内,所述键值存储系统内临界区对所述持久性内存的数据访问次数不超过设定次数。
7.根据权利要求5所述的图训练系统,其特征在于,在预先设置的高频写入低字节的场景下,所述持久性内存内设置缓存,在缓存器内写满字节后,将其所述缓存器内的字节写入所述持久性内存内。
8.一种数据访问方法,其特征在于,适用于设置有持久性内存的图训练系统的工作节点,所述方法包括:
获取所接收的数据访问请求的访问类型;
根据所述访问类型,对存储在所述工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样;其中,所述图链接结构的每个图节点及其邻接节点信息被存储为键值对,对存储在所述工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样,包括:从所述键值对的键中获取节点ID;以及/或者从所述键值对的值中获取所述节点ID对应的邻接点信息;
获取样本流,所述样本流包括节点ID及其对应的邻接点信息;以及基于所述样本流,更新所述整个图链接结构。
9.根据权利要求8所述的方法,其特征在于,所述基于所述样本流,更新所述整个图链接结构,包括:
若所述样本流中的图节点为新增节点,则将所述新增节点的节点ID存储至所述键值对的键中,并基于训练好的图,将所述新增节点的邻接点信息存储至所述新增节点的键值对的值中。
10.根据权利要求8所述的方法,其特征在于,
使用循环数组保存所述邻接节点信息;所述值的存储结构为容量大小固定的连续内存结构,所述容量为预先分配的。
11.一种数据访问装置,其特征在于,适用于设置有持久性内存的图训练系统的工作节点,所述装置包括:
访问类型获取单元,被配置为执行获取所接收的数据访问请求的访问类型;
图引擎单元,被配置为执行根据所述访问类型,对存储在所述工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样;其中,所述图链接结构的每个图节点及其邻接节点信息被存储为键值对,对存储在所述工作节点的持久性内存内的整个图链接结构数据进行图遍历和/或图采样,包括:从所述键值对的键中获取节点ID;以及/或者从所述键值对的值中获取所述节点ID对应的邻接点信息;
样本流获取单元,被配置为执行获取样本流,所述样本流包括节点ID及其对应的邻接点信息;以及基于所述样本流,更新所述整个图链接结构。
12.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为执行所述存储器中的可执行指令,以实现如权利要求8-10中任何一项所述方法的步骤。
13.一种存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求8-10中任何一项所述方法的步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910714160 | 2019-08-03 | ||
CN2019107141605 | 2019-08-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110751275A CN110751275A (zh) | 2020-02-04 |
CN110751275B true CN110751275B (zh) | 2022-09-02 |
Family
ID=69279675
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911012219.2A Active CN110807125B (zh) | 2019-08-03 | 2019-10-23 | 推荐系统、数据访问方法及装置、服务器、存储介质 |
CN201911013968.7A Active CN110751275B (zh) | 2019-08-03 | 2019-10-23 | 图训练系统、数据访问方法及装置、电子设备、存储介质 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911012219.2A Active CN110807125B (zh) | 2019-08-03 | 2019-10-23 | 推荐系统、数据访问方法及装置、服务器、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN110807125B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929870B (zh) * | 2020-02-17 | 2020-06-12 | 支付宝(杭州)信息技术有限公司 | 图神经网络模型训练方法、装置及系统 |
CN112083881B (zh) * | 2020-08-24 | 2022-10-18 | 云南财经大学 | 一种基于持久化内存的一体化天文数据采集与存储系统 |
CN112181732B (zh) * | 2020-10-29 | 2024-09-10 | 第四范式(北京)技术有限公司 | 参数服务器节点的恢复方法和恢复系统 |
CN112306682B (zh) * | 2020-10-29 | 2022-08-16 | 第四范式(北京)技术有限公司 | 一种模型参数的存储方法和系统以及一种参数服务器集群 |
CN112596963B (zh) * | 2020-12-14 | 2024-05-03 | 成都海光集成电路设计有限公司 | 一种快速内存训练的方法及系统 |
WO2022133725A1 (en) * | 2020-12-22 | 2022-06-30 | Orange | Improved distributed training of graph-embedding neural networks |
CN112906825A (zh) * | 2021-03-30 | 2021-06-04 | 第四范式(北京)技术有限公司 | 实现机器学习模型的分布式训练的方法和计算节点 |
CN113657577B (zh) * | 2021-07-21 | 2023-08-18 | 阿里巴巴达摩院(杭州)科技有限公司 | 模型训练方法及计算系统 |
CN114217743B (zh) * | 2021-09-17 | 2024-05-31 | 支付宝(杭州)信息技术有限公司 | 用于分布式图学习架构的数据存取方法及装置 |
CN115391341A (zh) * | 2022-08-23 | 2022-11-25 | 抖音视界有限公司 | 分布式图数据处理系统、方法、装置、设备及存储介质 |
CN115358729B (zh) * | 2022-10-21 | 2023-01-13 | 成都戎星科技有限公司 | 一种卫星影像数据智能发布系统 |
CN117785490B (zh) * | 2024-02-27 | 2024-05-10 | 苏州元脑智能科技有限公司 | 一种图神经网络模型的训练架构、方法、系统及服务器 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104346293A (zh) * | 2013-07-25 | 2015-02-11 | 华为技术有限公司 | 混合内存的数据访问方法、模块、处理器及终端设备 |
CN105242881A (zh) * | 2015-10-12 | 2016-01-13 | 创新科软件技术(深圳)有限公司 | 分布式存储系统及其数据读写方法 |
CN108683738A (zh) * | 2018-05-16 | 2018-10-19 | 腾讯科技(深圳)有限公司 | 图数据处理方法和图数据的计算任务发布方法 |
CN108763458A (zh) * | 2018-05-28 | 2018-11-06 | 腾讯科技(深圳)有限公司 | 内容特征查询方法、装置、计算机设备及存储介质 |
CN108962238A (zh) * | 2018-04-25 | 2018-12-07 | 苏州思必驰信息科技有限公司 | 基于结构化神经网络的对话方法、系统、设备及存储介质 |
CN109754060A (zh) * | 2017-11-06 | 2019-05-14 | 阿里巴巴集团控股有限公司 | 一种神经网络机器学习模型的训练方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10587624B2 (en) * | 2016-09-20 | 2020-03-10 | Tnb Growth Corporation | Networking application for controlled-access-establishment |
CN109063103A (zh) * | 2018-07-27 | 2018-12-21 | 郑州云海信息技术有限公司 | 一种分布式非易失文件系统 |
CN109656482B (zh) * | 2018-12-19 | 2022-03-25 | 哈尔滨工业大学 | 一种基于存储器访问的写热页面预测方法 |
-
2019
- 2019-10-23 CN CN201911012219.2A patent/CN110807125B/zh active Active
- 2019-10-23 CN CN201911013968.7A patent/CN110751275B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104346293A (zh) * | 2013-07-25 | 2015-02-11 | 华为技术有限公司 | 混合内存的数据访问方法、模块、处理器及终端设备 |
CN105242881A (zh) * | 2015-10-12 | 2016-01-13 | 创新科软件技术(深圳)有限公司 | 分布式存储系统及其数据读写方法 |
CN109754060A (zh) * | 2017-11-06 | 2019-05-14 | 阿里巴巴集团控股有限公司 | 一种神经网络机器学习模型的训练方法及装置 |
CN108962238A (zh) * | 2018-04-25 | 2018-12-07 | 苏州思必驰信息科技有限公司 | 基于结构化神经网络的对话方法、系统、设备及存储介质 |
CN108683738A (zh) * | 2018-05-16 | 2018-10-19 | 腾讯科技(深圳)有限公司 | 图数据处理方法和图数据的计算任务发布方法 |
CN108763458A (zh) * | 2018-05-28 | 2018-11-06 | 腾讯科技(深圳)有限公司 | 内容特征查询方法、装置、计算机设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
Neural Graph Collaborative Filtering;Xiang Wang 等;《arViv》;20190520;第1-9页 * |
NUMA架构下数据热度的内存数据库日志恢复技术;吴刚 等;《计算机科学与探索》;20190630;第13卷(第06期);第942页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110807125A (zh) | 2020-02-18 |
CN110807125B (zh) | 2020-12-22 |
CN110751275A (zh) | 2020-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110751275B (zh) | 图训练系统、数据访问方法及装置、电子设备、存储介质 | |
US9952753B2 (en) | Predictive caching and fetch priority | |
US10484456B2 (en) | Sharing a content item | |
US11296940B2 (en) | Centralized configuration data in a distributed file system | |
RU2615682C2 (ru) | Способ, устройство, сервер и терминал для посещения веб-страницы | |
WO2015149644A1 (en) | Intelligent file pre-fetch based on access patterns | |
CN109815425A (zh) | 缓存数据处理方法、装置、计算机设备和存储介质 | |
US11599462B1 (en) | Memory cache entry management with pinned cache entries | |
CN113239049B (zh) | 信息的处理方法、装置、终端和存储介质 | |
CN115145735B (zh) | 一种内存分配方法、装置和可读存储介质 | |
CN113419670A (zh) | 数据写入处理方法、装置及电子设备 | |
CN114428589B (zh) | 一种数据处理方法、装置、电子设备及存储介质 | |
CN112698793A (zh) | 一种数据存储方法、装置、机器可读介质及设备 | |
US11157456B2 (en) | Replication of data in a distributed file system using an arbiter | |
CN106156038B (zh) | 数据存储方法和装置 | |
WO2016090985A1 (zh) | 缓存的读取、读取处理方法及装置 | |
CN114356241B (zh) | 小对象数据的存储方法、装置、电子设备和可读介质 | |
CN115016944A (zh) | 一种进程访问方法、装置及电子设备 | |
CN112286448B (zh) | 对象访问方法、装置、电子设备及机器可读存储介质 | |
CN113076067B (zh) | 淘汰缓存数据的方法和装置 | |
CN113378022B (zh) | 一种站内搜索平台、搜索方法和相关装置 | |
CN110990357A (zh) | 数据处理方法及装置、系统、电子设备和存储介质 | |
CN116484078A (zh) | 一种检索方法、装置、电子设备及计算机可读存储介质 | |
CN110716885A (zh) | 数据管理方法、装置、电子设备和存储介质 | |
CN118626007A (zh) | 一种数据迁移方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |