CN108255590A - 一种数据流控制方法和装置 - Google Patents

一种数据流控制方法和装置 Download PDF

Info

Publication number
CN108255590A
CN108255590A CN201711281661.6A CN201711281661A CN108255590A CN 108255590 A CN108255590 A CN 108255590A CN 201711281661 A CN201711281661 A CN 201711281661A CN 108255590 A CN108255590 A CN 108255590A
Authority
CN
China
Prior art keywords
data
subtask
task
flow control
computing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711281661.6A
Other languages
English (en)
Other versions
CN108255590B (zh
Inventor
黄理洪
杨作兴
韦建利
蔡清华
张宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Bit Microelectronics Technology Co Ltd
Original Assignee
Shenzhen Bit Microelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Bit Microelectronics Technology Co Ltd filed Critical Shenzhen Bit Microelectronics Technology Co Ltd
Priority to CN201711281661.6A priority Critical patent/CN108255590B/zh
Publication of CN108255590A publication Critical patent/CN108255590A/zh
Application granted granted Critical
Publication of CN108255590B publication Critical patent/CN108255590B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Multi Processors (AREA)

Abstract

本发明公开了一种数据流控制方法和装置。本发明技术方案主要包括:获取任务数据;将所述任务数据转换为符合计算格式的多个子任务数据;将所述多个子任务数据缓存于环形缓冲区;按照预定的时序,从所述环形缓冲区中获取子任务数据并转发至计算装置进行任务计算。本发明技术方案能够保证计算装置始终能够从缓存中获得子任务数据进行计算,从而能够充分发挥计算装置的算力。缓存采用环形缓冲设计,可避免线程之间的锁竞争问题,避免向计算装置分发子任务数据的中断。由于可以采用总线结构实现本发明的技术方案,因此,可以降低挖矿硬件成本,并同样能够向算力板提供优秀的任务数据发送时序。

Description

一种数据流控制方法和装置
技术领域
本发明涉及数据分发处理技术,特别涉及一种可应用于虚拟货币矿机的数据流控制方法和装置。
背景技术
虚拟货币(例如比特币)矿机主要由控制板和算力板构成。其中,控制板的作用是从虚拟货币矿池中抓取任务数据,对任务进行必要的HASH运算,以将所抓取的任务数据拆分或者转换成各个算力板能够处理的子任务数据,然后把子任务数据按照严格的时序要求发送给各个算力板处理,再从各个算力板读取运算结果,把符合要求的结果递交给矿池。矿池会根据矿机递交结果的数量发放虚拟货币奖励。如果在控制板侧,任务数据不能按照严格的时序要求定时发送到算力板,则不能充分地发挥出算力板的运算性能,影响矿机的实际算力。
目前的主流矿机方案采用一个控制板带三个算力板。而控制板的主流方案是采用Xilinx公司的FPGA Zynq-7000。基于FPGA硬件的良好性能,使得该方案具有能够将任务按严格的时序(通过FPGA的硬件描述语言实现)送给算力板的优点,但是该方案的成本过高,而且货源不稳定。面对日益增长的挖矿难度和算力提升需求,该方案显然并不具备成本优势。
发明内容
有鉴于此,本发明提供一种数据流控制方法和装置,以替代现有的FPGA方案的算力板,降低挖矿硬件成本,并向算力板提供优秀的任务数据发送时序。
本申请的技术方案是这样实现的:
一种数据流控制方法,包括:
获取任务数据;
将所述任务数据转换为符合计算格式的多个子任务数据;
将所述多个子任务数据缓存于环形缓冲区;
从所述环形缓冲区中获取子任务数据并转发至计算装置进行任务计算。
进一步,将所述多个子任务数据缓存于环形缓冲区的速度大于从所述环形缓冲区中获取子任务数据的速度。
进一步,按照预定的时序,从所述环形缓冲区中定时获取所述子任务数据并转发至计算装置。
进一步,所述任务数据为从虚拟货币矿池获取的任务数据;
所述计算装置为算力板。
一种数据流控制装置,包括:
获取任务数据,将所述任务数据转换为符合计算格式的多个子任务数据,并将所述多个子任务数据缓存于环形缓冲区的数据分配单元;
连接于所述数据分配单元以提供所述环形缓冲区的内存单元;以及,
连接于所述内存单元以从所述环形缓冲区中获取子任务数据并分别转发至至少一个计算装置进行任务计算的至少一个数据转发单元。
进一步,所述环形缓冲区为至少一个,并且,所述环形缓冲区与数据转发单元为一一对应关系,每个所述数据转发单元只从与其对应的环形缓冲区中获取子任务数据。
进一步,所述数据分配单元、内存单元和数据转发单元通过总线相互连接;
所述数据流控制装置还包括连接于所述总线的网络连接端口和连接于计算装置的数据分发端口。
进一步,所述数据分配单元和数据转发单元为位于一连接于所述总线的多核处理器中的内核;其中,
所述数据分配单元为所述多核处理器中所划分出的任一内核,该内核通过总线进而通过网络连接端口获取任务数据;
所述数据转发单元为除所述数据分配单元以外所述多核处理器中所划分出的其它所有内核,且每一个数据转发单元分别与每一个计算装置一一对应,进而每一个数据转发单元从所述环形缓冲区中获取子任务数据后,通过数据分发端口将所获取子任务数据转发至与其对应的计算装置进行任务计算。
进一步,所述多核处理器中分配为所述数据分配单元的内核运行所述数据流控制装置的主线程,并在所述环形缓冲区未满时向所述环形缓冲区中缓存所述子任务数据,在所述环形缓冲区已满时处理除向所述环形缓冲区中缓存所述子任务数据以外的其它事务;
所述多核处理器中分配为所述数据转发单元的内核运行矿工线程,以按照预定的时序,从所述环形缓冲区中定时获取所述子任务数据并转发至所述计算装置。
进一步,所述多核处理器为四核处理器;
每台所述数据流控制装置连接三台计算装置。
进一步,所述任务数据为从虚拟货币矿池获取的任务数据;所述计算装置为算力板。
从上述方案可以看出,本发明的数据流控制方法和装置,通过向缓冲区中不断地存储子任务数据,并且只要缓存没满,就一直向缓存中填充子任务数据,保证计算装置始终能够从缓存中获得子任务数据进行计算,从而能够充分发挥计算装置的算力。缓存采用环形缓冲设计,可避免线程之间的锁竞争问题,避免向计算装置分发子任务数据的中断。由于可以采用总线结构实现本发明的数据流控制方法和装置,因此,可以替代现有的FPGA方案的算力板,降低挖矿硬件成本,并同样能够向算力板提供优秀的任务数据发送时序。
附图说明
图1为本发明的数据流控制方法的流程示意图;
图2为本发明的数据流控制装置结构示意图;
图3为采用总线结构的数据流控制装置实施例示意图;
图4为本发明的一个应用场景中的实施例框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下参照附图并举实施例,对本发明作进一步详细说明。
如图1所示为本发明的数据流控制方法的流程示意图,该方法包括:
获取任务数据;
将所述任务数据转换为符合计算格式的多个子任务数据;
将所述多个子任务数据缓存于环形缓冲区;
从所述环形缓冲区中获取子任务数据并转发至计算装置进行任务计算。
该方法可利用现有的总线结构实现,需要说明的是,其中各个步骤均是按照严格时序进行,以使得计算装置能够尽可能满负荷工作,避免计算装置的闲置,保证计算装置算力的充分发挥,在以下的说明中将进一步阐述。
本发明中,将所述多个子任务数据缓存于环形缓冲区的速度大于从所述环形缓冲区中获取子任务数据的速度。这样做的目的在于,只要有子任务数据需要处理,计算装置便随时都能够获得子任务数据,任务数据不会堵塞于环形缓冲区之前而让计算装置处于闲置(或者待机)状态,从而充分发挥计算装置的算力。
本发明中,按照预定的时序,从所述环形缓冲区中定时获取所述子任务数据并转发至计算装置。这样做的目的在于,保证能够在指定的时间范围内发送完成子任务数据,避免打断发送子任务数据或者避免子任务数据发送失败,从而避免计算装置由于时序问题导致的子任务数据接收失败造成的算力下降。
本发明的数据流控制方法可应用于虚拟货币的挖掘,例如比特币。其中,所述任务数据例如为从虚拟货币矿池获取的任务数据,对应地,所述计算装置例如为虚拟货币矿机的算力板。而本发明的数据流控制方法可应用于虚拟货币矿机的控制板。
同时,本发明还提供了一种数据流控制装置,如图2所示,该数据流控制装置1包括数据分配单元101、内存单元102和数据转发单元103。其中,所述数据分配单元101用于获取任务数据,将所述任务数据转换为符合计算格式的多个子任务数据,并将所述多个子任务数据缓存于环形缓冲区。所述内存单元102连接于所述数据分配单元101用以提供所述环形缓冲区。所述数据转发单元103数量为至少一个,所述数据转发单元103连接于所述内存单元102以从所述环形缓冲区中获取子任务数据并分别转发至至少一个计算装置2进行任务计算,其中每个数据转发单元103与计算装置2一一对应。
本发明采用环形缓冲区的设计,是考虑到环形缓冲的是一种免锁的设计,从而可以避免锁竞争所导致的获取子任务数据的线程停顿而降低计算装置2的算力。进一步地,本发明实施例中,所述环形缓冲区为至少一个,并且,所述环形缓冲区与数据转发单元103为一一对应关系,每个所述数据转发单元103只从与其对应的环形缓冲区中获取子任务数据,这样能够避免多个数据转发单元103之间对缓冲区的访问冲突。
本发明实施例中,所述数据分配单元101依次轮流地向每一个环形缓冲区中填充子任务数据。在填充每一个环形缓冲区之前会判断当前要填充的环形缓冲区是否已满,如果已满,则跳过该环形缓冲区而填充下一个环形缓冲区。另外,如果所有的环形缓冲区都被子任务数据填满,数据分配单元101就按照一预定的时间间隔,查询所有的环形缓冲区是否有空间存放子任务数据。
本发明的数据流控制装置应用于虚拟货币挖掘,例如比特币挖掘时,所述任务数据为从虚拟货币矿池获取的任务数据,所述计算装置2为算力板。进一步地,数据分配单元101连接于矿池3,该矿池3为虚拟货币(例如比特币、莱特币等)矿池,任务数据便来源于矿池3。该应用中,所述数据流控制装置即为虚拟货币矿机的控制板。
本发明的数据流控制装置可采用总线结构实施。其中,数据分配单元101和数据转发单元102可由多核处理器中不同的内核实现。图3为本发明的数据流控制装置采用总线结构的一个实施例示意图。其中,数据流控制装置1还包括总线104,所述数据分配单元101、内存单元102和数据转发单元103通过总线104相互连接。该数据流控制装置1还包括连接于所述总线104的网络连接端口106和连接于计算装置2的数据分发端口107。
进一步地,所述数据分配单元101和数据转发单元102为位于一连接于所述总线104的多核处理器105中的内核。其中,所述数据分配单元101为所述多核处理器105中所划分出的任一内核,该内核通过总线104进而通过网络连接端口106从矿池3获取任务数据,其中,网络连接端口106通过例如互联网络连接于所述矿池3。
所述数据转发单元103为除所述数据分配单元101以外的所述多核处理器105中所划分出的其它所有内核,且每一个数据转发单元103分别与每一个计算装置2一一对应,进而每一个数据转发单元103从内存单元102中的环形缓冲区中获取子任务数据后,通过数据分发端口107将所获取子任务数据转发至与其对应的计算装置2进行任务计算。
所述多核处理器105中分配为所述数据分配单元101的内核运行所述数据流控制装置的主线程,并在所述环形缓冲区未满时向所述环形缓冲区中缓存所述子任务数据,在所述环形缓冲区已满时处理除向所述环形缓冲区中缓存所述子任务数据以外的其它事务;所述多核处理器105中分配为所述数据转发单元103的内核运行矿工线程,以按照预定的时序,从所述环形缓冲区中定时获取所述子任务数据并转发至所述计算装置2。
作为一个具体实施例,所述多核处理器105为四核处理器,每台所述数据流控制装置1连接三台计算装置2。
以下结合一具体应用场景对本发明的数据流控制方法和装置进行进一步说明。
图4为本发明的数据流控制方法和装置的一个具体应用场景实施例框图。该应用场景是对比特币矿机的一个应用。该应用场景中,采用全志H3四核处理器,四个CPU core(内核)分工如下:
Core0,即0号内核,运行主线程(Main thread),主要负责对从矿池获取的任务数据进行必要的HASH运算(依据比特币原理需要在控制板进行相应的HASH运算),进而能够将任务数据拆分成分配各个算力板进行计算的子任务数据,并把子任务数据缓存在环形缓冲。
Core1、Core2、Core3,即1号内核、2号内核、3号内核,均运行miner(矿工)线程,即Core1运行0号矿工线程(Miner thread0)、即Core2运行1号矿工线程(Miner thread1)、即Core3运行2号矿工线程(Miner thread2),负责从环形缓存中取出子任务数据,并分别通过3个UART串口(即串口0、串口1、串口2)把子任务数据发送到3块算力板(即算力板0、算力板1、算力板2)。
其中,Core0不断轮流地向任务缓存0、任务缓存1和任务缓存2中写入子任务数据,以充分利用Core0的CPU资源。任务缓存采用环境缓冲结构,从而实现免锁。使用Core1、Core2、Core3这三个内核分别运行3个矿工线程,从任务缓存中取出子任务数据,按照设定的时序通过串口向对应的算力板(如Core1对应算力板0、Core2对应算力板1、Core3对应算力板2)发送子任务数据。要保证任务分配不会中断而影响算力板的计算,Core0向任务缓存0、任务缓存1和任务缓存2中写入任务的速度要大于Core1、Core2、Core3读取子任务数据的速度。Core0运行的主线程会依次轮流地向向任务缓存0、任务缓存1和任务缓存2填充子任务数据,在填充每一个任务缓存之前,主线程会判断该任务缓存是否已满,如果已满,则转而填充下一个任务缓存,如果所有任务缓存都满了,主线程则每100μs(微秒)查询一次所有的任务缓存是否有空间存放子任务数据,当所有的任务缓存的至少其中之一出现空间未满(有子任务数据刚刚被取出),则填充子任务数据至该未满的任务缓存。
要保证任务通过串口发送的时序要求,关键点如下:
(1)使用3个Core(即Core1、Core2、Core3)分别运行3个miner线程,每个Core运行一个miner线程,每个miner线程负责向一块算力板通过串口按照严格的时序要求定时发送子任务数据;这3个Core不分担HASH计算工作,否则串口发送过程会被打断,不能保证指定的时间范围内发送完子任务数据。
例如,每个miner线程向一块算力板通过串口定时发送子任务数据的时序为每800μs发送一个子任务数据,每个子任务数据有49个byte(字节)数据,串口的波特率为1MBit/s,如果串口传输不被打断,则需要490μs才能发送完子任务数据,如果中间被打断,就不能保证800μs内能传输完成。
(2)要使用任务缓存,因为Core0用于HASH计算的工作CPU资源可能会被系统的更底层工作打断,为了充分利用其能连续工作时的CPU资源,就设计了任务缓存,只要缓存没满,就一直进行HASH计算生成子任务数据并向任务缓存填充。
(3)Core0主线程对任务缓存的写入操作,和Core1、Core2、Core3的3个miner线程对任务缓存的读取操作都不能持锁,否则,就会让miner线程因为和其它线程之间的锁竞争问题导致阻塞,影响发送子任务数据的时序,进而影响算力板算力。这就要求任务缓存的数据结构是免锁设计的。而采用环形缓冲结构便能够解决免锁的问题。
本发明的数据流控制方法和装置,通过向缓冲区中不断地存储子任务数据,并且只要缓存没满,就一直向缓存中填充子任务数据,保证计算装置始终能够从缓存中获得子任务数据进行计算,从而能够充分发挥计算装置的算力。缓存采用环形缓冲设计,可避免线程之间的锁竞争问题,避免向计算装置分发子任务数据的中断。由于可以采用总线结构实现本发明的数据流控制方法和装置,因此,可以替代现有的FPGA方案的算力板,降低挖矿硬件成本,并同样能够向算力板提供优秀的任务数据发送时序。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (10)

1.一种数据流控制方法,包括:
获取任务数据;
将所述任务数据转换为符合计算格式的多个子任务数据;
将所述多个子任务数据缓存于环形缓冲区;
从所述环形缓冲区中获取子任务数据并转发至计算装置进行任务计算。
2.根据权利要求1所述的数据流控制方法,其特征在于:将所述多个子任务数据缓存于环形缓冲区的速度大于从所述环形缓冲区中获取子任务数据的速度。
3.根据权利要求1所述的数据流控制方法,其特征在于:
按照预定的时序,从所述环形缓冲区中定时获取所述子任务数据并转发至计算装置。
4.根据权利要求1至3任一项所述的数据流控制方法,其特征在于:
所述任务数据为从虚拟货币矿池获取的任务数据;
所述计算装置为算力板。
5.一种数据流控制装置,其特征在于,包括:
获取任务数据,将所述任务数据转换为符合计算格式的多个子任务数据,并将所述多个子任务数据缓存于环形缓冲区的数据分配单元;
连接于所述数据分配单元以提供所述环形缓冲区的内存单元;以及,
连接于所述内存单元以从所述环形缓冲区中获取子任务数据并分别转发至至少一个计算装置进行任务计算的至少一个数据转发单元。
6.根据权利要求5所述的数据流控制装置,其特征在于:
所述环形缓冲区为至少一个,并且,所述环形缓冲区与数据转发单元为一一对应关系,每个所述数据转发单元只从与其对应的环形缓冲区中获取子任务数据。
7.根据权利要求5所述的数据流控制装置,其特征在于:
所述数据分配单元、内存单元和数据转发单元通过总线相互连接;
所述数据流控制装置还包括连接于所述总线的网络连接端口和连接于计算装置的数据分发端口。
8.根据权利要求7所述的数据流控制装置,其特征在于:
所述数据分配单元和数据转发单元为位于一连接于所述总线的多核处理器中的内核;其中,
所述数据分配单元为所述多核处理器中所划分出的任一内核,该内核通过总线进而通过网络连接端口获取任务数据;
所述数据转发单元为除所述数据分配单元以外所述多核处理器中所划分出的其它所有内核,且每一个数据转发单元分别与每一个计算装置一一对应,进而每一个数据转发单元从所述环形缓冲区中获取子任务数据后,通过数据分发端口将所获取子任务数据转发至与其对应的计算装置进行任务计算。
9.根据权利要求8所述的数据流控制装置,其特征在于:
所述多核处理器中分配为所述数据分配单元的内核运行所述数据流控制装置的主线程,并在所述环形缓冲区未满时向所述环形缓冲区中缓存所述子任务数据,在所述环形缓冲区已满时处理除向所述环形缓冲区中缓存所述子任务数据以外的其它事务;
所述多核处理器中分配为所述数据转发单元的内核运行矿工线程,以按照预定的时序,从所述环形缓冲区中定时获取所述子任务数据并转发至所述计算装置。
10.根据权利要求5至9任一项所述的数据流控制装置,其特征在于:
所述任务数据为从虚拟货币矿池获取的任务数据;
所述计算装置为算力板。
CN201711281661.6A 2017-12-07 2017-12-07 一种数据流控制方法和装置 Active CN108255590B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711281661.6A CN108255590B (zh) 2017-12-07 2017-12-07 一种数据流控制方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711281661.6A CN108255590B (zh) 2017-12-07 2017-12-07 一种数据流控制方法和装置

Publications (2)

Publication Number Publication Date
CN108255590A true CN108255590A (zh) 2018-07-06
CN108255590B CN108255590B (zh) 2021-07-30

Family

ID=62721130

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711281661.6A Active CN108255590B (zh) 2017-12-07 2017-12-07 一种数据流控制方法和装置

Country Status (1)

Country Link
CN (1) CN108255590B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109445970A (zh) * 2018-09-18 2019-03-08 北京工业大学 一种软件可靠性时间序列预测方法及应用
CN109698750A (zh) * 2018-11-08 2019-04-30 平安科技(深圳)有限公司 区块链的区块生成方法、装置、设备及可读存储介质
CN112559175A (zh) * 2020-12-08 2021-03-26 深圳比特微电子科技有限公司 一种向算力板分发子任务的方法、装置和数字货币矿机

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693096A (zh) * 2012-05-17 2012-09-26 山西达鑫核科技有限公司 基于位的串行传输云存储方法及装置
CN103034618A (zh) * 2012-03-22 2013-04-10 富士施乐株式会社 图像处理设备
CN103888321A (zh) * 2014-04-14 2014-06-25 中国人民解放军信息工程大学 一种数据流检测方法及多核处理设备
CN106980477A (zh) * 2017-04-11 2017-07-25 华中科技大学 一种卫星序列图像中点目标实时检测与跟踪系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103034618A (zh) * 2012-03-22 2013-04-10 富士施乐株式会社 图像处理设备
CN102693096A (zh) * 2012-05-17 2012-09-26 山西达鑫核科技有限公司 基于位的串行传输云存储方法及装置
CN103888321A (zh) * 2014-04-14 2014-06-25 中国人民解放军信息工程大学 一种数据流检测方法及多核处理设备
CN106980477A (zh) * 2017-04-11 2017-07-25 华中科技大学 一种卫星序列图像中点目标实时检测与跟踪系统及方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109445970A (zh) * 2018-09-18 2019-03-08 北京工业大学 一种软件可靠性时间序列预测方法及应用
CN109698750A (zh) * 2018-11-08 2019-04-30 平安科技(深圳)有限公司 区块链的区块生成方法、装置、设备及可读存储介质
CN109698750B (zh) * 2018-11-08 2021-06-11 平安科技(深圳)有限公司 区块链的区块生成方法、装置、设备及可读存储介质
CN112559175A (zh) * 2020-12-08 2021-03-26 深圳比特微电子科技有限公司 一种向算力板分发子任务的方法、装置和数字货币矿机

Also Published As

Publication number Publication date
CN108255590B (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
CN110741356B (zh) 多处理器系统中的中继一致存储器管理
US20230168897A1 (en) System Having a Hybrid Threading Processor, a Hybrid Threading Fabric Having Configurable Computing Elements, and a Hybrid Interconnection Network
US20190258601A1 (en) Memory Processing Core Architecture
KR101400286B1 (ko) 다중 프로세서 시스템에서 작업을 이동시키는 방법 및 장치
JP2021529488A (ja) ゲートウェイ上のホストプロキシ
CN108255590B (zh) 一种数据流控制方法和装置
US9378533B2 (en) Central processing unit, GPU simulation method thereof, and computing system including the same
CN111813526A (zh) 用于联邦学习的异构处理系统、处理器及任务处理方法
US10970805B2 (en) Graphics processing unit operation
JP7461895B2 (ja) Gpu主導の通信のためのネットワークパケットテンプレーティング
CN109902059A (zh) 一种cpu与gpu之间的数据传输方法
CN117806833B (zh) 一种数据处理系统、方法及介质
CN114675964A (zh) 基于联邦决策树模型训练的分布式调度方法、系统及介质
US12026628B2 (en) Processor system and method for increasing data-transfer bandwidth during execution of a scheduled parallel process
Jo et al. Exploiting GPUs in virtual machine for BioCloud
Fei et al. FlexNFV: Flexible network service chaining with dynamic scaling
Nicolae et al. Towards memory-optimized data shuffling patterns for big data analytics
Chu et al. Dynamic kernel fusion for bulk non-contiguous data transfer on GPU clusters
CN103903295A (zh) 一种基于InfiniBand实时调度海量高精度三维场景数据的方法
JP2021528789A (ja) ストリーミングエンジン
CN110955461B (zh) 计算任务的处理方法、装置、系统、服务器和存储介质
Scogland et al. Asymmetric interactions in symmetric multi-core systems: analysis, enhancements and evaluation
CN115934385B (zh) 一种多核核间通信方法、系统、设备及存储介质
US20200097297A1 (en) System and method for dynamic determination of a number of parallel threads for a request
CN114969851B (zh) 一种基于fpga的数据处理方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant