CN113821311A - 任务执行方法及存储设备 - Google Patents

任务执行方法及存储设备 Download PDF

Info

Publication number
CN113821311A
CN113821311A CN202010564326.2A CN202010564326A CN113821311A CN 113821311 A CN113821311 A CN 113821311A CN 202010564326 A CN202010564326 A CN 202010564326A CN 113821311 A CN113821311 A CN 113821311A
Authority
CN
China
Prior art keywords
processor
data
subtask
subtasks
storage device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010564326.2A
Other languages
English (en)
Inventor
钟刊
崔文林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202010564326.2A priority Critical patent/CN113821311A/zh
Priority to EP21825322.7A priority patent/EP4160405A4/en
Priority to PCT/CN2021/097449 priority patent/WO2021254135A1/zh
Publication of CN113821311A publication Critical patent/CN113821311A/zh
Priority to US18/067,492 priority patent/US20230124520A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • G06F15/78Architectures of general purpose stored program computers comprising a single central processing unit
    • G06F15/7807System on chip, i.e. computer system on a single chip; System in package, i.e. computer system on one or more chips in a single package
    • G06F15/7821Tightly coupled to memory, e.g. computational memory, smart memory, processor in memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供了一种任务执行方法及存储设备,属于计算机技术领域。本申请提供了一种利用存储设备的多种处理器协作处理数据的方法,由存储设备中的中央处理器将数据处理任务划分为多个子任务,根据子任务的属性为子任务分配存储设备中的专项处理器。一方面,由于在进行数据处理的过程中,中央处理器承担了任务分解和任务调度的工作,专项处理器承担了执行子任务的工作,使得中央处理器的算力和专项处理器的算力均得到了充分利用。另一方面,由于分配子任务时考虑了子任务的属性,使得子任务能够依据其属性被调度到合适的专项处理器上执行。因此,该方法提高了数据处理的效率。

Description

任务执行方法及存储设备
技术领域
本申请涉及计算机技术领域,特别涉及一种任务执行方法及存储设备。
背景技术
近数据处理(Near Data Processing,NDP)是一种数据处理的方法或概念。NDP旨在将对数据的处理和计算移动到靠近数据的地方,从而尽量的减少甚至避免数据的移动,因此避免数据移动开销所带来的性能瓶颈,进而提升执行数据处理任务的效率。
相关技术在实现NDP时,由数据库服务器通过智能数据库协议(the IntelligentDatabase protocol,iDB协议,一种查询下推协议)告知存储设备待执行的表查询操作和数据的位置,存储设备根据iDB协议包含的信息,通过中央处理器(central processingunit,CPU)进行谓词过滤,列过滤,连接过滤等结构化查询语言(Structured QueryLanguage,简称SQL)查询中的表查询操作。
采用以上方法时,只局限于使用存储设备的CPU的算力,因此影响了数据处理效率。
发明内容
本申请实施例提供了一种任务执行方法及存储设备,能够提高数据处理效率。所述技术方案如下:
第一方面,提供了一种任务执行方法,该方法应用于存储设备中,该存储设备包括中央处理器和多个专项处理器。在该方法中,中央处理器获取数据处理任务;该中央处理器将该数据处理任务划分为多个子任务;该中央处理器根据各个子任务的属性,将该多个子任务中的第一子任务分配给第一专项处理器。其中,第一专项处理器是该多个专项处理器的其中一个专项处理器。
以上提供了一种利用存储设备的多种处理器协作处理数据的方法,由存储设备中的中央处理器将数据处理任务划分为多个子任务,根据子任务的属性为子任务分配存储设备中的专项处理器。一方面,由于在进行数据处理的过程中,中央处理器承担了任务分解和任务调度的工作,专项处理器承担了执行子任务的工作,使得中央处理器的算力和专项处理器的算力均得到了充分利用。另一方面,由于分配子任务时考虑了子任务的属性,使得子任务能够依据其属性被调度到合适的专项处理器上执行。因此,该方法提高了数据处理的效率。
可选地,该子任务的属性包括该子任务所涉及的数据的地址,该第一专项处理器是距离该数据最近的专项处理器。
通过这种可选方式,使得子任务被调度至距离数据最近的专项处理器上执行。由于缩短了数据从存储介质至专项处理器的传输路径,专项处理器能够就近访问数据和处理数据,因此减少了数据移动造成的时延和性能开销,提高了数据处理的效率和速度。
可选地,该子任务的属性包括该子任务的计算模式和/或并发量,该第一专项处理器是与该计算模式和/或并发量匹配的专项处理器。
由于不同的专项处理器擅长处理不同的任务,通过这种可选方式,考虑了子任务的计算特征与专项处理器本身是否匹配,将子任务调度至与其计算特征匹配的专项处理器上执行,使得专项处理器能够处理自身擅长处理的任务,从而发挥了专项处理器自身的性能优势,提高了数据处理的效率。
可选地,该子任务的属性包括该子任务的定义信息,该第一专项处理器是该第一子任务的定义信息指示的专项处理器。
通过这种可选方式,一方面,开发者能够在定义信息中指定由哪个处理器执行子任务,使得子任务调度至开发者指定的专项处理器上执行,从而满足了开发者的自定义需求。另一方面,随着存储设备的算力提升以及业务需求的增长,当需要将新的任务放在存储设备上执行时,通过在新任务的定义信息中添加专项处理器的标识,即可指明将新的任务调度到哪个专项处理器上,从而降低了调度新任务的难度,因此提高了可扩展性。
可选地,该子任务的属性包括该子任务对应的数据集类型,该第一专项处理器是与该第一子任务对应的数据集类型匹配的专项处理器。
由于不同的专项处理器适于处理不同类型的数据,例如GPU适合处理图像,一些专用的编解码处理器适合处理视频,通过这种可选方式,考虑了子任务要处理的数据类型与专项处理器本身是否匹配,将子任务调度至其数据集类型匹配的专项处理器上执行,使得专项处理器能够处理自身适合处理的数据,避免由于专项处理器无法识别和处理特定类型的数据而造成任务执行失败的情况,提高了任务执行的成功率。
可选地,该多个子任务的执行顺序被记录在拓扑图中,该方法还包括:
该中央处理器根据该拓扑图指示该第一专项处理器按照顺序执行该第一子任务。
通过这种可选方式,一方面,由于拓扑图记录了子任务的执行顺序,中央处理器无需重新计算子任务的执行顺序,能够直接按照拓扑图所记录的执行顺序进行调度,从而减少了调度的工作量。另一方面,目前存在很多基于拓扑图的调度优化算法,能够调用基于拓扑图的调度优化算法优化子任务调度的顺序,从而缩短任务整体的执行时间。
第二方面,提供了一种存储设备,该存储设备包括中央处理器和多个专项处理器。第二方面提供的存储设备用于实现第一方面或第一方面任一种可选方式所提供的功能,具体细节可参见上述第一方面或第一方面任一种可选方式。
第三方面,提供了一种计算机可读存储介质,该存储介质中存储有至少一条指令,该指令由中央处理器读取以使存储设备执行上述第一方面或第一方面任一种可选方式所提供的任务执行方法。
第四方面,提供了一种计算机程序产品,当该计算机程序产品在存储设备上运行时,使得存储设备执行上述第一方面或第一方面任一种可选方式所提供的任务执行方法。
第五方面,提供了一种存储设备,该存储设备具有实现上述第一方面或第一方面任一种可选方式的功能。该存储设备包括至少一个模块,至少一个模块用于实现上述第一方面或第一方面任一种可选方式所提供的任务执行方法。第五方面提供的存储设备的具体细节可参见上述第一方面或第一方面任一种可选方式,此处不再赘述。
附图说明
图1是本申请实施例提供的一种系统架构的示意图;
图2是本申请实施例提供的一种应用数据打散的示意图;
图3是本申请实施例提供的一种系统架构的示意图;
图4是本申请实施例提供的一种任务执行方法的流程图;
图5是本申请实施例提供的一种拓扑图的示意图;
图6是本申请实施例提供的一种任务执行方法的流程图;
图7是本申请实施例提供的一种任务执行装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
由于本申请的一些实施例涉及近数据处理技术的应用,为了便于理解,下面先对近数据处理技术进行简单介绍。
在传统的数据处理架构中,对数据的处理一般是集中式的,即将数据从存储器通过输入输出(Input/Output,IO)或网络加载到内存,然后中央处理器(central processingunit,CPU)再对内存中数据进行处理。然而在大数据时代,需要处理的数据量呈爆炸式的增长,这种传统的数据处理架构需要传输大量的数据。对于像数据库这种数据密集型的应用,查询处理首先需要大量的IO操作,加载数据到计算节点的内存中,使得IO或网络成为系统的性能瓶颈,带来极大的性能问题:1)大量的数据移动,增加了数据处理的延迟;2)数据传输造成IO或网络资源竞争,影响系统中其它应用数据访问,影响其它应用的性能。在大数据时代,数据量呈爆炸式的增长,对于数据分析型应用,应该尽量避免数据的传输,减少数据的移动开销。
另一方面,当数据从外存加载到动态随机存取存储器(Dynamic Random AccessMemory,DRAM)之后,CPU需要通过内存总线,使用存取(load/store)指令访问内存。而随着CPU的性能以每年大约60%的速度快速提升,而内存性能的提升速度只有大约7%,从而导致当前内存的速度严重落后于CPU的速度,内存和CPU之间存在严重的性能鸿沟,难以充分发挥CPU的优势,导致内存系统成为计算系统的性能瓶颈,特别是在内存密集(MemoryIntensive)的高性能计算(High Performance Computing,HPC)场景中,内存速度严重限制着系统性能。此外,内存和CPU之间的内在总线也面临着带宽低,延迟高等问题,数据传输的代价高,严重影响计算系统的性能。这种限制系统性能的内存瓶颈通常称为“内存墙(Memory Wall)”。
为了解决数据移动开销所带来的性能瓶颈,需要将传统以处理器为中心的计算模式转变为以数据为中心的计算模式,将对数据的处理移动到靠近数据的地方,从而实现近数据处理(Near Data Processing,NDP)。NDP也称近数据计算(Near Data Computing,NDC),是一种处理数据的方法或概念。NDP是指将对数据的处理和计算移动到靠近数据的地方,从而尽量的减少甚至避免数据的移动,提升数据处理的效率。
下面介绍本申请实施例提供的应用场景。
本实施例提供的方法能够应用在分布式存储系统或集中式存储设备中,下面对这两种应用场景分别进行介绍。
应用场景一、分布式存储系统的场景。
参见附图1,本实施例提供了一种系统架构100,系统架构100是对分布式存储系统的应用场景的举例说明。系统架构100是一种计算和存储分离的架构,系统架构100包括计算集群110和存储集群120,计算集群110和存储集群120通过网络通道相连。
计算集群110包括多个计算节点(computing node,CN)。计算节点的形态包括多种情况。例如,计算节点是主机、服务器、个人电脑或其他具有计算处理能力的设备。例如参见附图1,计算集群110包括主机110a和主机110b。计算集群110中的不同计算节点之间通过有线网络或无线网络相连。计算集群110中的不同计算节点可以分布在不同或相同的位置。计算节点用于生成和下发数据处理任务。
计算节点包括至少一个应用(Applications)111和NDP协调模块(NDPCoordinator)112。应用111和NDP协调模块112是计算节点上的软件。应用111用于生成数据处理任务。可选地,应用111是数据密集型应用,即需要处理海量的数据。例如,应用111是联机分析处理(On-line Analytical Processing,OLAP)应用、人工智能(artificialintelligence,AI)应用、联机事务处理(On-Line Transaction Processing,OLTP)应用、大数据分析应用、HPC应用等。OLAP应用例如用于提供OLAP系统中的多表联合查询的服务。应用111会将产生的数据处理任务发送至NDP协调模块112。NDP协调模块112用于将应用111的数据处理任务分别发送至数据所在的存储节点。
可选地,分布式存储系统还包括数据管理装置,数据管理装置用于记录数据在存储集群120中所在的存储节点。计算节点中的NDP协调模块用于向数据管理装置发送查询请求,从而查询出数据位于哪个存储节点。可选地,在数据是文件的情况下,数据管理装置保存有文件标识符(identifier,ID)和文件所在的存储节点的ID之间的映射关系。可选地,在数据是键值对的情况下,数据管理装置保存有key和文件所在的存储节点的ID之间的映射关系。示意性地,参见附图3,数据管理装置是附图3中的数据格式服务(Data SchemeService)130。
存储集群120包括多个存储节点(Date Node,DN)。例如参见附图1,存储集群120包括存储节点120a、存储节点120b和存储节点120c。存储集群120中的不同存储节点可以分布在不同或相同的位置。存储集群120中的不同存储节点通过高速网络互连。存储节点用于存储数据。存储节点可以承载计算节点中应用的存储业务,响应计算节点的IO请求。
计算集群110和存储集群120之间的网络通道通过至少一个网络设备建立。网络设备用于转发计算集群110与存储集群120之间传输的数据。网络设备包括而不限于交换机、路由器等。网络设备在附图1未示出。
以上介绍了分布式存储系统的整体架构,以下对分布式存储系统存储的数据的分布进行简单介绍。可选地,通过分片(sharding)机制或其他划分方式,对每个应用的数据集分别进行划分,使得同一个应用的数据集被拆分为多份数据,该多份数据分别分布在不同的存储节点上。例如,每一个计算节点处理应用数据集中的一份数据,每一个存储节点存储应用数据集中的一份数据,从而保证计算节点和存储节点的负载均衡。例如,参见附图2,附图2示出了应用数据打散的示意图,应用1的数据集和应用2的数据集分别分布在存储节点1、存储节点2至存储节点n中。其中,应用1的数据集被划分为n份数据,n份数据包括应用1的数据a、应用1的数据b至应用1的数据n,其中数据a分布在存储节点1上,数据b分布在存储节点2上,数据n分布在存储节点n上,应用2的数据分布与应用1的数据分布同理。此外,存储集群120可以使用多副本或者纠删码(erasure code,EC)的方式进行数据冗余保护,使得在部分存储节点失效的情况下,应用数据仍然可用,从而保证数据的高可用。
应用场景二、集中式存储设备的场景。
集中式存储设备例如是存储阵列。集中式存储设备包括一个或多个控制器和一个或多个硬盘。存储设备中的控制器也称存储控制器。集中式存储设备通过有线网络或无线网络与主机相连。
在以上描述的两种应用场景中,计算集群110和存储集群120之间的网络通道或者集中式存储设备与主机之间的网络通道,会受到成本、距离等因素的限制,存在网络带宽相对较低、延迟高等缺点。因此,对于OLAP应用,大数据分析应用等数据密集型应用而言,应用所在的计算设备与存储设备之间的网络通道成为了主要的性能瓶颈之一。有鉴于此,如何减少或避免数据在计算侧与存储侧之间的网络通道进行传输所带来的性能开销,提高应用中数据处理的效率,已成为以上应用场景亟需满足的需求。
以上示例性介绍了应用场景以及应用场景存在的需求,以下对本实施例提供的存储设备以及存储设备执行的方法进行具体介绍。在以上应用场景中,通过本实施例提供的存储设备以及方法,能够满足上述应用场景存在的需求。具体地,通过将数据处理任务交给存储节点,使得数据的处理过程从计算集群110中的计算节点移动至存储集群120中的存储节点,由于存储节点能够访问本地存储的数据并在本地对其存储的数据进行处理,而无需通过网络通道请求远端存储的数据,从而避免数据在计算集群110和存储集群120之间通过网络通道传输带来的性能瓶颈。此外,下述实施例可以作为一套通用的近数据计算机制,支持执行数据库应用、大数据应用、AI应用等各种应用产生的数据处理任务,从而增加近数据计算的灵活性。此外,通过将数据处理任务分解为多个子任务,将每个子任务分别进一步下推至固态硬盘(solid state drive,SSD)或双列直插式存储模块(Dual-Inline-Memory-Modules,DIMM)、图形处理器(英文:Graphics Processing Unit,简称:GPU)、神经网络处理器(neural-network processing units,NPU)或者专用的数据处理单元(Data ProcessingUnit,DPU),分别调度各个处理器执行子任务,从而实现任务的分解和调度,每个子任务能够根据其计算特征和需求被调度最合适的处理器上执行,从而充分利用存储设备的异构计算资源,最大化数据处理的效率。
下面结合附图1和附图3,对存储设备内部的结构进行介绍。
本申请性实施例提供了一种存储设备。例如,存储设备是分布式存储系统中的存储节点,例如是附图1中的存储节点120a、存储节点120b和存储节点120c。又如,存储设备是集中式存储设备。存储设备包括多个处理器、网卡以及存储介质(Storage Media)。多个处理器包括中央处理器和多个专项处理器。
中央处理器用于获取数据处理任务、划分子任务以及对每个专项处理器进行调度。例如,参见附图1,存储节点120a是对存储设备的举例说明,存储节点120a中的中央处理器121是对存储设备中的中央处理器的举例说明。
专项处理器是中央处理器之外的任意处理器。专项处理器具有算力,专项处理器能够自身的利用算力参与子任务的执行。例如,参见附图1,存储节点120a中的GPU122、NPU123是对存储设备中的专项处理器的举例说明。此外,参见附图3,存储节点中的DIMM127中的DPU1272、存储节点中的SSD128中的DPU1282也是对存储设备中的专项处理器的举例说明。专项处理器的具体类型包括多种情况,以下通过情况一和情况二对专项处理器举例说明。
情况一、专项处理器是独立的芯片。
例如,参见附图1或附图3,专项处理器是GPU、NPU一类的能单独工作的芯片。
情况二、专项处理器是存储设备包括的任意元件中的处理器。
在情况二下,专项处理器可以和存储设备的其他元件集成在一起。例如,参见附图1,存储设备包括硬盘,专项处理器是硬盘的控制器(SSD controller)。例如,在硬盘是SSD的情况下,SSD包括处理器,专项处理器可以是SSD的处理器。例如,参见附图3,SSD包括DPU,专项处理器是SSD128中的DPU1282。其中,包括处理器的SSD也称计算型SSD或智能SSD。在一些实施例中,存储设备包括DIMM,DIMM包括处理器,专项处理器是DIMM的处理器。例如,参见附图3,DIMM127包括DPU1272,专项处理器是DIMM127中的DPU1272。其中,包括处理器的DIMM也称计算型DIMM或智能DIMM。
在一些实施例中,专项处理器是专用集成电路(application-specificintegrated circuit,ASIC),可编程逻辑器件(programmable logic device,PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complex programmable logic device,CPLD),现场可编程逻辑门阵列(field-programmable gate array,FPGA),通用阵列逻辑(genericarray logic,GAL)或其任意组合。专项处理器可以是单核处理器,也可以是多核处理器。
在一些实施例中,存储设备包括的多个专项处理器是异构处理器。可选地,多个专项处理器具有不同的硬件架构。可选地,多个专项处理器支持不同的指令集。例如,存储设备包括的一个专项处理器支持X86指令集,存储设备包括的另一个专项处理器支持ARM指令集。例如,存储设备包括CPU、GPU、NPU、DIMM和SSD,在这个例子中,CPU、GPU、NPU、DIMM中的DPU以及SSD中的DPU是对五种异构处理器的举例说明。对于中央处理器而言,多种异构的专项处理器可以组成异构计算资源池,中央处理器可以调度异构计算资源池中的资源来执行任务。
中央处理器如何与专项处理器通信包括多种方式。在一些实施例中,中央处理器与专项处理器通过高速互联网络连接,中央处理器与专项处理器通过高速互联网络通信。高速互联网络例如是高速串行计算机扩展总线标准(peripheral componentinterconnect express,PCIe)总线、memory fabric、高速以太网、HCCS、无限带宽(InfiniBand,IB)或者光纤通道(Fibre Channel,FC)。
网卡用于提供数据通信的功能。例如,参见附图1,存储设备中的网卡是存储节点120a中的网卡125。
存储介质用于存放数据。例如,参见附图1,存储介质是存储节点120a中的硬盘124。硬盘124用于存放数据。硬盘124例如是固态硬盘(solid state drive,简称:SSD)、机械硬盘(hard disk drive,简称:HDD)。例如,参见附图3,硬盘是SSD128,SSD128包括至少一个闪存芯片1281,闪存芯片1281用于持久化存储数据。例如,参见附图3,存储介质也可以是DIM127中的DRAM芯片1271。
在一些实施例中,存储设备还包括存储接口(Storage Interface)126,存储接口126用于向上层(如存储设备的处理器和计算节点的应用)提供数据访问接口。例如,存储接口126是文件系统接口或键值(Key-Value,KV)接口。
以上从硬件的角度介绍了存储设备的内部结构,下面从软件的角度,介绍存储设备内部的逻辑功能架构。
参见附图3,存储节点包括NDP执行引擎20(NDP Execution Engine),NDP执行引擎20是存储节点上的软件。NDP执行引擎20在存储节点的中央处理器中运行。例如,NDP执行引擎20在存储节点的控制器中运行。
NDP执行引擎20包括解析器(Parser)201和执行器(Executor)202。解析器201用于对描述NDP任务的定义信息203进行解析,生成拓扑图204。执行器202用于根据拓扑图204,分别调度各个专项处理器以及中央处理器执行子任务。例如,在附图3中,执行器202调度CPU执行子任务a,调度GPU执行子任务c,调度NPU执行子任务b,调度DIMM中的DPU执行子任务e,调度SSD中的DPU执行子任务d。在一些实施例中,解析器201和执行器202均是软件。例如,解析器201和执行器202是存储节点的中央处理器读取程序代码后生成的功能模块。
以上介绍了系统架构,以下通过方法300和方法400示例性介绍基于上文提供的系统架构执行任务的方法流程。
参见附图4,附图4是本申请实施例提供的一种任务执行方法300的流程图。
所述方法300由存储设备执行。可选地,所述方法300由分布式存储系统中的存储节点执行。例如,所述方法300由附图1所示系统架构中的存储节点120a、存储节点120b和存储节点120c执行。可选地,所述方法300由集中式存储设备执行。
可选地,方法300中处理的数据是附图1所示系统架构中主机的应用产生和维护的数据。例如,主机的应用根据其需要处理的数据,产生数据处理任务,将数据处理任务作为存储设备的输入,触发存储设备执行以下步骤S310至步骤S340。
示例性地,方法300包括S310至S340。
S310、中央处理器获取数据处理任务。
数据处理任务是对存储设备存储的数据进行处理的任务。可选地,数据处理任务是NDP任务。数据处理任务的类型包括多种情况。例如,数据处理任务是OLAP应用产生的多表联合查询任务、AI应用产生的模型训练任务、HPC应用产生的高性能计算任务、大数据分析应用产生的物理实验数据分析任务、气象数据分析任务等大数据分析任务、OLTP应用产生的事务处理任务等。
中央处理器如何获取数据处理任务包括多种实现方式。在一些实施例中,数据处理任务来自于计算设备。具体地,计算设备生成数据处理任务,向存储设备发送数据处理任务,存储设备的中央处理器接收数据处理任务。通过这种方式,数据处理任务从计算设备下推到存储设备执行,从而实现近数据处理。例如,参见附图3,主机中的应用生成NDP任务;应用向NDP协调模块发送任务下推请求,任务下推请求携带NDP任务,任务下推请求用于请求将任务发送至存储设备。NDP协调模块响应于任务下推请求,将NDP任务发送至存储设备,使得存储设备得到NDP任务。
在一些实施例中,数据处理任务所要处理的数据存储在存储设备中。例如,计算设备根据数据的归属位置,确定数据所在的存储设备,向数据所在的存储设备发送数据处理任务,以便存储设备就近调度本地的处理器处理本地的数据。
其中,计算设备如何确定数据所在的存储设备包括多种实现方式。例如,在数据是文件的情况下,通过文件的ID确定文件所在的存储设备。又如,在数据是键值对的情况下,通过键(key)确定数据所在的存储设备。在一些实施例中,确定数据所在的存储设备的过程涉及计算设备与数据管理装置的交互。具体地,计算设备向数据管理装置发送查询请求,查询请求包括文件的ID或者key。数据管理装置响应于查询请求,根据文件的ID或者key,查询数据在存储集群中所在的节点,向计算设备发送查询响应,查询响应包括存储设备的标识。计算设备接收查询响应,确定数据所在的存储设备。
可选地,数据处理任务通过声明式语言描述。声明式语言是一种编程范式,与命令式编程相对立。声明式语言描述数据处理任务的目标,即指示存储设备执行什么操作,而不明确地指示具体应该如何执行操作。例如,数据处理任务是NDP任务,开发者设计了一种描述NDP任务的声明式语言,将其称为NDP描述语言。应用程序可以通过NDP描述语言定义需要下推至存储设备的NDP任务,得到NDP任务的定义信息。其中,NDP任务的定义信息包含了NDP任务的输入参数、NDP任务需要执行的操作和NDP任务的输出结果。例如,使用NDP描述语言定义的NDP任务结构如下:
NDP Description
{
Output:user_buf;//注释:这一行表示NDP任务的输出结果要保存至user_buf。
Input:fileID,offset,length;//这一行表示NDP任务的输入参数包括文件ID(fileID)、偏移地址(offset)和长度(length)。
}
S320、中央处理器将数据处理任务划分为多个子任务。
子任务包括而不限于函数或者计算步骤。划分子任务的单位包括多种情况,以下通过方式一至方式二举例说明。
方式一、以一个函数作为划分子任务的最小单位。
例如,中央处理器将数据处理任务划分为多个函数。一个子任务是一个函数;或者,一个子任务包括多个函数。
方式二、以一个计算步骤作为划分子任务的最小单位。
例如,中央处理器将数据处理任务划分为多个函数,将每个函数划分为多个计算步骤。其中,一个子任务是一个计算步骤;或者,一个子任务包括多个计算步骤。由于将数据处理任务分解为函数并进一步分解为计算步骤,实现了任务的逐层分解,使得子任务的粒度更加精细化,有助于提高调度子任务的灵活性。
在一些实施例中,子任务是根据计算模式划分的。具体而言,中央处理器根据数据处理任务包含的函数或计算步骤的计算模式,将数据处理任务划分为多个子任务,每一个子任务具有相同的计算模式。例如,数据处理任务中包括函数A和函数B。函数A复杂,函数A包括多种计算模式。而函数B比较简单,函数B只具有一种计算模式。在这个例子中,中央处理器将函数A拆分为多个计算步骤,每个计算步骤具有一个计算模式,将函数A的每个计算步骤作为一个子任务;中央处理器将函数B作为一个子任务。由于依据计算模式划分子任务,便于根据计算模式为子任务分配合适的专项处理器。
在一些实施例中,子任务是根据函数的定义信息划分的。具体而言,中央处理器根据数据处理任务中每个函数的定义信息,将数据处理任务划分为多个子任务。例如,开发者在编写函数时,在函数中注明函数包含的每个计算步骤,比如说,在函数中的代码行A和代码行B中分别添加关键字,注明代码行A和代码行B之间的程序代码对应一个单独的计算步骤,该计算步骤可被调度至某个专项处理器上。则中央处理器根据函数的定义信息,将代码行A和代码行B之间的程序代码拆分出来,作为一个子任务。
S330、中央处理器根据各个子任务的属性,将多个子任务中的第一子任务分配给第一专项处理器。
S340、第一专项处理器执行第一子任务。
本实施例涉及中央处理器如何为第一专项处理器分配第一子任务,中央处理器为其他专项处理器分配其他子任务的过程与此同理。
第一子任务是多个子任务中的其中一个子任务。第一专项处理器是多个专项处理器的其中一个专项处理器。例如,第一专项处理器是GPU、NPU、DIMM中的DPU或者SSD中的DPU。
应理解,本实施例并不限定仅为第一专项处理器分配第一子任务这一个子任务,可选地,中央处理器为第一专项处理器还分配第一子任务之外的其他子任务。
应理解,本实施例并不限定所有的子任务都要分配给专项处理器。在一些实施例中,中央处理器将部分子任务分配给自己执行。例如,中央处理器从多个子任务中选择第二子任务,中央处理器执行第二子任务。
在一些实施例中,中央处理器将多个子任务中不同子任务分配给不同的专项处理器,从而调度不同的专项处理器分别执行不同的子任务。例如,划分出的多个子任务包括子任务a、子任务b、子任务c和子任务d,中央处理器将子任务a分配给NPU,将子任务b分配给GPU,将子任务c分配给DIMM中的DPU,将子任务d分配给SSD中的DPU。
在一些实施例中,中央处理器为不同专项处理器分配的子任务的数量是相同的,例如,中央处理器将划分出的所有子任务平均分配给每个专项处理器。
在另一些实施例中,中央处理器为不同专项处理器分配的子任务的数量是不同的。例如,中央处理器结合每个专项处理器当前的算力,为具有空闲算力的专项处理器分配更多的子任务,为算力不足的专项处理器分配更少的子任务,或者不为算力不足的专项处理器分配子任务。例如,中央处理器确定第一专项处理器的计算资源,判断第一专项处理器的计算资源是否低于设定的阈值;如果第一专项处理器的计算资源高于设定的阈值,中央处理器确定第一专项处理器算力空闲,则为第一专项处理器分配第一数量的子任务;如果第一专项处理器的计算资源低于设定的阈值,中央处理器确定第二专项处理器算力不足,则不为第一专项处理器分配子任务,或者为第一专项处理器分配小于第一数量的子任务。
本实施例并不限定第一子任务仅通过第一专项处理器这一个处理器执行。在一些实施例中,第一专项处理器承担第一子任务的所有运算量,执行第一子任务的所有步骤。在另一些实施例中,第一专项处理器和中央处理器协同参与第一子任务的运算。例如,第一专项处理器执行第一子任务中的部分步骤,中央处理器执行第一子任务中另一部分步骤。比如说,第一专项处理器在执行第一子任务的过程中,实时监控计算资源的剩余情况,当第一专项处理器确定自身的算力不足时,则将已经得出的计算结果以及第一子任务中未执行的剩余部分发送给中央处理器,中央处理器依据计算结果,继续执行第一子任务中的剩余部分。在另一些实施例中,第一专项处理器不是和中央处理器协同运算,而是和其他专项处理器协同运算。
在一些实施例中,存储设备包括的多个专项处理器分别具有对应的特点,擅长执行不同的任务。有鉴于此,中央处理器可以结合专项处理器的特点,将专项处理器适于执行的任务分配给专项处理器,从而充分发挥专项处理器各自的性能优势。以下通过(1)至(5),对如何结合专项处理器的具体特点对分配给专项处理器的子任务举例说明。
(1)适于分配给GPU的子任务。
GPU是一种单指令多数据流(Single Instruction Multiple Data,SIMD)的处理器。GPU的架构包括成千上万个简单的处理核,GPU通过成千上万个核同时工作,能进行大量的相同运算。此外,GPU的每个处理核比较适合做运算,不适合做控制。
考虑到GPU的这一特点,如果子任务涉及的运算简单且模式单一,并且子任务是由大量的这种简单、单一的运算构成的,可以将任务分配给GPU,从而调度GPU执行计算模式简单且数据并发量大的任务。
例如,执行矩阵乘运算就是一种计算模式简单且数据并发量大的子任务。具体而言,矩阵乘运算是由大量的向量乘运算构成的。向量乘运算是一种简单的操作,向量乘运算具体包括对行和列相乘,将得到的积再相加。考虑到向量乘运算任务的这种属性,在一些实施例中,将矩阵乘运算的子任务分配给GPU。GPU在执行矩阵乘运算的子任务的过程中,GPU的每个处理核会分别进行向量乘运算,GPU通过成千上万个处理核同时进行向量乘运算,使得整个向量乘运算子任务的执行得以加速,有助于提高执行向量乘运算子任务的效率。
应理解,矩阵乘运算是对适于分配给GPU的子任务的举例说明,GPU也适于执行矩阵乘运算之外的子任务。例如,神经网络中的卷积运算也适于通过GPU执行,可以调度GPU执行卷积运算子任务。
(2)适于分配给NPU的子任务。
NPU专门为AI设计,NPU包括乘加、激活函数、二维数据运算、解压缩等AI计算所需的模块。考虑到NPU的这一属性,在一些实施例中,将神经网络运算的任务(如图像识别的任务)分配给NPU,NPU能够利用自身包括的模块,加速神经网络运算任务。
(3)适于分配给DPU的子任务。
DPU是一个可编程的电子部件,用于处理数据。DPU具有CPU的通用性和可编程性,但DPU比CPU更具有专用性,DPU能在网络数据包,存储请求或分析请求上高效运行。此外,DPU比CPU具有更大程度的并行性(即DPU能处理大量并发的请求)。考虑到DPU的这一特点,在一些实施例中,调度DPU提供对全局内存池的数据卸载服务。例如,将地址索引、地址查询、分区功能以及对数据进行过滤、扫描等操作分配给DPU。
(4)适于分配给DIMM的处理器的子任务。
例如,DIMM内包括DPU和DRAM芯片(DRAM chips),DPU能够快速地访问DRAM,对存放在DRAM中的数据进行处理,从而就近完成任务。考虑到DIMM的这一特点,在一些实施例中,当任务所需处理的数据位于DIMM中的DRAM时,由于DPU与DRAM集成在同一个DIMM内,DPU具有距离数据最近或者说数据亲和性最高的优势,可以将任务分配给DIMM的DPU。通过调度DIMM中的DPU对DIMM存储的数据进行处理,能够实现存内计算(Processing in Memory)或近内存计算(Near Memory Computing),避免数据通过内存总线进行传输,使得任务的执行得以加速,提高执行任务的效率。此外,在一些实施例中,调度DIMM中的DPU执行内存访问不规则,且内存访问量比较大的任务,从而利用DPU访问DRAM的性能优势,节省访问内存的时间开销。此外,在一些实施例中,DIMM中的DPU是专用于执行特定操作的处理器,只能完成固定类型的计算,在这种情况下,调度DIMM的DPU执行这些固定类型的计算对应的任务。
应理解,以上是对以DIMM包括的处理器是DPU的情况的举例说明,在DIMM的处理器不是DPU,而是DPU之外的其他类型的处理器的情况下,可以采用同样的策略为DIMM的其他类型处理器分配任务。
(5)适于分配给SSD的处理器的子任务。
例如,SSD包括DPU和闪存芯片(Flash chips),SSD的DPU能够快速地访问闪存芯片,对存放在闪存芯片中的数据进行处理,从而就近完成任务。在一些实施例中,考虑到SSD的这一特点,当任务要处理的数据位于SSD中的闪存芯片时,可以调度SSD中的DPU执行任务。通过调度SSD的DPU对SSD存储的数据进行处理,能够充分利用SSD盘内部的高带宽。此外,当数据分别位于多个SSD上时,可以调度多个SSD并行地执行任务,从而利用多个SSD之间的并发处理能力,加速任务的执行。此外,在一些实施例中,调度SSD的DPU执行计算模式简单且输出的数据量能极大减少的任务,例如过滤操作。此外,在一些实施例中,SSD中的DPU是专用于执行特定操作的处理器,只能完成固定类型的计算,在这种情况下,调度SSD的DPU执行这些固定类型的计算对应的任务。
应理解,以上是对以SSD包括的处理器是DPU的情况的举例说明,在SSD的处理器不是DPU,而是DPU之外的其他类型的处理器的情况下,可以采用同样的策略为SSD的其他类型处理器分配任务。
以下通过调度策略一至调度策略四,对具体如何调度专项处理器举例说明。
调度策略一、按照数据的归属位置调度。
调度策略一也称为按照数据的亲和性进行调度。在一些实施例中,调度策略一的实现方式包括:中央处理器确定子任务所涉及的数据的地址;中央处理器根据第一子任务所涉及的数据的地址,从多个专项处理器中选择距离数据最近的专项处理器,作为第一专项处理器;中央处理器将第一子任务分配给该距离数据最近的第一专项处理器。
数据的地址例如是数据的逻辑地址或数据的物理地址。数据的地址例如通过数据的元数据确定。
可选地,在采用调度策略一时,数据位于哪个装置的存储介质,中央处理器就调度哪个装置的处理器执行子任务。在这种情况下,距离数据最近的专项处理器是与数据所在的存储介质集成在一起的处理器。例如,如果数据位于SSD,则中央处理器将子任务分配给SSD中的DPU,从而调度SSD的DPU执行子任务。如果数据位于DIMM,则中央处理器将子任务分配给DIMM中的DPU,从而调度DIMM的DPU执行子任务。
通过采用调度策略一,使得子任务被调度至距离数据最近的专项处理器上执行。由于缩短了数据从存储介质至专项处理器的传输路径,专项处理器能够就近访问数据和处理数据,因此减少了数据移动造成的时延和性能开销,提高了数据处理的效率和速度。
调度策略二、按照子任务的计算特征调度。
在一些实施例中,子任务的计算特征包括子任务的计算模式和/或子任务的并发量。调度策略二的实现方式包括:中央处理器确定子任务的计算模式和/或并发量,根据子任务的计算模式和/或并发量,从多个专项处理器中选择与计算模式和/或并发量匹配的专项处理器,作为第一专项处理器,将第一子任务分配给第一专项处理器。例如,当子任务的计算模式简单且并发量大时,则中央处理器选择GPU,将计算模式简单且并发量大的子任务分配给GPU。
在一些实施例中,子任务的计算特征包括执行子任务所需的算法的类型。调度策略二的实现方式包括:中央处理器根据执行子任务所需的算法的类型,从多个专项处理器中选择适于运行该类型算法的专项处理器。例如,子任务是人脸识别,执行人脸识别时需要使用神经网络算法,而存储设备刚好配置了执行神经网络算法的NPU,则中央处理器选择NPU,调度NPU通过神经网络算法进行人脸识别。又如,子任务是图像压缩,存储设备刚好配置了图像压缩的专用芯片,则中央处理器调度该专用芯片进行图像压缩。
由于不同的专项处理器擅长处理不同的任务,通过采用调度策略二,考虑了子任务的计算特征与专项处理器本身是否匹配,将子任务调度至与其计算特征匹配的专项处理器上执行,使得专项处理器能够处理自身擅长处理的任务,从而发挥了专项处理器自身的性能优势,提高了数据处理的效率。
调度策略三、按照子任务的定义信息调度。
在一些实施例中,调度策略三的实现方式包括:中央处理器获取每个子任务的定义信息;中央处理器根据第一子任务的定义信息,从存储设备包括的多个专项处理器中选择第一子任务的定义信息指示的专项处理器,作为第一专项处理器;中央处理器将第一子任务分配给该第一专项处理器。
第一子任务的定义信息包括第一专项处理器的标识。第一专项处理器的标识例如是第一专项处理器的名称。比如说,当第一子任务的定义信息包括“GPU”时,指示通过GPU执行第一子任务。定义信息由于包含第一专项处理器的标识,能够指明了要通过第一专项处理器执行第一子任务。
本实施例并不限定第一子任务的定义信息仅包括第一专项处理器这一个处理器的标识。在一些实施例中,第一子任务的定义信息还包括第一专项处理器之外的其他处理器的标识。例如,第一子任务的定义信息包括多个处理器中每个处理器的标识,从而指明分配第一子任务时存在多个处理器可供选择。中央处理器根据第一子任务的定义信息,从定义信息指示的多个处理器中选择第一专项处理器。
在一些实施例中,定义信息还用于指示多个处理器中每个处理器的优先级,中央处理器根据定义信息指示的每个处理器的优先级,从定义信息指示的多个处理器中选择优先级最高的处理器,作为第一专项处理器;或者,在定义信息指示的优先级最高的处理器算力不足的情况下,中央处理器选择优先级其次高的处理器作为第一专项处理器。
在一些实施例中,定义信息中通过处理器的标识的排列顺序指明不同处理器优先级的高低。例如,定义信息中第一专项处理器的标识位于第二专项处理器的标识之前,表示第一专项处理器具有比第二专项处理器更高的优先级。例如,如果定义信息包括[GPU,NPU],表示GPU比NPU优先级更高。如果定义信息包括[NPU,GPU],表示NPU比GPU优先级更高。
如何获得子任务的定义信息包括多种实现方式,例如,开发者指定适于执行第一子任务的专项处理器是第一专项处理器,开发者在编写第一子任务的程序代码的过程中,输入第一专项处理器的标识以及其他信息,得到子任务的定义信息,将子任务的定义信息保存至存储设备中。中央处理器在调度的过程中,会读取预先保存的第一子任务的定义信息。
例如,第一子任务是函数,开发者对函数的语法进行定义,指定函数的定义信息需要包括专项处理器的标识。在一些实施例中,开发者编写了一套NDP描述语言,NDP描述语言针对通用计算场景预置了部分函数或计算步骤,并针对这些函数或计算步骤指定了对应的异构处理器,从而通过异构处理器进行加速处理。在使用这些基本的函数时,不同函数会被分别调度到异构处理器(例如GPU、NPU和DIMM等)上执行。由于不同的应用场景有不同的函数或计算步骤。因此,NDP描述语言支持通过定义新的函数来扩展NDP的计算能力。在定义新的函数时,开发者需要指定该函数对应的数据集类型、输入参数、输出参数的类型以及一个或多个该函数最适合的专项处理器。
例如,NDP描述语言定义函数的语法如下。
Decl Func<函数名>of Dataset<数据集类型名>(arg list)[处理器1,处理器2,…]//注释:这一行是函数的声明语句,表示函数的函数名、数据集类型名和执行函数的处理器。Decl是declaration(声明)的缩写。Func是function(函数)的缩写。arg是argument(参数)的缩写。
Ret<返回类型>//注释:这一行表示函数输出参数的类型。Ret是return(返回)的缩写。
Begin
<函数体>
End//注释:Begin和End之间的部分是函数体,函数体包括实现函数功能的程序代码。
例如,基于以上语法编写的压缩函数的定义信息如下。
Decl Func Compress of Dataset Table(“LZ4”)[GPU,CPU]//注释:这一行是压缩函数的声明语句,表示压缩函数的函数名是Compress,压缩函数要处理的数据集的类型是Table类型,执行压缩函数采用的算法类型是LZ4压缩算法,适于执行该压缩函数的GPU和CPU,且优先考虑调度GPU,其次考虑调度CPU。
Ret Table//注释:这一行表示函数输出参数的类型是Table类型。
Begin
……
End
通过采用调度策略三,一方面,开发者能够在定义信息中指定由哪个处理器执行子任务,使得子任务调度至开发者指定的专项处理器上执行,从而满足了开发者的自定义需求。另一方面,随着存储设备的算力提升以及业务需求的增长,当需要将新的任务放在存储设备上执行时,通过在新任务的定义信息中添加专项处理器的标识,即可指明将新的任务调度到哪个专项处理器上,从而降低了调度新任务的难度,因此提高了可扩展性。
调度策略四、按照子任务对应的数据集类型调度。
在一些实施例中,调度策略四的实现方式包括:中央处理器确定每个子任务对应的数据集类型;中央处理器根据第一子任务对应的数据集类型,从存储设备包括的多个专项处理器中,选择与该数据集类型匹配的专项处理器,作为第一专项处理器;中央处理器将第一子任务分配给该第一专项处理器。
其中,数据集类型包括而不限于关系数据表(Table,包括行存和列存)类型、图像(Image)类型、文本(Text)类型等。
例如,第一子任务是压缩,可供选择的处理器包括GPU和CPU。如果压缩对应的数据集类型是图像,由于与图像匹配的处理器是GPU,则中央处理器选择GPU,将对图像进行压缩这种子任务分配给GPU。
如何确定子任务对应的数据集类型包括多种方式。在一些实施例中,根据子任务的定义信息,确定子任务对应的数据集类型。其中,子任务的定义信息包括数据集类型的名称。可选地,数据集类型是开发者自定义的类型。开发者在编写程序代码时,使用declaration语句声明自定义的数据集类型,以便在子任务的定义信息中指定自定义的数据集类型。例如,声明自定义的数据集类型的语法为:
Decl Dataset<数据集类型名>;
例如,基于以上语法,编写了语句:Decl Dataset Foo;这条语句声明了一个名为Foo的数据集类型。
此外,可选地,将每种数据集与对应的函数建立绑定关系。例如,将文本类型的数据集与Count函数建立绑定关系。如果类型为Table的数据集请求调用Count函数,则调用是无效的。如果类型为文本的数据集请求调用Count函数,则调用是允许的。通过这种方式,保证对数据集中的数据进行处理时能够调用正确的函数。
由于不同的专项处理器适于处理不同类型的数据,例如GPU适合处理图像,一些专用的编解码处理器适合处理视频,通过采用调度策略四,考虑了子任务要处理的数据类型与专项处理器本身是否匹配,将子任务调度至其数据集类型匹配的专项处理器上执行,使得专项处理器能够处理自身适合处理的数据,避免由于专项处理器无法识别和处理特定类型的数据而造成任务执行失败的情况,提高了任务执行的成功率。
以上通过调度策略一至调度策略四,列举了几种可能的调度策略。在一些实施例中,不同的调度策略具有不同的优先级,中央处理器根据每种调度策略的优先级,判定使用哪一种调度策略。例如,调度策略一、调度策略二和调度策略三这三种调度策略中,调度策略一的优先级最高,调度策略二的优先级和调度策略三的优先级其次。采用这种优先级顺序时,中央处理器优先考虑数据的归属位置,其次考虑子任务的计算特征以及子任务的定义信息。例如,中央处理器首先判断数据是否位于DIMM或SSD中,如果数据位于DIMM或SSD,且DIMM或SSD支持任务的执行,则按照调度策略一,将子任务分配给DIMM的处理器或SSD的处理器。如果数据不在DIMM或SSD,则中央处理器按照调度策略二或调度策略三,根据子任务的计算特征或者子任务的定义信息选择专项处理器,向选择的专项处理器的内存加载数据,调度选择的专项处理器执行子任务。
在一些实施例中,中央处理器根据拓扑图中记录的多个子任务的执行顺序进行调度。例如,中央处理器根据拓扑图指示第一专项处理器按照顺序执行第一子任务。
拓扑图用于指示多个子任务以及不同子任务执行的先后顺序。具体地,拓扑图包括多个节点和至少一条边。多个节点中的每个节点用于表示多个子任务中的一个子任务。例如,在子任务为函数的情况下,节点包含了函数对应的运算、函数的输入参数、函数的输出参数和执行函数的专项处理器。边连接了不同子任务对应的节点。每条边用于表示不同子任务之间的依赖关系。可选地,拓扑图是有向无环图(Directed acyclic graph,DAG)。DAG是指一个无回路的有向图。
在一些实施例中,使用拓扑图中边的方向记录子任务的执行顺序。例如,如果拓扑图中第一节点和第二节点之间具有一条边,边的方向是从第一节点至第二节点,即边的起点是第一节点,边的终点是第二节点,那么第二节点对应的子任务先被执行,第一节点对应的子任务后被执行。例如,参见附图3,拓扑图是DAG204,DAG204中节点表示的子任务是函数。附图3所示的DAG204包括5个节点,分别是节点a、节点b、节点c、节点d和节点e。其中,节点a表示函数a,节点b表示函数b,节点c表示函数c,节点d表示函数d,节点e表示函数e。拓扑图具有四条边,分别是从节点a至节点c的边、从节点a至节点b的边、从节点a至节点d的边和从节点c至节点e的边。附图3中DAG204记录的函数的依赖关系以及执行顺序是:函数d和函数e先被执行。函数b和函数c依赖于函数e,函数b和函数c在函数e被执行完之后再被执行。函数a依赖于函数b、函数c和函数d,函数a最后被执行。根据该DAG204,首先,中央处理器会指示DIMM中的DPU执行函数e,指示SSD中的DPU执行函数d;当函数e执行完成之后,中央处理器会指示NPU执行函数b,指示GPU执行函数c;当函数b、函数c和函数d均执行完成后,中央处理器执行函数a。
如何获得拓扑图包括多种方式。在一些实施例中,存储设备收到计算设备发送的任务的定义信息后,对任务的定义信息进行解析,生成拓扑图。例如,参见附图3,存储设备接收到计算设备发送的NDP任务的定义信息后,通过解析器201(Parser)对NDP任务的定义信息进行解析,生成DAG204,从而通过DAG204表示NDP任务中的各个子任务。解析器201输出的DAG204会发送至存储设备包括的执行器202(Executor)。执行器202根据DAG204,依次调度NDP任务中的各个步骤或各个函数到对应的专项处理器上执行,并控制各个步骤或各个函数之间的数据流动。
通过将任务的定义信息解析为拓扑图并使用拓扑图进行调度,一方面,由于拓扑图记录了子任务的执行顺序,中央处理器无需重新计算子任务的执行顺序,能够直接按照拓扑图所记录的执行顺序进行调度,从而减少了调度的工作量。另一方面,目前存在很多基于拓扑图的调度优化算法,能够调用基于拓扑图的调度优化算法优化子任务调度的顺序,从而缩短任务整体的执行时间。
在一些实施例中,对于划分出的多个子任务中的任一个子任务,中央处理器为子任务选择匹配的专项处理器之后,中央处理器判断选择的专项处理器是否可编程。如果选定的专项处理器可编程,中央处理器生成能在该选择的专项处理器上执行的指令。例如,如果选择的专项处理器支持X86指令集,则生成X86指令;如果选择的专项处理器支持ARM指令集,则生成ARM指令。中央处理器指示选定的专项处理器执行指令,从而完成子任务,并对产生的指令进行缓存。当中央处理器下次再调度该子任务到该专项处理器时,便可调用预先缓存的指令来执行子任务,省去指令生成过程。如果选定的专项处理器不可编程,则调用专项处理器中相应的硬件计算模块执行子任务。
在一些实施例中,部署在计算集群的应用使用NDP描述语言定义了如下的NDP任务。NDP协调模块根据fileID查询数据管理装置(Data Scheme Service),获得fileID所对应的文件所归属的存储节点,将NDP任务转发到存储节点。
Figure BDA0002547251930000151
Figure BDA0002547251930000161
以上NDP任务的定义信息描述了NDP任务中要执行三个函数,分别是decompress函数、filter函数和count函数。
文件归属的存储节点收到NDP任务后,根据NDP任务的定义信息,描述以后,通过解析器对描述语言进行解析,生成了附图5所示的拓扑图。存储节点在调度过程中,根据数据集的位置和函数的计算特征,将decompress函数调度到SSD上就近执行,然后将filter函数和count函数调度到GPU上执行。在decompress函数完成后,将数据集加载到GPU的内存,生成filter函数和count函数能在GPU上执行的指令,完成函数的功能。
在一些实施例中,以上过程涉及的数据读取过程通过调用数据读取函数实现。数据读取函数为系统定义的函数,用于从文件系统,对象存储等存储系统中读取数据,返回一个数据集对象。例如,数据读取接口包括以下:
RD_File(fileID,offset,length);
RD_Object(key);
RD_Plog(PlogID,offset,length)。
本实施例提供了一种利用存储设备的多种处理器协作处理数据的方法,由存储设备中的中央处理器将数据处理任务划分为多个子任务,根据子任务的属性为子任务分配存储设备中的专项处理器。一方面,由于在进行数据处理的过程中,中央处理器承担了任务分解和任务调度的工作,专项处理器承担了执行子任务的工作,使得中央处理器的算力和专项处理器的算力均得到了充分利用。另一方面,由于分配子任务时考虑了子任务的属性,使得子任务能够依据其属性被调度到合适的专项处理器上执行。因此,该方法提高了数据处理的效率。
以下通过方法400,对上述方法300举例说明。以下方法400应用在分布式存储系统的场景,应用的数据被打散并分布到多个存储节点,每个存储节点具有多种异构的处理器,具体包括CPU、GPU、NPU、DIMM的处理器、SSD的处理器。以下方法400中,数据处理任务是NDP任务,子任务是函数。换句话说,方法400描述的方法流程关于存储节点如何将每个函数调度至多种异构处理器中最合适的处理器上执行。应理解,方法400与方法300同理的步骤还请参见方法300,在方法400中不做赘述。
参见附图6,附图6为本申请实施例提供的一种任务执行方法400的流程图。
示例性地,方法400包括S401至S409。
S401、判断数据是否在DIMM或SSD中。如果数据在DIMM或SSD中,执行以下S402;如果数据不在DIMM且不在SSD中,执行以下S404。
S402、判断DIMM或SSD是否支持该函数。如果DIMM或SSD支持该函数,执行以下S403;如果数据不在DIMM且不在SSD中,执行以下S404。
S403、选定DIMM或SSD作为用于执行该函数的专项处理器,执行以下S406。
S404、根据函数的定义信息指示的专项处理器或函数的计算特征选定专项处理器,执行以下S405。
S405、加载数据集到选定的专项处理器的内存中,执行以下S406。
S406、判断选定的专项处理器是否可编程。如果选定的专项处理器可编程,执行以下S407;如果选定的专项处理器不可编程,执行以下S409。
S407、根据函数的定义信息,产生能在选定的专项处理器中执行的指令,执行以下S408。
S408、使用选定的专项处理器执行指令,完成函数,并缓存指令,以便下次直接调用。
S409、调用选定的专项处理器中相应的硬件模块完成函数。
以上介绍了本申请实施例的任务执行方法,以下介绍本申请实施例的任务执行装置,应理解,该任务执行装置其具有上述方法中存储设备的任意功能。可选地,任务执行装置600在存储设备的控制器上运行,存储设备包括至少一个硬盘。可选地,任务执行装置600在存储设备的中央处理器上运行。
图7是本申请实施例提供的一种任务执行装置的结构示意图,如图7所示,任务执行装置600包括:获取模块601,用于执行S310;划分模块602,用于执行S320;分配模块603,用于执行S330。
应理解,任务执行装置600对应于上述方法300或方法400中的存储设备,任务执行装置600中的各模块和上述其他操作和/或功能分别为了实现上述方法300或方法400中的存储设备所实施的各种步骤和方法,具体细节可参见上述方法300或方法400,为了简洁,在此不再赘述。
应理解,任务执行装置600在执行任务时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将任务执行装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的任务执行装置与上述方法300或方法400属于同一构思,其具体实现过程详见上述方法300或方法400,这里不再赘述。
在一些实施例中,任务执行装置中的获取模块601相当于存储设备中的网卡,任务执行装置中的划分模块602和分配模块603相当于存储设备中的中央处理器。
本领域普通技术人员可以意识到,结合本文中所公开的实施例中描述的各方法步骤和模块,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各实施例的步骤及组成。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域普通技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、装置和模块的具体工作过程,可以参见前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,该模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或模块的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
该作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以是两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
该集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例中方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请中术语“第一”“第二”等字样用于对作用和功能基本相同的相同项或相似项进行区分,应理解,“第一”、“第二””之间不具有逻辑或时序上的依赖关系,也不对数量和执行顺序进行限定。还应理解,尽管以下描述使用术语第一、第二等来描述各种元素,但这些元素不应受术语的限制。这些术语只是用于将一元素与另一元素区别分开。例如,在不脱离各种所述示例的范围的情况下,第一子任务可以被称为第二子任务,并且类似地,第二子任务可以被称为第一子任务。第一子任务和第二子任务都可以是子任务,并且在某些情况下,可以是单独且不同的子任务。
本申请中术语“至少一个”的含义是指一个或多个,本申请中术语“多个”的含义是指两个或两个以上,例如,多个第二专项处理器是指两个或两个以上的第二专项处理器。
还应理解,术语“如果”可被解释为意指“当...时”(“when”或“upon”)或“响应于确定”或“响应于检测到”。类似地,根据上下文,短语“如果确定...”或“如果检测到[所陈述的条件或事件]”可被解释为意指“在确定...时”或“响应于确定...”或“在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
以上描述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机程序指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例中的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,该计算机程序指令可以从一个网站站点、计算机、服务器或数据中心通过有线或无线方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是磁性介质(例如软盘、硬盘、磁带)、光介质(例如,数字视频光盘(digitalvideo disc,DVD)、或者半导体介质(例如固态硬盘)等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上描述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (12)

1.一种任务执行方法,其特征在于,所述方法应用于存储设备中,所述存储设备包括中央处理器和多个专项处理器,所述方法包括:
所述中央处理器获取数据处理任务;
所述中央处理器将所述数据处理任务划分为多个子任务;
所述中央处理器根据各个子任务的属性,将所述多个子任务中的第一子任务分配给第一专项处理器,所述第一专项处理器是所述多个专项处理器的其中一个专项处理器。
2.根据权利要求1所述的方法,其特征在于,所述子任务的属性包括所述子任务所涉及的数据的地址,所述第一专项处理器是距离所述数据最近的专项处理器。
3.根据权利要求1所述的方法,其特征在于,所述子任务的属性包括所述子任务的计算模式和/或并发量,所述第一专项处理器是与所述计算模式和/或并发量匹配的专项处理器。
4.根据权利要求1所述的方法,其特征在于,所述子任务的属性包括所述子任务的定义信息,所述第一专项处理器是所述第一子任务的定义信息指示的专项处理器。
5.根据权利要求1所述的方法,其特征在于,所述子任务的属性包括所述子任务对应的数据集类型,所述第一专项处理器是与所述第一子任务对应的数据集类型匹配的专项处理器。
6.根据权利要求1所述的方法,其特征在于,所述多个子任务的执行顺序被记录在拓扑图中,所述方法还包括:
所述中央处理器根据所述拓扑图指示所述第一专项处理器按照顺序执行所述第一子任务。
7.一种存储设备,其特征在于,所述存储设备包括中央处理器和多个专项处理器;
所述中央处理器,用于获取数据处理任务;
所述中央处理器,用于将所述数据处理任务划分为多个子任务;
所述中央处理器,还用于根据各个子任务的属性,将所述多个子任务中的第一子任务分配给第一专项处理器,所述第一专项处理器是所述多个专项处理器的其中一个专项处理器。
8.根据权利要求7所述的存储设备,其特征在于,所述子任务的属性包括所述子任务所涉及的数据的地址,所述第一专项处理器是距离所述数据最近的专项处理器。
9.根据权利要求7所述的存储设备,其特征在于,所述子任务的属性包括所述子任务的计算模式和/或并发量,所述第一专项处理器是与所述计算模式和/或并发量匹配的专项处理器。
10.根据权利要求7所述的存储设备,其特征在于,所述子任务的属性包括所述子任务的定义信息,所述第一专项处理器是所述第一子任务的定义信息指示的专项处理器。
11.根据权利要求7所述的存储设备,其特征在于,所述子任务的属性包括所述子任务对应的数据集类型,所述第一专项处理器是与所述第一子任务对应的数据集类型匹配的专项处理器。
12.根据权利要求7所述的存储设备,其特征在于,所述中央处理器,还用于根据所述拓扑图指示所述第一专项处理器按照顺序执行所述第一子任务。
CN202010564326.2A 2020-06-19 2020-06-19 任务执行方法及存储设备 Pending CN113821311A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202010564326.2A CN113821311A (zh) 2020-06-19 2020-06-19 任务执行方法及存储设备
EP21825322.7A EP4160405A4 (en) 2020-06-19 2021-05-31 TASK EXECUTION METHOD AND STORAGE DEVICE
PCT/CN2021/097449 WO2021254135A1 (zh) 2020-06-19 2021-05-31 任务执行方法及存储设备
US18/067,492 US20230124520A1 (en) 2020-06-19 2022-12-16 Task execution method and storage device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010564326.2A CN113821311A (zh) 2020-06-19 2020-06-19 任务执行方法及存储设备

Publications (1)

Publication Number Publication Date
CN113821311A true CN113821311A (zh) 2021-12-21

Family

ID=78912077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010564326.2A Pending CN113821311A (zh) 2020-06-19 2020-06-19 任务执行方法及存储设备

Country Status (4)

Country Link
US (1) US20230124520A1 (zh)
EP (1) EP4160405A4 (zh)
CN (1) CN113821311A (zh)
WO (1) WO2021254135A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115658325A (zh) * 2022-11-18 2023-01-31 北京市大数据中心 数据处理方法、装置、多核处理器、电子设备以及介质
CN116074179A (zh) * 2023-03-06 2023-05-05 鹏城实验室 基于cpu-npu协同的高扩展节点系统及训练方法
CN116149856A (zh) * 2023-01-09 2023-05-23 中科驭数(北京)科技有限公司 算子计算方法、装置、设备及介质
WO2023143033A1 (zh) * 2022-01-30 2023-08-03 华为技术有限公司 一种访问存储节点的方法、装置及计算机设备
WO2023160319A1 (zh) * 2022-02-24 2023-08-31 华为技术有限公司 一种任务执行方法及相关装置
WO2024041140A1 (zh) * 2022-08-23 2024-02-29 华为技术有限公司 数据处理方法、加速器及计算设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115374031A (zh) * 2021-05-17 2022-11-22 三星电子株式会社 近存储器处理双列直插式存储器模块及其操作方法
CN116594745A (zh) * 2023-05-11 2023-08-15 阿里巴巴达摩院(杭州)科技有限公司 任务执行方法、系统、芯片及电子设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1910553A (zh) * 2004-01-08 2007-02-07 皇家飞利浦电子股份有限公司 基于存储器要求在多处理器系统中进行任务调度的方法和设备
CN101441615A (zh) * 2008-11-24 2009-05-27 中国人民解放军信息工程大学 面向任务流的高效能立体并行柔性可重构计算架构模型
US9753770B2 (en) * 2014-04-03 2017-09-05 Strato Scale Ltd. Register-type-aware scheduling of virtual central processing units
CN105589829A (zh) * 2014-09-15 2016-05-18 华为技术有限公司 基于多核处理器芯片的数据处理方法、装置以及系统
US10073715B2 (en) * 2016-12-19 2018-09-11 Intel Corporation Dynamic runtime task management
CN110502330A (zh) * 2018-05-16 2019-11-26 上海寒武纪信息科技有限公司 处理器及处理方法
US10871989B2 (en) * 2018-10-18 2020-12-22 Oracle International Corporation Selecting threads for concurrent processing of data
CN110196775A (zh) * 2019-05-30 2019-09-03 苏州浪潮智能科技有限公司 一种计算任务处理方法、装置、设备以及可读存储介质
US11106495B2 (en) * 2019-06-13 2021-08-31 Intel Corporation Techniques to dynamically partition tasks

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023143033A1 (zh) * 2022-01-30 2023-08-03 华为技术有限公司 一种访问存储节点的方法、装置及计算机设备
WO2023160319A1 (zh) * 2022-02-24 2023-08-31 华为技术有限公司 一种任务执行方法及相关装置
WO2024041140A1 (zh) * 2022-08-23 2024-02-29 华为技术有限公司 数据处理方法、加速器及计算设备
CN115658325A (zh) * 2022-11-18 2023-01-31 北京市大数据中心 数据处理方法、装置、多核处理器、电子设备以及介质
CN115658325B (zh) * 2022-11-18 2024-01-23 北京市大数据中心 数据处理方法、装置、多核处理器、电子设备以及介质
CN116149856A (zh) * 2023-01-09 2023-05-23 中科驭数(北京)科技有限公司 算子计算方法、装置、设备及介质
CN116074179A (zh) * 2023-03-06 2023-05-05 鹏城实验室 基于cpu-npu协同的高扩展节点系统及训练方法

Also Published As

Publication number Publication date
US20230124520A1 (en) 2023-04-20
EP4160405A4 (en) 2023-10-11
WO2021254135A1 (zh) 2021-12-23
EP4160405A1 (en) 2023-04-05

Similar Documents

Publication Publication Date Title
CN113821311A (zh) 任务执行方法及存储设备
KR102011671B1 (ko) 이종 계산 장치 기반의 질의 처리 방법 및 장치
US8230432B2 (en) Defragmenting blocks in a clustered or distributed computing system
US8112526B2 (en) Process migration based on service availability in a multi-node environment
US10268741B2 (en) Multi-nodal compression techniques for an in-memory database
Yang et al. Intermediate data caching optimization for multi-stage and parallel big data frameworks
US20170228422A1 (en) Flexible task scheduler for multiple parallel processing of database data
US20130138885A1 (en) Dynamic process/object scoped memory affinity adjuster
Arfat et al. Big data for smart infrastructure design: Opportunities and challenges
Senthilkumar et al. A survey on job scheduling in big data
US8027972B2 (en) Nodal data normalization
Wang et al. Actcap: Accelerating mapreduce on heterogeneous clusters with capability-aware data placement
Ma et al. Dependency-aware data locality for MapReduce
US20160034528A1 (en) Co-processor-based array-oriented database processing
CN112181613A (zh) 异构资源分布式计算平台批量任务调度方法及存储介质
US20090319662A1 (en) Process Migration Based on Exception Handling in a Multi-Node Environment
US10853137B2 (en) Efficient resource allocation for concurrent graph workloads
US20210390405A1 (en) Microservice-based training systems in heterogeneous graphic processor unit (gpu) cluster and operating method thereof
Yankovitch et al. Hypersonic: A hybrid parallelization approach for scalable complex event processing
CN114443680A (zh) 数据库管理系统、相关装置、方法和介质
US11762860B1 (en) Dynamic concurrency level management for database queries
US20220075655A1 (en) Efficient accelerator offload in multi-accelerator framework
Pan et al. CongraPlus: towards efficient processing of concurrent graph queries on NUMA machines
Ghazali et al. CLQLMRS: improving cache locality in MapReduce job scheduling using Q-learning
CN110415162B (zh) 大数据中面向异构融合处理器的自适应图划分方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination