WO2022145613A1 - 다중 코어 할당 장치 및 방법 - Google Patents

다중 코어 할당 장치 및 방법 Download PDF

Info

Publication number
WO2022145613A1
WO2022145613A1 PCT/KR2021/009997 KR2021009997W WO2022145613A1 WO 2022145613 A1 WO2022145613 A1 WO 2022145613A1 KR 2021009997 W KR2021009997 W KR 2021009997W WO 2022145613 A1 WO2022145613 A1 WO 2022145613A1
Authority
WO
WIPO (PCT)
Prior art keywords
core
cores
service load
service
allocating
Prior art date
Application number
PCT/KR2021/009997
Other languages
English (en)
French (fr)
Inventor
김대훈
박경서
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Publication of WO2022145613A1 publication Critical patent/WO2022145613A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3017Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is implementing multitasking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5094Allocation of resources, e.g. of the central processing unit [CPU] where the allocation takes into account power or heat criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/90Buffering arrangements
    • H04L49/9063Intermediate storage in different physical parts of a node or terminal
    • H04L49/9068Intermediate storage in different physical parts of a node or terminal in the network interface card

Definitions

  • the present invention relates to a multi-core allocation apparatus and method, and more particularly, to an apparatus and method for adjusting multi-core allocation for an application and packet processing based on a service load.
  • the present invention is derived from research conducted as part of the following projects supported by the Ministry of Science and ICT. 1. Project No.: 2020010088, Project Name: Basic Research on Real-time Autonomous Restoration Cyber Physical System (High Reliability CPS Research Center) 2. Project No.: 2020030004, Project Name: (3rd) Dark Data Extreme Utilization Research Center (ERC) 3. Project No.: 2020030095, Project name: Research and development of computing resource management technology and integrated management framework to satisfy user service level objectives (SLOs) in microservices architecture
  • SLOs user service level objectives
  • a network interface controller (Network Interface Card; NIC) is an I/O (Input/Output) device used to exchange data with an external server.
  • a server equipped with a NIC performs packet processing, which is a task of transmitting data by converting data into a packet form in the core of the processor or converting a received packet into original data for data transmission and reception.
  • Static parallel packet processing causes unnecessary energy consumption due to excessive parallelism, and irregular activation of the packet processing core causes energy consumption due to core switching.
  • a service requiring low latency must satisfy the Service Level Objective (SLO), which is a contract with users who use the service.
  • SLO Service Level Objective
  • a service requiring low latency it must ensure that the tail latency of packets requested by the user to use the service meets the stipulated time among the SLO regulations.
  • One object of the present invention is to provide a multi-core allocation apparatus for determining a core allocation combination based on a service load.
  • One object of the present invention is to provide a method for allocating multiple cores in consideration of latency and energy efficiency based on offline profiling.
  • a multi-core allocating apparatus includes a monitoring unit for monitoring a service load corresponding to a service request for at least one application running in a multi-core environment, and a core for allocating multiple cores based on the service load. It may include an allocator.
  • the core allocator is configured to determine a combination of a first core that executes at least one application in response to a service request and a second core that performs packet processing accompanying the at least one application according to a change in service load.
  • a method for allocating multiple cores includes, by a monitoring unit, monitoring a service load corresponding to a service request for at least one application running in a multi-core environment, and by the core allocating unit, the service It may include allocating multiple cores based on the load.
  • a combination of a first core that executes at least one application in response to a service request and a second core that performs packet processing accompanying the at least one application is determined may include the step of
  • FIG. 1 is a diagram schematically showing an exemplary operating environment of an apparatus for allocating multiple cores according to an embodiment.
  • FIG. 2 is a block diagram of an apparatus for allocating multiple cores according to an embodiment.
  • FIG. 3 is a diagram for explaining an execution environment of an apparatus for allocating multiple cores according to an embodiment.
  • FIG. 4 is a flowchart of a method for allocating multiple cores according to an embodiment.
  • 5 is a detailed flowchart of a method for allocating multiple cores according to an embodiment.
  • FIG. 6 shows a mapping table for a combination of a first core and a second core according to an exemplary service load.
  • FIG. 7 is a diagram for exemplarily explaining a core allocation process of a multi-core allocation apparatus according to an embodiment.
  • FIG. 1 is a diagram schematically showing an exemplary operating environment of an apparatus for allocating multiple cores according to an embodiment.
  • the multi-core allocation apparatus 100 may provide dynamic allocation of multi-cores optimized according to service load changes in various application environments.
  • the multi-core allocation apparatus 100 may be a server that processes a service request of the client 200 in the network 300 environment.
  • the server may be a server that receives a service request from the client 200 through the network 300 , performs an operation corresponding to the service request, and transmits a response thereto to the client 200 through the network 300 . .
  • the multi-core allocation device 100 may be a computing device including a processor 110 and a memory 120 with reference to FIG. 2 to be described later.
  • Network 300 is a wired and wireless network, such as a local area network (LAN), a wide area network (WAN), the Internet (internet), intranet (intranet) and extranet (extranet), and mobile networks, such as It may be any suitable communication network, including cellular, 3G, LTE, 5G, WiFi networks, ad hoc networks, and combinations thereof.
  • LAN local area network
  • WAN wide area network
  • Internet Internet
  • intranet intranet
  • extranet extranet
  • mobile networks such as It may be any suitable communication network, including cellular, 3G, LTE, 5G, WiFi networks, ad hoc networks, and combinations thereof.
  • Network 300 may include connections of network elements such as hubs, bridges, routers, switches, and gateways.
  • Network 300 may include one or more connected networks, eg, multiple network environments, including public networks such as the Internet and private networks such as secure enterprise private networks. Access to network 300 may be provided via one or more wired or wireless access networks.
  • FIG. 2 is a block diagram of an apparatus for allocating multiple cores according to an embodiment.
  • the multi-core allocation apparatus 100 may include a processor 110 and a memory 120 .
  • the processor 110 is a kind of central processing unit, and may control the operation of the multi-core allocation apparatus 100 by executing one or more instructions stored in the memory 120 .
  • the processor 110 may include any type of device capable of processing data.
  • the processor 110 may refer to, for example, a data processing device embedded in hardware having a physically structured circuit to perform a function expressed as a code or an instruction included in a program.
  • a microprocessor a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated (ASIC) circuit) and a processing device such as a field programmable gate array (FPGA), but is not limited thereto.
  • the processor 110 may include one or more processors.
  • the processor 110 may be configured as a multicore.
  • the multi-core allocator 100 may further include a monitoring unit 111 and a core allocating unit 112 .
  • the monitoring unit 111 may monitor a service load corresponding to a service request for an application running on multiple cores of the processor 110 and transmit the service load to the core allocating unit 112 .
  • the core allocator 112 may allocate multiple cores based on the service load received from the monitoring unit 111 .
  • the core allocator 112 includes a first core that executes at least one application in response to a user's service request according to a change in the service load obtained from the monitoring unit 111 and packet processing accompanied by the at least one application. It is possible to determine the combination of the second core that performs
  • the monitoring unit 111 and the core allocating unit 112 may be implemented as programs executable by the processor 110 .
  • the processor 110 may execute a corresponding program stored in the memory 120 to execute the monitoring unit 111 and the core allocating unit 112 .
  • the multi-core allocation apparatus 100 may further include a memory 120 .
  • the memory 120 may store a command, etc. for the multi-core allocation apparatus 100 to execute a core allocation process.
  • the memory 120 may store an executable program implementing the operations of the monitoring unit 111 and the core allocating unit 112 .
  • the processor 110 may execute the multi-core allocation process according to the embodiment based on the program and instructions stored in the memory 120 .
  • the memory 120 may further store information (eg, a mapping table for a combination of the first core and the second core according to the service load) generated as a result of performing offline profiling, which will be described later.
  • information eg, a mapping table for a combination of the first core and the second core according to the service load
  • Memory 120 may include internal memory and/or external memory, volatile memory such as DRAM, SRAM, or SDRAM, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, NAND Flash memory, or non-volatile memory such as NOR flash memory, SSD, compact flash (CF) card, SD card, Micro-SD card, Mini-SD card, Xd card, or flash drive such as a memory stick; Alternatively, it may include a storage device such as HDD.
  • volatile memory such as DRAM, SRAM, or SDRAM
  • OTPROM one time programmable ROM
  • PROM PROM
  • EPROM EPROM
  • EEPROM electrically erasable ROM
  • mask ROM programmable ROM
  • flash ROM NAND Flash memory
  • non-volatile memory such as NOR flash memory, SSD, compact flash (CF) card, SD card, Micro-SD card, Mini-SD card, Xd card, or flash drive such as a memory stick
  • CF compact
  • the network interface controller (NIC) 130 refers to a communication device capable of interfacing packet communication.
  • the network interface controller 130 may receive a packet from an external device or transmit a packet to the external device.
  • the bus 140 is a logical/physical path connecting the processor 110 , the memory 120 , and the network interface controller 130 .
  • the processor 110 may read/write the memory 120 and the network interface controller 130 through the bus 140 .
  • FIG. 3 is a diagram for explaining an execution environment of an apparatus for allocating multiple cores according to an embodiment.
  • the NIC 130 is hardware for communicating with an external device, and is a device for receiving or sending packets.
  • the NIC 130 transfers the packet received from the external device to the network driver.
  • the network driver is software that helps an operating system (OS) to use the NIC 130 , and notifies the operating system that a packet has arrived at the NIC 130 , and transmits the packet to the TCP/IP stack.
  • OS operating system
  • the TCP/IP stack extracts the IP and Port containing information from the packet, identifies which application it should be delivered to, and extracts data from the packet and delivers it to the application.
  • the monitoring unit 111 and the core allocating unit 112 of the multi-core allocating apparatus 100 operate in the operating system area.
  • the monitoring unit 111 and the core allocating unit 112 may operate as a kind of daemon process that periodically wakes up in the operating system area and performs a task in the background.
  • one daemon may execute the monitoring unit 111 and the core allocating unit 112 .
  • the monitoring unit 111 and the core allocating unit 112 may be executed in one core among multiple cores included in the processor 110 .
  • FIG. 4 is a flowchart of a method for allocating multiple cores according to an embodiment.
  • the multi-core allocation method is a combination of a first core that executes at least one application and a second core that performs packet processing accompanying such at least one application according to a service load by the processor 110 It may include the step of performing offline profiling (S10).
  • Step S10 may include determining a combination of the first core and the second core for each predefined service load based on the energy consumption and delay time for processing the predefined service load.
  • the energy consumption means the amount of energy consumed by the processor 110 while processing a predefined service load.
  • the delay time means the response delay time to the service request.
  • offline profiling is executed in an environment in which offline profiling can be performed before an application is serviced.
  • An environment capable of performing the offline profile includes a server computer running an application service and a client computer generating and transmitting a service request.
  • the client computer sends a service request to the server computer.
  • the server computer corresponds to the multi-core allocation apparatus 100 according to the embodiment.
  • the server computer selects one of the possible combinations of the number of service cores executing the application and the number of cores performing packet processing, and allocates the service core and the packet processing core according to the combination.
  • the number for service cores is 1 to 8
  • the number of cores for packet processing is also 1 to 8, so a total of 64 combinations is possible.
  • the client computer transmits service requests to the server computer with a predetermined service load for a predetermined time (eg, 5 seconds) for each combination of cores.
  • a predetermined service load for a predetermined time (eg, 5 seconds) for each combination of cores.
  • the service load may be expressed using RPS (Request Per Second) as an index.
  • the server computer measures the energy consumed for the above-described predetermined time (eg, 5 seconds) and tail latency for the service request.
  • the tail delay time means the packet delay time corresponding to the back like 95th and 99th percentile latency when the delay times of all packets requested by the user are listed in the order of the lowest.
  • the processor 110 has the lowest energy consumption among a combination of one or more first and second cores that satisfy a predetermined delay time requirement in executing a predefined service load as a result of executing offline profiling.
  • the combination of cores may be determined as a combination of the first core and the second core for the corresponding service load.
  • a 95th percentile latency (P95) or 99th percentile latency (P99) metric may be applied as the predetermined delay time requirement.
  • This process is executed for every predetermined RPS range in all core combinations to measure tail latency and energy consumption, and to determine an optimal core allocation combination.
  • offline profiling data results can be obtained that store tail latency and energy consumption according to each core combination and RPS.
  • the obtained offline profiling result may be stored in the memory 120 .
  • the processor 110 may store the offline profiling result in the memory 120 as a mapping table of a combination of the first core and the second core for each service load.
  • An exemplary mapping table for the offline profiling result will be described later with reference to FIG. 6 .
  • the method for allocating multiple cores includes, by the monitoring unit 111, monitoring a service load corresponding to a service request for at least one application running in a multi-core environment (S20) and the core assignment unit 112 By, it may include a step (S30) of allocating multiple cores based on the service load.
  • the monitoring unit 111 may monitor a service load corresponding to a service request for at least one application running in a multi-core environment.
  • step S20 the monitoring unit 111 may acquire a service load based on the number of service requests received per unit time.
  • An application running in a multi-core environment receives a service request from a client running on a user-side terminal device and transmits a response thereto to the terminal device.
  • the service load means the number of service requests per unit time.
  • the monitoring unit 111 may calculate a Request Per Second (RPS) by using a Request Packet Count function measured by a network driver included in the operating system, and determine a service load according to the calculated RPS.
  • RPS Request Per Second
  • the RPS is the number of packets processed per unit time and is an index indicating the number of service requests per unit time, that is, a service load. This is because a service request and its processing correspond to one or more packets.
  • Step S20 may be executed periodically to monitor the service load. For example, step S20 may be executed according to the execution cycle of the daemon process executing the monitoring unit 111 .
  • step S30 the core allocator 112 may allocate multiple cores based on the service load.
  • Step S30 is a step of determining a combination of a first core that executes at least one application in response to a service request and a second core that performs packet processing accompanying at least one application according to a change in service load.
  • the first core corresponds to at least one core executing at least one thread created to execute at least one application.
  • the second core corresponds to at least one core that performs packet processing accompanying at least one application.
  • Step S30 may be performed when a change occurs in the service load as a result of the monitoring of step S20 .
  • the core allocator 112 may determine a combination of the first core and the second core for the service load based on the result of the offline profiling performed in step S10 .
  • the core allocator 112 may determine the combination of the first core and the second core for the current service load by referring to a mapping table for the offline profiling result stored in the memory 120 .
  • the combination for the core assignment corresponds to a pair of a number of first cores and a number of second cores. That is, the core allocator 112 may determine a pair of the number of the first core and the number of the second core in step S30 .
  • the core allocator 112 may allocate as many cores as the number of first cores among one or more cores constituting the multi-core environment as first cores for executing at least one application.
  • the core allocator 112 may allocate as many second cores as the number of second cores among one or more cores constituting the multi-core environment as second cores for performing packet processing.
  • Step S30 will be described in detail later with reference to FIG. 5 .
  • step S30 the monitoring unit 111 is executed in step S20 in the next execution cycle.
  • 5 is a detailed flowchart of a method for allocating multiple cores according to an embodiment.
  • step S30 may include steps S31 , S32 , and S33 .
  • step S20 is performed periodically, and step S31 is performed for each corresponding cycle.
  • step S31 the core allocator 112 compares the current service load (ie, current RPS) obtained by the monitoring unit 111 in step S20 with the service load of the previous cycle (ie, previous RPS).
  • the execution of the core allocating unit 112 is terminated and the process returns to step S20 . If the current service load is different from the previous service load, the core allocating unit 112 executes steps S32 and S33.
  • the core allocator 112 may determine a combination of the first core and the second core for the service load based on the result of the offline profiling performed in step S10 with reference to FIG. 4 .
  • the core allocator 112 may determine an optimal core allocation combination for the current service load based on a mapping table stored in the memory 120 .
  • step S33 the core allocator 112 may allocate a first core to execute an application and a second core to process packet processing based on the combination determined in step S32 .
  • the lowest numbered core may be sequentially allocated.
  • the core allocator 112 may send a request to the operating system for allocating a core for an application, and the operating system may sequentially allocate the first core starting from a lower-numbered core.
  • the core allocator 112 sends a request to the network driver of the operating system to allocate the second core for packet processing, and sequentially allocates the second core to the core for packet processing, starting with the lower numbered core. have.
  • Such a core allocation order is exemplary, and it is also possible to allocate sequentially from a high-numbered core or sequentially from a core having the lowest core usage, but is not limited thereto.
  • the core allocator 112 may allocate the second core after allocating the first core, or allocate the first core after allocating the second core, or allocate the first core and the second core at the same time. .
  • the core allocator 112 may allocate the first core and the second core to overlap each other. For example, the core allocator 112 may allocate the first core and the second core to overlap each other at maximum. This secures an inactive core and reduces energy consumption and latency.
  • the core allocator 112 assigns the first cores. 1, 2, 3, and 4 may be allocated, and the second core may be allocated to cores 1, 2, 3, and 4, which are the same cores as the first core. Alternatively, the core allocator 112 may allocate the second core to cores 1, 2, 3, and 4, and allocate the first core to cores 1, 2, 3, and 4, which are the same cores as the second core. .
  • the core allocator 112 sets the first core to 8, 7 and 6 may be allocated, and the second core may be allocated to two cores selected from among 8, 7, and 6 cores to which the first core is allocated.
  • the core allocator 112 may allocate the second core to the 8th and 7th cores, and allocate the first core to one of the 8th and 7th and the remaining cores to which the second core is allocated.
  • the packet data processed by the packet processing core is stored in the memory 120 , and the address at which the packet data is stored is transmitted to the application.
  • an address of the memory 120 in which data to be transmitted is stored is informed to a packet processing operation, and the packet processing operation reads the data from the memory 120 and converts it into a packet form.
  • FIG. 6 shows a mapping table for a combination of a first core and a second core according to an exemplary service load.
  • table (a) is a mapping table in a first service load
  • table (b) is a mapping table in a second service load
  • table (c) is a mapping table in the second service load.
  • the mapping table in the service load is shown as an example. In the illustrated example, the amount of service load increases as the table (a), table (b), and table (c) go.
  • each table represents the number of second cores for packet processing (1P, 2P, ..., 8P), and the vertical axis represents the number of first cores for application execution (1T, 2T, ..., 8T). indicates.
  • the cell value of each table is a numerical value of the energy consumption for the combination of the number of second cores and the allocation of the first core.
  • the cell value of each table is the energy consumption for the pair of the number of the second core and the number of the first core when all cores are allocated to the second core and the first core (ie, 8T-8P) It was set as a normalized value for energy consumption.
  • the case where the tail delay time for the corresponding core allocation combination does not satisfy the SLO regulation is indicated as Vio., and the core allocation unit 112 does not consider the core allocation combination in which the cell value is Vio. does not
  • FIG. 7 is a diagram for exemplarily explaining a core allocation process of a multi-core allocation apparatus according to an embodiment.
  • the core allocator 112 is executed in one of the multiple cores and adjusts a combination of a core for application execution and a core for packet processing according to a service load.
  • the core allocator 112 may determine an optimal core allocation combination based on the offline profiling result stored in the memory 120 .
  • the optimal combination of core allocation for the current service load is three first cores for application execution and two second cores for packet processing (ie, T3-P2).
  • Corresponding cores can be allocated sequentially.
  • the first core and the second core may be allocated to overlap each other.
  • the first core and the second core may be allocated such that overlap between them is maximized.
  • the multi-core allocation technique expands a server environment using a NIC to which Receive Side Scaling (RSS) is applied, and the number of cores used to perform services and cores performing packet processing It is possible to dynamically adjust the number of devices according to the load of the service, guarantee the tail latency stipulated in the SLO, and reduce energy consumption.
  • RSS Receive Side Scaling
  • the multi-core allocation technique measures the energy consumption and tail delay time while gradually increasing the service load in all possible combinations of the number of cores used to perform a service and the number of cores for packet processing. Offline profiling is performed. Among the measurement results, the combination with the lowest energy consumption without violating the SLO for each load is searched for.
  • the monitoring unit 111 periodically measures RPS (Request Per Seconds), which is a service load.
  • RPS Request Per Seconds
  • the core allocator 112 determines whether the previously measured RPS and the currently measured RPS are the same. If different, the core allocation unit 112 finds and applies a combination of core allocation that can minimize energy consumption without violating the SLO in the currently measured service load based on the offline profiling result stored in the memory 120 .
  • the multi-core allocation method integrates and introduces a method of simultaneously adjusting the number of cores performing a service and the number of cores for packet processing according to the load of a delay-sensitive service, enabling activation without violating SLO By reducing the number of cores, it is possible to secure inactive cores and reduce energy consumption.
  • the multi-core allocation technique according to the embodiment is applicable to I/O processing for various peripheral I/O devices including a solid state drive (SSD) in addition to the NIC.
  • SSD solid state drive
  • the embodiment according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded in a computer-readable medium.
  • the medium includes a hard disk, a solid state drive (SSD), a silicon disk drive (SDD), a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and a DVD, and a floppy disk.
  • magneto-optical media such as, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • the computer program may be specially designed and configured for the present invention, or may be known and used by those skilled in the computer software field.
  • Examples of the computer program may include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Conveying And Assembling Of Building Elements In Situ (AREA)

Abstract

본 발명은 서비스 부하에 따라 다중 코어를 할당하는 장치 및 방법을 제공한다. 다중 코어 환경에서 실행 중인 적어도 하나의 어플리케이션에 대한 서비스 요청에 대응하는 서비스 부하를 모니터링하는 모니터링부 및 서비스 부하에 기반하여 다중 코어를 할당하는 코어할당부를 포함하고, 코어할당부는 서비스 부하의 변화에 따라, 서비스 요청에 응답하여 적어도 하나의 어플리케이션을 실행하는 제 1 코어 및 적어도 하나의 어플리케이션이 수반하는 패킷 프로세싱을 수행하는 제 2 코어의 조합을 결정한다. 본 발명의 실시예에 따르면 시스템 자원 요구량을 예측하기 어려운 저지연이 요구되는 서비스의 성능 저하 없이 에너지 효율성을 제공할 수 있다.

Description

다중 코어 할당 장치 및 방법
본 발명은 다중 코어 할당 장치 및 방법에 관한 것으로, 보다 상세하게는 서비스 부하에 기반하여 어플리케이션과 패킷 프로세싱에 대한 다중 코어 할당을 조정하는 장치 및 방법에 관한 것이다.
본 발명은 과학기술정보통신부의 지원을 받은 다음의 사업들의 일환으로 수행한 연구로부터 도출된 것이다. 1. 과제번호: 2020010088, 과제명: 실시간 자율 복원 사이버물리 시스템 기초 연구(고신뢰CPS연구센터) 2. 과제번호: 2020030004, 과제명: (3차) 암흑데이터 극한활용 연구센터 (ERC) 3. 과제번호: 2020030095, 과제명: 마이크로서비스 구조에서 사용자 서비스 수준 목표(SLO) 만족을 위한 컴퓨팅 자원 관리 기술 및 통합 관리 프레임워크 연구 및 개발
이하에서 기술되는 내용은 본 발명의 실시예와 관련되는 배경 정보를 제공할 목적으로 기재된 것일 뿐이고, 기술되는 내용들이 당연하게 종래기술을 구성하는 것은 아니다.
네트워크 인터페이스 컨트롤러(Network Interface Card; NIC)는 외부의 서버와 데이터를 주고 받기 위해 사용되는 I/O(Input/Output) 장치이다. NIC가 장착된 서버는 데이터 송신 및 수신을 위하여, 프로세서의 코어에서 데이터를 패킷의 형태로 변환시켜 데이터를 송신하거나 수신한 패킷을 원래의 데이터로 변환하는 작업인 패킷 프로세싱을 수행한다.
정적인 병렬 패킷 프로세싱은 과도한 병렬성으로 인한 불필요한 에너지 소모를 유발하고, 패킷 프로세싱 코어의 비정기적 활성화는 코어 스위칭으로 인한 에너지 소모가 발생한다.
한편, 저지연이 요구되는 서비스(Latency Critical Service)는 해당 서비스를 이용하는 사용자와의 규약인 SLO(Service Level Objective)를 만족해야 한다. 특히 저지연이 요구되는 서비스는 SLO의 규정 중, 유저가 서비스를 이용하기 위해 요청한 패킷들의 꼬리 지연시간(tail latency)이 규약된 시간을 만족하도록 보장해야 한다.
서버 장치에 대한 서비스 부하가 급증함에 따라 지연시간 및 에너지 효율성을 고려한 코어 할당 기술이 필요하다.
본 발명의 일 과제는, 서비스 부하에 기반하여 코어 할당 조합을 결정하는 다중 코어 할당 장치를 제공하는 것이다.
본 발명의 일 과제는, 오프라인 프로파일링에 기반하여 지연시간 및 에너지 효율성을 고려한 다중 코어 할당 방법을 제공하는 것이다.
본 발명의 목적은 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다.
또한, 본 발명의 목적 및 장점들은 청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 알 수 있을 것이다.
본 발명의 일 실시예에 따른 다중 코어 할당 장치는, 다중 코어 환경에서 실행 중인 적어도 하나의 어플리케이션에 대한 서비스 요청에 대응하는 서비스 부하를 모니터링하는 모니터링부 및 서비스 부하에 기반하여 다중 코어를 할당하는 코어할당부를 포함할 수 있다.
코어할당부는 서비스 부하의 변화에 따라, 서비스 요청에 응답하여 적어도 하나의 어플리케이션을 실행하는 제 1 코어 및 적어도 하나의 어플리케이션이 수반하는 패킷 프로세싱을 수행하는 제 2 코어의 조합을 결정하도록 구성된다.
본 발명의 일 실시예에 따른 다중 코어 할당 방법은, 모니터링부에 의해, 다중 코어 환경에서 실행 중인 적어도 하나의 어플리케이션에 대한 서비스 요청에 대응하는 서비스 부하를 모니터링하는 단계 및 코어할당부에 의해, 서비스 부하에 기반하여 다중 코어를 할당하는 단계를 포함할 수 있다.
다중 코어를 할당하는 단계는, 서비스 부하의 변화에 따라, 서비스 요청에 응답하여 적어도 하나의 어플리케이션을 실행하는 제 1 코어 및 적어도 하나의 어플리케이션이 수반하는 패킷 프로세싱을 수행하는 제 2 코어의 조합을 결정하는 단계를 포함할 수 있다.
전술한 것 외의 다른 측면, 특징, 및 이점이 이하의 도면, 청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
본 발명의 실시예에 따르면 패킷 프로세싱을 위한 코어의 수를 동적으로 조절하여, 코어의 낭비 없이 SLO를 만족하기 위한 최소한의 코어의 수를 제공할 수 있다.
본 발명의 실시예에 따르면 시스템 자원 요구량을 예측하기 어려운 저지연이 요구되는 서비스의 성능 저하 없이 에너지 효율성을 제공할 수 있다.
본 발명의 실시예에 따르면 별도의 비용 없이, 에너지 소모량에 따른 유지 비용이 큰 데이터 센터에 적용 시 데이터센터 전체 유지비용의 절감이 가능하다.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 실시예에 따른 다중 코어 할당 장치의 예시적인 동작 환경을 개략적으로 보여주는 도면이다.
도 2는 실시예에 따른 다중 코어 할당 장치의 블록도이다.
도 3은 실시예에 따른 다중 코어 할당 장치의 실행 환경을 설명하기 위한 도면이다.
도 4는 실시예에 따른 다중 코어 할당 방법의 흐름도이다.
도 5는 실시예에 따른 다중 코어 할당 방법의 세부 흐름도이다.
도 6은 예시적인 서비스 부하에 따른 제 1 코어 및 제 2 코어의 조합에 대한 매핑 테이블을 도시한다.
도 7은 실시예에 따른 다중 코어 할당 장치의 코어 할당 과정을 예시적으로 설명하기 위한 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시예들에 한정되지 않는다. 이하 실시예에서는 본 발명을 명확하게 설명하기 위해서 설명과 직접적인 관계가 없는 부분을 생략하지만, 본 발명의 사상이 적용된 장치 또는 시스템을 구현함에 있어서, 이와 같이 생략된 구성이 불필요함을 의미하는 것은 아니다. 아울러, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조번호를 사용한다.
이하의 설명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안되며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 또한, 이하의 설명에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하의 설명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 실시예에 따른 다중 코어 할당 장치의 예시적인 동작 환경을 개략적으로 보여주는 도면이다.
다중 코어 할당 장치(100)는 다양한 어플리케이션 환경에서 서비스 부하 변화에 따라 최적화된 다중 코어의 동적 할당을 제공할 수 있다.
일 예에서 다중 코어 할당 장치(100)는 네트워크(300) 환경에서 클라이언트(200)의 서비스 요청을 처리하는 서버일 수 있다. 서버는 네트워크(300)를 통해 클라이언트(200)의 서비스 요청을 수신하고, 서비스 요청에 대응하는 동작을 수행하고, 이에 대한 응답을 네트워크(300)를 통해 클라이언트(200)에 전송하는 서버일 수 있다.
다중 코어 할당 장치(100)는 후술할 도 2를 참조하여 프로세서(110) 및 메모리(120)를 포함하는 컴퓨팅 장치일 수 있다.
네트워크(300)는 유선 및 무선 네트워크, 예를 들어 LAN(local area network), WAN(wide area network), 인터넷(internet), 인트라넷(intranet) 및 엑스트라넷(extranet), 그리고 모바일 네트워크, 예를 들어 셀룰러, 3G, LTE, 5G, WiFi 네트워크, 애드혹 네트워크 및 이들의 조합을 비롯한 임의의 적절한 통신 네트워크 일 수 있다.
네트워크(300)는 허브, 브리지, 라우터, 스위치 및 게이트웨이와 같은 네트워크 요소들의 연결을 포함할 수 있다. 네트워크(300)는 인터넷과 같은 공용 네트워크 및 안전한 기업 사설 네트워크와 같은 사설 네트워크를 비롯한 하나 이상의 연결된 네트워크들, 예컨대 다중 네트워크 환경을 포함할 수 있다. 네트워크(300)에의 액세스는 하나 이상의 유선 또는 무선 액세스 네트워크들을 통해 제공될 수 있다.
도 2는 실시예에 따른 다중 코어 할당 장치의 블록도이다.
실시예에 따른 다중 코어 할당 장치(100)는 프로세서(110) 및 메모리(120)를 포함할 수 있다.
프로세서(110)는 일종의 중앙처리장치로서, 메모리(120)에 저장된 하나 이상의 명령어를 실행하여 다중 코어 할당 장치(100)의 동작을 제어할 수 있다. 프로세서(110)는 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다.
프로세서(110)는 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로서, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 이에 한정되는 것은 아니다. 프로세서(110)는 하나 이상의 프로세서를 포함할 수 있다. 프로세서(110)는 다중 코어(multicore)로 구성될 수 있다.
다중 코어 할당 장치(100)는 모니터링부(111) 및 코어할당부(112)를 더 포함할 수 있다.
모니터링부(111)는 프로세서(110)의 다중 코어에서 실행 중인 어플리케이션에 대한 서비스 요청에 대응하는 서비스 부하를 모니터링하고 서비스 부하를 코어할당부(112)에 전달할 수 있다.
코어할당부(112)는 모니터링부(111)로부터 수신한 서비스 부하에 기반하여 다중 코어를 할당할 수 있다.
코어할당부(112)는 모니터링부(111)로부터 획득한 서비스 부하의 변화에 따라, 사용자의 서비스 요청에 응답하여 적어도 하나의 어플리케이션을 실행하는 제 1 코어 및 이러한 적어도 하나의 어플리케이션이 수반하는 패킷 프로세싱을 수행하는 제 2 코어의 조합을 결정할 수 있다.
모니터링부(111) 및 코어할당부(112)는 프로세서(110)에 의해 실행가능한 프로그램으로 구현될 수 있다. 프로세서(110)는 메모리(120)에 저장된 해당 프로그램을 실행하여 모니터링부(111) 및 코어할당부(112)를 실행할 수 있다.
다중 코어 할당 장치(100)는 메모리(120)를 더 포함할 수 있다.
메모리(120)는 다중 코어 할당 장치(100)가 코어 할당 과정을 실행하기 위한 명령 등을 저장할 수 있다. 메모리(120)는 모니터링부(111) 및 코어할당부(112)의 동작을 구현한 실행가능한 프로그램을 저장할 수 있다.
프로세서(110)는 메모리(120)에 저장된 프로그램 및 명령어들에 기반하여 실시예에 따른 다중 코어 할당 과정을 실행할 수 있다.
메모리(120)는 후술할 오프라인 프로파일링을 수행한 결과로 생성된 정보(예를 들어 서비스 부하에 따른 제 1 코어 및 제 2 코어의 조합에 대한 매핑 테이블)를 더 저장할 수 있다.
메모리(120)는 내장 메모리 및/또는 외장 메모리를 포함할 수 있으며, DRAM, SRAM, 또는 SDRAM 등과 같은 휘발성 메모리, OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, NAND 플래시 메모리, 또는 NOR 플래시 메모리 등과 같은 비휘발성 메모리, SSD, CF(compact flash) 카드, SD 카드, Micro-SD 카드, Mini-SD 카드, Xd 카드, 또는 메모리 스틱(memory stick) 등과 같은 플래시 드라이브, 또는 HDD와 같은 저장 장치를 포함할 수 있다. 메모리(120)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 이에 한정되는 것은 아니다.
네트워크 인터페이스 컨트롤러(Network Interface Controller; NIC)(130)는 패킷 통신을 인터페이싱할 수 있는 통신 장치를 의미한다. 예를 들어 네트워크 인터페이스 컨트롤러(130)는 외부 장치로부터 패킷을 수신하거나 외부장치로 패킷을 송신할 수 있다.
버스(140)는 프로세서(110), 메모리(120) 및 네트워크 인터페이스 컨트롤러(130)를 연결하는 논리적/물리적 경로이다. 프로세서(110)는 버스(140)를 통해 메모리(120) 및 네트워크 인터페이스 컨트롤러(130)에 대한 읽기/쓰기(read/write)를 수행할 수 있다.
도 3은 실시예에 따른 다중 코어 할당 장치의 실행 환경을 설명하기 위한 도면이다.
NIC(130)는 외부 장치와 통신하기 위한 하드웨어로서, 패킷을 받거나 보내는 장치이다. NIC(130)는 외부 장치로부터 수신한 패킷을 네트워크 드라이버에게 전달한다.
네트워크 드라이버는 NIC(130)를 운영체제(Operating System; OS)가 사용할 수 있도록 도와주는 소프트웨어로 NIC(130)에 패킷이 도착했음을 운영체제에게 알려주고, 해당 패킷을 TCP/IP 스택으로 전달한다.
TCP/IP 스택은 패킷에서 정보가 담겨있는 IP와 Port를 추출하여 어떠한 어플리케이션에게 전달해야 할지를 파악하고, 패킷에서 데이터를 추출하여 이를 어플리케이션에게 전달한다.
어플리케이션은 데이터를 전달 받고, 어플리케이션 고유의 작업을 수행한다.
실시예에 따른 다중 코어 할당 장치(100)의 모니터링부(111) 및 코어할당부(112)는 운영체제 영역에서 작동한다. 모니터링부(111) 및 코어할당부(112)는 운영체제 영역에서 주기적으로 깨어나서 백그라운드(background)에서 작업을 수행하는 일종의 데몬(daemon) 프로세스로서 동작할 수 있다. 일 예에서 하나의 데몬이 모니터링부(111)와 코어할당부(112)를 실행할 수 있다.
모니터링부(111) 및 코어할당부(112)는 프로세서(110)에 포함된 다중 코어 중 하나의 코어에서 실행될 수 있다.
이하에서 도 4 및 도 5를 참조하여 실시예에 따른 다중 코어 할당 방법에 대하여 구체적으로 살펴본다.
도 4는 실시예에 따른 다중 코어 할당 방법의 흐름도이다.
실시예에 따른 다중 코어 할당 방법은 프로세서(110)에 의해 서비스 부하에 따라서, 적어도 하나의 어플리케이션을 실행하는 제 1 코어 및 이와 같은 적어도 하나의 어플리케이션이 수반하는 패킷 프로세싱을 수행하는 제 2 코어의 조합에 대한 오프라인 프로파일링을 수행하는 단계(S10)를 포함할 수 있다.
단계(S10)은 사전정의된 서비스 부하를 처리하기 위한 에너지 소모량 및 지연시간에 기반하여 각 사전정의된 서비스 부하에 대한 제 1 코어 및 제 2 코어의 조합을 결정하는 단계를 포함할 수 있다.
여기서 에너지 소모량은 사전정의된 서비스 부하를 처리하는 동안 프로세서(110)에서 소모된 에너지량을 의미한다. 지연시간은 서비스 요청에 대한 응답 지연시간을 의미한다.
구체적으로 살펴보면, 오프라인 프로파일링은 어플리케이션을 서비스하기 이전에 오프라인 프로파일링을 수행할 수 있는 환경에서 실행된다. 오프라인 프로파일을 수행할 수 있는 환경은 어플리케이션 서비스를 동작하는 서버 컴퓨터와 서비스 요청(request)을 생성하여 전송하는 클라이언트 컴퓨터를 포함한다.
오프라인 프로파일링 과정에서, 클라이언트 컴퓨터는 서비스 요청을 서버 컴퓨터에게 전송한다. 여기서 서버 컴퓨터는 실시예에 따른 다중 코어 할당 장치(100)에 대응한다.
서버 컴퓨터는 어플리케이션을 실행하는 서비스 코어의 수와 패킷 프로세싱을 수행하는 코어의 수의 가능한 조합 중 하나를 선택하고 해당 조합에 맞추어 서비스 코어와 패킷 프로세싱 코어를 할당한다.
예를 들어, 코어가 총 8개라고 가정하면, 서비스 코어를 위한 수는 1 내지 8개가 가능하고, 패킷 프로세싱을 위한 코어의 수 또한 1 내지 8개가 가능하고, 따라서 총 64가지의 조합이 가능하다.
이후 코어의 각 조합마다 일정 시간(예를 들어 5초) 동안 클라이언트 컴퓨터가 서비스 요청들을 소정의 서비스 부하(Service Load)로 서버 컴퓨터에게 전송한다. 여기서 서비스 부하는 RPS(Request Per Second)를 지표로 하여 표현될 수 있다.
이후 서버 컴퓨터는 상술한 일정 시간(예를 들어 5초) 동안 소비된 에너지와 서비스 요청에 대한 꼬리 지연시간 (Tail Latency)을 측정한다. 꼬리 지연시간이란, 사용자가 요청한 모든 패킷들의 지연시간들을 낮은 순서대로 나열하였을 때, 95th, 99th percentile latency 처럼 뒤쪽에 해당하는 패킷 지연시간을 의미한다.
결과적으로, 프로세서(110)는 오프라인 프로파일링을 실행한 결과 사전정의된 서비스 부하를 실행함에 있어서 소정의 지연시간 요구 조건을 만족하는 하나 이상의 제 1 코어 및 제 2 코어의 조합 중에서 에너지 소모량이 가장 낮은 코어의 조합을 해당 서비스 부하에 대한 제 1 코어 및 제 2 코어의 조합으로 결정할 수 있다. 여기서 소정의 지연시간 요구 조건은 95th 퍼센트 지연(95th percentile latency, P95) 혹은 99th 퍼센트 지연(99th percentile latency, P99) 메트릭을 적용할 수 있다.
이와 같은 과정을 모든 코어의 조합에서 소정의 RPS 범위마다 실행하여 꼬리 지연시간과 에너지 소비량을 측정하고, 최적의 코어 할당 조합을 결정한다. 오프라인 프로파일링이 완료되면, 각 코어 조합 및 RPS에 따른 꼬리 지연시간과 에너지 소비량이 저장된 데이터 결과를 구할 수 있다. 이로써 획득된 오프라인 프로파일링 결과는 메모리(120)에 저장될 수 있다.
일 예에서 프로세서(110)는 메모리(120)에, 오프라인 프로파일링의 결과를 각 서비스 부하에 대한 상기 제 1 코어 및 상기 제 2 코어의 조합의 매핑 테이블로 저장할 수 있다. 오프라인 프로파일링 결과에 대한 예시적인 매핑 테이블에 대하여는 도 6을 참조하여 후술한다.
실시예에 따른 다중 코어 할당 방법은 모니터링부(111)에 의해, 다중 코어 환경에서 실행 중인 적어도 하나의 어플리케이션에 대한 서비스 요청에 대응하는 서비스 부하를 모니터링하는 단계(S20) 및 코어할당부(112)에 의해, 서비스 부하에 기반하여 다중 코어를 할당하는 단계(S30)를 포함할 수 있다.
단계(S20)에서 모니터링부(111)는 다중 코어 환경에서 실행 중인 적어도 하나의 어플리케이션에 대한 서비스 요청에 대응하는 서비스 부하를 모니터링할 수 있다.
단계(S20)에서 모니터링부(111)는 단위 시간당 수신된 서비스 요청의 수에 기반하여 서비스 부하를 획득할 수 있다.
다중 코어 환경에서 실행 중인 어플리케이션은 사용자 측의 단말 장치에서 실행되는 클라이언트로부터 서비스 요청을 받고 이에 대한 응답을 단말 장치에게 전송한다. 일 예에서 서비스 부하는 단위 시간당 서비스 요청의 개수를 의미한다.
일 예에서, 모니터링부(111)는 운영체제에 포함된 네트워크 드라이버에서 측정되는 Request Packet Count 기능을 이용하여 Request Per Second (RPS)를 계산하고, 계산된 RPS에 따라 서비스 부하를 결정할 수 있다.
RPS는 단위 시간당 처리된 패킷의 개수로서 단위 시간당 서비스 요청의 개수, 즉 서비스 부하를 나타내는 지표가 된다. 이는 서비스 요청 및 이에 대한 처리는 하나 이상의 패킷에 대응하기 때문이다.
단계(S20)은 주기적으로 실행되어 서비스 부하를 모니터링할 수 있다. 예를 들어, 모니터링부(111)를 실행하는 데몬 프로세스의 실행 주기에 따라 단계(S20)을 실행할 수 있다.
단계(S30)에서 코어할당부(112)는 서비스 부하에 기반하여 다중 코어를 할당할 수 있다.
단계(S30)은 서비스 부하의 변화에 따라, 서비스 요청에 응답하여 적어도 하나의 어플리케이션을 실행하는 제 1 코어 및 적어도 하나의 어플리케이션이 수반하는 패킷 프로세싱을 수행하는 제 2 코어의 조합을 결정하는 단계를 포함할 수 있다.
여기서 제 1 코어는 적어도 하나의 어플리케이션을 실행하도록 생성된 적어도 하나의 스레드(thread)를 실행하는 적어도 하나의 코어에 대응한다. 제 2 코어는 적어도 하나의 어플리케이션이 수반하는 패킷 프로세싱을 수행하는 적어도 하나의 코어에 대응한다.
단계(S30)은 단계(S20)의 모니터링 결과 서비스 부하에 변화가 발생한 경우 수행될 수 있다.
단계(S30)에서 코어할당부(112)는, 단계(S10)에서 수행된 오프라인 프로파일링의 결과에 기반하여 서비스 부하에 대한 제 1 코어 및 제 2 코어의 조합을 결정할 수 있다.
예를 들어 코어할당부(112)는 메모리(120)에 저장된 오프라인 프로파일링 결과에 대한 매핑 테이블을 참조하여 현재의 서비스 부하에 대한 제 1 코어 및 제 2 코어의 조합을 결정할 수 있다.
일 예에서 코어 할당에 대한 조합은 제 1 코어의 수 및 제 2 코어의 수의 페어(pair)에 대응한다. 즉, 코어할당부(112)는 단계(S30)에서 제 1 코어의 수 및 제 2 코어의 수의 페어를 결정할 수 있다.
단계(S30)에서 코어할당부(112)는, 다중 코어 환경을 구성하는 하나 이상의 코어 중에서 제 1 코어의 수만큼의 코어를 적어도 하나의 어플리케이션을 실행하는 제 1 코어로 할당할 수 있다.
단계(S30)에서 코어할당부(112)는 다중 코어 환경을 구성하는 하나 이상의 코어 중에서 제 2 코어의 수만큼의 코어를 패킷 프로세싱을 수행하는 제 2 코어로 할당할 수 있다.
단계(S30)에 대하여는 도 5를 참조하여 구체적으로 후술한다.
단계(S30)이 완료되면 다음 실행 주기에 단계(S20)에서 모니터링부(111)가 실행된다.
도 5는 실시예에 따른 다중 코어 할당 방법의 세부 흐름도이다.
도 4를 참조하여 단계(S30)은 단계(S31), 단계(S32) 및 단계(S33)을 포함할 수 있다.
전술한대로 단계(S20)은 주기적으로 수행되고, 해당 주기마다 단계(S31)이 수행된다.
단계(S31)에서 코어할당부(112)는 단계(S20)에서 모니터링부(111)가 획득한 현재 서비스 부하(즉, 현재 RPS)와 이전 주기의 서비스 부하(즉, 이전 RPS)를 비교한다.
비교의 결과, 현재 서비스 부하와 이전 서비스 부하가 동일하면 코어할당부(112)의 실행이 종료되고 단계(S20)로 복귀한다. 현재 서비스 부하와 이전 서비스 부하가 상이하면 코어할당부(112)는 단계(S32) 및 단계(S33)을 실행한다.
단계(S32)에서 코어할당부(112)는 도 4를 참조하여 단계(S10)에서 수행된 오프라인 프로파일링의 결과에 기반하여 서비스 부하에 대한 제 1 코어 및 제 2 코어의 조합을 결정할 수 있다. 예를 들어, 코어할당부(112)는 메모리(120)에 저장된 매핑 테이블에 기초하여 현재 서비스 부하에 대한 최적의 코어 할당 조합을 결정할 수 있다.
단계(S33)에서 코어할당부(112)는 단계(S32)에서 결정된 조합에 기반하여 어플리케이션을 실행할 제 1 코어와 패킷 프로세싱을 처리할 제 2 코어를 할당할 수 있다.
일 예에서 결정된 최적의 코어 할당 조합에 따라 n개의 다중 코어 중, 가장 낮은 번호의 코어부터 순차적으로 할당할 수 있다.
예를 들어, 코어할당부(112)는 어플리케이션을 위한 코어 할당을 위해 운영체제에게 요청을 보내고, 운영체제는 낮은 번호 코어부터 순차적으로 제 1 코어를 할당할 수 있다. 예를 들어, 코어할당부(112)는 패킷 프로세싱을 위한 제 2 코어를 할당을 위해 운영체제의 네트워크 드라이버에게 요청을 보내어, 패킷 프로세싱을 위한 코어를 낮은 번호 코어부터 순차적으로 제 2 코어를 할당할 수 있다.
이와 같은 코어 할당 순서는 예시적인 것이며, 높은 번호 코어부터 순차적으로 할당하거나 코어 사용량이 가장 적은 코어부터 순차적으로 할당하는 것도 가능하며, 이에 제한되지 않는다.
또한, 코어할당부(112)는 제 1 코어를 할당한 후에 제 2 코어를 할당하거나 또는 제 2 코어를 할당한 후에 제 1 코어를 할당하거나 또는 동시에 제 1 코어 및 제 2 코어를 할당할 수 있다.
일 예에서 단계(S33)에서 코어할당부(112)는, 제 1 코어와 제 2 코어가 서로 중복되도록 할당할 수 있다. 예를 들어, 코어할당부(112)는 제 1 코어와 제 2 코어가 서로 최대로 겹치도록 할당할 수 있다. 이로써 비활성화 코어를 확보하고 에너지 소모량 및 지연시간이 감소될 수 있다.
구체적으로, 예를 들어 전체 코어가 8개인 다중 코어 환경에서 오프라인 프로파일링 결과에 따른 최적 코어 할당 조합이 제 1 코어 4개, 제 2 코어 4개인 경우, 코어할당부(112)는 제 1 코어를 1, 2, 3, 4번 코어에 할당하고, 제 2 코어를 제 1 코어와 동일한 코어인 1, 2, 3, 4번 코어에 할당할 수 있다. 또는 코어할당부(112)는 제 2 코어를 1, 2, 3, 4번 코어에 할당하고, 제 1 코어를 제 2 코어와 동일한 코어인 1, 2, 3, 4번 코어에 할당할 수 있다.
예를 들어, 전체 코어가 8개인 다중 코어 환경에서 오프라인 프로파일링 결과에 따른 최적 코어 할당 조합이 제 1 코어 3개, 제 2 코어 2개인 경우, 코어할당부(112)는 제 1 코어를 8, 7, 6번 코어에 할당하고, 제 2 코어를 제 1 코어가 할당된 8, 7, 6번 코어 중에서 선택된 2개의 코어에 할당할 수 있다. 또는, 코어할당부(112)는 제 2 코어를 8, 7번 코어에 할당하고, 제 1 코어를 제 2 코어가 할당된 8, 7번 및 나머지 코어 중 하나의 코어에 할당할 수 있다.
이후 패킷 프로세싱 코어에서 처리된 패킷 데이터는 메모리(120)에 저장되고, 패킷 데이터가 저장된 주소를 어플리케이션에 전달한다. 이와 반대로 어플리케이션에서 패킷을 송신하기 위해서, 송신할 데이터가 저장된 메모리(120)의 주소를 패킷 프로세싱 작업에 알려주고, 패킷 프로세싱 작업은 해당 데이터를 메모리(120)에서 읽어와서 패킷의 형태로 변환한다.
도 6은 예시적인 서비스 부하에 따른 제 1 코어 및 제 2 코어의 조합에 대한 매핑 테이블을 도시한다.
예를 들어 8개의 코어를 포함하는 다중 코어 환경에서, 테이블(a)는 제 1 서비스 부하에서의 매핑 테이블이고, 테이블(b)는 제 2 서비스 부하에서의 매핑 테이블이고, 테이블(c)는 제 3 서비스 부하에서의 매핑 테이블을 예시적으로 보여준다. 도시된 예에서 테이블(a), 테이블(b), 테이블(c)로 갈수록 서비스 부하의 양이 증가한다.
각 테이블의 가로축은 패킷 프로세싱을 위한 제 2 코어의 개수(1P, 2P, ... , 8P)이고, 세로축은 어플리케이션 수행을 위한 제 1 코어의 개수(1T, 2T, ..., 8T)를 나타낸다.
각 테이블의 셀의 값은 제 2 코어의 개수와 제 1 코어의 할당 조합에 대한 에너지 소모량을 수치화한 값이다. 예시에서, 각 테이블의 셀의 값은 제 2 코어의 개수와 제 1 코어의 개수의 페어에 대한 에너지 소모량을 제 2 코어와 제 1 코어에 전체 코어를 할당한 경우(즉, 8T-8P)의 에너지 소모량에 대하여 정규화한 값으로 설정되었다.
여기서 해당 코어 할당 조합에 대한 꼬리 지연시간이 SLO 규정을 만족하지 못하는 경우는 Vio.로 표기되어 있으며, 코어할당부(112)는 셀의 값이 Vio.인 코어 할당 조합은 코어 할당 시에 고려하지 않는다.
한편, 도 6에 도시된 결과에서 제 1 코어의 수와 제 2 코어의 수가 동일하거나 유사한 경우에 에너지 소모량이 상대적으로 적게 나타나는 경향이 있음을 알 수 있다.
도 7은 실시예에 따른 다중 코어 할당 장치의 코어 할당 과정을 예시적으로 설명하기 위한 도면이다.
코어할당부(112)는 다중 코어 중 하나에서 실행되어 서비스 부하에 따라 어플리케이션 실행을 위한 코어와 패킷 프로세싱을 위한 코어의 조합을 조정한다. 코어할당부(112)는 메모리(120)에 저장된 오프라인 프로파일링 결과에 기초하여 최적의 코어 할당 조합을 결정할 수 있다.
예를 들어, 오프라인 프로파일링 결과에 따라 현재 서비스 부하에 대한 최적의 코어 할당 조합은 어플리케이션 실행을 위한 제 1 코어 3개, 패킷 프로세싱을 위한 제 2 코어 2개(즉, T3-P2)인 경우, 순차적으로 해당 코어들을 할당할 수 있다. 여기서 제 1 코어와 제 2 코어는 서로 중복되도록 할당될 수 있다. 예를 들어, 서로 간의 중복이 최대가 되도록 제 1 코어와 제 2 코어를 할당할 수 있다.
이상에서 설명한 바와 같이, 실시예에 따른 다중 코어 할당 기법은 RSS(Receive Side Scaling)가 적용된 NIC를 사용하는 서버 환경을 확장하여, 서비스를 수행하기 위해 사용하는 코어의 수와 패킷 프로세싱을 수행하는 코어의 수를 서비스의 부하에 따라 동적으로 조절하고, SLO에 규약된 꼬리 지연시간을 보장하고 에너지 소비를 줄일 수 있다.
이를 위하여, 실시예에 따른 다중 코어 할당 기법은 서비스를 수행하기 위해 사용하는 코어의 수와 패킷 프로세싱을 위한 코어의 수를 가능한 모든 조합에서, 서비스 부하를 점차 증가시키며 에너지소비와 꼬리 지연시간을 측정하는 오프라인 프로파일 기법을 수행한다. 측정한 결과 중, 각 로드에 대하여 SLO의 위반 없이 에너지 소모가 가장 작은 조합을 탐색한다.
즉, 모니터링부(111)는 주기적으로 서비스 부하인 RPS(Request Per Seconds)를 측정한다. 코어할당부(112)는 이전에 측정된 RPS와 현재 측정된 RPS가 같은 지 판단한다. 만약 다를 경우, 코어할당부(112)는 현재 측정된 서비스 부하에서 SLO 위반 없이 에너지 소모를 최소화 할 수 있는 코어 할당의 조합을 메모리(120)에 저장된 오프라인 프로파일링 결과를 기반으로 찾아 적용한다.
실시예에 따른 다중 코어 할당 기법은, 지연시간에 민감한 서비스의 부하에 따라 서비스를 수행하는 코어 수와 패킷 프로세싱을 위한 코어 수를 동시에 조절하는 기법을 통합하여 도입하여, SLO를 위반하지 않으면서 활성화된 코어의 수를 줄여 비활성화 코어를 확보하고 에너지 소모를 줄일 수 있다.
한편, 실시예에 따른 다중 코어 할당 기법은 NIC 이외에도 SSD(Solid State Drive)를 비롯한 다양한 주변 I/O 장치에 대한 I/O 처리에도 적용가능하다.
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, SSD(Solid State Drive), SDD(Silicon Disk Drive), 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
이상 설명된 본 발명의 실시예에 대한 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (16)

  1. 다중 코어 환경에서 실행 중인 적어도 하나의 어플리케이션에 대한 서비스 요청에 대응하는 서비스 부하를 모니터링하는 모니터링부; 및
    상기 서비스 부하에 기반하여 상기 다중 코어를 할당하는 코어할당부
    를 포함하고,
    상기 코어할당부는,
    상기 서비스 부하의 변화에 따라,
    상기 서비스 요청에 응답하여 상기 적어도 하나의 어플리케이션을 실행하는 제 1 코어 및 상기 적어도 하나의 어플리케이션이 수반하는 패킷 프로세싱을 수행하는 제 2 코어의 조합을 결정하도록 구성되는,
    다중 코어 할당 장치.
  2. 제 1 항에 있어서,
    상기 모니터링부는,
    주기적으로 상기 서비스 부하를 모니터링하는,
    다중 코어 할당 장치.
  3. 제 1 항에 있어서,
    상기 모니터링부는,
    단위 시간당 수신된 상기 서비스 요청의 수에 기반하여 상기 서비스 부하를 획득하는,
    다중 코어 할당 장치.
  4. 제 1 항에 있어서,
    상기 서비스 부하 및 상기 서비스 부하에 따른 상기 제 1 코어 및 상기 제 2 코어의 조합에 대한 오프라인 프로파일링을 수행하는 프로세서
    를 더 포함하고,
    상기 프로세서는,
    사전정의된 서비스 부하를 처리하기 위한 에너지 소모량 및 지연시간에 기반하여 각 사전정의된 서비스 부하에 대한 상기 제 1 코어 및 상기 제 2 코어의 조합을 결정하도록 구성되는,
    다중 코어 할당 장치.
  5. 제 4 항에 있어서,
    상기 코어할당부는
    상기 오프라인 프로파일링의 결과에 기반하여 상기 서비스 부하에 대한 상기 제 1 코어 및 상기 제 2 코어의 조합을 결정하는,
    다중 코어 할당 장치.
  6. 제 4 항에 있어서,
    상기 오프라인 프로파일링의 결과를 각 서비스 부하에 대한 상기 제 1 코어 및 상기 제 2 코어의 조합의 매핑 테이블로 저장하는 메모리
    를 더 포함하는,
    다중 코어 할당 장치.
  7. 제 1 항에 있어서,
    상기 조합은 상기 제 1 코어의 수 및 상기 제 2 코어의 수의 페어(pair)에 대응하고,
    상기 코어할당부는,
    상기 다중 코어 환경을 구성하는 하나 이상의 코어 중에서 상기 제 1 코어의 수만큼의 코어를 상기 제 1 코어로 할당하고,
    상기 하나 이상의 코어 중에서 상기 제 2 코어의 수만큼의 코어를 상기 제 2 코어로 할당하는,
    다중 코어 할당 장치.
  8. 제 7 항에 있어서,
    상기 코어할당부는,
    상기 제 1 코어와 상기 제 2 코어가 서로 중복되도록 상기 제 1 코어 및 상기 제 2 코어를 할당하는,
    다중 코어 할당 장치.
  9. 모니터링부에 의해, 다중 코어 환경에서 실행 중인 적어도 하나의 어플리케이션에 대한 서비스 요청에 대응하는 서비스 부하를 모니터링하는 단계; 및
    코어할당부에 의해, 상기 서비스 부하에 기반하여 상기 다중 코어를 할당하는 단계
    를 포함하고,
    상기 다중 코어를 할당하는 단계는,
    상기 서비스 부하의 변화에 따라,
    상기 서비스 요청에 응답하여 상기 적어도 하나의 어플리케이션을 실행하는 제 1 코어 및 상기 적어도 하나의 어플리케이션이 수반하는 패킷 프로세싱을 수행하는 제 2 코어의 조합을 결정하는 단계
    를 포함하는,
    다중 코어 할당 방법.
  10. 제 9 항에 있어서,
    상기 모니터링하는 단계는,
    주기적으로 상기 서비스 부하를 모니터링하는,
    다중 코어 할당 방법.
  11. 제 9 항에 있어서,
    상기 모니터링하는 단계는,
    단위 시간당 수신된 상기 서비스 요청의 수에 기반하여 상기 서비스 부하를 획득하는 단계
    를 포함하는,
    다중 코어 할당 방법.
  12. 제 9 항에 있어서,
    프로세서에 의해, 상기 서비스 부하 및 상기 서비스 부하에 따른 상기 제 1 코어 및 상기 제 2 코어의 조합에 대한 오프라인 프로파일링을 수행하는 단계
    를 더 포함하고,
    상기 오프라인 프로파일링을 수행하는 단계는,
    사전정의된 서비스 부하를 처리하기 위한 에너지 소모량 및 지연시간에 기반하여 각 사전정의된 서비스 부하에 대한 상기 제 1 코어 및 상기 제 2 코어의 조합을 결정하는 단계
    를 포함하는,
    다중 코어 할당 방법.
  13. 제 12 항에 있어서,
    상기 제 1 코어 및 상기 제 2 코어의 조합을 결정하는 단계,
    상기 오프라인 프로파일링의 결과에 기반하여 상기 서비스 부하에 대한 상기 제 1 코어 및 상기 제 2 코어의 조합을 결정하는 단계
    를 포함하는,
    다중 코어 할당 방법.
  14. 제 12 항에 있어서,
    메모리에, 상기 오프라인 프로파일링의 결과를 각 서비스 부하에 대한 상기 제 1 코어 및 상기 제 2 코어의 조합의 매핑 테이블로 저장하는 단계
    를 더 포함하는,
    다중 코어 할당 방법.
  15. 제 9 항에 있어서,
    상기 조합은 상기 제 1 코어의 수 및 상기 제 2 코어의 수의 페어(pair)에 대응하고,
    상기 다중 코어를 할당하는 단계는,
    상기 다중 코어 환경을 구성하는 하나 이상의 코어 중에서 상기 제 1 코어의 수만큼의 코어를 상기 제 1 코어로 할당하는 단계; 및
    상기 하나 이상의 코어 중에서 상기 제 2 코어의 수만큼의 코어를 상기 제 2 코어로 할당하는 단계
    를 포함하는,
    다중 코어 할당 방법.
  16. 제 15 항에 있어서,
    상기 다중 코어를 할당하는 단계는,
    상기 제 1 코어와 상기 제 2 코어가 서로 중복되도록 상기 제 1 코어 및 상기 제 2 코어를 할당하는 단계
    를 더 포함하는
    다중 코어 할당 장치.
PCT/KR2021/009997 2020-12-28 2021-07-30 다중 코어 할당 장치 및 방법 WO2022145613A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200185101A KR102442675B1 (ko) 2020-12-28 2020-12-28 다중 코어 할당 장치 및 방법
KR10-2020-0185101 2020-12-28

Publications (1)

Publication Number Publication Date
WO2022145613A1 true WO2022145613A1 (ko) 2022-07-07

Family

ID=82260475

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/009997 WO2022145613A1 (ko) 2020-12-28 2021-07-30 다중 코어 할당 장치 및 방법

Country Status (2)

Country Link
KR (1) KR102442675B1 (ko)
WO (1) WO2022145613A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115981819A (zh) * 2022-12-30 2023-04-18 摩尔线程智能科技(北京)有限责任公司 用于多核系统的核心调度方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070234365A1 (en) * 2006-03-30 2007-10-04 Savit Jeffrey B Computer resource management for workloads or applications based on service level objectives
US20160269319A1 (en) * 2015-03-13 2016-09-15 Microsoft Technology Licensing, Llc Intelligent Placement within a Data Center
KR20170139763A (ko) * 2016-06-10 2017-12-20 한국전자통신연구원 네트워크 서비스 검출 방법 및 이를 위한 장치
US10020979B1 (en) * 2014-03-25 2018-07-10 A10 Networks, Inc. Allocating resources in multi-core computing environments
KR20200112439A (ko) * 2019-03-22 2020-10-05 삼성전자주식회사 멀티 코어를 포함하는 전자 장치 및 이의 패킷 처리를 위한 방법
US20200348979A1 (en) * 2019-05-01 2020-11-05 EMC IP Holding Company LLC Adaptive Controller for Online Adaptation of Resource Allocation Policies for Iterative Workloads Using Reinforcement Learning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070234365A1 (en) * 2006-03-30 2007-10-04 Savit Jeffrey B Computer resource management for workloads or applications based on service level objectives
US10020979B1 (en) * 2014-03-25 2018-07-10 A10 Networks, Inc. Allocating resources in multi-core computing environments
US20160269319A1 (en) * 2015-03-13 2016-09-15 Microsoft Technology Licensing, Llc Intelligent Placement within a Data Center
KR20170139763A (ko) * 2016-06-10 2017-12-20 한국전자통신연구원 네트워크 서비스 검출 방법 및 이를 위한 장치
KR20200112439A (ko) * 2019-03-22 2020-10-05 삼성전자주식회사 멀티 코어를 포함하는 전자 장치 및 이의 패킷 처리를 위한 방법
US20200348979A1 (en) * 2019-05-01 2020-11-05 EMC IP Holding Company LLC Adaptive Controller for Online Adaptation of Resource Allocation Policies for Iterative Workloads Using Reinforcement Learning

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115981819A (zh) * 2022-12-30 2023-04-18 摩尔线程智能科技(北京)有限责任公司 用于多核系统的核心调度方法和装置
CN115981819B (zh) * 2022-12-30 2023-10-24 摩尔线程智能科技(北京)有限责任公司 用于多核系统的核心调度方法和装置

Also Published As

Publication number Publication date
KR102442675B1 (ko) 2022-09-08
KR20220093923A (ko) 2022-07-05

Similar Documents

Publication Publication Date Title
WO2014104634A1 (en) System and method for dynamically expanding virtual cluster and recording medium on which program for executing the method is recorded
US10459754B2 (en) Method, apparatus, and system for discovering application topology relationship
JP5737050B2 (ja) 情報処理装置、割込み制御方法および割込み制御プログラム
WO2019117593A1 (ko) 컨테이너 기반의 자원 할당을 지원하는 클라우드 컴퓨팅 장치 및 방법
Xu et al. iAware: Making live migration of virtual machines interference-aware in the cloud
JP2002215408A (ja) 計算機およびその入出力手段
WO2014025145A1 (en) Method and apparatus for processing message between processors
WO2018161478A1 (zh) 多区块链的分片处理方法、装置、服务器和存储介质
JP2009181578A (ja) 複数の仮想マシンに対して動的にリソースを割当てる方法及び装置
US9934062B2 (en) Technologies for dynamically allocating hardware acceleration units to process data packets
WO2013133621A1 (ko) 이종의 운영체제를 사용하는 가상화 시스템의 전력 관리 방법 및 장치
WO2012067431A2 (en) Resource distribution apparatus and method in cloud computing
Guan et al. CIVSched: A communication-aware inter-VM scheduling technique for decreased network latency between co-located VMs
EP4270204A1 (en) Multi-cloud interface adaptation method and system based on micro-service, and storage medium
WO2022145613A1 (ko) 다중 코어 할당 장치 및 방법
Hu et al. Towards" full containerization" in containerized network function virtualization
WO2017082505A1 (ko) 멀티 운영시스템을 지닌 전자장치 및 이의 동적 메모리 관리 방법
WO2019240400A1 (ko) 가상화 환경에서의 자원 할당 방법 및 장치
Li et al. Analyzing open-source serverless platforms: Characteristics and performance
Xu et al. Enhancing performance and energy efficiency for hybrid workloads in virtualized cloud environment
WO2018008933A1 (ko) 단일 인터넷 회선을 이용한 가상 cpe 서비스 제공 방법 및 네트워크 펑션 가상화 클라우드
JP2011203810A (ja) サーバ、計算機システム及び仮想計算機管理方法
WO2012148038A1 (ko) 가상네트워크 환경에서의 자원 할당 방법 및 장치
Checconi et al. Real-time issues in live migration of virtual machines
WO2020222407A1 (ko) 머신 러닝 플랫폼 관리 시스템 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21915411

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21915411

Country of ref document: EP

Kind code of ref document: A1