WO2023153898A1 - 하드웨어 자원을 관리하는 전자 장치 및 그 동작 방법 - Google Patents

하드웨어 자원을 관리하는 전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2023153898A1
WO2023153898A1 PCT/KR2023/002073 KR2023002073W WO2023153898A1 WO 2023153898 A1 WO2023153898 A1 WO 2023153898A1 KR 2023002073 W KR2023002073 W KR 2023002073W WO 2023153898 A1 WO2023153898 A1 WO 2023153898A1
Authority
WO
WIPO (PCT)
Prior art keywords
physical channels
amount
electronic device
hardware resources
latency
Prior art date
Application number
PCT/KR2023/002073
Other languages
English (en)
French (fr)
Inventor
조현아
김현지
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220031051A external-priority patent/KR20230122491A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2023153898A1 publication Critical patent/WO2023153898A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0893Assignment of logical groups to network elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/80Actions related to the user profile or the type of traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/83Admission control; Resource allocation based on usage prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/16Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]

Definitions

  • Various embodiments relate to an electronic device that manages hardware resources for interaction with a radio unit of a network and an operating method thereof.
  • a distributed unit (DU) and a radio unit (or remote unit, RU) of the base station are installed in a cell site.
  • this all-in-one implementation has physical limitations. For example, in accordance with an increase in service subscribers or traffic, an operator must newly build a base station in a cell site.
  • a centralized radio access network (C-RAN) or cloud RAN (C-RAN) structure has been implemented.
  • the C-RAN may have a structure in which DUs are placed in one physical location and RUs are placed in a cell site that transmits and receives radio signals with an actual user equipment (UE).
  • DU and RU may be connected by optical cable or coaxial cable.
  • a standard for communication between them is required, and a standard such as CPRI (Common Public Radio Interface) is used between the RU and the DU.
  • CPRI Common Public Radio Interface
  • the base station structure is being standardized in the 3rd Generation Partnership Project (3GPP), and discussions on an open radio access network (O-RAN), which is an open network standard that can be applied to 5G systems, are underway.
  • O-RAN replaces existing 3GPP NEs, RU, DU, CU-CP (central unit-control plane), and CU-UP (central unit-user plane), respectively, with O-RU, O-DU, O-CU-CP, It is newly defined as O-CU-UP (which can be collectively referred to as O-RAN base station), and additionally proposes RIC (RAN Intelligent Controller) and NRT-RIC (non-real-time RAN Intelligent Controller) .
  • RIC RAN Intelligent Controller
  • NRT-RIC non-real-time RAN Intelligent Controller
  • multiple containers can share limited hardware resources.
  • hardware resources are fixedly allocated to containers without considering traffic between RUs and DUs, there may be a possibility that hardware resources are used inefficiently according to traffic that changes in real time.
  • traffic for each physical channel may be changed for each slot, and in this case, a fixed hardware resource allocation method may be inefficient.
  • An electronic device and an operating method thereof may allocate a plurality of physical channels to hardware resources based on an amount of prediction operation based on radio resource allocation information for each of a plurality of physical channels and an amount of operation available for each hardware resource.
  • a method of operating an electronic device includes an operation of checking radio resource allocation information for each of a plurality of physical channels in a first slot based on a control plane message including radio resource allocation information for the first slot Based on the radio resource allocation information for each of the plurality of physical channels, an operation of checking each of the predicted operation amount for each of the plurality of physical channels, an operation of checking an available operation amount for each of a plurality of hardware resources supported by the electronic device, and and allocating each of the plurality of physical channels to at least some of the plurality of hardware resources based on the amount of computation available for each of the plurality of hardware resources and the amount of prediction computation for each of the plurality of physical channels.
  • an electronic device includes a memory and at least one processor operatively coupled to the memory, wherein the memory, when executed, causes the at least one processor to select radio resources for a first slot.
  • radio resource allocation information for each of a plurality of physical channels in the first slot is identified, and based on the radio resource allocation information for each of a plurality of physical channels, Checking each of the prediction computation amounts, checking the available computation amount for each of a plurality of hardware resources supported by the electronic device, and based on the available computation amount for each of the plurality of hardware resources and the prediction computation amount for each of the plurality of physical channels, the plurality of At least one instruction causing each physical channel to be allocated to at least a portion of a plurality of hardware resources may be stored.
  • a method of operating an electronic device may determine a first radio resource allocation amount and a second radio resource allocation amount of a first physical channel in a first slot based on a control plane message including radio resource allocation information for a first slot.
  • the operation of checking the second radio resource allocation amount of the physical channel and the operation corresponding to the first radio resource allocation amount and the second radio resource allocation amount can be performed by the first hardware resource supported by the electronic device, the first radio resource allocation amount
  • an electronic device capable of allocating a plurality of physical channels to hardware resources based on a prediction operation amount based on radio resource allocation information for each of a plurality of physical channels and an available operation amount for each hardware resource, and an operating method thereof are provided It can be.
  • FIG. 1A shows a block diagram illustrating a RIC, a RAN, and a core network (CN) according to various embodiments.
  • 1B is a block diagram illustrating a hardware configuration of an electronic device according to various embodiments.
  • FIG. 2 is a block diagram illustrating an entity for hardware resource allocation according to various embodiments.
  • 3A is a flowchart illustrating an operation of an electronic device according to various embodiments.
  • 3B is a flowchart illustrating transmission and reception of control plane messages and user plane data according to various embodiments.
  • 4 is a diagram for explaining allocation of hardware resources of physical channels according to various embodiments.
  • FIG. 5 is a flowchart illustrating an operation of an electronic device according to various embodiments.
  • 6 is a diagram for explaining allocation of hardware resources of physical channels according to various embodiments.
  • FIG. 7 is a flowchart illustrating an operation of an electronic device according to various embodiments.
  • FIG. 8 is a flowchart illustrating an operation of an electronic device according to various embodiments.
  • FIG. 9 is a flowchart illustrating an operation of an electronic device according to various embodiments.
  • FIG. 10 is a diagram for explaining physical channel allocation according to a comparative example for comparison with various embodiments and physical channel allocation according to various embodiments.
  • 11 is a diagram for explaining physical channel allocation according to a comparative example for comparison with various embodiments and physical channel allocation according to various embodiments.
  • FIG. 1A shows a block diagram illustrating a RIC, a RAN, and a core network (CN) according to various embodiments.
  • the RAN 150 includes at least one distributed unit (DU) 151, at least one central unit-control plane (CU-CP) 152, or at least one central unit CU-UP. -user plane) (153).
  • DU distributed unit
  • CU-CP central unit-control plane
  • CU-UP central unit-UP. -user plane
  • RAN 150 is shown as being connected to at least one RU (remote unit, or radio unit) 161, this is exemplary and at least one RU 161 is connected to the RAN 150, or or included in the RAN 150 .
  • RAN 150 may be C-RAN or O-RANN, and if it is O-RAN, DU 151 may be O-DU, and CU-CP 152 may be O-CU-CP CU-UP 153 may be O-CU-UP, and RU 161 may be O-RU.
  • the RU 161 may communicate with a user equipment (UE) 160 .
  • RU 161 may be a logical node that provides lower physical layer (low-PHY) functions and RF processing.
  • the DU 151 may be a logical node providing RLC, MAC, and high-PHY functions, and may be connected to the RU 161, for example.
  • the CUs 152 and 153 may be logical nodes that provide functions of radio resource control (RRC), service data adaptation protocol (SDAP), and packet data convergence protocol (PDCP) protocols.
  • CU-CP 152 may be a logical node providing functions of the control plane portion of RRC and PDCP.
  • CU-UP 153 may be a logical node providing the functionality of the user plane part of SDAP and PDCP.
  • the core network (eg, 5GC 5th generation core) 154 includes an access and mobility management function (AMF) 155, a user plane function (UPF) 156, or a session management function (SMF).
  • Function 157 may include at least one.
  • the AMF 155 may provide a function for managing access and mobility of each UE 160 .
  • SMF 156 may provide session management functions.
  • the UPF 156 may forward downlink data received from the data network to the UE 160 or uplink data received from the UE 160 to the data network.
  • the CU-CP 152 may be connected to the AMF 155 through an N2 interface (or NGAP interface).
  • the AMF 155 may be connected to the SMF 157 through an N11 interface.
  • the CU-UP 153 may be connected to the UPF 153 through an N3 interface.
  • the RIC 101 may customize RAN functionality for service or regional resource optimization.
  • RIC 101 is responsible for network intelligence (e.g. policy enforcement, handover optimization), resource assurance (e.g. radio-link management, enhancement may provide at least one function of advanced self-organized-network (SON), resource control (eg, load balancing, or slicing policy), and RIC (101 )
  • network intelligence e.g. policy enforcement, handover optimization
  • resource assurance e.g. radio-link management, enhancement may provide at least one function of advanced self-organized-network (SON)
  • resource control eg, load balancing, or slicing policy
  • RIC 101
  • the RIC 101 may transmit and/or receive E2 messages 191 and 192 with the RAN 150.
  • the RIC 101 may be connected to the DU 151 through an E2-DU interface.
  • the RIC 101 may be connected to the CU-CP 152 through an E2-CP interface.
  • the RIC 101 may be connected to the CU-UP 153 through an E2-UP interface.
  • At least one interface between the RIC 101 and the RAN 150 may be referred to as an E2 interface.
  • the RIC 101 is shown as a separate device from the RAN 150, this is exemplary and the RIC 101 can be implemented as a separate device from the RAN 150, or as a single device It may also be possible to implement
  • the RIC 101 sends E2 messages 191 and 192 to an E2 node (eg, at least one of the DU 151, CU-CP 152, or CU-UP 153). Can transmit and / or receive.
  • the E2 node may include (or provide) an E2 node function.
  • the E2 node function can be set based on a specific xApp (application S/W) installed in the RIC (101). If a KPI monitor function is provided, KPI monitor collection S/W may be installed in the RIC 101.
  • the E2 node may generate KPI parameters and may include an E2 node function that forwards an E2 message 191 containing the KPI parameters to an E2 termination function located in the RIC 101.
  • the E2 termination function located in the RIC 101 is the termination of the RIC 101 for the E2 message, and can transmit the E2 message transmitted by the E2 node to xApp after interpreting it.
  • the RIC 101 may provide information related to the operation of the RAN 150 to the RAN 150 in an E2 message 192.
  • the RIC 101 can deploy xAPP, and the xAPP deployed in the RIC 101 can subscribe to the E2 node.
  • the xAPP may periodically or aperiodically receive an E2 message from the subscribed E2 node. Meanwhile, it may be understood that at least some of the operations performed by the RIC 101 in the present disclosure are performed by a deployed xApp.
  • xAPP may include at least one instruction to perform at least some of the operations performed by the RIC 101 in the present disclosure.
  • the operation performed by the electronic device in the present disclosure may be performed by the RIC 101 and/or the RAN 150 (eg, the DU 151).
  • 1B is a block diagram illustrating a hardware configuration of an electronic device according to various embodiments.
  • the electronic device 102 may include at least one of a processor 120 , a storage device 130 , and a communication module 190 .
  • the electronic device 102 may be set to perform an operation of the RAN 150 (or DU 151), or may store at least one instruction for performing the operation.
  • the electronic device 102 is configured to perform an operation of the DU 151 in a C-RAN environment or an O-RAN environment (or an application related to the DU 151, or an application associated with the DU 151). It can be a device (or system) for running associated Pods.
  • the electronic device 102 may execute a container (or virtual machine) of an application (or pod) associated with the DU 151 on, for example, Kubernetes orchestration, but its execution form there is no limit to In another example, it may be configured to perform an operation of the RIC 101, or store at least one instruction for performing an operation. In this case, the electronic device 102 is used to perform the operation of the RIC 101 in the O-RAN environment (or to execute an application associated with the RIC 101 or a Pod associated with the RIC 101). ) device (or system). The electronic device 102 can execute an application (or pod) associated with the RIC 101 as a container (or virtual machine) on Kubernetes orchestration, but there is no limitation on the execution form.
  • the processor 120 executes software (eg, a program) to at least one other component (eg, hardware or software configuration) of the electronic device 102 connected to the processor 120. element), and can perform various data processing or calculations.
  • Software may include, but is not limited to, applications, Pods, or xAPPs, for example.
  • the processor 120 stores instructions or data received from other components in the storage device 130, and stores the instructions or data stored in the storage device 130. It can be processed, and the resulting data can be stored in the storage device 130 .
  • the processor 120 includes at least one central processing unit (CPU), at least one graphical processing unit (GPU), at least one application processor, and at least one neural network. It may include at least some of a neural processing unit (NPU), a stream multiprocessor (SM), or a communication processor, but the type of processor 120 is not limited.
  • the neural network processing device may include a hardware structure specialized for processing an artificial intelligence model.
  • the artificial intelligence model may include machine learning (eg, reinforcement learning, supervised learning, unsupervised learning, or semi-supervised learning), but in the above example
  • the artificial intelligence model may include, but is not limited to, a plurality of artificial neural network layers, such as a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), and a restricted neural network (RBM) boltzmann machine), deep belief network (DBN), bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the above examples.
  • the artificial intelligence model may additionally or alternatively include a software structure in addition to the hardware structure
  • the storage device 130 is not limited as long as it is a device capable of storing data such as a disk (eg, HDD) will understand
  • the storage device 130 may store various data used by at least one component (eg, the processor 120 and/or the communication module 190) of the electronic device 102.
  • Data may include, for example, input data or output data for software and related instructions.
  • the communication module 190 may transmit and receive data with other entities.
  • the communication module 190 can transmit and receive data with the RU 161 and/or with the RIC 101. Data can be sent and received.
  • the communication module 190 may transmit/receive data with an E2 entity including the DU 151 .
  • FIG. 2 is a block diagram illustrating an entity for hardware resource allocation according to various embodiments.
  • the electronic device 102 may include (or execute) a hardware entity 230 .
  • the hardware entity 230 may include at least one of the first GPU 231, the second GPU 232, the first CPU 233, or the second CPU 234, but the number and /or type is not limited.
  • the first GPU 231 and the second GPU 232 may mean two independent GPUs in one example, or may mean different instances of one GPU in another example.
  • the first CPU 233 and the second CPU 234 may mean two independent CPUs in one example, or may mean different cores in one CPU in another example.
  • the hardware resource is not limited as long as it is a unit capable of independent operation (or isolation). In FIG.
  • the Kubernetes orchestration 220 may execute an application (or pod) based on a container (or virtual machine), and may allocate at least one of hardware resources 231, 232, 233, and 234 to the container. there is.
  • the Kubernetes orchestration 220 assigning a specific application (or pod) to a specific hardware resource means, for example, execution of an instruction and/or data storage corresponding to the specific application (or pod). It may mean that it is performed by a specific hardware resource.
  • the Kubernetes orchestration 220 may allocate an application (or pod) of the hardware resource allocation orchestrator 210 to at least one hardware resource.
  • the hardware resource allocation orchestrator 210 may allocate each of a plurality of physical channels of the network to at least some of the hardware resources 231 , 232 , 233 , and 234 .
  • the hardware resource allocation orchestrator 210 may allocate a physical downlink control channel (PDCCH) to the first GPU 231 for the first slot, and assign information about the allocation of the PDCCH to the DU 151.
  • PDCCH physical downlink control channel
  • the DU 151 may process data related to the PDCCH during the first slot using the first GPU 231 .
  • the hardware resource allocation orchestrator 210 may allocate the PDCCH to the second GPU 232 for the second slot, and may provide PDCCH allocation information to the DU 151 .
  • the DU 151 may process data related to the PDCCH during the second slot using the second GPU 232 .
  • the hardware resource allocation orchestrator 210 may allocate a physical downlink shared channel (PDSCH) to the first GPU 231 with respect to the first slot, and the PDSCH allocation information to the DU 151 can provide The DU 151 may process data related to the PDSCH during the first slot using the first GPU 231 .
  • PDSCH physical downlink shared channel
  • the hardware resource allocation orchestrator 210 may allocate each of a plurality of physical channels for a specific slot to at least some of the hardware resources 231, 232, 233, and 234, and the DU 151 may allocate An operation associated with each of the physical channels may be performed using the identified hardware resource based on the information.
  • the hardware resource allocation orchestrator 210 may be executed, for example, by the electronic device 102, and the operation performed by the hardware resource allocation orchestrator 210 in the present disclosure is performed by the electronic device 102. can be understood as being performed.
  • the hardware resource allocation orchestrator 210 is shown as being executed on the Kubernetes orchestration 220 that executes the DU 151, which means that the electronic device 102 executes the DU ( 151) may correspond to the case of an electronic device for executing.
  • the hardware resource allocation orchestrator 210 may be executed on a Kubernetes orchestration (not shown) that executes the RIC 101, and in this case, information about hardware resource allocation is transmitted through the E2 interface to a DU ( 151) will be understood by those skilled in the art.
  • the hardware resource allocation orchestrator 210 includes a workload calculation unit 211, a latency prediction unit 212, a hardware resource monitoring unit 213, log data 214, and a resource allocation determination unit. (215).
  • the workload calculation unit 211, the latency estimation unit 212, the hardware resource monitoring unit 213, the log data 214, and the resource allocation determination unit 215 are, for example, a hardware resource allocation orchestrator.
  • An entity included in 210 may be implemented as an instruction set or may be implemented as an independent application (or pod).
  • the log data 214 may refer to an entity capable of reading log data included in a storage device defined by the hardware entity 230 and/or writing new log data. may be
  • the workload calculator 211 may calculate each amount of operation corresponding to each of a plurality of physical channels in a specific slot. For example, the workload calculator 211 calculates a plurality of physical data in a specific slot based on a control plane message provided from the L2 entity (or layer) 201 of the DU 151 to the RU 161. Each of the computation amounts corresponding to each of the channels may be calculated. For example, the workload calculation unit 211 may check the amount of radio resources allocated to a specific channel in a specific slot based on the RB and/or symbol of the specific physical channel included in the control plane message. The workload calculation unit 211 may calculate an amount of operation for data processing of a specific channel based on the checked amount of radio resources.
  • the amount of computation for data processing may be different for each physical channel, for example, but may be identically set.
  • the workload calculator 211 may calculate an amount of operation for each of a plurality of physical channels in a specific slot. Meanwhile, the unit of the above-described slot is simply an example, and there is no limitation on the time unit of the amount of operations corresponding to each of the plurality of physical channels calculated by the workload calculation unit 211 .
  • the latency predictor 212 may calculate an amount of operation corresponding to each of a plurality of physical channels based on information stored in the log data 214 .
  • the log data 214 may include information related to radio resource allocation information for a specific channel in the past and an amount of computation when the information was processed by specific hardware.
  • Table 1 is an example of log data 214 .
  • the hardware resource allocation orchestrator 210 may store and/or manage a processing history in the past as shown in Table 1.
  • the workload calculation unit 211 may predict the amount of operation for each physical channel for the current slot based on the log data 214 as shown in Table 1. For example, the amount of operation of A1 was actually required to process the PDCCH of the radio resource allocation amount of R1, the amount of operation of A2 was actually required to process the PDCCH of the radio resource allocation amount of R2, and the PDSCH of the radio resource allocation amount of R1 was actually consumed.
  • a history of the fact that the amount of processing of A3 was actually consumed and the amount of processing of A4 was actually used to process the PDSCH of the radio resource allocation amount of R2 may be stored and/or managed.
  • the workload calculation unit 211 may predict the amount of operation for each physical channel in the current slot based on the log data 215 . For example, when the R1 radio resource is allocated to the PDCCH in the current slot, the workload calculation unit 211 calculates the amount of operation of A1 for the PDCCH in the current slot based on the log data 215 shown in Table 1. can predict Alternatively, for example, when radio resources of R3 that are not included in the log data 215 are allocated to the PDCCH in this slot, the workload calculation unit 211 calculates log data 215 as shown in Table 1. An operation amount for the PDCCH of this slot can be estimated based on .
  • the workload calculation unit 211 may predict the amount of operation based on a linear relationship between the amount of radio resource allocation and the amount of operation, but the linear relationship is merely illustrative and the method of estimating the amount of operation is not limited. will be understood by those skilled in the art.
  • the workload calculation unit 211 may check the amount of operation for each physical channel of a specific slot by using calculation based on the radio resource allocation amount for each physical channel and/or using the existing log data 215.
  • the hardware resource monitoring unit 213 may monitor the amount of available computation of the hardware resources 231 , 232 , 233 , and 234 . Each of the hardware resources 231 , 232 , 233 , and 234 may have a maximum available amount of computation.
  • the maximum available operation amount corresponding to a corresponding device.
  • the maximum amount of available computation may be set according to constraints on hardware resources for each instance.
  • at least some of the hardware resources 231 , 232 , 233 , and 234 may perform other types of operations in addition to operations associated with physical channels.
  • the available computation amount of each of the hardware resources 231, 232, 233, and 234 may be changed in real time, and the hardware resource monitoring unit 213 may monitor the available computation amount of the hardware resources 231, 232, 233, and 234 in real time.
  • the resource allocation determination unit 215 may check the amount of operation of each of the plurality of physical channels provided from the workload calculation unit 211 .
  • the resource allocation determining unit 215 may check available computational amounts of the plurality of hardware resources 231 , 232 , 233 , and 234 provided from the hardware resource monitoring unit 213 .
  • the resource allocation determining unit 215 assigns each of the plurality of physical channels to at least one of the plurality of hardware resources 231 , 232 , 233 , and 234 based on the amount of operation of each of the plurality of physical channels and the amount of available operation of the plurality of hardware resources 231 , 232 , 233 , and 234 . can be assigned to some
  • the resource allocation determiner 215 may allocate each of the physical channels so that the amount of available operation of a specific hardware resource is greater than the amount of operation of a specific physical channel.
  • the resource allocation determining unit 215 may allocate each of the plurality of physical channels to at least some of the plurality of hardware resources 231 , 232 , 233 , and 234 based on the latency.
  • the resource allocation determiner 215 may determine a plurality of allocation policies based on the amount of processing of each of the plurality of physical channels and the amount of available processing of the plurality of hardware resources 231 , 232 , 233 , and 234 .
  • the allocation policy may refer to a policy to which each of a plurality of physical channels is allocated.
  • the physical channels may be allocated so that the amount of available operation of a specific hardware resource is greater than the amount of operation of a specific physical channel, and accordingly, a plurality of allocation policies may be identified.
  • the latency predictor 212 may predict latency for each of a plurality of allocation policies. For example, the latency predictor 212 may calculate an operation amount corresponding to each of a plurality of physical channels based on information stored in the log data 214 .
  • the log data 214 may include association information between an amount of computation for a specific channel in the past and a latency when the computation was processed in specific hardware. Table 2 is an example of log data 214 .
  • the hardware resource allocation orchestrator 210 may store and/or manage a processing history in the past as shown in Table 2.
  • the latency predictor 212 may predict the amount of operation for each allocation policy for the current slot based on the log data 214 as shown in Table 2. For example, it is assumed that allocating the PDCCH of the amount of operation of A5 to the first GPU is determined as the first allocation policy, and allocating the PDCCH of the amount of operation of A5 to the second GPU is determined as the second allocation policy.
  • the latency prediction unit 212 calculates the calculation amount of A5 of the first allocation policy based on the fact that the latency when processing by the first GPU is B1 when the PDCCH in the log data 214 is the amount of calculation of A1.
  • Latency (eg, B5) can be predicted.
  • the latency prediction unit 212 calculates the calculation amount of A5 of the first allocation policy based on the fact that, in the log data 214, the latency when processing with the second GPU is B2 when the PDCCH is the amount of calculation of A2.
  • Latency (eg, B6) can be predicted.
  • the latency predictor 212 may predict latency based on a linear relationship between the amount of operations and latency, but the linear relationship is merely illustrative and the latency prediction method is not limited. will be understood by those skilled in the art.
  • the resource allocation determination unit 215 may receive latencies (eg, B5 and B6) for each allocation policy from the latency prediction unit 212, and determine the latencies (eg, B5 and B6). ), one allocation policy may be selected based on the comparison result. Meanwhile, in the above description, an example of one physical channel of the PDCCH has been described, but this is exemplary and the latency predictor 212 may predict latencies for each of the latencies of a plurality of physical channels. there is. In this case, the resource allocation determining unit 215 may select one of a plurality of allocation policies based on the latencies of each of the plurality of physical channels, or the latency of any one physical channel among the plurality of physical channels.
  • latencies eg, B5 and B6
  • the resource allocation determination unit 215 determines an allocation policy and assigns it to the L1 entity 202 of the DU 151. can provide The L1 entity 202 may process data for each physical channel using a corresponding hardware resource based on the provided allocation policy. Data processed based on the corresponding hardware resource may be transmitted and received with the RU 151, and thus a network operation may be performed.
  • the hardware resource allocation orchestrator 210 may be executed by the RIC 101 .
  • the RIC 101 may receive, for example, a control plane message (or radio resource allocation information for physical channels in the control plane message) from the DU 151 through the E2 interface.
  • the hardware resource allocation orchestrator 210 executed on the RIC 101, based on the received control plane message (or radio resource allocation information for physical channels in the control plane message), at least some of the above-described embodiments
  • An allocation policy for a specific slot (or other time unit) can be determined based on.
  • the RIC 101 may provide an allocation policy to the DU 151 through the E2 interface, and the DU 151 may process data for each physical channel using a corresponding hardware resource according to the received allocation policy. there is.
  • 3A is a flowchart illustrating an operation of an electronic device according to various embodiments. The embodiment of FIG. 3A will be described with reference to FIGS. 3B and 4 .
  • 3B is a flowchart illustrating transmission and reception of control plane messages and user plane data according to various embodiments.
  • 4 is a diagram for explaining allocation of hardware resources of physical channels according to various embodiments.
  • the electronic device 102 may check radio resource allocation information for each of a plurality of physical channels based on the control plane message.
  • the electronic device 102 may check radio resource allocation information for each of a plurality of physical channels based on triggering of a new slot in the L2 entity 201 (or detection of a trigger event).
  • the DU 151 may provide a control plane message for the first slot to the RU 161 in operation 311 .
  • the control plane message may include information for radio resource allocation, for example, numPrbc and/or numSymbol in sectioned.
  • the electronic device 102 may check radio resource allocation information (eg, the number of RBs and/or the number of symbols) for each of a plurality of physical channels in the first slot based on the control plane message. Then, in operations 311a, 311b, to 311n, the DU 161 transmits user plane data for the 1st symbol, the 2nd symbol to the nth symbol (eg, n is 14) of the 1st slot by RU (161). Thereafter, the DU 151 may provide a control plane message for the second slot to the RU 161 in operation 315 .
  • radio resource allocation information eg, the number of RBs and/or the number of symbols
  • the electronic device 102 may check radio resource allocation information (eg, the number of RBs and/or the number of symbols) for each of a plurality of physical channels in the second slot based on the control plane message. As described above, the electronic device 102 can check radio resource allocation information for each of a plurality of physical channels for each slot.
  • radio resource allocation information eg, the number of RBs and/or the number of symbols
  • the electronic device 102 may check the amount of prediction operation for each of a plurality of physical channels based on radio resource allocation information for each of a plurality of physical channels. For example, the electronic device 102 may check the amount of prediction operation for each of a plurality of physical channels based on calculation using radio resource allocation information for each of a plurality of physical channels. Alternatively, the electronic device 102 may check the amount of predicted operation for each of a plurality of physical channels based on log data including the relationship between the radio resource allocation information and the amount of operation for each of the plurality of physical channels. Since the calculation-based prediction operation amount confirmation method and/or the prediction operation amount confirmation method based on log data have been described with reference to FIG. 2 , the description will not be repeated here.
  • the electronic device 102 may check the amount of available computation for each of a plurality of hardware resources.
  • the electronic device 102 may allocate each of the plurality of physical channels to at least some of the plurality of hardware resources based on the amount of calculation available for each of the plurality of hardware resources and the amount of prediction calculation for each of the plurality of physical channels. For example, the electronic device 102 may allocate each of a plurality of physical channels to at least some of a plurality of hardware resources so that a computational amount greater than an available computational amount is not allocated to any hardware resource. For example, in the example of FIG.
  • the electronic device 102 allocates the PDCCH 401 to the first GPU 231, allocates the PDSCH 402 to the first GPU 231, and allocates the PRACH 403 may be allocated to the first CPU 233.
  • the electronic device 102 determines the PDCCH 401 and the PDSCH 402 based on the fact that the amount of prediction calculation of the PDCCH 401 and the amount of prediction calculation of the PDSCH 402 are smaller than the amount of calculation available for the first GPU 231 . ) may be allocated to the first GPU 231.
  • the electronic device 102 may allocate each of a plurality of physical channels to at least some of a plurality of hardware resources based on latency. For example, as described with reference to FIG. 2 , the electronic device 102 may check latency for each of a plurality of physical channels corresponding to the allocation policy. The electronic device 102 may allocate each of the plurality of physical channels to at least some of the plurality of hardware resources based on whether the latency of each of the plurality of physical channels satisfies the latency limit. For example, in the example of FIG. 4 , the sum of the computations of the PDCCH 401 , the PDSCH 402 , and the PRACH 403 may be smaller than the available computational quantity of the first GPU 231 .
  • the electronic device 102, PDCCH (401), PDSCH (402), and PRACH (403) in the case of allocating the PDCCH (401), PDSCH (402), and PRACH (403) to the first GPU (231) ) can check the latencies corresponding to each.
  • latency limits corresponding to each of the PDCCH 401 , PDSCH 402 , and PRACH 403 may be set, and the method and/or condition for setting the latency limit is not limited.
  • the electronic device 102 may not allocate the PDCCH 401 , the PDSCH 402 , and the PRACH 403 to the first GPU 231 .
  • the electronic device 102 may select any one allocation policy according to priority, which will be described later.
  • the electronic device 102 may be configured to allocate hardware resources to each of a plurality of sub-physical channels included in one physical channel.
  • the electronic device 102 has been described as allocating one physical channel to one hardware resource, but this is exemplary, and in various embodiments, a plurality of sub-physical channels of one physical channel are allocated. It may be allocated to each of different hardware resources.
  • the electronic device 102 may allocate a PUSCH corresponding to a first UE to a first hardware resource and allocate a PUSCH corresponding to a second UE to a second hardware resource in one slot.
  • dividing sub-physical channels for each UE is exemplary, and there is no limitation on a method of dividing a plurality of sub-physical channels for one physical channel.
  • FIG. 5 is a flowchart illustrating an operation of an electronic device according to various embodiments. The embodiment of FIG. 5 will be described with reference to FIG. 6 .
  • 6 is a diagram for explaining allocation of hardware resources of physical channels according to various embodiments.
  • the electronic device 102 may check radio resource allocation information for each of a plurality of physical channels based on the control plane message.
  • the electronic device 102 may check radio resource allocation information for each of a plurality of physical channels based on numPrbc and/or numSymbol in sectioned included in the control plane message.
  • the electronic device 102 may check the amount of prediction operation for each of the plurality of physical channels based on the radio resource allocation information for each of the plurality of physical channels.
  • the electronic device 102 may check the amount of prediction operation for each of a plurality of physical channels based on calculation using radio resource allocation information for each of a plurality of physical channels.
  • the electronic device 102 may check the amount of predicted operation for each of a plurality of physical channels based on log data including the relationship between the radio resource allocation information and the amount of operation for each of the plurality of physical channels. According to various embodiments, in operation 505, the electronic device 102 may check the amount of computation available for each of a plurality of hardware resources.
  • the electronic device 102 may check a plurality of allocation policies based on the amount of calculation available for each of a plurality of hardware resources and the amount of prediction calculation for each of a plurality of physical channels.
  • the electronic device 102 may check latency for each of a plurality of physical channels in each of a plurality of allocation policies.
  • the electronic device 102 may check an allocation policy capable of allocating each of a plurality of physical channels to at least some of a plurality of hardware resources so that an operation amount greater than an available operation amount is not allocated to a certain hardware resource. For example, referring to FIG.
  • the electronic device 102 allocates the PDCCH 401 to the first GPU 231, allocates the PDSCH 402 to the first GPU 231, and allocates the PRACH 403 ) may check the first allocation policy for allocating to the first CPU 233.
  • the electronic device 102 can confirm that each of the plurality of physical channels can be allocated to at least some of the plurality of hardware resources so that an operation amount greater than an available operation amount is not allocated to any hardware resource.
  • the electronic device 102 may check latencies (eg, A1 ⁇ s, B1 ⁇ s, and C1 ⁇ s) corresponding to each of the plurality of physical channels 401 , 402 , and 403 in the first allocation policy. For example, as described with reference to FIG.
  • the electronic device 102 determines latencies corresponding to each of the plurality of physical channels 401 , 402 , and 403 based on log data including relation information between the amount of operations and the latency. (For example, A1 ⁇ s, B1 ⁇ s, C1 ⁇ s), but there is no limitation on the confirmation method.
  • the electronic device 102 allocates the PDCCH 401 to the first GPU 231, the PDSCH 402 to the second GPU 232, and the PRACH 403 to the first CPU 233.
  • the electronic device 102 can confirm that each of the plurality of physical channels can be allocated to at least some of the plurality of hardware resources so that an operation amount greater than an available operation amount is not allocated to any hardware resource.
  • the electronic device 102 may check latencies (eg, A2 ⁇ s, B2 ⁇ s, and C2 ⁇ s) corresponding to each of the plurality of physical channels 401 , 402 , and 403 in the second allocation policy.
  • latencies eg, A2 ⁇ s, B2 ⁇ s, and C2 ⁇ s
  • the electronic device 102 is illustrated as confirming two allocation policies, but this is exemplary and the number of allocation policies is not limited.
  • the electronic device 102 may select one of a plurality of physical channels based on latency.
  • the electronic device 102 may select an allocation policy in which latencies corresponding to each of the plurality of physical channels 401 , 402 , and 403 satisfy latency limits corresponding to each of the plurality of physical channels 401 , 402 , and 403 .
  • latency limits corresponding to each of the plurality of physical channels 401, 402, and 403 may be set to TH_PDCCH, TH_PDSCH, and TH_PRACH, and there is no limitation on how the latency limits are set.
  • the latency limits for the physical channels have been described as being different, this is exemplary, and latency limits of at least two of the physical channels may be the same.
  • the electronic device 102 determines that each of the latencies (eg, A1 ⁇ s, B1 ⁇ s, and C1 ⁇ s) corresponding to each of the plurality of physical channels 401 , 402 , and 403 in the first allocation policy has latency limits TH_PDCCH, TH_PDSCH, TH_PRACH), respectively.
  • each of the latencies (eg, A1 ⁇ s, B1 ⁇ s, and C1 ⁇ s) corresponding to each of the plurality of physical channels 401, 402, and 403 in the first allocation policy corresponds to latency limits TH_PDCCH, TH_PDSCH, and TH_PRACH )
  • the electronic device 102 may check the first allocation policy as an available allocation policy.
  • the electronic device 102 may identify the second allocation policy as an unavailable allocation policy. In this case, the electronic device 102 may select a first allocation policy that satisfies the latency limit from among a plurality of allocation policies.
  • a plurality of allocation policies in which latencies of all physical channels satisfy corresponding latency limits may be identified.
  • the electronic device 102 may select one allocation policy based on the priorities of the plurality of allocation policies.
  • the electronic device 102 may select an allocation policy that uses the least amount of hardware resources (or energy consumption) among a plurality of allocation policies. For example, in the embodiment of FIG. 6 , each of the latencies (eg, A1 ⁇ s, B1 ⁇ s, and C1 ⁇ s) corresponding to each of the plurality of physical channels 401, 402, and 403 in the first allocation policy is a latency limit.
  • each of the latencies eg, A2 ⁇ s, B2 ⁇ s, C2 ⁇ s
  • the electronic device 102 can confirm that both the first allocation policy and the second allocation policy satisfy the latency limit.
  • the first GPU 231 and the first CPU 233 may be used, and according to the second allocation policy, the first GPU 231, the second GPU 232 and the second 1 CPU 233 may be used.
  • the electronic device 102 1 allocation policy can be selected.
  • the electronic device 102 may select an allocation policy having a minimum sum of latencies among a plurality of allocation policies.
  • the electronic device 102 includes an allocation policy (or , an allocation policy with minimum latency) may be selected.
  • the electronic device 102 may select one of a plurality of allocation policies based on the above-described various selection conditions or a combination of at least two or more.
  • an allocation policy in which the latencies of all physical channels satisfy the corresponding latency limits may not be identified.
  • the electronic device 102 may select one of a plurality of allocation policies that do not satisfy the latency limit.
  • the electronic device 102 may select an allocation policy that uses the minimum amount of hardware resources (or minimum energy consumption) from among a plurality of allocation policies that do not satisfy the latency limit. For example, in the embodiment of FIG.
  • At least one of latencies (eg, A1 ⁇ s, B1 ⁇ s, and C1 ⁇ s) corresponding to each of the plurality of physical channels 401, 402, and 403 in the first allocation policy is It is assumed that the time limit is not satisfied and at least one of the plurality of physical channels 401, 402, and 403 in the second allocation policy does not satisfy the latency limit. In this case, the electronic device 102 can confirm that neither the first allocation policy nor the second allocation policy satisfies the latency limit. Meanwhile, according to the first allocation policy, the first GPU 231 and the first CPU 233 may be used, and according to the second allocation policy, the first GPU 231, the second GPU 232 and the second 1 CPU 233 may be used.
  • latencies eg, A1 ⁇ s, B1 ⁇ s, and C1 ⁇ s
  • the electronic device 102 1 allocation policy can be selected.
  • the electronic device 102 may select an allocation policy having a minimum latency sum among a plurality of allocation policies that do not satisfy the latency limit.
  • the electronic device 102 determines that the latency of a physical channel (eg, a control channel such as PDCCH or PUCCH) having a higher priority among a plurality of allocation policies that do not satisfy the latency limit is set to the latency limit. It is also possible to select an allocation policy (or an allocation policy having minimum latency) that satisfies .
  • the electronic device 102 may select one of a plurality of allocation policies based on the above-described various selection conditions or a combination of at least two or more.
  • the electronic device 102 may allocate each of a plurality of physical channels to at least some of a plurality of hardware resources based on the selected allocation policy.
  • Information associated with hardware resource allocation for each of a plurality of physical channels may be provided to the DU 161, and based on the hardware resource allocation information, the DU 161 processes data for each of the plurality of physical channels. It can be performed using the corresponding hardware resources.
  • FIG. 7 is a flowchart illustrating an operation of an electronic device according to various embodiments.
  • the electronic device 102 determines a plurality of allocation policies based on the amount of calculation available for each of a plurality of hardware resources and the amount of prediction calculation for each of a plurality of physical channels. can confirm. For example, the electronic device 102 may check an allocation policy capable of allocating each of a plurality of physical channels to at least some of a plurality of hardware resources so that an operation amount greater than an available operation amount is not allocated to a certain hardware resource. In operation 703, the electronic device 102 may check an allocation policy having latencies satisfying all of the time constraints for each of a plurality of physical channels among a plurality of allocation policies.
  • the electronic device 102 may check latencies for each of a plurality of physical channels of each of the allocation policies.
  • a latency limit may be set for a plurality of physical channels, and this may be referred to as a time limit.
  • the electronic device 102 may check, for example, an allocation policy in which latencies of all physical channels satisfy time constraints. Meanwhile, in another example, the electronic device 102 may check an allocation policy in which at least one specific physical channel satisfies the time constraint, rather than all of the plurality of physical channels.
  • the electronic device 102 may check whether there are a plurality of checked allocation policies. If the identified allocation policy is one (705 - No), the electronic device 102 may select one allocation policy in operation 707. If there are a plurality of identified allocation policies (705-Yes), the electronic device 102 may select an allocation policy having the highest priority in operation 709. In one example, the electronic device 102 may select an allocation policy that uses the least amount of hardware resources (or energy consumption) among a plurality of allocation policies. In another example, the electronic device 102 may select an allocation policy having a minimum sum of latencies among a plurality of allocation policies. In another example, the electronic device 102 includes an allocation policy (or , an allocation policy with minimum latency) may be selected. The electronic device 102 may select one of a plurality of allocation policies based on the above-described various selection conditions or a combination of at least two or more.
  • FIG. 8 is a flowchart illustrating an operation of an electronic device according to various embodiments.
  • the electronic device 102 determines a plurality of allocation policies based on the amount of calculation available for each of a plurality of hardware resources and the amount of prediction calculation for each of a plurality of physical channels. can confirm. For example, the electronic device 102 may check an allocation policy capable of allocating each of a plurality of physical channels to at least some of a plurality of hardware resources so that an operation amount greater than an available operation amount is not allocated to a certain hardware resource. In operation 803, the electronic device 102 may select at least one physical channel from among a plurality of physical channels based on a priority order.
  • the electronic device 102 may select at least one default physical channel (eg, a control channel such as PDCCH or PUCCH), but the type of physical channel for which a relatively high priority is set no limits.
  • the electronic device 102 may check latencies for each of a plurality of physical channels for the selected at least one physical channel. For example, when the PDCCH is selected, the electronic device 102 may check latencies of the PDCCH of each of a plurality of allocation policies.
  • the electronic device 102 may select one allocation policy based on the checked latency. For example, when the PDCCH is selected, the electronic device 102 may select an allocation policy having a latency that satisfies a latency limit of the PDCCH.
  • the electronic device 102 may select an allocation policy having the lowest latency of the PDCCH. If there are a plurality of allocation policies having the same latency for the physical channel of the highest priority, the electronic device 102 selects one of the plurality of allocation policies based on the latencies of the next-priority physical channel. can also be selected.
  • FIG. 9 is a flowchart illustrating an operation of an electronic device according to various embodiments.
  • the electronic device 102 (eg, processor 120), in operation 901, based on the control plane message Radio resource allocation information for each of a plurality of physical channels may be checked.
  • the electronic device 102 may check radio resource allocation information (eg, the number of RBs and/or the number of symbols) for each of a plurality of physical channels.
  • the electronic device 102 may check the amount of prediction operation for each of a plurality of physical channels based on radio resource allocation information and additional information for each of a plurality of physical channels. As described above, the electronic device 102 may check the amount of prediction operation for each of the plurality of physical channels based on calculation using radio resource allocation information for each of the plurality of physical channels. Alternatively, the electronic device 102 may check the amount of predicted operation for each of a plurality of physical channels based on log data including the relationship between the radio resource allocation information and the amount of operation for each of the plurality of physical channels. Meanwhile, the electronic device 102 may additionally consider the additional information and check the amount of prediction operation for each of a plurality of physical channels.
  • the electronic device 102 may check the amount of prediction calculation for each of a plurality of physical channels by considering the number of used antennas as additional information. In one example, the electronic device 102 may check the amount of prediction computation for each of a plurality of physical channels by considering the number of layers as additional information. In one example, the electronic device 102 may check the amount of prediction computation for each of a plurality of physical channels by considering the number of UEs connected to the network as additional information. According to various embodiments, the electronic device 102 may determine the amount of prediction operation for each of a plurality of physical channels by further considering the aforementioned additional information or a combination of two or more.
  • the electronic device 102 may check the amount of computation available for each of a plurality of hardware resources.
  • the electronic device 102 may allocate each of the plurality of physical channels to at least some of the plurality of hardware resources based on the amount of calculation available for each of the plurality of hardware resources and the amount of prediction calculation for each of the plurality of physical channels.
  • the electronic device 102 may allocate each of a plurality of physical channels to at least some of a plurality of hardware resources so that a computational amount greater than an available computational amount is not allocated to any hardware resource.
  • the electronic device 102 may allocate each of a plurality of physical channels to at least some of a plurality of hardware resources based on latency. For example, as described with reference to FIG.
  • the electronic device 102 may check latency for each of a plurality of physical channels corresponding to the allocation policy.
  • the electronic device 102 may allocate each of the plurality of physical channels to at least some of the plurality of hardware resources based on whether the latency of each of the plurality of physical channels satisfies the latency limit.
  • the operation of checking the amount of prediction operation for each of a plurality of physical channels based on the radio resource allocation information of various embodiments is an operation of checking the amount of prediction operation for each of a plurality of physical channels based on the radio resource allocation information and at least one piece of additional information. It will be understood by those skilled in the art that it may be replaced with.
  • FIG. 10 is a diagram for explaining physical channel allocation according to a comparative example for comparison with various embodiments and physical channel allocation according to various embodiments.
  • the physical channel allocation policy according to the comparative example is, for example, among the physical channels, the uplink channel 1003 is fixedly allocated to the GPU 1001 and the downlink channel 1004 is fixedly allocated to the CPU 1002. It could be Meanwhile, a case may occur in which uplink traffic increases and downlink traffic decreases. At this time, a relatively large number of idle resources may be secured in the CPU 1002 due to a decrease in downlink traffic, and a shortage of idle resources in the GPU 1001 may occur due to an increase in uplink traffic. Depending on the comparative example, idle resources of the CPU 1002 cannot be used according to the fixed allocation policy, and thus the efficiency of hardware resources may decrease.
  • the electronic device 102 allocates at least one first physical channel 1003a of an uplink 1003 to the GPU 1001 and allocates at least one second physical channel 1003b to the CPU ( 1002) can be assigned. As described above, the electronic device 102 may estimate the amount of computation for each physical channel, and based on this, allocate hardware resources to each of a plurality of physical channels. Accordingly, the electronic device 102 may allocate at least one first physical channel 1003a to the GPU 1001 and allocate at least one second physical channel 1003b to the CPU 1002 .
  • 11 is a diagram for explaining physical channel allocation according to a comparative example for comparison with various embodiments and physical channel allocation according to various embodiments.
  • a physical channel allocation policy according to the comparative example may be, for example, fixedly allocating the PUSCH 1103 to the first GPU 1101 and the fixed allocation of the PUCCH 1104 to the second GPU 1102. Meanwhile, in the comparative example, even when the total traffic of the PUSCH 1103 and the PUCCH 1104 is relatively low, both GPUs 1101 and 1102 (or GPU instances) must be driven.
  • the electronic device 102 may allocate both the PUSCH 1103 and the PUCCH 1104 to the first GPU 1101 . As described above, the electronic device 102 may estimate the amount of computation for each physical channel, and based on this, allocate hardware resources to each of a plurality of physical channels.
  • the electronic device 102 may allocate both the PUSCH 1103 and the PUCCH 1104 to the first GPU 1101, and in this case, the second GPU 1102 may be in an idle state.
  • the second GPU 1102 may be used for operations other than network data processing (eg, AI model learning (eg, reinforcement learning) for computation and/or latency calculation). .
  • a method of operating an electronic device may include, based on a control plane message including radio resource allocation information for a first slot, radio resources for each of a plurality of physical channels in the first slot.
  • Checking allocation information checking each of the predicted calculation amounts for each of the plurality of physical channels based on the radio resource allocation information for each of the plurality of physical channels, and available calculation amount for each of a plurality of hardware resources supported by the electronic device and allocating each of the plurality of physical channels to at least some of the plurality of hardware resources based on the amount of available operation for each of the plurality of hardware resources and the amount of prediction operation for each of the plurality of physical channels.
  • the radio resource allocation information for each of the plurality of physical channels in the first slot may include the number of RBs and/or the number of symbols for each of the plurality of physical channels.
  • the operation of checking each of the prediction calculation amounts for each of the plurality of physical channels based on the radio resource allocation information for each of the plurality of physical channels may include the number of RBs and/or symbols for each of the plurality of physical channels Based on the calculation using the number, it is possible to check each of the prediction computation amounts for each of the plurality of physical channels.
  • the operation of checking each of the prediction calculation amounts for each of the plurality of physical channels based on the radio resource allocation information for each of the plurality of physical channels may include the number of RBs and/or symbols for each of the plurality of physical channels.
  • Each of the prediction computation quantities for each of the plurality of physical channels may be identified using information related to the number of RBs and/or the number of symbols for each of the plurality of physical channels and the computation quantity in the past.
  • the operation of checking each of the prediction calculation amounts for each of the plurality of physical channels based on the radio resource allocation information for each of the plurality of physical channels includes the radio resource allocation information for each of the plurality of physical channels and at least one Based on the additional information, each of the prediction computation amounts for each of the plurality of physical channels is identified, and the at least one additional information includes the number of antennas used for transmission and/or reception of the plurality of physical channels, the number of physical channels, and the plurality of physical channels. It may include at least one of the number of channel layers or the number of user devices connected to the electronic device.
  • the operation of allocating each of the plurality of physical channels to at least some of the plurality of hardware resources based on the amount of available operation for each of the plurality of hardware resources and the amount of prediction operation for each of the plurality of physical channels may be allocated to at least some of the plurality of hardware resources such that an available computation amount of each of the at least some of the hardware resources is equal to or greater than a sum of computational quantities of the allocated at least one physical channel.
  • each of the plurality of physical channels is selected from among a plurality of hardware resources based on the amount of available operation for each of the plurality of hardware resources, the amount of prediction operation for each of the plurality of physical channels, and latencies for each of the plurality of physical channels.
  • the operation of allocating to at least some of the plurality of hardware resources includes an operation of checking a plurality of allocation policies such that the amount of available operation of each of the at least some of the plurality of hardware resources is equal to or greater than the sum of the amount of operation of at least one allocated physical channel, and the plurality of and selecting one of the plurality of allocation policies based on the latency of each of the plurality of allocation policies for each of the plurality of physical channels.
  • the operation of selecting one of the plurality of allocation policies based on the latency for each of the plurality of physical channels of the plurality of allocation policies, the latency for each of the plurality of physical channels is One physical channel less than or equal to the latency limit may be selected.
  • the operation of selecting one of the plurality of allocation policies based on the latency for each of the plurality of physical channels of the plurality of allocation policies, the latency for each of the plurality of physical channels is If there are a plurality of candidate allocation policies that are equal to or less than the latency limit for each physical channel, one of the plurality of candidate allocation policies may be selected.
  • the operation of selecting one of the plurality of allocation policies based on the latency for each of the plurality of physical channels of the plurality of allocation policies, the latency for each of the plurality of physical channels is When there are a plurality of candidate allocation policies that are less than or equal to the latency limit for each physical channel, an allocation policy using the minimum hardware resource may be selected from among the plurality of candidate allocation policies.
  • the operation of selecting one of the plurality of allocation policies based on the latency for each of the plurality of physical channels of the plurality of allocation policies, the latency for each of the plurality of physical channels is When there are a plurality of candidate allocation policies that are less than or equal to the latency limit for each physical channel, an allocation policy having a minimum latency of a designated physical channel may be selected from among the plurality of candidate allocation policies.
  • an electronic device includes a memory and at least one processor operatively coupled to the memory, wherein the memory, when executed, causes the at least one processor to select radio resources for a first slot.
  • radio resource allocation information for each of a plurality of physical channels in the first slot is identified, and based on the radio resource allocation information for each of a plurality of physical channels, Checking each of the prediction computation amounts, checking the available computation amount for each of a plurality of hardware resources supported by the electronic device, and based on the available computation amount for each of the plurality of hardware resources and the prediction computation amount for each of the plurality of physical channels, the plurality of At least one instruction causing each physical channel to be allocated to at least a portion of a plurality of hardware resources may be stored.
  • the radio resource allocation information for each of the plurality of physical channels in the first slot may include the number of RBs and/or the number of symbols for each of the plurality of physical channels.
  • the at least one instruction when executed, causes the at least one processor to identify each of the prediction operations for each of the plurality of physical channels based on the radio resource allocation information for each of the plurality of physical channels. As at least part of the operation, based on performing a calculation using the number of RBs and/or the number of symbols for each of the plurality of physical channels, each of the prediction computation amounts for each of the plurality of physical channels may be checked.
  • the at least one instruction when executed, causes the at least one processor to identify each of the prediction operations for each of the plurality of physical channels based on the radio resource allocation information for each of the plurality of physical channels.
  • the number of RBs and / or symbols for each of the plurality of physical channels and information between the number of RBs and / or symbols for each of the plurality of physical channels and the amount of computation in the past may cause to check each of the prediction calculation amounts for each of a plurality of physical channels.
  • the at least one instruction when executed, causes the at least one processor to identify each of the prediction operations for each of the plurality of physical channels based on the radio resource allocation information for each of the plurality of physical channels.
  • the number of RBs and / or symbols for each of the plurality of physical channels and the number of RBs and / or symbols for each of the plurality of physical channels in the past and association information between the number of operations may cause to check each of the prediction calculation amounts for each physical channel.
  • the at least one instruction when executed, causes the at least one processor to identify each of the prediction operations for each of the plurality of physical channels based on the radio resource allocation information for each of the plurality of physical channels.
  • each of the prediction calculation amounts for each of the plurality of physical channels is caused to be identified, and the at least one additional information comprises: It may include at least one of the number of antennas used for transmission and/or reception of a plurality of physical channels, the number of layers of the plurality of physical channels, or the number of user devices connected to the electronic device.
  • the at least one instruction when executed, causes the at least one processor to calculate, respectively, the plurality of physical channels based on the amount of calculation available for each of the plurality of hardware resources and the amount of prediction calculation for each of the plurality of physical channels.
  • the available calculation amount of each of the at least some of the plurality of hardware resources is greater than or equal to the sum of the calculation amount of the allocated at least one physical channel, the plurality of physical Each of the channels may be assigned to at least some of the plurality of hardware resources.
  • the at least one instruction when executed, causes the at least one processor to calculate, respectively, the plurality of physical channels based on the amount of calculation available for each of the plurality of hardware resources and the amount of prediction calculation for each of the plurality of physical channels.
  • latencies for each of the plurality of physical channels are checked based on the amount of prediction operation for each of the plurality of physical channels, and the amount of available operation for each of the plurality of hardware resources, the plurality Each of the plurality of physical channels may be allocated to at least some of the plurality of hardware resources based on the number of prediction operations for each physical channel and the latencies for each of the plurality of physical channels.
  • the at least one instruction when executed, causes the at least one processor to determine the amount of available operation for each of the plurality of hardware resources, the amount of prediction operation for each of the plurality of physical channels, and the latency for each of the plurality of physical channels.
  • the available operation amount of each of the at least some of the plurality of hardware resources is of the at least one allocated physical channel
  • a plurality of allocation policies that are equal to or greater than the sum of the computations may be identified, and one of the plurality of allocation policies may be selected based on latency for each of a plurality of physical channels of each of the plurality of allocation policies.
  • the at least one instruction when executed, causes the at least one processor to select one of the plurality of allocation policies based on a latency for each of a plurality of physical channels of each of the plurality of allocation policies.
  • the one having a latency of each of the plurality of physical channels less than or equal to a latency limit of each of the plurality of physical channels may be selected.
  • the at least one instruction when executed, causes the at least one processor to select one of the plurality of allocation policies based on a latency for each of a plurality of physical channels of each of the plurality of allocation policies.
  • the one of the plurality of candidate allocation policies may be selected. there is.
  • the at least one instruction when executed, causes the at least one processor to select one of the plurality of allocation policies based on a latency for each of a plurality of physical channels of each of the plurality of allocation policies.
  • the at least one instruction when executed, causes the at least one processor to select one of the plurality of allocation policies based on a latency for each of a plurality of physical channels of each of the plurality of allocation policies.
  • an allocation policy using the minimum hardware resource among the plurality of candidate allocation policies can cause them to choose.
  • the at least one instruction when executed, causes the at least one processor to select one of the plurality of allocation policies based on a latency for each of a plurality of physical channels of each of the plurality of allocation policies.
  • the latency of the designated physical channel among the plurality of candidate allocation policies is the minimum. to select a phosphorus allocation policy.
  • a method of operating an electronic device may determine a first radio resource allocation amount and a second radio resource allocation amount of a first physical channel in a first slot based on a control plane message including radio resource allocation information for a first slot.
  • the operation of checking the second radio resource allocation amount of the physical channel and the operation corresponding to the first radio resource allocation amount and the second radio resource allocation amount can be performed by the first hardware resource supported by the electronic device, the first radio resource allocation amount
  • an electronic device includes a memory and at least one processor operatively coupled to the memory, wherein the memory, when executed, causes the at least one processor to select radio resources for a first slot. Based on a control plane message including allocation information, a first radio resource allocation amount of a first physical channel in the first slot and a second radio resource allocation amount of a second physical channel are identified, and the first radio resource allocation amount and the When an operation corresponding to a second radio resource allocation amount can be performed using a first hardware resource supported by the electronic device, the first physical channel and the second physical channel are allocated to the first hardware resource, and the second physical channel is allocated to the first hardware resource.
  • One physical channel of the first physical channel or the second physical channel when it is impossible to perform an operation corresponding to the radio resource allocation amount and the second radio resource allocation amount according to the first hardware resource supported by the electronic device to the first hardware resource, and to cause the remaining channels to be allocated to a second hardware resource different from the first hardware resource.
  • Electronic devices may be devices of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a camera
  • a wearable device e.g., a smart bracelet
  • first, second, or first or secondary may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited.
  • a (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits.
  • a module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of this document are software (eg, electronic device 102) including one or more instructions stored in a storage medium (eg, internal memory or external memory) readable by a machine (eg, electronic device 102). : program).
  • a processor eg, the processor 120
  • a device eg, the electronic device 102
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.
  • a signal e.g. electromagnetic wave
  • the method according to various embodiments disclosed in this document may be included and provided in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • a computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smart phones.
  • a device-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • two user devices e.g. It can be distributed (eg downloaded or uploaded) online, directly between smart phones.
  • at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
  • each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is.
  • one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg modules or programs
  • the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. .
  • the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

다양한 실시예에 따라서, 전자 장치의 동작 방법은, 제 1 슬롯에 대한 무선 자원 할당 정보를 포함하는 제어 플레인 메시지에 기반하여, 상기 제 1 슬롯 내의 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인하는 동작, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작, 상기 전자 장치에 의하여 지원되는 복수 개의 하드웨어 자원 별 가용 연산량을 확인 하는 동작, 및 상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작을 포함할 수 있다. 그 밖의 다양한 실시예가 가능하다.

Description

하드웨어 자원을 관리하는 전자 장치 및 그 동작 방법
다양한 실시예는 네트워크의 라디오 유닛과의 인터랙션을 위한 하드웨어 자원을 관리하는 전자 장치 및 그 동작 방법에 관한 것이다.
기존의 기지국(base station)은 기지국의 데이터 처리부(distributed unit, DU)와 무선 송수신부(radio unit 또는 remote unit, RU)가 함께 셀 사이트에 설치되는 형태로 구현되었다. 하지만, 이러한 일체형 구현 형태는 물리적 제약을 가진다. 예를 들어, 서비스 가입자 또는 트래픽의 증가에 따라, 사업자는 새롭게 셀 사이트에 기지국을 구축하여야 한다. 이를 극복하고자, C-RAN(centralized RAN(radio access network) 또는 cloud RAN) 구조가 구현되었다. C-RAN은 DU를 하나의 물리적 장소에 배치하고, 실제 사용자 장치(user equipment, UE)와 무선 신호를 송수신하는 셀 사이트에는 RU를 배치하는 구조를 가질 수 있다. DU 및 RU는 광케이블 또는 동축 케이블로 연결될 수 있다. RU 및 DU가 분리되면서 이들간의 통신을 위한 인터페이스 규격이 필요하였으며, CPRI (Common Public Radio Interface) 등의 규격이 RU와 DU간에 사용되고 있다. 3GPP (3rd Generation Partnership Project)에서도 기지국 구조가 규격화되고 있으며, 5G 시스템에 적용될 수 있는 개방형 네트워크 표준인 O-RAN(Open Radio Access Network)에 대한 논의가 진행되고 있다. O-RAN은 기존의 3GPP NE인 RU, DU, CU-CP(central unit-control plane), CU-UP(central unit-user plane)를 각각 O-RU, O-DU, O-CU-CP, O-CU-UP라고 새로이 정의하고(이를 통합해서 O-RAN 기지국이라 칭할 수 있다), 그 외 추가로 RIC (RAN Intelligent Controller) 와 NRT-RIC(non-real-time RAN Intelligent Controller)를 제안하였다.
C-RAN 환경에서는, 제한적인 하드웨어 자원을 여러 컨테이너들이 공유할 수 있다. 이 경우, RU 및 DU 사이의 트래픽을 고려하지 않고 하드웨어 자원을 고정적으로 컨테이너들에게 할당하는 경우, 실시간 변경되는 트래픽에 따라 하드웨어 자원이 비효율적으로 이용될 가능성이 존재할 수 있다. 특히, 매 슬롯 마다 물리 채널별 트래픽이 변경될 수 있으며, 이 경우 고정적인 하드웨어 자원 할당의 방식은 비효율적일 수 있다.
다양한 실시예에 따른 전자 장치 및 그 동작 방법은, 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반한 예측 연산량 및 하드웨어 자원 별 가용 연산량에 기반하여, 복수 개의 물리 채널을 하드웨어 자원에 할당할 수 있다.
다양한 실시예에 따라서, 전자 장치의 동작 방법은, 제 1 슬롯에 대한 무선 자원 할당 정보를 포함하는 제어 플레인 메시지에 기반하여, 상기 제 1 슬롯 내의 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인하는 동작, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작, 상기 전자 장치에 의하여 지원되는 복수 개의 하드웨어 자원 별 가용 연산량을 확인 하는 동작, 및 상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 전자 장치는, 메모리 및 상기 메모리에 작동적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 메모리는, 실행시에, 상기 적어도 하나의 프로세서로 하여금, 제 1 슬롯에 대한 무선 자원 할당 정보를 포함하는 제어 플레인 메시지에 기반하여, 상기 제 1 슬롯 내의 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인하고, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하고, 상기 전자 장치에 의하여 지원되는 복수 개의 하드웨어 자원 별 가용 연산량을 확인하고, 상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하도록 야기하는 적어도 하나의 인스트럭션을 저장할 수 있다.
다양한 실시예에 따라서, 전자 장치의 동작 방법은, 제 1 슬롯에 대한 무선 자원 할당 정보를 포함하는 제어 플레인 메시지에 기반하여, 상기 제 1 슬롯 내의 제 1 물리 채널의 제 1 무선 자원 할당량 및 제 2 물리 채널의 제 2 무선 자원 할당량을 확인하는 동작, 상기 제 1 무선 자원 할당량 및 상기 제 2 무선 자원 할당량에 대응하는 연산을 상기 전자 장치에 의하여 지원되는 제 1 하드웨어 자원에 의하여 수행 가능한 경우, 상기 제 1 물리 채널 및 상기 제 2 물리 채널을 상기 제 1 하드웨어 자원에 할당 하는 동작, 및 상기 제 1 무선 자원 할당량 및 상기 제 2 자원 무선 할당량에 대응하는 연산을 상기 전자 장치에 의하여 지원되는 상기 제 1 하드웨어 자원에 의하여 수행 불가능한 경우, 상기 제 1 물리 채널 또는 상기 제 2 물리 채널 중 하나의 물리 채널을 상기 제 1 하드웨어 자원에 할당하고, 나머지 채널을 상기 제 1 하드웨어 자원과 상이한 제 2 하드웨어 자원에 할당하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반한 예측 연산량 및 하드웨어 자원 별 가용 연산량에 기반하여, 복수 개의 물리 채널을 하드웨어 자원에 할당할 수 있는, 전자 장치 및 그 동작 방법이 제공될 수 있다.
도 1a는 다양한 실시예에 따른 RIC, RAN 및 코어 네트워크(core network, CN)를 설명하기 위한 블록도를 도시한다.
도 1b는, 다양한 실시예에 따른 전자 장치의 하드웨어적 구성을 설명하기 위한 블록도를 도시한다.
도 2는, 다양한 실시예에 따른 하드웨어 자원 할당을 위한 엔티티를 설명하기 위한 블록도이다.
도 3a는 다양한 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도를 도시한다.
도 3b는 다양한 실시예에 따른 제어 플레인 메시지 및 사용자 플레인 데이터의 송수신을 설명하기 위한 흐름도이다.
도 4는 다양한 실시예에 따른 물리 채널들의 하드웨어 자원의 할당을 설명하기 위한 도면이다.
도 5는 다양한 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도를 도시한다.
도 6은 다양한 실시예에 따른 물리 채널들의 하드웨어 자원의 할당을 설명하기 위한 도면이다.
도 7은 다양한 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도를 도시한다.
도 8은 다양한 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도를 도시한다.
도 9는 다양한 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도를 도시한다.
도 10은 다양한 실시예와의 비교를 위한 비교예에 따른 물리 채널의 할당 및 다양한 실시예에 따른 물리 채널의 할당을 설명하기 위한 도면이다.
도 11은 다양한 실시예와의 비교를 위한 비교예에 따른 물리 채널의 할당 및 다양한 실시예에 따른 물리 채널의 할당을 설명하기 위한 도면이다.
도 1a는 다양한 실시예에 따른 RIC, RAN 및 코어 네트워크(core network, CN)를 설명하기 위한 블록도를 도시한다.
다양한 실시예에 따라서, RAN(150)은 적어도 하나의 DU(distributed unit)(151), 적어도 하나의 CU-CP(central unit-control plane)(152), 또는 적어도 하나의 CU-UP(central unit-user plane)(153) 중 적어도 하나를 포함할 수 있다. RAN(150)은 적어도 하나의 RU(remote unit, 또는 radio unit)(161)에 연결되는 것과 같이 도시되어 있지만, 이는 예시적인 것으로 적어도 하나의 RU(161)는, RAN(150)에 연결되거나, 또는 RAN(150)에 포함될 수 있다. RAN(150)은, C-RAN 또는 O-RANN일 수도 있으며, 만약 O-RAN인 경우에는, DU(151)는 O-DU일 수 있으며, CU-CP(152)는 O-CU-CP일 수 있으며, CU-UP(153)는 O-CU-UP일 수 있으며, RU(161)는 O-RU일 수 있다.
다양한 실시예에 따라서, RU(161)는, 사용자 장치(user equipment, UE)(160)와 통신을 수행할 수 있다. RU(161)는, 하위 물리 계층(low-PHY) 기능 및 RF 프로세싱을 제공하는 논리적 노드일 수 있다. DU(151)는 RLC, MAC, 상위 물리 계층(high-PHY)의 기능을 제공하는 논리적 노드일 수 있으며, 예를 들어 RU(161)와 연결될 수 있다. CU(152,153)는 RRC(radio resource control), SDAP(service data adaptation protocol), PDCP(packet data convergence protocol) 프로토콜의 기능을 제공하는 논리적 노드일 수 있다. CU-CP(152)는 RRC 및 PDCP의 제어 평면 부분의 기능을 제공하는 논리적 노드일 수 있다. CU-UP(153)는 SDAP 및 PDCP의 사용자 평면 부분의 기능을 제공하는 논리적 노드일 수 있다.
다양한 실시예에 따라서, 코어 네트워크(예를 들어, 5GC 5th generation core)(154)는, AMF(access and mobility management function) (155), UPF(User plane Function)(156), 또는 SMF(Session Management Function)(157) 중 적어도 하나를 포함할 수 있다. AMF(155)는 UE(160) 단위의 접속 및 이동성 관리를 위한 기능을 제공할 수 있다. SMF(156)는 세션 관리 기능을 제공할 수 있다. UPF(156)는 데이터 네트워크로부터 수신한 하향링크 데이터를 UE(160)에게 전달하거나, 또는 UE(160)로부터 수신한 상향링크 데이터를 데이터 네트워크로 전달할 수 있다. 예를 들어, CU-CP(152)는 AMF(155)와 N2 인터페이스(또는, NGAP 인터페이스)로 연결될 수 있다. AMF(155)는 SMF(157)와 N11 인터페이스로 연결될 수 있다. CU-UP(153)는 UPF(153)와 N3 인터페이스로 연결될 수 있다.
다양한 실시예에 따라, RIC(101)는, 서비스 또는 지역적 자원 최적화(regional resource optimization)를 위한 RAN 기능성(functionality)을 커스터마이징할 수 있다. RIC(101)은 망 지능화(network intelligence)(예: 정책 강제(policy enforcement), 핸드 오버 최적화(handover optimization)), 자원 보증(resource assurance)(예: 무선 링크 관리(radio-link management), 개선된 SON(advanced self-organized-network)), 자원 제어(resource control)(예: 부하 균형(load balancing), 또는 슬라이싱 정책(slicing policy)) 중 적어도 하나의 기능을 제공할 수 있으며, RIC(101)가 제공 가능한 RAN(150)과 연관된 기능(또는, 수행되는 동작)에는 제한이 없다.
다양한 실시예에 따라, RIC(101)는, RAN(150)과 E2 메시지 (191,192)를 송신 및/또는 수신할 수 있다. 예를 들어, RIC(101)는 DU(151)와 E2-DU 인터페이스로 연결될 수 있다. 예를 들어, RIC(101)는 CU-CP(152)와 E2-CP 인터페이스로 연결될 수 있다. 예를 들어, RIC(101)는 CU-UP(153)와 E2-UP 인터페이스로 연결될 수 있다. RIC(101)와 RAN(150)과의 적어도 하나의 인터페이스를 E2 인터페이스로 명명할 수도 있다. 한편, RIC(101)는 RAN(150)과 별도의 장치인 것과 같이 도시되어 있지만, 이는 예시적인 것으로 RIC(101)는 RAN(150)과 별도의 장치로도 구현이 가능하며, 또는 하나의 장치로도 구현이 가능할 수도 있다.
다양한 실시예에 따라서, RIC(101)는 E2 노드(node)(예를 들어, DU(151), CU-CP(152), 또는 CU-UP(153) 중 적어도 하나)는 E2 메시지(191,192)를 송신 및/또는 수신할 수 있다. E2 노드는 E2 노드 기능(E2 노드 function)을 포함(또는, 제공)할 수 있다. E2 노드 기능은 RIC(101)에 설치된 특정 xApp(application S/W)에 기반하여 설정될 수 있다. 만약, KPI 모니터(monitor)의 기능이 제공되는 경우에는, RIC(101)에 KPI 모니터 수집 S/W가 설치될 수 있다. E2 노드는 KPI 파라미터들을 생성할 수 있으며, KPI 파라미터를 포함하는 E2 메시지(191)를 RIC(101)에 위치한 E2 종단(termination) 기능에 전달하는 E2 노드 기능을 포함할 수 있다. RIC(101)에 위치한 E2 종단 기능은 E2 메시지에 대한 RIC(101)의 종단으로서, E2 노드가 전달한 E2 메시지를 해석한 후, xApp에게 전달할 수 있다. RIC(101)는, RAN(150)의 동작과 연관된 정보를 E2 메시지(192)로 RAN(150)에 제공할 수 있다. RIC(101)는, xAPP을 디플로이할 수 있으며, RIC(101)에 디플로이된 xAPP은 E2 노드를 구독할 수 있다. xAPP은, 구독한 E2 노드로부터 주기적 또는 비주기적으로 E2 메시지를 수신할 수 있다. 한편, 본 개시에서의 RIC(101)에 의하여 수행되는 동작들 중 적어도 일부는, 디플로이된 xApp에 의하여 수행되는 것으로 이해될 수 있다. xAPP은 디플로이된 이후 본 개시에서의 RIC(101)에 의하여 수행되는 동작들 중 적어도 일부를 수행하도록 하는 적어도 하나의 인스트럭션을 포함할 수 있다. 또는, 본 개시에서의 전자 장치에 의하여 수행되는 동작은, RIC(101)에 의하여 수행되거나, 및/또는 RAN(150)(예를 들어, DU(151))에 의하여 수행될 수 있다.
도 1b는, 다양한 실시예에 따른 전자 장치의 하드웨어적 구성을 설명하기 위한 블록도를 도시한다.
다양한 실시예에 따라서, 전자 장치(102)는, 프로세서(120), 저장 장치(130), 또는 통신 모듈(190) 중 적어도 하나를 포함할 수 있다. 하나의 예에서, 전자 장치(102)는, 예를 들어 RAN(150)(또는, DU(151))의 동작을 수행하도록 설정되거나, 또는 동작을 수행하기 위한 적어도 하나의 인스트럭션을 저장할 수 있다. 이 경우, 전자 장치(102)는, C-RAN 환경, 또는 O-RAN 환경에서의 DU(151)의 동작을 수행하기 위한(또는, DU(151)와 연관되는 어플리케이션, 또는 DU(151)와 연관되는 Pod를 실행하기 위한) 장치(또는, 시스템)일 수 있다. 전자 장치(102)는, 예를 들어 쿠버네티스(Kubernetes) 오케스트레이션(orchestration) 상에서 DU(151)와 연관되는 어플리케이션(또는, Pod)를 컨테이너(또는, 가상머신)을 실행할 수 있으나, 그 실행 형태에는 제한이 없다. 다른 예에서, 예를 들어 RIC(101)의 동작을 수행하도록 설정되거나, 또는 동작을 수행하기 위한 적어도 하나의 인스트럭션을 저장할 수 있다. 이 경우, 전자 장치(102)는, O-RAN 환경에서 RIC(101)의 동작을 수행하기 위한(또는, RIC(101)와 연관되는 어플리케이션, 또는 RIC(101)와 연관되는 Pod를 실행하기 위한) 장치(또는, 시스템)일 수 있다. 전자 장치(102)는, 예를 들어 쿠버네티스 오케스트레이션 상에서 RIC(101)와 연관되는 어플리케이션(또는, Pod)를 컨테이너(또는, 가상머신)을 실행할 수 있으나, 그 실행 형태에는 제한이 없다
다양한 실시예에 따라서, 프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(120)에 연결된 전자 장치(102)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 소프트웨어는, 예를 들어 어플리케이션, Pod, 또는 xAPP을 포함할 수 있으나 제한은 없다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소로부터 수신된 명령 또는 데이터를 저장 장치(130)에 저장하고, 저장 장치(130)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 저장 장치(130)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는, 적어도 하나의 중앙 처리 장치(CPU: central processing unit), 적어도 하나의 그래픽 처리 장치(GPU: graphical processing unit), 적어도 하나의 어플리케이션 프로세서, 적어도 하나의 신경망 처리 장치(NPU: neural processing unit), SM(stream multiprocessor) 또는 커뮤니케이션 프로세서 중 적어도 일부를 포함할 수 있으나, 프로세서(120)의 종류에는 제한이 없다. 신경망 처리 장치는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습(예를 들어, 강화 학습, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 또는 준지도형 학습(semi-supervised learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. 저장 장치(130)는, 디스크(예를 들어, HDD)와 같은 데이터를 저장할 수 있는 장치라면 제한이 없음을 당업자는 이해할 것이다.
다양한 실시예에 따라서, 저장 장치(130)는, 전자 장치(102)의 적어도 하나의 구성요소(예: 프로세서(120) 및/또는 통신 모듈(190))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다.
다양한 실시예에 따라서, 통신 모듈(190)은, 다른 엔티티와 데이터를 송수신할 수 있다. 예를 들어, 전자 장치(102)가 DU(151)의 동작을 수행하기 위한 장치인 경우, 통신 모듈(190)은 RU(161)와 데이터를 송수신할 수 있거나, 및/또는 RIC(101)와 데이터를 송수신할 수 있다. 예를 들어, 전자 장치(102)가 RIC(101)의 동작을 수행하기 위한 장치인 경우, 통신 모듈(190)은 DU(151)를 포함하는 E2 엔티티와 데이터를 송수신할 수 있다. 상술한 엔티티들과 데이터를 송수신할 수 있다면, 통신 모듈(190a)의 타입 및/또는 통신 모듈(190a)의 지원하는 통신 방식에는 제한이 없다.
도 2는, 다양한 실시예에 따른 하드웨어 자원 할당을 위한 엔티티를 설명하기 위한 블록도이다.
다양한 실시예에 따라서, 전자 장치(102)는, 하드웨어 엔티티(230)를 포함(또는, 실행)할 수 있다. 예를 들어, 하드웨어 엔티티(230)에는, 제 1 GPU(231), 제 2 GPU(232), 제 1 CPU(233), 또는 제 2 CPU(234) 중 적어도 하나가 포함될 수 있으나, 그 개수 및/또는 타입에는 제한이 없다. 여기에서, 제 1 GPU(231) 및 제 2 GPU(232)는, 하나의 예에서 두 개의 독립적인 GPU를 의미할 수 있고, 또는 다른 예시에서 하나의 GPU에서의 상이한 인스턴스를 의미할 수도 있다. 여기에서, 제 1 CPU(233) 및 제 2 CPU(234)는, 하나의 예에서 두 개의 독립적인 CPU를 의미할 수 있고, 또는 다른 예시에서 하나의 CPU에서의 상이한 코어들을 의미할 수도 있다. 하드웨어 자원은, 독립적인 연산(또는, 격리(isolation))이 가능한 단위라면 제한이 없음을 당업자는 이해할 수 있을 것이다. 도 2에서는, 하드웨어 엔티티(230)에 연산을 위한 자원들이 포함되는 것과 같이 도시 및/또는 설명되었지만, 이는 예시적인 것으로 하드웨어 엔티티(230)에는 데이터의 저장을 위한 자원이 포함될 수도 있다. 예를 들어, 쿠버네티스 오케스트레이션(220)은, 컨테이너(또는, 가상머신)에 기반하여 어플리케이션(또는, 파드)을 실행할 수 있으며, 컨테이너에 대하여 하드웨어 자원들(231,232,233,234) 중 적어도 하나에 할당할 수 있다. 여기에서, 쿠버네티스 오케스트레이션(220)이 특정 어플리케이션(또는, 파드)을 특정 하드웨어 자원에 할당한 것은, 예를 들어 특정 어플리케이션(또는, 파드)에 대응하는 인스트럭션의 실행 및/또는 데이터의 저장이 특정 하드웨어 자원에 의하여 수행되는 것을 의미할 수 있다.
예를 들어, 쿠버네티스 오케스트레이션(220)은, 하드웨어 자원 할당 오케스트레이터(210)의 어플리케이션(또는, 파드)를, 적어도 하나의 하드웨어 자원에 할당할 수 있다. 하드웨어 자원 할당 오케스트레이터(210)는, 네트워크의 복수 개의 물리 채널들 각각을 하드웨어 자원들(231,232,233,234) 중 적어도 일부에 할당할 수 있다. 예를 들어, 하드웨어 자원 할당 오케스트레이터(210)는, 제 1 슬롯에 대하여, PDCCH(physical downlink control channel)을 제 1 GPU(231)에 할당할 수 있으며, PDCCH의 할당 정보를 DU(151)에 제공할 수 있다. DU(151)는, 제 1 슬롯 동안의 PDCCH와 연관된 데이터의 처리를 제 1 GPU(231)를 이용하여 수행할 수 있다. 예를 들어, 하드웨어 자원 할당 오케스트레이터(210)는, 제 2 슬롯에 대하여, PDCCH을 제 2 GPU(232)에 할당할 수 있으며, PDCCH의 할당 정보를 DU(151)에 제공할 수 있다. DU(151)는, 제 2 슬롯 동안의 PDCCH와 연관된 데이터의 처리를 제 2 GPU(232)를 이용하여 수행할 수 있다. 예를 들어, 하드웨어 자원 할당 오케스트레이터(210)는, 제 1 슬롯에 대하여, PDSCH(physical downlink shared channel)을 제 1 GPU(231)에 할당할 수 있으며, PDSCH의 할당 정보를 DU(151)에 제공할 수 있다. DU(151)는, 제 1 슬롯 동안의 PDSCH와 연관된 데이터의 처리를 제 1 GPU(231)를 이용하여 수행할 수 있다. 상술한 바와 같이, 하드웨어 자원 할당 오케스트레이터(210)는, 특정 슬롯에 대한 복수 개의 물리 채널들 각각을, 하드웨어 자원들(231,232,233,234) 중 적어도 일부 각각에 할당할 수 있으며, DU(151)는, 할당 정보에 기반하여 확인된 하드웨어 자원을 이용하여 물리 채널들 각각과 연관된 동작을 수행할 수 있다. 하드웨어 자원 할당 오케스트레이터(210)는, 예를 들어 전자 장치(102)에 의하여 실행될 수 있으며, 본 개시에서의 하드웨어 자원 할당 오케스트레이터(210)에 의하여 수행되는 동작은, 전자 장치(102)에 의하여 수행되는 것으로 이해될 수 있다. 한편, 도 2의 실시예에서는, 하드웨어 자원 할당 오케스트레이터(210)가 DU(151)를 실행하는 쿠버네티스 오케스트레이션(220) 상에서 실행되는 것과 같이 도시되어 있으며, 이는 전자 장치(102)가 DU(151)를 실행하기 위한 전자 장치인 경우에 해당할 수 있다. 도시되지는 않았지만, 하드웨어 자원 할당 오케스트레이터(210)는, RIC(101)를 실행하는 쿠버네티스 오케스트레이션(미도시) 상에서 실행될 수도 있으며, 이 경우 하드웨어 자원 할당에 대한 정보를 E2 인터페이스를 통하여 DU(151)로 제공할 수도 있음을 당업자는 이해할 것이다.
다양한 실시예에 따라서, 하드웨어 자원 할당 오케스트레이터(210)는, 워크로드 계산부(211), 레이튼시 예측부(212), 하드웨어 자원 모니터링부(213), 로그 데이터(214), 자원 할당 결정부(215) 중 적어도 하나를 포함할 수 있다. 여기에서, 워크로드 계산부(211), 레이튼시 예측부(212), 하드웨어 자원 모니터링부(213), 로그 데이터(214), 자원 할당 결정부(215)는, 예를 들어 하드웨어 자원 할당 오케스트레이터(210)에 포함되는 엔티티로, 예를 들어 인스트럭션 집합으로 구현되거나, 또는 독립적인 어플리케이션(또는, Pod)로 구현될 수도 있다. 로그 데이터(214)는, 예를 들어 하드웨어 엔티티(230)에서 정의되는 저장 장치에 포함되는 로그 데이터를 리드(read)하거나, 및/또는 새로운 로그 데이터를 라이트(write)할 수 있는 엔티티를 의미할 수도 있다.
다양한 실시예에 따라서, 워크로드 계산부(211)는, 특정 슬롯에서의 복수 개의 물리 채널들 각각에 대응하는 연산량들 각각을 계산할 수 있다. 예를 들어, 워크로드 계산부(211)는, DU(151)의 L2 엔티티(또는, 레이어)(201)로부터 RU(161)로 제공되는 제어 플레인 메시지에 기반하여, 특정 슬롯에서의 복수 개의 물리 채널들 각각에 대응하는 연산량들 각각을 계산할 수 있다. 예를 들어, 워크로드 계산부(211)는, 제어 플레인 메시지에 포함된 특정 물리 채널의 RB 및/또는 심볼에 기반하여, 특정 슬롯에서 특정 채널에 대하여 할당된 무선 자원량을 확인할 수 있다. 워크로드 계산부(211)는, 확인된 무선 자원량에 기반하여 특정 채널의 데이터 처리를 위한 연산량을 계산할 수 있다. 데이터 처리를 위한 연산량은, 예를 들어 물리 채널 별로 상이할 수도 있으나, 동일하게 설정될 수도 있다. 상술한 바에 따라, 워크로드 계산부(211)는, 특정 슬롯에서의 복수 개의 물리 채널들 각각에 대한 연산량을 계산할 수 있다. 한편, 상술한 슬롯의 단위는 단순히 예시적인 것이며, 워크로드 계산부(211)가 계산하는 복수 개의 물리 채널들 각각에 대응하는 연산량들의 시간 단위에는 제한이 없다.
한편, 다른 예를 들어, 레이튼시 예측부(212)는, 로그 데이터(214)에 저장된 정보에 기반하여, 복수 개의 물리 채널들 각각에 대응하는 연산량을 계산할 수도 있다. 예를 들어, 로그 데이터(214)는, 과거에서 특정 채널에 대한 무선 자원 할당 정보 및 이를 특정 하드웨어에서 처리한 경우의 연산량 사이의 연관 정보를 포함할 수 있다. 표 1은 로그 데이터(214)의 예시이다.
물리 채널 무선 자원 할당량 연산량
PDCCH R1 A1
PDCCH R2 A2
PDSCH R1 A3
PDSCH R2 A4
예를 들어, 하드웨어 자원 할당 오케스트레이터(210)는, 과거에서의 처리 이력을 표 1과 같이 저장 및/또는 관리할 수 있다. 워크로드 계산부(211)는, 표 1과 같은 로그 데이터(214)에 기반하여 금번 슬롯에 대한 물리 채널 별 연산량을 예측할 수 있다. 예를 들어, R1의 무선 자원 할당량의 PDCCH를 처리하기 위하여 A1의 연산량이 실제 소요되었고, R2의 무선 자원 할당량의 PDCCH를 처리하기 위하여 A2의 연산량이 실제 소요되었고, R1의 무선 자원 할당량의 PDSCH를 처리하기 위하여 A3의 연산량이 실제 소요되었고, R2의 무선 자원 할당량의 PDSCH를 처리하기 위하여 A4의 연산량이 실제 소요되었음의 이력이 저장 및/또는 관리될 수 있다. 워크로드 계산부(211)는, 로그 데이터(215)에 기반하여 금번 슬롯에서의 물리 채널 별 연산량을 예측할 수 있다. 예를 들어, 금번 슬롯에서의 PDCCH에 대하여 R1의 무선 자원이 할당된 경우, 워크로드 계산부(211)는, 표 1과 같은 로그 데이터(215)에 기반하여 금번 슬롯의 PDCCH에 대하여 A1의 연산량을 예측할 수 있다. 또는, 금번 슬롯에서의 PDCCH에 대하여, 예를 들어, 로그 데이터(215)에 포함되지 않는 R3의 무선 자원이 할당된 경우, 워크로드 계산부(211)는, 표 1과 같은 로그 데이터(215)에 기반하여 금번 슬롯의 PDCCH에 대한 연산량을 추정할 수 있다. 예를 들어, 워크로드 계산부(211)는, 무선 자원 할당량 및 연산량 사이의 선형(linear) 관계에 기반하여, 연산량을 예측할 수 있으나, 선형 관계는 단순히 예시적인 것이며 연산량의 예측 방식에는 제한이 없음을 당업자는 이해할 것이다. 상술한 바와 같이, 워크로드 계산부(211)는, 물리 채널 별 무선 자원 할당량에 기반한 계산을 이용하거나, 및/또는 기존 로그 데이터(215)를 이용함으로써, 특정 슬롯의 물리 채널 별 연산량을 확인할 수 있다.다양한 실시예에 따라서, 하드웨어 자원 모니터링부(213)는, 하드웨어 자원들(231,232,233,234)의 가용 연산량을 모니터링할 수 있다. 하드웨어 자원들(231,232,233,234) 각각은, 최대 가용 연산량을 가질 수 있다. 예를 들어, 물리적인 단위로 구분된 하드웨어 자원에 대하여서는, 해당 장치에 대응하는 최대 가용 연산량이 있을 수 있다. 예를 들어, 논리적인 단위로 구분된 하드웨어 자원에 대하여서는, 전자 장치(102)에 의하여 정의된 최대 가용 연산량이 있을 수 있다. 예를 들어, MIG(multi instance GPU) 기능이 실행되는 경우, 각 인스턴스 별 하드웨어 자원에 대한 제약에 따라 최대 가용 연산량이 설정될 수도 있다. 한편, 하드웨어 자원들(231,232,233,234) 중 적어도 일부는, 물리 채널과 연관된 동작 이외에도 다른 종류의 동작을 수행할 수도 있다. 이에 따라, 하드웨어 자원들(231,232,233,234) 각각의 가용 연산량은 실시간으로 변경될 수도 있으며, 하드웨어 자원 모니터링부(213)는, 하드웨어 자원들(231,232,233,234)의 가용 연산량을 실시간으로 모니터링할 수 있다.
다양한 실시예에 따라서, 자원 할당 결정부(215)는, 워크로드 계산부(211)로부터 제공되는 복수 개의 물리 채널들 각각의 연산량을 확인할 수 있다. 자원 할당 결정부(215)는, 하드웨어 자원 모니터링부(213)로부터 제공되는 복수 개의 하드웨어 자원들(231,232,233,234)의 가용 연산량을 확인할 수 있다. 자원 할당 결정부(215)는, 복수 개의 물리 채널들 각각의 연산량 및 복수 개의 하드웨어 자원들(231,232,233,234)의 가용 연산량에 기반하여, 복수 개의 물리 채널들 각각을 복수 개의 하드웨어 자원들(231,232,233,234) 중 적어도 일부에 할당할 수 있다. 예를 들어, 자원 할당 결정부(215)는, 특정 하드웨어 자원의 가용 연산량이 특정 물리 채널의 연산량보다 크도록, 물리 채널들 각각을 할당할 수 있다.
한편, 다른 예에서는, 자원 할당 결정부(215)는, 레이튼시에 기반하여 복수 개의 물리 채널들 각각을 복수 개의 하드웨어 자원들(231,232,233,234) 중 적어도 일부에 할당할 수 있다. 예를 들어, 자원 할당 결정부(215)는, 복수 개의 물리 채널들 각각의 연산량 및 복수 개의 하드웨어 자원들(231,232,233,234)의 가용 연산량에 기반하여, 복수 개의 할당 정책을 확인할 수 있다. 여기에서, 할당 정책은, 복수 개의 물리 채널들 각각이 할당되는 정책을 의미할 수 있다. 상술한 바와 같이, 특정 하드웨어 자원의 가용 연산량이 특정 물리 채널의 연산량보다 크도록, 물리 채널들이 할당될 수 있으며, 이에 따라 복수 개의 할당 정책이 확인될 수도 있다. 레이튼시 예측부(212)는, 복수 개의 할당 정책 별 레이튼시를 예측할 수 있다. 예를 들어, 레이튼시 예측부(212)는, 로그 데이터(214)에 저장된 정보에 기반하여, 복수 개의 물리 채널들 각각에 대응하는 연산량을 계산할 수도 있다. 예를 들어, 로그 데이터(214)는, 과거에서 특정 채널에 대한 연산량 및 이를 특정 하드웨어에서 처리한 경우의 레이튼시 사이의 연관 정보를 포함할 수 있다. 표 2는 로그 데이터(214)의 예시이다.
물리 채널 하드웨어 자원 연산량 레이튼시
PDCCH 제 1 GPU A1 B1
PDCCH 제 2 GPU A2 B2
PDCCH 제 1 CPU A3 B3
PDSCH 제 1 GPU A4 B4
예를 들어, 하드웨어 자원 할당 오케스트레이터(210)는, 과거에서의 처리 이력을 표 2와 같이 저장 및/또는 관리할 수 있다. 레이튼시 예측부(212)는, 표 2와 같은 로그 데이터(214)에 기반하여 금번 슬롯에 대한 할당 정책 별 연산량을 예측할 수 있다. 예를 들어, A5의 연산량의 PDCCH를 제 1 GPU에 할당하는 것이 제 1 할당 정책으로서 결정되고, A5의 연산량의 PDCCH를 제 2 GPU에 할당하는 것이 제 2 할당 정책으로서 결정된 것을 상정하도록 한다. 레이튼시 예측부(212)는, 로그 데이터(214)에서 PDCCH가 A1의 연산량인 경우 제 1 GPU로 처리하였을 때의 레이튼시가 B1인 점에 기반하여, 제 1 할당 정책의 A5의 연산량에 대한 레이튼시(예를 들어, B5)를 예측할 수 있다. 레이튼시 예측부(212)는, 로그 데이터(214)에서 PDCCH가 A2의 연산량인 경우 제 2 GPU로 처리하였을 때의 레이튼시가 B2인 점에 기반하여, 제 1 할당 정책의 A5의 연산량에 대한 레이튼시(예를 들어, B6)를 예측할 수 있다. 예를 들어, 레이튼시 예측부(212)는, 연산량 및 레이튼시의 선형(linear) 관계에 기반하여, 레이튼시를 예측할 수 있으나, 선형 관계는 단순히 예시적인 것이며 레이튼시의 예측 방식에는 제한이 없음을 당업자는 이해할 것이다. 자원 할당 결정부(215)는, 각 할당 정책별 레이튼시들(예를 들어, B5, B6)을 레이튼시 예측부(212)로부터 제공받을 수 있으며, 레이튼시들(예를 들어, B5, B6)의 비교 결과에 기반하여 하나의 할당 정책을 선택할 수 있다. 한편, 상술한 바에서는, PDCCH의 하나의 물리 채널에 대한 예시를 설명하였지만, 이는 예시적인 것으로 레이튼시 예측부(212)는, 복수 개의 물리 채널에 대한 레이튼시들 각각에 대하여서 레이튼시들을 예측할 수 있다. 이 경우, 자원 할당 결정부(215)는, 복수 개의 물리 채널들 각각의 레이튼시들에 기반하여 복수 개의 할당 정책들 중 어느 하나를 선택할 수도 있거나, 또는 복수 개의 물리 채널 중 어느 하나의 물리 채널의 레이튼시에 기반하여 복수 개의 할당 정책들 중 어느 하나를 선택할 수도 있다.다양한 실시예에 따라서, 자원 할당 결정부(215)는, 할당 정책을 결정하여, 이를 DU(151)의 L1 엔티티(202)로 제공할 수 있다. L1 엔티티(202)는, 제공받은 할당 정책에 기반하여 각 물리 채널들별 데이터를, 대응하는 하드웨어 자원을 이용하여 처리할 수 있다. 대응하는 하드웨어 자원에 기반하여 처리된 데이터는 RU(151)와 송수신될 수 있으며, 이에 따라 네트워크 동작이 수행될 수 있다.
아울러, 상술한 바와 같이 도시되지는 않았지만, 하드웨어 자원 할당 오케스트레이터(210)는, RIC(101)에 의하여 실행될 수도 있다. RIC(101)는, 예를 들어 E2 인터페이스를 통하여 제어 플레인 메시지(또는, 제어 플레인 메시지 내의 물리 채널에 대한 무선 자원 할당 정보)를, DU(151)로부터 제공받을 수 있다. RIC(101) 상에서 실행된 하드웨어 자원 할당 오케스트레이터(210)는, 제공받은 제어 플레인 메시지(또는, 제어 플레인 메시지 내의 물리 채널에 대한 무선 자원 할당 정보)에 기반하여, 상술한 실시예들 중 적어도 일부에 기반하여 특정 슬롯(또는, 다른 시간 단위)에 대한 할당 정책을 결정할 수 있다. RIC(101)는, E2 인터페이스를 통하여, 할당 정책을 DU(151)로 제공할 수 있으며, DU(151)는 수신한 할당 정책에 따라서 물리 채널별 데이터를 대응하는 하드웨어 자원을 이용하여 처리할 수 있다.
도 3a는 다양한 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도를 도시한다. 도 3a의 실시예는, 도 3b 및 도 4를 참조하여 설명하도록 한다. 도 3b는 다양한 실시예에 따른 제어 플레인 메시지 및 사용자 플레인 데이터의 송수신을 설명하기 위한 흐름도이다. 도 4는 다양한 실시예에 따른 물리 채널들의 하드웨어 자원의 할당을 설명하기 위한 도면이다.
다양한 실시예에 따라서, 전자 장치(102)(예를 들어, 프로세서(120))는, 301 동작에서, 제어 플레인 메시지에 기반하여 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인할 수 있다. 예를 들어, 전자 장치(102)는, L2 엔티티(201)에서 신규 슬롯이 트리거링됨(또는, 트리거 이벤트의 검출)에 기반하여, 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인할 수 있다. 예를 들어, 도 3b에서와 같이, DU(151)는, 311 동작에서 제 1 슬롯을 위한 제어 플레인 메시지를 RU(161)로 제공할 수 있다. 제어 플레인 메시지에는 무선 자원 할당을 위한 정보, 예를 들어 sectioned 내의 numPrbc 및/또는 numSymbol이 포함될 수 있다. 전자 장치(102)는, 제어 플레인 메시지에 기반하여, 제 1 슬롯에서의 복수 개의 물리 채널 별 무선 자원 할당 정보(예를 들어, RB의 개수 및/또는 심볼의 개수)를 확인할 수 있다. 이후, DU(161)는, 311a 동작, 311b 동작, 내지 311n 동작에서, 제 1 슬롯의 제 1 심볼, 제 2 심볼 내지 제 n 심볼(예를 들어, n은 14)을 위한 사용자 플레인 데이터를 RU(161)로 제공할 수 있다. 이후, DU(151)는, 315 동작에서 제 2 슬롯을 위한 제어 플레인 메시지를 RU(161)로 제공할 수 있다. 전자 장치(102)는, 제어 플레인 메시지에 기반하여, 제 2 슬롯에서의 복수 개의 물리 채널 별 무선 자원 할당 정보(예를 들어, RB의 개수 및/또는 심볼의 개수)를 확인할 수 있다. 상술한 바에 따라, 전자 장치(102)는, 각 슬롯 별로, 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인할 수 있다.
다양한 실시예에 따라서, 전자 장치(102)는, 303 동작에서, 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 예를 들어, 전자 장치(102)는, 복수 개의 물리 채널 별 무선 자원 할당 정보를 이용한 계산에 기반하여, 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 또는, 전자 장치(102)는, 복수 개의 물리 채널 별 무선 자원 할당 정보 및 연산량 사이의 관계를 포함하는 로그 데이터에 기반하여, 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 계산에 기반한 예측 연산량 확인 방식 및/또는 로그 데이터에 기반한 예측 연산량 확인 방식에 대하여서는, 도 2를 참조하여 설명하였으므로, 여기에서의 설명은 반복되지 않는다.
다양한 실시예에 따라서, 전자 장치(102)는, 305 동작에서, 복수 개의 하드웨어 자원 별 가용 연산량을 확인할 수 있다. 전자 장치(102)는, 307 동작에서, 복수 개의 하드웨어 자원 별 가용 연산량 및 복수 개의 물리 채널 별 예측 연산량에 기반하여, 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당할 수 있다. 예를 들어, 전자 장치(102)는, 어느 하드웨어 자원에 대하여 가용 연산량보다 더 큰 연산량이 할당되지 않도록, 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당할 수 있다. 예를 들어, 도 4의 예시에서는, 전자 장치(102)가 PDCCH(401)는 제 1 GPU(231)에 할당하고, PDSCH(402)는 제 1 GPU(231)에 할당하고, PRACH(403)는 제 1 CPU(233)에 할당할 수 있다. 예를 들어, 전자 장치(102)는, PDCCH(401)의 예측 연산량 및 PDSCH(402)의 예측 연산량이 제 1 GPU(231)의 가용 연산량보다 작음에 기반하여, PDCCH(401) 및 PDSCH(402)를 제 1 GPU(231)에 할당할 수 있다.
다양한 실시예에 따라서, 전자 장치(102)는 레이튼시에 기반하여 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당할 수 있다. 예를 들어, 전자 장치(102)는, 도 2를 참조하여 설명한 바와 같이, 할당 정책에 대응하는 복수 개의 물리 채널 별 레이튼시를 확인할 수 있다. 전자 장치(102)는, 복수 개의 물리 채널 별 레이튼시가 레이튼시 제한을 만족하는지 여부에 기반하여, 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당할 수 있다. 예를 들어, 도 4의 예시에서, PDCCH(401), PDSCH(402), 및 PRACH(403)의 연산량의 합계가 제 1 GPU(231)의 가용 연산량보다 작을 수 있다. 이에 따라, PDCCH(401), PDSCH(402), 및 PRACH(403)를 제 1 GPU(231)에 할당하는 것이 상대적으로 효율적일 수 있다. 한편, 전자 장치(102)는, PDCCH(401), PDSCH(402), 및 PRACH(403)를 제 1 GPU(231)에 할당할 경우의 PDCCH(401), PDSCH(402), 및 PRACH(403) 각각에 대응하는 레이튼시들을 확인할 수 있다. 아울러, PDCCH(401), PDSCH(402), 및 PRACH(403) 각각에 대응하는 레이튼시 한계가 설정될 수 있으며, 레이튼시 한계의 설정의 방식 및/또는 조건에는 제한이 없다. PDCCH(401), PDSCH(402), 및 PRACH(403)를 제 1 GPU(231)에 할당할 경우의 PDCCH(401), PDSCH(402), 및 PRACH(403) 각각에 대응하는 레이튼시들 중 적어도 일부가 PDCCH(401), PDSCH(402), 및 PRACH(403) 각각에 대응하는 레이튼시 한계를 초과함을 확인할 수 있다. 이 경우, 전자 장치(102)는, PDCCH(401), PDSCH(402), 및 PRACH(403)를 제 1 GPU(231)에 할당하지 않을 수 있다. 다만, 모든 할당 정책들에서 레이튼시 한계가 충족되지 않는 경우에는, 전자 장치(102)는 우선 순위에 따라 어느 하나의 할당 정책을 선택할 수도 있으며 이에 대하여서는 후술하도록 한다.
다양한 실시예에서, 전자 장치(102)는, 하나의 물리 채널에 포함된 복수 개의 서브 물리 채널들 각각을 하드웨어 자원들에 할당하도록 설정될 수도 있다. 상술한 예시에서, 전자 장치(102)는, 하나의 물리 채널은, 하나의 하드웨어 자원에 할당하는 것과 같이 설명되었지만 이는 예시적인 것이며, 다양한 실시예에서는, 하나의 물리 채널의 복수 개의 서브 물리 채널들을 상이한 하드웨어 자원들 각각에 할당할 수도 있다. 예를 들어, 전자 장치(102)는, 하나의 슬롯에서 제 1 UE에 대응하는 PUSCH를 제 1 하드웨어 자원에 할당하고, 제 2 UE에 대응하는 PUSCH를 제 2 하드웨어 자원에 할당할 수도 있다. 한편, UE 별로 서브 물리 채널들을 구분하는 것은 예시적인 것이며, 하나의 물리 채널에 대하여 복수 개의 서브 물리 채널을 구분하는 방식에는 제한이 없다.
도 5는 다양한 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도를 도시한다. 도 5의 실시예는, 도 6을 참조하여 설명하도록 한다. 도 6은 다양한 실시예에 따른 물리 채널들의 하드웨어 자원의 할당을 설명하기 위한 도면이다.
다양한 실시예에 따라서, 전자 장치(102)(예를 들어, 프로세서(120))는, 501 동작에서, 제어 플레인 메시지에 기반하여 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인할 수 있다. 전자 장치(102)는, 제어 플레인 메시지에 포함된 sectioned 내의 numPrbc 및/또는 numSymbol에 기반하여, 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인할 수 있다. 전자 장치(102)는, 303 동작에서, 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 예를 들어, 전자 장치(102)는, 복수 개의 물리 채널 별 무선 자원 할당 정보를 이용한 계산에 기반하여, 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 또는, 전자 장치(102)는, 복수 개의 물리 채널 별 무선 자원 할당 정보 및 연산량 사이의 관계를 포함하는 로그 데이터에 기반하여, 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 다양한 실시예에 따라서, 전자 장치(102)는, 505 동작에서, 복수 개의 하드웨어 자원 별 가용 연산량을 확인할 수 있다.
다양한 실시예에 따라서, 전자 장치(102)는, 507 동작에서, 복수 개의 하드웨어 자원 별 가용 연산량 및 복수 개의 물리 채널 별 예측 연산량에 기반하여, 복수 개의 할당 정책을 확인할 수 있다. 509 동작에서, 전자 장치(102)는, 복수 개의 할당 정책 각각에서의 복수 개의 물리 채널 별 레이튼시를 확인할 수 있다. 예를 들어, 전자 장치(102)는, 어느 하드웨어 자원에 대하여 가용 연산량보다 더 큰 연산량이 할당되지 않도록 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당 가능한 할당 정책을 확인할 수 있다. 예를 들어, 도 6을 참조하면, 전자 장치(102)는, PDCCH(401)는 제 1 GPU(231)에 할당하고, PDSCH(402)는 제 1 GPU(231)에 할당하고, PRACH(403)는 제 1 CPU(233)에 할당하는 제 1 할당 정책을 확인할 수 있다. 전자 장치(102)는, 제 1 할당 정책에서, 어느 하드웨어 자원에 대하여 가용 연산량보다 더 큰 연산량이 할당되지 않도록 복수 개의 물리 채널 각각이 복수 개의 하드웨어 자원 중 적어도 일부에 할당 가능한 것을 확인할 수 있다. 전자 장치(102)는, 제 1 할당 정책에서의 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시들(예를 들어, A1 μs, B1 μs, C1 μs)를 확인할 수 있다. 예를 들어, 전자 장치(102)는, 도 2를 참조하여 설명한 바와 같이, 연산량 및 레이튼시 사이의 연관 정보를 포함하는 로그 데이터에 기반하여 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시들(예를 들어, A1 μs, B1 μs, C1 μs)를 확인할 수 있으나, 그 확인 방식에는 제한이 없다. 전자 장치(102)는, PDCCH(401)는 제 1 GPU(231)에 할당하고, PDSCH(402)는 제 2 GPU(232)에 할당하고, PRACH(403)는 제 1 CPU(233)에 할당하는 제 2 할당 정책을 확인할 수 있다. 전자 장치(102)는, 제 2 할당 정책에서, 어느 하드웨어 자원에 대하여 가용 연산량보다 더 큰 연산량이 할당되지 않도록 복수 개의 물리 채널 각각이 복수 개의 하드웨어 자원 중 적어도 일부에 할당 가능한 것을 확인할 수 있다. 전자 장치(102)는, 제 2 할당 정책에서의 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시들(예를 들어, A2 μs, B2 μs, C2 μs)를 확인할 수 있다. 도 6에서는, 전자 장치(102)가 두 개의 할당 정책을 확인한 것과 같이 도시되어 있지만 이는 예시적인 것으로, 할당 정책의 개수에는 제한이 없다.
다양한 실시예에 따라서, 전자 장치(102)는, 511 동작에서, 복수 개의 물리 채널 별 레이튼시에 기반하여 하나를 선택할 수 있다.
하나의 예에서, 전자 장치(102)는, 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시들이, 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시 한계들을 만족하는 할당 정책을 선택할 수 있다. 예를 들어, 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시 한계들이 TH_PDCCH, TH_PDSCH, TH_PRACH로 설정될 수 있으며, 레이튼시 한계들이 설정되는 방식에는 제한이 없다. 한편, 물리 채널에 대한 레이튼시 한계들이 상이한 것과 같이 설명되었지만 이는 예시적인 것으로, 물리 채널들 중 적어도 두 개의 물리 채널의 레이튼시 한계가 동일할 수도 있다. 전자 장치(102)는, 제 1 할당 정책에서의 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시들(예를 들어, A1 μs, B1 μs, C1 μs) 각각이 레이튼시 한계들(TH_PDCCH, TH_PDSCH, TH_PRACH) 각각 이하인지 여부를 확인할 수 있다. 예를 들어, 제 1 할당 정책에서의 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시들(예를 들어, A1 μs, B1 μs, C1 μs) 각각이 레이튼시 한계들(TH_PDCCH, TH_PDSCH, TH_PRACH) 각각 이하인 경우, 전자 장치(102)는, 제 1 할당 정책을 이용 가능한 할당 정책으로 확인할 수 있다. 만약, 제 2 할당 정책에서의 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시들(예를 들어, A2 μs, B2 μs, C2 μs) 중 적어도 하나가, 대응하는 레이튼시 한계를 초과하는 경우, 전자 장치(102)는, 제 2 할당 정책을 이용 불가능한 할당 정책으로 확인할 수 있다. 이 경우, 전자 장치(102)는, 복수 개의 할당 정책들 중, 레이튼시 한계를 만족하는 제 1 할당 정책을 선택할 수 있다.
다른 예에서, 모든 물리 채널들의 레이튼시들이 대응하는 레이튼시 한계들을 만족하는 할당 정책이 복수 개로 확인될 수 있다. 이 경우, 전자 장치(102)는, 복수 개의 할당 정책의 우선 순위에 기반하여, 어느 하나의 할당 정책을 선택할 수 있다. 하나의 예에서, 전자 장치(102)는, 복수 개의 할당 정책들 중 이용되는 하드웨어 자원(또는, 에너지 소비량)이 최소인 할당 정책을 선택할 수 있다. 예를 들어, 도 6의 실시예에서, 제 1 할당 정책에서의 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시들(예를 들어, A1 μs, B1 μs, C1 μs) 각각이 레이튼시 한계들(TH_PDCCH, TH_PDSCH, TH_PRACH) 각각 이하이며, 제 2 할당 정책에서의 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시들(예를 들어, A2 μs, B2 μs, C2 μs) 각각이 레이튼시 한계들(TH_PDCCH, TH_PDSCH, TH_PRACH) 각각 이하인 것을 상정하도록 한다. 이 경우, 전자 장치(102)는, 제 1 할당 정책 및 제 2 할당 정책 모두 레이튼시 한계를 만족하는 것으로 확인할 수 있다. 한편, 제 1 할당 정책에 따르면, 제 1 GPU(231) 및 제 1 CPU(233)가 이용될 수 있으며, 제 2 할당 정책에 따르면, 제 1 GPU(231), 제 2 GPU(232) 및 제 1 CPU(233)가 이용될 수 있다. 제 1 할당 정책에 따라 이용되는 하드웨어 자원의 개수(또는, 에너지 소비량)가 제 2 할당 정책에 따라 이용되는 하드웨어 자원의 개수(또는, 에너지 소비량)보다 작음에 기반하여, 전자 장치(102)는 제 1 할당 정책을 선택할 수 있다. 다른 예시에서는, 전자 장치(102)는 복수 개의 할당 정책들 중 레이튼시의 합계가 최소인 할당 정책을 선택할 수도 있다. 다른 예시에서는, 전자 장치(102)는, 복수 개의 할당 정책들 중 우선 순위가 높은 물리 채널(예를 들어, PDCCH, PUCCH와 같은 컨트롤 채널)의 레이튼시가 레이튼시 한계를 만족하는 할당 정책(또는, 최소 레이튼시를 가지는 할당 정책)을 선택할 수도 있다. 전자 장치(102)는, 상술한 다양한 선택 조건에 기반하거나, 또는 적어도 두 개 이상의 조합에 기반하여, 복수 개의 할당 정책들 중 하나를 선택할 수 있다.
다른 예에서, 모든 물리 채널들의 레이튼시들이 대응하는 레이튼시 한계들을 만족하는 할당 정책이 확인되지 않을 수도 있다. 이 경우, 전자 장치(102)는, 레이튼시 한계를 만족하지 못하는 복수 개의 할당 정책들 중 어느 하나를 선택할 수도 있다. 하나의 예에서는, 전자 장치(102)는, 레이튼시 한계를 만족하지 못하는 복수 개의 할당 정책들 중, 사용하는 하드웨어 자원이 최소인(또는, 에너지 소비량이 최소인) 할당 정책을 선택할 수 있다. 예를 들어, 도 6의 실시예에서, 제 1 할당 정책에서의 복수 개의 물리 채널(401,402,403) 각각에 대응하는 레이튼시들(예를 들어, A1 μs, B1 μs, C1 μs) 중 적어도 하나가 레이튼시 한계를 만족하지 못하며, 제 2 할당 정책에서의 복수 개의 물리 채널(401,402,403) 중 적어도 하나가 레이튼시 한계를 만족하지 못한 것을 상정하도록 한다. 이 경우, 전자 장치(102)는, 제 1 할당 정책 및 제 2 할당 정책 모두 레이튼시 한계를 만족하지 못하는 것으로 확인할 수 있다. 한편, 제 1 할당 정책에 따르면, 제 1 GPU(231) 및 제 1 CPU(233)가 이용될 수 있으며, 제 2 할당 정책에 따르면, 제 1 GPU(231), 제 2 GPU(232) 및 제 1 CPU(233)가 이용될 수 있다. 제 1 할당 정책에 따라 이용되는 하드웨어 자원의 개수(또는, 에너지 소비량)가 제 2 할당 정책에 따라 이용되는 하드웨어 자원의 개수(또는, 에너지 소비량)보다 작음에 기반하여, 전자 장치(102)는 제 1 할당 정책을 선택할 수 있다. 다른 예시에서는, 전자 장치(102)는, 레이튼시 한계를 만족하지 못하는 복수 개의 할당 정책들 중 레이튼시의 합계가 최소인 할당 정책을 선택할 수도 있다. 다른 예시에서는, 전자 장치(102)는, 레이튼시 한계를 만족하지 못하는 복수 개의 할당 정책들 중 우선 순위가 높은 물리 채널(예를 들어, PDCCH, PUCCH와 같은 컨트롤 채널)의 레이튼시가 레이튼시 한계를 만족하는 할당 정책(또는, 최소 레이튼시를 가지는 할당 정책)을 선택할 수도 있다. 전자 장치(102)는, 상술한 다양한 선택 조건에 기반하거나, 또는 적어도 두 개 이상의 조합에 기반하여, 복수 개의 할당 정책들 중 하나를 선택할 수 있다.
다양한 실시예에 따라서, 전자 장치(102)는, 515 동작에서, 선택된 할당 정책에 기반하여 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당할 수 있다. 복수 개의 물리 채널들 각각에 대한 하드웨어 자원 할당과 연관된 정보는, DU(161)에 제공될 수 있으며, DU(161)는 하드웨어 자원 할당 정보에 기반하여, 복수 개의 물리 채널들 각각에 대한 데이터 처리를 해당하는 하드웨어 자원을 이용하여 수행할 수 있다.
도 7은 다양한 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따라서, 전자 장치(102)(예를 들어, 프로세서(120))는, 701 동작에서, 복수 개의 하드웨어 자원 별 가용 연산량 및 복수 개의 물리 채널 별 예측 연산량에 기반하여, 복수 개의 할당 정책을 확인할 수 있다. 예를 들어, 전자 장치(102)는, 어느 하드웨어 자원에 대하여 가용 연산량보다 더 큰 연산량이 할당되지 않도록 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당 가능한 할당 정책을 확인할 수 있다. 전자 장치(102)는, 703 동작에서, 복수 개의 할당 정책들 중 복수 개의 물리 채널 별 시간 제약을 모두 만족하는 레이튼시들을 가지는 할당 정책을 확인할 수 있다. 예를 들어, 전자 장치(102)는, 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시들을 확인할 수 있다. 상술한 바와 같이, 복수 개의 물리 채널에 대하여서는 레이튼시 한계가 설정될 수 있으며, 이를 시간 제약으로 명명할 수도 있다. 전자 장치(102)는, 예를 들어 모든 물리 채널의 레이튼시들 각각이 시간 제약을 만족하는 할당 정책을 확인할 수 있다. 한편, 다른 예시에서는, 전자 장치(102)는, 복수 개의 물리 채널 전체가 아닌, 특정한 적어도 하나의 물리 채널이 시간 제약을 만족하는 할당 정책을 확인할 수도 있다.
다양한 실시예에 따라서, 전자 장치(102)는, 705 동작에서, 확인된 할당 정책이 복수 개인지 여부를 확인할 수 있다. 만약, 확인된 할당 정책이 하나라면(705-아니오), 전자 장치(102)는, 707 동작에서, 하나의 할당 정책을 선택할 수 있다. 만약, 확인된 할당 정책이 복수 개라면(705-예), 전자 장치(102)는, 709 동작에서, 우선 순위가 가장 높은 할당 정책을 선택할 수 있다. 하나의 예에서, 전자 장치(102)는, 복수 개의 할당 정책들 중 이용되는 하드웨어 자원(또는, 에너지 소비량)이 최소인 할당 정책을 선택할 수 있다. 다른 예시에서는, 전자 장치(102)는 복수 개의 할당 정책들 중 레이튼시의 합계가 최소인 할당 정책을 선택할 수도 있다. 다른 예시에서는, 전자 장치(102)는, 복수 개의 할당 정책들 중 우선 순위가 높은 물리 채널(예를 들어, PDCCH, PUCCH와 같은 컨트롤 채널)의 레이튼시가 레이튼시 한계를 만족하는 할당 정책(또는, 최소 레이튼시를 가지는 할당 정책)을 선택할 수도 있다. 전자 장치(102)는, 상술한 다양한 선택 조건에 기반하거나, 또는 적어도 두 개 이상의 조합에 기반하여, 복수 개의 할당 정책들 중 하나를 선택할 수 있다.
도 8은 다양한 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따라서, 전자 장치(102)(예를 들어, 프로세서(120))는, 801 동작에서, 복수 개의 하드웨어 자원 별 가용 연산량 및 복수 개의 물리 채널 별 예측 연산량에 기반하여, 복수 개의 할당 정책을 확인할 수 있다. 예를 들어, 전자 장치(102)는, 어느 하드웨어 자원에 대하여 가용 연산량보다 더 큰 연산량이 할당되지 않도록 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당 가능한 할당 정책을 확인할 수 있다. 803 동작에서, 전자 장치(102)는, 복수 개의 물리 채널 중 우선 순위에 기반하여 적어도 하나의 물리 채널을 선택할 수 있다. 하나의 예에서, 전자 장치(102)는, 디폴트된 적어도 하나의 물리 채널(예를 들어, PDCCH, 또는 PUCCH와 같은 컨트롤 채널)을 선택할 수 있으나, 상대적으로 높은 우선 순위가 설정된 물리 채널의 종류에는 제한이 없다. 전자 장치(102)는, 805 동작에서, 선택된 적어도 하나의 물리 채널에 대한 복수 개의 물리 채널별 레이튼시들을 확인할 수 있다. 예를 들어, PDCCH가 선택된 경우, 전자 장치(102)는 복수 개의 할당 정책들 각각의 PDCCH에 대한 레이튼시들을 확인할 수 있다. 전자 장치(102)는, 807 동자에서, 확인된 레이튼시에 기반하여 하나의 할당 정책을 선택할 수 있다. 예를 들어, 전자 장치(102)는, PDCCH가 선택된 경우, PDCCH의 레이튼시 한계를 만족하는 레이튼시를 가지는 할당 정책을 선택할 수 있다. 또는, 전자 장치(102)는, PDCCH가 선택된 경우, PDCCH의 레이튼시가 가장 낮은 할당 정책을 선택할 수 있다. 만약, 가장 높은 우선 순위의 물리 채널에 대하여서 동일한 레이튼시를 가지는 복수 개의 할당 정책들이 존재하는 경우, 전자 장치(102)는, 차순위의 물리 채널에 대한 레이튼시들에 기반하여 복수 개의 할당 정책들 중 하나를 선택할 수도 있다.
도 9는 다양한 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따라서, 전자 장치(102)(예를 들어, 프로세서(120))는, 전자 장치(102)(예를 들어, 프로세서(120))는, 901 동작에서, 제어 플레인 메시지에 기반하여 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인할 수 있다. 전자 장치(102)는, 예를 들어 복수 개의 물리 채널 별 무선 자원 할당 정보(예를 들어, RB의 개수 및/또는 심볼의 개수)를 확인할 수 있다.
다양한 실시예에 따라서, 전자 장치(102)는, 903 동작에서, 복수 개의 물리 채널 별 무선 자원 할당 정보 및 추가 정보에 기반하여, 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 상술한 바와 같이, 전자 장치(102)는, 복수 개의 물리 채널 별 무선 자원 할당 정보를 이용한 계산에 기반하여, 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 또는, 전자 장치(102)는, 복수 개의 물리 채널 별 무선 자원 할당 정보 및 연산량 사이의 관계를 포함하는 로그 데이터에 기반하여, 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 한편, 전자 장치(102)는 추가 정보를 추가적으로 고려하여, 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 하나의 예에서, 전자 장치(102)는 이용하는 안테나 개수를 추가 정보로서 고려하여 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 하나의 예에서, 전자 장치(102)는, 레이어의 수를 추가 정보로서 고려하여 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 하나의 예에서, 전자 장치(102)는 네트워크에 연결된 UE의 개수를 추가 정보로서 고려하여 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다. 다양한 실시예에 따라서, 전자 장치(102)는 상술한 추가 정보 또는 둘 이상의 조합을 더 고려하여 복수 개의 물리 채널 별 예측 연산량을 확인할 수 있다.
다양한 실시예에 따라서, 전자 장치(102)는, 905 동작에서, 복수 개의 하드웨어 자원 별 가용 연산량을 확인할 수 있다. 전자 장치(102)는, 907 동작에서, 복수 개의 하드웨어 자원 별 가용 연산량 및 복수 개의 물리 채널 별 예측 연산량에 기반하여, 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당할 수 있다. 예를 들어, 전자 장치(102)는, 어느 하드웨어 자원에 대하여 가용 연산량보다 더 큰 연산량이 할당되지 않도록, 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당할 수 있다. 전자 장치(102)는 레이튼시에 기반하여 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당할 수도 있다. 예를 들어, 전자 장치(102)는, 도 2를 참조하여 설명한 바와 같이, 할당 정책에 대응하는 복수 개의 물리 채널 별 레이튼시를 확인할 수 있다. 전자 장치(102)는, 복수 개의 물리 채널 별 레이튼시가 레이튼시 제한을 만족하는지 여부에 기반하여, 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당할 수 있다. 한편, 다양한 실시예들의 무선 자원 할당 정보에 기반하여 복수 개의 물리 채널 별 예측 연산량을 확인하는 동작은, 무선 자원 할당 정보 및 적어도 하나의 추가 정보에 기반하여 복수 개의 물리 채널 별 예측 연산량을 확인하는 동작으로 대체될 수도 있음을 당업자는 이해할 것이다.
도 10은 다양한 실시예와의 비교를 위한 비교예에 따른 물리 채널의 할당 및 다양한 실시예에 따른 물리 채널의 할당을 설명하기 위한 도면이다.
비교예에 따른 물리 채널 할당 정책은, 예를 들어 물리 채널들 중 업 링크 채널(1003)은 GPU(1001)에 고정적으로 할당하고, 다운 링크 채널(1004)은 CPU(1002)에 고정적으로 할당하는 것일 수 있다. 한편, 업 링크의 트래픽이 증가하고, 다운 링크 트래픽이 감소하는 경우가 발생할 수 있다. 이 때, 다운 링크 트래픽이 감소하여 CPU(1002)에는 상대적으로 많은 유휴 자원이 확보될 수 있으며, 업 링크 트래픽 증가에 따른 GPU(1001)의 유휴 자원 부족 현상이 발생할 수 있다. 비교예에 따라서는, 고정적인 할당 정책에 따라서, CPU(1002)의 유휴 자원을 이용할 수 없어 하드웨어 자원의 효율이 저하될 수 있다. 또는, 업 링크(1003)의 연산량이 GPU(1001)의 가용 연산량을 초과할 가능성도 있다. 다양한 실시예에 따른 전자 장치(102)는, 업 링크(1003)의 적어도 하나의 제 1 물리 채널(1003a)은 GPU(1001)에 할당하고, 적어도 하나의 제 2 물리 채널(1003b)은 CPU(1002)에 할당할 수 있다. 상술한 바와 같이, 전자 장치(102)는, 물리 채널들 별로 연산량을 예측할 수 있으며, 이에 기반하여 하드웨어 자원들을 복수 개의 물리 채널들 각각에 할당할 수 있다. 이에 따라, 전자 장치(102)는, 적어도 하나의 제 1 물리 채널(1003a)은 GPU(1001)에 할당하고, 적어도 하나의 제 2 물리 채널(1003b)은 CPU(1002)에 할당할 수 있다.
도 11은 다양한 실시예와의 비교를 위한 비교예에 따른 물리 채널의 할당 및 다양한 실시예에 따른 물리 채널의 할당을 설명하기 위한 도면이다.
비교예에 따른 물리 채널 할당 정책은, 예를 들어 PUSCH(1103)은 제 1 GPU(1101)에 고정적으로 할당하고, PUCCH(1104)은 제 2 GPU(1102)에 고정적으로 할당하는 것일 수 있다. 한편, 비교예에서는, PUSCH(1103) 및 PUCCH(1104)의 전체 트래픽이 상대적으로 낮은 경우에도, 두 개의 GPU들(1101,1102)(또는, GPU 인스턴스들)이 모두 구동되어야 한다. 다양한 실시예에 따른 전자 장치(102)는, PUSCH(1103) 및 PUCCH(1104) 모두를 제 1 GPU(1101)에 할당할 수 있다. 상술한 바와 같이, 전자 장치(102)는, 물리 채널들 별로 연산량을 예측할 수 있으며, 이에 기반하여 하드웨어 자원들을 복수 개의 물리 채널들 각각에 할당할 수 있다. 이에 따라, 전자 장치(102)는, PUSCH(1103) 및 PUCCH(1104) 모두를 제 1 GPU(1101)에 할당할 수 있으며, 이 경우 제 2 GPU(1102)는 유휴 상태에 있을 수 있다. 또는, 제 2 GPU(1102)이, 네트워크 데이터 처리 이외의 다른 동작(예를 들어, 연산량 및/또는 레이튼시 계산을 위한 AI 모델의 학습(예를 들어, 강화 학습))을 위하여 이용될 수도 있다.
다양한 실시예에 따라서, 다양한 실시예에 따라서, 전자 장치의 동작 방법은, 제 1 슬롯에 대한 무선 자원 할당 정보를 포함하는 제어 플레인 메시지에 기반하여, 상기 제 1 슬롯 내의 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인하는 동작, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작, 상기 전자 장치에 의하여 지원되는 복수 개의 하드웨어 자원 별 가용 연산량을 확인 하는 동작, 및 상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작을 포함할 수 있다. 그 밖의 다양한 실시예가 가능하다.
다양한 실시예에 따라서, 상기 제 1 슬롯 내의 상기 복수 개의 물리 채널 별 무선 자원 할당 정보는, 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수를 포함할 수 있다.
다양한 실시예에 따라서, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작은, 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수를 이용하는 계산을 수행함에 기반하여 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인할 수 있다.
다양한 실시예에 따라서, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작은, 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수 및, 과거의 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수와 연산량 사이의 연관 정보를 이용하여 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인할 수 있다.
다양한 실시예에 따라서, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작은, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보 및 적어도 하나의 추가 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하고, 상기 적어도 하나의 추가 정보는, 상기 복수 개의 물리 채널의 송신 및/또는 수신에 이용되는 안테나의 개수, 상기 복수 개의 물리 채널의 레이어의 수, 또는 상기 전자 장치에 연결된 사용자 장치의 개수 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따라서, 상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작은, 상기 복수 개의 하드웨어 자원 중 상기 적어도 일부 각각의 가용 연산량이, 할당받은 적어도 하나의 물리 채널의 연산량의 합계 이상이 되도록, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당할 수 있다.
다양한 실시예에 따라서, 상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작은, 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여 상기 복수 개의 물리 채널 별 레이튼시들을 확인하는 동작, 및 상기 복수 개의 하드웨어 자원 별 가용 연산량, 상기 복수 개의 물리 채널 별 예측 연산량, 및 상기 상기 복수 개의 물리 채널 별 레이튼시들에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 상기 복수 개의 하드웨어 자원 별 가용 연산량, 상기 복수 개의 물리 채널 별 예측 연산량, 및 상기 상기 복수 개의 물리 채널 별 레이튼시들에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작은, 상기 복수 개의 하드웨어 자원 중 상기 적어도 일부 각각의 가용 연산량이, 할당받은 적어도 하나의 물리 채널의 연산량의 합계 이상이 되도록 하는 복수 개의 할당 정책들을 확인하는 동작, 및 상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작은, 상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 상기 하나를 선택할 수 있다.
다양한 실시예에 따라서, 상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작은, 상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 후보 할당 정책이 복수 개인 경우, 상기 복수 개의 후보 할당 정책 중 상기 하나를 선택할 수 있다.
다양한 실시예에 따라서, 상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작은, 상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 후보 할당 정책이 복수 개인 경우, 상기 복수 개의 후보 할당 정책 중 최소 하드웨어 자원을 이용하는 할당 정책을 선택할 수 있다.
다양한 실시예에 따라서, 상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작은, 상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 후보 할당 정책이 복수 개인 경우, 상기 복수 개의 후보 할당 정책 중 지정된 물리 채널의 레이튼시가 최소인 할당 정책을 선택할 수 있다.
다양한 실시예에 따라서, 전자 장치는, 메모리 및 상기 메모리에 작동적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 메모리는, 실행시에, 상기 적어도 하나의 프로세서로 하여금, 제 1 슬롯에 대한 무선 자원 할당 정보를 포함하는 제어 플레인 메시지에 기반하여, 상기 제 1 슬롯 내의 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인하고, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하고, 상기 전자 장치에 의하여 지원되는 복수 개의 하드웨어 자원 별 가용 연산량을 확인하고, 상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하도록 야기하는 적어도 하나의 인스트럭션을 저장할 수 있다.
다양한 실시예에 따라서, 상기 제 1 슬롯 내의 상기 복수 개의 물리 채널 별 무선 자원 할당 정보는, 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수를 포함할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작의 적어도 일부로서, 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수를 이용하는 계산을 수행함에 기반하여 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하도록 야기할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작의 적어도 일부로서, 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수 및, 과거의 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수와 연산량 사이의 연관 정보를 이용하여 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하도록 야기할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작의 적어도 일부로, 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수 및, 과거의 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수와 연산량 사이의 연관 정보를 이용하여 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하도록 야기할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작의 적어도 일부로, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보 및 적어도 하나의 추가 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하도록 야기하고, 상기 적어도 하나의 추가 정보는, 상기 복수 개의 물리 채널의 송신 및/또는 수신에 이용되는 안테나의 개수, 상기 복수 개의 물리 채널의 레이어의 수, 또는 상기 전자 장치에 연결된 사용자 장치의 개수 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작의 적어도 일부로, 상기 복수 개의 하드웨어 자원 중 상기 적어도 일부 각각의 가용 연산량이, 할당받은 적어도 하나의 물리 채널의 연산량의 합계 이상이 되도록, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하도록 야기할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작의 적어도 일부로, 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여 상기 복수 개의 물리 채널 별 레이튼시들을 확인고, 상기 복수 개의 하드웨어 자원 별 가용 연산량, 상기 복수 개의 물리 채널 별 예측 연산량, 및 상기 상기 복수 개의 물리 채널 별 레이튼시들에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하도록 야기할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 하드웨어 자원 별 가용 연산량, 상기 복수 개의 물리 채널 별 예측 연산량, 및 상기 상기 복수 개의 물리 채널 별 레이튼시들에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작의 적어도 일부로, 상기 복수 개의 하드웨어 자원 중 상기 적어도 일부 각각의 가용 연산량이, 할당받은 적어도 하나의 물리 채널의 연산량의 합계 이상이 되도록 하는 복수 개의 할당 정책들을 확인하고, 상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하도록 야기할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작의 적어도 일부로, 상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 상기 하나를 선택하도록 야기할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작의 적어도 일부로, 상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 후보 할당 정책이 복수 개인 경우, 상기 복수 개의 후보 할당 정책 중 상기 하나를 선택하도록 야기할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작의 적어도 일부로, 상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 후보 할당 정책이 복수 개인 경우, 상기 복수 개의 후보 할당 정책 중 최소 하드웨어 자원을 이용하는 할당 정책을 선택하도록 야기할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작의 적어도 일부로, 상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 후보 할당 정책이 복수 개인 경우, 상기 복수 개의 후보 할당 정책 중 지정된 물리 채널의 레이튼시가 최소인 할당 정책을 선택하도록 야기할 수 있다.
다양한 실시예에 따라서, 전자 장치의 동작 방법은, 제 1 슬롯에 대한 무선 자원 할당 정보를 포함하는 제어 플레인 메시지에 기반하여, 상기 제 1 슬롯 내의 제 1 물리 채널의 제 1 무선 자원 할당량 및 제 2 물리 채널의 제 2 무선 자원 할당량을 확인하는 동작, 상기 제 1 무선 자원 할당량 및 상기 제 2 무선 자원 할당량에 대응하는 연산을 상기 전자 장치에 의하여 지원되는 제 1 하드웨어 자원에 의하여 수행 가능한 경우, 상기 제 1 물리 채널 및 상기 제 2 물리 채널을 상기 제 1 하드웨어 자원에 할당 하는 동작, 및 상기 제 1 무선 자원 할당량 및 상기 제 2 자원 무선 할당량에 대응하는 연산을 상기 전자 장치에 의하여 지원되는 상기 제 1 하드웨어 자원에 의하여 수행 불가능한 경우, 상기 제 1 물리 채널 또는 상기 제 2 물리 채널 중 하나의 물리 채널을 상기 제 1 하드웨어 자원에 할당하고, 나머지 채널을 상기 제 1 하드웨어 자원과 상이한 제 2 하드웨어 자원에 할당하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 전자 장치는, 메모리 및 상기 메모리에 작동적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 메모리는, 실행시에, 상기 적어도 하나의 프로세서로 하여금, 제 1 슬롯에 대한 무선 자원 할당 정보를 포함하는 제어 플레인 메시지에 기반하여, 상기 제 1 슬롯 내의 제 1 물리 채널의 제 1 무선 자원 할당량 및 제 2 물리 채널의 제 2 무선 자원 할당량을 확인하고, 상기 제 1 무선 자원 할당량 및 상기 제 2 무선 자원 할당량에 대응하는 연산을 상기 전자 장치에 의하여 지원되는 제 1 하드웨어 자원에 의하여 수행 가능한 경우, 상기 제 1 물리 채널 및 상기 제 2 물리 채널을 상기 제 1 하드웨어 자원에 할당하고, 상기 제 1 무선 자원 할당량 및 상기 제 2 자원 무선 할당량에 대응하는 연산을 상기 전자 장치에 의하여 지원되는 상기 제 1 하드웨어 자원에 의하여 수행 불가능한 경우, 상기 제 1 물리 채널 또는 상기 제 2 물리 채널 중 하나의 물리 채널을 상기 제 1 하드웨어 자원에 할당하고, 나머지 채널을 상기 제 1 하드웨어 자원과 상이한 제 2 하드웨어 자원에 할당하도록 야기할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(102)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리 또는 외장 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(102))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치의 동작 방법에 있어서,
    제 1 슬롯에 대한 무선 자원 할당 정보를 포함하는 제어 플레인 메시지에 기반하여, 상기 제 1 슬롯 내의 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인하는 동작;
    상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작;
    상기 전자 장치에 의하여 지원되는 복수 개의 하드웨어 자원 별 가용 연산량을 확인 하는 동작; 및
    상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작
    을 포함하는 전자 장치의 동작 방법.
  2. 제 1 항에 있어서,
    상기 제 1 슬롯 내의 상기 복수 개의 물리 채널 별 무선 자원 할당 정보는, 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수를 포함하는 전자 장치의 동작 방법.
  3. 제 2 항에 있어서,
    상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작은,
    상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수를 이용하는 계산을 수행함에 기반하여 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 전자 장치의 동작 방법.
  4. 제 2 항에 있어서,
    상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작은,
    상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수 및, 과거의 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수와 연산량 사이의 연관 정보를 이용하여 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 전자 장치의 동작 방법.
  5. 제 1 항에 있어서,
    상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작은, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보 및 적어도 하나의 추가 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하고,
    상기 적어도 하나의 추가 정보는, 상기 복수 개의 물리 채널의 송신 및/또는 수신에 이용되는 안테나의 개수, 상기 복수 개의 물리 채널의 레이어의 수, 또는 상기 전자 장치에 연결된 사용자 장치의 개수 중 적어도 하나를 포함하는 전자 장치의 동작 방법.
  6. 제 1 항에 있어서,
    상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작은,
    상기 복수 개의 하드웨어 자원 중 상기 적어도 일부 각각의 가용 연산량이, 할당받은 적어도 하나의 물리 채널의 연산량의 합계 이상이 되도록, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 전자 장치의 동작 방법.
  7. 제 1 항에 있어서,
    상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작은,
    상기 복수 개의 물리 채널 별 예측 연산량에 기반하여 상기 복수 개의 물리 채널 별 레이튼시들을 확인하는 동작; 및
    상기 복수 개의 하드웨어 자원 별 가용 연산량, 상기 복수 개의 물리 채널 별 예측 연산량, 및 상기 상기 복수 개의 물리 채널 별 레이튼시들에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작
    을 포함하는 전자 장치의 동작 방법.
  8. 제 7 항에 있어서,
    상기 복수 개의 하드웨어 자원 별 가용 연산량, 상기 복수 개의 물리 채널 별 예측 연산량, 및 상기 상기 복수 개의 물리 채널 별 레이튼시들에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작은,
    상기 복수 개의 하드웨어 자원 중 상기 적어도 일부 각각의 가용 연산량이, 할당받은 적어도 하나의 물리 채널의 연산량의 합계 이상이 되도록 하는 복수 개의 할당 정책들을 확인하는 동작; 및
    상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작
    을 포함하는 전자 장치의 동작 방법.
  9. 제 8 항에 있어서,
    상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작은,
    상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 상기 하나를 선택하는 전자 장치의 동작 방법.
  10. 제 9 항에 있어서,
    상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작은,
    상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 후보 할당 정책이 복수 개인 경우, 상기 복수 개의 후보 할당 정책 중 상기 하나를 선택하는 전자 장치의 동작 방법.
  11. 제 10 항에 있어서,
    상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작은,
    상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 후보 할당 정책이 복수 개인 경우, 상기 복수 개의 후보 할당 정책 중 최소 하드웨어 자원을 이용하는 할당 정책을 선택하는 전자 장치의 동작 방법.
  12. 제 10 항에 있어서,
    상기 복수 개의 할당 정책들 각각의 복수 개의 물리 채널 별 레이튼시에 기반하여, 상기 복수 개의 할당 정책들 중 하나를 선택하는 동작은,
    상기 복수 개의 물리 채널 별 레이튼시가 상기 복수 개의 물리 채널 별 레이튼시 한계 이하인 후보 할당 정책이 복수 개인 경우, 상기 복수 개의 후보 할당 정책 중 지정된 물리 채널의 레이튼시가 최소인 할당 정책을 선택하는 전자 장치의 동작 방법.
  13. 전자 장치에 있어서,
    메모리; 및
    상기 메모리에 작동적으로 연결된 적어도 하나의 프로세서를 포함하고,
    상기 메모리는, 실행시에, 상기 적어도 하나의 프로세서로 하여금:
    제 1 슬롯에 대한 무선 자원 할당 정보를 포함하는 제어 플레인 메시지에 기반하여, 상기 제 1 슬롯 내의 복수 개의 물리 채널 별 무선 자원 할당 정보를 확인하고,
    상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하고,
    상기 전자 장치에 의하여 지원되는 복수 개의 하드웨어 자원 별 가용 연산량을 확인하고,
    상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하도록
    야기하는 적어도 하나의 인스트럭션을 저장하는 전자 장치.
  14. 제 13 항에 있어서,
    상기 제 1 슬롯 내의 상기 복수 개의 물리 채널 별 무선 자원 할당 정보는, 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수를 포함하고,
    상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 물리 채널 별 무선 자원 할당 정보에 기반하여, 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하는 동작의 적어도 일부로서, 상기 복수 개의 물리 채널 별 RB의 개수 및/또는 심볼의 개수를 이용하는 계산을 수행함에 기반하여 상기 복수 개의 물리 채널 별 예측 연산량들 각각을 확인하도록 야기하는 전자 장치.
  15. 제 13 항에 있어서,
    상기 적어도 하나의 인스트럭션은 실행 시에 상기 적어도 하나의 프로세서로 하여금, 상기 복수 개의 하드웨어 자원 별 가용 연산량 및 상기 복수 개의 물리 채널 별 예측 연산량에 기반하여, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하는 동작의 적어도 일부로서, 상기 복수 개의 하드웨어 자원 중 상기 적어도 일부 각각의 가용 연산량이, 할당받은 적어도 하나의 물리 채널의 연산량의 합계 이상이 되도록, 상기 복수 개의 물리 채널 각각을 복수 개의 하드웨어 자원 중 적어도 일부에 할당하도록 야기하는 전자 장치.
PCT/KR2023/002073 2022-02-14 2023-02-13 하드웨어 자원을 관리하는 전자 장치 및 그 동작 방법 WO2023153898A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0018675 2022-02-14
KR20220018675 2022-02-14
KR10-2022-0031051 2022-03-11
KR1020220031051A KR20230122491A (ko) 2022-02-14 2022-03-11 하드웨어 자원을 관리하는 전자 장치 및 그 동작 방법

Publications (1)

Publication Number Publication Date
WO2023153898A1 true WO2023153898A1 (ko) 2023-08-17

Family

ID=87564819

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/002073 WO2023153898A1 (ko) 2022-02-14 2023-02-13 하드웨어 자원을 관리하는 전자 장치 및 그 동작 방법

Country Status (1)

Country Link
WO (1) WO2023153898A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110214129A1 (en) * 2008-11-24 2011-09-01 Freescale Semiconductor, Inc. Management of multiple resource providers
US20140325076A1 (en) * 2010-10-18 2014-10-30 International Business Machines Corporation Reallocating resource capacity among resource pools in a cloud computing environment
US20180343170A1 (en) * 2017-05-23 2018-11-29 Vmware, Inc. Methods and apparatus to generate and manage workload domains in virtual server racks
KR20200016522A (ko) * 2018-08-07 2020-02-17 삼성전자주식회사 상향링크 송신 전력 제어 방법 및 이를 위한 전자 장치
KR20210068483A (ko) * 2018-09-28 2021-06-09 지티이 코포레이션 시간 도메인 자원 할당 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110214129A1 (en) * 2008-11-24 2011-09-01 Freescale Semiconductor, Inc. Management of multiple resource providers
US20140325076A1 (en) * 2010-10-18 2014-10-30 International Business Machines Corporation Reallocating resource capacity among resource pools in a cloud computing environment
US20180343170A1 (en) * 2017-05-23 2018-11-29 Vmware, Inc. Methods and apparatus to generate and manage workload domains in virtual server racks
KR20200016522A (ko) * 2018-08-07 2020-02-17 삼성전자주식회사 상향링크 송신 전력 제어 방법 및 이를 위한 전자 장치
KR20210068483A (ko) * 2018-09-28 2021-06-09 지티이 코포레이션 시간 도메인 자원 할당 방법 및 장치

Similar Documents

Publication Publication Date Title
WO2021096005A1 (en) Method and system for neural network execution distribution
US11516881B2 (en) Slice management system and slice management method
WO2020073903A1 (zh) 时延敏感网络通信方法及其装置
CN110430068B (zh) 一种特征工程编排方法及装置
WO2019012735A1 (ja) Ranスライスにおけるリソース管理装置及びranスライスにおけるリソース管理方法
WO2020235880A1 (en) Apparatus and method for adjusting resources in cloud system
CN106789751B (zh) 基于资源可用性的网络路由
CN111817985B (zh) 业务处理方法及装置
EP3345096A1 (en) Method and apparatus for adaptive cache management
CN112565390B (zh) 服务分配方法、装置、电子设备及存储介质
WO2023153898A1 (ko) 하드웨어 자원을 관리하는 전자 장치 및 그 동작 방법
CN112019492B (zh) 访问控制方法、装置及存储介质
WO2010117196A2 (en) System and method for managing communication in a wireless communication network
WO2016085255A1 (ko) 이동 단말의 대기전력을 제어하는 장치 및 방법
KR20230122491A (ko) 하드웨어 자원을 관리하는 전자 장치 및 그 동작 방법
WO2023059060A1 (ko) 어플리케이션을 디플로이하는 전자 장치 및 동작 방법
WO2017039393A1 (en) Method and apparatus for adaptive cache management
WO2023013911A1 (ko) 복수의 무선 통신 방식을 지원하는 기지국 및 그 방법
CN116723586B (zh) 信道接入方法、装置、电子设备及存储介质
WO2021135763A1 (zh) 数据处理方法和装置、存储介质及电子装置
US11394431B2 (en) Inter-cell coordinated scheduling method, apparatus and device
WO2023182618A1 (en) System and method for intent-based orchestration in radio access networks
EP4203410A1 (en) User device, server, method, apparatus and computer readable medium for network communication
US20210266263A1 (en) Communication control apparatus and communication control method
JP3539224B2 (ja) 通信帯域制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23753244

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE