WO2024139985A1 - 通信方法和装置 - Google Patents

通信方法和装置 Download PDF

Info

Publication number
WO2024139985A1
WO2024139985A1 PCT/CN2023/135414 CN2023135414W WO2024139985A1 WO 2024139985 A1 WO2024139985 A1 WO 2024139985A1 CN 2023135414 W CN2023135414 W CN 2023135414W WO 2024139985 A1 WO2024139985 A1 WO 2024139985A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
model
transmission
transmission mode
relevant information
Prior art date
Application number
PCT/CN2023/135414
Other languages
English (en)
French (fr)
Inventor
曾宇
耿婷婷
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Publication of WO2024139985A1 publication Critical patent/WO2024139985A1/zh

Links

Definitions

  • the 3rd Generation Partnership Project (3GPP) has introduced multiple AI application scenarios on the radio access network (RAN) side.
  • some AI functions can be implemented by the terminal device, and the access network device can transmit the AI model to the terminal device.
  • some AI functions can be implemented by the access network device, and the terminal device can transmit the AI model to the access network device.
  • the AI model is about to be transmitted on the air interface, how to determine the appropriate transmission method to meet the needs of the AI application scenario is an urgent problem to be solved.
  • a communication method is provided, which is applied to a first device.
  • the method can be executed by the first device, or can also be executed by a component (such as a chip or circuit) of the first device, without limitation.
  • a component such as a chip or circuit
  • the method is described below by taking the execution by the first device as an example.
  • the method may include: a transmission method in which a first device obtains relevant information of an AI model, and the first device sends relevant information of the AI model to a second device according to the transmission method; wherein the first device is an access network device and the second device is a terminal device; or, the first device is a terminal device and the second device is an access network device.
  • the first device can obtain a suitable transmission method to transmit relevant information of the AI model to meet the transmission requirements of the AI model in different application scenarios, such as latency requirements.
  • the transmission method determined by the first device may vary depending on the application scenario of the AI model, which is more flexible.
  • the relevant information of the AI model such as the ontology data, architecture information, or part or all of the parameter information of the AI model
  • the second device can restore the AI model through the relevant information of the AI model.
  • the first device receives first reference information from the second device; and the first device determines the transmission mode according to the first reference information.
  • the transmission method determined by the first device is more in line with the transmission requirements of the second device for the AI model, so as to avoid the performance degradation of the second device using the AI model due to inappropriate transmission method.
  • the first reference information includes at least one of the following: information about the first candidate AI model set expected by the second device, cache capacity information of the second device, transmission delay requirement information, or information about the expected transmission method of the second device.
  • the first device can determine the AI model to be transmitted based on the information about the first candidate AI model set. If the first reference information includes the cache capacity information of the second device, the first device can determine the transmission method based on the cache capacity information to avoid the relevant information of the AI model transmitted by the first device exceeding the cache capacity of the second device. If the first reference information includes transmission delay requirement information, the first device can complete the transmission of the relevant information of the AI model within the delay requirement according to the transmission delay requirement information to avoid the relevant information of the AI model transmitted by the first device from timing out, causing the second device to be unable to use the AI model at an appropriate time, thereby affecting the performance of the AI model. If the first reference information includes the expected transmission method of the second device, the first device can determine the transmission method of the relevant information of the AI model based on the expected transmission method, so that the determined transmission method is more in line with the second device's requirements for AI Model transmission requirements.
  • the method also includes: the first device sends second reference information to the second device, the second reference information including at least one item of information of a second candidate AI model set or information of a candidate transmission method; the first device receives third indication information from the second device; and obtains the transmission method according to the third indication information, wherein the third indication information indicates the transmission method determined according to the second reference information, and the second reference information is determined based on the first reference information.
  • the method also includes: the first device sends update information to the second device, and the update information is used to update the AI model.
  • the method may include: a transmission method in which the second device obtains relevant information of the AI model, and the second device receives relevant information of the AI model from the first device according to the transmission method; wherein the first device is an access network device and the second device is a terminal device; or, the first device is a terminal device and the second device is an access network device.
  • the second device can obtain a suitable transmission method for the relevant information of the AI model to meet the transmission requirements of the AI model in different application scenarios, such as transmission requirements such as latency requirements.
  • the transmission method determined by the first device may vary depending on the application scenario of the AI model, which is more flexible.
  • the first reference information includes at least one of the following: information about the first candidate AI model set expected by the second device, cache capacity information of the second device, transmission delay requirement information, or information about the expected transmission method of the second device.
  • the method also includes: the second device receives first indication information from the first device; and obtains the transmission mode according to the first indication information.
  • the first device after the first device obtains the transmission mode, it can inform the second device of it, so that the second device can know the transmission mode of the relevant information of the AI model to be transmitted, and thus receive the relevant information of the AI model according to the transmission mode.
  • the relevant information of the AI model is transmitted in blocks, and the first device informs the second device of the block transmission mode, which can prevent the second device from starting to splice the AI model before all the blocks of the relevant information of the AI model are transmitted, resulting in the inability to splice a complete AI model. Therefore, this scheme can improve the accuracy of the second device splicing the AI model.
  • the AI model indicated by the third indication information is determined based on the information of the second candidate AI model set, or, when the second reference information includes information of a candidate transmission mode, the transmission mode indicated by the third indication information is determined based on the information of the candidate transmission mode.
  • the transmission path of the relevant information of the AI model includes user plane transmission and/or control plane transmission.
  • the device is a chip, a chip system or a circuit for a communication device (such as a first device or a second device).
  • the communication unit may be an input/output interface, an interface circuit, an output circuit, an input circuit, a pin or a related circuit on the chip, the chip system or the circuit;
  • the processing unit may be at least one processor, a processing circuit or a logic circuit.
  • a communication device comprising: at least one processor, configured to execute a computer program or instruction stored in a memory, so as to execute the method in any possible implementation of the first aspect to the second aspect.
  • the device further comprises a memory, configured to store a computer program or instruction.
  • the device further comprises a communication interface, and the processor reads the computer program or instruction stored in the memory through the communication interface.
  • the apparatus is a communication device (such as a first device or a second device).
  • the apparatus is a chip, a chip system or a circuit used in a communication device (such as the first device or the second device).
  • a computer-readable storage medium which stores a program code executed by a user device, wherein the program code includes a method for executing any possible implementation of the first to second aspects above.
  • a computer program product comprising instructions, which, when executed on a computer, enables the computer to execute a method in any possible implementation of the first to second aspects above.
  • FIG. 4 is a flow chart of a communication method 400 provided in an embodiment of the present application.
  • FIG. 5 is a flow chart of a method 500 for obtaining a transmission mode provided in an embodiment of the present application.
  • FIG. 6 is a flow chart of another method 600 for obtaining a transmission mode provided in an embodiment of the present application.
  • FIG. 7 is a flow chart of a communication method 700 provided in an embodiment of the present application.
  • FIG8 is a schematic diagram of the structure of a communication device 800 provided in an embodiment of the present application.
  • FIG. 9 is a schematic diagram of the structure of a communication device 900 provided in an embodiment of the present application.
  • FIG1 is a schematic diagram of a communication system provided in an embodiment of the present application.
  • the communication method provided in the embodiment of the present application may also involve a device or a transmission node not shown in FIG. 1 , and the embodiment of the present application does not make any reference to this. limited.
  • the above-mentioned communication system applied to the embodiment of the present application is only an example, and the communication system applicable to the embodiment of the present application is not limited to this. Any communication system that can realize the functions of the above-mentioned devices is applicable to the embodiment of the present application.
  • the terminal device may be a wireless terminal device capable of receiving access network device scheduling and indication information.
  • the terminal device may be a device that provides voice and/or data connectivity to a user, or a handheld device with wireless connection function, or other processing device connected to a wireless modem.
  • the terminal device in the embodiment of the present application may also be referred to as a terminal, an access terminal, a user unit, a user equipment (UE), a user station, a mobile station, a remote station, a remote terminal, a mobile device, a user terminal, a wireless communication device, a user agent or a user device.
  • the terminal device is a device that includes a wireless communication function (providing voice/data connectivity to the user). For example, a handheld device with a wireless connection function, or a vehicle-mounted device, etc.
  • the terminal device in the embodiment of the present application may be a mobile phone (mobile phone), a tablet computer (pad), a computer with a wireless transceiver function, a train, an airplane, a mobile Internet device (mobile internet device, MID), a virtual reality (virtual reality, VR) terminal, an augmented reality (augmented reality, AR) terminal, a wireless terminal in industrial control (such as a robot, etc.), a wireless terminal in the Internet of Vehicles (such as a vehicle-mounted device, a complete vehicle equipment, a vehicle-mounted module, a vehicle, etc.), a cellular phone, a cordless phone, a session initiation protocol (session initiation protocol, SIP) phone, a wireless local loop (wireless local loop, WLL) station, personal digital assistant (personal digital assistant, PDA), handheld devices with wireless communication function, computing devices or other processing devices connected to wireless modems, wearable devices, terminals in 5G networks or terminals in future evolution networks, etc.
  • a mobile Internet device mobile internet device, MID
  • Access network equipment includes, but is not limited to: various base stations, such as next generation Node B (gNodeB, gNB), evolved Node B (evolved Node B, eNB), radio network controller (radio network controller, RNC), Node B (Node B, NB), base station controller (base station controller, BSC), base transceiver station (base transceiver station, BTS), home evolved Node B (HeNB, or home Node B, HNB), or servers, wearable devices, vehicle-mounted devices, wireless relay nodes, wireless backhaul nodes, transmission points (transmission points, TP) or transmission and reception points (transmission and reception points, TRP), etc., and may also be one or a group of (including multiple antenna panels) antenna panels of a base station, or may also be a network node constituting a base station, such as a baseband unit (BBU) or a distributed unit (distributed unit, DU), etc.
  • BBU baseband unit
  • DU distributed unit
  • the base station may be a macro base station, a micro base station, a pico base station, a small station, a relay station or a balloon station, etc. It can be understood that all or part of the functions of the access network device in the present application can also be implemented through software functions running on hardware, or through virtualization functions instantiated on a platform (such as a cloud platform).
  • the division of the processing functions of the CU and DU according to the protocol layer is only an example, and the CU and DU may also be divided in other ways.
  • the CU or DU may be divided into functions of more protocol layers than the above division method.
  • the CU or DU may also be divided into some processing functions of the protocol layer of the above division method.
  • the CU may also have one or more functions of the core network.
  • One or more CUs may be centrally set or separately set.
  • the CU may be set on the network side for centralized management.
  • the DU may have multiple radio frequency functions or the radio frequency functions may be remotely set.
  • the functions of CU can be implemented by one entity or by different entities.
  • the functions of CU can be further divided, for example, the control plane (CP) and the user plane (UP) are separated, that is, the control plane (CU-CP) of CU and the user plane (CU-UP) of CU.
  • CU-CP and CU-UP can be implemented by different functional entities and connected through the E1 interface.
  • the CU-CP and CU-UP can be coupled with DU to jointly complete the functions of the access network device.
  • the control plane CU-CP of CU also includes a further divided architecture, that is, the CU-CP is further divided into CU-CP1 and CU-CP2.
  • CU-CP1 includes various wireless resource management functions
  • CU-CP2 only includes RRC functions and PDCP-C functions (that is, the basic functions of control plane signaling at the PDCP layer).
  • CU including CU-CP or CU-UP
  • DU may also be called O-DU
  • CU-CP may also be called O-CU-CP
  • CU-UP may also be called O-CU-UP.
  • O-RAN open radio access network
  • CU, CU-CP, CU-UP, and DU are used as examples for description in this application.
  • the AI module When the AI module is located in OAM, its communication with the network equipment on the RAN side can reuse the current northbound interface; when the AI module is located in the access network equipment or the CU of the access network equipment, the current F1, Xn, Uu and other interfaces can be reused; when the AI module becomes an independent network entity, the communication link to the OAM and RAN side is re-established, such as based on a wired link or a wireless link.
  • the CP and UP of the CU are separated, the CP is usually responsible for receiving the AI model and the subsequent reasoning and policy generation functions of the AI.
  • the CU-CP When the CU-CP is further divided into CU-CP1 and CU-CP2, CU-CP1 is usually responsible for receiving the AI model and the subsequent reasoning functions of the AI model, and generating specific interactive signaling, which is sent by CU-CP2.
  • the AI application framework includes a data acquisition module, a model training module, a model reasoning module and an execution entity (Actor), wherein the model training module and the model reasoning module are examples of AI modules.
  • Access network equipment, access network equipment-CU, access network equipment-DU, terminal equipment or other management entities can input data into the data acquisition module, and the data acquisition module can be used as a database for AI model training and data analysis and reasoning.
  • the model training module analyzes the training data output by the data acquisition module to give the optimal AI model, and deploys the obtained AI model to the model reasoning module.
  • the model reasoning module Based on the reasoning data output by the data acquisition module, the model reasoning module gives a reasonable prediction of the network operation based on the AI model (trained by the model training module), and feeds back the performance data of the AI model to the model training module.
  • the subsequent model training module continues to train the model according to the feedback performance data, and informs the model reasoning module of the updated AI model; or the model reasoning module guides the network to make policy adjustments based on the reasoning data output by the data acquisition module and the AI model.
  • the relevant policy adjustments are uniformly planned by the execution entity and sent to multiple network entities for operation. At the same time, the specific performance of the network after the relevant policies are applied will be fed back to the data acquisition module for storage.
  • the application of AI on the RAN side includes but is not limited to the following application scenarios: energy saving, load balancing, mobility optimization, channel state information-reference signal (CSI-RS) feedback enhancement, beam management enhancement (BME), and positioning enhancement.
  • energy saving energy saving
  • load balancing mobility optimization
  • mobility optimization mobility optimization
  • CSI-RS channel state information-reference signal
  • BME beam management enhancement
  • positioning enhancement The basic principles of the above application scenarios are introduced below.
  • the access network equipment collects its own and neighboring cells' load, energy consumption, energy efficiency information, as well as the trajectory information and measurement results of terminal devices, to predict the trend of its own load. It also takes appropriate energy-saving measures in a timely manner based on the cell usage and key performance indicator (KPI) requirements without affecting network coverage and user access.
  • KPI key performance indicator
  • Load balancing scenario The access network equipment collects its own and neighboring cell's load, energy consumption, energy efficiency information, as well as the trajectory information and measurement results of the terminal equipment, predicts the trend of its own load, and combines the cell usage, KPI requirements, etc. to reasonably select some terminal equipment to switch to the neighboring cell, or accept the terminal equipment that is handed over to the access network equipment from the neighboring cell due to load balancing, so that the load levels between the access network equipment of the entire network are close, reducing the situation where some access network equipment is overloaded and affects normal business while some access network equipment resources are idle.
  • the access network device and the terminal device first exchange a dictionary, which is usually a model pre-trained by the access network device according to the terminal device capabilities and its own requirements, and then sends an encoder and quantizer to the terminal device;
  • the terminal device predicts the future channel matrix based on the measured channel matrix result, compresses and quantizes the matrix to be fed back and the prediction result according to the existing dictionary, and transmits the compressed and quantized channel matrix result and prediction result to the access network device;
  • the access network equipment reports the results of the full beam scanning of the synchronization signal and physical broadcast channel block (SSB) through a certain number of terminal devices, and trains a sparse scanning matrix, which is usually unique to each cell.
  • SSB physical broadcast channel block
  • the access network device sends the sparse model to the terminal device, for example, through a system information block (SIB) message.
  • SIB system information block
  • the terminal device performs beam scanning in the P1 stage according to the matrix and sends the scanning result of the sparse model to the access network device.
  • the access network device Based on the scanning result of the terminal device, the access network device infers the optimal CSI-RS beam and starts P2 scanning of the terminal device. The terminal device then feeds back the optimal CSI-RS beam ID to the access network device.
  • Positioning accuracy enhancement scenario The main process of current positioning accuracy enhancement is as follows:
  • the architecture of the AI model may include a fully connected architecture, a neural network architecture, etc.
  • Transmitting the relevant information of the AI model as a whole can be understood as: transmitting the relevant information of the AI model as a whole, that is, transmitting the relevant information of the AI model through one signaling/message.
  • the relevant information of the AI model can be transmitted through user plane signaling/messages or through control plane signaling/messages, and the embodiments of the present application are not limited to this.
  • Another possible implementation manner is to transmit the relevant information of the AI model in blocks.
  • S410 may be executed before S410', after S410', or simultaneously with S410', and this application does not impose any limitation on this.
  • the access network device is the terminal device A signaling radio bearer (SRB) is configured, which indicates to the terminal device that the access network device transmits the SRB identification information and PDCP frame number of the relevant information of the AI model.
  • SRB signaling radio bearer
  • the SRB identification information configured by the access network device to the terminal device for transmitting the relevant information of the AI model is SRB#1
  • the PDCP frame numbers are PDCP#3 and PDCP#4.
  • the access network device can add the relevant information of the AI model to be transmitted to the PDCP#3 and PDCP#4 corresponding to the configured SRB#1.
  • the access network device configures the SRB carrying the relevant information of the AI model to the terminal device through RRC signaling
  • the RRC signaling may also include a control plane block identifier, which is different from the block identifier of the relevant information of the AI model.
  • the control plane block identifier is the block identifier of the control plane signaling.
  • the second device can send the first reference information to the first device based on the scenario that currently needs to be optimized using the AI model and its own capabilities.
  • the first device may subsequently transmit relevant information of the AI model determined by the first device according to the transmission delay requirement information.
  • the transmission delay requirement information may be the transmission delay requirement information corresponding to the AI model in the first candidate AI model set.
  • the information of the first reference information in Table 1 can be a specific parameter value or a first device and a second device.
  • the coding value agreed upon in advance by the two devices, the embodiment of the present application does not limit the content and expression method of the first reference information.
  • the transmission delay requirement indicated by the transmission delay requirement information may be the transmission delay requirement of the relevant information of the AI model confirmed by the second device according to the target application scenario. For example, for BME Case 1, the transmission delay is required to be no more than A ms. Generally speaking, the transmission delay is determined in combination with the specific application scenario and the actual channel environment.
  • the transmission delay requirement can be indicated by QoS parameters.
  • the second device can indicate to the second device the identifier of the QoS flow (Qos flow identifier, QFI) corresponding to the relevant information of the AI model to be transmitted and the corresponding QoS parameters.
  • Information of the first candidate AI model set for BME Case 1, information of the set of AI models that the second device expects the first device to transmit, or information of the set of AI models recommended by the second device.
  • the information of the first candidate AI model set is, for example, a set of identification information of AI models, or a set of index information of AI models agreed upon by the first device and the second device, or a set of functions implemented based on AI models, or a set of numbering information of functions, which is not limited in the embodiments of the present application.
  • Expected transmission path information that is, the transmission path of the relevant information of the AI model expected by the second device on the air interface
  • CP means signaling or message transmission through the control plane (CP)
  • UP means signaling or message transmission through the user plane (CP).
  • the first device may determine the transmission path in combination with the characteristics of control plane transmission, user plane transmission and AI model, or the second device may determine the expected transmission path in combination with the characteristics of control plane transmission, user plane transmission and AI model.
  • the priority of control plane signaling is usually higher, so the priority of transmission is also higher, but control plane transmission will be affected by cell switching.
  • the control plane signaling can be transmitted in blocks. When the number of blocks is large, the resources of the control plane will continue to be occupied.
  • a group of control plane signaling is required to be sent continuously. If the number of control plane signaling blocks is large, it may affect the normal transmission of other control plane signaling.
  • control plane transmission is suitable for AI models with low transmission delay requirements and small data volume; user plane transmission is suitable for AI models with large data volume but low delay requirements.
  • the transmission delay requirement is high, the choice of user plane transmission or control plane transmission needs to be combined with the characteristics of the AI model. For example, if the AI model is large, user plane transmission is selected, and if the AI model is small, control plane transmission is selected. Low transmission delay requirements can be understood as longer transmission delay requirements, and high transmission delay requirements can be understood as shorter transmission delay requirements.
  • the first device is an access network device
  • the second device is a terminal device.
  • the terminal device can make a comprehensive judgment based on the capacity of AI model #1 and AI model #2 and the current air interface resources, service load, terminal device mobility status, etc. to determine the expected transmission path. If the capacity of AI model #1 and AI model #2 is small, and the data service load of the terminal device is high, and the terminal device has no possibility of switching cells in the short term, the terminal device will expect the access network device to transmit through the control plane.
  • the terminal device will expect the access network device to transmit through the user plane.
  • the first device is a terminal device
  • the second device is an access network device.
  • the access network device can make a comprehensive judgment based on the capacity of AI model #1 and AI model #2 and the current air interface resources, service load, and the collected mobility status information of the terminal device to determine the expected transmission path. If the capacity of AI model #1 and AI model #2 is small, and the data service load of the access network device is high, and the terminal device has no possibility of switching cells in the short term, the access network device will expect the terminal device to transmit through the control plane.
  • the access network device will expect the terminal device to transmit through the user plane.
  • AI models can be further distinguished by their architecture and specific parameters.
  • the architecture can refer to how many layers the model has and how many nodes each layer has. (node), and whether the nodes are connected, and the specific parameters may refer to the actual weighted parameters of each two connected nodes (usually expressed as floating point numbers).
  • the capacity of the architecture information of the AI model is much smaller than the capacity of the parameter information of the AI model. Therefore, the second device can determine that the architecture information and parameter information of the AI model are transmitted in different ways. For example, the architecture information of the AI model is transmitted through the control plane, and the parameter information of the AI model is transmitted through the user plane.
  • the first device determines a transmission method of relevant information of the AI model according to the first reference information.
  • the process of the first device determining the relevant information of the AI model and the corresponding transmission method based on the first reference information is implemented internally by the first device.
  • the first device can determine the AI model to be transmitted based on the information about the first candidate AI model set, the AI model to be transmitted is a certain AI model in the first candidate AI model set, and further determine the relevant information of the AI model to be transmitted.
  • the first device can determine the AI model to be transmitted based on the current application scenario, its own situation, and other information included in the first reference information.
  • the first device can determine the relevant information of the AI model to be transmitted based on the cache capacity information.
  • the cache capacity information indicates that the cache capacity of the second device is relatively small, such as 50MB, and the first device determines that the relevant information of the AI model to be transmitted is the architecture information and parameter information of the AI model.
  • the architecture information can be transmitted as a whole, and the transmission path of the architecture information can be control plane transmission or user plane transmission.
  • the parameter information can be transmitted in blocks, and the transmission path of the parameter information can give priority to user plane transmission.
  • the first device determines that the relevant information of the AI model to be transmitted is the body data of the AI model, and the body data can be divided into blocks. Due to the large amount of body data, the transmission path of the body data can give priority to user plane transmission.
  • the first device can determine the relevant information and transmission method of the AI model to be transmitted based on the actual load of the first device, the air interface conditions, and other information included in the first reference information.
  • the first device can select an AI model with a smaller data volume and transmit relevant information of the AI model through an overall transmission method.
  • the first device can determine the transmission method of the relevant information of the AI model to be transmitted based on the transmission delay requirement information. For example, if the transmission delay requirement indicated by the transmission delay requirement information is low, and the data volume of the relevant information of the AI model is small, the first device determines to transmit the relevant information of the AI model as a whole, and the first device can preferentially select the transmission path as control plane transmission; or, if the transmission delay requirement indicated by the transmission delay requirement information is high, and the data volume of the relevant information of the AI model is large, the first device determines to transmit the relevant information of the AI model in blocks, and the first device can preferentially select the transmission path as user plane transmission, and the embodiments of the present application do not limit this. When the first reference information does not include the transmission delay requirement information, the first device can determine the relevant information of the AI model to be transmitted and the transmission method based on the actual load of the first device, the air interface conditions and other information
  • the first device can determine the transmission mode of the relevant information of the AI model to be transmitted based on the information of the expected transmission mode. For example, when the second device expects block transmission, the first device can determine that the transmission mode of the relevant information of the AI model is block transmission. When the second device expects overall transmission, the first device can determine that the transmission mode of the relevant information of the AI model is overall transmission. When the first reference information does not include information about the expected transmission mode, the first device can determine the relevant information of the AI model to be transmitted and the transmission mode based on the actual load of the first device, the air interface conditions and other information included in the first reference information.
  • the method for the first device to determine the relevant information of the AI model and the transmission method of the relevant information of the AI model based on the first reference information can refer to the method in which the first device determines the relevant information of the AI model and the transmission method when the first reference information includes one of the items in the above example.
  • the first device can determine the relevant information of the AI model to be transmitted based on the cache capacity information.
  • the cache capacity information indicates that the cache capacity of the second device is relatively small
  • the first device determines that the AI model to be transmitted is an AI model with a relatively small capacity
  • the relevant information of the AI model is architecture information and parameter information
  • the architecture information and parameter information can be transmitted as a whole.
  • the first device can determine the transmission path based on the transmission delay requirement information, and if the transmission delay requirement indicated by the transmission delay requirement information is relatively low, the transmission path that the first device can preferentially select is control plane transmission.
  • the cache capacity information indicates that the cache capacity of the second device is relatively large
  • the first device determines that the AI model to be transmitted is an AI model with a relatively large capacity, and determines that the relevant information of the AI model is architecture information and parameter information, and the architecture information is transmitted as a whole, and the parameter information is transmitted in blocks.
  • the first device can determine the transmission path based on the transmission delay requirement information, and the transmission delay requirement indicated by the transmission delay requirement information is relatively low. If the transmission delay requirement of the information indication is high, the first device may preferentially select user plane transmission as the transmission path.
  • the first device sends first indication information to the second device, where the first indication information indicates a transmission method of relevant information of the AI model; correspondingly, the second device receives the first indication information from the first device, and obtains the transmission method of relevant information of the AI model according to the first indication information.
  • the first indication information is exemplified in Table 2. It can be understood that Table 2 is only an example and the present application is not limited thereto. Table 2 may have other transformations, or the first indication information may include only part of the content exemplified in Table 2, or the first indication information may also include other content outside of Table 2, and the present application embodiment does not limit this.
  • part of the information of the first indication information in the example of Table 1 may be a specific parameter value or a coding value agreed in advance by the first device and the second device.
  • the embodiment of the present application does not limit the content and expression of the first indication information.
  • the "scenario” in Table 2 represents a specific scenario of AI model optimization determined by the first device, and the scenario corresponds to a set of transmission parameters.
  • BME Case 1 Take BME Case 1 as an example to illustrate the content included in the first indication information and the meaning of each content.
  • the first indication information also includes format indication information, which indicates the specific format of the relevant information of the AI model to be transmitted by the first device to the second device.
  • the format of the relevant information of the AI model can be, for example, a directly executable binary code, or a format defined by different platforms such as TensFlow, Pycharm, or an open source model format such as Open Neural Network Exchange (ONNX), and the embodiments of the present application do not limit this.
  • the first indication information includes block indication information, and the block indication information is used to indicate whether the relevant information of the AI model to be transmitted by the second device is blocked. For example, if the relevant information of the AI model is blocked, the block indication information is yes/Y (Yes)/T (True); or, if the relevant information of the AI model is not blocked, the block indication information is no/N (No)/F (False).
  • the first indication information includes block information, which indicates the number of blocks into which the relevant information of the AI model is divided, the identifier of each block, and the size of the data. As shown in Table 3, the relevant information of the AI model is divided into 3 blocks, "1-X MB” means that the data size of the first block is X MB, "2-Y MB” means that the data size of the second block is Y MB, and "3-Z MB” means that the data size of the third block is Z MB.
  • the first indication information includes block sending mode information, which indicates the sending mode of each block after the relevant information of the AI model is blocked.
  • the first digit of the block sending mode information represents the block identifier
  • the second digit represents the blocking basis, that is, the first "1" in “1-1-CP” represents block 1
  • the second "1" represents the blocking basis is architecture, that is, block 1 is sent through the control plane, and the relevant information of the part of the AI model corresponding to block 1 is architecture information
  • "2-2-UP” means that the blocking basis of block 2 is parameters, which is sent through the user plane, and the relevant information of the part of the AI model corresponding to block 2 is parameter information
  • “3-2-UP” means that the blocking basis of block 3 is parameters, which is sent through the user plane, and the relevant information of the part of the AI model corresponding to block 3 is parameter information.
  • the block basis information "1" indicates that the block basis is "architecture”
  • the block basis information "2” indicates that the block basis is “parameters”
  • the block basis information "3” indicates that the block basis is “index information”
  • the block basis information "4" indicates that the block basis is "transmission path”.
  • a first device sends RRC configuration information or a MAC control element (MAC CE) to a second device, where the RRC configuration information or MAC CE includes first indication information; correspondingly, the second device receives the RRC configuration information or MAC CE from the first device.
  • MAC CE MAC control element
  • the first device can determine relevant information and transmission methods of a more suitable AI model in combination with the actual load of the first device, air interface conditions, and one or more of the first reference information, thereby reducing the impact of inappropriate transmission methods on the performance of subsequent AI models.
  • the second device may determine a transmission method for the relevant information of the AI model based on at least one of information of the first candidate AI model set expected by the second device, cache capacity information of the second device, and transmission delay requirement information.
  • the second indication information may refer to the first indication information shown in Table 2.
  • Implementation method #2 The second device determines a transmission method for the relevant information of the final AI model based on the second reference information.
  • the method 600 before S610, the method 600 further includes:
  • the second device sends first reference information to the first device; correspondingly, the first device receives the first reference information from the second device.
  • the specific content of the first reference information can be found in the description of the relevant content in S510, which will not be repeated here.
  • the method 600 before S610, the method 600 further includes:
  • the first device sends second reference information to the second device, where the second reference information includes at least one item of information on a second candidate AI model set or information on a candidate transmission method; correspondingly, the second device receives the second reference information from the first device.
  • the second reference information is exemplified in Table 3. It is understood that Table 3 is only an example and the present application is not limited thereto. Table 3 may have other transformations, or the second reference information may include only part of the content exemplified in Table 3, or the second reference information may also include other content outside of Table 3, and the present application embodiment does not limit this.
  • the following method 700 is used to introduce the operations performed by the second device and the first device after the second device receives the relevant information of the AI model, for example, after the execution of step S420 in the aforementioned method 400. It can be understood that the contents described in the aforementioned methods 400, 500 and 600 can be used in method 700.
  • the second device sends fourth indication information to the first device, where the fourth indication information indicates relevant information that is missing when the second device splices the AI model; correspondingly, the first device receives the fourth indication information from the second device.
  • the supplementary information of the AI model may be relevant information of the part of the AI model corresponding to the block identifier, or the omitted or erroneously transmitted content itself, which is not limited in this embodiment of the present application.
  • the first device is an access network device
  • the second device is a terminal device.
  • the first device as a source cell can send the transmission mode (for example, the transmission mode determined by method 500 or 600) of the relevant information of the AI model (for example, the content transmitted in S710 or S760) to the target access network device.
  • the relevant information of the AI model has not been transmitted yet, the second device has started the cell switching process, then the source cell shall send the transmission mode of the relevant information of the confirmed or transmitted AI model, the configuration corresponding to the transmission mode (see the configuration described in S420), and the current transmission progress to the target access network device.
  • the first device is a terminal device
  • the second device is an access network device.
  • the relevant information of the AI model such as the content transmitted in S710 or S760
  • the second device shall send the transmission mode of the relevant information of the confirmed or transmitted AI model (such as the transmission mode determined by method 500 or 600), the configuration corresponding to the transmission mode (see the configuration described in S420), the current transmission progress, and the relevant information of the received part of the AI model to the target access network device.
  • the first device sends the relevant information of the untransmitted AI model to the target access network device according to the determined transmission mode.
  • the first device and the target access network device may also refer to method 500 or 600 to redetermine the transmission mode of the relevant information of the AI model to be transmitted, and this application does not limit this.
  • the transceiver unit 810 is also used to send second reference information to the second device, and the second reference information includes at least one item of information about a second candidate AI model set or information about a candidate transmission mode; the transceiver unit 810 is also used to receive third indication information from the second device; and obtain the transmission mode according to the third indication information, wherein the third indication information indicates the transmission mode determined according to the second reference information, and the second reference information is determined based on the first reference information.
  • the transmission method is to transmit the relevant information of the AI model as a whole, or to transmit the relevant information of the AI model in blocks.
  • the device 800 can implement steps or processes executed by the second device in the method embodiment according to the embodiment of the present application, and the device 800 may include a unit for executing the method executed by the second device in the embodiments shown in Figures 4 to 7.
  • the transceiver unit 810 is used to obtain a transmission method for relevant information of the AI model, and the transceiver unit 810 is also used to receive relevant information of the AI model from a first device according to the transmission method, wherein the first device is an access network device and the second device is a terminal device; or, the first device is a terminal device and the second device is an access network device.
  • the first reference information includes at least one of the following: information about the first candidate AI model set expected by the second device, cache capacity information of the second device, transmission delay requirement information, or information about the expected transmission mode of the second device.
  • the transceiver unit 810 is further used to receive first indication information from the first device; and obtain the transmission mode according to the first indication information.
  • the transceiver unit 810 is further configured to send second indication information to the first device, where the second indication information indicates the transmission mode.
  • the AI model indicated by the third indication information is determined based on the information of the second candidate AI model set; or, when the second reference information includes information of a candidate transmission mode, the transmission mode indicated by the third indication information is determined based on the information of the candidate transmission mode.
  • the transmission method is to transmit the relevant information of the AI model in blocks, and the relevant information of the AI model includes a block identifier.
  • the transceiver unit 810 is further used to receive update information from the first device; the processing unit 820 is used to update the AI model according to the update information.
  • processors mentioned in the embodiments of the present application may be a central processing unit (CPU), or other general-purpose processors, digital signal processors (DSP), application-specific integrated circuits (ASIC), field programmable gate arrays (FPGA) or other programmable logic devices, discrete gate or transistor logic devices, discrete hardware components, etc.
  • the general-purpose processor may be a microprocessor or the processor may also be any conventional processor, etc.
  • memory described herein is intended to include, but is not limited to, these and any other suitable types of memory.
  • the disclosed devices and methods can be implemented in other ways.
  • the device embodiments described above are only schematic.
  • the division of the units is only a logical function division. There may be other division methods in actual implementation, such as multiple units or components can be combined or integrated into another system, or some features can be ignored or not executed.
  • the mutual coupling or direct coupling or communication connection shown or discussed can be through some interfaces, indirect coupling or communication connection of devices or units, which can be electrical, mechanical or other forms.
  • the computer program product includes one or more computer instructions.
  • the computer may be a general-purpose computer, a special-purpose computer, a computer network, or other programmable device.
  • the computer may be a personal computer, a server, or a network device, etc.
  • the computer instructions may be stored in a computer-readable storage medium, or transmitted from one computer-readable storage medium to another computer-readable storage medium.
  • the computer instructions may be transmitted from one website, computer, server or data center to another website, computer, server or data center by wired (e.g., coaxial cable, optical fiber, digital subscriber line (DSL)) or wireless (e.g., infrared, wireless, microwave, etc.) means.
  • the computer-readable storage medium may be any available medium that can be accessed by a computer or a server, Data center and other data storage devices.
  • the available medium may be a magnetic medium (e.g., a floppy disk, a hard disk, a magnetic tape), an optical medium (e.g., a DVD), or a semiconductor medium (e.g., a solid state disk (SSD), etc.
  • the aforementioned available medium includes, but is not limited to: a USB flash drive, a mobile hard disk, a read-only memory (ROM), a random access memory (RAM), a magnetic disk or an optical disk, and other media that can store program codes.

Abstract

本申请实施例提供了一种通信方法和装置,该方法应用于人工智能AI模型的相关信息在空口上的传输。该方法包括:第一设备和第二设备获取AI模型的相关信息的传输方式;第一设备和第二设备之间根据该传输方式传输该AI模型的相关信息;其中,第一设备为接入网设备,第二设备为终端设备;或,第一设备为终端设备,第二设备为接入网设备。本申请实施例提供的方案能够获取合适的传输方式传输AI模型的相关信息,以满足不同应用场景下的AI模型的传输需求。

Description

通信方法和装置
本申请要求于2022年12月30日提交中国国家知识产权局、申请号为202211725087.X、申请名称为“通信方法和装置”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请实施例涉及通信领域,并且,更具体地,涉及通信方法和装置。
背景技术
随着数据存储和计算能力的提升,人工智能(artificial intelligence,AI)技术得到了越来越多的运用。AI技术可以运用到新空口(new radio,NR)系统等通信系统中,通过智能收集和分析数据,提升网络性能和用户体验。
第三代合作伙伴计划(3rd generation partnership project,3GPP)引入了多个无线接入网(radio access network,RAN)侧的AI应用场景,其中部分AI应用场景中,可以由终端设备实现部分的AI功能,接入网设备可以将AI模型传输给终端设备。另外,在终端设备侧的部分AI应用场景中,可以由接入网设备实现部分的AI功能,终端设备可以将AI模型传输给接入网设备。在空口上即将传输AI模型时,如何确定合适的传输方式以满足AI应用场景的需求是亟待解决的问题。
发明内容
本申请实施例提供一种通信方法和装置,能够获取合适的传输方式传输AI模型的相关信息,以满足不同应用场景下的AI模型的传输需求。
第一方面,提供了一种通信方法,应用于第一设备。该方法可以由第一设备执行,或者,也可以由第一设备的组成部件(例如芯片或者电路)执行,对此不作限定。为了便于描述,下面以由第一设备执行为例进行说明。
该方法可以包括:第一设备获取AI模型的相关信息的传输方式,第一设备根据所述传输方式向第二设备发送该AI模型的相关信息;其中,第一设备为接入网设备,第二设备为终端设备;或,第一设备为终端设备,第二设备为接入网设备。
基于上述方案,第一设备能够获取合适的传输方式传输AI模型的相关信息,以满足不同应用场景下的AI模型的传输需求,传输需求例如时延需求等。换句话说,第一设备确定的传输方式可能会因为AI模型的应用场景的不同而不同,比较灵活。其中,AI模型的相关信息例如AI模型的本体数据、架构信息、或参数信息的部分或者全部,第二设备可以通过AI模型的相关信息还原该AI模型。
结合第一方面,在第一方面的某些实现方式中,第一设备接收来自第二设备的第一参考信息;第一设备根据该第一参考信息确定所述传输方式。
基于上述方案,第一设备确定的传输方式更符合第二设备对于AI模型的传输需求,以避免因传输方式不合适而使得第二设备使用AI模型的性能降低。
结合第一方面,在第一方面的某些实现方式中,该第一参考信息包括以下至少一项:第二设备期望的第一候选AI模型集合的信息、第二设备的缓存能力信息、传输时延要求信息或第二设备的期望传输方式的信息。
基于上述方案,若第一参考信息包括第一候选AI模型集合的信息,则第一设备可以根据第一候选AI模型集合的信息确定将要传输的AI模型。若第一参考信息包括第二设备的缓存能力信息,则第一设备可以根据该缓存能力信息确定传输方式,避免第一设备传输的AI模型的相关信息超出第二设备的缓存能力。若第一参考信息包括传输时延要求信息,则第一设备可以根据该传输时延要求信息在时延要求内完成AI模型的相关信息的传输,避免第一设备传输的AI模型的相关信息超时而导致第二设备不能在合适的时间使用AI模型,影响AI模型的使用性能。若第一参考信息包括第二设备的期望传输方式,则第一设备可以根据该期望传输方式确定AI模型的相关信息的传输方式,使得确定的传输方式更符合第二设备对于AI 模型的传输需求。
结合第一方面,在第一方面的某些实现方式中,方法还包括:第一设备向第二设备发送第一指示信息,该第一指示信息指示所述传输方式。
基于上述方案,第一设备获取传输方式后可以将其告知第二设备,使得第二设备可以知晓即将传输的AI模型的相关信息的传输方式,从而根据该传输方式接收AI模型的相关信息。例如,AI模型的相关信息是分块传输的,第一设备将该分块传输方式告知第二设备,可以避免第二设备在AI模型的相关信息的全部分块传输完成之前就开始拼接AI模型,导致不能拼接出完整的AI模型,因此本方案能够提高第二设备拼接AI模型的准确率。
结合第一方面,在第一方面的某些实现方式中,方法还包括:第一设备接收来自第二设备的第二指示信息,该第二指示信息指示所述传输方式;第一设备根据该第二指示信息获取所述传输方式。
基于上述方案,第一设备获取的传输方式可以由第二设备指示,也就是说第一设备无需自身确定AI模型的相关信息的传输方式,降低第一设备执行的复杂度。
结合第一方面,在第一方面的某些实现方式中,方法还包括:第一设备向第二设备发送第二参考信息,该第二参考信息包括第二候选AI模型集合的信息或候选传输方式的信息中的至少一项;第一设备接收来自第二设备的第三指示信息;根据该第三指示信息获取所述传输方式,其中,该第三指示信息指示根据该第二参考信息确定的所述传输方式,且该第二参考信息基于该第一参考信息确定。
基于上述方案,第一设备获取的传输方式可以由第二设备指示,并且第一设备为第二设备确定传输方式提供了参考信息,使得第二设备确定的传输方式更符合第一设备以及第二设备的传输需求,减少第二设备对AI模型的使用性能因传输方式的不合适而造成的影响。
结合第一方面,在第一方面的某些实现方式中,当该第二参考信息包括第二候选AI模型集合的信息时,该第三指示信息指示的所述AI模型基于第二候选AI模型集合的信息确定,或者,当该第二参考信息包括候选传输方式的信息时,该第三指示信息指示的所述传输方式基于候选传输方式的信息确定。
结合第一方面,在第一方面的某些实现方式中,所述传输方式为将所述AI模型的相关信息作为整体传输,或者将所述AI模型的相关信息分块传输。
基于上述方案,在AI模型容量较小的情况下,可以将所述AI模型的相关信息作为整体传输。反之,在AI模型容量较大的情况下,可以将所述AI模型的相关信息分块传输。本方案可以避免因单次发送的AI模型的相关信息的数据量过大而对其他信令和数据的传输造成的影响,例如导致其他信令和数据出现拥塞的情况。
结合第一方面,在第一方面的某些实现方式中,所述传输方式为将所述AI模型的相关信息分块传输,所述AI模型的相关信息包括分块标识。
基于上述方案,在分块传输的情况下,第一设备向第二设备传输分块标识,可以使得第二设备能够根据分块标识识别每一块被拆分的AI模型的相关信息,从而第二设备可以更准确地进行AI模型的拼接。
结合第一方面,在第一方面的某些实现方式中,方法还包括:第一设备向第二设备发送更新信息,该更新信息用于更新所述AI模型。
基于上述方案,在所述AI模型需要更新时,第一设备能够发送更新信息使第二设备及时更新AI模型,提高AI模型应用的性能。
结合第一方面,在第一方面的某些实现方式中,所述AI模型的相关信息的传输路径包括用户面传输和/或控制面传输。
第二方面,提供了一种通信方法,应用于第二设备。该方法可以由第二设备执行,或者,也可以由第二设备的组成部件(例如芯片或者电路)执行,对此不作限定。为了便于描述,下面以由第二设备执行为例进行说明。
该方法可以包括:第二设备获取AI模型的相关信息的传输方式,第二设备根据所述传输方式接收来自第一设备的该AI模型的相关信息;其中,第一设备为接入网设备,第二设备为终端设备;或,第一设备为终端设备,第二设备为接入网设备。
基于上述方案,第二设备能够获取合适的AI模型的相关信息的传输方式,以满足不同应用场景下的AI模型的传输需求,传输需求例如时延需求等。换句话说,第一设备确定的传输方式可能会因为AI模型的应用场景的不同而不同,比较灵活。
结合第二方面,在第二方面的某些实现方式中,方法还包括:第二设备向第一设备发送第一参考信 息,该第一参考信息用于确定所述传输方式。
基于上述方案,第二设备可以向第一设备提供参考信息,使得第一设备确定的传输方式更符合第二设备对于AI模型的传输需求,以避免因传输方式不合适而使得第二设备使用AI模型的性能降低。
结合第二方面,在第二方面的某些实现方式中,该第一参考信息包括以下至少一项:第二设备期望的第一候选AI模型集合的信息、第二设备的缓存能力信息、传输时延要求信息或第二设备的期望传输方式的信息。
基于上述方案,若第一参考信息包括第一候选AI模型集合的信息,则第一设备可以根据第一候选AI模型集合确定将要传输的AI模型。若第一参考信息包括第二设备的缓存能力信息,则第一设备可以根据该缓存能力信息确定传输方式,避免第一设备传输的AI模型的相关信息超出第二设备的缓存能力。若第一参考信息包括传输时延要求信息,则第一设备可以根据该传输时延要求信息在时延要求内完成AI模型的相关信息的传输,避免第一设备传输的AI模型的相关信息超时而导致第二设备不能在合适的时间使用AI模型,影响AI模型的使用性能。若第一参考信息包括第二设备的期望传输方式,则第一设备可以根据该期望传输方式确定AI模型的相关信息的传输方式,使得确定的传输方式更符合第二设备对于AI模型的传输需求。
结合第二方面,在第二方面的某些实现方式中,方法还包括:第二设备接收来自所述第一设备的第一指示信息;根据所述第一指示信息获取所述传输方式。
基于上述方案,第一设备获取传输方式后可以将其告知第二设备,使得第二设备可以知晓即将传输的AI模型的相关信息的传输方式,从而根据该传输方式接收AI模型的相关信息。例如,AI模型的相关信息是分块传输的,第一设备将该分块传输方式告知第二设备,可以避免第二设备在AI模型的相关信息的全部分块传输完成之前就开始拼接AI模型,导致不能拼接出完整的AI模型,因此本方案能够提高第二设备拼接AI模型的准确率。
结合第二方面,在第二方面的某些实现方式中,方法还包括:第二设备向第一设备发送第二指示信息,该第二指示信息指示所述传输方式。
基于上述方案,第二设备向第一设备指示由第二设备确定的传输方式,也就是说第一设备无需自身确定AI模型的相关信息的传输方式,降低第一设备执行的复杂度。
结合第二方面,在第二方面的某些实现方式中,方法还包括:第二设备接收来自第一设备的第二参考信息,该第二参考信息包括第二候选AI模型集合的信息或候选传输方式的信息中的至少一项;第二设备根据该第二参考信息确定所述传输方式;第二设备向第一设备发送第三指示信息,该第三指示信息指示根据第二参考信息确定的所述传输方式,且该第二参考信息基于第一参考信息确定。
基于上述方案,第一设备为第二设备确定传输方式提供了参考信息,使得第二设备确定的传输方式更符合第一设备以及第二设备的传输需求,减少AI模型的使用性能因传输方式的不合适而造成的影响。
结合第二方面,在第二方面的某些实现方式中,当该第二参考信息包括第二候选AI模型集合的信息时,该第三指示信息指示的所述AI模型基于第二候选AI模型集合的信息确定,或者,当该第二参考信息包括候选传输方式的信息时,该第三指示信息指示的所述传输方式基于候选传输方式的信息确定。
结合第二方面,在第二方面的某些实现方式中,所述传输方式为将所述AI模型的相关信息作为整体传输,或者将所述AI模型的相关信息分块传输。
基于上述方案,在AI模型容量较小的情况下,可以将所述AI模型的相关信息作为整体传输。反之,在AI模型容量较大的情况下,可以将所述AI模型的相关信息分块传输。本方案可以避免因单次发送的AI模型的相关信息的数据量过大而对其他信令和数据的传输造成的影响,例如导致其他信令和数据出现拥塞的情况。
结合第二方面,在第二方面的某些实现方式中,所述传输方式为将所述AI模型的相关信息分块传输,所述AI模型的相关信息包括分块标识。
基于上述方案,在分块传输的情况下第二设备可以获取分块标识,因此第二设备能够根据分块标识识别每一块被拆分的AI模型的相关信息,从而第二设备可以更准确地进行AI模型的拼接。
结合第二方面,在第二方面的某些实现方式中,方法还包括:第二设备接收来自第一设备的更新信息;根据该更新信息更新所述AI模型。
基于上述方案,在所述AI模型需要更新时,第一设备能够发送更新信息使第二设备及时更新AI模型,提高AI模型应用的性能。
结合第二方面,在第二方面的某些实现方式中,所述AI模型的相关信息的传输路径包括用户面传输和/或控制面传输。
第三方面,提供一种通信装置,该装置用于执行上述第一方面至第二方面任一种可能实现方式中的方法。具体地,该装置可以包括用于执行第一方面至第二方面任一种可能实现方式中的方法的单元和/或模块,如处理单元和/或通信单元。
在一种实现方式中,该装置为通信设备(如第一设备,又如第二设备)。当该装置为通信设备时,通信单元可以是收发器,或,输入/输出接口;处理单元可以是至少一个处理器。可选地,收发器可以为收发电路。可选地,输入/输出接口可以为输入/输出电路。
在另一种实现方式中,该装置为用于通信设备(如第一设备,又如第二设备)的芯片、芯片系统或电路。当该装置为用于通信设备的芯片、芯片系统或电路时,通信单元可以是该芯片、芯片系统或电路上的输入/输出接口、接口电路、输出电路、输入电路、管脚或相关电路等;处理单元可以是至少一个处理器、处理电路或逻辑电路等。
第四方面,提供一种通信装置,该装置包括:至少一个处理器,用于执行存储器存储的计算机程序或指令,以执行上述第一方面至第二方面任一种可能实现方式中的方法。可选地,该装置还包括存储器,用于存储的计算机程序或指令。可选地,该装置还包括通信接口,处理器通过通信接口读取存储器存储的计算机程序或指令。
在一种实现方式中,该装置为通信设备(如第一设备,又如第二设备)。
在另一种实现方式中,该装置为用于通信设备(如第一设备,又如第二设备)的芯片、芯片系统或电路。
第五方面,提供一种处理器,用于执行上述各方面提供的方法。
对于处理器所涉及的发送和获取/接收等操作,如果没有特殊说明,或者,如果未与其在相关描述中的实际作用或者内在逻辑相抵触,则可以理解为处理器输出和输入等操作,也可以理解为由射频电路和天线所进行的发送和接收操作,本申请对此不做限定。
第六方面,提供一种计算机可读存储介质,该计算机可读介质存储用户设备执行的程序代码,该程序代码包括用于执行上述第一方面至第二方面任一种可能实现方式中的方法。
第七方面,提供一种包含指令的计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述第一方面至第二方面任一种可能实现方式中的方法。
第八方面,提供一种通信系统,包括前述的第一设备和第二设备。
在第八方面的一种实现方式中,第一设备为接入网设备,且第二设备为终端设备。
在第八方面的另一种实现方式中,第一设备为终端设备,且第二设备为接入网设备。
附图说明
图1是本申请实施例提供的一种通信系统的示意图。
图2是适用于本申请实施例的接入网设备的架构示意图。
图3是本申请实施例提供的一种AI应用框架的示意图。
图4是本申请实施例提供的一种通信方法400的流程示意图。
图5是本申请实施例提供的一种获取传输方式的方法500的流程示意图。
图6是本申请实施例提供的另一种获取传输方式的方法600的流程示意图。
图7是本申请实施例提供的一种通信方法700的流程示意图。
图8是本申请实施例提供的通信装置800的结构示意图。
图9是本申请实施例提供的通信装置900的结构示意图。
具体实施方式
下面将结合附图,对本申请实施例中的技术方案进行描述。
图1是本申请实施例提供的一种通信系统的示意图。
图1示出的通信系统100包括接入网设备10和终端设备20,在该通信系统中,终端设备20可以向接入网设备10发送上行数据/信号/信息,接入网设备10可以向终端设备20发送下行数据/信号/信息。
本申请实施例提供的通信方法还可以涉及图1中未示出的设备或传输节点,本申请实施例对此不作 限定。
上述应用于本申请实施例的通信系统仅是一种举例说明,适用本申请实施例的通信系统并不局限于此,任何能够实现上述各个设备的功能的通信系统都适用于本申请实施例。
本申请实施例的技术方案可以应用于各种通信系统,例如:长期演进(long term evolution,LTE)系统、高级的长期演进(LTE advanced,LTE-A)系统,LTE频分双工(frequency division duplex,FDD)系统、LTE时分双工(time division duplex,TDD)、无线保真(wireless fidelity,Wi-Fi)通信系统、通用移动通信系统(universal mobile telecommunication system,UMTS)、全球互联微波接入(worldwide interoperability for microwave access,WiMAX)通信系统、NR系统等第五代(5th Generation,5G)系统,或未来演进的通信系统(例如,6G移动通信系统),车到其它设备(vehicle-to-everything,V2X),其中,V2X可以包括车到互联网(vehicle to network,V2N)、车到车(vehicle to vehicle,V2V)、车到基础设施(vehicle to infrastructure,V2I)、车到行人(vehicle to pedestrian,V2P)等、车间通信长期演进技术(long term evolution-vehicle,LTE-V)、车联网、机器类通信(machine type communication,MTC)、物联网(Internet of things,IoT)、机器间通信长期演进技术(long term evolution-machine,LTE-M),机器到机器(machine to machine,M2M)等。
终端设备可以是能够接收接入网设备调度和指示信息的无线终端设备。终端设备可以是指向用户提供语音和/或数据连通性的设备,或具有无线连接功能的手持式设备、或连接到无线调制解调器的其他处理设备。
本申请实施例中的终端设备:也可以称为终端、接入终端、用户单元、用户设备(user equipment,UE)、用户站、移动站、远方站、远程终端、移动设备、用户终端、无线通信设备、用户代理或用户装置。终端设备是包括无线通信功能(向用户提供语音/数据连通性)的设备。例如,具有无线连接功能的手持式设备、或车载设备等。本申请的实施例中的终端设备可以是手机(mobile phone)、平板电脑(pad)、带无线收发功能的电脑、列车、飞机、移动互联网设备(mobile internet device,MID)、虚拟现实(virtual reality,VR)终端、增强现实(augmented reality,AR)终端、工业控制(industrial control)中的无线终端(例如机器人等)、车联网中的无线终端(例如车载设备、整车设备、车载模块、车辆等)、蜂窝电话、无绳电话、会话启动协议(session initiation protocol,SIP)电话、无线本地环路(wireless local loop,WLL)站、个人数字助理(personal digital assistant,PDA)、具有无线通信功能的手持设备、计算设备或连接到无线调制解调器的其它处理设备、可穿戴设备,5G网络中的终端或者未来演进网络中的终端等,此外,终端设备还可以运用到无人驾驶(self driving)、远程医疗(telemedical)、智能电网(smart grid)、运输安全(transportation safety)、智慧城市(smart city)、智慧城市(smart city)、智慧家庭(smart home)等场景中。可以理解,本申请中的终端设备的全部或部分功能也可以通过在硬件上运行的软件功能来实现,或者通过平台(例如云平台)上实例化的虚拟化功能来实现。
接入网设备可以是无线网络中的设备。例如,接入网设备可以是部署在无线接入网中为终端设备提供无线通信功能的设备。例如,接入网设备可以为将终端设备接入到无线网络的无线接入网(radio access network,RAN)节点。
接入网设备包括但不限于:各类基站,如下一代节点B(gNodeB,gNB)、演进型节点B(evolved Node B,eNB)、无线网络控制器(radio network controller,RNC)、节点B(Node B,NB)、基站控制器(base station controller,BSC)、基站收发台(base transceiver station,BTS)、家庭基站(home evolved NodeB,HeNB,或home Node B,HNB)、也可以是服务器、可穿戴设备、车载设备,无线中继节点、无线回传节点、传输点(transmission point,TP)或者发送接收点(transmission and reception point,TRP)等,还可以是基站的一个或一组(包括多个天线面板)天线面板,或者,还可以为构成基站的网络节点,如基带单元(BBU),或分布式单元(distributed unit,DU)等。其中,基站可以是宏基站、微基站、微微基站、小站、中继站或气球站等。可以理解,本申请中的接入网设备的全部或部分功能也可以通过在硬件上运行的软件功能来实现,或者通过平台(例如云平台)上实例化的虚拟化功能来实现。
图2是适用于本申请实施例的接入网设备的架构示意图。
如图2所示,本申请实施例中所涉及到的接入网设备可以是集中式单元(centralized unit,CU)和分布式单元(distributed unit,DU)分离架构。RAN可以与核心网(例如可以是长期演进(long term evolution,LTE)的核心网,也可以是5G的核心网等)相连。CU和DU可以理解为是对接入网设备从逻辑功能角度的划分。CU和DU在物理上可以是分离的也可以部署在一起。多个DU可以共用一个CU。 一个DU也可以连接多个CU(图2中未示出)。CU和DU之间可以通过接口相连,例如可以是F1接口。CU和DU可以根据无线网络的协议层划分。一种可能的划分方式:CU用于执行无线资源控制(radio resource control,RRC)层、业务数据适配协议(service data adaptation protocol,SDAP)层以及分组数据汇聚层协议(packet data convergence protocol,PDCP)层的功能,DU用于执行无线链路控制(radio link control,RLC)层,媒体接入控制(media access control,MAC)层,物理(physical)层等的功能。
可以理解,对CU和DU的处理功能按照协议层的划分仅仅是一种举例,CU和DU也可以按照其他的方式进行划分。例如可以将CU或者DU划分为比上述划分方式更多协议层的功能。例如,CU或DU还可以划分为上述划分方式协议层的部分处理功能。
在一种设计中,可以按照业务类型或者其他系统需求对CU或者DU的功能进行划分。例如按时延划分,将处理时间需要满足时延要求的功能设置在DU实现,不需要满足该时延要求的功能设置在CU实现。
在另一种设计中,CU也可以具有核心网的一个或多个功能。一个或者多个CU可以集中设置,也可以分离设置。例如CU可以设置在网络侧方便集中管理。DU可以具有多个射频功能,也可以将射频功能拉远设置。
CU的功能可以由一个实体来实现也可以由不同的实体实现。例如,可以对CU的功能进行进一步切分,例如,将控制面(control plane,CP)和用户面(user plane,UP)分离,即CU的控制面(CU-CP)和CU用户面(CU-UP)。例如,CU-CP和CU-UP可以由不同的功能实体来实现,并通过E1接口相连,所述CU-CP和CU-UP可以与DU相耦合,共同完成接入网设备的功能。CU的控制面CU-CP还包括一种进一步切分的架构,即把CU-CP进一步切分为CU-CP1和CU-CP2。其中CU-CP1包括各种无线资源管理功能,CU-CP2仅包括RRC功能和PDCP-C功能(即控制面信令在PDCP层的基本功能)。
在不同系统中,CU(包括CU-CP或CU-UP)、或DU也可以有不同的名称,但是本领域的技术人员可以理解其含义。例如,在开放式无线接入网(open radio access network,O-RAN)系统中,CU也可以称为O-CU(开放式CU),DU也可以称为O-DU,CU-CP也可以称为O-CU-CP,CU-UP也可以称为O-CU-UP。为描述方便,本申请中以CU,CU-CP,CU-UP、和DU为例进行描述。
AI模块为具备机器学习计算能力的模块。在无线通信系统中,AI模块可位于运营、管理和维护(operations,administration and maintenance,OAM)中,也可位于接入网设备中(例如接入网设备为分离架构,则可以位于CU),可以位于终端设备中,也可以单独成为一个网元实体AI控制层(AI control layer,AIC)。AI模块在无线通信系统中主要功能为根据输入数据(在无线通信系统中,输入数据一般指接入网设备提供的、或OAM监测的网络运行数据,例如网络负载、信道质量等、或核心网提供的用户面数据传输情况)进行模型建立、训练逼近、强化学习等一系列AI计算。AI模块提供的已训练完成的模型,具备针对RAN侧网络变化的预测功能,可以用于负载预测,终端设备轨迹预测等。此外,AI模块还可以根据训练完成的模型对RAN网络性能的预测结果,从网络节能、移动性优化等角度进行策略推理,以得到合理高效的节能策略、移动性优化策略等。当AI模块位于OAM中时,其与RAN侧网络设备的通信,可以复用当前的北向接口;当AI模块位于接入网设备或接入网设备的CU中时,可以复用当前的F1、Xn、Uu等接口;当AI模块独立成一个网络实体时,重新建立到OAM和RAN侧等的通信链路,例如基于有线链路,或无线链路。当CU的CP和UP分离时,通常由CP负责接收AI模型以及后续AI的推理和策略生成功能。当CU-CP进一步切分为CU-CP1和CU-CP2时,通常由CU-CP1负责接收AI模型以及后续AI模型的推理功能,并生成具体的交互信令,由CU-CP2来进行发送。
图3是本申请实施例提供的一种AI应用框架的示意图。
如图3所示,AI应用框架包括数据采集模块、模型训练模块、模型推理模块以及执行实体(Actor),其中,模型训练模块和模型推理模块为AI模块的示例。接入网设备,接入网设备-CU,接入网设备-DU,终端设备或其他管理实体可以向数据采集模块中输入数据,数据采集模块可以作为AI模型训练和数据分析推理的数据库。模型训练模块对数据采集模块输出的训练数据进行分析给出最优的AI模型,将得到的AI模型部署到模型推理模块。模型推理模块基于数据采集模块输出的推理数据,对网络运行给出基于AI模型(模型训练模块训练得到的)的合理预测,并将AI模型的性能数据反馈到模型训练模块,后续模型训练模块根据反馈的性能数据继续训练模型,并将更新后的AI模型告知模型推理模块;或模型推理模块基于数据采集模块输出的推理数据以及AI模型指导网络做出策略调整,相关的策略调整由执行实体统一规划,并发送到多个网络实体去运行。同时,应用了相关策略后网络的具体表现会被反馈到数据采集模块存储起来。
AI在RAN侧的应用包括但不限于如下应用场景:节能(energy saving),负载均衡(load balancing)、移动性优化(mobility optimization),信道状态信息参考信号(channel state information-reference signal,CSI-RS)反馈增强、波束管理增强(beam management enhance,BME)以及定位增强等场景。以下分别介绍上述应用场景的基本原理。
节能场景:接入网设备收集自身和邻区的负载、能耗、能效信息,以及终端设备的轨迹信息、测量结果等,对自身负载的走向进行预测,并结合小区用途、关键性能指标(key performance indicator,KPI)要求等在不影响网络覆盖、用户接入的前提下,适时适当采取节能措施。
负载均衡场景:接入网设备收集自身和邻区的负载、能耗、能效信息,以及终端设备的轨迹信息、测量结果等,对自身负载的走向进行预测,并结合小区用途、KPI要求等,合理选择部分终端设备令其切换到邻区、或接纳从邻区由于负载均衡而交由该接入网设备负责的终端设备,使得整个片网的接入网设备间负载水平接近,减少出现部分接入网设备重载影响正常业务而部分接入网设备资源闲置的情况。
移动性优化场景:接入网设备对终端设备的历史轨迹信息收集,并结合终端设备的测量信息对终端设备的未来轨迹做出预测。基于预测的轨迹提前判断终端设备是否切换小区,并且提前下发切换配置以及知会目标小区准备接入资源,减少终端设备在切换过程中的延迟并降低出现切换、接入失败的概率。
CSI-RS反馈增强场景:当前CSI-RS反馈增强的主要流程如下:
S1.接入网设备和终端设备间先交互一个字典,通常是接入网设备根据终端设备能力以及自身的要求提前训练好的模型,然后向终端设备下发编码器(encoder)和量化器(quantizer);
S2.终端设备根据测量的信道矩阵结果对未来信道矩阵进行预测,按照已有的字典将待反馈矩阵以及预测结果进行压缩和量化,并且向接入网设备传递压缩和量化后的信道矩阵结果和预测结果;
S3.接入网设备根据字典和终端设备上报的数据,逆向恢复得到原始的信道矩阵。
波束管理增强的场景:当前波束管理增强的主要流程如下:
S1.初始模型的生成,接入网设备通过一定数量的终端设备对同步信号和物理广播信道块(synchronization signal and physical broadcast channel block,SSB)全波束扫描的结果上报,训练出稀疏扫描的矩阵,这种矩阵通常是每个小区所独有的;
S2.接入网设备将稀疏模型发送给终端设备,例如通过系统信息块(system information block,SIB)消息将稀疏模型发送给终端设备,由终端设备根据此矩阵做P1阶段的波束扫描,并将稀疏模型的扫描结果发送给接入网设备;
S3.接入网设备基于终端设备的扫描结果,推理出最优的CSI-RS波束,开始对终端设备进行P2扫描,由终端设备向接入网设备反馈最优的CSI-RS波束ID。
定位准确率增强场景:当前定位准确率增强的主要流程如下:
S1.使用运营商控制的参考终端设备,收集原始数据;
S2.位置管理功能(location management function,LMF)和接入网设备基于原始数据分别训练模型,LMF训练的模型可推理终端设备的最终定位(经纬度等),接入网设备训练的模型可推理视距传输(line of sight,LOS)/非视距传输(none line of sight,NLOS)判断结果。
以上应用场景中,可以由终端设备侧实现一部分的AI功能,但是没有明确AI模型的相关信息在空口上传递给终端设备的方式。例如CSI-RS反馈增强的场景中,接入网设备向终端设备下发AI模型的相关数据,使终端设备实现特定的AI功能。此外,单一的AI模型传输方式,也无法适应不同场景下不同的AI模型传输要求。另一方面,在AI模型的相关信息的传输方案中,还需要考虑具体传输AI模型的哪些相关信息,以及以哪种格式传输AI模型的相关信息。
本申请实施例提供一种通信方法和装置,能够获取合适的传输方式传输AI模型的相关信息,以满足不同应用场景下的AI模型的传输需求。
图4是本申请实施例提供的一种通信方法400的流程示意图。方法400应用于第一设备和第二设备,其中,第一设备为接入网设备,第二设备为终端设备;或,第一设备为终端设备,第二设备为接入网设备。方法400包括以下步骤:
S410,第一设备获取AI模型的相关信息的传输方式。
示例性地,第一设备确定待发送的AI模型的相关信息以及该AI模型的相关信息的传输方式,该AI模型的相关信息可以是AI模型的本体数据、AI模型的架构信息、或AI模型的参数信息中的一项或多项等,或者该AI模型的相关信息还可以是该AI模型的其他信息,凡能够使得第二设备还原AI模型的信息 都在本申请实施例给出的相关信息的保护范围内。
其中,AI模型的本体数据可以理解为构成AI模型的数据,或者AI模型对应的数据,或者AI模型。
示例性的,AI模型的架构可以包括全连接架构,神经网络架构等。
示例性的,当AI模型的相关信息包括AI模型的本体数据时,即第一设备在传输AI模型时没有对AI模型的架构和参数进行拆解,因此第二设备接收AI模型的本体数据后可以直接根据AI模型的本体数据还原AI模型。
示例性的,AI模型的架构信息和参数信息是将AI模型拆解得到的,例如对于全连接AI模型,架构(structure)可以指AI模型具体有几层(layer),以及每层有几个节点(node),以及节点之间是否连接,而参数(parameter)可以指每两个连接的节点的实际加权参数,实际加权参数通常用浮点数表示。该AI模型的相关信息包括AI模型的参数信息或者架构信息时,第二设备在接收到该AI模型的所有架构信息以及参数信息后,结合架构信息以及参数信息还原出AI模型。一种可能的实施方式,上述传输方式为将AI模型的相关信息作为整体传输。
将AI模型的相关信息作为整体传输可以理解为:将AI模型的相关信息作为一个整体传输,即通过一个信令/消息传输AI模型的相关信息。当将AI模型的相关信息作为整体传输时,AI模型的相关信息可以通过用户面信令/消息传输,也可以通过控制面信令/消息传输,本申请实施例对此不作限制。
另一种可能的实施方式,上述传输方式为将AI模型的相关信息分块传输。
将AI模型的相关信息分块传输可以理解为:将AI模型的相关信息分为N个部分,通过M个信令/消息分别进行传输,N大于1,M大于或等于1。示例性的,N个部分可以通过N个信令/消息分别进行传输,或者,在N大于或等于3的情况下,N个部分中的2个或2个以上部分可以在1个信令/消息中传输。另外,N个部分中的任意一个部分也可以通过多个信令/消息传输。将AI模型的相关信息分块传输时,被拆分的每个部分可以都通过用户面信令/消息传输,也可以都通过控制面信令/消息传输,或者一部分通过用户面信令/消息传输,另一部分通过控制面信令/消息传输,本申请实施例对此不作限制。
本申请中的分块传输也可以称为拆分传输或分段传输或分割传输,后文统一用分块传输进行描述。
S410’,第二设备获取AI模型的相关信息的传输方式。
示例性地,第二设备获取的传输方式可以是第二设备自己确定的,在此情况下,第二设备会向第一设备指示该传输方式。或者第二设备获取的传输方式可以是第一设备确定并指示给第二设备的。
也就是说,第二设备获取的传输方式与第一设备获取的传输方式相同,传输方式的具体内容可参见S410中的相关描述,此处不再赘述。
可以理解,S410执行可以在S410’之前,也可以在S410’之后,或者与S410’同时执行,本申请对此不做限制。
S420,第一设备根据获取的传输方式向第二设备发送该AI模型的相关信息;对应地,第二设备根据获取的传输方式接收来自第二设备的该AI模型的相关信息。
一种可能的实施方式,将AI模型的相关信息分块传输时,AI模型的相关信息除了包括AI模型的本体数据、AI模型的架构信息、或AI模型的参数信息中的一项或多项之外,还包括分块标识。
可以理解,第二设备接收到该分块标识后可以根据分块标识确定AI模型的相关信息是否被完整接收,也可以确定被拆分的每部分AI模型的相关信息的标识,从而使得第二设备能够准确拼接出AI模型。
例如,AI模型的相关信息为架构信息和参数信息,其中,架构信息作为整体传输,参数信息按照节点的先后顺序和节点的数量分为3块进行传输,分别是分块#1、分块#2和分块#3,在传输过程中分块标识#1、#2、#3也随参数信息一起传输,这样,第二设备接收到架构信息,以及分块#1、分块#2和分块#3后,可以根据分块标识确定每个分块对应的参数信息是该AI模型架构中哪些节点的实际加权参数,从而拼接出AI模型。
示例性地,第一设备为接入网设备,第二设备为终端设备。如果AI模型的相关信息的部分或全部通过用户面信令/消息传输,接入网设备为终端设备进行数据无线承载(data radio bearer,DRB)配置,该配置向终端设备指示接入网设备传输AI模型的相关信息的DRB标识信息和PDCP帧号。具体地,接入网设备向终端设备配置的用于传输AI模型的相关信息的DRB标识信息为DRB#1,PDCP帧号为PDCP#1和PDCP#2,接入网设备可以在配置的DRB#1对应的PDCP#1和PDCP#2中加入待传输的AI模型的相关信息,例如:整体的AI模型的相关信息;或者分块后的AI模型的相关信息和分块标识。
如果AI模型的相关信息的部分或全部通过控制面传输,类似于DRB配置,接入网设备为终端设备 进行信令无线承载(signaling radio bearer,SRB)配置,该配置向终端设备指示接入网设备传输AI模型的相关信息的SRB标识信息和PDCP帧号。具体地,接入网设备向终端设备配置的用于传输AI模型的相关信息的SRB标识信息为SRB#1,PDCP帧号为PDCP#3和PDCP#4,接入网设备可以在配置的SRB#1对应的PDCP#3和PDCP#4中加入待传输的AI模型的相关信息。可选地,接入网设备通过RRC信令向终端设备配置携带AI模型的相关信息的SRB,同时该RRC信令中还可以包含控制面分块标识,控制面分块标识与AI模型的相关信息的分块标识不同。例如,将分块后的AI模型的相关信息传输的过程中,发现某分块通过控制面信令传输时数据量较大,因此将该控制面信令做分块传输,控制面分块标识即该控制面信令的分块标识。
示例性地,第一设备为终端设备,第二设备为接入网设备。如果AI模型的相关信息的部分或全部通过用户面传输,终端设备可以根据服务质量(quality of service,QoS)参数为终端设备进行DRB配置,并向接入网设备指示终端设备传输AI模型的相关信息的DRB标识信息和PDCP帧号。如果AI模型的相关信息的部分或全部通过控制面传输,终端设备可以在上行SRB配置时,向接入网设备指示终端设备传输AI模型的相关信息的SRB标识信息和PDCP帧号。具体地,终端设备在配置的该PDCP帧号对应的PDCP帧中加入待传输的AI模型的相关信息。可选地,终端设备通过RRC信令向接入网设备指示携带AI模型的相关信息的SRB,同时该RRC信令中还可以包含控制面分块标识,控制面分块标识与AI模型的相关信息的分块标识不同。
基于方法400提供的方案,第一设备能够获取合适的传输方式向第二设备传输AI模型的相关信息,以满足不同应用场景下的AI模型的传输需求。
下面通过方法500和600介绍S410以及S410’中第一设备和第二设备分别获取AI模型的相关信息的传输方式的不同流程。可以理解,方法500和600是对方法400进一步说明,在以上方法400中已描述的内容可以用于方法500和600。
图5是本申请实施例提供的一种获取传输方式的方法500的流程示意图。方法500包括以下步骤:
S510,第二设备向第一设备发送第一参考信息;对应地,第一设备接收来自第二设备的第一参考信息。
示例性地,若第二设备为gNB,第一设备为终端设备,第一参考信息生成模块可以位于gNB、gNB-CU、gNB-CU-CP、gNB-CU-CP1。当该生成模块位于gNB-CU-CP1时,由gNB-CU-CP2负责将gNB-CU-CP1生成的第一参考信息发送到终端设备。
示例性地,第二设备可以根据当前需要使用AI模型优化的场景结合自身能力,向第一设备发送第一参考信息。
一种可能的实施方式,第一参考信息包括以下至少一项:第二设备期望的第一候选AI模型集合的信息、第二设备的缓存能力信息、传输时延要求信息、或第二设备的期望传输方式的信息,其中,当第一参考信息包括第一候选AI模型集合的信息时,第一设备确定的AI模型属于该第一候选AI模型集合。
其中,在第一参考信息包括传输时延要求信息时,后续第一设备可以根据该传输时延要求信息传输由第一设备确定的AI模型的相关信息。在第一参考信息包括传输时延要求信息和第一候选AI模型集合的信息时,该传输时延要求信息可以是第一候选AI模型集合中AI模型对应的传输时延要求信息。
以波束管理增强(beam management enhance,BME)的应用场景而言,第一参考信息示例如表1,可以理解,表1仅为示例,本申请不限于此。表1可以有其他的变换,或者第一参考信息仅包括表1示例的部分内容,或者第一参考信息还可以包括表1之外的其他内容,本申请实施例对此不做限制。
表1
需要说明的是,表1示例的第一参考信息的各项信息可以是具体的参数值,也可以是第一设备和第 二设备提前约定的编码值,本申请实施例对第一参考信息的内容和表述方式不做限制。
其中,表1中的“场景”表示第二设备希望使用AI模型优化的具体场景,该场景对应一套传输参数。以BME Case 1为例说明各项参考信息的含义。
缓存能力信息:缓存能力信息指示的缓存能力可以是第二设备能够用于存储AI模型的最大容量,例如X MB=500MB。或者缓存能力也可以是第二设备在单位时间内能够接收并存储的AI模型的相关信息的最大传输容量,例如第二设备每秒最多接收X MB=100MB的AI模型的相关信息。
传输时延要求信息:传输时延要求信息指示的传输时延要求可以是第二设备根据目标应用场景确认的AI模型的相关信息的传输时延要求。例如对于BME Case 1而言,要求传输时延不超过A ms。通常而言,结合具体的应用场景和实际信道环境等共同确定传输时延。传输时延要求可以通过QoS参数来指示,例如第二设备可以向第二设备指示期望传输AI模型的相关信息对应的QoS流的标识(Qos flow identifier,QFI)以及对应的QoS参数等。
第一候选AI模型集合的信息:针对BME Case 1,第二设备期望第一设备传输的AI模型的集合的信息,或者说第二设备推荐的AI模型的集合的信息。第一候选AI模型集合的信息例如AI模型的标识信息的集合,或者第一设备和第二设备约定好的AI模型的索引信息的集合,或者是某个基于AI模型实现的功能(function)的集合,或者是功能的编号信息的集合,本申请实施例对此不做限制。如表1中的举例,BME Case 1中第二设备期望的AI模型的集合的信息表示为{AI模型#1,AI模型#2};BME Case 2中第二设备期望的AI模型的集合的信息表示为{AI模型#3,AI模型#4}。
期望传输方式信息:针对BME Case 1,第二设备期望第一设备将AI模型的相关信息分块传输,针对BME Case 2,第二设备期望第一设备将AI模型的相关信息作为整体传输。
期望传输路径信息:即第二设备期望的AI模型的相关信息在空口上的传输路径,“CP”表示通过控制面(control plane,CP)的信令或消息传输,“UP”表示通过用户面(user plane,CP)的信令或消息传输。如果第一参考信息不包括期望传输路径信息时,在第一设备确定好要将AI模型的相关信息整体或分块传输后,可以自行实现传输路径的选择。
一种可能的实施方式,第一设备可以结合控制面传输、用户面传输以及AI模型的特点确定传输路径,或者,第二设备可以结合控制面传输、用户面传输以及AI模型的特点确定期望传输路径。具体地,控制面信令的优先级通常较高,所以传输的优先级也较高,但控制面传输会受小区切换的影响。采用控制面信令传输数据量较大的信息时,可以将控制面信令分块传输,当分块数较多时会持续占用控制面的资源。此外,在一些通信场景中,要求一组控制面信令连续发送,如果对控制面信令分块数较多可能影响其他控制面信令的正常传输。而用户面传输传输不受小区切换的影响,支持大容量数据传递,但用户面传输结合不同的QoS要求,因而第一设备无法保证传输时延。综上,控制面传输适用于传输时延要求低,数据量较小的AI模型;用户面传输适用于数据量较大但时延要求不高的AI模型。另外,传输时延要求高时,选择用户面传输还是控制面传输需要结合AI模型的特点,例如AI模型较大,选择用户面传输,AI模型较小,选择控制面传输。传输时延要求低可以理解为要求的传输时延较长,传输时延要求高可以理解为要求的传输时延较短。
例如,第一设备为接入网设备,第二设备为终端设备。针对BME Case 1,终端设备可以根据AI模型#1、AI模型#2的容量大小和当前的空口资源、业务负载、终端设备移动性状态等进行综合判断,确定期望传输路径。如AI模型#1、AI模型#2的容量较小,而终端设备的数据业务负载较高,且终端设备短期内并没有切换小区的可能性,则终端设备会期望接入网设备通过控制面进行传输。又如AI模型#1、AI模型#2的容量较大,而终端设备的数据业务负载较低,且终端设备处于移动状态,短期内存在小区切换的可能性,则终端设备会期望接入网设备通过用户面进行传输。
例如,第一设备为终端设备,第二设备为接入网设备。针对BME Case 1,接入网设备可以根据AI模型#1、AI模型#2的容量大小和当前的空口资源、业务负载、已收集的终端设备的移动性状态信息等进行综合判断,确定期望传输路径。如AI模型#1、AI模型#2的容量较小,而接入网设备的数据业务负载较高,且终端设备短期内并没有切换小区的可能性,则接入网设备会期望终端设备通过控制面进行传输。又如AI模型#1、AI模型#2的容量较大,而接入网设备的数据业务负载较低,且终端设备处于移动状态,短期内存在小区切换的可能性,则接入网设备会期望终端设备通过用户面进行传输。
此外,从AI模型分块的角度出发,AI模型可以进一步区分其架构(structure)和具体参数(parameter),例如对于全连接AI模型,架构可以指模型具体有几层(layer),以及每层有几个节点 (node),以及节点之间是否连接,而具体参数可以指每两个连接的节点的实际加权参数(通常用浮点数表示)。可见AI模型的架构信息的容量大小要远小于AI模型的参数信息的容量大小。因此第二设备可以确定AI模型的架构信息和参数信息分别使用不同的方式传输。例如AI模型的架构信息通过控制面传输,AI模型的参数信息通过用户面传输。
S520,第一设备根据第一参考信息确定AI模型的相关信息的传输方式。
可以理解,第一设备根据第一参考信息确定AI模型的相关信息以及对应的传输方式的过程为第一设备内部实现。
示例性地,当第一参考信息包括第一候选AI模型集合的信息时,第一设备可以根据第一候选AI模型集合的信息确定待传输的AI模型,待传输的AI模型为第一候选AI模型集合中的某个AI模型,进一步确定待传输的AI模型的相关信息。当第一参考信息不包括第一候选AI模型集合的信息时,第一设备可以根据当前应用场景以及自身情况以及第一参考信息包括的其他信息确定待传输的AI模型。
示例性地,当第一参考信息包括第二设备的缓存能力信息时,第一设备可以根据该缓存能力信息确定待传输的AI模型的相关信息。例如,该缓存能力信息指示第二设备的缓存能力较小如50MB,第一设备确定待传输的AI模型的相关信息为AI模型的架构信息和参数信息,该架构信息可以作为整体传输,该架构信息的传输路径可以是控制面传输,也可以是用户面,参数信息可以分块传输,该参数信息的传输路径可以优先选择用户面传输,本申请对此不做限制;或者,该缓存能力信息指示第二设备的缓存能力较大如500MB时,第一设备确定待传输的AI模型的相关信息为AI模型的本体数据,该本体数据可以被分块,由于本体数据的数据量较大,该本体数据的传输路径可以优先选择用户面传输。当第一参考信息不包括第二设备的缓存能力信息时,第一设备可以根据第一设备的实际负载、空口条件以及第一参考信息包括的其他信息确定待传输的AI模型的相关信息以及传输方式。例如第一参考信息包括传输时延要求信息,传输时延要求信息指示传输时延要求低,且空口负载较重时,第一设备可以选择数据量较小的AI模型,通过整体传输方式传输AI模型的相关信息。
示例性地,当第一参考信息包括第一候选AI模型集合中AI模型的传输时延要求信息时,第一设备可以根据该传输时延要求信息确定待传输的AI模型的相关信息的传输方式。例如,该传输时延要求信息指示的传输时延要求较低,AI模型的相关信息的数据量较小,则第一设备确定将AI模型的相关信息作为整体传输,并且第一设备可以优先选择的传输路径为控制面传输;或者,该传输时延要求信息指示的传输时延要求较高,AI模型的相关信息的数据量较大,则第一设备确定将AI模型的相关信息分块传输,并且第一设备可以优先选择的传输路径为用户面传输,本申请实施例对此不做限制。当第一参考信息不包括传输时延要求信息时,第一设备可以根据第一设备的实际负载、空口条件以及第一参考信息包括的其他信息确定待传输的AI模型的相关信息以及传输方式。
示例性地,当第一参考信息包括第二设备的期望传输方式的信息时,第一设备可以根据该期望传输方式的信息确定待传输的AI模型的相关信息的传输方式。例如,当第二设备期望分块传输时,第一设备可以确定AI模型的相关信息的传输方式为分块传输。当第二设备期望整体传输时,第一设备可以确定AI模型的相关信息的传输方式为整体传输。当第一参考信息不包括期望传输方式的信息时,第一设备可以根据第一设备的实际负载、空口条件以及第一参考信息包括的其他信息确定待传输的AI模型的相关信息以及传输方式。
可以理解,当第一参考信息包括第二设备期望的第一候选AI模型集合的信息、第二设备的缓存能力信息、传输时延要求信息、或第二设备的期望传输方式的信息中的2项或2项以上时,第一设备根据第一参考信息确定AI模型的相关信息,以及该AI模型的相关信息的传输方式的方法可参考上述示例中第一参考信息包括其中一项时第一设备确定AI模型的相关信息以及传输方式的方式。
示例性地,当第一参考信息包括第二设备的缓存能力信息和传输时延要求信息时,第一设备可以根据该缓存能力信息确定待传输的AI模型的相关信息。例如,该缓存能力信息指示第二设备的缓存能力较小,第一设备确定待传输的AI模型为容量较小的AI模型,并且确定AI模型的相关信息为架构信息和参数信息,将架构信息和参数信息可以作为整体传输。进一步地,第一设备可以根据该传输时延要求信息确定传输路径,该传输时延要求信息指示的传输时延要求较低,则第一设备可以优先选择的传输路径为控制面传输。例如,该缓存能力信息指示第二设备的缓存能力较大,第一设备确定待传输的AI模型为容量较大的AI模型,并且确定AI模型的相关信息为架构信息和参数信息,将架构信息作为整体传输,将参数信息分块传输。进一步地,第一设备可以根据该传输时延要求信息确定传输路径,该传输时延要求 信息指示的传输时延要求较高,则第一设备可以优先选择的传输路径为用户面传输。
示例性地,若第一设备为gNB,第二设备为终端设备,则第一设备确定AI模型的相关信息的传输方式的模块可以位于gNB、gNB-CU、gNB-CU-CP或gNB-CU-CP1。当该模块位于gNB-CU-CP1时,由gNB-CU-CP2负责将gNB-CU-CP1确定的传输方式或者与该传输方式相关的信令(例如第一指示信息)下发到终端设备。
S530,第一设备向第二设备发送第一指示信息,该第一指示信息指示该AI模型的相关信息的传输方式;对应地,第二设备接收来自第一设备的第一指示信息,根据第一指示信息获取该AI模型的相关信息的传输方式。
第一指示信息示例如表2,可以理解,表2仅为示例,本申请不限于此。表2可以有其他的变换,或者第一指示信息仅包括表2示例的部分内容,或者第一指示信息还可以包括表2之外的其他内容,本申请实施例对此不做限制。
表2
需要说明的是,表1示例的第一指示信息的部分信息可以是具体的参数值,也可以是第一设备和第二设备提前约定的编码值,本申请实施例对第一指示信息的内容和表述方式不做限制。
其中,表2中的“场景”表示第一设备确定的AI模型优化的具体场景,该场景对应一套传输参数。以BME Case 1为例说明第一指示信息包含内容和各项内容的含义。
第一指示信息包括AI模型索引信息:AI模型索引可以是AI模型的标识,或者第一设备和第二设备提前约定好的索引号,或者是某个基于AI模型实现的功能(function),或者是功能的编号信息,本申请实施例对此不做限制。
可选地,第一指示信息还包括格式(format)指示信息,该格式指示信息指示第一设备将向第二设备传输的AI模型的相关信息的具体格式。AI模型的相关信息的格式例如可以是直接执行的二进制代码,也可以是TensFlow,Pycharm等不同平台定义的格式,也可以是开放神经网络交换(open neural network exchange,ONNX)等开源的模型格式,本申请实施例对此不做限制。
第一指示信息包括分块指示信息,分块指示信息用于指示第二设备待传输的AI模型的相关信息是否被分块。例如,AI模型的相关信息被分块,则分块指示信息为是/Y(Yes)/T(True);或者,AI模型的相关信息没有被分块,则分块指示信息为否/N(No)/F(False)。
第一指示信息包括分块信息,分块信息指示AI模型的相关信息被分块的数量、每块的标识以及数据量大小。如表3所示AI模型的相关信息被分为3块,“1-X MB”表示第一块的数据量大小为X MB,“2-Y MB”表示第二块的数据量大小为Y MB,“3-Z MB”表示第三块的数据量大小为Z MB。
第一指示信息包括分块发送方式信息,分块发送方式信息指示AI模型的相关信息被分块后,每一块的发送方式,例如分块发送方式信息的第一个数字表示分块标识,第二个数字表示分块依据,即“1-1-CP”中的第一个“1”表示分块1,第二个“1”表示分块依据为架构,也就是说分块1通过控制面发送,并且分块1对应的部分AI模型的相关信息为架构信息;以此类推,“2-2-UP”表示分块2的分块依据为参数,通过用户面发送,并且分块2对应的部分AI模型的相关信息为参数信息;“3-2-UP”表示分块3的分块依据为参数,通过用户面发送,并且分块3对应的部分AI模型的相关信息为参数信息。
第一指示信息包括分块依据信息,将AI模型的相关信息可以通过架构和参数进行分块,即架构信息和参数信息分别在不同的块中传输。或者AI模型的相关信息也可以采用索引信息分块,例如将一个AI模型根据它能实现的一个或多个AI功能进行拆分,分块1对应功能1,分块2对应功能2。或者AI模型的相关信息也可以根据传输路径进行分块,例如分块1使用用户面传输,分块2使用控制面传输等。如表3所示,分块依据信息“1”表示分块依据为“架构”,分块依据信息“2”表示分块依据为“参数”,分块依据信息“3”表示分块依据为“索引信息”,分块依据信息“4”表示分块依据为“传输路径”。
可以理解,上述分块信息和分块发送方式信息是将AI模型的相关信息分块传输时,第一指示信息包 含的内容的一种示例,如果将AI模型的相关信息作为整体传输,则第一指示信息可以不包括分块信息和分块依据信息,分块指示信息例如表示为否/N(No)/F(False),分块发送方式信息可以替换为整体发送路径信息,整体发送路径信息例如表示为“UP/CP”。
一种可能的实施方式,第一设备向第二设备发送RRC配置信息或MAC控制单元(MAC control element,MAC CE),该RRC配置信息或MAC CE包括第一指示信息;对应地,第二设备接收来自第一设备的该RRC配置信息或MAC CE。
基于方法500提供的方案,第一设备可以结合第一设备的实际负载、空口条件以及第一参考信息中的一项或多项,确定更合适的AI模型的相关信息以及传输方式,从而减少后续AI模型的使用性能因传输方式的不合适而造成的影响。
图6是本申请实施例提供的另一种获取传输方式的方法600的流程示意图。方法600包括以下步骤:
S610,第二设备获取AI模型的相关信息的传输方式。
实施方式#1,第二设备根据自身信息确定AI模型的相关信息的传输方式。
示例性地,第二设备可以根据第二设备期望的第一候选AI模型集合的信息、第二设备的缓存能力信息、传输时延要求信息中的至少一项确定AI模型的相关信息的传输方式。
具体的确定方法可参考S520中相关内容的描述,此处不再赘述。
S620,第二设备向第一设备发送第二指示信息,该第二指示信息指示AI模型的相关信息的传输方式;对应地,第一设备接收来自第二设备的第二指示信息。
示例性地,第二指示信息可参见表2所示的第一指示信息。
实施方式#2,第二设备根据第二参考信息确定最终的AI模型的相关信息的传输方式。
可选地,在一个实现方式中,S610之前,方法600还包括:
S601,第二设备向第一设备发送第一参考信息;对应地,第一设备接收来自第二设备的第一参考信息。
第一参考信息的具体内容可参见S510中的相关内容的描述,此处不再赘述。
可选地,在一个实现方式中,S610之前,方法600还包括:
S602,第一设备向第二设备发送第二参考信息,该第二参考信息包括第二候选AI模型集合的信息或候选传输方式的信息中的至少一项;对应地,第二设备接收来自第一设备的第二参考信息。
示例性地,第一设备可以根据自身情况,如第一设备能够提供的候选AI模型集合、该候选AI模型集合中AI模型的传输时延要求、第一设备的负载信息和空口条件中的至少一项确定第二参考信息。
可以理解,当方法600包括S601和S602时,如果第一参考信息包括第一候选AI模型集合的信息时,第二候选AI模型集合属于第一候选AI模型集合。当第二参考信息包括第二候选AI模型集合的信息时,最终确定的AI模型属于第二候选AI模型集合。S610中获取的AI模型也就是S410或S410’中获取的AI模型。
示例性地,第一设备可以根据自身情况以及从第二设备获取的第一参考信息确定第二参考信息。
可以理解,第一设备确定第二参考信息的实现可参考S520中第一设备根据第一参考信息确定AI模型的相关信息的传输方式的方式,区别在于S520确定的是最终待传输的AI模型以及AI模型的相关信息的传输方式,而S602中第二参考信息中包括一个或多个候选方案可以供第二设备确定最终的AI模型的相关信息以及对应的传输方式。
第二参考信息示例如表3,可以理解,表3仅为示例,本申请不限于此。表3可以有其他的变换,或者第二参考信息仅包括表3示例的部分内容,或者第二参考信息还可以包括表3之外的其他内容,本申请实施例对此不做限制。
表3

需要说明的是,表3示例的第二参考信息的具体内容可参考表2的相关描述,此处不再赘述。区别在于当第二参考信息包括多个候选方案时,第二参考信息还包括候选编号,使得第二设备确定好AI模型的相关信息的传输方式后,可以反馈候选编号。
在一个实现方式中,若第二设备从第一设备获取了第二参考信息,例如执行了前述步骤S602,则第二设备可以根据第二参考信息确定最终的AI模型的相关信息的传输方式。
示例性地,当第二参考信息包括第二候选AI模型集合的信息时,第二设备基于第二候选AI模型集合的信息确定AI模型,或者,当第二参考信息包括候选传输方式的信息时,第二设备基于候选传输方式的信息确定该AI模型的相关信息的传输方式。
示例性地,第二设备可以在第二参考信息中包括的一个或多个候选方案中选择一个作为最终的传输方案。
若第二设备为gNB,第一设备为终端设备,则第二设备确定AI模型的相关信息的传输方式的模块可以位于gNB、gNB-CU、gNB-CU-CP或gNB-CU-CP1。当该模块位于gNB-CU-CP1时,由gNB-CU-CP2负责将gNB-CU-CP1确定的传输方式或者与该传输方式相关的信令(例如第二指示信息)发送到终端设备。
可选地,在一个实现方式中,S620可以由S620’代替。具体地,S620’包括:第二设备向第一设备发送第三指示信息,该第三指示信息指示AI模型的相关信息的传输方式;对应地,第一设备接收来自第二设备的第三指示信息,其中,该第三指示信息指示根据该第二参考信息确定的所述传输方式,且该第二参考信息基于该第一参考信息确定。”
示例性地,方法600包括S602时,第三指示信息可以是反馈的第二参考信息中的一个候选编号。
S630,第一设备根据第二指示信息或第三指示信息获取AI模型的相关信息的传输方式。
可以理解,S620和S620’为不同实施方式中的相似流程,择一执行。方法600的实施方式例如包括:S610,S620以及S630,或者包括S602,S610,S620’以及S630,或者包括S601,S602,S610,S620’以及S630。
基于方法600提供的方案,通过第一设备和第二设备的交互,可以使得第二设备综合考虑第一设备、第二设备的实际负载、空口条件以及AI模型的传输需求等各方面因素,确定更合适的AI模型以及AI模型的相关信息的传输方式,从而减少后续AI模型的使用性能因传输方式的不合适而造成的影响,并且第一设备获取的传输方式可以由第二设备指示,也就是说第一设备无需自身确定AI模型的相关信息的传输方式,降低第一设备执行的复杂度。
下面通过方法700介绍第二设备接收到AI模型的相关信息后,例如前述方法400中步骤S420执行之后,第二设备和第一设备分别所执行的操作。可以理解,前述方法400、500以及600中描述的内容可以用于方法700。
图7是本申请实施例提供的一种通信方法700的流程示意图。方法700包括以下步骤:
S710,第一设备向第二设备发送AI模型的相关信息;对应地,第二设备接收来自第一设备的AI模型的相关信息。
具体可参见S420中的相关描述,此处不再赘述。
S720,第二设备根据AI模型的相关信息拼接该AI模型。
示例性地,第二设备将接收到的AI模型的相关信息重新拼接成完整的AI模型。
可选地,方法700还包括S730-S740:
S730,第二设备向第一设备发送第四指示信息,第四指示信息指示第二设备拼接AI模型时缺少的相关信息;对应地,第一设备接收来自第二设备的第四指示信息。
示例性地,在第二设备进行AI模型拼接的过程中,如果出现重复的AI模型的相关信息,可以将多余的相关信息删除后进行拼装,如果出现传输错误或者AI模型的相关信息的遗漏导致AI模型无法拼接,则可以通过发送第四指示信息向第二设备指示传输错误的内容或者缺失的内容(例如分块标识)。
S740,第一设备向第二设备发送该AI模型的补充信息,该AI模型的补充信息用于补充第二设备接 收的AI模型的相关信息所缺失的内容;对应地,第二设备接收来自第一设备的该AI模型的补充信息。
示例性地,该AI模型的补充信息可以是分块标识对应的部分AI模型的相关信息,或者遗漏或传输错误的内容本身,本申请实施例对此不做限制。
可选地,方法700还包括:
S750,第一设备和/或第二设备进行AI模型性能监测。
一种可能的实施方式,当第二设备完成AI模型拼接后,使用AI模型实施相应的AI功能的过程中,第一设备和/或第二设备可以对AI模型应用后的性能进行监测,判断AI模型在应用的过程中是否有性能的提升,或者说性能的提升是否达到了预期。例如,对于CSI-RS反馈增强的AI应用场景而言,第一设备和/或第二设备可以对AI模型应用后的下行吞吐量进行监测,判断下行吞吐量的提升是否达到了预期。
第二设备在进行AI模型性能监测的过程中,如果判断AI模型需要更新,则可以向第一设备指示AI模型需要更新,从而第一设备指示已应用的AI模型中需要更新的部分,或者向第二设备指示更新后的AI模型。或者,第一设备在进行AI模型性能监测的过程中,如果判断AI模型需要更新,则第一设备可以向第二设备指示已应用的AI模型中需要更新的部分,或者向第二设备指示更新后的AI模型。示例性的,方法700还包括:
S760,第一设备向第二设备发送更新信息,该更新信息用于指示第二设备更新该AI模型;对应地,第二设备接收来自第一设备的更新信息。
其中,更新信息用于指示已应用的AI模型中需要更新的部分,或者用于指示更新后的AI模型。此外,示例性地更新信息还可以指示分块信息,指示该更新信息中包括的AI模型的相关信息是用于更新之前下发的哪个分块对应的AI模型的相关信息。第二设备接收到更新信息后,将已应用的AI模型或者AI模型的特点部分进行替换。替换完成后,第二设备可以向第一设备发送响应信息,第一设备接收待响应信息后,可以确认第二设备已经完成了AI模型的更新。
可以理解,更新信息的传输方式可以采用S710中传输AI模型的相关信息的传输方式,或者可以重新确定传输方式传输更新信息,可参考方法500或600中的传输方式的确定方法,此处不再赘述。
示例性地,第一设备为接入网设备,第二设备为终端设备,当第二设备进行小区切换时,第一设备作为源小区可以将AI模型的相关信息(例如S710或S760中传输的内容)的传输方式(例如通过方法500或600确定的传输方式)发送给目标接入网设备。当AI模型的相关信息在传输未完成之前,第二设备已开始进行小区切换流程,则源小区要将已确认或正在传输的AI模型的相关信息的传输方式、该传输方式对应的配置(参见S420中描述的配置)以及当前的传输进度发送给目标接入网设备。当第二设备切换完成后,目标接入网设备按照源小区发送的内容向第二设备发送未传输完的AI模型的相关信息。或者,第二设备和目标接入网设备也可以参考方法500或600,重新确定待传输的AI模型的相关信息的传输方式,本申请对此不做限制。
示例性地,第一设备为终端设备,第二设备为接入网设备,当AI模型的相关信息(例如S710或S760中传输的内容)在传输未完成之前,第一设备已开始进行小区切换流程,则第二设备作为源小区要将已确认或正在传输的AI模型的相关信息的传输方式(例如通过方法500或600确定的传输方式)、该传输方式对应的配置(参见S420中描述的配置)、当前的传输进度以及已经接收的部分AI模型的相关信息发送给目标接入网设备。当第一设备切换完成后,第一设备按照确定好的传输方式向目标接入网设备发送未传输完的AI模型的相关信息。或者,第一设备和目标接入网设备也可以参考方法500或600,重新确定待传输的AI模型的相关信息的传输方式,本申请对此不做限制。
基于方法700提供的方案,在AI模型需要更新时,第一设备能够发送更新信息使第二设备及时更新AI模型,提高AI模型应用的性能。
在本申请中,“指示”可以显式地和/或隐式地指示。示例性地,隐式指示可以基于用于传输的位置和/或资源;显式指示可以基于一个或多个参数,和/或一个或多个索引,和/或一个或多个它所表示的位模式。
可以理解,本申请的各实施例中的一些可选的特征,在某些场景下,可以不依赖于其他特征,也可以在某些场景下与其他特征进行结合,不作限定。
可以理解,本申请的各实施例中的方案可以进行结合使用,并且实施例中出现的各个术语的解释或说明、相似操作或步骤可以在各个实施例中互相参考或解释,本申请对此不作限定。
还可以理解,上述各个方法实施例中,由第一设备实现的方法和操作,也可以由第一设备的组成部 件(例如芯片、芯片系统、处理器或者电路)来实现。由第二设备实现的方法和操作,也可以由第二设备的组成部件(例如芯片、芯片系统、处理器或者电路)来实现。由测控设备实现的方法和操作,也可以由测控设备的组成部件(例如芯片、芯片系统、处理器或者电路)来实现,本申请对此不做限制。
应理解,本申请中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系,但也可能表示的是一种“和/或”的关系,具体可参考前后文进行理解。
本申请中,“至少一项(个)“是指一项(个)或者多项(个),“至少两项(个)“以及“多项(个)”是指两项(个)或两项(个)以上。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。如果没有特别说明,本申请中的多个为2个以及2个以上。
可以理解的是,本申请中“向XX(设备)发送信息”可以理解为该信息的目的端是该设备。可以包括直接或间接地向该设备发送信息。“从XX(设备)接收信息”可以理解为该信息的源端是该设备,可以包括直接或间接地从该设备接收信息。信息在信息发送的源端和目的端之间可能会被进行必要的处理,例如格式变化等,但目的端可以理解来自源端的有效信息。
上文结合附图描述了本申请实施例的方法实施例,下面描述本申请实施例的装置实施例。可以理解,方法实施例的描述与装置实施例的描述可以相互对应,因此,未描述的部分可以参见前面方法实施例。
上述主要从各个网元之间交互的角度对本申请实施例提供的方案进行了介绍。可以理解的是,各个网元,例如发射端设备或者接收端设备,为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对发射端设备或者接收端设备进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。下面以采用对应各个功能划分各个功能模块为例进行说明。
图8是本申请实施例提供的通信装置800的结构示意图。该装置800包括收发单元810。收发单元810可以用于实现相应的通信功能。收发单元810还可以称为通信接口或通信单元。
可选地,该装置800还包括处理单元820。处理单元820可以用于进行数据处理。
可选地,该装置800还包括存储单元,该存储单元可以用于存储指令和/或数据,处理单元820可以读取存储单元中的指令和/或数据,以使得装置实现前述各个方法实施例中第一设备的动作。
在一种设计中,该装置800可以是前述实施例中的第一设备,也可以是第一设备的组成部件(如芯片)。该装置800可实现对应于上文方法实施例中的第一设备执行的步骤或者流程,其中,收发单元810可用于执行上文方法实施例中第一设备的收发相关的操作,处理单元820可用于执行上文方法实施例中第一设备的处理相关的操作。
该装置800可实现对应于根据本申请实施例的方法实施例中的第一设备执行的步骤或者流程,该装置800可以包括用于执行图4至图7所示实施例中的第一设备执行的方法的单元。
一种可能的实施方式,收发单元810用于获取AI模型的相关信息的传输方式,收发单元810还用于根据所述传输方式向第二设备发送该AI模型的相关信息,其中,第一设备为接入网设备,第二设备为终端设备;或,第一设备为终端设备,第二设备为接入网设备。
可选地,收发单元810还用于接收来自第二设备的第一参考信息;处理单元820用于根据该第一参考信息确定所述传输方式。
可选地,该第一参考信息包括以下至少一项:第二设备期望的第一候选AI模型集合的信息、第二设备的缓存能力信息、传输时延要求信息或第二设备的期望传输方式的信息。
可选地,收发单元810还用于向第二设备发送第一指示信息,该第一指示信息指示所述传输方式。
可选地,收发单元810还用于接收来自第二设备的第二指示信息,该第二指示信息指示所述传输方式;收发单元810具体用于根据该第二指示信息获取所述传输方式。
可选地,收发单元810还用于向第二设备发送第二参考信息,该第二参考信息包括第二候选AI模型集合的信息或候选传输方式的信息中的至少一项;收发单元810还用于接收来自第二设备的第三指示信息;根据该第三指示信息获取所述传输方式,其中,该第三指示信息指示根据该第二参考信息确定的所述传输方式,且该第二参考信息基于该第一参考信息确定。
可选地,当该第二参考信息包括第二候选AI模型集合的信息时,该第三指示信息指示的所述AI模型基于第二候选AI模型集合的信息确定,或者,当该第二参考信息包括候选传输方式的信息时,该第三指示信息指示的所述传输方式基于候选传输方式的信息确定。
可选地,所述传输方式为将所述AI模型的相关信息作为整体传输,或者将所述AI模型的相关信息分块传输。
可选地,所述传输方式为将所述AI模型的相关信息分块传输,所述AI模型的相关信息包括分块标识。
可选地,收发单元810还用于向第二设备发送更新信息,该更新信息用于更新所述AI模型。
可选地,所述AI模型的相关信息的传输路径包括用户面传输和/或控制面传输。
在另一种设计中,该装置800可以是前述实施例中的第二设备,也可以是第二设备的组成部件(如芯片)。该装置800可实现对应于上文方法实施例中的第二设备执行的步骤或者流程,其中,收发单元810可用于执行上文方法实施例中第二设备的收发相关的操作,处理单元820可用于执行上文方法实施例中第二设备的处理相关的操作。
该装置800可实现对应于根据本申请实施例的方法实施例中的第二设备执行的步骤或者流程,该装置800可以包括用于执行图4至图7所示实施例中的第二设备执行的方法的单元。
一种可能的实施方式,收发单元810用于获取AI模型的相关信息的传输方式,收发单元810还用于根据所述传输方式接收来自第一设备的该AI模型的相关信息,其中,第一设备为接入网设备,第二设备为终端设备;或,第一设备为终端设备,第二设备为接入网设备。
可选地,收发单元810还用于向第一设备发送第一参考信息,该第一参考信息用于确定所述传输方式。
可选地,该第一参考信息包括以下至少一项:第二设备期望的第一候选AI模型集合的信息、第二设备的缓存能力信息、传输时延要求信息或第二设备的期望传输方式的信息。
可选地,收发单元810还用于接收来自所述第一设备的第一指示信息;根据所述第一指示信息获取所述传输方式。
可选地,收发单元810还用于向第一设备发送第二指示信息,该第二指示信息指示所述传输方式。
可选地,收发单元810还用于接收来自第一设备的第二参考信息,该第二参考信息包括第二候选AI模型集合的信息或候选传输方式的信息中的至少一项;处理单元820用于根据该第二参考信息确定所述传输方式;收发单元810还用于向第一设备发送第三指示信息,该第三指示信息指示根据第二参考信息确定的所述传输方式,且该第二参考信息基于第一参考信息确定。
可选地,当该第二参考信息包括第二候选AI模型集合的信息时,该第三指示信息指示的所述AI模型基于第二候选AI模型集合的信息确定,或者,当该第二参考信息包括候选传输方式的信息时,该第三指示信息指示的所述传输方式基于候选传输方式的信息确定。
可选地,所述传输方式为将所述AI模型的相关信息作为整体传输,或者将所述AI模型的相关信息分块传输。
可选地,所述传输方式为将所述AI模型的相关信息分块传输,所述AI模型的相关信息包括分块标识。
可选地,收发单元810还用于接收来自第一设备的更新信息;处理单元820用于根据该更新信息更新所述AI模型。
可选地,所述AI模型的相关信息的传输路径包括用户面传输和/或控制面传输。
图9是本申请实施例提供的通信装置900的结构示意图。该装置900包括处理器910,处理器910与存储器920耦合,存储器920用于存储计算机程序或指令和/或数据,处理器910用于执行存储器920存储的计算机程序或指令,或读取存储器920存储的数据,以执行上文各方法实施例中的方法。
在一些实施例中,处理器910为一个或多个。
在一些实施例中,存储器920为一个或多个。
在一些实施例中,该存储器920与该处理器910集成在一起,或者分离设置。
在一些实施例中,如图9所示,该装置900还包括收发器930,收发器930用于信号的接收和/或发送。例如,处理器910用于控制收发器930进行信号的接收和/或发送。
作为一种方案,该装置900用于实现上文各个方法实施例中由第一设备执行的操作。
作为另一种方案,该装置900用于实现上文各个方法实施例中由第二设备执行的操作。
应理解,本申请实施例中提及的处理器可以是中央处理单元(central processing unit,CPU),还可以是其他通用处理器、数字信号处理器(digital signal processor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
还应理解,本申请实施例中提及的存储器可以是易失性存储器和/或非易失性存储器。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM)。例如,RAM可以用作外部高速缓存。作为示例而非限定,RAM包括如下多种形式:静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic RAM,DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
需要说明的是,当处理器为通用处理器、DSP、ASIC、FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件时,存储器(存储模块)可以集成在处理器中。
还需要说明的是,本文描述的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
本申请实施例还提供一种计算机可读存储介质,其上存储有用于实现上述各方法实施例中由第一设备执行的方法的计算机指令,或其上存储有用于实现上述各方法实施例中由第二设备执行的方法的计算机指令。
本申请实施例还提供一种计算机程序产品,包含指令,该指令被计算机执行时以实现上述各方法实施例中由第一设备执行的方法,或该指令被计算机执行时以实现上述各方法实施例中由第二设备执行的方法。
本申请实施例还提供一种通信系统,包括前文所述的第一设备和第二设备。
上述提供的任一种装置中相关内容的解释及有益效果均可参考上文提供的对应的方法实施例,此处不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。此外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。例如,所述计算机可以是个人计算机,服务器,或者网络设备等。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、 数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD)等。例如,前述的可用介质包括但不限于:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (28)

  1. 一种通信方法,其特征在于,包括:
    第一设备获取人工智能AI模型的相关信息的传输方式;
    所述第一设备根据所述传输方式向第二设备发送所述AI模型的相关信息;
    其中,所述第一设备为接入网设备,所述第二设备为终端设备;或,所述第一设备为终端设备,所述第二设备为接入网设备。
  2. 根据权利要求1所述的方法,其特征在于,所述方法还包括:
    所述第一设备接收来自所述第二设备的第一参考信息;
    所述第一设备获取AI模型的相关信息的传输方式,包括:
    所述第一设备根据所述第一参考信息确定所述传输方式。
  3. 根据权利要求2所述的方法,其特征在于,所述第一参考信息包括以下至少一项:
    所述第二设备期望的第一候选AI模型集合的信息、所述第二设备的缓存能力信息、传输时延要求信息、或所述第二设备的期望传输方式的信息。
  4. 根据权利要求1至3中任一项所述的方法,其特征在于,所述方法还包括:
    所述第一设备向所述第二设备发送第一指示信息,所述第一指示信息指示所述传输方式。
  5. 根据权利要求1至3中任一项所述的方法,其特征在于,所述方法还包括:
    所述第一设备接收来自所述第二设备的第二指示信息,所述第二指示信息指示所述传输方式;
    所述第一设备获取AI模型的相关信息的传输方式,包括:
    所述第一设备根据所述第二指示信息获取所述传输方式。
  6. 根据权利要求3所述的方法,其特征在于,所述方法还包括:
    所述第一设备向所述第二设备发送第二参考信息,所述第二参考信息包括第二候选AI模型集合的信息或候选传输方式的信息中的至少一项;
    所述第一设备接收来自所述第二设备的第三指示信息;
    所述第一设备根据所述第一参考信息确定所述传输方式,包括:
    所述第一设备根据所述第三指示信息获取所述传输方式,其中,所述第三指示信息指示根据所述第二参考信息确定的所述传输方式,且所述第二参考信息基于所述第一参考信息确定。
  7. 根据权利要求6所述的方法,其特征在于,当所述第二参考信息包括所述第二候选AI模型集合的信息时,所述第三指示信息指示的所述AI模型基于所述第二候选AI模型集合的信息确定,或者,当所述第二参考信息包括所述候选传输方式的信息时,所述第三指示信息指示的所述传输方式基于所述候选传输方式的信息确定。
  8. 根据权利要求1至7中任一项所述的方法,其特征在于,所述传输方式为将所述AI模型的相关信息作为整体传输,或者将所述AI模型的相关信息分块传输。
  9. 根据权利要求1至8中任一项所述的方法,其特征在于,所述传输方式为将所述AI模型的相关信息分块传输,所述AI模型的相关信息包括分块标识。
  10. 根据权利要求1至9中任一项所述的方法,其特征在于,所述方法还包括:
    所述第一设备向所述第二设备发送更新信息,所述更新信息用于更新所述AI模型。
  11. 根据权利要求1至10中任一项所述的方法,其特征在于,所述AI模型的相关信息的传输路径包括用户面传输和/或控制面传输。
  12. 一种通信方法,其特征在于,包括:
    第二设备获取人工智能AI模型的相关信息的传输方式;
    所述第二设备根据所述传输方式接收来自第一设备的所述AI模型的相关信息;
    其中,所述第一设备为接入网设备,所述第二设备为终端设备;或,所述第一设备为终端设备,所述第二设备为接入网设备。
  13. 根据权利要求12所述的方法,其特征在于,所述方法还包括:
    所述第二设备向所述第一设备发送第一参考信息,所述第一参考信息用于确定所述传输方式。
  14. 根据权利要求13所述的方法,其特征在于,所述第一参考信息包括以下至少一项:
    所述第二设备期望的第一候选AI模型集合的信息、所述第二设备的缓存能力信息、传输时延要求信息、或所述第二设备的期望传输方式的信息。
  15. 根据权利要求12至14中任一项所述的方法,其特征在于,所述方法还包括:
    所述第二设备接收来自所述第一设备的第一指示信息;
    所述第二设备获取人工智能AI模型的相关信息的传输方式,包括:
    所述第二设备根据所述第一指示信息获取所述传输方式。
  16. 根据权利要求12至14中任一项所述的方法,其特征在于,所述方法还包括:
    所述第二设备向所述第一设备发送第二指示信息,所述第二指示信息指示所述传输方式。
  17. 根据权利要求14所述的方法,其特征在于,所述方法还包括:
    所述第二设备接收来自所述第一设备的第二参考信息,所述第二参考信息包括第二候选AI模型集合的信息或候选传输方式的信息中的至少一项;
    所述第二设备获取AI模型的相关信息的传输方式,包括:
    所述第二设备根据所述第二参考信息确定所述传输方式;
    所述第二设备向所述第一设备发送第三指示信息,所述第三指示信息指示根据所述第二参考信息确定的所述传输方式,且所述第二参考信息基于所述第一参考信息确定。
  18. 根据权利要求17所述的方法,其特征在于,当所述第二参考信息包括所述第二候选AI模型集合的信息时,所述第三指示信息指示的所述AI模型基于所述第二候选AI模型集合的信息确定,或者,当所述第二参考信息包括所述候选传输方式的信息时,所述第三指示信息指示的所述传输方式基于所述候选传输方式的信息确定。
  19. 根据权利要求12至18中任一项所述的方法,其特征在于,所述传输方式为将所述AI模型的相关信息作为整体传输,或者将所述AI模型的相关信息分块传输。
  20. 根据权利要求12至19中任一项所述的方法,其特征在于,所述传输方式为将所述AI模型的相关信息分块传输,所述AI模型的相关信息包括分块标识。
  21. 根据权利要求12至20中任一项所述的方法,其特征在于,所述方法还包括:
    所述第二设备接收来自所述第一设备的更新信息;
    所述第二设备根据所述更新信息更新所述AI模型。
  22. 根据权利要求12至21中任一项所述的方法,其特征在于,所述AI模型的相关信息的传输路径包括用户面传输和/或控制面传输。
  23. 一种通信装置,其特征在于,包括执行如权利要求1至11中任一项所述方法的单元或模块,或执行如权利要求12至22中任一项所述方法的单元或模块。
  24. 一种通信装置,其特征在于,包括至少一个处理器,所述至少一个处理器用于执行存储器中存储的计算机程序,以使得所述装置执行以下任一项:
    如权利要求1至11中任一项所述的方法,如权利要求12至22中任一项所述的方法。
  25. 根据权利要求24所述的装置,其特征在于,所述装置还包括所述存储器和/或通信接口,所述通信接口与所述处理器耦合,
    所述通信接口,用于输入和/或输出信息。
  26. 一种通信系统,其特征在于,包括第一设备和第二设备,所述第一设备用于执行如权利要求1至11中任一项所述的方法,所述第二设备用于执行如权利要求12至22中任一项所述的方法。
  27. 一种计算机可读存储介质,其特征在于,包括计算机程序,
    当所述计算机程序在计算机上运行时,使得所述计算机执行如权利要求1至11中任一项所述的方法;或者,
    当所述计算机程序在计算机上运行时,使得所述计算机执行如权利要求12至22中任一项所述的方法。
  28. 一种计算机程序产品,其特征在于,所述计算机程序产品中包括计算机程序代码,其特征在于:
    当所述计算机程序代码在计算机上运行时,使得计算机实现上述权利要求1至11中任一项所述的方法;或者,
    当所述计算机程序代码在计算机上运行时,使得计算机实现上述权利要求12至22中任一项所述的方法。
PCT/CN2023/135414 2022-12-30 2023-11-30 通信方法和装置 WO2024139985A1 (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211725087.X 2022-12-30

Publications (1)

Publication Number Publication Date
WO2024139985A1 true WO2024139985A1 (zh) 2024-07-04

Family

ID=

Similar Documents

Publication Publication Date Title
CN110831261B (zh) 用于组合的rrc非活动恢复、rrc rna&nas注册过程的装置
US20230262478A1 (en) Model configuration method and apparatus
WO2022206513A1 (zh) 模型处理的方法、通信装置和系统
EP4192082A1 (en) Communication method, apparatus and system
US20240163719A1 (en) Network optimization method and communication apparatus
US20230189057A1 (en) Service traffic steering method and apparatus
CN106561063A (zh) 无线局域网(wlan)无线电链路故障(rlf)触发
EP4175356A1 (en) Wireless communication method, terminal device, and network device
WO2024139985A1 (zh) 通信方法和装置
EP4366375A1 (en) Group handover method, device, and apparatus, and storage medium
US20230319597A1 (en) Network node and a method performed in a wireless communication network for handling configuration of radio network nodes using reinforcement learning
CN118283590A (zh) 通信方法和装置
US20240106764A1 (en) Computing power resource scheduling method and related apparatus
WO2024067408A1 (zh) 通信方法和装置
US20240121650A1 (en) Method and apparatus for reporting measurement
WO2023280143A1 (zh) Ai任务的控制方法、终端、基站及存储介质
WO2024061125A1 (zh) 一种通信方法及装置
WO2024046215A1 (zh) 一种通信方法及装置
WO2023201746A1 (en) Method, device, and system for resource status report in wireless networks
WO2024066930A1 (zh) 一种通信方法及装置
EP4398653A1 (en) Apparatus and method for a distributed unit of a communication system
US20220386206A1 (en) Method and apparatus for optimizing ue mobility performance in wireless communication system
US20240236847A1 (en) Apparatus and method for a distributed unit of a communication system
WO2024067104A1 (zh) 通信方法及相关装置
WO2023036323A1 (zh) 一种通信方法及装置