WO2021217519A1 - 用于调整神经网络的方法和装置 - Google Patents

用于调整神经网络的方法和装置 Download PDF

Info

Publication number
WO2021217519A1
WO2021217519A1 PCT/CN2020/087875 CN2020087875W WO2021217519A1 WO 2021217519 A1 WO2021217519 A1 WO 2021217519A1 CN 2020087875 W CN2020087875 W CN 2020087875W WO 2021217519 A1 WO2021217519 A1 WO 2021217519A1
Authority
WO
WIPO (PCT)
Prior art keywords
neural network
information
network
signal
neural
Prior art date
Application number
PCT/CN2020/087875
Other languages
English (en)
French (fr)
Inventor
蔡世杰
刘鹍鹏
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Priority to EP20932853.3A priority Critical patent/EP4135226A4/en
Priority to CN202080100274.1A priority patent/CN115485995A/zh
Priority to PCT/CN2020/087875 priority patent/WO2021217519A1/zh
Publication of WO2021217519A1 publication Critical patent/WO2021217519A1/zh
Priority to US17/973,781 priority patent/US20230118031A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0023Systems modifying transmission characteristics according to link quality, e.g. power backoff characterised by the signalling
    • H04L1/0026Transmission of channel quality indication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/0413MIMO systems
    • H04B7/0417Feedback systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/0413MIMO systems
    • H04B7/0456Selection of precoding matrices or codebooks, e.g. using matrices antenna weighting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0023Systems modifying transmission characteristics according to link quality, e.g. power backoff characterised by the signalling
    • H04L1/0028Formatting
    • H04L1/0029Reduction of the amount of signalling, e.g. retention of useful signalling or differential signalling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Definitions

  • This application relates to the field of communications, and more specifically, to a method and device for adjusting a neural network.
  • Massive MIMO massive multiple-input multiple-output
  • network equipment can reduce the interference between multiple terminal devices and the interference between multiple signal streams of the same terminal device through precoding. Interference is conducive to improving signal quality, realizing space division multiplexing, and improving spectrum utilization.
  • the terminal device may determine the precoding matrix based on the downlink channel measurement, and through feedback, the network device obtains the same or similar precoding matrix as the precoding matrix determined by the terminal device.
  • a method for information transmission based on artificial intelligence (AI) is known.
  • a terminal device and a network device obtain a first neural network and a second neural network through joint training.
  • the first neural network is set in the terminal.
  • the device side and the second neural network are set on the network device side, and the communication system including the first neural network and the second neural network is called an AI framework.
  • the AI-based information transmission method includes: the terminal device obtains the information to be fed back, the information to be fed back is processed by at least the first neural network to obtain the information that needs to be fed back through the air interface, and the terminal device then sends the information through the feedback link.
  • the information that needs to be fed back through the air interface is fed back to the network device, and the network device receives the information fed back from the terminal device, and at least through the processing of the second neural network, restores the information to be fed back on the terminal device side.
  • the first neural network and the second neural network obtained from offline training are directly used in the process of online information transmission. If the terminal device is displaced, it may cause the communication environment and the first neural network. The degree of matching between the network and the second neural network is reduced, thereby affecting the performance of information transmission based on the trained first neural network and the second neural network.
  • This application provides a method and device for adjusting a neural network, in order to improve the performance of information transmission.
  • a method for adjusting a neural network may be executed by a first device, or may also be executed by a chip or a circuit provided in the first device. This is not limited, and for ease of description, the following takes the execution by the first device as an example for description.
  • the method for adjusting a neural network involves a first neural network and a second neural network, where the first neural network is applied to the first device side, and the second neural network is applied to the second device side.
  • the method includes: the first neural network
  • the device determines a third neural network and a fourth neural network, where the third neural network and the fourth neural network correspond to the first neural network and the second neural network, respectively; the first device sends the fourth neural network to the second device Neural network information, where the first neural network or the third neural network is used for the first device to perform the first signal processing, and the second neural network or the fourth neural network is used for the second device to perform the second signal processing.
  • Signal processing, the second signal processing corresponds to the first signal processing.
  • the first device can determine the new neural network and send the information of the new neural network to the second device, so that the first device and the second device can pass the new neural network.
  • the neural network for information transmission can improve the performance of information transmission.
  • using the first neural network or the third neural network for the first device to perform first signal processing includes: using the first neural network for the first signal processing The device processes the first signal to obtain the second signal; the third neural network is used by the first device to process the third signal to obtain the fourth signal;
  • using the second neural network or the fourth neural network for the second device to perform second signal processing includes: using the second neural network for the second device to process the second signal to obtain a fifth signal ;
  • the fourth neural network is used by the second device to process the fourth signal to obtain the sixth signal; or,
  • the second neural network or the fourth neural network being used by the second device to perform second signal processing includes: the second neural network is used by the second device to process the first signal to obtain the second signal; A four neural network is used by the second device to process the third signal to obtain the fourth signal;
  • using the first neural network or the third neural network for the first device to perform first signal processing includes: using the first neural network for the first device to process the second signal to obtain the fifth signal Signal; the third neural network is used by the first device to process the fourth signal to obtain the sixth signal.
  • the above-mentioned first neural network and the second neural network can be regarded as a pair of neural networks
  • the third neural network and the fourth neural network can be regarded as a pair of neural networks.
  • Network, paired neural network can carry out corresponding signal processing.
  • the degree of difference between the first training signal related to the third signal and the second training signal related to the sixth signal satisfies the first condition; or, the The similarity between the first training signal related to the third signal and the second training signal related to the sixth signal satisfies the second condition.
  • the degree of difference includes any one of the following: difference, mean square error, normalized mean square error, or mean absolute error; the similarity includes correlation Coefficient of sex.
  • the above-mentioned difference degree or similarity degree can be embodied in multiple forms, which improves the flexibility of the solution.
  • the first neural network or the second neural network used to process the first signal to obtain the second signal includes: the first neural network or the The second neural network and the first functional module are used to process the first signal to obtain the second signal; and/or, the first neural network or the second neural network is used to process the second signal to obtain the second signal
  • the fifth signal includes: the first neural network or the second neural network and the second functional module are used to process the second signal to obtain the fifth signal;
  • the third neural network or the fourth neural network used to process the third signal to obtain the fourth signal includes: the third neural network or the fourth neural network and the third functional module are used for the third signal Processing to obtain the fourth signal; and/or the third neural network or the fourth neural network for processing the fourth signal to obtain the sixth signal includes: the third neural network or the fourth neural network And the fourth functional module is used to process the fourth signal to obtain the sixth signal.
  • the above-mentioned paired neural network may also include other signal processing function modules in the process of signal processing.
  • the specific composition of the communication system is not limited, and the flexibility of the solution is improved. sex.
  • the first device determining the third neural network and the fourth neural network includes: the first device updating the first neural network and the second neural network The third neural network and the fourth neural network are obtained respectively.
  • the first device can update the original neural network to obtain a new four neural network.
  • the method before the first device updates the first neural network and the second neural network to obtain the third neural network and the fourth neural network, the method also The method includes: the first device receives first instruction information from the second device, the first instruction information is used to instruct the first device to update the first neural network and the second neural network; or, the first device periodically To determine whether the first neural network and the second neural network need to be updated sexually or non-periodically, the first device determines that the first neural network and the second neural network need to be updated; or, the first device receives data from The second instruction information of the second device, the second instruction information is used to instruct the first device to determine whether the first neural network and the second neural network need to be updated, and the first device determines whether the first neural network and the second neural network need to be updated.
  • the second neural network needs to be updated; or, the first device triggers to determine whether the first neural network and the second neural network need to be updated based on preset conditions, and the first device determines that the first neural network and
  • the first device updating the first neural network and the second neural network includes: the first device periodically or non-periodically updating the first neural network The neural network and the second neural network.
  • the first device to update the neural network may be periodic or aperiodic, which is not limited in this application to improve the flexibility of the solution.
  • the first device judging whether the first neural network and the second neural network need to be updated includes: the first device according to the first information and the second information Whether the difference or similarity between the two meets the third condition to determine whether the first neural network and the second neural network need to be updated, wherein the first information includes a first determination signal related to the first signal, and the second information The second judgment signal related to the fifth signal is included.
  • the first device can determine whether to update the neural network based on the relationship between the information processed by the neural network and the preset threshold, which can improve the accuracy of determining whether to update.
  • the method further includes: the first device determining the second determination signal based on the first determination signal, the first neural network, and the second neural network; Alternatively, the first device determines the second judgment signal based on the first judgment signal, the first neural network and the second neural network, and the first function module and/or the second function module.
  • the first device side can simulate the information of the local terminal and the information of the opposite terminal, so that the first device side can determine whether to update the neural network based on the information processed by the neural network .
  • the first determination signal includes the downlink channel information received by the first device from the second device, or the first determination signal includes the first device based on Receiving channel information obtained by sounding reference signal SRS measurement from the second device; wherein the downlink channel information is carried on a preset resource or the downlink channel information is instructed to determine the first judgment signal.
  • the first device side can determine the first signal used to determine whether to update the neural network through the information sent by the second device side, and provides different information types, Thereby improving the flexibility of the program.
  • the first device determining the third neural network and the fourth neural network includes: the first device selects from a first set based on communication system data to obtain the The third neural network and the fourth neural network, the first set includes a plurality of neural networks; or, the first device adjusts the network weights corresponding to the first neural network and the second neural network based on the communication system data, Obtain the third neural network and the fourth neural network; or, the first device selects the fifth neural network and the sixth neural network from the second set based on the communication system data, and then adjusts the first neural network based on the communication system data.
  • the network weights corresponding to the five neural network and the sixth neural network respectively are obtained to obtain the third neural network and the fourth neural network.
  • the first device can determine the above-mentioned third neural network and the fourth neural network in different ways, which improves the flexibility of the solution.
  • the communication system data includes at least one of channel characteristics, signal-to-noise ratio, downlink channel information, uplink channel information, and hybrid automatic repeat request HARQ information.
  • the first device determines the possible forms of the communication system data on which the third neural network and the fourth neural network are based, which can improve the flexibility of the solution.
  • the method further includes: the first device sends the third neural network information to the second device.
  • the first device may not only send the information of the fourth neural network that can be applied to the second device side to the second device, but also the information that can be applied to the first device side.
  • the information of the third neural network is sent to the second device, so that the second device can subsequently determine whether to update the third neural network and the fourth neural network.
  • the information of the third neural network includes at least one of the following information:
  • the information of the fourth neural network includes at least one of the following information:
  • the specific form of the neural network information can be in multiple forms, so that the flexibility of the solution can be improved.
  • the amount of change between the network weight corresponding to the third neural network and the network weight corresponding to the first neural network, and/or the fourth neural network includes one or more of the following information: weight location information, weight interpretation rule indication information, weight value arrangement information, and weight value change amount arrangement information
  • the information of the network structure corresponding to the third neural network and/or the information of the network structure corresponding to the fourth neural network includes: the indication information of the neural network type and the indication information of the neural network structure; the network corresponding to the third neural network.
  • the weight information and/or the network weight information corresponding to the fourth neural network includes: weight interpretation rule indication information and/or weight value arrangement information.
  • the amount of change between the above-mentioned network weights, the information of the network structure corresponding to the neural network, and the information of the network weight corresponding to the neural network can be indicated by different information.
  • the first device sends the information of the fourth neural network to the second device, or sends the information of the fourth neural network and the third neural network
  • the method further includes: the first device sends first information to the second device, the first information is used to request the second device to receive the information of the fourth neural network, or to request the second device
  • the second device receives the information of the fourth neural network and the information of the third neural network
  • the first device receives the first response message from the second device, and the first response message is used to instruct the first device to send the first response message.
  • Four neural network information or used to instruct the first device to send the fourth neural network information and the third neural network information
  • the first device receives second information from the second device, the second information is used to indicate that the second device can receive the information of the fourth neural network, or indicate that the second device can receive the fourth neural network Information of and the third neural network;
  • the first device sending the information of the fourth neural network to the second device, or sending the information of the fourth neural network and the information of the third neural network includes:
  • the first device After receiving the second information, the first device sends the information of the fourth neural network to the second device, or sends the information of the fourth neural network and the information of the third neural network;
  • the first device starts to send the information of the fourth neural network to the second device within the first preset time period after the first start time or after the second preset time period Or, send the information of the fourth neural network and the information of the third neural network.
  • the first device updates the first neural network and the second neural network to obtain the third neural network and the fourth neural network, respectively, it sends the information of the fourth neural network to the second device, or sends the fourth neural network.
  • the first device updates the first neural network and the second neural network to obtain the third neural network and the fourth neural network, respectively, within a second preset period of time after the second start time or the first 2.
  • start to send the information of the fourth neural network to the second device or send the information of the fourth neural network and the information of the third neural network;
  • the first device sends first information to the second device, the first information is used to request the second device to receive the information of the fourth neural network, or to request the second device to receive the information of the fourth neural network Information and information of the third neural network;
  • the first device receives a first response message from the second device, where the first response message is used to instruct the first device to send the fourth neural network information, or to instruct the first device to send the fourth neural network.
  • the first device sends the above-mentioned fourth neural network information to the second device, or sends the fourth neural network information and the third neural network information, which may be The first device and the second device send it after negotiation.
  • the first device may decide to send it by itself, or the second device instructs the first device to send.
  • the premise that the device sends the above-mentioned fourth neural network information, or sends the fourth neural network information and the third neural network information provides multiple possibilities and improves the flexibility of the solution.
  • the first device sends the information of the fourth neural network to the second device, or sends the information of the fourth neural network and the third neural network.
  • the method further includes: the first device receives a first notification message from the second device, where the first notification message is used to indicate whether the second device uses the fourth neural network or whether to use the fourth neural network.
  • the fourth neural network and the third neural network perform information transmission.
  • the second device can decide whether to use the received new neural network, so as to avoid restricting the new neural network to be used.
  • the method further includes: the first device sends a second notification message to the second device, or the first device receives the second notification message from the second device.
  • Notification message wherein the second notification message is used to notify that the information transmission mode is changed from the first mode to the second mode, and the first mode includes information transmission based on an AI model, and the AI model includes the first neural network and the The second neural network, the second mode includes information transmission based on a non-AI model.
  • different transmission modes can be switched through the second notification message, thereby avoiding information transmission based on an inappropriate neural network.
  • the AI model further includes a seventh neural network and an eighth neural network.
  • the method for adjusting the neural network provided by the embodiment of this application, when the local device and the opposite device in the communication system decide to return to the non-AI mode for information transmission, it can be understood as different information processing procedures included in the communication system All fall back to non-AI mode.
  • the method further includes: the first device switches the information transmission mode from the first mode to the second mode;
  • the first device starts to switch the information transmission mode from the first mode to the second mode within a fourth preset time period after the fourth start time or after the fourth preset time period;
  • the fourth starting moment includes the moment when the first device sends the second notification message to the second device, or the moment when the first device receives the second notification message from the second device.
  • the time of performing the handover may be determined based on the time of sending and receiving the second notification message.
  • the first starting moment and the second starting moment include: the moment when the first device receives the first indication information from the second device; or , The moment when the first device sends the second notification message to the second device; or, the moment when the first device receives the second notification message from the second device; or, the first device sends the second notification message to the second device The moment when the first signaling is sent; or, the moment when the first device receives the second signaling from the second device, where the first signaling is used to indicate the start of timing, and the second signaling is used to indicate update Start; where the second notification message is used to notify that the information transmission mode has changed from the first mode to the second mode.
  • the above-defined starting time can be determined based on the receiving or sending time of different messages, which improves the flexibility of the solution.
  • the method further includes: the first device receiving a second response message from the second device, the second response message being used to indicate that the fourth device refuses to receive the fourth response message.
  • the information of the neural network or, is used to indicate the refusal to receive the information of the fourth neural network and the information of the third neural network.
  • the second device can refuse to receive the information of the new neural network, and provide the initiative for the receiving end device of the neural network.
  • the first device includes a terminal device or a network device
  • the second device includes the terminal device or the network device
  • the first device is the terminal device
  • the second device is the network device
  • the first device is the network device
  • the second device is the terminal device
  • the above-mentioned first device and second device may be a terminal device and a network device, respectively.
  • the method further includes: the first device receiving fifth indication information from the second device, the fifth indication information being used to instruct the first device to send Capabilities of the first device; the first device sends first capability information to the second device, the first capability information includes at least one of the following information: the computing capability information of the first device, the computing capability information of the first device Storage capability information or whether the first device stores information about the first AI model, the neural network structure supported by the first device, the neural network scale supported by the first device, and the AI communication function supported by the first device, where: The first AI model is any AI model; or, the method further includes: the first device sends sixth indication information to the second device, where the sixth indication information is used to instruct the second device to send the second device The capability; the first device receives second capability information from the second device, the second capability information includes at least one of the following information: computing capability information of the second device, storage capability information of the second device Or whether the second device stores the information of the second AI model, the neural network structure supported
  • the first device and the second device may learn the capabilities of each other through signaling interaction before.
  • the first signal includes channel information; the first neural network includes a first compressor, the second neural network includes a first decompressor, and the third neural network
  • the network includes a second compressor, the fourth neural network includes a second decompressor; or, the first neural network includes a first decompressor, the second neural network includes a first compressor, and the third neural network includes a second decompressor.
  • the decompressor and the fourth neural network include a second compressor.
  • the aforementioned neural network may be a compressor or a decompressor.
  • the channel information includes channel information received by multiple receiving antennas or channel information of multiple layers.
  • the channel information of multiple receiving antennas/multiple layers are jointly coded into one codeword, which realizes joint compression of channel information and improves
  • the channel information compression rate reduces the feedback overhead of channel information.
  • the above-mentioned first indication information, second indication information, first information, first response message, second information, first notification message, and second notification message are carried on the uplink physical control channel PUCCH, downlink physical control channel PDCCH, physical uplink shared channel PUSCH, physical downlink shared channel PDSCH, uplink grant UL grant or random access Channel RACH.
  • the messages involved in the embodiments of the present application can be transmitted in different ways, which improves the flexibility of the solution.
  • a method for adjusting a neural network may be executed by a second device, or may also be executed by a chip or circuit provided in the second device. This is not limited, and for ease of description, execution by the second device may be used as an example for description.
  • the method for adjusting a neural network involves a first neural network and a second neural network, wherein the first neural network is applied to the first device side, and the second neural network is applied to the second device side, and the method includes: the second neural network
  • the device receives information from the fourth neural network of the first device, where the fourth neural network is a neural network corresponding to the second neural network;
  • the second device determines the fourth neural network based on the information of the fourth neural network.
  • the first device can determine the new neural network and send the information of the new neural network to the second device, so that the first device and the second device can pass the new neural network.
  • the neural network for information transmission can improve the performance of information transmission.
  • the method further includes:
  • the second device receives information from a third neural network of the first device, and the third neural network is a neural network corresponding to the first neural network; wherein, the first neural network or the third neural network is used for the The first device performs first signal processing, the second neural network or the fourth neural network is used for the second device to perform second signal processing, and the second signal processing corresponds to the first signal processing.
  • the first device may not only send the information of the fourth neural network that can be applied to the second device side to the second device, but also the information that can be applied to the first device side.
  • the information of the third neural network is sent to the second device, so that the second device can subsequently determine whether to update the third neural network and the fourth neural network.
  • using the first neural network or the third neural network for the first device to perform first signal processing includes: using the first neural network for the first signal processing The device processes the first signal to obtain the second signal; the third neural network is used for the first device to process the third signal to obtain the fourth signal; the second neural network or the fourth neural network is used for the second signal
  • the second signal processing performed by the device includes: the second neural network is used by the second device to process the second signal to obtain a fifth signal; the fourth neural network is used by the second device to process the fourth signal to obtain Sixth signal; or, using the second neural network or the fourth neural network for the second device to perform second signal processing includes: using the second neural network for the second device to process the first signal to obtain the Second signal; the fourth neural network is used for the second device to process the third signal to obtain the fourth signal; the first neural network or the third neural network is used for the first device to perform the first signal processing
  • the method includes: the first neural network is used for the first device to process the second signal to obtain the
  • the above-mentioned first neural network and the second neural network can be regarded as a pair of neural networks, and the third neural network and the fourth neural network can be regarded as a pair of neural networks.
  • Network, paired neural network can perform corresponding signal processing.
  • the degree of difference between the first training signal related to the third signal and the second training signal related to the sixth signal satisfies the first condition; or, the The similarity between the first training signal related to the third signal and the second training signal related to the sixth signal satisfies the second condition.
  • the degree of difference includes any one of the following: difference, mean square error, normalized mean square error, or mean absolute error; the similarity includes correlation Coefficient of sex.
  • the above-mentioned difference degree or similarity degree can be embodied in multiple forms, which improves the flexibility of the solution.
  • the first neural network or the second neural network used to process the first signal to obtain the second signal includes: the first neural network or the The second neural network and the first functional module are used to process the first signal to obtain the second signal; and/or, the first neural network or the second neural network is used to process the second signal to obtain the second signal
  • the fifth signal includes: the first neural network or the second neural network and the second functional module are used to process the second signal to obtain the fifth signal;
  • the third neural network or the fourth neural network used to process the third signal to obtain the fourth signal includes: the third neural network or the fourth neural network and the third functional module are used for the third signal Processing to obtain the fourth signal; and/or the third neural network or the fourth neural network for processing the fourth signal to obtain the sixth signal includes: the third neural network or the fourth neural network And the fourth functional module is used to process the fourth signal to obtain the sixth signal.
  • the above-mentioned paired neural network may also include other signal processing function modules in the process of signal processing.
  • the specific composition of the communication system is not limited, and the flexibility of the solution is improved. sex.
  • the second device receives the information of the fourth neural network from the first device, or receives the fourth neural network from the first device Before the information of the third neural network and the information of the third neural network, the method further includes: the second device determines that the first neural network and the second neural network need to be updated; the second device sends the first instruction information to the first device , The first instruction information is used to instruct the first device to update the first neural network and the second neural network; or, the method further includes: the second device sends second instruction information to the first device, and the first device The second indication information is used to instruct the first device to determine whether the first neural network and the second neural network need to be updated.
  • the second device may instruct the first device to update or determine whether to update the neural network.
  • the second device judging that the first neural network and the second neural network need to be updated includes: the second device periodically or aperiodically judging the Whether the first neural network and the second neural network need to be updated; or, the second device receives the seventh instruction information from the first device, and the seventh instruction information is used to instruct the second device to determine whether the first neural network and the Whether the second neural network needs to be updated; or, the second device triggers a judgment based on a preset condition to determine whether the first neural network and the second neural network need to be updated.
  • the second device determines that the update of the neural network can be implemented in a variety of ways, which is not limited in this application, thereby improving the flexibility of the solution.
  • the second device judging whether the first neural network and the second neural network need to be updated includes:
  • the second device determines whether the first neural network and the second neural network need to be updated according to whether the difference or similarity between the first information and the second information satisfies the third condition, wherein the first information includes the first neural network A first judgment signal related to a signal, and the second information includes a second judgment signal related to the fifth signal.
  • the second device can determine whether to update the neural network based on the relationship between the information processed by the neural network and the preset threshold, which can improve the accuracy of determining whether to update.
  • the method further includes: the second device determining the second judgment signal based on the first judgment signal, the first neural network, and the second neural network; Alternatively, the second device determines the second determination signal based on the first determination signal, the first neural network and the second neural network, and the first function module and/or the second function module.
  • the second device side can simulate the information of the local terminal and the information of the opposite terminal, so that the second device side can determine whether to update the neural network based on the information processed by the neural network .
  • the first determination signal includes downlink channel information sent by the first device to the second device, or the first determination signal includes information based on the first device
  • the sent sounding reference signal SRS is measured by channel information; wherein the downlink channel information is carried on a preset resource or the downlink channel information is instructed to be used to determine the first judgment signal.
  • the second device side can determine the first signal used to determine whether to update the neural network based on the information sent by the first device side, and provides different information types, Thereby improving the flexibility of the program.
  • the information of the third neural network includes at least one of the following information:
  • the information of the fourth neural network includes at least one of the following information:
  • the specific form of the neural network information can be in multiple forms, so that the flexibility of the solution can be improved.
  • the amount of change between the network weight corresponding to the third neural network and the network weight corresponding to the first neural network, and/or the fourth neural network includes one or more of the following information: weight position information, weight interpretation rule indication information, weight value arrangement information, and weight value change amount arrangement information
  • the information of the network structure corresponding to the third neural network and/or the information of the network structure corresponding to the fourth neural network includes: the indication information of the neural network type and the indication information of the neural network structure; the network corresponding to the third neural network.
  • the weight information and/or the network weight information corresponding to the fourth neural network includes: weight interpretation rule indication information and/or weight value arrangement information.
  • the amount of change between the above-mentioned network weights, the information of the network structure corresponding to the neural network, and the information of the network weight corresponding to the neural network can be indicated by different information.
  • the second device receives the information of the fourth neural network from the first device, or the information of the fourth neural network and the third neural network Before the information, the method also includes:
  • the second device receives first information from the first device, and the first information is used to notify the second device to receive the information of the fourth neural network, or to notify the second device to receive the fourth neural network Information of and the third neural network;
  • the second device sends a first response message to the first device, where the first response message is used to instruct the first device to send the fourth neural network information, or to instruct the first device to send the fourth neural network
  • the second device sends second information to the first device, the second information is used to indicate that the second device can receive the information of the fourth neural network, or the information of the fourth neural network and the third neural network Information;
  • the second device receives the information of the fourth neural network from the first device, or the information of the fourth neural network and the information of the third neural network include:
  • the second device After the second device sends the second information, it starts to receive the information from the fourth neural network of the first device, or, to receive the information from the fourth neural network of the first device and the information of the third neural network. information;
  • the second device After the second device sends the second information, it starts to receive the information from the fourth neural network of the first device within the first preset time period after the first start time or after the first preset time period Or, receiving the information of the fourth neural network and the information of the third neural network from the first device;
  • the second device and the second device receive the information of the fourth neural network from the first device, or receive the information of the fourth neural network and the information of the third neural network from the first device;
  • the second device starts to receive the information from the fourth neural network of the first device within or after the second preset time period after the second start moment, or receives information from the fourth neural network of the first device Information of the fourth neural network and information of the third neural network of the first device;
  • the second device receives first information from the first device, and the first information is used to notify the second device to receive the information of the fourth neural network, or the information of the fourth neural network and the third neural network Information;
  • the second device receives the information of the fourth neural network from the first device, or the information of the fourth neural network and the information of the third neural network include:
  • the second device starts to receive information from the fourth neural network of the first device within a third preset period of time or after the third preset period of time after receiving the first information from the first device, or receives information from the fourth neural network of the first device.
  • the information of the fourth neural network and the information of the third neural network of the first device are included in the third preset period of time or after the third preset period of time after receiving the first information from the first device, or receives information from the fourth neural network of the first device.
  • the first device sends the above-mentioned fourth neural network information to the second device, or sends the fourth neural network information and the third neural network information, which may be The first device and the second device send it after negotiation.
  • the first device may decide to send it by itself, or the second device instructs the first device to send.
  • the premise that the device sends the above-mentioned fourth neural network information, or sends the fourth neural network information and the third neural network information provides multiple possibilities and improves the flexibility of the solution.
  • the second device receives information from the fourth neural network of the first device, or receives information from the fourth neural network and the third neural network.
  • the method further includes: the second device sends a first notification message to the first device, where the first notification message is used to indicate whether the second device uses the fourth neural network, or whether to use the second device.
  • the fourth neural network and the third neural network perform information transmission.
  • the second device can decide whether to use the received new neural network, so as to avoid restricting the new neural network to be used.
  • the method further includes: the second device sends a second notification message to the first device, or the second device receives a second notification message from the first device.
  • Notification message wherein the second notification message is used to notify that the information transmission mode is changed from the first mode to the second mode
  • the first mode includes information transmission based on an AI model
  • the AI model includes the first neural network and the second mode.
  • Two neural networks, the second mode includes information transmission based on non-AI models.
  • different transmission modes can be switched through the second notification message, thereby avoiding information transmission based on an inappropriate neural network.
  • the AI model further includes a seventh neural network and an eighth neural network.
  • the method for adjusting the neural network provided by the embodiment of this application, when the local device and the opposite device in the communication system decide to return to the non-AI mode for information transmission, it can be understood as different information processing procedures included in the communication system All fall back to non-AI mode.
  • the method further includes:
  • the second device switches the information transmission mode from the first mode to the second mode
  • the second device starts to switch the information transmission mode from the first mode to the second mode within a fourth preset time period after the fourth start time or after the fourth preset time period,
  • the fourth starting moment includes the moment when the second device sends the second notification message to the first device, or the moment when the second device receives the second notification message from the first device.
  • the time of performing the handover may be determined based on the time of sending and receiving the second notification message.
  • the first starting moment and the second starting moment include: the moment when the second device sends the first indication information to the first device; or, The second device receives the second notification message from the first device; or, the second device sends the second notification message to the first device; or, the second device receives the second notification message from the first device.
  • the above-defined starting time can be determined based on the receiving or sending time of different messages, which improves the flexibility of the solution.
  • the method further includes:
  • the second device sends a second response message to the first device, where the second response message is used to indicate refusal to receive the information of the fourth neural network, or used to indicate refusal to receive the information of the fourth neural network and the first device.
  • the second response message is used to indicate refusal to receive the information of the fourth neural network, or used to indicate refusal to receive the information of the fourth neural network and the first device.
  • the second device can refuse to receive the information of the new neural network, and provide the initiative for the receiving end device of the neural network.
  • the first device includes a terminal device or a network device
  • the second device includes the terminal device or the network device
  • the first device is the terminal device
  • the second device is the network device
  • the first device is the network device
  • the second device is the terminal device
  • the above-mentioned first device and second device may be a terminal device and a network device, respectively.
  • the method further includes: the second device sends fifth indication information to the first device, and the fifth indication information is used to instruct the first device to send the The capability of the first device; the second device receives first capability information from the first device, the first capability information includes at least one of the following information: computing capability information of the first device, Storage capability information or whether the first device stores the information of the first AI model, the neural network structure supported by the first device, the neural network scale supported by the first device, and the AI communication function supported by the first device, where: The first AI model is any AI model; or,
  • the method also includes:
  • the second device receives sixth indication information from the first device, where the sixth indication information is used to instruct the second device to send the capability of the second device; the second device sends the second capability information to the first device ,
  • the second capability information includes at least one of the following information: the computing capability information of the second device, the storage capability information of the second device, or whether the second device stores the second AI model information, the second The neural network structure supported by the device, the neural network scale supported by the second device, and the AI communication function supported by the second device, where the second AI model is any AI model.
  • the first device and the second device may learn the capabilities of each other through signaling interaction before.
  • the first signal includes channel information; the first neural network includes a first compressor, the second neural network includes a first decompressor, and the third neural network
  • the network includes a second compressor, the fourth neural network includes a second decompressor; or, the first neural network includes a first decompressor, the second neural network includes a first compressor, and the third neural network includes a second decompressor.
  • the decompressor and the fourth neural network include a second compressor.
  • the aforementioned neural network may be a compressor or a decompressor.
  • the channel information includes channel information received by multiple receiving antennas or channel information of multiple layers.
  • the channel information of multiple receiving antennas/multiple layers are jointly coded into one codeword, which realizes joint compression of channel information and improves
  • the channel information compression rate reduces the feedback overhead of channel information.
  • the above-mentioned first indication information, second indication information, first information, first response message, second information, first notification message, and second notification message are carried on the uplink physical control channel PUCCH, downlink physical control channel PDCCH, physical uplink shared channel PUSCH, physical downlink shared channel PDSCH, uplink grant UL grant or random access Channel RACH.
  • the messages involved in the embodiments of the present application can be transmitted in different ways, which improves the flexibility of the solution.
  • a communication method is provided.
  • the communication method may be executed by a first device, or may also be executed by a chip or circuit provided in the first device.
  • This application is not limited to this.
  • the following Take the execution by the first device as an example for description.
  • the communication method includes:
  • the first device receives the tenth indication information from the second device, where the tenth indication information is used to indicate the AI capability of the second device.
  • the first device sends the AI model information to the second device based on the AI capability of the second device;
  • the first device sends the AI model information to the second device based on the tenth indication information.
  • the first device can determine the information of the issued AI model based on the capability or instruction information reported by the second device, so that the AI function can be started.
  • the tenth indication information includes at least one of the following information: computing capability information of the second device, storage capability information of the second device, or the first Whether the second device stores the information of the first AI model, the neural network structure supported by the second device, the neural network scale supported by the second device, and the AI communication function supported by the second device, where the first AI model is Any AI model.
  • the above-mentioned capability information may be embodied in various forms, which improves the flexibility of the scheme.
  • the method before the first device receives the tenth indication information from the second device, the method further includes: the first device sends the first device to the second device A message, the first message is used to instruct the second device to report the AI capability of the second device.
  • the first device obtains the AI capability of the second device by sending the first message.
  • the first message is included in the eighth response message.
  • the eighth response message is used to confirm conflict resolution in the random access process, and may be MSG4 or a message similar to MSG4 in the random access process.
  • the first message is included in the seventh response message.
  • the seventh response message is used to respond to the random access of the terminal device, and may be MSG2 or a message similar to MSG2 in the random access process.
  • the seventh response message includes the index of the random preamble sequence corresponding to the terminal device determined by the base station. No.
  • the method further includes:
  • the first device sends first resource indication information to the second device, where the first resource indication information indicates a resource for the second device to receive the first message.
  • the first resource indication information is included in the aforementioned seventh response message
  • the first resource indication information is included in the above-mentioned eighth response message.
  • the method before sending the seventh response message, the method further includes:
  • An initial access request from the second device is received, and the seventh response message is in response to the initial access request.
  • the method before the first device receives the tenth indication information from the second device, the method further includes: the first device sends the above-mentioned Eighth response message.
  • the method before the first device receives the tenth indication information from the second device, the method further includes: the first device sends the above-mentioned Seventh response message.
  • the tenth indication information is included in the eighth message.
  • the eighth message is used to request connection establishment in the random access process, and may be MSG3 or a message similar to MSG3 in the random access process, and the eighth message includes the identification of the terminal device.
  • the tenth indication information is included in the seventh message.
  • the seventh message is used to initiate a random access procedure in the random access process, and may be MSG1 or a message similar to MSG1 in the random access process.
  • the method further includes:
  • the first device receives second resource indication information from the second device, where the second resource indication information indicates a resource for which the first device receives the tenth indication information.
  • the second resource indication information is included in the seventh message mentioned above;
  • the second resource indication information is included in the above-mentioned eighth message.
  • the information of the AI model is included in the above-mentioned eighth response message.
  • the method further includes:
  • the first device sends third resource indication information to the second device, where the third resource indication information indicates a resource for the second device to receive the information of the AI model.
  • the third resource indication information is included in the above-mentioned eighth response message.
  • the above-mentioned signaling interaction between the first device and the second device can be completed in different stages of the initial access process, which can be combined with the current initial access process to improve the solution and current Integration of technology.
  • the first device stores N neural networks locally, and the method further includes: the first device sends at least one neural network to the second device, and the N Is a positive integer, and the at least one neural network is part or all of the N neural networks.
  • the N neural networks are applied to the second device or the first device; the first device sending at least one neural network to the second device includes at least the following One type: the first device sends to the second device M neural networks, network weights corresponding to the M neural networks, network structures corresponding to the M neural networks, or a network structure of a neural network, wherein the M is a positive integer less than or equal to N.
  • the first device may send the candidate neural network to the second device.
  • the method further includes:
  • the first device sends eighth indication information to the second device, where the eighth indication information is used to indicate the currently applicable neural network.
  • the first device can specify the currently applicable neural network from the candidate neural networks through instruction information.
  • the N neural networks include N/2 neural network pairs, and each pair of neural networks includes a first neural network and a second neural network, where N is It is not an even number; the sending of at least one neural network by the first device to the second device includes at least one of the following: the first device sending Q second neural networks, Q first neural networks, Q The network weights corresponding to the first neural network, the network weights corresponding to the Q second neural networks, the network structure corresponding to the Q first neural networks, the network structure corresponding to the Q second neural networks, and a first neural network The network structure of the network or the network structure of a second neural network, wherein the Q is a positive integer less than or equal to N/2.
  • the first device may send the candidate neural network pair used by the first device and the second device to the second device.
  • the indexes of the neural networks that can be called a neural network pair are the same.
  • the first device sends ninth indication information to the second device, where the ninth indication information is used to indicate the currently applicable neural network pair.
  • the first device can specify the currently applicable neural network pair from the candidate neural network pairs through the instruction information.
  • the first device sending at least one neural network to the second device includes: the first device sending a preset first neural network to the second device and / Or the preset second neural network.
  • the first device may only send the currently applicable neural network to the second device.
  • the first device includes a terminal device or a network device
  • the second device includes the terminal device or the network device
  • the first device is the terminal device
  • the second device is the network device
  • the first device is the network device
  • the second device is the terminal device
  • a communication method is provided.
  • the communication method may be executed by a second device, or may also be executed by a chip or circuit provided in the second device, which is not limited in this application. For ease of description, you can Take the execution by the second device as an example for description.
  • the communication method includes: a second device sends tenth indication information to a first device, where the tenth indication information is used to indicate an AI capability of the second device; and the second device receives information about an AI model from the first device.
  • the first device can determine the issued AI model information based on the tenth indication information reported by the second device and/or the AI capability of the second device, and can realize the start of the AI function.
  • the tenth indication information includes at least one of the following information: computing capability information of the second device, storage capability information of the second device, or the first Whether the second device stores the information of the first AI model, the neural network structure supported by the second device, the neural network scale supported by the second device, and the AI communication function supported by the second device, where the first AI model is Any AI model.
  • the above-mentioned capability information may be embodied in various forms, which improves the flexibility of the scheme.
  • the method before the second device sends the tenth indication information to the first device, the method further includes: the second device receives the first device from the first device A message, the first message is used to instruct the second device to report the AI capability of the second device.
  • the first device learns the capabilities of the second device by sending the first message.
  • the first message is included in the eighth response message.
  • the eighth response message is used to confirm conflict resolution in the random access process, and may be MSG4 or a message similar to MSG4 in the random access process.
  • the first message is included in the seventh response message.
  • the seventh response message is used to respond to the random access of the terminal device, and may be MSG2 or a message similar to MSG2 in the random access process.
  • the seventh response message includes the index of the random preamble sequence corresponding to the terminal device determined by the base station. No.
  • the second device receives first resource indication information from the first device, where the first resource indication information indicates a resource for the second device to receive the first message.
  • the first resource indication information is included in the aforementioned seventh response message
  • the first resource indication information is included in the above-mentioned eighth response message.
  • the method before the second device sends the tenth indication information to the first device, the method further includes: the second device receives the above-mentioned information from the first device Eighth response message.
  • the method before the second device sends the tenth indication information to the first device, the method further includes: the second device receives the above-mentioned information from the first device Seventh response message.
  • the tenth indication information is included in the eighth message.
  • the eighth message is used to request connection establishment in the random access process, and may be MSG3 or a message similar to MSG3 in the random access process, and the eighth message includes the identification of the terminal device.
  • the tenth indication information is included in the seventh message.
  • the seventh message is used to initiate a random access procedure in the random access process, and may be MSG1 or a message similar to MSG1 in the random access process.
  • the method further includes:
  • the second device sends second resource indication information to the first device, where the second resource indication information indicates the resource for which the first device receives the tenth indication information.
  • the second resource indication information is included in the seventh message mentioned above;
  • the second resource indication information is included in the above-mentioned eighth message.
  • the information of the AI model is included in the above-mentioned eighth response message.
  • the second device receives third resource indication information from the first device, where the third resource indication information indicates a resource for the second device to receive the information of the AI model.
  • the third resource indication information is included in the above-mentioned eighth response message.
  • the above-mentioned signaling interaction between the first device and the second device can be completed in different stages of the initial access process, which can be combined with the current initial access process to improve the solution and current Integration of technology.
  • the first device stores N neural networks locally
  • the method further includes: the second device receives at least one neural network from the first device, the N is a positive integer, and the at least one neural network is part or all of the N neural networks.
  • the N neural networks are applied to the second device or the first device; the second device receiving at least one neural network from the first device includes the following At least one: the second device receives M neural networks from the first device, network weights corresponding to the M neural networks, network structures corresponding to the M neural networks, or a network structure of a neural network, where , The M is a positive integer less than or equal to N.
  • the N neural networks include N/2 neural network pairs, and each pair of neural networks includes a first neural network and a second neural network, where N is It is not an even number;
  • the second device receiving at least one neural network from the first device includes at least one of the following: the second device receives Q second neural networks, Q first neural networks, and The network weights corresponding to the Q first neural networks, the network weights corresponding to the Q second neural networks, the network structures corresponding to the Q first neural networks, the network structures corresponding to the Q second neural networks, and the first A network structure of a neural network or a network structure of a second neural network, wherein the Q is a positive integer less than or equal to N/2.
  • the first device may send the candidate neural network to the second device.
  • the method further includes: the second device receiving eighth indication information from the first device, the eighth indication information being used to indicate the currently applicable neural network .
  • the first device can specify the currently applicable neural network from the candidate neural networks through instruction information.
  • the method further includes: the second device receiving ninth indication information from the first device, the ninth indication information being used to indicate the currently applicable neural network right.
  • the first device can specify the currently applicable neural network pair from the candidate neural network pairs through the instruction information.
  • the first device includes a terminal device or a network device
  • the second device includes the terminal device or the network device
  • the first device is the terminal device
  • the second device is the network device
  • the first device is the network device
  • the second device is the terminal device
  • a device for adjusting a neural network includes a processor for implementing the function of the first device in the method described in the first aspect.
  • the apparatus for adjusting a neural network may further include a memory, which is coupled to the processor, and the processor is configured to implement the function of the first device in the method described in the first aspect.
  • the memory is used to store program instructions and data.
  • the memory is coupled with the processor, and the processor can call and execute the program instructions stored in the memory to implement the function of the first device in the method described in the first aspect.
  • the apparatus for adjusting the neural network may further include a communication interface, and the communication interface is used for the apparatus for adjusting the neural network to communicate with other devices.
  • the communication interface is a transceiver, an input/output interface, or a circuit.
  • the device for adjusting a neural network includes: a processor and a communication interface, which are used to implement the function of the first device in the method described in the first aspect above, and specifically include:
  • the processor uses the communication interface to communicate with the outside;
  • the processor is used to run a computer program, so that the device implements any one of the methods described in the first aspect.
  • the exterior may be an object other than the processor, or an object other than the device.
  • the device for adjusting the neural network is a chip or a chip system.
  • the communication interface may be an input/output interface, interface circuit, output circuit, input circuit, pin or related circuit on the chip or chip system.
  • the processor can also be embodied as a processing circuit or a logic circuit.
  • a device for adjusting a neural network includes a processor for implementing the function of the second device in the method described in the second aspect.
  • the apparatus for adjusting a neural network may further include a memory, which is coupled to the processor, and the processor is configured to implement the function of the second device in the method described in the second aspect.
  • the memory is used to store program instructions and data.
  • the memory is coupled with the processor, and the processor can call and execute the program instructions stored in the memory to implement the function of the second device in the method described in the second aspect.
  • the apparatus for adjusting the neural network may further include a communication interface, and the communication interface is used for the apparatus for adjusting the neural network to communicate with other devices.
  • the transceiver may be a communication interface or an input/output interface.
  • the apparatus for adjusting a neural network includes: a processor and a communication interface, which are used to implement the function of the second device in the method described in the second aspect, specifically including:
  • the processor uses the communication interface to communicate with the outside;
  • the processor is used to run a computer program, so that the device implements any of the methods described in the second aspect.
  • the exterior may be an object other than the processor, or an object other than the device.
  • the communication interface may be an input/output interface, an interface circuit, an output circuit, an input circuit, or a tube on the chip or a chip system. Feet or related circuits, etc.
  • the processor can also be embodied as a processing circuit or a logic circuit.
  • a device for adjusting a neural network includes a processor for implementing the function of the first device in the method described in the third aspect.
  • the apparatus for adjusting a neural network may further include a memory, which is coupled with the processor, and the processor is configured to implement the function of the first device in the method described in the third aspect.
  • the memory is used to store program instructions and data.
  • the memory is coupled with the processor, and the processor can call and execute the program instructions stored in the memory to implement the function of the first device in the method described in the third aspect.
  • the apparatus for adjusting the neural network may further include a communication interface, and the communication interface is used for the apparatus for adjusting the neural network to communicate with other devices.
  • the communication interface is a transceiver, an input/output interface, or a circuit.
  • the apparatus for adjusting a neural network includes: a processor and a communication interface, used to implement the function of the first device in the method described in the third aspect, specifically including:
  • the processor uses the communication interface to communicate with the outside;
  • the processor is used to run a computer program, so that the device implements any of the methods described in the third aspect.
  • the exterior may be an object other than the processor, or an object other than the device.
  • the device for adjusting the neural network is a chip or a chip system.
  • the communication interface may be an input/output interface, interface circuit, output circuit, input circuit, pin or related circuit on the chip or chip system.
  • the processor can also be embodied as a processing circuit or a logic circuit.
  • a device for adjusting a neural network includes a processor for implementing the function of the second device in the method described in the fourth aspect.
  • the apparatus for adjusting a neural network may further include a memory, the memory is coupled to the processor, and the processor is configured to implement the function of the second device in the method described in the fourth aspect.
  • the memory is used to store program instructions and data.
  • the memory is coupled with the processor, and the processor can call and execute the program instructions stored in the memory to implement the function of the second device in the method described in the fourth aspect.
  • the apparatus for adjusting the neural network may further include a communication interface, and the communication interface is used for the apparatus for adjusting the neural network to communicate with other devices.
  • the transceiver may be a communication interface or an input/output interface.
  • the device for adjusting a neural network includes: a processor and a communication interface, used to implement the function of the second device in the method described in the fourth aspect, specifically including:
  • the processor uses the communication interface to communicate with the outside;
  • the processor is used to run a computer program, so that the device implements any of the methods described in the fourth aspect.
  • the exterior may be an object other than the processor, or an object other than the device.
  • the communication interface may be an input/output interface, an interface circuit, an output circuit, an input circuit, or a tube on the chip or a chip system. Feet or related circuits, etc.
  • the processor can also be embodied as a processing circuit or a logic circuit.
  • a computer-readable storage medium on which a computer program is stored.
  • the communication device realizes the first aspect and any one of the possible implementation manners of the first aspect. method.
  • a computer-readable storage medium on which a computer program is stored.
  • the communication device When the computer program is executed by a communication device, the communication device enables the communication device to implement the second aspect and any of the possible implementation manners of the second aspect method.
  • a computer-readable storage medium on which a computer program is stored.
  • the communication device When the computer program is executed by a communication device, the communication device enables the communication device to implement the third aspect and any possible implementation manner of the third aspect Methods.
  • a computer-readable storage medium is provided with a computer program stored thereon.
  • the computer program When the computer program is executed by a communication device, the communication device enables the communication device to implement the fourth aspect and any of the possible implementation manners of the fourth aspect Methods.
  • a computer program product containing instructions which when executed by a computer, enables a communication device to implement the first aspect and the method in any possible implementation manner of the first aspect.
  • a computer program product containing instructions which when executed by a computer, enables a communication device to implement the second aspect and the method in any possible implementation manner of the second aspect.
  • a computer program product containing instructions when the instructions are executed by a computer, the communication device realizes the third aspect and the method in any possible implementation manner of the third aspect.
  • a computer program product containing instructions which when executed by a computer, enables a communication device to implement the fourth aspect and the method in any possible implementation manner of the fourth aspect.
  • a communication system including the device for adjusting a neural network shown in the fifth aspect and the device for adjusting a neural network shown in the sixth aspect.
  • An eighteenth aspect provides a communication system, including the communication device shown in the seventh aspect and the communication device shown in the eighth aspect.
  • a chip device including a processing circuit for calling and running a program from a memory, so that a communication device installed with the chip device can execute any one of the first to fourth aspects above The method in the possible implementation mode.
  • FIG. 1 is a schematic diagram of a system 100 applicable to the method for adjusting a neural network according to an embodiment of the present application.
  • FIG. 2 is a schematic flowchart of CSI feedback based on the existing CSI feedback process.
  • Fig. 3 is a schematic diagram of an AI-based CSI feedback process provided by an embodiment of the present application.
  • Fig. 4 is a stage diagram of CSI compression feedback based on AI provided by the present application.
  • FIG. 5 are schematic diagrams of a method for adjusting a neural network provided by an embodiment of the present application.
  • FIG. 6 are schematic diagrams for determining estimated downlink channel information provided by an embodiment of the present application.
  • FIG. 7 are another schematic diagrams for determining estimated downlink channel information provided by an embodiment of the present application.
  • FIG. 8 are schematic flowcharts for sending updated information of the encoder and/or decoder according to an embodiment of the present application.
  • FIG. 9 are another schematic flowcharts for sending updated information of the encoder and/or decoder according to an embodiment of the present application.
  • FIG. 10 is a schematic flowchart of a communication method provided by an embodiment of the present application.
  • Fig. 11 is a schematic flowchart of an initial access.
  • FIG. 12 is a schematic structural diagram of an apparatus 1200 for adjusting a neural network suitable for an embodiment of the present application.
  • FIG. 13 is a schematic diagram of the communication device 1300 proposed in the present application.
  • FIG. 14 is a schematic diagram of the first device 1400 provided in the present application.
  • FIG. 15 is a schematic diagram of a device 1500 for adjusting a neural network proposed in the present application.
  • FIG. 16 is a schematic diagram of the communication device 1600 proposed in the present application.
  • FIG. 17 is a schematic diagram of the second device 1700 provided by the present application.
  • the technical solutions of the embodiments of this application can be applied to various communication systems, such as: long term evolution (LTE) system, LTE frequency division duplex (FDD) system, LTE time division duplex (time division duplex) , TDD), worldwide interoperability for microwave access (WiMAX) communication system, fifth generation (5G) system, new radio (NR) or future network, etc., as described in this application
  • LTE long term evolution
  • FDD frequency division duplex
  • TDD time division duplex
  • WiMAX worldwide interoperability for microwave access
  • 5G fifth generation
  • NR new radio
  • the 5G mobile communication system includes a non-standalone (NSA) 5G mobile communication system or a standalone (SA) 5G mobile communication system.
  • SA standalone
  • the technical solution provided in this application can also be applied to future communication systems, such as the sixth-generation mobile communication system.
  • the communication system can also be a public land mobile network (PLMN) network, a device-to-device (D2D) communication system, a machine-to-machine (M2M) communication system, and a device-to-device (D2D) communication system.
  • PLMN public land mobile network
  • D2D device-to-device
  • M2M machine-to-machine
  • D2D device-to-device
  • IoT Internet of Things
  • the terminal equipment (terminal equipment) in the embodiments of this application may refer to an access terminal, a user unit, a user station, a mobile station, a mobile station, a relay station, a remote station, a remote terminal, a mobile device, a user terminal, and a user equipment.
  • UE user equipment
  • terminal terminal
  • wireless communication equipment user agent, or user device.
  • the terminal device can also be a cellular phone, a cordless phone, a session initiation protocol (session initiation protocol, SIP) phone, a wireless local loop (WLL) station, a personal digital assistant (personal digital assistant, PDA), with wireless communication Functional handheld devices, computing devices, or other processing devices connected to wireless modems, in-vehicle devices, wearable devices, terminal devices in 5G networks, or terminals in the public land mobile network (PLMN) that will evolve in the future Devices or terminal devices in the future Internet of Vehicles, etc., which are not limited in the embodiment of the present application.
  • PLMN public land mobile network
  • wearable devices can also be referred to as wearable smart devices. It is a general term for using wearable technology to intelligently design daily wear and develop wearable devices, such as glasses, Gloves, watches, clothing and shoes, etc.
  • a wearable device is a portable device that is directly worn on the body or integrated into the user's clothes or accessories. Wearable devices are not only a kind of hardware device, but also realize powerful functions through software support, data interaction, and cloud interaction.
  • wearable smart devices include full-featured, large-sized, complete or partial functions that can be achieved without relying on smart phones, such as smart watches or smart glasses, and only focus on a certain type of application function, and need to cooperate with other devices such as smart phones.
  • the terminal device can also be a terminal device in the IoT system.
  • IoT is an important part of the development of information technology in the future. Its main technical feature is to connect objects to the network through communication technology to realize man-machine Interconnection, an intelligent network of interconnection of things.
  • the IOT technology can achieve massive connections, deep coverage, and power saving of the terminal through, for example, narrowband (NB) technology.
  • NB narrowband
  • the terminal equipment may also include sensors such as smart printers, train detectors, gas stations, etc.
  • the main functions include collecting data (part of the terminal equipment), receiving control information and downlink data from network equipment, and sending electromagnetic waves. , To transmit uplink data to network equipment.
  • the network device in the embodiment of the present application may be any communication device with a wireless transceiving function that is used to communicate with a terminal device.
  • This equipment includes but is not limited to: evolved Node B (eNB), radio network controller (RNC), Node B (Node B, NB), home base station (home evolved NodeB, HeNB, or home Node B, HNB), baseband unit (BBU), access point (AP), wireless relay node, wireless backhaul node, transmission point in wireless fidelity (WIFI) system (transmission point, TP) or transmission and reception point (transmission and reception point, TRP), etc.
  • eNB evolved Node B
  • RNC radio network controller
  • Node B Node B
  • NB home base station
  • BBU baseband unit
  • AP access point
  • wireless relay node wireless backhaul node
  • transmission point in wireless fidelity (WIFI) system transmission point, TP
  • TRP or TP transmission
  • the network device in the embodiment of the present application may refer to a centralized unit (CU) or a distributed unit (DU), or the network device includes a CU and a DU.
  • the gNB may also include an active antenna unit (AAU).
  • the CU implements some of the functions of the gNB, and the DU implements some of the functions of the gNB.
  • the CU is responsible for processing non-real-time protocols and services, and implements radio resource control (radio resource control, RRC) and packet data convergence protocol (packet data convergence protocol, PDCP) layer functions.
  • RRC radio resource control
  • PDCP packet data convergence protocol
  • the DU is responsible for processing the physical layer protocol and real-time services, and realizes the functions of the radio link control (RLC) layer, the media access control (MAC) layer, and the physical (PHY) layer.
  • AAU realizes some physical layer processing functions, radio frequency processing and related functions of active antennas. Since the information of the RRC layer will eventually become the information of the PHY layer, or be transformed from the information of the PHY layer, under this architecture, high-level signaling, such as RRC layer signaling, can also be considered to be sent by the DU , Or, sent by DU+AAU.
  • the network device may be a device that includes one or more of a CU node, a DU node, and an AAU node.
  • the CU can be divided into network equipment in an access network (radio access network, RAN), and the CU can also be divided into network equipment in a core network (core network, CN), which is not limited in this application.
  • the CU can also be divided into the central unit of the control plane (CU-CP) and the central unit of the user plane (CU-UP).
  • CU-CP and CU-UP can also be deployed on different physical devices.
  • CU-CP is responsible for the control plane function and mainly includes the RRC layer and the PDCP-C layer.
  • the PDCP-C layer is mainly responsible for encryption and decryption of control plane data, integrity protection, and data transmission.
  • CU-UP is responsible for the user plane function, mainly including SDAP layer and PDCP-U layer.
  • the SDAP layer is mainly responsible for processing the data of the core network and mapping the flow to the bearer.
  • the PDCP-U layer is mainly responsible for at least one function such as encryption and decryption of the data plane, integrity protection, header compression, serial number maintenance, and data transmission.
  • the CU-CP and the CU-UP are connected through a communication interface (for example, an E1 interface).
  • CU-CP represents that a network device is connected to a core network device through a communication interface (for example, Ng interface), and is connected to a DU through a communication interface (for example, F1-C (control plane) interface).
  • the CU-UP is connected to the DU through a communication interface (for example, an F1-U (user plane) interface).
  • the PDCP-C layer is also included in the CU-UP.
  • the network device mentioned in the embodiment of this application may be a device including CU, or DU, or CU and DU, or control plane CU node (CU-CP node) and user plane CU node (CU-UP node), and DU The device of the node.
  • CU-CP node control plane CU node
  • CU-UP node user plane CU node
  • Network equipment and terminal equipment can be deployed on land, including indoor or outdoor, handheld or vehicle-mounted; they can also be deployed on water; they can also be deployed on airborne aircraft, balloons, and satellites.
  • the scenes in which the network equipment and the terminal equipment are located are not limited.
  • the terminal device or the network device includes a hardware layer, an operating system layer running on the hardware layer, and an application layer running on the operating system layer.
  • the hardware layer includes hardware such as a central processing unit (CPU), a memory management unit (MMU), and memory (also referred to as main memory).
  • the operating system can be any one or more computer operating systems that implement business processing through processes, for example, Linux operating systems, Unix operating systems, Android operating systems, iOS operating systems, or windows operating systems.
  • the application layer includes applications such as browsers, address books, word processing software, and instant messaging software.
  • various aspects or features of the present application can be implemented as methods, devices, or products using standard programming and/or engineering techniques.
  • article of manufacture used in this application encompasses a computer program accessible from any computer-readable device, carrier, or medium.
  • computer-readable media may include, but are not limited to: magnetic storage devices (for example, hard disks, floppy disks or tapes, etc.), optical disks (for example, compact discs (CD), digital versatile discs (DVD)) Etc.), smart cards and flash memory devices (for example, erasable programmable read-only memory (EPROM), cards, sticks or key drives, etc.).
  • various storage media described herein may represent one or more devices and/or other machine-readable media for storing information.
  • the term "machine-readable storage medium” may include, but is not limited to, wireless channels and various other media capable of storing, containing, and/or carrying instructions and/or data.
  • FIG. 1 is a schematic diagram of a communication system 100 applicable to a method for adjusting a neural network according to an embodiment of the present application.
  • the communication system 100 may include at least one network device, such as the network device 110 shown in FIG. 1; the communication system 100 may also include at least one terminal device, such as the terminal device 120 shown in FIG. 1.
  • the network device 110 and the terminal device 120 may communicate through a wireless link.
  • Each communication device, such as the network device 110 or the terminal device 120 can be equipped with multiple antennas.
  • the configured multiple antennas may include at least one transmitting antenna for transmitting signals and at least one receiving antenna for receiving signals. Therefore, the communication devices in the communication system 100, such as the network device 110 and the terminal device 120, can communicate through multi-antenna technology.
  • FIG. 1 is only a simplified schematic diagram of an example for ease of understanding.
  • the communication system 100 may also include other network devices or other terminal devices, which are not shown in FIG. 1.
  • the network device can process the signal to be sent with the help of a precoding matrix that matches the channel state, so that the pre-coded signal to be sent is adapted to the channel, so that the receiving device can suppress multiplication.
  • the signal influence between two receiving devices maximizes the signal-to-interference and noise ratio of the received signal. Therefore, the received signal quality (for example, signal to interference plus noise ratio (SINR), etc.) can be improved through precoding processing of the signal to be sent. Therefore, the use of precoding technology can realize the transmission on the same time-frequency resource by the sending device and multiple receiving devices, that is, MU-MIMO is realized.
  • the sending device may also perform precoding in other ways. For example, when channel information (such as but not limited to a channel matrix) cannot be obtained, precoding is performed using a preset precoding matrix or a weighting processing method. For the sake of brevity, its specific content will not be repeated in this application.
  • PMI Precoding matrix indicator
  • the precoding matrix may be, for example, a precoding matrix determined by the terminal device based on the channel matrix of each frequency domain unit.
  • the precoding matrix may be determined by the terminal device through channel estimation or other methods or based on channel reciprocity.
  • the specific method for the terminal device to determine the precoding matrix is not limited to the above, and the specific implementation can refer to the prior art. For brevity, it will not be listed here.
  • the precoding matrix can be obtained by performing singular value decomposition (SVD) on the channel matrix or the covariance matrix of the channel matrix, or it can also be obtained by performing eigenvalue decomposition (eigenvalue decomposition) on the covariance matrix of the channel matrix. decomposition, EVD).
  • SVD singular value decomposition
  • eigenvalue decomposition eigenvalue decomposition
  • EVD decomposition
  • the precoding matrix determined by the terminal device may be referred to as the precoding matrix to be fed back, or in other words, the precoding matrix to be reported.
  • the terminal device may indicate the precoding matrix to be fed back through the PMI, so that the network device can recover the precoding matrix based on the PMI.
  • the precoding matrix recovered by the network device based on the PMI may be the same or similar to the foregoing precoding matrix to be fed back.
  • PMI is only a naming and should not constitute any limitation to this application. This application does not exclude the possibility of defining other names of signaling for the same or similar functions in future protocols.
  • the network device may determine the precoding matrix corresponding to one or more frequency domain units based on the feedback of the terminal device.
  • the precoding matrix determined by the network equipment can be directly used for downlink data transmission; it can also undergo some beamforming methods, such as zero forcing (ZF), regularized zero-forcing (RZF), Minimum mean-squared error (MMSE), maximum signal-to-leakage-and-noise (SLNR), etc., to obtain the final precoding matrix for downlink data transmission.
  • ZF zero forcing
  • RZF regularized zero-forcing
  • MMSE Minimum mean-squared error
  • SLNR maximum signal-to-leakage-and-noise
  • the method of implementing channel information feedback based on the above-mentioned precoding technology and precoding matrix indication is referred to as the traditional channel information feedback method.
  • the limitation is to distinguish the channel information feedback mode in the AI mode and the channel information feedback mode based on the precoding matrix indication.
  • the method of feeding back channel information in the non-AI mode may also be referred to as a traditional channel information feedback method or a conventional channel information feedback method in this application.
  • the uplink and downlink channels transmit signals on the same frequency domain resources and different time domain resources.
  • a relatively short time for example, the coherence time of channel propagation
  • the network equipment can measure the uplink channel based on the uplink reference signal, such as a sounding reference signal (SRS).
  • SRS sounding reference signal
  • the downlink channel can be estimated according to the uplink channel, so that the precoding matrix for downlink transmission can be determined.
  • the network equipment can rely on the channel state information (CSI) fed back by the terminal equipment to the network equipment to perform downlink precoding.
  • CSI channel state information
  • FIG. 2 is a schematic flowchart of CSI feedback based on the existing CSI feedback process.
  • the CSI feedback process includes: S210, the network device sends channel measurement configuration information to the terminal device.
  • the channel measurement configuration information notifies the terminal device to perform channel measurement (may also include the time for channel measurement).
  • the network device After the network device sends the channel measurement configuration information, it also needs to send reference information for channel measurement to the terminal device.
  • the method flow shown in FIG. 2 further includes S220: the network device sends a reference signal to the terminal device. After receiving the reference signal, the terminal device can perform channel measurement based on the reference signal, and calculate the final CSI feedback amount. That is, the method flow shown in FIG. 2 further includes S230: the terminal device obtains the CSI. Specifically, the terminal device needs to feed back the obtained CSI to the network device, and the method flow shown in FIG. 2 further includes S240: the terminal device feeds back the CSI to the network device.
  • the network device learns the CSI, it can send data to the terminal device based on the CSI.
  • the method flow shown in FIG. 2 further includes S250: the network device sends data to the terminal device.
  • the network device determines the number of data streams to transmit to the terminal device according to the channel rank indicator (RI) fed back by the terminal device; the network device determines the number of data streams to the terminal device according to the channel quality indicator (CQI) fed back by the terminal device The modulation order of the transmitted data and the code rate of the channel coding; the network device determines the precoding of the transmitted data to the terminal device according to the precoding matrix indicator (precoding matrix indicator, PMI) fed back by the terminal device.
  • RI channel rank indicator
  • CQI channel quality indicator
  • the reference signal may be a reference signal used for channel measurement.
  • the reference signal may be a channel state information reference signal (CSI-RS) used for downlink channel measurement, or a sounding reference signal (sounding reference signal, SRS) used for uplink channel measurement.
  • CSI-RS channel state information reference signal
  • SRS sounding reference signal
  • the compressed channel involved in the embodiments of the present application refers to information obtained after channel information or auxiliary CSI information is compressed by a compressor, and is called a compressed channel, and may also be called a compressed codeword.
  • the information input to the decompressor in the embodiment of the present application may also be referred to as a compressed channel.
  • the compressed channel in this application will be described in detail below with reference to the accompanying drawings, which will not be repeated here.
  • the information output by the compressor and/or the input information of the decompressor is referred to as a compressed channel, which is just an example and does not constitute any limitation on the protection scope of this application.
  • a compressed channel which is just an example and does not constitute any limitation on the protection scope of this application.
  • it can also be referred to as a code. Words, compressed information, or complex coefficients, etc., will not be illustrated one by one here.
  • the energy of the channel is Concentrated on several main paths, the energy on other paths is small and negligible, and the channel can be regarded as sparse.
  • the channel energy is concentrated in certain angles when the spatial channel is converted to the angle domain; in the frequency domain, the channel energy is concentrated in certain angles when the frequency domain channel is converted to the delay domain.
  • multipath delay in the time domain, when the time domain channel is converted to the Doppler domain, it can be seen that the channel energy is concentrated on some Doppler.
  • the uplink and downlink channels do not have complete reciprocity in the FDD mode.
  • the uplink and downlink channels in the FDD mode still have partial reciprocity, for example, the reciprocity of angle and the reciprocity of delay. Therefore, angle and delay can also be called reciprocity parameters.
  • the signal Since the signal is transmitted through the wireless channel, the signal can reach the receiving antenna through multiple paths from the transmitting antenna.
  • Multipath time delay causes frequency selective fading, which is the change of frequency domain channel.
  • the time delay is the transmission time of the wireless signal on different transmission paths, which is determined by the distance and speed, and has nothing to do with the frequency domain of the wireless signal.
  • the uplink and downlink channels in the FDD mode with delay can be considered the same, or in other words, reciprocal.
  • the angle may refer to the angle of arrival (AOA) at which the signal reaches the receiving antenna via the wireless channel, or may refer to the angle of departure (AOD) at which the signal is transmitted through the transmitting antenna.
  • AOA angle of arrival
  • AOD angle of departure
  • the angle may refer to the angle of arrival at which the uplink signal reaches the network device, and may also refer to the angle of departure at which the network device transmits the downlink signal.
  • the arrival angle of the uplink reference signal and the departure angle of the downlink reference signal may be considered the same, or in other words, reciprocal.
  • the network device in the FDD mode can use the uplink channel information to obtain channel characteristic quantities with reciprocity.
  • the uplink channel information in the FDD mode may be referred to as auxiliary CSI information.
  • Deep learning is a learning process that uses deep neural networks to solve feature expression.
  • Neural networks generally include two major stages: training and testing. Training is the process of extracting model parameters from training data using neural network models. The test is to run the test data with the trained model (neural network model + model parameters) and then view the results. Among them, the link data involved in the training process is unified and abstracted to form a usable frame called the training frame.
  • This application mainly relates to the adjustment of the compressor and decompressor in the AI-based CSI feedback process, where the compressor may also be referred to as a CSI compressor, and the decompressor may also be referred to as a CSI decompressor.
  • the sparseness of the channel in time, frequency and space mentioned above can be used to compress the CSI to be fed back, and the compressed CSI can be transmitted to the network through the feedback link.
  • the network device side reconstructs the original sparse channel matrix from the feedback value.
  • the CSI feedback method is based on an automatic compressor and decompressor architecture, encoding at the terminal equipment side, and decoding and reconstruction at the network equipment side.
  • the unit that compresses the CSI to be fed back is called a compressor, which is just an example, and does not constitute any limitation to the protection scope of this application.
  • a compressor which is just an example, and does not constitute any limitation to the protection scope of this application.
  • the unit that decompresses the compressed CSI is called a decompressor, which is just an example, and does not constitute any limitation to the protection scope of this application.
  • it can also be called a decoder, a decompression unit, etc. .
  • compressor and decompressor are a type of neural network.
  • FIG. 3 is a schematic diagram of an AI-based CSI feedback process provided by an embodiment of the present application.
  • the framework including the compressor and the decompressor may be referred to as an AI model or an AI framework.
  • Network equipment and terminal equipment are jointly trained, and the compressor and decompressor obtained through training are carried out.
  • the compressor is deployed in the terminal device, and the decompressor is deployed in the network device.
  • the terminal equipment obtains the downlink channel information according to the downlink reference signal measurement, the downlink channel information is encoded by the compressor to obtain compressed channel information that needs to be fed back to the air interface, and the compressed channel information is fed back to the network device through the feedback link; the network device receives the above After the compressed channel information is decoded by a locally deployed decompressor, the reconstruction information of the channel information fed back by the terminal device is obtained.
  • the training process of the compressor and decompressor involved in the AI-based CSI feedback process is relatively complex. Generally, the training of the compressor and decompressor is completed in an offline state, and then the trained compressor and decompressor The compressor is used for compression and decompression of online channels.
  • FIG. 4 is a stage diagram of CSI compression feedback based on AI provided by the present application.
  • the AI-based CSI feedback process includes the AI-based training process shown in FIG. 4(a) and the AI-based feedback CSI process shown in FIG. 4(b).
  • the AI-based training process shown in Fig. 4(a) is highly complex, and existing related researches basically assume that the AI model is trained offline, and then the training results are applied to the online CSI feedback process.
  • the training channel shown in Figure 4(a) and the estimated channel (also referred to as the measurement channel, the channel to be fed back, etc.) shown in Figure 4(b) should have the same statistical performance (e.g. , The angle and delay domain characteristics are similar).
  • compressor #1 and decompressor #1 obtained by offline training based on training channel #1 in principle, when the statistical performance of estimated channel #1 and training channel #1 are similar, the estimated channel is compressed based on compressor #1 #1 The compressed channel #1 obtained is then decompressed based on the decompressor #1 to obtain the restored channel #1.
  • the difference between the restored channel #1 and the estimated channel #1 should meet the difference requirement (such as less than the preset Threshold).
  • the channel characteristics of the estimated channel #2 measured by the terminal device and the above-mentioned estimated channel #1 may be inconsistent, so the pair of compressor #1 and decompressor #1 obtained by offline training based on training channel #1
  • the difference between the restored channel #2 and the estimated channel #2 obtained by compressing and decompressing the estimated channel #2 may not meet the difference requirement. In this case, it is necessary to update the compressor #1 and the decompressor #1.
  • the present application provides a method for adjusting a neural network, which is used in channel information feedback
  • the compressor and/or decompressor is updated in real time during the channel measurement process, so that channel feedback is performed based on the updated compressor and/or decompressor, which can improve the performance of channel compression.
  • the applicable scenarios for the method for adjusting neural networks are not limited to the scenario of channel information compression feedback, and can also be used in other scenarios, such as the terminal device side and the network.
  • the terminal device side and the network In a scenario where an encoder and a decoder are respectively configured on the device side, or in a scenario where a modulator and a demodulator are respectively configured on the terminal device side and the network device side, etc.
  • the specific embodiment of the neural network separately configured on the terminal device side and the network device side in the embodiment of the present application is not limited. It can be the above-mentioned compressor and decompressor, or other neural networks. Illustrate one by one.
  • used to indicate can include both used for direct indication and used for indirect indication.
  • the indication information can directly indicate A or indirectly indicate A, but it does not mean that A must be included in the indication information.
  • the information indicated by the instruction information is referred to as the information to be instructed.
  • the information to be indicated may be directly indicated, such as the information to be indicated itself or the index of the information to be indicated.
  • the information to be indicated can also be indicated indirectly by indicating other information, where there is an association relationship between the other information and the information to be indicated. It is also possible to indicate only a part of the information to be indicated, while other parts of the information to be indicated are known or agreed in advance. For example, it is also possible to realize the indication of specific information by means of a pre-arranged order (for example, stipulated in an agreement) of various information, so as to reduce the indication overhead to a certain extent.
  • the precoding matrix is composed of precoding vectors, and each precoding vector in the precoding matrix may have the same parts in terms of composition or other attributes.
  • the specific instruction manner may also be various existing instruction manners, such as but not limited to the foregoing instruction manners and various combinations thereof.
  • the required instruction method can be selected according to specific needs.
  • the embodiment of the application does not limit the selected instruction method.
  • the instruction method involved in the embodiment of the application should be understood as covering that can make the instruction to be instructed Various methods for obtaining information to be indicated.
  • a row vector can be expressed as a column vector
  • a matrix can be expressed by the transpose matrix of the matrix
  • a matrix can also be expressed in the form of a vector or an array.
  • the vector or an array can be expressed by Each row vector or column vector of the matrix is connected to each other, etc.
  • the information to be instructed can be sent together as a whole, or divided into multiple sub-information to be sent separately, and the sending period and/or sending timing of these sub-information can be the same or different.
  • the specific sending method is not limited in this application.
  • the sending period and/or sending timing of these sub-information may be pre-defined, for example, pre-defined according to a protocol, or configured by the transmitting end device by sending configuration information to the receiving end device.
  • the configuration information may include, for example, but not limited to, one or a combination of at least two of radio resource control signaling, media access control (MAC) layer signaling, and physical layer signaling.
  • radio resource control signaling such as packet radio resource control (RRC) signaling
  • MAC layer signaling for example, includes MAC control element (CE);
  • physical layer signaling for example, includes downlink control information (downlink control). information, DCI).
  • preset may include indications by network device signaling, or pre-defined, for example, protocol definitions.
  • pre-defined can be implemented by pre-saving corresponding codes, tables or other methods that can be used to indicate related information in the equipment (for example, including terminal equipment and network equipment). limited.
  • the "saving" referred to in the embodiments of the present application may refer to storing in one or more memories.
  • the one or more memories may be provided separately, or integrated in a compressor or decompressor, a processor, or a communication device.
  • the one or more memories may also be partly provided separately, and partly integrated in the decompressor, processor, or communication device.
  • the type of the memory can be any form of storage medium, which is not limited in this application.
  • the “protocols” involved in the embodiments of the present application may refer to standard protocols in the communication field, for example, may include LTE protocol, NR protocol, and related protocols applied to future communication systems, which are not limited in this application.
  • the names of the signaling involved in the embodiments of this application are all functional descriptions, and the specific names are not limited. That is, the messages, information, etc. appearing in the embodiments of the present application may be referred to as other names, and for the sake of brevity, details are not described in this application.
  • the foregoing briefly introduces the application scenarios of the method for adjusting neural networks provided by the embodiments of the application in conjunction with FIG. 1, and introduces the basic concepts that may be involved in the embodiments of the application.
  • the application will be described in detail below with reference to the accompanying drawings.
  • the embodiment provides a method for adjusting a neural network.
  • the method for adjusting a neural network can be applied to a system that communicates through multi-antenna technology, for example, the communication system 100 shown in FIG. 1.
  • the communication system may include at least one network device and at least one terminal device.
  • Multi-antenna technology can be used to communicate between network equipment and terminal equipment.
  • the embodiments shown below do not specifically limit the specific structure of the execution body of the method provided by the embodiments of the present application, as long as the program that records the code of the method provided by the embodiments of the present application can be executed according to the present application.
  • the method provided in the application embodiment only needs to communicate.
  • the execution subject of the method provided in the embodiment of the application may be a terminal device or a network device, or a functional module in the terminal device or the network device that can call and execute the program.
  • FIG. 5 is a schematic flowchart of a method for adjusting a neural network provided by an embodiment of the present application.
  • Figure 5 includes Figure 5 (a)- Figure 5 (e), where Figure 5 (a) is the general process of the method for adjusting the neural network provided by this application.
  • the information to be fed back can be any information that needs to pass through the communication system.
  • Feedback information Figure 5(b) is a schematic flowchart of the method for adjusting a neural network provided by this application applied to a scenario where channel information feedback is implemented based on an AI model, in the scenario shown in Figure 5(b)
  • the information to be fed back below is channel information (e.g., CSI).
  • Figure 5(c) is the communication system diagram corresponding to the application scenario of Figure 5(a)
  • Figure 5(d) is the application scenario of Figure 5(b). Corresponding AI framework diagram.
  • the adjustment of the neural network involved in the embodiments of the present application includes changing the network architecture corresponding to a certain neural network, and/or changing the network weight corresponding to a certain neural network.
  • the neural network involved in the embodiments of this application can be a neural network obtained by training, a neural network defined by a network architecture and network weights, or a function related to input and output, where input and output Relevance includes that the output is related to the current input, or the output is related to both current and historical inputs.
  • input and output Relevance includes that the output is related to the current input, or the output is related to both current and historical inputs.
  • the method flow shown in Figure 5(a) can be applied to the transmission framework shown in Figure 5(c). It can be seen from Figure 5(c) that the first signal is processed by at least the first neural network to obtain a second signal, and the second signal is processed by at least the second neural network to obtain a fifth signal; or,
  • the first signal is processed by at least the second neural network to obtain the second signal
  • the second signal is processed by at least the first neural network to obtain the fifth signal, which is not shown in FIG. 5(c).
  • FIG. 5(c) is just an example and does not constitute any limitation to the protection of this application.
  • the above-mentioned process of processing the first signal to obtain the second signal may also be:
  • the first signal is processed by the first neural network and the first functional module to obtain the second signal, or the first signal is processed by the second neural network and the first functional module to obtain the second signal;
  • the second signal is processed by the first neural network and the second functional module to obtain the fifth signal, or the second signal is processed by the second neural network and the second functional module to obtain the fifth signal.
  • first functional module the second functional module, the third functional module, and the fourth functional module involved in this application can be understood as AI units or non-AI units that process signals, and are used to implement certain functions and also It can be called a functional unit or other names.
  • the communication system shown in Figure 5(c) can make the difference or similarity between the fifth signal and the first signal within an acceptable range, but the first neural network and the second neural network are Obtained from offline training, if the first signal changes during the online information feedback process, it may cause the first signal to be fed back based on the communication system including at least the first neural network and the second neural network, the fifth signal and the first signal
  • the degree of difference or similarity is not within the acceptable range. In this case, it may be necessary to dynamically adjust the first neural network and the second neural network, or adjust other functional modules in the communication system.
  • the application mainly involves adjusting the first neural network and the second neural network so that when information feedback is performed based on a communication system including at least the updated first neural network and the second neural network, the fifth signal and the first signal The degree of difference or similarity is within an acceptable range.
  • the signaling interaction between the first device and the second device, the first device and the second device the signaling interaction between the first device and the second device, the first device and the second device.
  • the steps performed by the device are similar to updating the first neural network and the second neural network, and will not be repeated in this application.
  • the first neural network or the second neural network can be updated, and the updated neural network information can also be sent to the peer device.
  • the device and/or the local device may choose to transmit information based on the updated neural network, or may choose not to transmit information based on the updated neural network.
  • the method shown in Figure 5(a) includes some or all of the following steps.
  • S510a The first device or the second device determines the third neural network and the fourth neural network.
  • the first neural network or the second neural network can be updated to determine the third neural network and/or the fourth neural network.
  • the first device is one device and the second device is another device as an example.
  • the first device and the second device may be in a communication system including multiple devices. Any two devices (for example, the first device and the second device may be a terminal device and a terminal device, a network device and a network device, or a network device and a terminal device), and the communication between the other two devices included in the communication system
  • the interaction and the steps performed by each device refer to the signaling interaction between the first device and the second device and the steps performed by the first device and the second device in this application.
  • this application does not limit the number of the first device or the second device that communicates.
  • the first device is a network device
  • the second device is a terminal device
  • the network device communicates with multiple terminal devices and cooperates.
  • the embodiments of this application are also applicable in the scenario of processing feedback information.
  • scenarios for collaborative processing of feedback information include:
  • the network device receives the information fed back by multiple terminal devices and performs joint processing on the information fed back by the multiple terminal devices; or, at least one terminal device among the multiple terminal devices can obtain (for example, through D2D) the multiple terminals Information related to the information that needs to be fed back by at least one terminal device other than the at least one terminal device in the device (for example, the information that needs to be fed back, or the information after processing the information that needs to be fed back), and the obtained information (for example, The local information that needs to be fed back and the acquired information related to the information that needs to be fed back by at least one terminal device are fed back to the network device after joint processing; or, the network device side and the terminal device side both perform joint processing.
  • a network device communicates with multiple terminal devices, and the feedback information is processed through cooperation, one or more first neural networks are set on the network device side, and multiple second neural networks are set on the multiple terminal device sides ( For example, each terminal device sets a second neural network) as an example to illustrate that the first device or the second device determines the third neural network and the fourth neural network.
  • one or more first neural networks set on the network device side correspond to multiple second neural networks, which can be understood as the one or more first neural network input information is related to the multiple second neural network output information
  • the network device can be set with one or more A neural network other than a neural network.
  • the network device may determine that one or more second neural networks of the plurality of second neural networks need to be updated, and/or, the network device may determine that one or more first neural networks of the one or more first neural networks
  • the network needs to be updated; for example, a terminal device among multiple terminal devices can also determine whether it needs to be updated.
  • the network device when the network device communicates with multiple terminal devices, the network device is mainly used to determine the feedback information through cooperation. Whether it needs to be updated as an example.
  • the network device when the network device communicates with multiple terminal devices and processes feedback information through cooperation, the network device can update a certain second neural network among the multiple second neural networks, and can also update multiple second neural networks.
  • the network device can respectively instruct the multiple terminal devices that set up the multiple second neural networks to receive the updated neural network, or they can collectively indicate (for example, by broadcasting) The multiple terminal devices that set the multiple second neural networks receive the updated neural network.
  • the one or more first neural networks set on the side of the network device described above can be regarded as a whole, called the overall first neural network, and the one or more first neural networks can be associated through functional modules, where One or more first neural networks can be associated through functional modules, and it can be understood that the output of at least one first neural network of the one or more first neural networks is related to the input of other first neural networks, as shown in the figure As shown in 5(e), the first neural network #1 and the first neural network #2 are associated;
  • the one or more first neural networks set on the network device side may also be one first neural network set on the network device side.
  • determining the third neural network may be determining the network structure corresponding to the third neural network, or determining the network weight corresponding to the third neural network, or determining the network structure corresponding to the third neural network and the third neural network corresponding
  • the network weight of may also be to determine the part of the network weight corresponding to the third neural network (for example, the part of the network weight corresponding to the third neural network is the same as the part of the network weight corresponding to the first neural network, that is, to determine the network corresponding to the third neural network The part of the weight that is different from the network weight corresponding to the first neural network is sufficient), or it can be to determine the part of the network structure corresponding to the third neural network;
  • the determination of the fourth neural network is similar to the determination of the third neural network described above, and will not be repeated here.
  • the determination of the third neural network and the fourth neural network by the first device or the second device in the embodiment of the present application can be understood as the first device or the second device updating the first neural network and the second neural network to obtain the third neural network.
  • Network and fourth neural network can be understood as the first device or the second device updating the first neural network and the second neural network to obtain the third neural network.
  • the first neural network corresponds to the third neural network and is used by the first device or the second device to perform first signal processing
  • the second neural network corresponds to the fourth neural network and is used for the first device or the second device Perform the second signal processing.
  • the first signal processing and the second signal processing are corresponding signal processing, for example, the first signal processing is encoding processing, the second signal processing is decoding processing, or the second signal processing is encoding processing, the first signal processing
  • the processing is decoding processing; for example, the first signal processing is modulation processing, and the second signal processing is demodulation processing, or the second signal processing is modulation processing, and the first signal processing is demodulation processing; for example, the first signal processing is modulation processing.
  • the signal processing is compression processing, and the second signal processing is decompression processing, or the second signal processing is compression processing, and the first signal processing is decompression processing.
  • the foregoing first signal processing may also be a signal processing procedure performed by a neural network that is not completely the same as the third neural network determined by the first device or the second device based on the information of the third neural network;
  • the foregoing second signal processing may also be a signal processing procedure performed by a neural network that is not completely the same as the fourth neural network determined by the first device or the second device based on the information of the fourth neural network.
  • the embodiments of this application do not limit that the third neural network and the fourth neural network determined by the first device or the second device must be applied. For example, it may only be determined to obtain the third neural network and the fourth neural network. Four neural networks, but the first device and/or the second device did not use the determined third neural network and fourth neural network.
  • first neural network and the second neural network are understood as a pair of neural networks that perform the first signal processing and the second signal processing;
  • the third neural network and the fourth neural network are understood as a pair of neural networks that perform the first signal Processing and second signal processing.
  • performing the first signal processing by the first neural network includes: processing the first signal to obtain the second signal;
  • performing the second signal processing by the second neural network includes: processing the second signal to obtain the fifth signal;
  • performing the second signal processing by the second neural network includes: processing the first signal to obtain the second signal;
  • performing the first signal processing by the first neural network includes: processing the second signal to obtain the fifth signal.
  • performing the first signal processing by the third neural network includes: processing the third signal to obtain the fourth signal;
  • performing the second signal processing by the fourth neural network includes: processing the fourth signal to obtain the sixth signal;
  • performing the second signal processing by the fourth neural network includes: processing the third signal to obtain the fourth signal;
  • performing the first signal processing by the third neural network includes: processing the fourth signal to obtain the sixth signal.
  • the foregoing third signal and the first signal may be the same or different signals, for example, channel information at different times (e.g., CSI at different times); for example, they may be channel information at different frequencies (e.g., different For example, it can be channel information at different times and different frequencies (for example, CSI at different times and different frequencies).
  • channel information at different times e.g., CSI at different times
  • frequencies e.g., different
  • it can be channel information at different times and different frequencies (for example, CSI at different times and different frequencies).
  • the first neural network or the second neural network used to process the first signal to obtain the second signal includes:
  • the first neural network or the second neural network processes the first signal to obtain the second signal; or,
  • the first neural network or the second neural network and the first functional module process the first signal to obtain the second signal.
  • the first neural network or the second neural network used to process the second signal to obtain the fifth signal includes:
  • the first neural network or the second neural network processes the second signal to obtain the fifth signal; or,
  • the first neural network or the second neural network and the second functional module process the second signal to obtain the fifth signal.
  • the third neural network or the fourth neural network used to process the third signal to obtain the fourth signal includes:
  • the third neural network or the fourth neural network processes the third signal to obtain the fourth signal; or,
  • the third neural network or the fourth neural network and the third functional module process the third signal to obtain the fourth signal.
  • the third neural network or the fourth neural network used to process the fourth signal to obtain the sixth signal includes:
  • the third neural network or the fourth neural network processes the fourth signal to obtain the sixth signal; or,
  • the third neural network or the fourth neural network and the fourth functional module process the fourth signal to obtain the sixth signal.
  • the first functional module and the third functional module may be the same functional module, or the third functional module may be a module after the first functional module is updated; the second functional module and the fourth functional module may be the same module, or , The fourth functional module is a functional module after the second functional module is updated.
  • the second device when the first device is a terminal device, the second device may be a network device; when the first device is a network device, the second device may be a terminal device.
  • the degree of difference between the above-mentioned first training signal related to the third signal and the second training signal related to the sixth signal satisfies the first condition.
  • the first training signal related to the third signal indicates that in the process of determining the third neural network and the fourth neural network, the first device or the second device that determines the third neural network and the fourth neural network is simulated to obtain the third signal Similar signals (for example, the same size as the third signal, and/or the same type as the third signal);
  • the second training signal related to the sixth signal indicates that during the process of determining the third neural network and the fourth neural network, The first device or the second device of the third neural network and the fourth neural network simulates to obtain a signal similar to the sixth signal (for example, the size is the same as the sixth signal, and/or the type is the same as the sixth signal).
  • the degree of difference involved in this application can be any one of the difference, the mean square error, the normalized mean square error, or the average absolute error, or the degree of difference can also be another third signal related to the third signal.
  • a value of the degree of difference between the training signal and the second training signal related to the sixth signal is not limit the specific form of the degree of difference;
  • the above-mentioned first condition may be that the degree of difference is less than or equal to the first preset value, the absolute value of the degree of difference is less than or equal to the first preset value, or the opposite of the degree of difference is less than or equal to
  • the first preset value may also be a certain value determined based on the degree of difference (for example, the degree of difference + ⁇ ) is less than or equal to the first preset value.
  • the degree of difference is less than or equal to the first preset value in the following text It is explained as an example, but it should be understood that the present application is not limited to this.
  • the above-mentioned similarity between the first training signal related to the third signal and the second training signal related to the sixth signal satisfies the second condition.
  • the similarity involved in this application may be a correlation coefficient, or the similarity may also be other values that can indicate the degree of similarity between the first training signal related to the third signal and the second training signal related to the sixth signal.
  • This application The embodiment does not limit the specific form of the similarity.
  • the above-mentioned second condition may be that the degree of similarity is greater than or equal to the second preset value, or the inverse number of the degree of similarity is greater than or equal to the second preset value, or it may be determined based on the degree of similarity.
  • the value is greater than or equal to the second preset value.
  • the following uses an example in which the similarity is greater than or equal to the second preset value, but it should be understood that the present application is not limited to this.
  • the following describes several ways for the first device to determine to update the first neural network and the second neural network:
  • the first device periodically updates the first neural network and the second neural network. That is to say, in the way, after the time to periodically update the first neural network and the second neural network has arrived, the first device determines that the first neural network and the second neural network need to be updated.
  • the "period” involved in the embodiments of the present application can be understood as a time interval in units of time slots, subframes, or frames.
  • the period can be 10 time slots or 10 subframes.
  • periodical means the time interval.
  • the first neural network and the second neural network can also be updated once in a half cycle, or the first neural network can be updated once in a quarter of the cycle.
  • the "periodical" in the embodiments of the present application is understood as updating at a fixed time interval, but the length of the time interval is not limited.
  • the first device periodically updates the above-mentioned first neural network and the second neural network based on the first preset period T1. If the first device updates the first neural network and the second neural network at time t, then at t At +T1, the first device updates the first neural network and the second neural network.
  • T1 can be predefined by the protocol, or determined by the first device and the second device through negotiation, or it can be a certain period randomly selected by the first device. For how the first device learns the first preset period, this application Not limited.
  • the first device updates the first neural network and the second neural network aperiodically. That is to say, in the second mode, the first device can randomly determine the time to update the first neural network and the second neural network.
  • the first device can update the first neural network and the second neural network at any time, and the first device does not have regularity when updating the first neural network and the second neural network currently in use.
  • the first device receives the first instruction information sent by the second device, the first instruction information instructs to update the first neural network and the second neural network. That is to say, in the third mode, the first device determines the time to update the first neural network and the second neural network after receiving the first instruction information.
  • the method flow shown in FIG. 5(a) further includes S511a.
  • the second device sends the first indication information to the first device.
  • the sending of the first indication information by the sending end device to the receiving end device includes: the local device is in the uplink physical control channel (physical uplink control channel, PUCCH), the downlink physical control channel (physical downlink control channel, PDCCH), physical uplink Link shared channel (physical uplink shared channel, PUSCH), physical downlink shared channel (physical downlink shared channel, PDSCH), uplink authorization UL grant or random access channel (random access channel, RACH) sent to the receiving end device The first indication information.
  • PUCCH physical uplink control channel
  • PDCCH physical downlink control channel
  • Physical uplink shared channel physical uplink shared channel
  • PUSCH physical uplink shared channel
  • PDSCH physical downlink shared channel
  • uplink authorization UL grant or random access channel random access channel
  • the first device determines that the first neural network and the second neural network need to be updated
  • the first device updates the first neural network and the second neural network.
  • the first device may determine whether the first neural network and the second neural network need to be updated according to whether the degree of difference or similarity between the first information and the second information satisfies the third condition. When the difference or similarity between the first information and the second information meets the third condition, the first device determines that the first neural network and the second neural network do not need to be updated; when the first information and the second information are different When the degree of difference or similarity between the two does not satisfy the third condition, the first device determines that the first neural network and the second neural network need to be updated.
  • the network device when a network device communicates with multiple terminal devices and processes feedback information through cooperation, the network device can simulate the input of a certain second neural network and the first neural network from the multiple second neural networks obtained by simulation.
  • the output of the network determines whether one or more second neural networks of the multiple second neural networks need to be updated; or, the network device may be based on a combination of multiple second neural networks in the multiple second neural networks obtained by simulation.
  • the input and the output of the first neural network determine whether one or more second neural networks of the plurality of second neural networks need to be updated.
  • the output of the first neural network is the output of the first neural network; if multiple first neural networks are set on the network device side, the first neural network is The output of is the output of the first neural network corresponding to the second neural network among the plurality of first neural networks.
  • the first information can be understood as the information related to the input information of the first neural network obtained by the simulation of the first device or the second device (such as the first judgment signal related to the first signal mentioned above), and the second information can be understood as the first Information related to the output information of the second neural network obtained by simulation by a device or a second device (such as the second judgment signal related to the fifth signal described above).
  • the first judgment signal related to the first signal indicates that in the process of judging whether the first neural network and the second neural network need to be updated, a signal similar to the first signal (such as the magnitude Same as the first signal, and/or, the type is the same as the first signal); the second judgment signal related to the fifth signal represents the first judgment that is executed in the process of judging whether the first neural network and the second neural network need to be updated.
  • the device or the second device simulates and obtains a signal similar to the fifth signal (for example, the size is the same as the fifth signal, and/or the type is the same as the fifth signal).
  • the aforementioned third condition may be that the degree of difference is less than or equal to the third preset value, the absolute value of the degree of difference is less than or equal to the third preset value, or a certain value determined based on the degree of difference.
  • the degree of difference + ⁇ is less than or equal to the third preset value.
  • the following uses the degree of difference less than or equal to the third preset value to meet the third condition, and the degree of difference greater than the third preset value to not meet the third condition.
  • the third condition is described as an example, but it should be understood that this application is not limited to this.
  • the above-mentioned third condition may be that the similarity is greater than or equal to the fourth preset value, or that a certain value determined based on the similarity is greater than or equal to the fourth preset value.
  • the degree is greater than or equal to the fourth preset value that satisfies the third condition, and the similarity degree is less than the fourth preset value that does not satisfy the third condition as an example for description, but it should be understood that the present application is not limited to this.
  • the first signal is processed by the first neural network and then sent to the receiving device. After the receiving device receives the air interface feedback information, it passes through the second neural network. Processing to obtain the fifth signal.
  • the first information is the input information (first signal) of the first neural network simulated by the first device or the second device
  • the second information is the first device or the second device
  • the output information (fifth signal) of the second neural network obtained by the device simulation, and the output information of the first neural network is the input information of the second neural network;
  • the first signal is processed by the first functional module, it is processed by the first neural network and sent to the receiving device, and the receiving device receives the air interface feedback.
  • the second function module is processed, the second neural network is processed to obtain the fifth signal.
  • the first information is the simulation of the first device or the second device Input information (first signal)
  • the second information is the output information (fifth signal) of the second neural network simulated by the first device or the second device, the output information of the first neural network, after being processed by the second functional module
  • the information is the input information of the second neural network, where the number of the first function module and the second function module can be at least one.
  • the first information is the simulation of the first device or the second device Input information (first signal)
  • the second information is the output information (fifth signal) of the second function module simulated by the first device or the second device, the output information of the first neural network, after being processed by the second neural network
  • the information is the input information of the second functional module, where the number of the first functional module and the second functional module can be at least one.
  • the first signal is processed by the first neural network
  • it is processed by the first functional module and sent to the receiving device side, and the first receiving device receives the air interface
  • the second neural network is processed to obtain the fifth signal.
  • the first information is the first neural network simulated by the first device or the second device
  • the second information is the output information (fifth signal) of the second neural network obtained by the simulation of the first device or the second device.
  • the output information of the first neural network passes through the first functional module and
  • the information processed by the second functional module is the input information of the second neural network, where the number of the first functional module and the second functional module may be at least one.
  • the first information is the first neural network simulated by the first device or the second device Input information (first signal)
  • the second information is the output information (fifth signal) of the second function module simulated by the first device or the second device
  • the output information of the first neural network after being processed by the first function module
  • the information is the input information of the second neural network, where the number of the first function module and the second function module can be at least one.
  • the first signal is processed by the first neural network, it is sent to the receiving device.
  • the receiving device receives the air interface feedback information, it is based on the auxiliary information and The received feedback information is processed by the second neural network to obtain the fifth signal.
  • the first information is the input information (first signal) of the first neural network simulated by the first device or the second device.
  • the second information is the output information (fifth signal) of the second neural network obtained by the simulation of the first device or the second device.
  • the input information of the first neural network obtained by using the foregoing first information as the first device or the second device is also referred to as the input information of the first neural network.
  • a signal, the above-mentioned second information is the output information of the second neural network obtained by the simulation of the first device or the second device, and the fifth signal is taken as an example for description.
  • the case where the first information and the second information are the output/input information of other functional modules is similar to the case where the first information is the input information of the first neural network and the second information is the output information of the second neural network, and will not be described one by one. .
  • the first device determines that the first neural network and the second neural network need to be updated; when the difference between the first information and the second information is less than the third preset value, or when the first information and the second information When the similarity between the information is greater than the fourth preset value, the first device determines that the first neural network and the second neural network do not need to be updated.
  • the first device determines that the first neural network and the second neural network need to be updated; when the difference between the first information and the second information is less than or equal to the third preset value, or when the first information and the second information When the similarity between the information is greater than or equal to the fourth preset value, the first device determines that the first neural network and the second neural network do not need to be updated.
  • the first device may also determine whether the first neural network and the second neural network need to be updated based on the difference or similarity between the first information and the second information and the corresponding preset value.
  • Neural Networks are just an example of this The scope of protection applied for.
  • the first device may also determine whether the first neural network and the second neural network need to be updated based on the difference or similarity between the first information and the second information and the corresponding preset value.
  • the degree of difference or similarity between the first information and the second information can reflect the degree of matching of the first neural network and the second neural network with the current communication environment, for example, the difference between the first information and the second information
  • the degree can reflect the difference between the first information and the second information obtained after the first neural network and the second neural network are processed by the first information, and then the recovery performance of the first neural network and the second neural network can be derived;
  • the similarity between the first information and the second information can reflect the similarity between the first information and the second information obtained after the first information is processed by the first neural network and the second neural network, and then the first information can be derived.
  • the recovery performance of the first neural network and the second neural network can reflect the degree of matching of the first neural network and the second neural network with the current communication environment, for example, the difference between the first information and the second information
  • the degree can reflect the difference between the first information and the second information obtained after the first neural network and the second neural network are processed by the first information, and then the recovery performance of the first neural network and the
  • the degree of difference or similarity between the first information and the second information is within an acceptable range, it is considered that the recovery performance of the first neural network and the second neural network is good, and it can continue to be based on including the first neural network and the second neural network.
  • the communication system formed by the second neural network performs information transmission; if the difference or similarity between the first information and the second information is not within an acceptable range, the recovery performance of the first neural network and the second neural network is considered Poor, the first neural network and the second neural network need to be updated.
  • the method flow shown in Figure 5(a) also includes S512a.
  • the first device determines that the first neural network and the second neural network need to be updated.
  • the embodiments of the present application mainly involve the online update of the first neural network and the second neural network, and the case where the first device determines that the first neural network and the second neural network do not need to be updated will not be repeated.
  • the first device to determine whether the first neural network and the second neural network need to be updated can be triggered based on one of the following possible triggering methods:
  • the first device periodically makes the above judgment.
  • the first device periodically determines whether the above-mentioned first neural network and the second neural network need to be updated based on the second preset period T2, where T2 may be predefined by the protocol, or the first device and the second device
  • T2 may be predefined by the protocol, or the first device and the second device
  • the period determined through negotiation may also be a certain period randomly selected by the first device. This application does not limit how the first device learns the second preset period.
  • Possibility 2 The first device makes the above judgment aperiodically.
  • the first device can make the above-mentioned judgment at any time.
  • the first device can make the above-mentioned judgment based on the second indication information sent by the second device.
  • the second indication information can be called trigger signaling, which is used to trigger the first device to make the above-mentioned judgment.
  • the method flow shown may further include S513a: the second device sends second indication information to the first device.
  • the first device receives the second instruction information sent by the second device, and the second instruction information is used to instruct the first device to determine whether the aforementioned first neural network and the second neural network need to be updated.
  • sending the second indication information by the sending end device to the receiving end device includes: the local device sending the second indication information to the receiving end device on the PUCCH, PDCCH, PUSCH, PDSCH, UL grant, or RACH.
  • the first device can make the above judgment based on its own trigger information.
  • the first device can trigger itself to make the above-mentioned judgment.
  • the second device determines to update the first neural network and the second neural network in a manner similar to that of the first device, except that: when the second device is triggered by the first device to update, the above-mentioned first indication information is sent by the first device To the second device; in the same way, when the second device is triggered by the first device to make a judgment, the above-mentioned second indication information is sent by the first device to the second device, and the other ways to determine the update and the judgment method are the same as those of the first device The same, except that the execution subject changes from the first device to the second device, which will not be repeated here.
  • the above describes how the first device or the second device determines how the first neural network and the second neural network need to be updated.
  • the first device or the second device determines that the first neural network and the second neural network need to be updated, or the first device or the second device directly updates the first neural network and the second neural network periodically or non-periodically.
  • the first device or the second device updates the first neural network and the second neural network to obtain the third neural network and the fourth neural network.
  • the communication system data includes the system data in the recent communication process collected by the first device or the second device, for example, at least one of channel characteristics, signal-to-noise ratio, downlink channel information, uplink channel information, and hybrid automatic repeat request HARQ information kind.
  • the first device or the second device locally stores three neural network pairs #1, neural network pair #2, and neural network pair #3.
  • the neural network pairs shown in this application include those set in the first device The neural network in the second device and the neural network in the second device.
  • the aforementioned neural network pair #1 (e.g., the first neural network and the second neural network) can be applied to the communication system when the communication system data is the communication system data #1
  • the neural network pair #2 e.g., the third neural network
  • the fourth neural network can be applied to the communication system when the communication system data is communication system data #2
  • the neural network pair #3 (for example, the ninth neural network and the tenth neural network) can be applied to the communication system data In the communication system in the case of communication system data #3.
  • the first device or the second device determines that the neural network pair #1 (for example, the first neural network and the second neural network) needs to be updated, and the currently obtained communication system data is communication system data #2
  • the first device Or the second device can update the neural network pair #1 in the communication system to the neural network pair #2, that is, the first neural network is updated to the third neural network, and the second neural network is updated to the fourth neural network.
  • the first device or the second device saves multiple pairs of neural networks that can be used (called the first set), and the neural network in the current communication system is not suitable (for example, , The degree of difference or similarity between the first information and the second information is not within an acceptable range), a suitable pair of neural network pairs can be selected from multiple pairs of neural network pairs that can be used.
  • the adjusted first neural network can be called the third neural network.
  • the network and the adjusted second neural network can be called the fourth neural network.
  • the first neural network corresponds to network architecture #1 and network weight #1
  • the second neural network corresponds to network architecture #2 and network weight #2.
  • the first device or the second device determines that the first neural network and the second neural network need to be updated
  • the first device or the second device determines based on the current communication system data when the network weight corresponding to the first neural network is updated to the network
  • weight #3 and the network weight corresponding to the second neural network are updated to network weight #4
  • the updated first neural network and second neural network can be applied to information feedback.
  • the adjustment of the neural network involved in the second method means that the network architecture corresponding to the neural network does not change. Only the network weight in the network architecture changes, which can be understood as a change on the basis of a certain neural network. The network weight corresponding to the neural network, so as to achieve the purpose of updating the neural network.
  • the ninth neural network and the tenth neural network are selected from the second set based on the communication system data, and the ninth neural network and the tenth neural network are further adjusted to obtain suitable third neural networks and fourth neural networks.
  • the first device or the second device locally stores three neural network pairs #1, neural network pair #2, and neural network pair #3.
  • neural network pair #1 (for example, the first neural network and the second neural network) can be applied to the communication system when the communication system data is communication system data #1
  • the neural network pair #2 (for example, the seventh neural network) Network and the eighth neural network) can be applied to the communication system when the communication system data is communication system data #2
  • the neural network pair #3 (for example, the ninth neural network and the tenth neural network) can be applied to the communication system data In the communication system in the case of communication system data #3.
  • the first device or the second device determines that the neural network pair #1 (for example, the first neural network and the second neural network) needs to be updated, and the currently obtained communication system data is the communication system data #4.
  • the neural network pair #1 for example, the first neural network and the second neural network
  • the first device or the second device can first select the neural network pair #3 from the second set, that is, the first neural network is updated to the ninth neural network, and the second neural network is updated to the tenth neural network; then, the first device Or the second device determines based on the communication system data #4 that when the network weight corresponding to the ninth neural network is updated to network weight #5 and the network weight corresponding to the tenth neural network is updated to network weight #6, the updated network weight
  • the ninth neural network and the tenth neural network can be used in communication systems.
  • the above method 1 to method 3 are only examples of how to update the third neural network and the fourth neural network, and do not constitute any limitation to the protection scope of the present application, and the above update process can also be completed in other ways.
  • the first neural network and the second neural network may be adjusted multiple times to obtain suitable third neural networks and fourth neural networks.
  • the first device or the second device performs the steps of updating the first neural network and the second neural network
  • the third neural network and the fourth neural network cannot be selected and/or adjusted
  • the first device or the second device can choose the information feedback mode to fall back to the non-AI mode; in other words, even if the first device or the second device performs the steps of updating the first neural network and the second neural network, select
  • the first device or the second device can also choose the information feedback mode to fall back to the non-AI mode.
  • the non-AI mode includes modes that do not realize information transmission based on neural networks.
  • the non-AI mode can be understood as using traditional compression and decompression methods to realize information transmission between the first device and the second device;
  • the non-AI mode can be understood as the use of traditional modulation and demodulation methods to achieve information between the first device and the second device Transmission;
  • the non-AI mode can be understood as the use of traditional encoding and decoding methods to implement the first device and the second device Information transfer between.
  • the embodiments of the present application provide The method used to adjust the neural network.
  • the first device and the second device can first fall back to the non-AI mode.
  • Information transmission so as to avoid affecting the timeliness of information transmission.
  • the non-AI mode can be called the second mode
  • the AI mode can be called the first mode. That is, the method flow shown in Figure 5(a) also includes S522a. Return to non-AI mode.
  • the first device or the second device in the embodiment of the present application determines to fall back to the non-AI mode for information transmission including the following two possibilities:
  • Possibility 1 Pre-defined based on the protocol, that is, the protocol stipulates that when the first neural network and the second neural network need to be updated, the information feedback mode can fall back to the non-AI mode.
  • the first device sends a second notification message to the second device, or the second device sends a second notification message to the first device, that is, the method flow shown in FIG. 5(a) further includes S521a, Send the second notification message.
  • the second notification message is used to instruct the peer device to return to the non-AI mode for information feedback.
  • sending the second notification message by the peer device to the local device includes: the local device sends the second notification message to the receiving peer device on the PUCCH, PDCCH, PUSCH, PDSCH, UL grant, or RACH.
  • the opposite device involved in this application includes the first device or the second device.
  • the first device is the local device
  • the second device is the opposite device
  • the first device is the opposite device. ⁇ End equipment.
  • the first device determines that the first neural network and the second neural network need to be updated, and the first device sends the second notification message to the second device; for example, the second device determines that the first neural network and the second neural network need to be updated , The second device sends the second notification message to the first device; for example, the first device determines that the first neural network and the second neural network need to be updated, and the second device sends the second notification message to the first device; for example , The second device determines that the first neural network and the second neural network need to be updated, and the first device sends the second notification message to the second device.
  • the foregoing local device reverting to the non-AI mode for information transmission based on the instruction of the opposite device includes: the local device switches the information transmission mode from the AI mode to the non-AI mode.
  • the timing for the local device to switch the information transmission mode is not limited, and it may be any time after receiving an instruction from the opposite device.
  • the local device receives an instruction from the opposite device and starts to switch the information transmission mode from the AI mode to the non-AI mode within the fourth preset time period after the fourth start time or after the fourth preset time period, where ,
  • the fourth starting moment includes the moment when the local device receives the second notification message from the opposite device.
  • the foregoing peer device returning to the non-AI mode for information transmission includes: the peer device switches the information transmission mode from the AI mode to the non-AI mode.
  • the timing for the above-mentioned peer device to switch the information transmission mode is not limited, and may be any time.
  • the peer device starts to switch the information transmission mode from the AI mode to the non-AI mode within the fourth preset time period after the fourth start time or after the fourth preset time period, where the fourth start time includes the The time when the end device sends the second notification message to the local device.
  • the system shown in Figure 5(c) in the AI mode includes other neural networks (such as the seventh neural network and the eighth neural network) in addition to the first neural network and the second neural network. .
  • the first neural network and the second neural network are used for channel coding and decoding
  • the seventh neural network and the eighth neural network are used for modulation and demodulation.
  • the first device or the second device needs to send the obtained information of the third neural network and/or the information of the fourth neural network to the opposite device. That is, the method flow shown in FIG. 5(a) further includes S520a, sending the information of the third neural network and/or the information of the fourth neural network.
  • the execution subject of S510a is the first device, that is, the first device sends the third neural network information and/or the fourth neural network information to the second device;
  • the execution subject of S510a is the second device, that is, the second device sends the third neural network information and/or the fourth neural network information to the first device.
  • the content sent by S520a includes the following two possibilities:
  • the peer device needs to configure a third neural network, namely S520a, to send the information of the third neural network, or send the information of the third neural network and the information of the fourth neural network;
  • the peer device needs to configure a fourth neural network, namely S520a, to send the information of the fourth neural network, or send the information of the third neural network and the information of the fourth neural network.
  • a fourth neural network namely S520a
  • the first device or the second device in the embodiment of the present application may send the third neural network information or the fourth neural network information of the configuration required by the opposite device to the opposite device, or,
  • the first device or the second device can send the third neural network information and the fourth neural network information to the opposite device, and the subsequent opposite device can determine whether the third neural network needs to be updated based on the third neural network and the fourth neural network.
  • Network and fourth neural network can be used to determine whether the third neural network needs to be updated based on the third neural network and the fourth neural network.
  • the specific content of the information of the third neural network and the information of the fourth neural network are introduced respectively.
  • the following is also divided into three methods for description:
  • the specific content of the third neural network information and the fourth neural network information includes the following possibilities:
  • Possibility 1 When both the first device and the second device store the third neural network locally, and the index of the third neural network in the first device is the same as the index of the third neural network in the second device, then The information of the third neural network can be the index of the third neural network; in the same way, when the first device and the second device both store the fourth neural network locally, and the index of the fourth neural network in the first device is the same as that of the fourth neural network.
  • the index of the neural network in the second device is the same, then the information of the fourth neural network may be the index of the fourth neural network.
  • the index of the third neural network and the index of the fourth neural network are the same.
  • the information of the third neural network and the information of the fourth neural network can be one index, that is, the third neural network needs to be sent. In the case of the information of the neural network and the information of the fourth neural network, just send the one index.
  • index involved in the embodiments of the present application can be understood as an identification (identify, ID), that is, used to identify a certain neural network.
  • the third neural network can be represented by the first network weight and the first network structure
  • the information of the third neural network can be the first network weight and the first network structure
  • the fourth neural network can be used
  • the second network weight and the second network structure are represented, and the information of the fourth neural network may be the second network weight and the second network structure.
  • the neural networks involved in the embodiments of the present application include convolutional neural networks (convolutional neural network, CNN), deep neural networks (deep neural networks, DNN), recurrent neural networks (recurrent neural network, RNN), and other neural networks
  • convolutional neural networks convolutional neural network, CNN
  • deep neural networks deep neural networks
  • recurrent neural networks recurrent neural network, RNN
  • FC fully connected layers
  • the neural networks involved in the embodiments of the present application may include neural networks such as CNN, DNN/FC, or RNN, and may also include neural networks composed of neural networks such as CNN, DNN/FC, and RNN.
  • the neural network involved in the embodiments of this application is composed of DNN/FC and RNN.
  • the network structure indication information in the neural network information involved in the embodiments of the present application may include the neural network type indication information and the neural network structure indication information.
  • the indication information of the neural network type in the network structure indication information is used to indicate that the neural network is CNN;
  • the indication information of the neural network structure in the network structure indication information includes the number of neural network layers and the volume of each layer At least one of the number of cores, the scale of each convolution core, the activation function indication of each layer, and other information.
  • the scale information of each convolution kernel included in the indication information of the neural network structure can be understood as including one corresponding to each layer of the neural network.
  • the activation function indication information of each layer can be understood as including an activation function indication information corresponding to the entire neural network.
  • the indication information of the neural network type in the network structure indication information is used to indicate that the neural network is DNN/FC; the indication information of the neural network structure in the network structure indication information includes the neural network layer At least one of information such as the number, the number of nodes in each layer, and the activation function indication of each layer.
  • the activation function indication information of each layer of the neural network in the neural network is the same, the activation function indication information of each layer included in the indication information of the above neural network structure can be understood as including an activation function indication corresponding to the entire neural network information.
  • the indication information of the neural network type in the network structure indication information is used to indicate that the neural network is an RNN; the indication information of the neural network structure in the network structure indication information includes the position of the RNN loop and the activation function At least one of the information such as instructions.
  • the neural network involved in this application may include multiple CNNs, and when the neural network includes CNN, the corresponding network structure indication information may include multiple sets; similarly, the neural network involved in this application may include If the neural network includes DNN/FC, the corresponding network structure indication information may include multiple sets. The neural network involved in this application may include multiple RNNs. Then, when the neural network includes RNNs as described above, The corresponding network structure indication information may include multiple sets.
  • the neural network involved in this application may also include any combination of the above-mentioned CNN, DNN/FC, and RNN. In this case, the network structure indication information may be a combination of the above-mentioned network structure indication information.
  • the network weight indication information in the neural network information involved in the embodiment of the present application may include weight interpretation rule indication information and weight value arrangement information. Wherein, the weight interpretation rule indication information is optional.
  • the weight interpretation rule indication information may include at least one of the number of weights, the number of quantized bits of each weight, and the weight position sorting rule indication.
  • the foregoing is only an example to illustrate the possible forms of the network structure indication information and the possible specific forms of the network weight indication information corresponding to the neural network when the neural networks are of different types, and do not constitute any of the protection scope of this application. Limited, when the neural network is of other types, the network structure indication information and the network weight indication information can be changed accordingly. In the embodiment of the present application, only the network weight and network architecture corresponding to the neural network can be determined to determine that the neural network is However, there are no restrictions on the specific manifestations of the network weight and network architecture.
  • the third neural network can be represented by the first network weight and the first network structure, and the information of the third neural network can be the index of the first network structure and the first network weight; similarly, when the first device and the second network The device locally stores the second network structure corresponding to the fourth neural network, and the index of the second network structure in the first device is the same as the index of the second network structure in the second device.
  • the fourth neural network can use the second The network weight and the second network structure are expressed, and the information of the fourth neural network may be the index of the second network structure and the second network weight.
  • the index of the first network structure and the index of the second network structure are the same.
  • the index of the first network structure and the index of the second network structure may be one index.
  • the third neural network can be represented by the first network weight and the first network structure.
  • the information of the third neural network can be the index of the first network structure and the index of the first network weight; in the same way, when the first device The second network structure corresponding to the fourth neural network is stored locally with the second device, and the index of the second network structure in the first device is the same as the index of the second network structure in the second device.
  • the fourth neural network can It is represented by the second network weight and the second network structure.
  • the first device and the second device both store the second network weight corresponding to the fourth neural network locally, and the index of the second network weight in the first device is equal to The second network weight has the same index in the second device, and the information of the fourth neural network may be the index of the second network structure and the index of the second network weight.
  • the index of the first network structure is the same as the index of the second network structure.
  • the index of the first network structure and the index of the second network structure can be one index; the index of the first network weight It is the same as the index of the second network weight.
  • the above-mentioned first network weight index and the second network weight index can be one index.
  • the third neural network can be represented by the first network weight and the first network structure, then the third neural network's The information can be the first network weight; in the same way, when the first device and the second device only store the second network structure corresponding to the fourth neural network locally, the fourth neural network can use the second network weight and the second network structure , Then the information of the third neural network can be the weight of the first network.
  • the third neural network can be represented by the first network weight and the first network structure.
  • the first device and The second device locally stores the first network weight corresponding to the third neural network, and the index of the first network weight in the first device is consistent with the index of the first network weight in the second device, then the third neural network’s
  • the information can be the index of the first network weight; in the same way, when the first device and the second device only store the second network structure corresponding to the fourth neural network locally, the fourth neural network can use the second network weight and the second network structure.
  • the network structure indicates that, in addition, the first device and the second device respectively store the second network weight corresponding to the fourth neural network locally, and the index of the second network weight in the first device and the second network weight in the second device If the index is the same, the information of the fourth neural network can be the index of the weight of the second network.
  • the index of the first network weight and the index of the second network weight are the same.
  • the index of the first network weight and the index of the second network weight may be one index.
  • the information of the third neural network can be the weight change amount of the first network; in the same way, when the network structure corresponding to the second neural network and the fourth neural network are the same, and the second neural network corresponds to the fourth network weight
  • the change between the second network weights corresponding to the fourth neural network is the second network weight change, and the information of the fourth neural network may be the second network weight change.
  • the network weight variation indication information in the neural network information involved in the embodiments of the present application may include weight position information, weight interpretation rule indication information, weight value variation amount arrangement information, and weight value arrangement information. one or more.
  • the weight variation indication information includes weight interpretation rule indication information, weight location information, and weight value arrangement information; for example, weight variation indication information includes weight interpretation rule indication information, weight location information, and weight value variation arrangement information; and
  • the weight change amount indication information includes weight interpretation rule indication information and weight value change amount arrangement information; for example, weight change amount indication information includes weight position information and weight value arrangement information; for example, weight change amount indication information includes weight position Information and weight value change amount arrangement information; for example, the weight change amount indication information includes weight value change amount arrangement information.
  • the weight interpretation rule indication information is optional, and the sequence relationship carried by the three types of information, the set of weight positions, the weight interpretation rule indication information, and the arrangement information of the weight values, can be combined arbitrarily, which will not be repeated here.
  • weights involved in the embodiments of this application include the following granularities:
  • the transfer weights of two nodes eg, different layers in the DNN/FC neural network, weights between different nodes
  • convolution kernel weights eg, weights corresponding to different convolution kernels in the CNN neural network
  • RNN ring The transfer weight of (eg, the weights corresponding to different RNN loops in the RNN neural network).
  • weight position data structure includes the following possibilities:
  • the sequence number of the weight layer and the weight sequence number in the layer (for example, the different weights included in the DNN/FC neural network can be determined by the weight layer sequence number and the weight sequence number in the layer).
  • the difference is that the network layer refers to a certain network layer composed of nodes, and the weight layer refers to a certain weight layer composed of transfer weights between different nodes between two network layers;
  • weight layer sequence number and the inner convolution kernel sequence number (for example, the different weights included in the CNN neural network can be determined by the weight layer sequence number and the inner convolution kernel sequence number);
  • the RNN ring start node position and the RNN ring end node position (for example, the different weights included in the RNN neural network can be determined by the RNN ring start node position and the RNN ring end node position).
  • the position of the node is involved (for example, the weight position data structure in the RNN neural network involves the position of the start node of the RNN ring and the position of the end node of the RNN ring), so the node is also given in the embodiment of this application.
  • Location data structure node layer sequence number and node sequence number in the node layer, that is, the position of a node can be determined by the node layer sequence number where the node is located and the node sequence number of the node in the node layer.
  • the weight interpretation rule indication information may include at least one of the number of weights, the number of quantized bits of each weight, and the weight position sorting rule indication.
  • the relative order between the multiple weight positions included in the above set of weight positions can be determined by the weight position sorting rule indication, or can also be predefined by the protocol. The following briefly introduces how to determine multiple weight positions based on the weight position sorting rule indication The relative order between:
  • For the DNN/FC neural network first traverse the weight sequence number in the layer (from small to large or from large to small), and then traverse the weight layer sequence number (from small to large or from large to small);
  • the CNN neural network first traverse the convolution kernel sequence number in the layer (from small to large or from large to small), and then traverse the weight layer sequence number (from small to large or from large to small);
  • the RNN neural network For the RNN neural network, first traverse the end node position of the RNN ring (generally the RNN ring is placed on the DNN/FC, first traverse the node number in the layer from small to large or from large to small, and then traverse the node layer from small to large or from large to small Sequence number), and then traverse the starting node position of the RNN ring (first traverse the node sequence number in the layer from small to large or large to small, and then traverse the node layer sequence number from small to large or large to small); or,
  • the RNN neural network For the RNN neural network, first traverse the starting node position of the RNN ring (generally the RNN ring is placed on the DNN/FC, first traverse the node number in the layer from small to large or from large to small, and then traverse the node layer from small to large or from large to small Sequence number), and then traverse the end node position of the RNN ring (first traverse the node sequence number in the layer from small to large or from large to small, and then traverse the node layer sequence number from small to large or from large to small).
  • the network weight change amount indication information in the neural network information involved in the embodiment of the present application may include the weight position and the weight change amount at the weight position.
  • the network weight variation indication information in the information of the neural network involved in the embodiment of the present application may include location information without weights and weight variation at all locations.
  • the seven possible specific contents of the third neural network information and the fourth neural network information listed in the above method are only examples, and do not constitute any limitation to the scope of protection of this application.
  • the above possibilities are one to seven.
  • the simple modification of the third neural network information and the possible content of the fourth neural network information are also within the protection scope of this application.
  • the third neural network information may be the network structure and the corresponding network structure of the third neural network.
  • the index of the network weight, etc., will not be illustrated one by one here.
  • the information of the fourth neural network is sent corresponding to the above-mentioned update method one, or the information of the third neural network and the fourth neural network are sent, but this application is not limited to the first method.
  • Sending the information of the fourth neural network, or sending the information of the third neural network and the information of the fourth neural network cannot be applied to the scenarios shown in the above-mentioned update method two and/or three, that is to say, when the update method is the above In the case of update methods 2 and/or 3, the information of the fourth neural network is sent, or the method of sending the information of the third neural network and the information of the fourth neural network can also choose the method described in this method. .
  • the first neural network and the second neural network are adjusted to obtain the appropriate third neural network and the fourth neural network.
  • the third neural network adjusted in the second method can also be called the adjusted first neural network
  • the fourth neural network may also be called the adjusted second neural network.
  • the specific content of the third neural network information and the fourth neural network information includes the following possibilities:
  • the adjusted first neural network can be represented by the third network structure and the third network weight, then the third The information of the neural network can be the third network weight; in the same way, when the first device and the second device only store the fourth network structure corresponding to the second neural network locally, the adjusted second neural network can use the fourth network
  • the structure and the weight of the fourth network are expressed, and the information of the fourth neural network may be the weight of the fourth network.
  • the difference between the adjusted first neural network and the first neural network can be changed by the first network weight
  • the information of the third neural network can be the weight change of the third network; similarly, when the first device and the second device only store the fourth network structure corresponding to the second neural network locally, the adjusted first device
  • the difference between the second neural network and the second neural network can be represented by the weight change of the fourth network, and the information of the fourth neural network can be the weight change of the fourth network.
  • the seven possible specific contents of the third neural network information and the fourth neural network information listed in the second method above are just examples and do not constitute any limitation to the scope of protection of this application.
  • the above-mentioned possibility one and possibility two The simple modification of and the possible content of other third neural network information and fourth neural network information are also within the scope of protection of this application.
  • the third neural network information may be the network weight corresponding to the third neural network index, etc., here is no longer an example one by one.
  • the second method mainly explains that the fourth neural network information is sent corresponding to the above-mentioned update method two, or the third neural network information and the fourth neural network information are sent, but this application is not limited to the second method.
  • Sending the information of the fourth neural network, or sending the information of the third neural network and the information of the fourth neural network cannot be applied to the scenarios shown in the above update methods 1 and/or 3, that is, when the update method is the above In the case of update methods 1 and/or 3, the information of the fourth neural network is sent, or the method of sending the information of the third neural network and the information of the fourth neural network can also choose the method described in the second method .
  • update method three select and adjust to obtain the appropriate third neural network and fourth neural network.
  • the specific content of the information of the third neural network and the information of the fourth neural network includes the following possibilities:
  • the third neural network can be represented by the first network structure and the first network weight, then the third neural network's The information may be the first network weight and the third indication information, where the third indication is used to indicate that the first network structure corresponding to the third neural network is the same as the third network structure corresponding to the first neural network, that is, indicating that the network structure has not occurred.
  • the fourth neural network can be represented by the second network structure and the second network weight, then the fourth neural network
  • the information of the network may be the second network weight and the fourth indication information, where the fourth indication is used to indicate that the second network structure corresponding to the fourth neural network is the same as the fourth network structure corresponding to the second neural network, that is, indicating the network structure No changes have occurred.
  • the third neural network can be represented by the first network structure and the first network weight.
  • the first device and The second backup locally stores the first network weight corresponding to the third neural network, and the index of the first network weight in the first device is consistent with the index of the first network weight in the second device, then the third neural network's index
  • the information may be the index of the first network weight and the third indication information, where the third indication is used to indicate that the first network structure corresponding to the third neural network is the same as the third network structure corresponding to the first neural network, that is, the network structure is indicated No change; for the same reason, when the second network structure corresponding to the fourth neural network is the same as the fourth network structure corresponding to the second neural network, the fourth neural network can be represented by the second network structure and the second network weight.
  • the first device and the second backup device respectively store the second network weight corresponding to the fourth neural network, and the index of the second network weight in the first device is consistent with the index of the second network weight in the second device, then the first The information of the fourth neural network may be the index of the second network weight and the fourth indication information, where the fourth indication is used to indicate that the second network structure corresponding to the fourth neural network is the same as the fourth network structure corresponding to the second neural network, It indicates that the network structure has not changed.
  • the index of the first network weight and the index of the second network weight are the same.
  • the index of the first network weight and the index of the second network weight may be one index.
  • the third neural network can be represented by the first network structure and the first network weight, and the first neural network can be The third network structure and the third network weight indicate that the change between the third network weight and the first network weight is the fifth network weight change, and the information of the third neural network can be the fifth network weight change and the first network weight change.
  • Three instructions are sufficient, where the third instruction is used to indicate that the first network structure corresponding to the third neural network is the same as the third network structure corresponding to the first neural network, that is, indicating that the network structure has not changed;
  • the second network structure corresponding to the four neural network is the same as the fourth network structure corresponding to the second neural network.
  • the fourth neural network can be represented by the second network structure and the second network weight
  • the second neural network can be represented by the fourth network structure and
  • the fourth network weight indicates that the change between the fourth network weight and the second network weight is the sixth network weight change
  • the information of the fourth neural network can be the sixth network weight change and the fourth indication information.
  • the fourth indication is used to indicate that the second network structure corresponding to the fourth neural network is the same as the fourth network structure corresponding to the second neural network, that is, indicating that the network structure has not changed.
  • the information of the third neural network may be the index of the third neural network
  • the information of the third neural network may also include instructions Information indicating whether the network structure has changed; for the same reason, when the second network structure corresponding to the fourth neural network and the fourth network structure corresponding to the second neural network are different or the same, both the first device and the second device store locally
  • the fourth neural network, and the index of the fourth neural network in the first device is the same as the index of the fourth neural network in the second device, then the information of the fourth neural network can be the index of the fourth neural network, and the fourth neural network
  • the network information may also include indication information for indicating whether the network structure has changed.
  • the index of the third neural network and the index of the fourth neural network are the same.
  • the information of the third neural network and the information of the fourth neural network are the same index and include whether the network structure has changed Instructions.
  • the third neural network can be represented by the first network structure and the weight of the first network, then the third neural network
  • the information can be the first network structure, the first network weight, and the fifth indication information, where the fifth indication is used to indicate that the first network structure corresponding to the third neural network is different from the third network structure corresponding to the first neural network , Which indicates that the network structure has changed; in the same way, when the second network structure corresponding to the fourth neural network and the fourth network structure corresponding to the second neural network are different, the fourth neural network can use the second network structure and the second network structure
  • the weight indicates that the information of the fourth neural network can be the second network structure, the second network weight, and the sixth indication information, where the sixth indication is used to indicate the second network structure and the second neural network corresponding to the fourth neural network
  • the corresponding fourth network structure is different, that is, it indicates that the network structure has changed.
  • the third neural network can be represented by the first network structure and the first network weight
  • the first device and the second Both devices store the first network structure locally
  • the index of the first network structure in the first device is the same as the index of the first network structure in the second device
  • the information of the third neural network can be the first network weight And the index of the first network structure and the fifth indication information, where the fifth indication is used to indicate that the first network structure corresponding to the third neural network is different from the third network structure corresponding to the first neural network, that is, indicating that the network structure occurs Change
  • the fourth neural network can be represented by the second network structure and the second network weight
  • the first device is stored locally with the second device, and the index of the second network structure in the first device is the same as the index of the second
  • the index of the first network structure and the index of the second network structure are the same.
  • the index of the first network structure and the index of the second network structure may be one index.
  • the third neural network can be represented by the first network structure and the first network weight, and the first device and the first network Both devices locally store the first network structure and the first network weight, and the index of the first network structure in the first device is the same as the index of the first network structure in the second device, and the first network weight is in the first device
  • the index in the first network weight is consistent with the index of the first network weight in the second device
  • the information of the third neural network may be the index of the first network weight, the index of the first network structure and the fifth indication information, where the fifth indication It is used to indicate that the first network structure corresponding to the third neural network is different from the third network structure corresponding to the first neural network, that is, to indicate that the network structure has changed; similarly, when the second network structure and the first network structure corresponding to the fourth neural network are different The fourth network structure corresponding to the two neural networks is different.
  • the fourth neural network can be represented by the second network structure and the second network weight. Both the first device and the second device locally store the second network structure and the second network weight. And the index of the second network structure in the first device is the same as the index of the second network structure in the second device, and the index of the second network weight in the first device is the same as the index of the second network weight in the second device.
  • the information of the fourth neural network may be the index of the second network weight, the index of the second network structure, and the sixth indication information, where the sixth indication is used to indicate the second network structure and the second network structure corresponding to the fourth neural network.
  • the fourth network structure corresponding to the neural network is different, that is, it indicates that the network structure has changed.
  • the index of the first network structure is the same as the index of the second network structure.
  • the index of the first network structure and the index of the second network structure can be one index; the index of the first network weight It is the same as the index of the second network weight.
  • the above-mentioned first network weight index and the second network weight index can be one index.
  • the fourth neural network information is sent corresponding to the above-mentioned update method three, or the third neural network information and the fourth neural network information are sent, but this application is not limited to the third method.
  • Sending the information of the fourth neural network, or sending the information of the third neural network and the information of the fourth neural network cannot be applied to the scenarios shown in the above update methods 1 and/or 2, that is to say, when the update method is the above In the case shown in the update methods 1 and/or 2, the information of the fourth neural network is sent, or the method of sending the information of the third neural network and the information of the fourth neural network can also be selected in the method described in the third method .
  • the first device or the second device may determine to send the third neural network to the opposite device in the following manner Information of the network and/or information of the fourth neural network:
  • the first device or the second device executes the above S510a to obtain the third neural network and the fourth neural network, it sends the first information to the opposite device, and the first information is used to notify the opposite device to receive the information of the third neural network and /Or the information of the fourth neural network, that is, the method flow shown in FIG. 5(a) further includes S530a, sending the first information.
  • the sending end device sending the first information to the receiving end device includes: the local end device sends the first information to the receiving end device on the PUCCH, PDCCH, PUSCH, PDSCH, UL grant, or RACH.
  • the opposite device determines that it can receive the information of the third neural network and/or the information of the fourth neural network from the first device or the second device, as shown in Figure 5(a)
  • the illustrated method flow further includes S531a, sending a first response message, where the first response message is used to indicate that the first device or the second device can send the aforementioned third neural network information and/or fourth neural network information.
  • sending the first response message by the sending end device to the receiving end device includes: the sending end device sending the first response message to the receiving end device on the PUCCH, PDCCH, PUSCH, PDSCH, UL grant, or RACH.
  • the first response message is carried on an uplink grant (UL Grant), and the UL Grant includes a preset field indicating whether the first device or the second device sends the aforementioned third neural network information and / Or the information of the fourth neural network.
  • UL Grant uplink grant
  • the preset field includes 2 bits.
  • the preset field bit value is 00, it means that the first device or the second device does not send the aforementioned third neural network information and fourth neural network information;
  • the preset field bit value 01 means that the first device or the second device does not send the above-mentioned third neural network information, but sends the information of the fourth neural network;
  • the preset field bit value is 10
  • it means that the first device or the second device does not send the above-mentioned information The information of the fourth neural network, but the information of the third neural network is sent; when the preset field bit value is 11, it means that the first device or the second device sends the above-mentioned information of the third neural network and the information of the fourth neural network.
  • the methods S530a and S531a include the following possibilities:
  • the second device needs to configure the third neural network.
  • the first device sends first information to the second device.
  • the first information is used to notify the second device to receive the information of the third neural network, or the first information is used to notify the second device to receive the information of the third neural network.
  • Information and the information of the fourth neural network; S531a is the second device sending the first response message to the first device, the first response message is used to instruct the first device to send the third neural network information, or the first response message Used to instruct the first device to send the information of the third neural network and the information of the fourth neural network.
  • the second device needs to configure the fourth neural network.
  • the first device sends first information to the second device.
  • the first information is used to notify the second device to receive the information of the fourth neural network, or the first information is used to notify the second device to receive the information of the third neural network.
  • Information and information of the fourth neural network; S531a is that the second device sends a first response message to the first device, and the first response message is used to instruct the first device to send the information of the fourth neural network, or the first response message Used to instruct the first device to send the information of the third neural network and the information of the fourth neural network.
  • the second device sends first information to the first device.
  • the first information is used to notify the first device to receive information from the third neural network, or the first information is to notify the first device to receive information from the third neural network.
  • Information and information of the fourth neural network; S531a is that the first device sends a first response message to the second device, the first response message is used to instruct the second device to send the third neural network information, or the first response message Used to instruct the second device to send the information of the third neural network and the information of the fourth neural network.
  • the second device sends first information to the first device.
  • the first information is used to notify the first device to receive information about the fourth neural network, or the first information is used to notify the first device to receive information about the third neural network.
  • Information and information of the fourth neural network; S531a is that the first device sends a first response message to the second device, the first response message is used to instruct the second device to send the fourth neural network information, or the first response message Used to instruct the second device to send the information of the third neural network and the information of the fourth neural network.
  • the first device or the second device executes the above S510a to obtain the third neural network and the fourth neural network, it sends the first information to the opposite device, and the first information is used to notify the opposite device to receive the information of the third neural network and /Or the information of the fourth neural network, that is, the method flow shown in FIG. 5(a) further includes S530a, sending the first information.
  • the peer device may not agree to information transmission based on the AI mode. For example, the peer device sends a second response message to the first device or the second device, and the second response message is used to instruct the first device or the second device to perform information transmission based on the non-AI mode; for example, the peer device receives If no response message is sent to the first device or the second device within a period of time after the first message, the first device or the second device does not receive any response within the fourth preset period of time after sending the first message In the case of a message, the first device or the second device may determine to perform information transmission based on the traditional information transmission mode.
  • the method flow shown in Figure 5(a) further includes S532a.
  • the opposite device sends a second response message to the first device or the second device, or the opposite device does not send the second response message to the first device within a period of time.
  • a device or a second device sends a response message.
  • S530a and S532a in the second method include the following possibilities:
  • the second device needs to configure the third neural network.
  • the first device sends first information to the second device.
  • the first information is used to notify the second device to receive the information of the third neural network, or the first information is used to notify the second device to receive the information of the third neural network.
  • Information and the information of the fourth neural network; S532a is the second device sending a second response message to the first device.
  • the second response message is used to instruct the first device to perform information transmission based on the non-AI mode, or the second device is in a segment Do not send a response message to the first device within the time.
  • the sending end device sending the second response message to the receiving end device includes: the sending end device sending the second response message to the receiving end device on PUCCH, PDCCH, PUSCH, PDSCH, UL grant, or RACH.
  • the second device needs to configure the fourth neural network.
  • the first device sends first information to the second device.
  • the first information is used to notify the second device to receive the information of the fourth neural network, or the first information is used to notify the second device to receive the information of the third neural network.
  • Information and the information of the fourth neural network; S532a is the second device sending a second response message to the first device.
  • the second response message is used to instruct the first device to perform information transmission based on the non-AI mode, or the second device is in a segment Do not send a response message to the first device within the time.
  • the second device updates the first neural network and the second neural network
  • the first device needs to configure the third neural network.
  • the second device sends first information to the first device.
  • the first information is used to notify the first device to receive information from the third neural network, or the first information is to notify the first device to receive information from the third neural network.
  • Information and the information of the fourth neural network; S532a is that the first device sends a second response message to the second device.
  • the second response message is used to instruct the second device to perform information transmission based on the non-AI mode, or the first device is in a segment Do not send a response message to the second device within the time.
  • the second device updates the first neural network and the second neural network
  • the first device needs to configure the fourth neural network.
  • the second device sends first information to the first device.
  • the first information is used to notify the first device to receive information about the fourth neural network, or the first information is used to notify the first device to receive information about the third neural network.
  • Information and the information of the fourth neural network; S532a is that the first device sends a second response message to the second device.
  • the second response message is used to instruct the second device to perform information transmission based on the non-AI mode, or the first device is in a segment Do not send a response message to the second device within the time.
  • the first device or the second device executes the above S510a to obtain the third neural network and the fourth neural network. After receiving the second information, the first device or the second device sends the fourth neural network to the second device. Information and/or information of the third neural network.
  • the first device or the second device in the embodiment of the present application sends the fourth neural network information and/or the first device to the opposite device.
  • the timing of the information of the three neural network is not limited, and it can be any time after receiving the second information.
  • the first device or the second device After the first device or the second device receives the second information sent by the opposite device, it starts to send the second information to the opposite device within the first preset period of time after the first start time or after the first preset period of time.
  • the second information is used to indicate that the peer device can receive the information of the third neural network and/or the information of the fourth neural network, as shown in Figure 5(a)
  • the process of the method further includes S540a, sending the second information.
  • the first starting moment includes any one of the following moments:
  • the moment when the receiving end device receives the first indication information from the sending end device, the moment when the sending end device sends the second notification message to the receiving end device, the moment when the receiving end device receives the second notification message from the sending end device, the sending end device The time when the end device sends the first signaling to the receiving end device, and the time when the receiving end device receives the second signaling from the sending end device, where the first signaling is used to indicate the start of timing, and the second signaling is used to indicate update Start.
  • the sending end device sending the second information to the receiving end device includes: the sending end device sending the second information to the receiving end device on PUCCH, PDCCH, PUSCH, PDSCH, UL grant, or RACH.
  • S540a includes the following possibilities:
  • the second device needs to configure the third neural network.
  • the second device sends second information to the first device.
  • the second information is used to indicate that the second device can receive the information of the third neural network, or the second information is used to indicate that the second device can receive the third neural network.
  • the information of the network and the information of the fourth neural network are used to indicate that the second device can receive the third neural network.
  • the second device needs to configure the fourth neural network.
  • the second device sends second information to the first device.
  • the second information is used to indicate that the second device can receive the information of the fourth neural network, or the second information is used to indicate that the second device can receive the third neural network.
  • the information of the network and the information of the fourth neural network are used to indicate that the second device can receive the third neural network.
  • the first device needs to configure the third neural network.
  • the first device sends second information to the second device.
  • the second information is used to indicate that the first device can receive the information of the third neural network, or the second information is used to indicate that the first device can receive the third neural network.
  • the information of the network and the information of the fourth neural network are used to indicate that the first device can receive the third neural network.
  • the first device needs to configure the fourth neural network.
  • the first device sends second information to the second device.
  • the second information is used to indicate that the first device can receive the information of the fourth neural network, or the second information is used to indicate that the first device can receive the third neural network.
  • the information of the network and the information of the fourth neural network are used to indicate that the first device can receive the third neural network.
  • the first device or the second device executes the foregoing S510a to obtain the third neural network and the fourth neural network, and the first device or the second device sends the third neural network information and/or the fourth neural network information to the opposite device.
  • the timing for the first device or the second device to send the third neural network information and/or the fourth neural network information to the peer device is not limited.
  • the first device or the second device starts to send the third neural network information and/or the fourth neural network to the opposite device within the second preset time period after the second start time or after the second preset time period.
  • the information of the network that is, in the fourth mode, the above-mentioned S520a is executed directly after the preset time period, and the information of the third neural network and/or the information of the fourth neural network is sent.
  • the second starting moment includes any of the following moments:
  • the moment when the receiving end device receives the first indication information from the sending end device, the moment when the sending end device sends the second notification message to the receiving end device, the moment when the receiving end device receives the second notification message from the sending end device, the sending end device The time when the end device sends the first signaling to the receiving end device, and the time when the receiving end device receives the second signaling from the sending end device, where the first signaling is used to indicate the start of timing, and the second signaling is used to indicate update Start.
  • S520a includes the following possibilities:
  • the second device needs to configure the third neural network.
  • the first device sends the information of the third neural network to the second device, or the first device sends the information of the third neural network and the information of the fourth neural network to the second device.
  • the second device needs to configure the fourth neural network.
  • the first device sends the information of the fourth neural network to the second device, or the first device sends the information of the third neural network and the information of the fourth neural network to the second device.
  • the first device needs to configure the third neural network.
  • the second device sends the information of the third neural network to the first device, or the second device sends the information of the third neural network and the information of the fourth neural network to the first device.
  • the first device needs to configure the fourth neural network.
  • the second device sends the information of the fourth neural network to the first device, or the second device sends the information of the third neural network and the information of the fourth neural network to the first device.
  • the first device and the second device in the third and fourth methods can know the time when they start to update the first neural network and the second neural network (for example, the local device that performs the update can know, the opposite device Perceive the occurrence of updates based on the interruption of information transmission or mode changes). After the preset length of time, the first device and the second device learn that the update is complete, and can agree to transmit the updated third neural network information and/or fourth neural network information, without requiring an instruction (e.g., the first Information) Notify the peer device that the update has been completed.
  • an instruction e.g., the first Information
  • the first device or the second device executes the above S510a to obtain the third neural network and the fourth neural network, it sends the first information to the opposite device, and the first information is used to notify the opposite device to receive the information of the third neural network and /Or the information of the fourth neural network, that is, the method flow shown in Figure 5(a) under Mode 5 also includes the above-mentioned S530a, sending the first information.
  • the first device or the second device After the first device or the second device sends the above-mentioned first information, it starts to send the third neural network information and/or the first information to the opposite device within the third preset time period or after the third preset time period.
  • the information of the fourth neural network that is, the method flow shown in Figure 5(a) in the fifth mode also includes the above-mentioned S520a, sending the information of the third neural network and/or the information of the fourth neural network.
  • the difference from the first method above is that after the first device or the second device sends the above first information in the fifth method, it does not need to wait for the response of the opposite device to directly send the updated third nerve to the opposite device after a period of time.
  • Information of the network and/or information of the fourth neural network is not required.
  • S530a and S520a in the fifth mode include the following possibilities:
  • the second device needs to configure the third neural network.
  • the first device sends first information to the second device.
  • the first information is used to notify the second device to receive the information of the third neural network, or the first information is used to notify the second device to receive the information of the third neural network.
  • Information and the information of the fourth neural network; S520a is that the first device sends the information of the third neural network to the second device, or the first device sends the information of the third neural network and the information of the fourth neural network to the second device.
  • the second device needs to configure the fourth neural network.
  • the first device sends first information to the second device.
  • the first information is used to notify the second device to receive the information of the fourth neural network, or the first information is used to notify the second device to receive the information of the third neural network.
  • Information and information of the fourth neural network; S520a is that the first device sends the information of the fourth neural network to the second device, or the first device sends the information of the third neural network and the information of the fourth neural network to the second device.
  • the second device updates the first neural network and the second neural network
  • the first device needs to configure the third neural network.
  • the second device sends first information to the first device.
  • the first information is used to notify the first device to receive information from the third neural network, or the first information is to notify the first device to receive information from the third neural network.
  • Information and information of the fourth neural network; S520a is that the second device sends the information of the third neural network to the first device, or the second device sends the information of the third neural network and the information of the fourth neural network to the first device.
  • the second device updates the first neural network and the second neural network
  • the first device needs to configure the fourth neural network.
  • the second device sends first information to the first device.
  • the first information is used to notify the first device to receive information about the fourth neural network, or the first information is used to notify the first device to receive information about the third neural network.
  • Information and information of the fourth neural network; S520a is that the second device sends the information of the fourth neural network to the first device, or the second device sends the information of the third neural network and the information of the fourth neural network to the first device.
  • the first device and the second device may negotiate to determine whether to transmit the foregoing third neural network information and/or fourth neural network information, or the first device
  • the third neural network information and/or the fourth neural network information can be directly transmitted with the second device without negotiation, which does not constitute any limitation to the protection scope of this application, and it can also be determined whether to transmit by other means
  • the above-mentioned third neural network information and/fourth neural network information is pre-defined by the protocol: after the local device updates the third neural network and the fourth neural network, the agreement stipulates that the peer device needs to accept the update
  • the information of the third neural network and/or the information of the fourth neural network is transmitted based on the updated communication system including the third neural network and the fourth neural network, which will not be illustrated one by one here.
  • the receiving end device can locally determine whether the performance of the third neural network and/or fourth neural network meets the requirements, and decide Whether to use the third neural network and the fourth neural network to transmit information with the sending end device.
  • the receiving end device sends a first notification message to the sending end device, and the first notification message is used to indicate whether the receiving end device uses the fourth neural network, or whether to use the fourth neural network and the third neural network for information transmission.
  • the first notification message may indicate that the AI mode is used for information transmission, that is, the received third neural network and fourth neural network are used.
  • the network and the sending end device perform information transmission, or the first notification message may indicate the use of non-AI mode for information transmission, that is, refuse to use the received third neural network and fourth neural network to perform information transmission with the sending end device; for example,
  • the first notification message can indicate that the AI mode is used for information transmission, that is Switch from using the first neural network and the second neural network for information transmission to using the received third neural network and the fourth neural network for information transmission with the sending end device, or the first notification message may indicate the use of non-AI mode Information transmission, that is, refuse to use the received third neural network and fourth neural network to transmit information with the sending end device and return to the non-AI mode
  • the method flow shown in Figure 5(b) can be applied to the transmission framework shown in Figure 5(d). It can be seen from Figure 5(d) that the terminal device side obtains the downlink channel information to be fed back, and processes the downlink channel information to be fed back through the first compressor to obtain the compressed channel information that needs to be fed back to the air interface, and the network device side obtains this After compressing the channel information, the first decompressor performs decompression processing to obtain the restored downlink channel information.
  • the AI model composed of the first compressor and the first decompressor obtained by training can make the difference or similarity between the recovered downlink channel information and the downlink channel information to be fed back within an acceptable range.
  • the first compressor and the first decompressor are obtained through offline training.
  • the difference may lead to the difference or similarity between the recovered downlink channel information and the downlink channel information to be fed back after the AI model formed by the first compressor and the first decompressor feeds back the downlink channel information to be fed back It is not within the acceptable range.
  • the first compressor and the first decompressor need to be updated online, so that the downlink channel information feedback is performed based on the updated first compressor and the first decompressor
  • the difference or similarity between the restored downlink channel information and the downlink channel information to be fed back is within an acceptable range, the following describes in detail how to update the first compressor and the first solution online with reference to Figure 5(b) compressor.
  • Figure 5(b) is similar to the method flow shown in Figure 5(a) above. The difference is that Figure 5(b) mainly introduces the online update of the channel information feedback scenario.
  • a compressor and a first decompressor are similar to the method flow shown in Figure 5(a) above. The difference is that Figure 5(b) mainly introduces the online update of the channel information feedback scenario.
  • a compressor and a first decompressor are similar to the method flow shown in Figure 5(a) above. The difference is that Figure 5(b) mainly introduces the online update of the channel information feedback scenario.
  • a compressor and a first decompressor are examples of the channel information feedback scenario.
  • the interactive signaling between the first device and the second device in Figure 5(b) is similar to that in Figure 5(a), and can be carried on PUCCH, PDCCH, PUSCH, PDSCH, UL grant or RACH. No longer. Among them, due to the limited resources of PUCCH and PDCCH, signaling interaction on PUSCH or PDSCH can increase the flexibility of the scheme.
  • the first device or the second device in Figure 5(b) can perform the steps of updating the first compressor and the first decompressor, and similar to that described in Figure 5(a), the first device or the second device
  • the second device can update the first compressor and the first decompressor periodically or non-periodically without triggering the update.
  • Figure 5(b) mainly introduces the online update in the channel information feedback scenario from the perspective of the first device determining that the first compressor and the first decompression need to be updated.
  • the method shown in Figure 5(b) includes some or all of the following steps.
  • S510 The first device determines whether the first compressor and the first decompressor need to be updated.
  • the first device includes a terminal device or a network device.
  • the following describes two ways that the first device can be used to determine whether the first compressor and the first decompressor need to be updated:
  • the first device determines the estimated downlink channel information based on the downlink channel information, the first compressor and the first decompressor, and based on the difference or similarity between the downlink channel information and the estimated downlink channel information and the corresponding preset threshold Determine whether the first compressor and the first decompressor need to be updated.
  • the difference degree between the downlink channel information and the estimated downlink channel information is compared with a first preset threshold
  • the similarity between the downlink channel information and the estimated downlink channel information is compared with a second preset threshold.
  • the preset thresholds in this application can also be referred to as thresholds, thresholds, etc.
  • the specific name does not constitute any limitation on the protection scope of this application.
  • the first device determines that the first compressor and the first decompressor need to be updated; when the difference between the downlink channel information and the estimated downlink channel information is less than the first preset threshold In this case, or when the similarity between the downlink channel information and the estimated downlink channel information is greater than the second preset threshold, the first device determines that the first compressor and the first decompressor do not need to be updated.
  • the first device determines that the first compressor and the first decompressor need to be updated; when the difference between the downlink channel information and the estimated downlink channel information is less than or equal to the first preset threshold, or, When the similarity between the downlink channel information and the estimated downlink channel information is greater than or equal to the second preset threshold, the first device determines that the first compressor and the first decompressor do not need to be updated.
  • the above-mentioned determination based on the magnitude relationship between the difference or similarity between the downlink channel information and the estimated downlink channel information and the corresponding preset threshold is only to determine whether the first compressor and the first decompressor need to be updated
  • the first device may also determine whether the first compressor and the first compressor need to be updated based on the further difference or similarity between the downlink channel information and the estimated downlink channel information and the corresponding preset threshold. Decompressor.
  • the specific value of the aforementioned preset threshold may be predefined by the protocol, or determined through negotiation between the network device and the terminal device, may also be determined by the network device, may also be determined by the terminal device, or may be After the three-party device is determined, the network device and the terminal device are notified, and in the embodiment of the present application, there is no restriction on how the first device learns the preset threshold.
  • the first device determines the estimated downlink channel information based on the downlink channel information, the first compressor, and the first decompressor, including the following possibilities:
  • the first device is a terminal device, and the downlink channel information is a downlink channel obtained by the terminal device without compression loss (denoted as H d ).
  • the first compressor is denoted as a function f en
  • the first decompressor is denoted as a function f de .
  • the downlink channel information is compressed by the first compressor and then decompressed by the first decompressor to obtain the above-mentioned estimated downlink channel information.
  • the terminal device knows the above-mentioned first compressor and first decompressor (for example, the terminal device stores the first compressor and the first decompressor locally, or the terminal device knows The first compressor and the network device send the aforementioned first decompressor to the terminal device), so after the terminal device obtains the downlink channel without compression loss, it can be based on the downlink channel without compression loss and the known first compressor And the first decompressor determine the estimated downlink channel information.
  • the terminal device knows the above-mentioned first compressor and first decompressor (for example, the terminal device stores the first compressor and the first decompressor locally, or the terminal device knows The first compressor and the network device send the aforementioned first decompressor to the terminal device), so after the terminal device obtains the downlink channel without compression loss, it can be based on the downlink channel without compression loss and the known first compressor And the first decompressor determine the estimated downlink channel information.
  • the terminal device determining the estimated downlink channel information may be the terminal device calculating the estimated downlink channel information, or the terminal device may look up a table to determine the estimated downlink channel information.
  • the terminal device can calculate the estimated downlink channel information based on the following formula:
  • H d represents the downlink channel obtained by the terminal device without compression loss
  • f en represents the first compressor
  • f en (H d ) represents the result of compression of the downlink channel obtained by the terminal device without compression loss by the first compressor
  • f de represents the first decompressor
  • the terminal device may look up the table based on Table 1 to obtain estimated downlink channel information.
  • the manner in which the terminal equipment determines the estimated downlink channel information is only an example, and does not constitute any limitation to the protection scope of this application.
  • the manner in which other terminal equipment can determine the estimated downlink channel information is also within the protection scope of this application. No more examples one by one.
  • the first device is a network device, and the downlink channel information is a downlink channel (denoted as H d_NB ) obtained by the network device and with compression loss.
  • the first compressor is denoted as a function f en
  • the first decompressor is denoted as a function f de .
  • there is no restriction on how the network device obtains a downlink channel with compression loss You can refer to the solution of obtaining a downlink channel without compression loss by referring to the existing AI method or the traditional channel feedback method, which will not be repeated here.
  • the network device knows the aforementioned first compressor and first decompressor (for example, the network device stores the first compressor and the first decompressor locally, or the network device has already Know the first decompressor and the terminal device sends the above-mentioned first compressor to the network device), so after the network device obtains the downlink channel with compression loss, it can be based on the downlink channel with compression loss and the known first compression And the first decompressor determine the estimated downlink channel information.
  • the network device knows the aforementioned first compressor and first decompressor (for example, the network device stores the first compressor and the first decompressor locally, or the network device has already Know the first decompressor and the terminal device sends the above-mentioned first compressor to the network device), so after the network device obtains the downlink channel with compression loss, it can be based on the downlink channel with compression loss and the known first compression And the first decompressor determine the estimated downlink channel information.
  • the network device determining the estimated downlink channel information may be the estimated downlink channel information calculated by the network device, or the network device may look up a table to determine the estimated downlink channel information.
  • the network device can calculate the estimated downlink channel information based on the following formula:
  • H d_NB represents the downlink channel with compression loss obtained by the network device
  • f en represents the first compressor
  • f en (H d_NB ) represents the result of the compression loss of the downlink channel obtained by the network device by the first compressor
  • f de represents the first decompressor
  • the terminal device may look up the table based on Table 2 to obtain estimated downlink channel information.
  • the manner in which the network device determines the estimated downlink channel information is only an example, and does not constitute any limitation to the protection scope of this application.
  • the manner in which other network devices can determine the estimated downlink channel information is also within the protection scope of this application. No more examples one by one.
  • the first device determines the estimated downlink channel information based on the downlink channel information, the uplink channel information, the first compressor and the first decompressor. Further, judging whether it is necessary to update the first compressor and the first decompressor based on the downlink channel information and the estimated downlink channel information is the same as the above-mentioned method 1, and will not be repeated here. Therefore, the second method mainly explains how to determine the estimated downlink channel information based on the downlink channel information, the uplink channel information, the first compressor and the first decompressor.
  • the first device determines the estimated downlink channel information based on the downlink channel information, the uplink channel information, the first compressor, and the first decompressor, including the following possibilities:
  • the first device is a terminal device, then the downlink channel information is the downlink channel obtained by the terminal device without compression loss (denoted as H d ), and the uplink channel is the uplink channel information (denoted as H d) issued by the network device to the terminal device. u ).
  • the first compressor is denoted as a function f en
  • the first decompressor is denoted as a function f de .
  • Figure 7 (a) Another schematic diagram for determining estimated downlink channel information.
  • the terminal device knows the above-mentioned first compressor and first decompressor. Therefore, after the terminal device obtains the downlink channel and uplink channel information without compression loss, it can be based on the downlink channel without compression loss.
  • the channel, the uplink channel information, and the known first compressor and first decompressor determine the estimated downlink channel information.
  • the terminal device determining the estimated downlink channel information may be the terminal device calculating the estimated downlink channel information, or the terminal device may look up a table to determine the estimated downlink channel information.
  • the terminal device can calculate the estimated downlink channel information based on the following formula:
  • H d represents the downlink channel obtained by the terminal device without compression loss
  • Hu represents the uplink channel information obtained by the terminal device
  • f en represents the first compressor
  • f en (H d ) represents the downlink channel obtained by the terminal device without compression loss.
  • the result of the downlink channel being compressed by the first compressor, f de represents the first decompressor, Represents the estimated downlink channel information calculated by the terminal device.
  • the terminal device may look up the table based on Table 3 to obtain estimated downlink channel information.
  • the first device is a terminal device
  • the downlink channel information is the downlink channel obtained by the terminal device without compression loss (denoted as H d )
  • the upstream channel is the uplink channel information (denoted as H d) issued by the network device to the terminal device u ).
  • the first compressor is denoted as a function f en
  • the first decompressor is denoted as a function f de .
  • the terminal device knows the above-mentioned first compressor and first decompressor. Therefore, after the terminal device obtains the downlink channel and uplink channel information without compression loss, it can be based on the downlink channel without compression loss.
  • the channel, the uplink channel information, and the known first compressor and first decompressor determine the estimated downlink channel information.
  • the terminal device determining the estimated downlink channel information may be the terminal device calculating the estimated downlink channel information, or the terminal device may look up a table to determine the estimated downlink channel information.
  • the terminal device can calculate the estimated downlink channel information based on the following formula:
  • H d represents the downlink channel obtained by the terminal device without compression loss
  • Hu represents the uplink channel information obtained by the terminal device
  • f en represents the first compressor
  • f en (H d ) represents the downlink channel obtained by the terminal device without compression loss.
  • the result of the downlink channel being compressed by the first compressor, f de represents the first decompressor, Represents the estimated downlink channel information calculated by the terminal device.
  • the terminal device can obtain estimated downlink channel information based on a table look-up similar to the above-mentioned Table 3, which will not be repeated here.
  • the manner in which the terminal device determines the estimated downlink channel information in the above manner is only an example, and does not constitute any limitation to the protection scope of this application.
  • the manner in which other terminal devices can determine the estimated downlink channel information is also within the protection scope of this application. This application will not be illustrated one by one.
  • the first device is a network device
  • the downlink channel information is the downlink channel with compression loss obtained by the network device (denoted as H d_NB )
  • the uplink channel information is the uplink channel information measured by the network device (denoted as H u ) .
  • the first compressor is denoted as a function f en
  • the first decompressor is denoted as a function f de .
  • the network device knows the first compressor and the first decompressor mentioned above in three possible times. Therefore, after the network device obtains the downlink channel and uplink channel information with compression loss, it can be based on the compression loss.
  • the downlink channel, the uplink channel information, and the known first compressor and first decompressor determine the estimated downlink channel information.
  • the network device determining the estimated downlink channel information may be the estimated downlink channel information calculated by the network device, or the network device may look up a table to determine the estimated downlink channel information.
  • the network device can calculate the estimated downlink channel information based on the following formula:
  • H d_NB represents the downlink channel compression loss is present in the network device obtained
  • H u denotes an uplink channel information terminal device obtained
  • f en denotes a first compressor
  • f en (H d_NB) indicates the presence of a network device obtained compression loss
  • the result of the downlink channel being compressed by the first compressor, f de represents the first decompressor, Represents the estimated downlink channel information calculated by the network device.
  • the terminal device may look up the table based on Table 4 to obtain estimated downlink channel information.
  • the first device is a network device
  • the downlink channel information is the downlink channel with compression loss obtained by the network device (denoted as H d_NB )
  • the uplink channel information is the uplink channel information measured by the network device (denoted as H u ) .
  • the first compressor is denoted as a function f en
  • the first decompressor is denoted as a function f de .
  • the network device knows the first compressor and the first decompressor mentioned above. Therefore, after the network device obtains the downlink channel and uplink channel information with compression loss, it can be based on the compression loss.
  • the downlink channel, the uplink channel information, and the known first compressor and first decompressor determine the estimated downlink channel information.
  • the network device determining the estimated downlink channel information may be the estimated downlink channel information calculated by the network device, or the network device may look up a table to determine the estimated downlink channel information.
  • the network device can calculate the estimated downlink channel information based on the following formula:
  • H d_NB represents the downlink channel compression loss is present in the network device obtained
  • H u denotes an uplink channel information terminal device obtained
  • f en denotes a first compressor
  • f en (H d_NB) indicates the presence of a network device obtained compression loss
  • the result of the downlink channel being compressed by the first compressor, f de represents the first decompressor, Represents the estimated downlink channel information calculated by the network device.
  • the terminal device can obtain estimated downlink channel information based on a table look-up similar to the above-mentioned Table 4, which will not be repeated here.
  • the manner in which the network device determines the estimated downlink channel information in the above manner is only an example, and does not constitute any limitation to the protection scope of this application.
  • the manner in which other network devices can determine the estimated downlink channel information is also within the protection scope of this application. This application will not be illustrated one by one.
  • the above describes in detail how the first device determines whether the first compressor and the first decompressor need to be updated from the perspective of whether the first device is a terminal device or a network device with reference to FIGS. 6 and 7.
  • the first device determines whether the first compressor and the first decompressor need to be updated is only an example, and does not constitute any limitation to the scope of protection of this application. Simple modifications of the above-mentioned method and other judgment methods It is also within the protection scope of the present application.
  • the first device directly makes a judgment based on the downlink channel information, or the first device judges whether it needs to be updated based on experience information, which will not be described one by one here.
  • the first device in this application may also periodically make the above judgment.
  • the first device periodically determines whether the aforementioned first compressor and first decompressor need to be updated based on the preset period T, where T may be predefined by the protocol, or the first device and the second device pass
  • T may be predefined by the protocol, or the first device and the second device pass
  • the negotiated determination may also be a certain period randomly selected by the first device. This application does not limit how the first device learns the preset period.
  • the first device may make the above-mentioned judgment based on the second indication information sent by the second device.
  • the second indication information may be called trigger signaling, which is used to trigger the first device to make the above-mentioned judgment.
  • the shown method flow may further include S511: the second device sends second indication information to the first device.
  • the first device receives the second instruction information sent by the second device, and the second instruction information is used to instruct the first device to determine whether the aforementioned first compressor and first decompressor need to be updated.
  • the second device when the first device is a terminal device, the second device may be a network device; when the first device is a network device, the second device may be a terminal device.
  • the first device may make the above judgment based on its own trigger information.
  • the first device can trigger itself to make the above-mentioned judgment.
  • the method flow shown in FIG. 5 further includes updating the first compressor and the first decompressor.
  • the first device when the first device determines that the first compressor and the first decompressor do not need to be updated, the first device can continuously determine the first compressor while performing channel information feedback based on the current AI model. And whether the first decompressor needs to be updated, the following mainly introduces the scenarios where the first compressor and the first decompressor need to be updated.
  • the specific update method of the compressor and decompressor can be referred to the first compressor below And the update process of the first decompression, this application will not repeat it.
  • the first compressor and the first decompressor need to be updated (for example, the difference between the downlink channel information and the estimated downlink channel information is greater than or equal to the first preset threshold, or the downlink channel The similarity between the information and the estimated downlink channel information is less than or equal to the second preset threshold), so it will not be repeated here.
  • the first device updates the first compressor and the first decompressor.
  • the first device determines that it needs to be updated, and the first device performs the update of the first compressor and the first decompressor to obtain a suitable second Compressor and second decompressor steps. That is, in terms of mode, the method flow shown in FIG. 5 further includes: S520, the first device updates the first compressor and the first decompressor.
  • the first device to update the first compressor and first decompressor to obtain a suitable second compressor and second decompressor includes the following possibilities:
  • the first device is a terminal device. After the terminal device determines that the first compressor and the first decompressor need to be updated, it is based on the currently obtained downlink channel information, or based on the currently obtained downlink channel information and uplink channel information from the first A suitable second compressor and second decompressor are selected from a set, where the first set includes at least one compressor and at least one decompressor.
  • the terminal device may store at least a pair of compressors and decompressors locally, and channels may be divided according to channel information such as angle expansion and delay expansion, and different channel information corresponds to different compressors and decompressors.
  • channel information such as angle expansion and delay expansion
  • different channel information corresponds to different compressors and decompressors.
  • the terminal device locally stores three pairs of compressor decompressors, compressor #1 and decompressor #1, compressor #2 and decompressor #2, and compressor #3 and decompressor #3, and compressor #1 and decompressor Compressor #1 can be applied to the downlink channel information feedback when the downlink channel information is downlink channel information #1, and compressor #2 and decompressor #2 can be applied to the downlink channel when the downlink channel information is downlink channel information #2 Information feedback, compressor #3 and decompressor #3 can be applied to downlink channel information feedback when the downlink channel information is downlink channel information #3.
  • the terminal device determines that compressor #1 and decompressor #1 need to be updated, and the currently obtained downlink channel information is downlink channel information #2, the terminal device can feed back compressor #1 and decompressor #1 in the framework Respectively update to compressor #2 and decompressor #2.
  • the first device is a terminal device. After the terminal device determines that the first compressor and the first decompressor need to be updated, it adjusts the first device based on the currently obtained downlink channel information, or based on the currently obtained downlink channel information and uplink channel information.
  • a compressor and a first decompressor so that the adjusted first compressor and first decompressor can be used in the channel information feedback framework.
  • the adjusted first compressor can be called a second compressor,
  • the adjusted first decompressor can be referred to as a second decompressor.
  • the terminal device may determine the weights corresponding to the compressor and the decompressor based on the currently obtained downlink channel information, or based on the currently obtained downlink channel information and uplink channel information.
  • the following uses a specific example to illustrate how the terminal device updates the first compressor and the first decompressor:
  • the terminal device determines the network weights corresponding to the compressor to be network weight #3 and decompressor network weight #4 based on the currently obtained downlink channel information, or based on the currently obtained downlink channel information and uplink channel information.
  • the network weight corresponding to the first compressor is network weight #1 and the network weight corresponding to the first decompressor is network weight #2.
  • the network weight corresponding to the first compressor is network weight #1 and adjusted to network weight #3 to obtain a suitable second compressor, and the network weight corresponding to the first decompressor is network weight #2, which is adjusted to network weight #4.
  • a suitable second decompressor is available.
  • the first device is a terminal device. After the terminal device determines that the first compressor and the first decompressor need to be updated, it selects the second device based on the currently obtained downlink channel information, or based on the currently obtained downlink channel information and uplink channel information. Three compressors and third decompressors, and the third compressor and third decompressor are further adjusted to obtain a suitable compressor and decompressor.
  • the compressor obtained after the selection and adjustment can be called the first
  • the second compressor, the decompressor obtained after selection and adjustment can be called the second decompressor.
  • the terminal device can store at least a pair of compressors and decompressors locally, and the channels can be divided according to channel information such as angle expansion and delay expansion, and different channel information can be used to determine different compressors and decompressors. .
  • channel information such as angle expansion and delay expansion
  • different channel information can be used to determine different compressors and decompressors.
  • the terminal device locally stores three pairs of compressor decompressors: compressor #1 and decompressor #1, compressor #2 and decompressor #2, and compressor #3 and decompressor #3.
  • compressor #1 and decompressor #1 can be applied to downlink channel information feedback when the downlink channel information is downlink channel information #1
  • compressor #2 and decompressor #2 can be applied to downlink channel information as downlink channel information#
  • the downlink channel information feedback in case 2 compressor #3 and decompressor #3 can be applied to the downlink channel information feedback in case the downlink channel information is downlink channel information #3.
  • weights corresponding to compressor #3 and decompressor #3 are adjusted to network weight #1 and network weight #2, respectively, which can be applied to downlink channel information feedback and compressor # when the downlink channel information is downlink channel information #4.
  • the weights corresponding to 3 and decompressor #3 are adjusted to network weight #3 and network weight #4, respectively, and then can be applied to the downlink channel information feedback when the downlink channel information is downlink channel information #5.
  • the terminal device can first select a more appropriate compressor# based on downlink channel information #5 3 and decompressor #3, further adjust the corresponding weights of compressor #3 and decompressor #3 in the feedback framework to network weight #3 and network weight #4 based on downlink channel information #5.
  • the first device is a network device.
  • the network device determines that the first compressor and the first decompressor need to be updated, based on the downlink channel information currently obtained, or based on the current Select the appropriate second compressor and second decompressor for the obtained downlink channel information and uplink channel information.
  • the specific update method is similar to the above possible one, except that the execution subject is changed from a terminal device to a network device, and the obtained downlink channel information is the downlink channel information with compression loss, which will not be repeated here.
  • the first device is a network device.
  • the network device determines that the first compressor and the first decompressor need to be updated, based on the downlink channel information currently obtained, or based on the current
  • the obtained downlink channel information and uplink channel information adjust the first compressor and first decompressor so that the adjusted first compressor and first decompressor can be used in the channel information feedback framework.
  • the compressor can be referred to as the second compressor, and the adjusted first decompressor can be referred to as the second decompressor.
  • the specific update method is similar to the foregoing Possibility Two, except that the execution subject is changed from a terminal device to a network device, and the obtained downlink channel information is downlink channel information with compression loss, which will not be repeated here.
  • the first device is a network device.
  • the network device determines that the first compressor and the first decompressor need to be updated, based on the downlink channel information currently obtained, or based on the current
  • the obtained downlink channel information and uplink channel information select a third compressor and a third decompressor, and further adjust the third compressor and third decompressor to obtain a suitable compressor and decompressor.
  • the selection and The compressor obtained after adjustment may be referred to as a second compressor, and the decompressor obtained after selection and adjustment may be referred to as a second decompressor.
  • the specific update method is similar to the above-mentioned possibility three, except that the execution subject is changed from a terminal device to a network device, and the obtained downlink channel information is downlink channel information with compression loss, which is not repeated here.
  • the first device can select the channel feedback mode Fall back to non-AI mode. For example, fall back to the traditional way of channel information feedback based on the precoding matrix.
  • the first device can also select the channel information
  • the feedback mode falls back to non-AI mode. For example, fall back to the traditional way of channel information feedback based on the precoding matrix.
  • the second device updates the first compressor and the first decompressor.
  • the first device determines that it needs to be updated, and the second device executes the step of updating the first compressor and the first decompressor.
  • the first device needs to trigger the second device to perform the steps of updating the first compressor and the first decompressor. That is, in the second mode, the method flow shown in FIG.
  • the device sends the first indication information, S531, and the second device updates the first compressor and the first decompressor.
  • the first indication information is used to instruct the second device to update the first compressor and the first decompressor.
  • the first indication information can be understood as trigger information, which triggers the second device to implement the update step.
  • the second device may also include a terminal device and a network device.
  • the first device is a terminal device in the same manner as in the above method 1, and the terminal device updates the first compressor and the first compressor.
  • the decompressor is similar (possible one to three as shown in mode one), so I won’t repeat it here; in the same way, when the second device is a network device, the The device update first compressor is similar to the first decompressor (possible four to six as shown in mode one), which will not be repeated here.
  • the second device can select the channel feedback mode Fall back to non-AI mode. For example, fall back to the traditional way of channel feedback based on the precoding matrix.
  • the second device can also select the channel information
  • the feedback mode falls back to non-AI mode. For example, fall back to the traditional way of channel feedback based on the precoding matrix.
  • the first device may choose the channel information feedback mode to fall back to the non-AI mode; or, the first device may notify the second The first compressor and the first decompressor of the device need to be updated, and the second device may choose not to update but determine to fall back the channel information feedback mode to the non-AI mode. For example, fall back to the traditional way of channel feedback based on the precoding matrix.
  • the first device updates the first compressor and the first decompressor, it needs to notify the second device of the updated encoder and/or decoder information, that is, the method flow shown in FIG. 5 is still Including: S523, the first device sends the updated encoder and/or decoder information to the second device, so that the second device can learn the updated encoder and/or decoder, so that the first device and the second device The second device realizes aligning the encoder and decoder used for subsequent channel information feedback.
  • the first device may determine according to the capabilities of the second device The specific form of the updated encoder and/or decoder information.
  • the method flow shown in FIG. 5 also includes S521, the first device sends sixth indication information to the second device, and the sixth indication information is used to instruct the second device to report the capability of the second device, where the capability of the second device can be It is called AI capability, for example, computing capability, storage capability, whether to store the AI model of a certain function (such as channel information decompressor), supported neural network structure, supported neural network scale, supported AI communication function; S522: The second device sends second capability information to the first device.
  • AI capability for example, computing capability, storage capability, whether to store the AI model of a certain function (such as channel information decompressor), supported neural network structure, supported neural network scale, supported AI communication function
  • S522 The second device sends second capability information to the first device.
  • the first device learns the capabilities of the second device, it can determine the specific form of the updated encoder and/or decoder information sent to the second device based on the capabilities of the second device.
  • the second device has AI computing capability.
  • the first device sends information about the encoder and/or decoder, it can send the network structure and network weights corresponding to the encoder and/or decoder to the second device.
  • the second device calculates the encoder and/or decoder by itself.
  • FIG. 8 is the information of the updated encoder and/or decoder provided by the embodiment of the present application. Schematic flow chart.
  • S801a The terminal device determines whether the first compressor and the first decompressor need to be updated.
  • how the terminal device determines whether the first compressor and the first decompressor need to be updated can refer to Possibility 1 of Mode 1 and Possibility 1 and Possibility 2 of Mode 2 in S510 above.
  • the method flow shown in (a) in FIG. 8 further includes: S810a, the terminal device is based on the downlink channel information currently obtained, or based on Select the appropriate second compressor and second decompressor for the currently obtained downlink channel information and uplink channel information.
  • how to select the appropriate second compressor and second decompressor for the terminal device in S810a can refer to the description in the possible one of the first manner in S520, which will not be repeated here.
  • Manner 1 The method process shown in (a) in FIG. 8 further includes: S820a: The terminal device sends the first information to the network device.
  • the first information is used to notify the network device to receive the information of the second decompressor; or, the first information is used to notify the network device to receive the information of the second compressor and the information of the second decompressor.
  • the executable steps include the following two possibilities:
  • the network device After receiving the first information, the network device sends a first response message to the terminal device, where the first response message is used to indicate that the terminal device can report information about the second decompressor; or, the first response message is used to indicate The terminal device can report the information of the second compressor and the information of the second decompressor; where it is possible, the method flow shown in (a) in Figure 8 also includes S830a, the network device sends a first response message to the terminal device .
  • the method flow shown in (a) in FIG. 8 further includes S840a.
  • the terminal device sends the information of the second decompressor to the network device, or the terminal device sends the second compressor to the network device.
  • the information and the information of the second decompressor are the information of the second decompressor.
  • the terminal device may send the information of the second decompressor configured by the network device to the network device, or the terminal device may send the information of the selected suitable second compressor to the network device. And the information of the second decompressor, the subsequent network device can re-determine whether the second compressor and the second decompressor need to be updated based on the second compressor and the second decompressor.
  • both the network device and the terminal device store the second decompressor locally, and the index of the second decompressor in the network device is the same as the index of the second decompressor in the terminal device
  • the terminal device can send the information of the second decompressor to the network device by sending the index of the second decompressor; in the same way, when the network device stores the second compressor and the second decompressor locally, and the first
  • the index corresponding to the second compressor and the second decompressor in the network device is the same as the index corresponding to the second compressor and the second decompressor in the terminal device, and the terminal device sends the second compressor's index to the network device.
  • the information and the information of the second decompressor may be the index corresponding to the second compressor and the second decompressor respectively.
  • the index of the second compressor and the index of the second decompressor are the same.
  • the information of the second compressor and the information of the second decompressor may be the same index.
  • the second decompressor may be represented by the first network weight and the first network structure
  • the terminal device may send the information of the second decompressor to the network device by sending the first network weight and the first network structure.
  • the network structure is sufficient; in the same way, the second decompressor can be represented by the first network weight and the first network structure, and the second compressor can be represented by the second network weight and the second network structure, and the terminal device sends to the network device
  • the information of the second decompressor may be sending the first network weight and the first network structure
  • the terminal device sending the second compressor to the network device may be sending the second network weight and the second network structure.
  • the network device and the terminal device respectively store the first network structure corresponding to the second decompressor locally, and the index of the first network structure in the network device is the same as the index of the first network structure in the terminal device.
  • the index is the same
  • the second decompressor can be represented by the first network weight and the first network structure
  • the terminal device sending the information of the second decompressor to the network device can be the index of the first network structure and the first network weight.
  • the network device and the terminal device when the network device and the terminal device locally store the second network structure corresponding to the second compressor and the first network structure corresponding to the second decompressor, and the index and the first network structure corresponding to the second network structure in the network device are stored locally.
  • the index corresponding to the second network structure in the terminal device is the same, and the index corresponding to the first network structure in the network device is the same as the index corresponding to the first network structure in the terminal device.
  • the second decompressor can be represented by the first network weight and the first network structure
  • the second compressor can be represented by the second network weight and the second network structure
  • the terminal device can send the information of the second decompressor to the network device. Sending the first network weight and the index of the first network structure, and the terminal device sending the second compressor to the network device may send the second network weight and the index of the second network structure.
  • the index of the first network structure and the index of the second network structure are the same.
  • the index of the first network structure and the index of the second network structure may be the same index.
  • the network device and the terminal device respectively store the first network structure corresponding to the second decompressor locally, and the index of the first network structure in the network device is the same as the index of the first network structure in the terminal device.
  • the index is the same, and the second decompressor can be represented by the first network weight and the first network structure.
  • the network device and the terminal device respectively store the first network weight corresponding to the second decompressor locally, and the index of the first network weight in the network device is consistent with the index of the first network weight in the terminal device, then the terminal device Sending the information of the second decompressor to the network device may be sending the index of the first network structure and the index of the first network weight;
  • the network device and the terminal device locally store the second network structure corresponding to the second compressor and the first network structure corresponding to the second decompressor, and the index and the first network structure corresponding to the second network structure in the network device are stored locally.
  • the index corresponding to the second network structure in the terminal device is the same, and the index corresponding to the first network structure in the network device is the same as the index corresponding to the first network structure in the terminal device.
  • the second decompressor can be represented by the first network weight and the first network structure
  • the second compressor can be represented by the second network weight and the second network structure.
  • the network device and the terminal device respectively store the first network weight corresponding to the second decompressor locally, and the index of the first network weight in the network device is the same as the index of the first network weight in the terminal device, and the network device and The terminal device locally stores the second network weight corresponding to the second compressor, and the index of the second network weight in the network device is consistent with the index of the second network weight in the terminal device.
  • the terminal device sending the information of the second decompressor to the network device may be sending the index of the first network weight and the index of the first network structure
  • the terminal device sending the second compressor to the network device may be the index of sending the second network weight. And the index of the second network structure.
  • the index of the first network structure and the index of the second network structure are the same.
  • the index of the first network structure and the index of the second network structure can be the same index;
  • the index of the weight is the same as the index of the second network weight.
  • the above-mentioned index of the first network weight and the index of the second network weight may be the same index.
  • the network device and the terminal device locally save only the first network structure corresponding to the second decompressor, and the second decompressor can be represented by the first network weight and the first network structure, then the terminal The device can send the information of the second decompressor to the network device by sending the first network weight; in the same way, when the network device and the terminal device respectively only store the second network structure and the second decompressor corresponding to the second compressor locally,
  • the first network structure corresponding to the compressor, the second decompressor can be represented by the first network weight and the first network structure, and the second compressor can be represented by the second network weight and the second network structure.
  • Sending the information of the second decompressor may be sending the first network weight
  • the terminal device sending the second compressor to the network device may be sending the second network weight.
  • the network device and the terminal device respectively store locally only the first network structure corresponding to the second decompressor, and the second decompressor may be represented by the first network weight and the first network structure.
  • the network device and the terminal device respectively store the first network weight corresponding to the second decompressor locally, and the index of the first network weight in the network device is consistent with the index of the first network weight in the terminal device, then the terminal device Sending the information of the second decompressor to the network device may be sending the index of the first network weight;
  • the network device and the terminal device locally save only the first network structure corresponding to the second decompressor and the second network structure corresponding to the second compressor respectively, and the second decompressor can be represented by the first network weight and the first network structure , The second compressor can be represented by the second network weight and the second network structure.
  • the network device and the terminal device respectively store the first network weight corresponding to the second decompressor locally, and the index of the first network weight in the network device is the same as the index of the first network weight in the terminal device, and the network device and The terminal device locally stores the second network weight corresponding to the second compressor, and the index of the second network weight in the network device is consistent with the index of the second network weight in the terminal device, the terminal device sends the second network weight to the network device.
  • the information of the decompressor may be the index of sending the first network weight
  • the terminal device sending the second compressor to the network device may be the index of sending the second network weight.
  • the index of the first network weight and the index of the second network weight are the same.
  • the index of the first network weight and the index of the second network weight may be the same index.
  • the network device and the terminal device respectively store locally only the first network structure corresponding to the second decompressor, and the second decompressor can be represented by the first network weight and the first network structure.
  • the change amount between the first network weight corresponding to the second decompressor and the third network weight corresponding to the first decompressor is the first network weight change amount, and the terminal device sends the information of the second decompressor to the network device It can just send the first network weight change amount;
  • the network device and the terminal device locally save only the first network structure corresponding to the second decompressor and the second network structure corresponding to the second compressor respectively, and the second decompressor can be represented by the first network weight and the first network structure , The second compressor can be represented by the second network weight and the second network structure.
  • the change between the first network weight corresponding to the second decompressor and the third network weight corresponding to the first decompressor is the first network weight change
  • the change between the fourth network weights corresponding to one compressor is the second network weight change
  • the terminal device can send the information of the second decompressor to the network device by sending the first network weight change
  • the terminal device Sending the second compressor to the network device may be sending the second network weight change amount.
  • the above-mentioned terminal equipment may send the information of the second decompressor, or the information of the second decompressor and the information of the second compressor to the network equipment.
  • the possible implementation manners are only examples, and the scope of protection of the present application is only an example. It does not constitute any limitation.
  • the simple modification of the above method and other terminal equipment will select the appropriate second decompressor information, or the way that the second decompressor information and the second compressor information are reported to the network equipment It is also within the protection scope of the present application.
  • the terminal device reports the network structure and the index of the network weight corresponding to the second decompressor, etc., which will not be illustrated one by one here.
  • the network device may not agree to receive the channel information fed back by the terminal device based on the AI mode. For example, the network device sends a second response message to the terminal device, and the second response message is used to instruct the terminal device to continue Channel information feedback is performed based on the traditional channel information feedback model; for example, if the network device does not send a response message to the terminal device after receiving the first information, the terminal device does not receive it within the fourth preset period of time after sending the first information In the case of any response message, the terminal device may determine to continue to perform channel information feedback based on the traditional channel information feedback model.
  • the method flow shown in (a) in Figure 8 further includes S831a, the network device sends a second response message to the terminal device, or the network device does not send a response to the terminal device within the fourth preset time period information.
  • the protocol predefines that when the first compressor and the first decompressor need to be updated, the network device and the terminal device determine to fall back to the traditional channel information feedback mode; or
  • the terminal device sends the second notification message to the network device, or the network device sends the second notification message to the terminal device.
  • the second notification message is used to notify the peer device to return to the traditional channel information feedback mode from channel information feedback based on the AI mode (the compressor and decompressor in the AI framework are the first compressor and the first decompressor) mode Mode, that is, in the second possibility, the method flow shown in (a) in FIG. 8 further includes S811a, sending a second notification message.
  • the terminal device determines that the first compressor and the first decompressor need to be updated, there is no need to notify the network device to fall back to the traditional channel first.
  • the information feedback method can continue to realize channel information feedback based on the first compressor and the first decompressor.
  • Manner 2 The method process shown in (a) in Figure 8 further includes: S821a, the network device sends second information to the terminal device, where the second information is used to indicate that the network device can receive the information of the second decompressor; or, The second information is used to notify the network device that it can receive the information of the second compressor and the information of the second decompressor.
  • the terminal device After receiving the second information, the terminal device sends the information of the second decompressor to the network device, or sends the information of the second compressor and the information of the second decompressor to the network device.
  • the terminal device in the embodiment of the present application sends the information of the second decompressor to the network device, or sends the information of the second compressor and the second decompressor to the network device.
  • the timing of the information of the decompressor is not limited, and may be any time after receiving the second information.
  • the information of the second decompressor that is, the method flow shown in Fig. 8 (a) in the second mode also includes the above-mentioned S840a.
  • the first mode Possibility one in one, I won’t repeat it here.
  • Manner 3 After the terminal device selects the appropriate second compressor and second decompressor, it starts to send the first time to the network device within the second preset time period after the second start time or after the second preset time period. 2. Information about the decompressor, or sending information about the second compressor and information about the second decompressor to the network device.
  • the terminal device selects the appropriate second compressor and second decompressor, it sends the information of the second decompressor to the network device, or sends the second decompressor information to the network device.
  • the timing of the information of the second compressor and the information of the second decompressor is not limited, and may be any time after a suitable second compressor and second decompressor are selected.
  • the information of the second decompressor that is, the method flow shown in (a) in Figure 8 in the third mode also includes the above-mentioned S840a.
  • the mode The possibility of one is one, so I won't repeat it here.
  • the terminal equipment and network equipment in the second and third methods can know the time when the first compressor and the first decompressor are updated (for example, the terminal The interruption of information transmission or the pattern of perceiving the occurrence of updates). After the preset time period, the terminal device and the second network device know that the update is complete, and can agree to transmit the updated information of the second decompressor, or the information of the second compressor and the second decompressor, and no longer need it An instruction (for example, the above-mentioned first message) informs the network device that the update has been completed.
  • An instruction for example, the above-mentioned first message
  • Manner 4 The method process shown in (a) in FIG. 8 further includes: S820a: The terminal device sends the first information to the network device.
  • the first information is used to notify the network device to receive the information of the second decompressor; or, the first information is used to notify the network device to receive the information of the second compressor and the information of the second decompressor.
  • the terminal device After sending the first information to the network device, the terminal device starts to send the information of the second decompressor to the network device within the third preset time period or after the third preset time period, or sends the second compressor to the network device
  • the information of the second compressor and the information of the second decompressor that is, the method flow shown in (a) of Figure 8 in the fourth mode also includes the above-mentioned S840a, specifically sending the information of the second compressor and the information of the second decompressor Refer to Possibility One in Method One, which will not be repeated here.
  • Case 1 The method flow shown in (a) in FIG. 8 also includes S812a, the network device sends a CSI-RS to the terminal device; S813a, the terminal device performs channel measurement based on the CSI-RS to obtain downlink channel information. That is, in S801a, the terminal device determines whether the first compressor and the first decompressor need to be updated, which can be based on the terminal device's channel measurement based on CSI-RS to obtain downlink channel information and the known first compressor and decompressor to determine of.
  • Case 2 The method flow shown in (a) in Figure 8 further includes S814a.
  • the terminal device initiates measurement and sends a third notification message to the network device, where the terminal device initiates the measurement and sends the third notification message to the network device for the purpose of To obtain uplink channel information, it should be understood that the uplink channel information obtained by the terminal device from the network device side has a compression loss.
  • the terminal device may start measurement because the terminal device perceives deterioration of downlink throughput.
  • S815a the network device sends the CSI-RS and uplink channel information to the terminal device;
  • S816a the terminal device performs channel measurement based on the CSI-RS to obtain the downlink channel information.
  • the terminal device determines whether the first compressor and the first decompressor need to be updated, which can be based on the terminal device's channel measurement based on CSI-RS to obtain downlink channel information, and the uplink received from the network device with compression loss Channel information and the known first compressor and decompressor to determine.
  • S801b The terminal device judges whether the first compressor and the first decompressor need to be updated.
  • how the terminal device determines whether the first compressor and the first decompressor need to be updated can refer to Possibility 1 of Mode 1 and Possibility 1 and Possibility 2 of Mode 2 in S510.
  • the method flow shown in (b) in FIG. 8 further includes: S810b, the terminal device is based on the downlink channel information currently obtained, or based on The currently obtained downlink channel information and uplink channel information adjust the first compressor and the first decompressor.
  • how the terminal device adjusts the first compressor and the first decompressor in S810b can refer to the description in Possibility Two in S520, which will not be repeated here.
  • the adjusted first decompressor can also be referred to as the second decompressor
  • the adjusted first compressor can also be referred to as the second compressor.
  • the method process shown in (b) in FIG. 8 further includes: S820b: The terminal device sends a fourth notification message to the network device.
  • the fourth notification message is used to notify the network device to receive the information of the adjusted first decompressor; or, the fourth notification message is used to notify the network device to receive the information of the adjusted first compressor and the first decompressor Information.
  • the fourth notification message in Figure 8 (b) has similar functions to the first information in Figure 8 (a), and both inform the network device to receive the updated compressor information and solution. Compressor information, so the fourth notification message in this application can also be referred to as the first information.
  • the executable steps include the following two possibilities:
  • the network device After receiving the fourth notification message, the network device sends a fourth response message to the terminal device, where the fourth response message is used to instruct the terminal device to report the adjusted first decompressor information; or, the fourth response The message is used to indicate that the terminal device can report the adjusted information of the first compressor and the first decompressor; in this way, the method flow shown in (b) in Figure 8 also includes S830b, the network device sends The terminal device sends a fourth response message.
  • the fourth response message may also be referred to as the first response message.
  • the method flow shown in (b) of FIG. 8 further includes S840b.
  • the terminal device sends the adjusted information of the first decompressor to the network device, or the terminal device sends the adjusted information to the network device. Complete the information of the first compressor and the information of the first decompressor.
  • the terminal device may send the adjusted first decompressor information of the configuration required by the network device to the network device, or the terminal device may send the adjusted first compressor to the network device And the information of the first decompressor, the subsequent network device can re-determine whether the adjusted first compressor and first decompressor need to be updated based on the adjusted first compressor and first decompressor.
  • the network device and the terminal device locally save only the third network structure corresponding to the first decompressor, and the adjusted first decompressor can be represented by the third network structure and the third network weight. Then the terminal device may send the adjusted information of the first decompressor to the network device by sending the third network weight;
  • the adjusted first decompressor can use the third network
  • the structure and the third network weight indicate that the adjusted first compressor can be expressed by the fourth network structure and the fourth network weight, and the terminal device may send the adjusted first decompressor information to the network device.
  • the network weight and the terminal device sending the adjusted information of the first compressor to the network device may be sending the fourth network weight.
  • the adjusted first decompressor is called the second decompressor
  • the above-mentioned third network structure is called the first network structure
  • the third network weight is called the first network weight
  • the finished first compressor is called the second compressor
  • the above-mentioned fourth network structure is called the second network structure
  • the fourth network weight is called the second network weight
  • the first network weight variation indicates that the terminal device may send the first decompressor to the network device by sending the first network weight variation
  • the adjusted first decompressor and first decompressor can be expressed by the change in the first network weight, and the difference between the adjusted first compressor and the first compressor can be expressed by the second network weight change, and the terminal device sends the adjustment to the network device.
  • the first decompressor may send the first network weight variation, and the terminal device may send the adjusted information of the first compressor to the network device may send the second network weight variation.
  • the above-mentioned terminal device sends the adjusted information of the first decompressor, or the adjusted information of the first compressor and the first compressor to the network device, and the possible implementation manners are only examples.
  • the scope of protection of the present application does not constitute any limitation.
  • the simple modification of the above method and other terminal equipment will adjust the information of the first decompressor, or the information of the adjusted first compressor and the information of the first compressor.
  • the manner of reporting to the network device is also within the protection scope of the present application. For example, the terminal device reports the network structure and the index of the network weight corresponding to the adjusted first decompressor, etc., which will not be illustrated one by one here.
  • the network device may not agree to receive the channel information fed back by the terminal device based on the AI mode. For example, the network device sends a third response message to the terminal device, and the third response message is used to instruct the terminal device Continue to perform channel information feedback based on the traditional channel information feedback model; for example, if the network device does not send a response message to the terminal device after receiving the fourth notification message, the terminal device does not send a response message within the preset time period after sending the fourth notification message. Upon receiving any response message, the terminal device can determine to continue channel information feedback based on the traditional channel information feedback model
  • the method flow shown in (b) in Figure 8 further includes S831b, the network device sends a third response message to the terminal device, or the network device does not send a response to the terminal device within the fourth preset time period information.
  • the third response message is similar to the second response message in (a) in FIG. 8, and can also be referred to as a second response message.
  • the protocol predefines that when the first compressor and the first decompressor need to be updated, the network device and the terminal device determine to fall back to the traditional channel information feedback mode; or
  • the terminal device sends the second notification message to the network device, or the network device sends the second notification message to the terminal device.
  • the second notification message is used to notify the peer device to return to the traditional channel information feedback mode from channel information feedback based on the AI mode (the compressor and decompressor in the AI framework are the first compressor and the first decompressor) mode Mode, that is, in the second possibility, the method flow shown in (b) in FIG. 8 further includes S811b, sending a second notification message.
  • the terminal device does not need to notify the network device to fall back to the traditional channel information feedback method after determining that it needs to be updated, which may be based on the first compressor and The first decompressor continues to implement channel information feedback.
  • Manner 2 The method flow shown in (b) in Figure 8 further includes: S821b, the network device sends second information to the terminal device, and the second information is used to indicate that the network device can receive information about the adjusted first decompressor Or, the second information is used to notify the network device that it can receive information about the adjusted first decompressor and information about the adjusted first compressor.
  • the terminal device After receiving the second information, the terminal device sends the adjusted first decompressor information to the network device, or sends the adjusted first decompressor information and the adjusted first compressor information to the network device. information.
  • the terminal device in the embodiment of the present application sends the adjusted first decompressor information to the network device, or sends the adjusted first decompressor to the network device.
  • the timing of the information of the compressor and the information of the adjusted first compressor is not limited, and may be any time after receiving the second information.
  • the first preset period of time after the first start time or after the first preset period of time start to send the adjusted first decompressor information to the network device, or send the adjusted first decompressor to the network device.
  • the information of the decompressor and the information of the adjusted first compressor that is, the method flow shown in (b) in Figure 8 in the second mode also includes the above-mentioned S840b, specifically sending the adjusted first decompressor For the information and the adjusted information of the first compressor, please refer to Possibility One in Mode 1, which will not be repeated here.
  • Mode 3 After the terminal device has adjusted the first compressor and the first decompressor, it sends the adjusted first decompressor information to the network device, or sends the adjusted first decompressor information to the network device And the information of the adjusted first compressor.
  • the terminal device sends the adjusted first decompressor information to the network device, or sends the adjusted first decompressor information to the network device.
  • the timing of the information of the first decompressor and the information of the adjusted first compressor is not limited, and may be any time after the adjustment of the first compressor and the first decompressor.
  • the second preset period of time after the second starting time or after the second preset period of time start to send the adjusted first decompressor information to the network device, or send the adjusted first decompressor to the network device
  • the information of the first decompressor and the information of the adjusted first compressor that is, the method flow shown in (b) in Figure 8 in the second mode also includes the above-mentioned S840b, specifically sending the adjusted first decompressor For the information of and the adjusted information of the first compressor, please refer to Possibility One in Mode 1, which will not be repeated here.
  • the terminal equipment and network equipment in the second and third methods can know the time when the first compressor and the first decompressor are updated (for example, the terminal The interruption of information transmission or the pattern of perceiving the occurrence of updates). After the preset time period, the terminal device and the second network device know that the update is complete, and can agree to transmit the updated information of the second decompressor, or the information of the second compressor and the second decompressor, and no longer need it An instruction (for example, the above-mentioned first message) informs the network device that the update has been completed.
  • An instruction for example, the above-mentioned first message
  • Manner 4 The method process shown in (b) in FIG. 8 further includes: S820b: The terminal device sends a fourth notification message to the network device.
  • the fourth notification message is used to notify the network device to receive information about the adjusted first decompressor; or, the fourth notification message is used to notify the network device to receive information about the adjusted first decompressor and the adjusted first decompressor.
  • a compressor information is used to notify the network device to receive information about the adjusted first decompressor and the adjusted first decompressor.
  • the terminal device After sending the fourth notification message to the network device, the terminal device starts to send the adjusted first decompressor information to the network device within the third preset time period or after the third preset time period, or sends the adjustment to the network device
  • the information of the completed first decompressor and the information of the adjusted first compressor that is, the method flow shown in (b) in Figure 8 in the second mode also includes the above-mentioned S840b, specifically sending the adjusted first For the information of the decompressor and the information of the adjusted first compressor, please refer to Possibility One in Mode 1, which will not be repeated here.
  • Case 1 The method process shown in (b) of FIG. 8 also includes S812b, the network device sends a CSI-RS to the terminal device; S813b, the terminal device performs channel measurement based on the CSI-RS to obtain downlink channel information. That is, in S801b mentioned above, the terminal device determines whether the first compressor and the first decompressor need to be updated, which can be based on the terminal device's channel measurement based on CSI-RS to obtain the downlink channel information and the known first compressor and decompressor to determine of.
  • Case 2 The method process shown in (b) in Figure 8 also includes S814b, the terminal device starts measurement and sends a third notification message to the network device; S815b, the network device sends CSI-RS and uplink channel information to the terminal device; S813b , The terminal device performs channel measurement based on the CSI-RS to obtain downlink channel information. That is to say in S801b, the terminal device determines whether the first compressor and the first decompressor need to be updated, which can be based on the terminal device's channel measurement based on CSI-RS to obtain downlink channel information, and the uplink received from the network device with compression loss Channel information and the known first compressor and decompressor to determine.
  • S801c The terminal device determines whether the first compressor and the first decompressor need to be updated.
  • how the terminal device determines whether the first compressor and the first decompressor need to be updated can refer to Possibility 1 of Mode 1 and Possibility 1 and Possibility 2 of Mode 2 in S510 above.
  • the method flow shown in (c) of FIG. 8 further includes: S810c, the terminal device is based on the downlink channel information currently obtained, or based on The currently obtained downlink channel information and uplink channel information select a compressor and a decompressor, and further adjust the compressor and decompressor to obtain a suitable third compressor and third decompressor.
  • the third decompressor may also be referred to as the second decompressor, and the third compressor may also be referred to as the second compressor.
  • the third compressor may also be referred to as the second compressor.
  • Manner 1 The method process shown in (c) in FIG. 8 further includes: S820c: The terminal device sends a fifth notification message to the network device.
  • the fifth notification message is used to notify the network device to receive the information of the third decompressor; or, the first information is used to notify the network device to receive the information of the third compressor and the information of the third decompressor.
  • the fifth notification message in Figure 8 (c) has similar functions to the first information in Figure 8 (a), and both inform the network device to receive the updated compressor information and solution. Compressor information, so the fifth notification message in this application can also be referred to as the first information.
  • the executable steps include the following two possibilities:
  • the network device After receiving the fifth notification message, the network device sends a fifth response message to the terminal device, where the fifth response message is used to indicate that the terminal device can report information about the third decompressor; or, the fifth response message is used for Instruct the terminal device to report the information of the third compressor and the information of the third decompressor; in this way, the method flow shown in (c) in Figure 8 also includes S830c, the network device sends a fifth response to the terminal device information.
  • the fifth response message may also be referred to as the first response message.
  • the method flow shown in (c) of FIG. 8 further includes S840c.
  • the terminal device sends the information of the third decompressor to the network device, or the terminal device sends the third compressor to the network device.
  • the information and the third decompressor information are provided.
  • the terminal device may send the information of the third decompressor configured by the network device to the network device, or the terminal device may send the information of the third compressor and the third decompressor to the network device. Compressor information, the subsequent network device can re-determine whether the third compressor and the third decompressor need to be updated based on the third compressor and the third decompressor.
  • the fifth network structure corresponding to the above-mentioned third decompressor is the same as the third network structure corresponding to the first decompressor.
  • the third decompressor can be represented by the fifth network structure and the fifth network weight, and the terminal device can send the third decompressor information to the network device by sending the fifth network weight and the third indication information.
  • the three indications are used to indicate that the fifth network structure corresponding to the third decompressor is the same as the third network structure corresponding to the first decompressor, that is, to indicate that the network structure has not changed;
  • the fifth network structure corresponding to the aforementioned third decompressor is the same as the third network structure corresponding to the first decompressor
  • the sixth network structure corresponding to the aforementioned third compressor is the same as the third network structure corresponding to the first compressor.
  • the four network structures are the same.
  • the third decompressor can be represented by the fifth network structure and the fifth network weight
  • the third decompressor can be represented by the sixth network structure and the sixth network weight
  • the terminal device sends the information of the third decompressor to the network device It may be to send the fifth network weight and the third instruction information.
  • the terminal device may send the third compressor information to the network device by sending the sixth network weight and the fourth instruction information, where the third instruction information is used for Indicate that the fifth network structure corresponding to the third decompressor is the same as the third network structure corresponding to the first decompressor, and the fourth indication is used to indicate the sixth network structure corresponding to the third compressor and the corresponding third network structure of the first decompressor.
  • the fourth network structure is the same, and the third indication information and the fourth indication information may be the same piece of indication information, that is, indicating that the network structure has not changed.
  • the adjusted third decompressor is called the second decompressor
  • the above-mentioned fifth network structure is called the first network structure
  • the fifth network weight is called the first network weight
  • the above-mentioned sixth network structure is called the second network structure
  • the sixth network weight is called the second network weight
  • the fifth network structure corresponding to the above-mentioned third decompressor is the same as the third network structure corresponding to the first decompressor.
  • the third decompressor can be represented by a fifth network structure and a fifth network weight.
  • the network device and the terminal device respectively store the fifth network weight corresponding to the third decompressor locally, and the index of the fifth network weight in the network device is the same as the index of the fifth network weight in the terminal device, then the terminal device Sending the information of the third decompressor to the network device may be the index of the fifth network weight and the third indication information, where the third indication is used to indicate the fifth network structure and the first information corresponding to the third decompressor.
  • the third network structure corresponding to the decompressor is the same, that is, it indicates that the network structure has not changed;
  • the fifth network structure corresponding to the aforementioned third decompressor is the same as the third network structure corresponding to the first decompressor
  • the sixth network structure corresponding to the aforementioned third compressor is the same as the third network structure corresponding to the first compressor.
  • the four network structures are the same.
  • the third decompressor can be represented by the fifth network structure and the fifth network weight
  • the third compressor can be represented by the sixth network structure and the sixth network weight.
  • the network device and the terminal device respectively store the fifth network weight corresponding to the third decompressor locally, and the index of the fifth network weight in the network device is the same as the index of the fifth network weight in the terminal device, and the network device and The terminal device locally stores the sixth network weight corresponding to the third compressor, and the index of the sixth network weight in the network device is the same as the index of the sixth network weight in the terminal device, the terminal device sends the third network weight to the network device.
  • the information of the decompressor can be the index of the fifth network weight and the third instruction information.
  • the terminal device can send the information of the third compressor to the network device can be the index of the sixth network weight and the fourth instruction information.
  • the third indication is used to indicate that the fifth network structure corresponding to the third decompressor is the same as the third network structure corresponding to the first decompressor
  • the fourth indication is used to indicate the sixth network structure corresponding to the third compressor Similar to the fourth network structure corresponding to the first decompressor
  • the third indication information and the fourth indication information may be the same piece of indication information, that is, indicating that the network structure has not changed.
  • the index of the fifth network weight and the index of the sixth network weight are the same.
  • the index of the fifth network weight and the index of the sixth network weight may be the same index.
  • the fifth network structure corresponding to the above-mentioned third decompressor is the same as the third network structure corresponding to the first decompressor.
  • the third decompressor can be represented by the fifth network structure and the fifth network weight
  • the first decompressor can be represented by the third network structure and the third network weight
  • the amount of change between the third network weight and the fifth network weight Is the third network weight change amount
  • the terminal device may send the third decompressor information to the network device by sending the third network weight change amount and the third indication information, where the third indication is used to indicate the third solution
  • the fifth network structure corresponding to the compressor is the same as the third network structure corresponding to the first decompressor, which indicates that the network structure has not changed;
  • the fifth network structure corresponding to the aforementioned third decompressor is the same as the third network structure corresponding to the first decompressor
  • the sixth network structure corresponding to the aforementioned third compressor is the same as the third network structure corresponding to the first compressor.
  • the four network structures are the same.
  • the third decompressor can be represented by the fifth network structure and the fifth network weight
  • the first decompressor can be represented by the third network structure and the third network weight, and the amount of change between the third network weight and the fifth network weight Is the third network weight change
  • the third compressor can be represented by the sixth network structure and the sixth network weight
  • the first compressor can be represented by the fourth network structure and the fourth network weight
  • the change between the weights is the fourth network weight change.
  • the terminal device sending the third decompressor information to the network device may be sending the third network weight variation and the third indication information.
  • the terminal device sending the third compressor information to the network device may be sending the fourth network weight.
  • the amount of change and the fourth indication information are sufficient, where the third indication is used to indicate that the fifth network structure corresponding to the third decompressor is the same as the third network structure corresponding to the first decompressor, and the fourth indication is used to indicate the first decompressor.
  • the sixth network structure corresponding to the three compressors is the same as the fourth network structure corresponding to the first decompressor, and the third indication information and the fourth indication information may be the same piece of indication information, that is, indicating that the network structure has not changed.
  • the fifth network structure corresponding to the above-mentioned third decompressor and the third network structure corresponding to the first decompressor are different or the same.
  • Both the network device and the terminal device store a third decompressor locally, and the index of the third decompressor in the network device is the same as the index of the third decompressor in the terminal device, then the terminal device sends the third decompressor to the network device.
  • Sending the information of the third decompressor may be sending the index of the third decompressor, and may also send indication information for indicating whether the network structure has changed;
  • the fifth network structure corresponding to the aforementioned third decompressor is different or the same as the third network structure corresponding to the first decompressor, and the sixth network structure corresponding to the aforementioned third compressor is different from the first compressor.
  • the corresponding fourth network structure is different or the same.
  • the network device stores the third compressor and the third decompressor locally, and the index corresponding to the third compressor and the third decompressor in the network device is respectively corresponding to the third compressor and the third decompressor in the terminal device If the corresponding indexes are the same, the terminal device can send the information of the third compressor and the information of the third decompressor to the network device by sending the indexes corresponding to the third compressor and the third decompressor, or send Indication information used to indicate whether the network structure has changed.
  • the index of the third compressor and the index of the third decompressor are the same.
  • the information of the third compressor and the information of the third decompressor are the same index and whether the network structure occurs Change instructions.
  • the fifth network structure corresponding to the above-mentioned third decompressor is different from the third network structure corresponding to the first decompressor.
  • the third decompressor can be represented by the fifth network weight and the fifth network structure, and the terminal device sending the third decompressor information to the network device may be sending the fifth network weight, the fifth network structure and the fifth instruction information, namely Yes, the fifth indication information is used to indicate that the network structure has changed;
  • the fifth network structure corresponding to the aforementioned third decompressor is different from the third network structure corresponding to the first decompressor
  • the sixth network structure corresponding to the aforementioned third compressor is different from that of the first compressor.
  • the fourth network structure is different.
  • the third decompressor can be represented by the fifth network weight and the fifth network structure
  • the third compressor can be represented by the sixth network weight and the sixth network structure
  • the terminal device can send the third decompressor information to the network device. It is enough to send the fifth network weight, the fifth network structure and the fifth instruction information.
  • the terminal device can send the third compressor information to the network device by sending the sixth network weight, the sixth network structure and the sixth instruction information.
  • the fifth indication information and the sixth indication information may be a piece of information used to indicate that the network structure has changed.
  • the fifth network structure corresponding to the above-mentioned third decompressor is different from the third network structure corresponding to the first decompressor.
  • the third decompressor can be represented by a fifth network weight and a fifth network structure.
  • Both the network device and the terminal device store the fifth network structure locally, and the index of the fifth network structure in the network device is the same as the index of the fifth network structure in the terminal device, the terminal device sends the third decompressor to the network device
  • the information in may be sending the fifth network weight, the index of the fifth network structure, and the fifth indication information, and the fifth indication information is used to indicate that the network structure has changed;
  • the fifth network structure corresponding to the aforementioned third decompressor is different from the third network structure corresponding to the first decompressor
  • the sixth network structure corresponding to the aforementioned third compressor is different from that of the first compressor.
  • the fourth network structure is different.
  • the third decompressor can be represented by the fifth network weight and the fifth network structure
  • the third compressor can be represented by the sixth network weight and the sixth network structure.
  • both the network equipment and the terminal equipment store the fifth network structure locally, and the index of the fifth network structure in the network equipment is the same as the index of the fifth network structure in the terminal equipment; both the network equipment and the terminal equipment store the fifth network structure locally.
  • Five network structures, and the index of the sixth network structure in the network device is the same as the index of the sixth network structure in the terminal device.
  • the terminal device sending the third decompressor information to the network device may be sending the fifth network weight, the index of the fifth network structure and the fifth indication information
  • the terminal device sending the third compressor information to the network device may be It is sufficient to send the sixth network weight, the index of the sixth network structure, and the sixth indication information, where the fifth indication information and the sixth indication information may be a piece of information for indicating that the network structure has changed.
  • the index of the fifth network structure and the index of the sixth network structure are the same.
  • the index of the fifth network structure and the index of the sixth network structure may be one index.
  • the fifth network structure corresponding to the above-mentioned third decompressor is different from the third network structure corresponding to the first decompressor.
  • the third decompressor can be represented by a fifth network weight and a fifth network structure.
  • both the network equipment and the terminal equipment store the fifth network structure locally
  • the index of the fifth network structure in the network equipment is the same as the index of the fifth network structure in the terminal equipment; both the network equipment and the terminal equipment store the fifth network structure locally.
  • the terminal device may send the third decompressor information to the network device by sending the fifth network weight index, the index of the fifth network structure, and the fifth indication information, the fifth indication information is used to indicate that the network structure has changed;
  • the fifth network structure corresponding to the aforementioned third decompressor is different from the third network structure corresponding to the first decompressor
  • the sixth network structure corresponding to the aforementioned third compressor is different from that of the first compressor.
  • the fourth network structure is different.
  • the third decompressor can be represented by the fifth network weight and the fifth network structure
  • the third compressor can be represented by the sixth network weight and the sixth network structure.
  • both the network equipment and the terminal equipment store the fifth network structure locally, and the index of the fifth network structure in the network equipment is the same as the index of the fifth network structure in the terminal equipment; both the network equipment and the terminal equipment store the fifth network structure locally.
  • Five network weights, and the index of the fifth network weight in the network device is the same as the index of the fifth network weight in the terminal device; both the network device and the terminal device store the sixth network structure locally, and the sixth network structure is in the network device
  • the index in is consistent with the index of the sixth network structure in the terminal device; both the network device and the terminal device store the sixth network weight locally, and the index of the sixth network weight in the network device and the sixth network weight in the terminal device The index is the same.
  • the terminal device can send the information of the third decompressor to the network device by sending the index of the fifth network weight, the index of the fifth network structure and the fifth instruction information.
  • the terminal device can send the information of the third compressor to the network device.
  • the index of the sixth network weight, the index of the sixth network structure, and the sixth indication information may be sent, where the fifth indication information and the sixth indication information may be a piece of information for indicating that the network structure has changed.
  • the index of the fifth network structure is the same as the index of the sixth network structure.
  • the index of the fifth network structure and the index of the sixth network structure can be one index; the index of the fifth network weight It is the same as the index of the sixth network weight.
  • the above-mentioned fifth network weight index and the sixth network weight index can be one index.
  • the terminal device sending the third decompressor, or the third compressor and the third decompressor to the network device are only examples, and do not constitute any limitation to the protection scope of this application.
  • the simple modification of the above method and the third decompressor that other terminal equipment has adjusted, or the way in which the third compressor and the third decompressor are reported to the network equipment are also within the protection scope of this application, for example, the terminal The device reports the network structure corresponding to the third decompressor and the index of the network weight, etc., which will not be illustrated one by one here.
  • the network device may not agree to receive the channel information fed back by the terminal device based on the AI mode. For example, the network device sends a sixth response message to the terminal device, and the sixth response message is used to instruct the terminal device Continue to perform channel information feedback based on the traditional channel information feedback model; for example, if the network device does not send a response message to the terminal device after receiving the first information, the terminal device does not receive the response message within the preset time period after sending the fifth notification message. In the case of any response message, the terminal device can determine to continue channel information feedback based on the traditional channel information feedback model
  • the method flow shown in (c) in Figure 8 further includes S831c, the network device sends a sixth response message to the terminal device, or the network device does not send a response to the terminal device within the fourth preset period of time information.
  • the sixth response message is similar to the second response message in (a) in FIG. 8, and can also be referred to as the sixth response message.
  • the protocol predefines that when the first compressor and the first decompressor need to be updated, the network device and the terminal device determine to fall back to the traditional channel information feedback mode; or
  • the terminal device sends the second notification message to the network device, or the network device sends the second notification message to the terminal device.
  • the second notification message is used to notify the peer device to return to the traditional channel information feedback mode from channel information feedback based on the AI mode (the compressor and decompressor in the AI framework are the first compressor and the first decompressor) mode Mode, that is, in the second possibility, the method flow shown in (c) in FIG. 8 further includes S811c, sending a second notification message.
  • the terminal device does not need to notify the network device to fall back to the traditional channel information feedback mode after determining that it needs to be updated, which may be based on the first compressor and The first decompressor continues to implement channel information feedback.
  • Manner 2 The method process shown in (c) in Figure 8 further includes: S821c, the network device sends second information to the terminal device, where the second information is used to indicate that the network device can receive information from the third decompressor; or, The second information is used to notify the network device that it can receive the information of the third decompressor and the information of the third compressor.
  • the terminal device After receiving the second information, the terminal device sends the information of the third decompressor to the network device, or sends the information of the third decompressor and the information of the third compressor to the network device.
  • the terminal device in the embodiment of the present application sends the information of the third decompressor to the network device, or sends the information of the third decompressor and the third compression to the network device.
  • the timing of the information of the device is not limited, and it can be any time after receiving the second information.
  • the information of the third compressor that is, the method flow shown in (c) in Figure 8 in the second mode also includes the above-mentioned S840c.
  • sending the third decompressor information and the third compressor information please refer to the first mode Possibility one, I won’t repeat it here.
  • Manner 3 After determining the third compressor and the third decompressor, the terminal device starts to send the information of the third decompressor to the network device, or sends the information of the third decompressor and the third compressor to the network device Information.
  • the terminal device after determining the third compressor and the third decompressor in the embodiment of the present application, the terminal device sends the third decompressor information to the network device, or sends the third decompressor to the network device
  • the timing of the information of and the information of the third compressor is not limited, and may be any time after the terminal device determines the third compressor and the third decompressor.
  • the information of the third compressor that is, the method flow shown in (c) in Figure 8 in the second mode also includes the above-mentioned S840c.
  • the information about the third decompressor and the third compressor please refer to the first mode. Possibility one in one, I won’t repeat it here.
  • the terminal equipment and network equipment in the second and third methods can know the time when the first compressor and the first decompressor are updated (for example, the terminal The interruption of information transmission or the pattern of perceiving the occurrence of updates). After the preset time period, the terminal device and the second network device know that the update is complete, and can agree to transmit the updated information of the second decompressor, or the information of the second compressor and the second decompressor, and no longer need it An instruction (for example, the above-mentioned first message) informs the network device that the update has been completed.
  • An instruction for example, the above-mentioned first message
  • Manner 4 The method flow shown in (c) in FIG. 8 further includes: S820c, the terminal device sends a fifth notification message to the network device.
  • the fifth notification message is used to notify the network device to receive the information of the third decompressor; or, the fourth notification message is used to notify the network device to receive the information of the third compressor and the third decompressor.
  • the terminal device After sending the fifth notification message to the network device, the terminal device starts to send the third decompressor information to the network device within the third preset time period or after the third preset time period, or sends the third decompressor information to the network device
  • the information of the third decompressor and the information of the third compressor that is, the method flow shown in (c) of Figure 8 in the second mode also includes the above-mentioned S840c, specifically sending the information of the third decompressor and the information of the third compressor Refer to Possibility One in Method One, which will not be repeated here.
  • Case 1 The method flow shown in (c) in FIG. 8 also includes S812c, the network device sends a CSI-RS to the terminal device; S813c, the terminal device performs channel measurement based on the CSI-RS to obtain downlink channel information. That is, in the above S801c, the terminal device determines whether the first compressor and the first decompressor need to be updated, which can be based on the terminal device's channel measurement based on CSI-RS to obtain the downlink channel information and the known first compressor and decompressor to determine of.
  • Case 2 The method process shown in (c) in Figure 8 also includes S814c, the terminal device starts measurement and sends a third notification message to the network device; S815c, the network device sends CSI-RS and uplink channel information to the terminal device; S816c , The terminal device performs channel measurement based on the CSI-RS to obtain downlink channel information. That is, in S801c mentioned above, the terminal device determines whether the first compressor and the first decompressor need to be updated. It can be based on the terminal device's channel measurement based on CSI-RS to obtain downlink channel information, and the uplink received from the network device with compression loss. Channel information and the known first compressor and decompressor to determine.
  • S801d The network device determines whether the first compressor and the first decompressor need to be updated.
  • how the network device determines whether the first compressor and the first decompressor need to be updated in S801d may refer to Possibility Two of Method 1 and Possibility Three and Possibility Four of Method Two in S510.
  • the method flow shown in (d) in FIG. 8 further includes: S810d, the network device is based on the downlink channel information currently obtained, or, based on Select the appropriate second compressor and second decompressor for the currently obtained downlink channel information and uplink channel information.
  • the method flow shown in (d) in FIG. 8 subsequently includes the following possible methods:
  • the method flow shown in (d) in FIG. 8 further includes: S820d, the network device sends the first information to the terminal device.
  • the first information is used to notify the terminal device to receive the information of the second decompressor; or, the first information is used to notify the terminal device to receive the information of the second compressor and the information of the second decompressor.
  • the executable steps include the following two possibilities:
  • the terminal device After receiving the first information, the terminal device sends a first response message to the network device, where the first response message is used to indicate that the network device can issue the second decompressor; or, the first response message is used to indicate the network
  • the device may report the second compressor and the second decompressor; in this possibility, the method flow shown in (d) in FIG. 8 further includes S830d, where the terminal device sends a first response message to the network device.
  • the method flow shown in (d) of FIG. 8 further includes S840d, the network device sends the information of the second compressor to the terminal device, or the network device sends the information of the second compressor to the terminal device. Information and information of the second decompressor.
  • the network device may send the information of the second compressor configured by the terminal device to the terminal device, or the network device may send the information of the selected suitable second compressor and the terminal device to the terminal device. Based on the information of the second decompressor, the subsequent terminal device can re-determine whether the second compressor and the second decompressor need to be updated based on the second compressor and the second decompressor.
  • both the terminal device and the network device store the second compressor locally, and the index of the second compressor in the terminal device is the same as the index of the second compressor in the network device, then the network device reports to the terminal
  • the device can send the second compressor by sending the index of the second compressor; in the same way, when the terminal device stores the second compressor and the second decompressor locally, and the second compressor and the second decompressor are in
  • the respective index in the terminal device is the same as the index corresponding to the second compressor and the second decompressor in the network device, and the network device can send the information of the second compressor and the information of the second decompressor to the terminal device. Just send the index corresponding to the second compressor and the second decompressor respectively.
  • the index of the second compressor and the index of the second decompressor are the same.
  • the index of the second compressor and the index of the second decompressor may be one index.
  • the second compressor may be represented by the second network weight and the second network structure, and the network device may send the second compressor to the terminal device by sending the second network weight and the second network structure.
  • the second decompressor can be represented by the first network weight and the first network structure
  • the second compressor can be represented by the second network weight and the second network structure
  • the network device sends the second decompressor to the terminal device
  • the compressor information may be sending the first network weight and the first network structure
  • the network device sending the second compressor to the terminal device may be sending the second network weight and the second network structure.
  • the terminal device and the network device respectively store the second network structure corresponding to the second compressor locally, and the index of the second network structure in the terminal device and the index of the second network structure in the network device
  • the second compressor can be represented by the second network weight and the second network structure, and the network device can send the second compressor to the terminal device by sending the index of the second network structure and the second network weight
  • the terminal device and the network device locally store the second network structure corresponding to the second compressor and the first network structure corresponding to the second decompressor, and the index and the first network structure corresponding to the second network structure in the terminal device are stored locally.
  • the corresponding index of the network structure in the network device is the same, and the index corresponding to the first network structure in the terminal device is the same as the index corresponding to the first network structure in the network device.
  • the second decompressor can be represented by the first network weight and the first network structure
  • the second compressor can be represented by the second network weight and the second network structure
  • the network device can send the information of the second decompressor to the terminal device.
  • Sending the first network weight and the index of the first network structure, and the network device sending the second compressor to the terminal device may send the second network weight and the index of the second network structure.
  • the index of the foregoing second network structure is the same as the index of the first network structure, and in this case, the index of the foregoing second network structure and the index of the first network structure may be one index.
  • the terminal device and the network device respectively store the second network structure corresponding to the second compressor locally, and the index of the second network structure in the terminal device and the index of the second network structure in the network device
  • the second compressor can be represented by the second network weight and the second network structure.
  • the terminal device and the network device respectively store the second network weight corresponding to the second compressor locally, and the index of the second network weight in the terminal device is the same as the index of the second network weight in the network device, then the network device The terminal device may send the second compressor by sending the index of the second network structure and the index of the second network weight;
  • the terminal device and the network device locally store the second network structure corresponding to the second compressor and the first network structure corresponding to the second decompressor, and the index and the first network structure corresponding to the second network structure in the terminal device are stored locally.
  • the corresponding index of the network structure in the network device is the same, and the index corresponding to the first network structure in the terminal device is the same as the index corresponding to the first network structure in the network device.
  • the second decompressor can be represented by the first network weight and the first network structure
  • the second compressor can be represented by the second network weight and the second network structure.
  • the terminal device and the network device respectively store the first network weight corresponding to the second decompressor locally, and the index of the first network weight in the terminal device is the same as the index of the first network weight in the network device, and the terminal device and The network device locally stores the second network weight corresponding to the second compressor, and the index of the second network weight in the terminal device is the same as the index of the second network weight in the network device.
  • the network device sending the second decompressor information to the terminal device may be sending the index of the first network weight and the index of the first network structure
  • the network device sending the second compressor to the terminal device may be sending the index of the second network weight. And the index of the second network structure.
  • the index of the first network structure is the same as the index of the second network structure.
  • the index of the first network structure and the index of the second network structure can be one index; the index of the first network weight It is the same as the index of the second network weight.
  • the above-mentioned first network weight index and the second network weight index can be one index.
  • the terminal device and the network device locally store only the second network structure corresponding to the second compressor
  • the second compressor can be represented by the second network weight and the second network structure
  • the network device The terminal device can send the second compressor by sending the second network weight; in the same way, when the terminal device and the network device locally save only the second network structure corresponding to the second compressor and the second network structure corresponding to the second decompressor, respectively.
  • a network structure, the second decompressor can be represented by the first network weight and the first network structure, and the second compressor can be represented by the second network weight and the second network structure, then the network device sends the second decompression to the terminal device
  • the information of the device may be sending the first network weight, and the network device may send the second network weight to the terminal device.
  • the terminal device and the network device locally save only the second network structure corresponding to the second compressor, and the second compressor may be represented by the second network weight and the second network structure.
  • the terminal device and the network device respectively store the second network weight corresponding to the second compressor locally, and the index of the second network weight in the terminal device is the same as the index of the second network weight in the network device, then the network device The terminal device may send the second compressor by sending the index of the second network weight;
  • the terminal device and the network device locally save only the first network structure corresponding to the second decompressor and the second network structure corresponding to the second compressor, and the second decompressor can use the first network weight and the first network weight.
  • the network structure is represented, and the second compressor can be represented by a second network weight and a second network structure.
  • the terminal device and the network device respectively store the first network weight corresponding to the second decompressor locally, and the index of the first network weight in the terminal device is the same as the index of the first network weight in the network device, and the terminal device and The network device locally stores the second network weight corresponding to the second compressor, and the index of the second network weight in the terminal device is the same as the index of the second network weight in the network device, the network device sends the second network weight to the terminal device.
  • the information of the decompressor may be the index of sending the first network weight
  • the network device sending the second compressor to the terminal device may be the index of sending the second network weight.
  • the index of the first network weight and the index of the second network weight are the same.
  • the above-mentioned index of the first network weight and the index of the second network weight may be one index.
  • the network device and the terminal device respectively store only the second network structure corresponding to the second compressor locally, and the second compressor can be represented by the second network weight and the second network structure.
  • the second The change between the second network weight corresponding to the compressor and the fourth network weight corresponding to the first compressor is the second network weight change, and the network device sending the second compressor information to the terminal device may be sending the second The amount of network weight change is enough;
  • the network device and the terminal device locally save only the first network structure corresponding to the second decompressor and the second network structure corresponding to the second compressor respectively, and the second decompressor can be represented by the first network weight and the first network structure , The second compressor can be represented by the second network weight and the second network structure.
  • the change between the first network weight corresponding to the second decompressor and the third network weight corresponding to the first decompressor is the first network weight change
  • the change between the fourth network weights corresponding to one compressor is the second network weight change
  • the network device can send the second decompressor information to the terminal device by sending the first network weight change.
  • the device may send the second compressor to the terminal device by sending the second network weight change amount.
  • the above-mentioned network equipment may send the information of the second compressor, or the information of the second decompressor and the information of the second compressor to the terminal equipment.
  • the possible implementation manners are only examples, which do not affect the scope of protection of this application.
  • the simple modification of the above method and other network equipment will select the information of the appropriate second compressor, or the information of the second decompressor and the information of the second compressor are also notified to the terminal device.
  • the network device notifies the terminal device of the network structure and the index of the network weight corresponding to the second compressor, which will not be illustrated one by one here.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本申请提供了一种用于调整神经网络的方法和装置。该用于调整神经网络的方法涉及第一神经网络和第二神经网络,该方法包括:首先确定当前使用的神经网络是否需要更新,如果需要更新的话,第一设备可以自行完成更新或者指示第二设备完成更新,也就是说可以通过更新AI模型中的神经网络得到更合适的神经网络,提高基于AI模型进行信息传输的精度。

Description

用于调整神经网络的方法和装置 技术领域
本申请涉及通信领域,并且更具体地,涉及一种用于调整神经网络的方法和装置。
背景技术
在大规模多输入多输出(massive multiple-input multiple-output,Massive MIMO)技术中,网络设备可通过预编码减小多个终端设备之间的干扰以及同一终端设备的多个信号流之间的干扰,有利于提高信号质量,实现空分复用,提高频谱利用率。终端设备可以基于下行信道测量来确定预编码矩阵,并通过反馈,使得网络设备获得与终端设备确定的预编码矩阵相同或相近的预编码矩阵。
目前,已知一种基于人工智能(artificial intelligence,AI)的信息传输的方法,终端设备和网络设备通过联合训练,得到第一神经网络和第二神经网络,其中,第一神经网络设置于终端设备侧、第二神经网络设置于网络设备侧,包括该第一神经网络和第二神经网络的通信系统称为AI框架。具体地,该基于AI的信息传输的方法包括:终端设备获得待反馈的信息,该待反馈的信息至少通过第一神经网络处理得到需要通过空口反馈的信息,终端设备再通过反馈链路将该需要通过空口反馈的信息反馈给网络设备,网络设备收到终端设备反馈的信息,至少通过第二神经网络的处理,以恢复终端设备侧待反馈的信息。然而,通过这种基于AI的信息传输的方式,离线训练得到的第一神经网络和第二神经网络直接应用在信息在线传输的过程中,如果终端设备发生位移可能会导致通信环境与第一神经网络和第二神经网络的匹配程度降低,从而影响基于训练好的第一神经网络和第二神经网络进行信息传输的性能。
发明内容
本申请提供一种用于调整神经网络的方法和装置,以期提高信息传输的性能。
第一方面,提供了一种用于调整神经网络的方法,该用于调整神经网络的方法可以由第一设备执行,或者,也可以由设置于第一设备中的芯片或电路执行,本申请对此不作限定,为了便于描述,下面以由第一设备执行为例进行说明。
该用于调整神经网络的方法涉及第一神经网络和第二神经网络,其中,第一神经网络应用于第一设备侧,第二神经网络应用于第二设备侧,该方法包括:该第一设备确定第三神经网络和第四神经网络,该第三神经网络和该第四神经网络分别对应该第一神经网络和该第二神经网络;该第一设备向该第二设备发送该第四神经网络的信息,其中,该第一神经网络或该第三神经网络用于该第一设备进行第一信号处理,该第二神经网络或该第四神经网络用于该第二设备进行第二信号处理,该第二信号处理与该第一信号处理相对应。
根据本申请实施例提供的用于调整神经网络的方法,第一设备可以确定新的神经网络,并将新的神经网络的信息发送给第二设备,使得第一设备和第二设备可以通过新的神经网络进行信息传输,能够提高信息传输的性能。
结合第一方面,在第一方面的某些实现方式中,该第一神经网络或该第三神经网络用于该第一设备进行第一信号处理包括:该第一神经网络用于该第一设备对第一信号进行处理得到第二信号;该第三神经网络用于该第一设备对第三信号进行处理得到第四信号;
可选地,该第二神经网络或该第四神经网络用于该第二设备进行第二信号处理包括:该第二神经网络用于该第二设备对该第二信号进行处理得到第五信号;该第四神经网络用于该第二设备对该第四信号进行处理得到第六信号;或者,
该第二神经网络或该第四神经网络用于该第二设备进行第二信号处理包括:该第二神经网络用于该第二设备对该第一信号进行处理得到该第二信号;该第四神经网络用于该第二设备对该第三信号进行处理得到该第四信号;
可选地,该第一神经网络或该第三神经网络用于该第一设备进行第一信号处理包括:该第一神经网络用于该第一设备对该第二信号进行处理得到该第五信号;该第三神经网络用于该第一设备对该第四信号进行处理得到该第六信号。
本申请实施例提供的用于调整神经网络的方法,上述的第一神经网络和第二神经网络可以看成是一对神经网络,第三神经网络和第四神经网络可以看成是一对神经网络,成对的神经网络可以进行相对应的信号处理。
结合第一方面,在第一方面的某些实现方式中,该第三信号相关的第一训练信号与该第六信号相关的第二训练信号之间的差异度满足第一条件;或者,该第三信号相关的第一训练信号与该第六信号相关的第二训练信号之间的相似度满足第二条件。
上述更新得到的第三神经网络和第四神经网络用于信号处理时,第三信号相关的第一训练信号和第六信号相关的第二训练信号之间满足预设的条件。
结合第一方面,在第一方面的某些实现方式中,该差异度包括以下任意一种:差值、均方差值、归一化均方差值或平均绝对误差;该相似度包括相关性系数。
本申请实施例提供的用于调整神经网络的方法,上述的差异度或相似度具体体现形式可以为多种,提高方案的灵活性。
结合第一方面,在第一方面的某些实现方式中,该第一神经网络或该第二神经网络用于对该第一信号进行处理得到该第二信号包括:该第一神经网络或该第二神经网络和第一功能模块用于对该第一信号进行处理得到该第二信号;和/或,该第一神经网络或该第二神经网络用于对该第二信号进行处理得到该第五信号包括:该第一神经网络或该第二神经网络和第二功能模块用于对该第二信号进行处理得到该第五信号;
该第三神经网络或该第四神经网络用于对该第三信号进行处理得到该第四信号包括:该第三神经网络或该第四神经网络和第三功能模块用于对该第三信号进行处理得到该第四信号;和/或,该第三神经网络或该第四神经网络用于对该第四信号进行处理得到该第六信号包括:该第三神经网络或该第四神经网络和第四功能模块用于对该第四信号进行处理得到该第六信号。
本申请实施例提供的用于调整神经网络的方法,上述成对的神经网络进行信号处理的过程中还可以包括其他的信号处理功能模块,对通信系统的具体组成不做限定,提高方案的灵活性。
结合第一方面,在第一方面的某些实现方式中,该第一设备确定该第三神经网络和该第四神经网络包括:该第一设备更新该第一神经网络和该第二神经网络分别得到该第三神 经网络和该第四神经网络。
本申请实施例提供的用于调整神经网络的方法,第一设备可以通过更新原有的神经网络,以期得到新的四神经网络。
结合第一方面,在第一方面的某些实现方式中,该第一设备更新该第一神经网络和该第二神经网络分别得到该第三神经网络和该第四神经网络之前,该方法还包括:该第一设备接收来自该第二设备的第一指示信息,该第一指示信息用于指示该第一设备更新该第一神经网络和该第二神经网络;或者,该第一设备周期性地或非周期性地判断该第一神经网络和该第二神经网络是否需要更新,该第一设备判断该第一神经网络和该第二神经网络需要更新;或者,该第一设备接收来自第二设备的第二指示信息,该第二指示信息用于指示该第一设备判断该第一神经网络和该第二神经网络是否需要更新,该第一设备判断该第一神经网络和该第二神经网络需要更新;或者,该第一设备基于预设条件触发判断该第一神经网络和该第二神经网络是否需要更新,该第一设备判断该第一神经网络和该第二神经网络需要更新。
本申请实施例提供的用于调整神经网络的方法,触发第一设备执行更新的条件可以有多种,提高方案的灵活性。
结合第一方面,在第一方面的某些实现方式中,该第一设备更新该第一神经网络和该第二神经网络包括:该第一设备周期性地或非周期性地更新该第一神经网络和该第二神经网络。
本申请实施例提供的用于调整神经网络的方法,第一设备更新神经网路可以是周期或非周期的,本申请不做限定从而提高方案的灵活性。
结合第一方面,在第一方面的某些实现方式中,该第一设备判断该第一神经网络和该第二神经网络是否需要更新包括:该第一设备根据第一信息和第二信息之间的差异度或相似度是否满足第三条件判断该第一神经网络和该第二神经网络是否需要更新,其中,该第一信息包括该第一信号相关的第一判断信号,该第二信息包括该第五信号相关的第二判断信号。
本申请实施例提供的用于调整神经网络的方法,第一设备确定是否更新神经网路可以基于经由神经网络处理的信息与预设门限的大小关系判断,能够提高确定是否更新的准确性。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:该第一设备基于该第一判断信号、该第一神经网络和该第二神经网络确定该第二判断信号;或者,该第一设备基于该第一判断信号、该第一神经网络和该第二神经网络以及该第一功能模块和/或该第二功能模块确定该第二判断信号。
本申请实施例提供的用于调整神经网络的方法,第一设备侧可以模拟得到本端的信息和对端的信息,从而可以在第一设备侧实现基于经由神经网络处理的信息判断是否更新神经网路。
结合第一方面,在第一方面的某些实现方式中,该第一判断信号包括该第一设备接收来自该第二设备的下行信道信息,或者,该第一判断信号包括该第一设备基于接收来自该第二设备的探测参考信号SRS测量得到的信道信息;其中,该下行信道信息承载于预设的资源上或者该下行信道信息被指示用于确定该第一判断信号。
本申请实施例提供的用于调整神经网络的方法,第一设备侧可以通过第二设备侧发送的信息确定得到用于判断是否更新神经网路的第一信号,并且提供了不同的信息类型,从而提高方案的灵活性。
结合第一方面,在第一方面的某些实现方式中,该第一设备确定该第三神经网络和该第四神经网络包括:该第一设备基于通信系统数据从第一集合中选择得到该第三神经网络和该第四神经网络,该第一集合包括多个神经网络;或者,该第一设备基于该通信系统数据调整该第一神经网络和该第二神经网络分别对应的网络权重,得到该第三神经网络和该第四神经网络;或者,该第一设备基于该通信系统数据从第二集合中选择得到第五神经网络和第六神经网络,再基于该通信系统数据调整该第五神经网络和该第六神经网络分别对应的网络权重,得到该第三神经网络和该第四神经网络。
本申请实施例提供的用于调整神经网络的方法,第一设备可以通过不同的方式确定出上述的第三神经网络和第四神经网络,提高方案的灵活性。
结合第一方面,在第一方面的某些实现方式中,该通信系统数据包括信道特征、信噪比、下行信道信息、上行信道信息和混合自动重传请求HARQ信息中的至少一种。
本申请实施例提供的用于调整神经网络的方法,第一设备确定第三神经网络和第四神经网络所基于的通信系统数据可能的形式有多种,能够提高方案的灵活性。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:该第一设备向该第二设备发送该第三神经网络的信息。
本申请实施例提供的用于调整神经网络的方法,第一设备除了将可以应用于第二设备侧的第四神经网络的信息发送给第二设备,还可以将可以应用于第一设备侧的第三神经网络的信息发送给第二设备,使得后续第二设备可以判断是否更新第三神经网络和第四神经网络。
结合第一方面,在第一方面的某些实现方式中,该第三神经网络的信息包括以下信息的至少一种:
该第三神经网络的标识、第三神经网络对应的网络结构的信息和第三神经网络对应的网络权重的信息、该第三神经网络对应的网络结构的标识和该第三神经网络对应的网络权重的信息、该第三神经网络对应的网络结构的标识和该第三神经网络对应的网络权重的标识、该第三神经网络对应的网络权重的信息、该第三神经网络对应的网络权重和该第一神经网络对应的网络之间的变化量、该第三神经网络对应的网络权重的标识、第三指示信息,其中,第三指示信息用于指示该第三神经网络对应的网络结构和该第一神经网络对应的网络结构是否相同;
该第四神经网络的信息包括以下信息的至少一种:
该第四神经网络的标识、第四神经网络对应的网络结构的信息和第四神经网络对应的网络权重的信息、该第四神经网络对应的网络结构的标识和该第四神经网络对应的网络权重的信息、该第四神经网络对应的网络结构的标识和该第四神经网络对应的网络权重的标识、该第四神经网络对应的网络权重的信息、该第四神经网络对应的网络权重和该第二神经网络对应的网络权重之间的变化量、该第四神经网络对应的网络权重的标识、第四指示信息,其中,第四指示信息用于指示该第四神经网络对应的网络结构和该第二神经网络对应的网络结构是否相同。
本申请实施例提供的用于调整神经网络的方法,神经网络的信息的具体形式可以为多种,从而能够提高方案的灵活性。
结合第一方面,在第一方面的某些实现方式中,该第三神经网络对应的网络权重和该第一神经网络对应的网络权重之间的变化量,和/或,该第四神经网络对应的网络权重和该第二神经网络对应的网络权重之间的变化量包括以下信息中的一个或多个:权重位置信息、权重解读规则指示信息、权重数值排列信息和权重数值变化量排列信息;该第三神经网络对应的网络结构的信息和/或该第四神经网络对应的网络结构的信息包括:神经网络类型的指示信息和神经网络结构的指示信息;该第三神经网络对应的网络权重的信息和/或该第四神经网络对应的网络权重的信息包括:权重解读规则指示信息和/或权重数值的排列信息。
上述的网络权重之间的变化量、神经网络对应的网络结构的信息以及神经网络对应的网络权重的信息可以通过不同的信息指示。
结合第一方面,在第一方面的某些实现方式中,该第一设备向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息之前,该方法还包括:该第一设备向该第二设备发送第一信息,该第一信息用于请求该第二设备接收该第四神经网络的信息,或者,用于请求该第二设备接收该第四神经网络的信息和该第三神经网络的信息;该第一设备接收来自该第二设备的第一响应消息,该第一响应消息用于指示该第一设备发送该第四神经网络的信息,或者,用于指示该第一设备发送该第四神经网络的信息和该第三神经网络的信息;
和/或,
该第一设备接收来自该第二设备的第二信息,该第二信息用于指示该第二设备能够接收该第四神经网络的信息,或者,指示该第二设备能够接收该第四神经网络的信息和该第三神经网络的信息;
该第一设备向第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息包括:
该第一设备接收到该第二信息之后,向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息;
进一步地,该第一设备接收到该第二信息之后,在第一起始时刻之后的第一预设时长之内或第二预设时长之后开始向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息。
和/或,
该第一设备更新该第一神经网络和该第二神经网络分别得到第三神经网络和该第四神经网络之后,向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息;
进一步地,该第一设备更新该第一神经网络和该第二神经网络分别得到第三神经网络和该第四神经网络之后,在第二起始时刻之后的第二预设时长之内或第二预设时长之后开始向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息;
和/或,
该第一设备向该第二设备发送第一信息,该第一信息用于请求该第二设备接收该第四神经网络的信息,或者,用于请求该第二设备接收该第四神经网络的信息和该第三神经网络的信息;
该第一设备接收来自该第二设备的第一响应消息,该第一响应消息用于指示该第一设备发送该第四神经网络的信息,或者,用于指示该第一设备发送该第四神经网络的信息和该第三神经网络的信息。
本申请实施例提供的用于调整神经网络的方法,第一设备向第二设备发送上述的第四神经网络的信息,或者,发送第四神经网络的信息和第三神经网络的信息,可以是第一设备和第二设备协商之后再发送的,还可以是第一设备自行决定发送的,还可以是第二设备指示第一设备发送的等,本申请实施例中对于第一设备向第二设备发送上述的第四神经网络的信息,或者,发送第四神经网络的信息和第三神经网络的信息的前提提供了多种可能,提高了方案的灵活性。
结合第一方面,在第一方面的某些实现方式中,在该第一设备向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息之后,该方法还包括:该第一设备接收来自该第二设备的第一通知消息,该第一通知消息用于指示该第二设备是否采用该第四神经网络,或者是否采用该第四神经网络和该第三神经网络进行信息传输。
本申请实施例提供的用于调整神经网络的方法,第二设备可以决定是否使用接收到的新的神经网络,避免限定新的神经网络一定使用。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:该第一设备向第二设备发送第二通知消息,或者,该第一设备接收来自该第二设备的第二通知消息,其中,该第二通知消息用于通知信息传输模式从第一模式转变为第二模式,该第一模式包括基于AI模型进行信息传输,该AI模型中包括该第一神经网络和该第二神经网络,该第二模式包括基于非AI模型进行信息传输。
本申请实施例提供的用于调整神经网络的方法,可以通过第二通知消息切换不同的传输模式,从而避免基于不合适的神经网络进行信息传输。
结合第一方面,在第一方面的某些实现方式中,该AI模型还包括第七神经网络和第八神经网络。
本申请实施例提供的用于调整神经网络的方法,当通信系统中的本端设备和对端设备决定退回到非AI模式下进行信息传输时,可以理解为通信系统中包括的不同信息处理流程均回退到非AI模式。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:该第一设备将该信息传输模式从该第一模式切换至该第二模式;
进一步地,该第一设备在第四起始时刻之后的第四预设时长之内或第四预设时长之后开始将该信息传输模式从该第一模式切换至该第二模式;
其中,该第四起始时刻包括该第一设备向该第二设备发送该第二通知消息的时刻,或该第一设备接收来自该第二设备的该第二通知消息的时刻。
本申请实施例提供的用于调整神经网络的方法,执行切换的时刻可以基于第二通知消息的收发时刻确定。
结合第一方面,在第一方面的某些实现方式中,该第一起始时刻和该第二起始时刻包括:该第一设备接收来自该第二设备的该第一指示信息的时刻;或,该第一设备向该第二设备发送第二通知消息的时刻;或,该第一设备接收来自该第二设备的该第二通知消息的时刻;或,该第一设备向该第二设备发送第一信令的时刻;或,该第一设备接收来自该第二设备的第二信令的时刻,其中,该第一信令用于指示计时开始,该第二信令用于指示更新开始;其中,第二通知消息用于通知信息传输模式从第一模式转变为第二模式。
本申请实施例提供的用于调整神经网络的方法,上述定义的起始时刻可以基于不同消息的接收或发送时刻确定,提高方案的灵活性。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:该第一设备接收来自该第二设备的第二响应消息,该第二响应消息用于指示拒绝接收该第四神经网络的信息,或者,用于指示拒绝接收该第四神经网络的信息和该第三神经网络的信息。
本申请实施例提供的用于调整神经网络的方法,第二设备可以拒绝接收新的神经网路的信息,为神经网络的接收端设备提供主动权。
结合第一方面,在第一方面的某些实现方式中,该第一设备包括终端设备或网络设备,该第二设备包括该终端设备或者该网络设备,当该第一设备为该终端设备时,该第二设备为该网络设备,当该第一设备为该网络设备时,该第二设备为该终端设备。
上述的第一设备和第二设备可以分别为终端设备和网络设备。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:该第一设备接收来自该第二设备的第五指示信息,该第五指示信息用于指示该第一设备发送该第一设备的能力;该第一设备向该第二设备发送第一能力信息,该第一能力信息包括以下信息中的至少一项:该第一设备的计算能力信息、该第一设备的存储能力信息或该第一设备是否存储有第一AI模型的信息、该第一设备支持的神经网络结构、该第一设备支持的神经网络规模、该第一设备支持的AI通信功能,其中,该第一AI模型为任意一个AI模型;或者,该方法还包括:该第一设备向该第二设备发送第六指示信息,该第六指示信息用于指示该第二设备发送该第二设备的能力;该第一设备接收来自该第二设备的第二能力信息,该第二能力信息包括以下信息中的至少一项:该第二设备的计算能力信息、该第二设备的存储能力信息或该第二设备是否存储有第二AI模型的信息、该第二设备支持的神经网络结构、该第二设备支持的神经网络规模、该第二设备支持的AI通信功能,其中,该第二AI模型为任意一个AI模型。
本申请实施例提供的用于调整神经网络的方法,第一设备和第二设备之前可以通过信令交互获知对方的能力。
结合第一方面,在第一方面的某些实现方式中,该第一信号包括信道信息;该第一神经网络包括第一压缩器、该第二神经网络包括第一解压器、该第三神经网络包括第二压缩器、该第四神经网络包括第二解压器;或者,该第一神经网络包括第一解压器、该第二神经网络包括第一压缩器、该第三神经网络包括第二解压器、该第四神经网络包括第二压缩器。
本申请实施例提供的用于调整神经网络的方法,在信道信息传输的场景下,上述的神经网络可以是压缩器或解压器。
结合第一方面,在第一方面的某些实现方式中,该信道信息中包括多根接收天线接收 到的信道信息或多个层的信道信息。
本申请实施例提供的用于调整神经网络的方法,在信道信息传输的场景下,多根接收天线/多个层(Layer)的信道信息共同编码为一个码字,实现信道信息联合压缩,提高信道信息压缩率,降低信道信息的反馈开销。
结合第一方面,在第一方面的某些实现方式中,上述的第一指示信息、第二指示信息、第一信息、第一响应消息、第二信息、第一通知消息、第二通知消息、第二响应消息中的一个或者多个消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
本申请实施例中涉及的消息可以通过不同的方式进行传输,提高方案的灵活性。
第二方面,提供了一种用于调整神经网络的方法,该用于调整神经网络的方法可以由第二设备执行,或者,也可以由设置于第二设备中的芯片或电路执行,本申请对此不作限定,为了便于描述,可以以由第二设备执行为例进行说明。
该用于调整神经网络的方法涉及第一神经网络和第二神经网络,其中,第一神经网络应用于第一设备侧,第二神经网络应用于第二设备侧,该方法包括:该第二设备接收来自该第一设备的第四神经网络的信息,其中,该第四神经网络为该第二神经网络对应的神经网络;
该第二设备基于该第四神经网络的信息确定该第四神经网络。
根据本申请实施例提供的用于调整神经网络的方法,第一设备可以确定新的神经网络,并将新的神经网络的信息发送给第二设备,使得第一设备和第二设备可以通过新的神经网络进行信息传输,能够提高信息传输的性能。
结合第二方面,在第二方面的某些实现方式中,该方法还包括:
该第二设备接收来自该第一设备的第三神经网络的信息,该第三神经网络为该第一神经网络对应的神经网络;其中,该第一神经网络或该第三神经网络用于该第一设备进行第一信号处理,该第二神经网络或该第四神经网络用于该第二设备进行第二信号处理,该第二信号处理与该第一信号处理相对应。
本申请实施例提供的用于调整神经网络的方法,第一设备除了将可以应用于第二设备侧的第四神经网络的信息发送给第二设备,还可以将可以应用于第一设备侧的第三神经网络的信息发送给第二设备,使得后续第二设备可以判断是否更新第三神经网络和第四神经网络。
结合第二方面,在第二方面的某些实现方式中,该第一神经网络或该第三神经网络用于该第一设备进行第一信号处理包括:该第一神经网络用于该第一设备对第一信号进行处理得到第二信号;该第三神经网络用于该第一设备对第三信号进行处理得到第四信号;该第二神经网络或该第四神经网络用于该第二设备进行第二信号处理包括:该第二神经网络用于该第二设备对该第二信号进行处理得到第五信号;该第四神经网络用于该第二设备对该第四信号进行处理得到第六信号;或者,该第二神经网络或该第四神经网络用于该第二设备进行第二信号处理包括:该第二神经网络用于该第二设备对该第一信号进行处理得到该第二信号;该第四神经网络用于该第二设备对该第三信号进行处理得到该第四信号;该第一神经网络或该第三神经网络用于该第一设备进行第一信号处理包括:该第一神经网络 用于该第一设备对该第二信号进行处理得到该第五信号;该第三神经网络用于该第一设备对该第四信号进行处理得到该第六信号。
本申请实施例提供的用于调整神经网络的方法,上述的第一神经网络和第二神经网络可以看成是一对神经网络,第三神经网络和第四神经网络可以看成是一对神经网络,成对的神经网络可以进行相对应的信号处理。
结合第二方面,在第二方面的某些实现方式中,该第三信号相关的第一训练信号与该第六信号相关的第二训练信号之间的差异度满足第一条件;或者,该第三信号相关的第一训练信号与该第六信号相关的第二训练信号之间的相似度满足第二条件。
上述更新得到的第三神经网络和第四神经网络用于信号处理时,第三信号相关的第一训练信号和第六信号相关的第二训练信号之间满足预设的条件。
结合第二方面,在第二方面的某些实现方式中,该差异度包括以下任意一种:差值、均方差值、归一化均方差值或平均绝对误差;该相似度包括相关性系数。
本申请实施例提供的用于调整神经网络的方法,上述的差异度或相似度具体体现形式可以为多种,提高方案的灵活性。
结合第二方面,在第二方面的某些实现方式中,该第一神经网络或该第二神经网络用于对该第一信号进行处理得到该第二信号包括:该第一神经网络或该第二神经网络和第一功能模块用于对该第一信号进行处理得到该第二信号;和/或,该第一神经网络或该第二神经网络用于对该第二信号进行处理得到该第五信号包括:该第一神经网络或该第二神经网络和第二功能模块用于对该第二信号进行处理得到该第五信号;
该第三神经网络或该第四神经网络用于对该第三信号进行处理得到该第四信号包括:该第三神经网络或该第四神经网络和第三功能模块用于对该第三信号进行处理得到该第四信号;和/或,该第三神经网络或该第四神经网络用于对该第四信号进行处理得到该第六信号包括:该第三神经网络或该第四神经网络和第四功能模块用于对该第四信号进行处理得到该第六信号。
本申请实施例提供的用于调整神经网络的方法,上述成对的神经网络进行信号处理的过程中还可以包括其他的信号处理功能模块,对通信系统的具体组成不做限定,提高方案的灵活性。
结合第二方面,在第二方面的某些实现方式中,在该第二设备接收来自该第一设备的该第四神经网络的信息,或者,接收来自该第一设备的该第四神经网络的信息和该第三神经网络的信息之前,该方法还包括:该第二设备判断该第一神经网络和该第二神经网络需要更新;该第二设备向该第一设备发送第一指示信息,该第一指示信息用于指示该第一设备更新该第一神经网络和该第二神经网络;或者,该方法还包括:该第二设备向该第一设备发送第二指示信息,该第二指示信息用于指示该第一设备判断该第一神经网络和该第二神经网络是否需要更新。
本申请实施例提供的用于调整神经网络的方法,第二设备可以指示第一设备更新或判断是否更新神经网络。
结合第二方面,在第二方面的某些实现方式中,该第二设备判断该第一神经网络和该第二神经网络需要更新包括:该第二设备周期性地或非周期性地判断该第一神经网络和该第二神经网络是否需要更新;或者,该第二设备接收来自第一设备的第七指示信息,该第 七指示信息用于指示该第二设备判断该第一神经网络和该第二神经网络是否需要更新;或者,该第二设备基于预设条件触发判断该第一神经网络和该第二神经网络是否需要更新。
本申请实施例提供的用于调整神经网络的方法,第二设备判断更新神经网路可以通过多种方式实现,本申请不做限定,从而提高方案的灵活性。
结合第二方面,在第二方面的某些实现方式中,该第二设备判断该第一神经网络和该第二神经网络是否需要更新包括:
该第二设备根据第一信息和第二信息之间的差异度或相似度是否满足第三条件判断该第一神经网络和该第二神经网络是否需要更新,其中,该第一信息包括该第一信号相关的第一判断信号,该第二信息包括该第五信号相关的第二判断信号。
本申请实施例提供的用于调整神经网络的方法,第二设备确定是否更新神经网路可以基于经由神经网络处理的信息与预设门限的大小关系判断,能够提高确定是否更新的准确性。
结合第二方面,在第二方面的某些实现方式中,该方法还包括:该第二设备基于该第一判断信号、该第一神经网络和该第二神经网络确定该第二判断信号;或者,该第二设备基于该第一判断信号、该第一神经网络和该第二神经网络以及该第一功能模块和/或该第二功能模块确定该第二判断信号。
本申请实施例提供的用于调整神经网络的方法,第二设备侧可以模拟得到本端的信息和对端的信息,从而可以在第二设备侧实现基于经由神经网络处理的信息判断是否更新神经网路。
结合第二方面,在第二方面的某些实现方式中,该第一判断信号包括该第一设备向该第二设备发送的下行信道信息,或者,该第一判断信号包括基于该第一设备发送的探测参考信号SRS测量得到的信道信息;其中,该下行信道信息承载于预设的资源上或者该下行信道信息被指示用于确定该第一判断信号。
本申请实施例提供的用于调整神经网络的方法,第二设备侧可以通过第一设备侧发送的信息确定得到用于判断是否更新神经网路的第一信号,并且提供了不同的信息类型,从而提高方案的灵活性。
结合第二方面,在第二方面的某些实现方式中,该第三神经网络的信息包括以下信息的至少一种:
该第三神经网络的标识、第三神经网络对应的网络结构的信息和第三神经网络对应的网络权重的信息、该第三神经网络对应的网络结构的标识和该第三神经网络对应的网络权重的信息、该第三神经网络对应的网络结构的标识和该第三神经网络对应的网络权重的标识、该第三神经网络对应的网络权重的信息、该第三神经网络对应的网络权重和该第一神经网络对应的网络之间的变化量、该第三神经网络对应的网络权重的标识、第三指示信息,其中,第三指示信息用于指示该第三神经网络对应的网络结构和该第一神经网络对应的网络结构是否相同;
该第四神经网络的信息包括以下信息的至少一种:
该第四神经网络的标识、第四神经网络对应的网络结构的信息和第四神经网络对应的网络权重的信息、该第四神经网络对应的网络结构的标识和该第四神经网络对应的网络权重的信息、该第四神经网络对应的网络结构的标识和该第四神经网络对应的网络权重的标 识、该第四神经网络对应的网络权重的信息、该第四神经网络对应的网络权重和该第二神经网络对应的网络权重之间的变化量、该第四神经网络对应的网络权重的标识、第四指示信息,其中,第四指示信息用于指示该第四神经网络对应的网络结构和该第二神经网络对应的网络结构是否相同。
本申请实施例提供的用于调整神经网络的方法,神经网络的信息的具体形式可以为多种,从而能够提高方案的灵活性。
结合第二方面,在第二方面的某些实现方式中,该第三神经网络对应的网络权重和该第一神经网络对应的网络权重之间的变化量,和/或,该第四神经网络对应的网络权重和该第二神经网络对应的网络权重之间的变化量包括以下信息中的一个或多个:权重位置信息、权重解读规则指示信息、权重数值排列信息和权重数值变化量排列信息;该第三神经网络对应的网络结构的信息和/或该第四神经网络对应的网络结构的信息包括:神经网络类型的指示信息和神经网络结构的指示信息;该第三神经网络对应的网络权重的信息和/或该第四神经网络对应的网络权重的信息包括:权重解读规则指示信息和/或权重数值的排列信息。
上述的网络权重之间的变化量、神经网络对应的网络结构的信息以及神经网络对应的网络权重的信息可以通过不同的信息指示。
结合第二方面,在第二方面的某些实现方式中,在该第二设备接收来自该第一设备的第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息之前,该方法还包括:
该第二设备接收来自该第一设备的第一信息,该第一信息用于通知该第二设备接收该第四神经网络的信息,或者,用于通知该第二设备接收该第四神经网络的信息和该第三神经网络的信息;
该第二设备向该第一设备发送第一响应消息,该第一响应消息用于指示该第一设备发送该第四神经网络的信息,或者,用于指示该第一设备发送该第四神经网络的信息和该第三神经网络的信息;
和/或,
该第二设备向该第一设备发送第二信息,该第二信息用于指示该第二设备能够接收该第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息;
该第二设备接收来自该第一设备的第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息包括:
该第二设备发送该第二信息之后,开始接收来自该第一设备的该第四神经网络的信息,或者,接收来自该第一设备的该第四神经网络的信息和该第三神经网络的信息;
进一步地,该第二设备发送该第二信息之后,在第一起始时刻之后的第一预设时长之内或第一预设时长之后开始接收来自该第一设备的该第四神经网络的信息,或者,接收来自该第一设备的该第四神经网络的信息和该第三神经网络的信息;
和/或,
该第二设备该第二设备接收来自该第一设备的该第四神经网络的信息,或者,接收来自该第一设备的该第四神经网络的信息和该第三神经网络的信息;
进一步地,该第二设备在第二起始时刻之后的第二预设时长之内或第二预设时长之后 开始接收来自该第一设备的该第四神经网络的信息,或者,接收来自该第一设备的该第四神经网络的信息和该第三神经网络的信息;
和/或,
该第二设备接收来自该第一设备的第一信息,该第一信息用于通知该第二设备接收该第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息;
该第二设备接收来自该第一设备的第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息包括:
该第二设备接收来自该第一设备的第一信息之后的第三预设时长之内或第三预设时长之后开始接收来自该第一设备的第四神经网络的信息,或者,接收来自该第一设备的该第四神经网络的信息和该第三神经网络的信息。
本申请实施例提供的用于调整神经网络的方法,第一设备向第二设备发送上述的第四神经网络的信息,或者,发送第四神经网络的信息和第三神经网络的信息,可以是第一设备和第二设备协商之后再发送的,还可以是第一设备自行决定发送的,还可以是第二设备指示第一设备发送的等,本申请实施例中对于第一设备向第二设备发送上述的第四神经网络的信息,或者,发送第四神经网络的信息和第三神经网络的信息的前提提供了多种可能,提高了方案的灵活性。
结合第二方面,在第二方面的某些实现方式中,在该第二设备接收来自该第一设备的第四神经网络的信息,或者,接收该第四神经网络的信息和该第三神经网络的信息之后,该方法还包括:该第二设备向该第一设备发送第一通知消息,该第一通知消息用于指示该第二设备是否采用该第四神经网络,或者是否采用该第四神经网络和该第三神经网络进行信息传输。
本申请实施例提供的用于调整神经网络的方法,第二设备可以决定是否使用接收到的新的神经网络,避免限定新的神经网络一定使用。
结合第二方面,在第二方面的某些实现方式中,该方法还包括:该第二设备向第一设备发送第二通知消息,或者,该第二设备接收来自该第一设备的第二通知消息,其中,该第二通知消息用于通知信息传输模式从第一模式转变为第二模式,该第一模式包括基于AI模型进行信息传输,该AI模型中包括该第一神经网络和第二神经网络,该第二模式包括基于非AI模型进行信息传输。
本申请实施例提供的用于调整神经网络的方法,可以通过第二通知消息切换不同的传输模式,从而避免基于不合适的神经网络进行信息传输。
结合第二方面,在第二方面的某些实现方式中,该AI模型还包括第七神经网络和第八神经网络。
本申请实施例提供的用于调整神经网络的方法,当通信系统中的本端设备和对端设备决定退回到非AI模式下进行信息传输时,可以理解为通信系统中包括的不同信息处理流程均回退到非AI模式。
结合第二方面,在第二方面的某些实现方式中,该方法还包括:
该第二设备将该信息传输模式从该第一模式切换至该第二模式,
进一步地,该第二设备在第四起始时刻之后的第四预设时长之内或第四预设时长之后开始将该信息传输模式从该第一模式切换至该第二模式,
其中,该第四起始时刻包括该第二设备向该第一设备发送该第二通知消息的时刻,或该第二设备接收来自该第一设备的该第二通知消息的时刻。
本申请实施例提供的用于调整神经网络的方法,执行切换的时刻可以基于第二通知消息的收发时刻确定。
结合第二方面,在第二方面的某些实现方式中,该第一起始时刻和该第二起始时刻包括:该第二设备向该第一设备发送该第一指示信息的时刻;或,该第二设备接收来自所该第一设备发送第二通知消息的时刻;或,该第二设备向该第一设备发送该第二通知消息的时刻;或,该第二设备接收来自该第一设备的第一信令的时刻;或,该第二设备向该第一设备发送第二信令的时刻,其中,该第一信令用于指示计时开始,该第二信令用于指示更新开始;其中,第二通知消息用于通知信息传输模式从第一模式转变为第二模式。
本申请实施例提供的用于调整神经网络的方法,上述定义的起始时刻可以基于不同消息的接收或发送时刻确定,提高方案的灵活性。
结合第二方面,在第二方面的某些实现方式中,该方法还包括:
该第二设备向该第一设备发送第二响应消息,该第二响应消息用于指示拒绝接收该第四神经网络的信息,或者,用于指示拒绝接收该第四神经网络的信息和该第三神经网络的信息。
本申请实施例提供的用于调整神经网络的方法,第二设备可以拒绝接收新的神经网路的信息,为神经网络的接收端设备提供主动权。
结合第二方面,在第二方面的某些实现方式中,该第一设备包括终端设备或网络设备,该第二设备包括该终端设备或者该网络设备,当该第一设备为该终端设备时,该第二设备为该网络设备,当该第一设备为该网络设备时,该第二设备为该终端设备。
上述的第一设备和第二设备可以分别为终端设备和网络设备。
结合第二方面,在第二方面的某些实现方式中,该方法还包括:该第二设备向该第一设备发送第五指示信息,该第五指示信息用于指示该第一设备发送该第一设备的能力;该第二设备接收来自该第一设备的第一能力信息,该第一能力信息包括以下信息中的至少一项:该第一设备的计算能力信息、该第一设备的存储能力信息或该第一设备是否存储有第一AI模型的信息、该第一设备支持的神经网络结构、该第一设备支持的神经网络规模、该第一设备支持的AI通信功能,其中,该第一AI模型为任意一个AI模型;或者,
该方法还包括:
该第二设备接收来自该第一设备的第六指示信息,该第六指示信息用于指示该第二设备发送该第二设备的能力;该第二设备向该第一设备发送第二能力信息,该第二能力信息包括以下信息中的至少一项:该第二设备的计算能力信息、该第二设备的存储能力信息或该第二设备是否存储有第二AI模型的信息、该第二设备支持的神经网络结构、该第二设备支持的神经网络规模、该第二设备支持的AI通信功能,其中,该第二AI模型为任意一个AI模型。
本申请实施例提供的用于调整神经网络的方法,第一设备和第二设备之前可以通过信令交互获知对方的能力。
结合第二方面,在第二方面的某些实现方式中,该第一信号包括信道信息;该第一神经网络包括第一压缩器、该第二神经网络包括第一解压器、该第三神经网络包括第二压缩 器、该第四神经网络包括第二解压器;或者,该第一神经网络包括第一解压器、该第二神经网络包括第一压缩器、该第三神经网络包括第二解压器、该第四神经网络包括第二压缩器。
本申请实施例提供的用于调整神经网络的方法,在信道信息传输的场景下,上述的神经网络可以是压缩器或解压器。
结合第二方面,在第二方面的某些实现方式中,该信道信息中包括多根接收天线接收到的信道信息或多个层的信道信息。
本申请实施例提供的用于调整神经网络的方法,在信道信息传输的场景下,多根接收天线/多个层(Layer)的信道信息共同编码为一个码字,实现信道信息联合压缩,提高信道信息压缩率,降低信道信息的反馈开销。
结合第二方面,在第二方面的某些实现方式中,上述的第一指示信息、第二指示信息、第一信息、第一响应消息、第二信息、第一通知消息、第二通知消息、第二响应消息中的一个或者多个消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
本申请实施例中涉及的消息可以通过不同的方式进行传输,提高方案的灵活性。
第三方面,提供了一种通信方法,该通信方法可以由第一设备执行,或者,也可以由设置于第一设备中的芯片或电路执行,本申请对此不作限定,为了便于描述,下面以由第一设备执行为例进行说明。
该通信方法包括:
第一设备接收来自第二设备的第十指示信息,该第十指示信息用于指示该第二设备的AI能力。
可选地,该第一设备基于该第二设备的AI能力向该第二设备发送AI模型的信息;
可选地,该第一设备基于该第十指示信息向该第二设备发送AI模型的信息。
本申请实施例提供的通信方法,第一设备可以基于第二设备上报的能力或者指示信息确定下发的AI模型的信息,能够实现启动AI功能。
结合第三方面,在第三方面的某些实现方式中,该第十指示信息包括以下信息中的至少一项:该第二设备的计算能力信息、该第二设备的存储能力信息或该第二设备是否存储有第一AI模型的信息、该第二设备支持的神经网络结构、该第二设备支持的神经网络规模、该第二设备支持的AI通信功能,其中,该第一AI模型为任意一个AI模型。
上述的能力信息具体体现形式可能为多种,提高方案的灵活性。
结合第三方面,在第三方面的某些实现方式中,在该第一设备接收来自该第二设备的第十指示信息之前,该方法还包括:该第一设备向该第二设备发送第一消息,该第一消息用于指示第二设备上报所述第二设备的AI能力。
本申请实施例提供的通信方法,第一设备通过下发第一消息从而获知第二设备的AI能力。
结合第三方面,在第三方面的某些实现方式中,该第一消息包含在第八响应消息中。
该第八响应消息用于确认随机接入过程中的冲突解决,可以是随机接入过程中的MSG4或者与MSG4类似的消息。
结合第三方面,在第三方面的某些实现方式中,该第一消息包含在第七响应消息中。
该第七响应消息用于响应终端设备的随机接入,可以是随机接入过程中的MSG2或者与MSG2类似的消息,该第七响应消息中包括基站确定的终端设备对应的随机前导序列的索引号。
结合第三方面,在第三方面的某些实现方式中,该方法还包括:
该第一设备向该第二设备发送第一资源指示信息,所述第一资源指示信息指示第二设备接收第一消息的资源。
可选地,该第一资源指示信息包含在上述的第七响应消息中;
可选地,该第一资源指示信息包含在上述的第八响应消息中。
本申请实施例提供的通信方法,第一设备发送第一消息的方式有多种,提高方案的灵活性。
结合第三方面,在第三方面的某些实现方式中,发送上述的第七响应消息之前,该方法还包括:
接收来自第二设备的初始接入请求,该第七响应消息响应于该初始接入请求。
结合第三方面,在第三方面的某些实现方式中,在该第一设备接收来自该第二设备的第十指示信息之前,该方法还包括:该第一设备向第二设备发送上述的第八响应消息。
结合第三方面,在第三方面的某些实现方式中,在该第一设备接收来自该第二设备的第十指示信息之前,该方法还包括:该第一设备向第二设备发送上述的第七响应消息。
结合第三方面,在第三方面的某些实现方式中,该第十指示信息包含在第八消息中。
该第八消息用于随机接入过程中的请求建立连接,可以是随机接入过程中的MSG3或者与MSG3类似的消息,该第八消息中包括终端设备的标识。
结合第三方面,在第三方面的某些实现方式中,该第十指示信息包含在第七消息中。
该第七消息用于随机接入过程中的发起随机接入流程,可以是随机接入过程中的MSG1或者与MSG1类似的消息。
结合第三方面,在第三方面的某些实现方式中,该方法还包括:
该第一设备接收来自该第二设备的第二资源指示信息,所述第二资源指示信息指示第一设备接收第十指示信息的资源。
可选地,该第二资源指示信息包含在上述的第七消息中;
可选地,该第二资源指示信息包含在上述的第八消息中。
结合第三方面,在第三方面的某些实现方式中,该AI模型的信息包含在上述的第八响应消息中。
结合第三方面,在第三方面的某些实现方式中,该方法还包括:
该第一设备向该第二设备发送第三资源指示信息,所述第三资源指示信息指示第二设备接收AI模型的信息的资源。
可选地,该第三资源指示信息包含在上述的第八响应消息中。
本申请实施例提供的通信方法,第一设备和第二设备的上述信令交互可以在初始接入的过程中不同的阶段中完成,实现与目前的初始接入过程相结合,提高方案与目前技术的融合性。
结合第三方面,在第三方面的某些实现方式中,该第一设备本地保存有N个神经网络, 该方法还包括:该第一设备向该第二设备发送至少一个神经网络,该N为正整数,该至少一个神经网络为该N个神经网络中的部分或全部神经网络。
结合第三方面,在第三方面的某些实现方式中,该N个神经网络应用于该第二设备或该第一设备;该第一设备向该第二设备发送至少一个神经网络包括以下至少一种:该第一设备向该第二设备发送M个神经网络、该M个神经网络分别对应的网络权重、该M个神经网络分别对应的网络结构或一个神经网络的网络结构,其中,该M为小于或者等于N的正整数。
本申请实施例提供的通信方法,第一设备可以向第二设备发送候选的神经网络。
结合第三方面,在第三方面的某些实现方式中,该方法还包括:
该第一设备向该第二设备发送第八指示信息,该第八指示信息用于指示当前适用的神经网络。
本申请实施例提供的通信方法,第一设备可以通过指示信息从候选神经网络中指定当前适用的神经网络。
结合第三方面,在第三方面的某些实现方式中,该N个神经网络包括N/2个神经网络对,每对该神经网络对包括第一神经网络和第二神经网络,该N为非0偶数;该第一设备向该第二设备发送至少一个神经网络包括以下至少一种:该第一设备向该第二设备发送Q个第二神经网络、Q个第一神经网络、Q个第一神经网络分别对应的网络权重、Q个第二神经网络分别对应的网络权重、Q个第一神经网络分别对应的网络结构、Q个第二神经网络分别对应的网络结构、一个第一神经网络的网络结构或一个第二神经网络的网络结构,其中,该Q为小于或者等于N/2的正整数。
本申请实施例提供的通信方法,第一设备可以向第二设备发送第一设备和第二设备成对使用的候选神经网络对。
示例性地,可以称为神经网络对的神经网络的标识(index)相同。
结合第三方面,在第三方面的某些实现方式中,该第一设备向该第二设备发送第九指示信息,该第九指示信息用于指示当前适用的神经网络对。
本申请实施例提供的通信方法,第一设备可以通过指示信息从候选神经网络对中指定当前适用的神经网络对。
结合第三方面,在第三方面的某些实现方式中,该第一设备向该第二设备发送至少一个神经网络包括:该第一设备向该第二设备发送预设的第一神经网络和/或预设的第二神经网络。
本申请实施例提供的通信方法,第一设备可以仅向第二设备发送当前适用的神经网络。
结合第三方面,在第三方面的某些实现方式中,该第一设备包括终端设备或网络设备,该第二设备包括该终端设备或者该网络设备,当该第一设备为该终端设备时,该第二设备为该网络设备,当该第一设备为该网络设备时,该第二设备为该终端设备。
第四方面,提供了一种通信方法,该通信方法可以由第二设备执行,或者,也可以由设置于第二设备中的芯片或电路执行,本申请对此不作限定,为了便于描述,可以以由第二设备执行为例进行说明。
该通信方法包括:第二设备向第一设备发送第十指示信息,该第十指示信息用于指示 该第二设备的AI能力;该第二设备接收来自该第一设备的AI模型的信息。
本申请实施例提供的通信方法,第一设备可以基于第二设备上报的第十指示信息和/或第二设备的AI能力确定下发的AI模型的信息,能够实现启动AI功能。
结合第四方面,在第四方面的某些实现方式中,该第十指示信息包括以下信息中的至少一项:该第二设备的计算能力信息、该第二设备的存储能力信息或该第二设备是否存储有第一AI模型的信息、该第二设备支持的神经网络结构、该第二设备支持的神经网络规模、该第二设备支持的AI通信功能,其中,该第一AI模型为任意一个AI模型。
上述的能力信息具体体现形式可能为多种,提高方案的灵活性。
结合第四方面,在第四方面的某些实现方式中,在该第二设备向该第一设备发送第十指示信息之前,该方法还包括:该第二设备接收来自该第一设备的第一消息,该第一消息用于指示第二设备上报所述第二设备的AI能力。
本申请实施例提供的通信方法,第一设备通过下发第一消息从而获知第二设备的能力。
结合第四方面,在第四方面的某些实现方式中,该第一消息包含在第八响应消息中。
该第八响应消息用于确认随机接入过程中的冲突解决,可以是随机接入过程中的MSG4或者与MSG4类似的消息。
结合第四方面,在第四方面的某些实现方式中,该第一消息包含在第七响应消息中。
该第七响应消息用于响应终端设备的随机接入,可以是随机接入过程中的MSG2或者与MSG2类似的消息,该第七响应消息中包括基站确定的终端设备对应的随机前导序列的索引号。
结合第四方面,在第四方面的某些实现方式中,
该第二设备接收来自该第一设备的第一资源指示信息,所述第一资源指示信息指示第二设备接收第一消息的资源。
可选地,该第一资源指示信息包含在上述的第七响应消息中;
可选地,该第一资源指示信息包含在上述的第八响应消息中。
本申请实施例提供的通信方法,第一设备发送第一消息的方式有多种,提高方案的灵活性。
结合第四方面,在第四方面的某些实现方式中,在该第二设备向该第一设备发送第十指示信息之前,该方法还包括:该第二设备接收来自该第一设备上述的第八响应消息。
结合第四方面,在第四方面的某些实现方式中,在该第二设备向该第一设备发送第十指示信息之前,该方法还包括:该第二设备接收来自该第一设备上述的第七响应消息。
结合第四方面,在第四方面的某些实现方式中,该第十指示信息包含在第八消息中。
该第八消息用于随机接入过程中的请求建立连接,可以是随机接入过程中的MSG3或者与MSG3类似的消息,该第八消息中包括终端设备的标识。
结合第四方面,在第四方面的某些实现方式中,该第十指示信息包含在第七消息中。
该第七消息用于随机接入过程中的发起随机接入流程,可以是随机接入过程中的MSG1或者与MSG1类似的消息。
结合第四方面,在第四方面的某些实现方式中,该方法还包括:
该第二设备向该第一设备发送第二资源指示信息,该第二资源指示信息指示第一设备 接收第十指示信息的资源。
可选地,该第二资源指示信息包含在上述的第七消息中;
可选地,该第二资源指示信息包含在上述的第八消息中。
结合第四方面,在第四方面的某些实现方式中,该AI模型的信息包含在上述的第八响应消息中。
结合第四方面,在第四方面的某些实现方式中,
该第二设备接收来自该第一设备第三资源指示信息,所述第三资源指示信息指示第二设备接收AI模型的信息的资源。
可选地,该第三资源指示信息包含在上述的第八响应消息中。
本申请实施例提供的通信方法,第一设备和第二设备的上述信令交互可以在初始接入的过程中不同的阶段中完成,实现与目前的初始接入过程相结合,提高方案与目前技术的融合性。
结合第四方面,在第四方面的某些实现方式中,该第一设备本地保存有N个神经网络,该方法还包括:该第二设备接收来自该第一设备的至少一个神经网络,该N为正整数,该至少一个神经网络为该N个神经网络中的部分或全部神经网络。
结合第四方面,在第四方面的某些实现方式中,该N个神经网络应用于该第二设备或该第一设备;该第二设备接收来自该第一设备的至少一个神经网络包括以下至少一种:该第二设备接收来自该第一设备的M个神经网络、该M个神经网络分别对应的网络权重、该M个神经网络分别对应的网络结构或一个神经网络的网络结构,其中,该M为小于或者等于N的正整数。
结合第四方面,在第四方面的某些实现方式中,该N个神经网络包括N/2个神经网络对,每对该神经网络对包括第一神经网络和第二神经网络,该N为非0偶数;该第二设备接收来自该第一设备的至少一个神经网络包括以下至少一种:该第二设备接收来自该第一设备的Q个第二神经网络、Q个第一神经网络、Q个第一神经网络分别对应的网络权重、Q个第二神经网络分别对应的网络权重、Q个第一神经网络分别对应的网络结构、Q个第二神经网络分别对应的网络结构、一个第一神经网络的网络结构或一个第二神经网络的网络结构,其中,该Q为小于或者等于N/2的正整数。
本申请实施例提供的通信方法,第一设备可以向第二设备发送候选的神经网络。
结合第四方面,在第四方面的某些实现方式中,该方法还包括:该第二设备接收来自该第一设备的第八指示信息,该第八指示信息用于指示当前适用的神经网络。
本申请实施例提供的通信方法,第一设备可以通过指示信息从候选神经网络中指定当前适用的神经网络。
结合第四方面,在第四方面的某些实现方式中,该方法还包括:该第二设备接收来自该第一设备的第九指示信息,该第九指示信息用于指示当前适用的神经网络对。
本申请实施例提供的通信方法,第一设备可以通过指示信息从候选神经网络对中指定当前适用的神经网络对。
结合第四方面,在第四方面的某些实现方式中,该第一设备包括终端设备或网络设备,该第二设备包括该终端设备或者该网络设备,当该第一设备为该终端设备时,该第二设备为该网络设备,当该第一设备为该网络设备时,该第二设备为该终端设备。
第五方面,提供一种用于调整神经网络的装置,该用于调整神经网络的装置包括处理器,用于实现上述第一方面描述的方法中第一设备的功能。
可选地,该用于调整神经网络的装置还可以包括存储器,该存储器与该处理器耦合,该处理器用于实现上述第一方面描述的方法中第一设备的功能。
在一种可能的实现中,该存储器用于存储程序指令和数据。该存储器与该处理器耦合,该处理器可以调用并执行该存储器中存储的程序指令,用于实现上述第一方面描述的方法中第一设备的功能。
可选地,该用于调整神经网络的装置还可以包括通信接口,该通信接口用于该用于调整神经网络的装置与其它设备进行通信。当该用于调整神经网络的装置为网络设备时,该通信接口为收发器、输入/输出接口、或电路等。
在一种可能的设计中,该用于调整神经网络的装置包括:处理器和通信接口,用于实现上述第一方面描述的方法中第一设备的功能,具体地包括:
该处理器利用该通信接口与外部通信;
该处理器用于运行计算机程序,使得该装置实现上述第一方面描述的任一种方法。
可以理解,该外部可以是处理器以外的对象,或者是该装置以外的对象。
在另一种可能的设计中,该用于调整神经网络的装置为芯片或芯片系统。该通信接口可以是该芯片或芯片系统上的输入/输出接口、接口电路、输出电路、输入电路、管脚或相关电路等。该处理器也可以体现为处理电路或逻辑电路。
第六方面,提供一种用于调整神经网络的装置,该用于调整神经网络的装置包括处理器,用于实现上述第二方面描述的方法中第二设备的功能。
可选地,该用于调整神经网络的装置还可以包括存储器,该存储器与该处理器耦合,该处理器用于实现上述第二方面描述的方法中第二设备的功能。
在一种可能的实现中,该存储器用于存储程序指令和数据。该存储器与该处理器耦合,该处理器可以调用并执行该存储器中存储的程序指令,用于实现上述第二方面描述的方法中第二设备的功能。
可选地,该用于调整神经网络的装置还可以包括通信接口,该通信接口用于该用于调整神经网络的装置与其它设备进行通信。当该用于调整神经网络的装置为终端设备时,该收发器可以是通信接口,或,输入/输出接口。
在一种可能的设计中,该用于调整神经网络的装置包括:处理器和通信接口,用于实现上述第二方面描述的方法中第二设备的功能,具体地包括:
该处理器利用该通信接口与外部通信;
该处理器用于运行计算机程序,使得该装置实现上述第二方面描述的任一种方法。
可以理解,该外部可以是处理器以外的对象,或者是该装置以外的对象。
在另一种实现方式中,该用于调整神经网络的装置为芯片或芯片系统时,该通信接口可以是是该芯片或芯片系统上输入/输出接口、接口电路、输出电路、输入电路、管脚或相关电路等。该处理器也可以体现为处理电路或逻辑电路。
第七方面,提供一种用于调整神经网络的装置,该用于调整神经网络的装置包括处理器,用于实现上述第三方面描述的方法中第一设备的功能。
可选地,该用于调整神经网络的装置还可以包括存储器,该存储器与该处理器耦合, 该处理器用于实现上述第三方面描述的方法中第一设备的功能。
在一种可能的实现中,该存储器用于存储程序指令和数据。该存储器与该处理器耦合,该处理器可以调用并执行该存储器中存储的程序指令,用于实现上述第三方面描述的方法中第一设备的功能。
可选地,该用于调整神经网络的装置还可以包括通信接口,该通信接口用于该用于调整神经网络的装置与其它设备进行通信。当该用于调整神经网络的装置为网络设备时,该通信接口为收发器、输入/输出接口、或电路等。
在一种可能的设计中,该用于调整神经网络的装置包括:处理器和通信接口,用于实现上述第三方面描述的方法中第一设备的功能,具体地包括:
该处理器利用该通信接口与外部通信;
该处理器用于运行计算机程序,使得该装置实现上述第三方面描述的任一种方法。
可以理解,该外部可以是处理器以外的对象,或者是该装置以外的对象。
在另一种可能的设计中,该用于调整神经网络的装置为芯片或芯片系统。该通信接口可以是该芯片或芯片系统上的输入/输出接口、接口电路、输出电路、输入电路、管脚或相关电路等。该处理器也可以体现为处理电路或逻辑电路。
第八方面,提供一种用于调整神经网络的装置,该用于调整神经网络的装置包括处理器,用于实现上述第四方面描述的方法中第二设备的功能。
可选地,该用于调整神经网络的装置还可以包括存储器,该存储器与该处理器耦合,该处理器用于实现上述第四方面描述的方法中第二设备的功能。
在一种可能的实现中,该存储器用于存储程序指令和数据。该存储器与该处理器耦合,该处理器可以调用并执行该存储器中存储的程序指令,用于实现上述第四方面描述的方法中第二设备的功能。
可选地,该用于调整神经网络的装置还可以包括通信接口,该通信接口用于该用于调整神经网络的装置与其它设备进行通信。当该用于调整神经网络的装置为终端设备时,该收发器可以是通信接口,或,输入/输出接口。
在一种可能的设计中,该用于调整神经网络的装置包括:处理器和通信接口,用于实现上述第四方面描述的方法中第二设备的功能,具体地包括:
该处理器利用该通信接口与外部通信;
该处理器用于运行计算机程序,使得该装置实现上述第四方面描述的任一种方法。
可以理解,该外部可以是处理器以外的对象,或者是该装置以外的对象。
在另一种实现方式中,该用于调整神经网络的装置为芯片或芯片系统时,该通信接口可以是是该芯片或芯片系统上输入/输出接口、接口电路、输出电路、输入电路、管脚或相关电路等。该处理器也可以体现为处理电路或逻辑电路。
第九方面,提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被通信装置执行时,使得该通信装置实现第一方面以及第一方面的任一可能的实现方式中的方法。
第十方面,提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被通信装置执行时,使得该通信装置实现第二方面以及第二方面的任一可能的实现方式中的方法。
第十一方面,提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被通信装置执行时,使得该通信装置实现第三方面以及第三方面的任一可能的实现方式中的方法。
第十二方面,提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被通信装置执行时,使得该通信装置实现第四方面以及第四方面的任一可能的实现方式中的方法。
第十三方面,提供一种包含指令的计算机程序产品,该指令被计算机执行时使得通信装置实现第一方面以及第一方面的任一可能的实现方式中的方法。
第十四方面,提供一种包含指令的计算机程序产品,该指令被计算机执行时使得通信装置实现第二方面以及第二方面的任一可能的实现方式中的方法。
第十五方面,提供一种包含指令的计算机程序产品,该指令被计算机执行时使得通信装置实现第三方面以及第三方面的任一可能的实现方式中的方法。
第十六方面,提供一种包含指令的计算机程序产品,该指令被计算机执行时使得通信装置实现第四方面以及第四方面的任一可能的实现方式中的方法。
第十七方面,提供了一种通信系统,包括第五方面所示的用于调整神经网络的装置和第六方面所示的用于调整神经网络的装置。
第十八方面,提供了一种通信系统,包括第七方面所示的通信装置和第八方面所示的通信装置。
第十九方面,提供了一种芯片装置,包括处理电路,该处理电路用于从存储器中调用并运行程序,使得安装有该芯片装置的通信设备执行上述第一至第四方面中任一种可能实现方式中的方法。
附图说明
图1是能够适用本申请实施例用于调整神经网络的方法的系统100的示意图。
图2是是基于现有的CSI反馈流程进行CSI反馈的示意性流程图。
图3是本申请实施例提供的一种基于AI的CSI反馈流程示意图。
图4是本申请提供的一种基于AI进行CSI压缩反馈的阶段图。
图5中的(a)-(e)是本申请实施例提供的用于调整神经网络的方法示意图。
图6中的(a)和(b)是本申请实施例提供的一种确定估计下行信道信息的示意性图。
图7中的(a)-(d)是本申请实施例提供的另一种确定估计下行信道信息的示意性图。
图8中的(a)-(f)是本申请实施例提供的一种发送更新后编码器和/或解编码器的信息的示意性流程图。
图9中的(a)-(f)是本申请实施例提供的另一种发送更新后编码器和/或解编码器的信息的示意性流程图。
图10是本申请实施例提供的一种通信的方法示意性流程图。
图11是一种初始接入的示意性流程图。
图12是适用于本申请实施例的用于调整神经网络的装置1200的结构示意图。
图13是本申请提出的通信装置1300的示意图。
图14是本申请提供的第一设备1400的示意图。
图15是本申请提出的用于调整神经网络的装置1500的示意图。
图16是本申请提出的通信装置1600的示意图。
图17是本申请提供的第二设备1700的示意图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
本申请实施例的技术方案可以应用于各种通信系统,例如:长期演进(long term evolution,LTE)系统、LTE频分双工(frequency division duplex,FDD)系统、LTE时分双工(time division duplex,TDD)、全球互联微波接入(worldwide interoperability for microwave access,WiMAX)通信系统、第五代(5th generation,5G)系统、新无线(new radio,NR)或未来网络等,本申请中所述的5G移动通信系统包括非独立组网(non-standalone,NSA)的5G移动通信系统或独立组网(standalone,SA)的5G移动通信系统。本申请提供的技术方案还可以应用于未来的通信系统,如第六代移动通信系统。通信系统还可以是陆上公用移动通信网(public land mobile network,PLMN)网络、设备到设备(device-to-device,D2D)通信系统、机器到机器(machine to machine,M2M)通信系统、物联网(internet of Things,IoT)通信系统或者其他通信系统。
本申请实施例中的终端设备(terminal equipment)可以指接入终端、用户单元、用户站、移动站、移动台、中继站、远方站、远程终端、移动设备、用户终端(user terminal)、用户设备(user equipment,UE)、终端(terminal)、无线通信设备、用户代理或用户装置。终端设备还可以是蜂窝电话、无绳电话、会话启动协议(session initiation protocol,SIP)电话、无线本地环路(wireless local loop,WLL)站、个人数字助理(personal digital assistant,PDA)、具有无线通信功能的手持设备、计算设备或连接到无线调制解调器的其它处理设备、车载设备、可穿戴设备,5G网络中的终端设备或者未来演进的公用陆地移动通信网络(public land mobile network,PLMN)中的终端设备或者未来车联网中的终端设备等,本申请实施例对此并不限定。
作为示例而非限定,在本申请实施例中,可穿戴设备也可以称为穿戴式智能设备,是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、手套、手表、服饰及鞋等。可穿戴设备即直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能。广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,例如:智能手表或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类进行体征监测的智能手环、智能首饰等。
此外,在本申请实施例中,终端设备还可以是IoT系统中的终端设备,IoT是未来信息技术发展的重要组成部分,其主要技术特点是将物品通过通信技术与网络连接,从而实现人机互连,物物互连的智能化网络。在本申请实施例中,IOT技术可以通过例如窄带(narrow band,NB)技术,做到海量连接,深度覆盖,终端省电。
此外,在本申请实施例中,终端设备还可以包括智能打印机、火车探测器、加油站等传感器,主要功能包括收集数据(部分终端设备)、接收网络设备的控制信息与下行数据, 并发送电磁波,向网络设备传输上行数据。
本申请实施例中的网络设备可以是用于与终端设备通信的任意一种具有无线收发功能的通信设备。该设备包括但不限于:演进型节点B(evolved Node B,eNB)、无线网络控制器(radio network controller,RNC)、节点B(Node B,NB)、家庭基站(home evolved NodeB,HeNB,或home Node B,HNB)、基带单元(baseBand unit,BBU),无线保真(wireless fidelity,WIFI)系统中的接入点(access point,AP)、无线中继节点、无线回传节点、传输点(transmission point,TP)或者发送接收点(transmission and reception point,TRP)等,还可以为5G系统,如,NR系统中的gNB,或,传输点(TRP或TP),5G系统中的基站的一个或一组(包括多个天线面板)天线面板,或者,还可以为构成gNB或传输点的网络节点,如基带单元(BBU),或,分布式单元(distributed unit,DU)等。
在一些部署中,本申请实施例中的网络设备可以是指集中单元(central unit,CU)或者分布式单元(distributed unit,DU)或者,网络设备包括CU和DU。gNB还可以包括有源天线单元(active antenna unit,AAU)。CU实现gNB的部分功能,DU实现gNB的部分功能。比如,CU负责处理非实时协议和服务,实现无线资源控制(radio resource control,RRC),分组数据汇聚层协议(packet data convergence protocol,PDCP)层的功能。DU负责处理物理层协议和实时服务,实现无线链路控制(radio link control,RLC)层、媒体接入控制(media access control,MAC)层和物理(physical,PHY)层的功能。AAU实现部分物理层处理功能、射频处理及有源天线的相关功能。由于RRC层的信息最终会变成PHY层的信息,或者,由PHY层的信息转变而来,因而,在这种架构下,高层信令,如RRC层信令,也可以认为是由DU发送的,或者,由DU+AAU发送的。可以理解的是,网络设备可以为包括CU节点、DU节点、AAU节点中一项或多项的设备。此外,可以将CU划分为接入网(radio access network,RAN)中的网络设备,也可以将CU划分为核心网(core network,CN)中的网络设备,本申请对此不做限定。
进一步地,CU还可以划分为控制面的中央单元(CU-CP)和用户面的中央单元(CU-UP)。其中,CU-CP和CU-UP也可以部署在不同的物理设备上,CU-CP负责控制面功能,主要包含RRC层和PDCP-C层。PDCP-C层主要负责控制面数据的加解密,完整性保护,数据传输等。CU-UP负责用户面功能,主要包含SDAP层和PDCP-U层。其中SDAP层主要负责将核心网的数据进行处理并将流(flow)映射到承载。PDCP-U层主要负责数据面的加解密,完整性保护,头压缩,序列号维护,数据传输等至少一种功能。具体地,CU-CP和CU-UP通过通信接口(例如,E1接口)连接。CU-CP代表网络设备通过通信接口(例如,Ng接口)和核心网设备连接,通过通信接口(例如,F1-C(控制面)接口)和DU连接。CU-UP通过通信接口(例如,F1-U(用户面)接口)和DU连接。
还有一种可能的实现,PDCP-C层也包含在CU-UP中。
可以理解的是,以上关于CU和DU,以及CU-CP和CU-UP的协议层划分仅为示例,也可能有其他的划分方式,本申请实施例对此不做限定。
本申请实施例所提及的网络设备可以为包括CU、或DU、或包括CU和DU的设备、或者控制面CU节点(CU-CP节点)和用户面CU节点(CU-UP节点)以及DU节点的设备。
网络设备和终端设备可以部署在陆地上,包括室内或室外、手持或车载;也可以部署在水面上;还可以部署在空中的飞机、气球和卫星上。本申请实施例中对网络设备和终端设备所处的场景不做限定。
在本申请实施例中,终端设备或网络设备包括硬件层、运行在硬件层之上的操作系统层,以及运行在操作系统层上的应用层。该硬件层包括中央处理器(central processing unit,CPU)、内存管理单元(memory management unit,MMU)和内存(也称为主存)等硬件。该操作系统可以是任意一种或多种通过进程(process)实现业务处理的计算机操作系统,例如,Linux操作系统、Unix操作系统、Android操作系统、iOS操作系统或windows操作系统等。该应用层包含浏览器、通讯录、文字处理软件、即时通信软件等应用。
另外,本申请的各个方面或特征可以实现成方法、装置或使用标准编程和/或工程技术的制品。本申请中使用的术语“制品”涵盖可从任何计算机可读器件、载体或介质访问的计算机程序。例如,计算机可读介质可以包括,但不限于:磁存储器件(例如,硬盘、软盘或磁带等),光盘(例如,压缩盘(compact disc,CD)、数字通用盘(digital versatile disc,DVD)等),智能卡和闪存器件(例如,可擦写可编程只读存储器(erasable programmable read-only memory,EPROM)、卡、棒或钥匙驱动器等)。另外,本文描述的各种存储介质可代表用于存储信息的一个或多个设备和/或其它机器可读介质。术语“机器可读存储介质”可包括但不限于,无线信道和能够存储、包含和/或承载指令和/或数据的各种其它介质。
为便于理解本申请实施例,首先以图1中示出的通信系统为例详细说明适用于本申请实施例的通信系统。图1是适用于本申请实施例的用于调整神经网络的方法的通信系统100的示意图。如图1所示,该通信系统100可以包括至少一个网络设备,例如图1所示的网络设备110;该通信系统100还可以包括至少一个终端设备,例如图1所示的终端设备120。网络设备110与终端设备120可通过无线链路通信。各通信设备,如网络设备110或终端设备120,均可以配置多个天线。对于该通信系统100中的每一个通信设备而言,所配置的多个天线可以包括至少一个用于发送信号的发射天线和至少一个用于接收信号的接收天线。因此,该通信系统100中的各通信设备之间,如网络设备110与终端设备120之间,可通过多天线技术通信。
应理解,图1仅为便于理解而示例的简化示意图,该通信系统100中还可以包括其他网络设备或者还可以包括其他终端设备,图1中未予以画出。
为便于理解本申请实施例,对本申请实施例中涉及的几个基本概念做简单说明。应理解,下文中所介绍的基本概念是以NR协议中规定的基本概念为例进行简单说明,但并不限定本申请实施例只能够应用于NR系统。因此,以NR系统为例描述时出现的标准名称,都是功能性描述,具体名称并不限定,仅表示设备的功能,可以对应的扩展到其它系统,比如2G、3G、4G或未来通信系统中。
1、预编码技术。
网络设备可以在已知信道状态的情况下,借助与信道状态相匹配的预编码矩阵来对待发送信号进行处理,使得经过预编码的待发送信号与信道相适配,从而使得接收设备可抑制多个接收设备之间的信号影响,最大化接收信号的信干噪比。因此,通过对待发送信号的预编码处理,接收信号质量(例如,信号与干扰加噪声比(signal to interference plus noise ratio,SINR)等)得以提升。因此,采用预编码技术,可以实现发送设备与多个接收设备 在相同的时频资源上传输,也就是实现了MU-MIMO。
应理解,本申请中有关预编码技术的相关描述仅为便于理解而示例,并非用于限制本申请实施例的保护范围。在具体实现过程中,发送设备还可以通过其他方式进行预编码。例如,在无法获知信道信息(例如但不限于信道矩阵)的情况下,采用预先设置的预编码矩阵或者加权处理方式进行预编码等。为了简洁,其具体内容本申请不再赘述。
2、预编码矩阵指示(precoding matrix indicator,PMI)。
可用于指示预编码矩阵。其中,该预编码矩阵例如可以是终端设备基于各个频域单元的信道矩阵确定的预编码矩阵。该预编码矩阵可以是终端设备通过信道估计等方式或者基于信道互易性确定。但应理解,终端设备确定预编码矩阵的具体方法并不限于上文所述,具体实现方式可参考现有技术,为了简洁,这里不再一一列举。
例如,预编码矩阵可以通过对信道矩阵或信道矩阵的协方差矩阵进行奇异值分解(singular value decomposition,SVD)的方式获得,或者,也可以通过对信道矩阵的协方差矩阵进行特征值分解(eigenvalue decomposition,EVD)的方式获得。应理解,上文中列举的预编码矩阵的确定方式仅为示例,不应对本申请构成任何限定。预编码矩阵的确定方式可以参考现有技术,为了简洁,这里不再一一列举。
终端设备所确定的预编码矩阵可以称为待反馈的预编码矩阵,或者说,待上报的预编码矩阵。终端设备可以通过PMI指示该待反馈的预编码矩阵,以便于网络设备基于PMI恢复出该预编码矩阵。网络设备基于该PMI恢复出的预编码矩阵可以与上述待反馈的预编码矩阵相同或相近似。
在下行信道测量中,网络设备根据PMI确定出的预编码矩阵与终端设备所确定的预编码矩阵的近似度越高,其确定出的用于数据传输的预编码矩阵也就越能够与下行信道相适配,因此也就能够提高信号的传输质量。
应理解,PMI仅为一种命名,不应对本申请构成任何限定。本申请并不排除在未来的协议中定义其他名称的信令以用于相同或相似功能的可能。
需要说明的是,由本申请实施例提供的方法,网络设备可以基于终端设备的反馈确定与一个或多个频域单元对应的预编码矩阵。网络设备由此而确定的预编码矩阵可以直接用于下行数据传输;也可以经过一些波束成形方法,例如包括迫零(zero forcing,ZF)、正则化迫零(regularized zero-forcing,RZF)、最小均方差值(minimum mean-squared error,MMSE)、最大化信漏噪比(signal-to-leakage-and-noise,SLNR)等,以得到最终用于下行数据传输的预编码矩阵。本申请对此不作限定。在未作出特别说明的情况下,下文中所涉及的预编码矩阵均可以是指基于本申请提供的方法所确定的预编码矩阵。
本申请实施例中将基于上述的预编码技术和预编码矩阵指示实现信道信息反馈的方式称为传统的信道信息反馈方式,需要说明的是,这只是一种称呼对本申请的保护范围不构成任何的限定,是为了区分AI模式下的信道信息反馈方式和基于预编码矩阵指示实现信道信息反馈的方式。另外,本申请中也可以将非AI模式下的反馈信道信息的方式称为传统的信道信息反馈方式或常规的信道信息反馈方式。
3、信道互易性。
在时分双工(time division duplexing,TDD)模式下,上下行信道在相同的频域资源上不同的时域资源上传输信号。在相对较短的时间(如,信道传播的相干时间)之内,可 以认为上、下行信道上的信号所经历的信道是相同的,上下行信道可互相等价获取。这就是上下行信道的互易性。基于上下行信道的互易性,网络设备可以根据上行参考信号,如探测参考信号(sounding reference signal,SRS),测量上行信道。并可以根据上行信道来估计下行信道,从而可以确定用于下行传输的预编码矩阵。
然而,在频分双工(frequency division duplexing,FDD)模式下,由于上下行信道的频带间隔远大于相干带宽,上下行信道不具有完整的互易性,利用上行信道来确定用于下行传输的预编码矩阵可能并不能够与下行信道相适配。FDD系统中网络设备可以依靠终端设备向网络设备反馈的信道状态信息(channel state information,CSI)进行下行预编码。具体地,网络设备和终端设备进行CSI反馈的基本流程图如图2所示,图2是是基于现有的CSI反馈流程进行CSI反馈的示意性流程图。
如图2所示,该CSI反馈流程包括:S210,网络设备向终端设备发送信道测量配置信息。该信道测量配置信息通知终端设备进行信道测量(还可以包括进行信道测量的时间)。网络设备发送该信道测量配置信息之后,还需要向终端设备发送用于信道测量的参考信息,即图2所示的方法流程还包括S220:网络设备向终端设备发送参考信号。终端设备接收到该参考信号能够基于该参考信号进行信道测量,计算得到最终的CSI反馈量,即图2所示的方法流程还包括S230:终端设备获得CSI。具体地,终端设备需要将获得的CSI反馈给网络设备,则图2所示的方法流程还包括S240:终端设备向网络设备反馈CSI。
进一步地,当网络设备获知CSI之后,能够基于该CSI向终端设备发送数据。可选地,图2所示的方法流程还包括S250:网络设备向终端设备发送数据。
具体地,网络设备根据终端设备反馈的信道秩指示(rank indicator,RI)确定给终端设备传输数据的流数;网络设备根据终端设备反馈的信道状态指示(channel quality indicator,CQI)确定给终端设备传输数据的调制阶数,及信道编码的码率;网络设备根据终端设备反馈的预编码矩阵指示(precoding matrix indicator,PMI)确定给终端设备传输数据的预编码。
4、参考信号(reference signal,RS)。
RS也可以称为导频(pilot)、参考序列等。在本申请实施例中,参考信号可以是用于信道测量的参考信号。例如,该参考信号可以是用于下行信道测量的信道状态信息参考信号(channel state information reference signal,CSI-RS),也可以是用于上行信道测量的探测参考信号(sounding reference signal,SRS)。应理解,上文列举的参考信号仅为示例,不应对本申请构成任何限定。本申请并不排除在未来的协议中定义其他参考信号以实现相同或相似功能的可能。
5、压缩信道。
本申请实施例中所涉及的压缩信道指的是信道信息或者辅助CSI信息通过压缩器压缩之后得到的信息,称为压缩信道,也可以称为压缩码字。
另外,本申请实施例中输入解压缩器的信息,也可以称之为压缩信道。下面将结合附图详细说明本申请中的压缩信道,这里不赘述。
需要说明的是,本申请中将压缩器输出的信息,和/或,解压缩器的输入信息称为压缩信道只是举例,对本申请的保护范围不构成任何限定,例如,还可以称之为码字、压缩信息或复数系数等,这里不再一一举例说明。
6、信道稀疏性。
在大规模MIMO系统中,首先,由于信号传播空间中存在有限数量的角度、多径时延、多普勒,和相对集中的角度扩展、时延扩展、多普勒扩展,所以其信道的能量集中在几条主要的路径上,其他路径上能量很小可以忽略不计,可以将信道看作是稀疏的。在空域上,将空域信道转换到角度域上可以看到,信道能量集中在某些角度上;在频域上,将频域信道转换到时延域上可以看到,信道能量集中在某些多径时延上;在时域上,将时域信道转换到多普勒域上可以看到,信道能量集中在某些多普勒上。
7、辅助CSI信息。
由上述互易性的描述可知,在FDD模式下上下行信道不具有完整的互易性。但是,FDD模式下的上下行信道仍然具有部分的互易性,例如,角度的互易性和时延的互易性。因此,角度和时延也可以称为互易性参数。
由于信号在经过无线信道传输时,信号从发射天线可以经过多个路径到达接收天线。多径时延导致频率选择性衰落,就是频域信道的变化。时延是无线信号在不同传输路径上的传输时间,由距离和速度决定,与无线信号的频域没有关系。信号在不同的传输路径上传输时,由于距离不同,存在不同的传输时延。因此,时延在FDD模式下的上下行信道可以认为是相同的,或者说,互易的。
此外,角度可以是指信号经由无线信道到达接收天线的到达角(angle of arrival,AOA),也可以是指通过发射天线发射信号的离开角(angle of departure,AOD)。在本申请实施例中,该角度可以是指上行信号到达网络设备的到达角,也可以是指网络设备发射下行信号的离开角。该上行参考信号的到达角和下行参考信号的离开角可以认为是相同的,或者说,互易的。
由于,FDD模式下的上下行信道具有部分互易性,也就是说FDD模式下网络设备可以利用上行信道信息获取具有互易性的信道特征量。本申请中可以称FDD模式下的上行信道信息为辅助CSI信息。
8、人工智能(artificial intelligence,AI)。
人工智能的浪潮正席卷全球,诸多词汇时刻萦绕在我们的耳边,如人工智能、机器学习、深度学习等。本申请涉及到AI中的深度学习,深度学习是利用深度神经网络来解决特征表达的一种学习过程。神经网络一般包括:训练,测试两大阶段。训练就是把训练数据利用神经网络模型提炼出模型参数的过程。测试就是把测试数据用训练好的模型(神经网络模型+模型参数)运行后查看结果。其中,把训练过程所涉及的环节数据统一抽象,形成可使用的框架称为训练框架。本申请主要涉及到基于AI的CSI反馈流程中压缩器和解压缩器的调整,其中,压缩器也可以称为CSI压缩器、解压缩器也可以称为CSI解压器。
9、压缩器和解压缩器。
目前在大规模MIMO系统CSI反馈的研究中,可利用前文所述的信道在时、频、空域上的稀疏性,将待反馈的CSI进行压缩,通过反馈链路将压缩后的CSI传递至网络设备端,网络设备端从反馈值中重建出原稀疏信道矩阵。该CSI反馈方法基于自动压缩器和解压缩器架构,在终端设备端编码,在网络设备端进行译码重建。
需要说明的是,本申请中将对待反馈的CSI进行压缩的单元称为压缩器只是举例,对本申请的保护范围不构成任何的限定,例如,还可以称之为编码器、压缩单元等;同理, 本申请中将对压缩之后的CSI进行解压缩的单元称为解压缩器只是举例,对本申请的保护范围不构成任何的限定,例如,还可以称之为译码器、解压缩单元等。
应理解,压缩器和解压缩器为神经网络的一种。
10、基于AI的CSI反馈。
具体地,如图3所示,图3是本申请实施例提供的一种基于AI的CSI反馈流程示意图。本申请实施例中可以将包括压缩器和解压缩器的框架称之为AI模型或者AI框架。
网络设备和终端设备进行联合训练,训练得到的压缩器和解压缩器。该压缩器部署到终端设备中、该解压缩器部署到网络设备中。终端设备根据下行参考信号测量得到下行信道信息,该下行信道信息通过上述的压缩器编码得到需要反馈至空口的压缩信道信息,该压缩信道信息通过反馈链路反馈给网络设备;网络设备接收到上述的压缩信道信息之后,通过本地部署的解压缩器进行解码,获得终端设备反馈的信道信息的重构信息。
需要说明的是,基于AI的CSI反馈流程中涉及的压缩器和解压缩器的训练过程复杂度比较高,一般是在离线状态下完成压缩器和解压缩器的训练,然后将训练好的压缩器和解压缩器应用于在线信道的压缩和解压缩。
如图4所示,图4是本申请提供的一种基于AI进行CSI压缩反馈的阶段图。具体地,基于AI的CSI反馈流程包括图4的(a)所示的基于AI的训练过程和图4的(b)所示的基于AI的反馈CSI过程。
其中,图4的(a)所示的基于AI的训练过程复杂度高,现有相关研究基本都是假设离线训练AI模型,再将训练的结果应用于在线CSI反馈过程。为了保证信道压缩的性能,图4的(a)中所示的训练信道和图4的(b)中估计信道(也可以称为测量信道、待反馈信道等)应该具有相同的统计性能(例如,角度、时延域特征的相似)。
由上述可知,图4所示的基于AI压缩CSI的过程中,一般需要保证训练信道和估计信道具有相同的统计性能,那么如果终端设备发生位移可能会导致估计信道的特征改变,从而影响基于训练好的压缩器进行信道压缩的性能。
例如,基于训练信道#1离线训练得到的压缩器#1和解压缩器#1,原则上来说当估计信道#1和训练信道#1的统计性能类似的情况下,基于压缩器#1压缩估计信道#1得到的压缩信道#1再基于解压缩器#1进行解压缩得到的恢复信道#1,恢复信道#1和估计信道#1之间的差值应该满足差值要求(如小于预设的门限值)。如果,终端设备发生位移,则终端设备测得的估计信道#2和上述的估计信道#1的信道特征可能不一致,从而基于训练信道#1离线训练得到的压缩器#1和解压缩器#1对估计信道#2进行压缩和解压缩得到的恢复信道#2和估计信道#2之间的差值可能不满足差值要求,在此情况下需要更新压缩器#1和解压缩器#1。
为了解决图4所示的基于AI反馈CSI流程中,可能出现的信道特征改变而导致的信道压缩性能变差的问题,本申请提供一种用于调整神经网络的方法,应用在信道信息反馈的场景下,通过在信道测量的过程中实时更新上述的压缩器和/或解压缩器,使得基于更新后的压缩器和/或解压缩器进行信道反馈,能够提高信道压缩的性能。
需要说明的是,对于本申请实施例提供的用于调整神经网络的方法能够应用的场景并不限定为信道信息压缩反馈的场景,还可以用于其他的场景下,例如,终端设备侧和网络设备侧分别配置有编码器和译码器的场景下,或者,终端设备侧和网络设备侧分别配置有 调制器和解调器的场景下等。
也就是说,本申请实施例中对于终端设备侧和网络设备侧分别配置的神经网络具体体现形式并不限定,可以是上述的压缩器和解压缩器,还可以是其他的神经网络,这里不再一一举例说明。
为了便于理解本申请实施例,做出以下几点说明。
第一,在本申请中,“用于指示”可以包括用于直接指示和用于间接指示。当描述某一指示信息用于指示A时,可以包括该指示信息直接指示A或间接指示A,而并不代表该指示信息中一定包括有A。
将指示信息所指示的信息称为待指示信息,则具体实现过程中,对待指示信息进行指示的方式有很多种。例如但不限于,可以直接指示待指示信息,如待指示信息本身或者该待指示信息的索引等。也可以通过指示其他信息来间接指示待指示信息,其中该其他信息与待指示信息之间存在关联关系。还可以仅仅指示待指示信息的一部分,而待指示信息的其他部分则是已知的或者提前约定的。例如,还可以借助预先约定(例如协议规定)的各个信息的排列顺序来实现对特定信息的指示,从而在一定程度上降低指示开销。同时,还可以识别各个信息的通用部分并统一指示,以降低单独指示同样的信息而带来的指示开销。例如,本领域的技术人员应当明白,预编码矩阵是由预编码向量组成的,预编码矩阵中的各个预编码向量,在组成或者其他属性方面,可能存在相同的部分。
此外,具体的指示方式还可以是现有各种指示方式,例如但不限于,上述指示方式及其各种组合等。各种指示方式的具体细节可以参考现有技术,本文不再赘述。由上文所述可知,举例来说,当需要指示相同类型的多个信息时,可能会出现不同信息的指示方式不相同的情形。具体实现过程中,可以根据具体的需要选择所需的指示方式,本申请实施例对选择的指示方式不做限定,如此一来,本申请实施例涉及的指示方式应理解为涵盖可以使得待指示方获知待指示信息的各种方法。
待指示信息可能存在其他等价形式,例如行向量可以表现为列向量,一个矩阵可以通过该矩阵的转置矩阵来表示,一个矩阵也可以表现为向量或者数组的形式,该向量或者数组可以由该矩阵的各个行向量或者列向量相互连接而成,等。本申请实施例提供的技术方案应理解为涵盖各种形式。举例来说,本申请实施例涉及的部分或者全部特性,应理解为涵盖该特性的各种表现形式。
待指示信息可以作为一个整体一起发送,也可以分成多个子信息分开发送,而且这些子信息的发送周期和/或发送时机可以相同,也可以不同。具体发送方法本申请不进行限定。其中,这些子信息的发送周期和/或发送时机可以是预先定义的,例如根据协议预先定义的,也可以是发射端设备通过向接收端设备发送配置信息来配置的。其中,该配置信息可以例如但不限于包括无线资源控制信令、媒体接入控制(media access control,MAC)层信令和物理层信令中的一种或者至少两种的组合。其中,无线资源控制信令例如包无线资源控制(radio resource control,RRC)信令;MAC层信令例如包括MAC控制元素(control element,CE);物理层信令例如包括下行控制信息(downlink control information,DCI)。
第二,在本申请中第一、第二以及各种数字编号(例如,“#1”、“#2”)仅为描述方便进行的区分,并不用来限制本申请实施例的范围。例如,区分不同的信息等。
第三,在本申请中,“预设的”可包括由网络设备信令指示,或者预先定义,例如,协 议定义。其中,“预先定义”可以通过在设备(例如,包括终端设备和网络设备)中预先保存相应的代码、表格或其他可用于指示相关信息的方式来实现,本申请对于其具体的实现方式不做限定。
第四,本申请实施例中涉及的“保存”,可以是指的保存在一个或者多个存储器中。所述一个或者多个存储器,可以是单独的设置,也可以是集成在压缩器或者解压缩器,处理器、或通信装置中。所述一个或者多个存储器,也可以是一部分单独设置,一部分集成在解压缩器、处理器、或通信装置中。存储器的类型可以是任意形式的存储介质,本申请并不对此限定。
第五,本申请实施例中涉及的“协议”可以是指通信领域的标准协议,例如可以包括LTE协议、NR协议以及应用于未来的通信系统中的相关协议,本申请对此不做限定。
第六,本申请实施例中涉及的信令的名称,都是功能性描述,具体名称并不限定对。即本申请实施例中出现的消息、信息等可以称为其他的名称,为了简洁本申请中不做赘述。上文结合图1简单介绍了本申请实施例提供的用于调整神经网络的方法能够应用的场景,以及介绍了本申请实施例中可能涉及到的基本概念,下面将结合附图详细说明本申请实施例提供的用于调整神经网络的方法。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于通过多天线技术通信的系统,例如,图1中所示的通信系统100。该通信系统可以包括至少一个网络设备和至少一个终端设备。网络设备和终端设备之间可通过多天线技术通信。
还应理解,下文示出的实施例并未对本申请实施例提供的方法的执行主体的具体结构特别限定,只要能够通过运行记录有本申请实施例的提供的方法的代码的程序,以根据本申请实施例提供的方法进行通信即可,例如,本申请实施例提供的方法的执行主体可以是终端设备或网络设备,或者,是终端设备或网络设备中能够调用程序并执行程序的功能模块。
以下,不失一般性,以网络设备与终端设备之间的交互为例详细说明本申请实施例提供的用于调整神经网络的方法。
图5是本申请实施例提供的用于调整神经网络的方法示意性流程图。图5包括图5(a)-图5(e),其中,图5(a)为本申请的提供的用于调整神经网络的方法通用的流程,待反馈的信息可以是任何需要经由通信系统反馈的信息、图5(b)为本申请的提供的用于调整神经网络的方法应用于基于AI模型实现信道信息反馈的场景下的示意性流程图,在图5(b)所示的场景下待反馈的信息为信道信息(如,CSI)、图5(c)为图5(a)应用的场景所对应的通信系统图、图5(d)为图5(b)应用的场景所对应的AI框架图。
本申请实施例中所涉及的调整神经网络包括改变某个神经网络对应的网络架构,和/或,改变某个神经网络对应的网络权重。
另外,本申请实施例中涉及的神经网络可以是训练得到的神经网络,还可以是由网络架构和网络权重定义的神经网络,还可以是某个输入与输出有关的函数,其中,输入与输出有关包括输出与当前的输入有关,或者,输出与当前和历史的输入均有关。本申请实施例中对于神经网络的具体定义不做限定,可以参考目前或未来通信领域中关于神经网络的相关定义。
下面分别对图5(a)和图5(b)所示的方法流程进行说明。
图5(a)所示的方法流程可以应用于图5(c)所示的传输框架下。从图5(c)中可以看出第一信号至少通过第一神经网络处理得到第二信号,该第二信号至少通过第二神经网络处理得到第五信号;或者,
第一信号至少通过第二神经网络处理得到第二信号,该第二信号至少通过第一神经网络处理得到第五信号图5(c)中未示出该情况。
应理解,图5(c)只是一种举例对本申请的保护不构成任何的限定,上述的处理第一信号得到第二信号的过程还可以是:
第一信号通过第一神经网络和第一功能模块处理得到第二信号,或者,第一信号通过第二神经网络和第一功能模块处理得到第二信号;
同理,上述的处理第二信号得到第五信号的过程还可以是:
第二信号通过第一神经网络和第二功能模块处理得到第五信号,或者,第二信号通过第二神经网络和第二功能模块处理得到第五信号。
本申请实施例中,对于通信系统中包括的上述的第一功能模块和第二功能模块的个数不做限制。
需要说明的是,本申请中涉及的第一功能模块、第二功能模块、第三功能模块以及第四功能模块可以理解为处理信号的AI单元或非AI单元,用于实现某种功能,也可以称为功能单元或其他的名称。
理论上,通过图5(c)所示的通信系统能够使得第五信号与第一信号之间的差异度或相似度在可接受的范围之内,但是第一神经网络和第二神经网络为离线训练得到的,在线信息反馈的过程中如果第一信号发生变化,可能会导致基于至少包括第一神经网络和第二神经网络的通信系统反馈该第一信号之后,第五信号和第一信号之间的差异度或相似度不在可接受的范围之内,这种情况下可能需要对第一神经网络和第二神经网络进行在线动态调整,或者对通信系统中的其他功能模块进行调整,本申请中主要涉及对第一神经网络和第二神经网络进行调整以使得基于至少包括更新后的第一神经网络和第二神经网络的通信系统进行信息反馈时,第五信号与第一信号之间的差异度或相似度在可接受的范围之内。
另外,第一神经网络和第二神经网络中的一个神经网络需要更新或者系统中的其他功能模块需要更新的场景下第一设备和第二设备之间的信令交互、第一设备和第二设备执行的步骤与对第一神经网络和第二神经网络进行更新类似,本申请中不再赘述。
例如,当只需要更新第一神经网络或第二神经网络的场景下,更新第一神经网络或第二神经网络即可,还可以将更新之后的神经网络的信息发送给对端设备,对端设备和/或本端设备可以选择基于更新之后的神经网络进行信息传输,或者也可以选择不基于更新之后的神经网络进行信息传输。
下面结合图5(a)详细说明如何在线更新第一神经网络和第二神经网络。
图5(a)所示的方法包括以下部分或全部步骤。
S510a,第一设备或第二设备确定第三神经网络和第四神经网络。
由上述可知当只需要更新第一神经网络或第二神经网络的场景下,更新第一神经网络或第二神经网络即可,即可以确定第三神经网络和/或第四神经网络。
需要说明的是,本申请实施例中主要以第一设备为一个设备、第二设备为另一个设备 为例进行说明的,该第一设备和第二设备可以是包括多个设备的通信系统中的任意两个设备(如,第一设备和第二设备可以是终端设备和终端设备、网络设备和网络设备或网络设备和终端设备),该通信系统中包括的其他两个设备之间的信令交互以及各设备执行的步骤可以参考本申请中第一设备和第二设备之间的信令交互以及第一设备和第二设备执行的步骤。
但是本申请中并不限定进行通信的第一设备或第二设备的个数,例如,第一设备为网络设备、第二设备为终端设备,网络设备和多个终端设备进行通信,并且协同合作处理反馈信息的场景下本申请实施例也适用。其中,协同合作处理反馈信息的场景包括:
网络设备接收到多个终端设备反馈的信息,并对多个终端设备反馈的信息进行联合处理;或者,多个终端设备中的至少一个终端设备可以获得(如,通过D2D方式)该多个终端设备中除该至少一个终端设备之外的至少一个终端设备需要反馈的信息相关的信息(如,需要反馈的信息,或根据需要反馈的信息处理之后的信息),对获得到的信息(如,本地需要反馈的信息和获得的至少一个终端设备需要反馈的信息相关的信息)进行联合处理之后反馈给网络设备;或者,网络设备侧和终端设备侧均进行联合处理。
可选地,在网络设备和多个终端设备进行通信,通过协同合作处理反馈信息时,网络设备侧设置一个或多个第一神经网络、多个终端设备侧分别设置多个第二神经网络(如,每个终端设备设置一个第二神经网络)为例说明第一设备或第二设备确定第三神经网络和第四神经网络。其中,网络设备侧设置的一个或多个第一神经网络与多个第二神经网络相对应,可以理解为该一个或多个第一神经网络输入信息与该多个第二神经网络输出信息相关,需要说明的是网络设备与其他的终端设备(如上述的多个终端设备之外的终端设备)通信,并通过协同合作处理反馈信息时,网络设备中可以设置除上述的一个或多个第一神经网络之外的其他的神经网络。
例如,网络设备可以确定多个第二神经网络中的一个或者多个第二神经网络需要更新,和/或,网络设备可以确定一个或多个第一神经网络中的一个或多个第一神经网络需要更新;还例如,多个终端设备中某个终端设备也可以确定是否需要更新,本申请中在网络设备和多个终端设备进行通信,通过协同合作处理反馈信息时,主要以网络设备确定是否需要更新为例进行说明。
另外,在网络设备和多个终端设备进行通信,通过协同合作处理反馈信息时,网络设备可以更新多个第二神经网络中的某个第二神经网络,也可以更新多个第二神经网络。当网络设备更新多个第二神经网络的情况下,网络设备可以分别指示设置该多个第二神经网络的多个终端设备接收更新后的神经网络,也可以统一指示(例如,广播的方式)设置该多个第二神经网络的多个终端设备接收更新后的神经网络。
可选地,上述的网络设备侧设置的一个或多个第一神经网络可以看成一个整体,称为整体第一神经网络,该一个或多个第一神经网络可以通过功能模块相关联,其中,一个或多个第一神经网络可以通过功能模块相关联可以理解为该一个或多个第一神经网络中的至少一个第一神经网络的输出与其他的第一神经网络的输入相关,如图5(e)所示,第一神经网络#1和第一神经网络#2相关联;
可选地,网络设备侧设置的一个或多个第一神经网络还可以是网络设备侧设置有一个第一神经网络。
其中,确定第三神经网络可以是确定第三神经网络对应的网络结构,还可以是确定第三神经网络对应的网络权重,还可以是确定第三神经网络对应的网络结构和第三神经网络对应的网络权重,还可以是确定第三神经网络对应的部分网络权重(如,第三神经网络对应的一部分网络权重与第一神经网络对应的一部分网络权重相同,即确定第三神经网络对应的网络权重中与第一神经网络对应的网络权重不同的那部分即可),还可以是确定第三神经网络对应的部分网络结构;
同理,确定第四神经网络与上述的确定第三神经网络类似,这里不再赘述。
具体地,本申请实施例中第一设备或第二设备确定第三神经网络和第四神经网络可以理解为第一设备或第二设备更新第一神经网络和第二神经网络分别得到第三神经网络和第四神经网络。
该第一神经网络和第三神经网络相对应,用于第一设备或第二设备进行第一信号处理;该第二神经网络和第四神经网络相对应,用于第一设备或第二设备进行第二信号处理。其中,第一信号处理和第二信号处理为相对应的信号处理,例如,第一信号处理为编码处理、第二信号处理为译码处理,或者,第二信号处理为编码处理、第一信号处理为译码处理;还例如,第一信号处理为调制处理、第二信号处理为解调处理,或者,第二信号处理为调制处理、第一信号处理为解调处理;还例如,第一信号处理为压缩处理、第二信号处理为解压缩处理,或者,第二信号处理为压缩处理、第一信号处理为解压缩处理。
示例性地,上述的第一信号处理还可以是,第一设备或第二设备基于第三神经网络的信息确定得到的某个与第三神经网络不完全相同的神经网络进行的信号处理流程;
示例性地,上述的第二信号处理还可以是,第一设备或第二设备基于第四神经网络的信息确定得到的某个与第四神经网络不完全相同的神经网络进行的信号处理流程。
需要说明的是,本申请实施例中并不限定第一设备或第二设备确定得到的第三神经网络和第四神经网络一定需要应用起来,例如,可以仅仅是确定得到第三神经网络和第四神经网络,但是第一设备和/或第二设备并未采用确定得到的第三神经网络和第四神经网络。
进一步地,第一神经网络和第二神经网络理解为一对神经网络,进行第一信号处理和第二信号处理;第三神经网络和第四神经网络理解为一对神经网络,进行第一信号处理和第二信号处理。
可选地,第一神经网络进行第一信号处理包括:对第一信号进行处理得到第二信号;
可选地,第二神经网络进行第二信号处理包括:对第二信号进行处理得到第五信号;
或者,
可选地,第二神经网络进行第二信号处理包括:对第一信号进行处理得到第二信号;
可选地,第一神经网络进行第一信号处理包括:对第二信号进行处理得到第五信号。
可选地,第三神经网络进行第一信号处理包括:对第三信号进行处理得到第四信号;
可选地,第四神经网络进行第二信号处理包括:对第四信号进行处理得到第六信号;
或者,
可选地,第四神经网络进行第二信号处理包括:对第三信号进行处理得到第四信号;
可选地,第三神经网络进行第一信号处理包括:对第四信号进行处理得到第六信号。
上述的第三信号和第一信号可以为相同或者不同的信号,例如,为不同时刻的信道信息(如,不同时刻的CSI);还例如,可以为不同频点上的信道信息(如,不同频点上CSI); 还例如,可以为不同时刻和不同频点上的信道信息(如,不同时刻和不同频点上的CSI)。
第一神经网络或第二神经网络用于对第一信号进行处理得到第二信号包括:
第一神经网络或第二神经网络对第一信号进行处理得到第二信号;或者,
第一神经网络或第二神经网络和第一功能模块对第一信号进行处理得到第二信号。
第一神经网络或第二神经网络用于对第二信号进行处理得到第五信号包括:
第一神经网络或第二神经网络对第二信号进行处理得到第五信号;或者,
第一神经网络或第二神经网络和第二功能模块对第二信号进行处理得到第五信号。
第三神经网络或第四神经网络用于对第三信号进行处理得到第四信号包括:
第三神经网络或第四神经网络对第三信号进行处理得到第四信号;或者,
第三神经网络或第四神经网络和第三功能模块对第三信号进行处理得到第四信号。
第三神经网络或第四神经网络用于对第四信号进行处理得到第六信号包括:
第三神经网络或第四神经网络对第四信号进行处理得到第六信号;或者,
第三神经网络或第四神经网络和第四功能模块对第四信号进行处理得到第六信号。
其中,第一功能模块和第三功能模块可以为相同的功能模块,或者,第三功能模块为第一功能模块更新之后的模块;第二功能模块和第四功能模块可以为相同的模块,或者,第四功能模块为第二功能模块更新之后的功能模块。其中,当第一设备为终端设备的情况下,该第二设备可以为网络设备;当第一设备为网络设备的情况下,第二设备可以为终端设备。
一种可能的实现方式,上述的第三信号相关的第一训练信号与第六信号相关的第二训练信号之间的差异度满足第一条件。其中,第三信号相关的第一训练信号表示确定第三神经网络和第四神经网络的过程中,确定第三神经网络和第四神经网络的第一设备或第二设备模拟得到与第三信号类似的信号(如,大小与第三信号相同,和/或,类型与第三信号相同);第六信号相关的第二训练信号表示确定第三神经网络和第四神经网络的过程中,确定第三神经网络和第四神经网络的第一设备或第二设备模拟得到与第六信号类似的信号(如,大小与第六信号相同,和/或,类型与第六信号相同)。
本申请中涉及的差异度可以是差值、均方差值、归一化均方差值或平均绝对误差中的任意一种,或者该差异度还可以是其他能够表示第三信号相关的第一训练信号与第六信号相关的第二训练信号之间的差别程度的值,本申请实施例对差异度的具体形式不做限定;
示例性地,上述的第一条件可以是差异度小于或者等于第一预设值,还可以是差异度的绝对值小于或者等于第一预设值,还可以是差异度的相反数小于或者等于第一预设值,还可以是基于差异度确定的某个值(如,差异度+Δ)小于或者等于第一预设值,为了便于描述下文中以差异度小于或者等于第一预设值为例进行说明,但是应理解本申请并不限定于此。
另一种可能的实现方式,上述的第三信号相关的第一训练信号与第六信号相关的第二训练信号之间的相似度满足第二条件。
本申请中涉及的相似度可以是相关性系数,或者该相似度还可以其他能够表示第三信号相关的第一训练信号与第六信号相关的第二训练信号之间相似程度的值,本申请实施例对相似度的具体形式不做限定。
示例性地,上述的第二条件可以是相似度大于或者等于第二预设值,还可以是相似度 的相反数大于或者等于第二预设值,还可以是是基于相似度确定的某个值大于或者等于第二预设值,为了便于描述下文中以相似度大于或者等于第二预设值为例进行说明,但是应理解本申请并不限定于此。
下面介绍第一设备确定更新第一神经网络和第二神经网络的几种方式:
方式一:
第一设备周期性地更新第一神经网络和第二神经网络。也就是说在方式一下,周期性更新第一神经网络和第二神经网络的时刻到了之后,第一设备确定需要更新第一神经网络和第二神经网络。
本申请实施例中涉及的“周期”可以理解为以时隙、子帧或帧等为单位的时间间隔,如,周期可以为10个时隙或10个子帧等。
另外,“周期性”表示时间间隔,当一个周期表示的时间间隔确定的情况下,也可以半个周期更新一次第一神经网络和第二神经网络,或者,四分之一个周期更新一次第一神经网络和第二神经网络,本申请实施例中对于“周期性”的理解为固定时间间隔进行更新,但是时间间隔的时长并不限定。
例如,第一设备基于第一预设周期T1,周期性地更新上述的第一神经网络和第二神经网络,若在t时刻第一设备更新第一神经网络和第二神经网络,则在t+T1时刻第一设备更新第一神经网络和第二神经网络。其中,T1可以是协议预定义的,或者第一设备和第二设备通过协商确定的,还可以是第一设备随机选择的某个周期,对于第一设备如何获知该第一预设周期本申请不做限定。
方式二:
第一设备非周期性地更新第一神经网络和第二神经网络。也就是说在方式二下,第一设备可以随机确定更新第一神经网络和第二神经网络的时刻。
例如,第一设备可以在任意时刻更新第一神经网络和第二神经网络,第一设备更新当前使用的第一神经网络和第二神经网络时刻并不具备规律性。
方式三:
第一设备接收到第二设备发送的第一指示信息,该第一指示信息指示更新第一神经网络和第二神经网络。也就是说在方式三下,第一设备接收到第一指示信息之后确定更新第一神经网络和第二神经网络的时刻。
即在方式三下图5(a)所示的方法流程还包括S511a,第二设备向第一设备发送第一指示信息。
示例性地,发送端设备向接收端设备发送第一指示信息包括:本端设备在上行物理控制信道(physical uplink control channel,PUCCH)、下行物理控制信道(physical downlink control channel,PDCCH)、物理上行链路共享信道(physical uplink shared channel,PUSCH)、物理下行链路共享信道(physical downlink shared channel,PDSCH)、上行授权UL grant或随机接入信道(random access channel,RACH)上向接收端设备发送该第一指示信息。
应理解,由于PUCCH和PDCCH资源受限,所以在PUSCH或PDSCH上向接收端设备发送该第一指示信息可以增加方案的灵活性。
方式四:
第一设备判断第一神经网络和第二神经网络需要更新的情况下,第一设备更新第一神经网络和第二神经网络。
示例性地,第一设备可以根据第一信息和第二信息之间的差异度或相似度是否满足第三条件判断第一神经网络和第二神经网络是否需要更新。当第一信息和第二信息之间的差异度或相似度满足第三条件的情况下,第一设备判断第一神经网络和第二神经网络不需要更新;当第一信息和第二信息之间的差异度或相似度不满足第三条件的情况下,第一设备判断第一神经网络和第二神经网络需要更新。
示例性地,在网络设备和多个终端设备进行通信,通过协同合作处理反馈信息时,网络设备可以根据模拟得到的多个第二神经网络中的某个第二神经网络的输入和第一神经网络的输出判断是否需要更新该多个第二神经网络中的一个或多个第二神经网络;或者,网络设备可以根据模拟得到的多个第二神经网络中的多个第二神经网络的联合输入和第一神经网络的输出判断是否需要更新该多个第二神经网络中的一个或多个第二神经网络。其中,若网络设备侧设置一个第一神经网络,则上述的第一神经网络的输出为该第一神经网络的输出;若网络设备侧设置多个第一神经网络,则上述的第一神经网络的输出为该多个第一神经网络中与第二神经网络相对应的第一神经网络的输出。
其中,第一信息可以理解为第一设备或第二设备模拟得到的第一神经网络的输入信息相关的信息(如上述的第一信号相关的第一判断信号),第二信息可以理解为第一设备或第二设备模拟得到的第二神经网络的输出信息相关的信息(如上述的第五信号相关的第二判断信号)。
第一信号相关的第一判断信号表示判断第一神经网络和第二神经网络是否需要更新过程中,执行判断的第一设备或第二设备模拟得到的与第一信号类似的信号(如,大小与第一信号相同,和/或,类型与第一信号相同);第五信号相关的第二判断信号表示判断第一神经网络和第二神经网络是否需要更新的过程中,执行判断的第一设备或第二设备模拟得到与第五信号类似的信号(如,大小与第五信号相同,和/或,类型与第五信号相同)。
示例性地,上述的第三条件可以是差异度小于或者等于第三预设值,还可以是差异度的绝对值小于或者等于第三预设值,还可以是基于差异度确定的某个值(如,差异度+Δ)小于或者等于第三预设值,为了便于描述下文中以差异度小于或者等于第三预设值为满足第三条件、差异度大于第三预设值为不满足第三条件为例进行说明,但是应理解本申请并不限定于此。
示例性地,上述的第三条件可以是相似度大于或者等于第四预设值,还可以是是基于相似度确定的某个值大于或者等于第四预设值,为了便于描述下文中以相似度大于或者等于第四预设值为满足第三条件、相似度小于第四预设值为不满足第三条件为例进行说明,但是应理解本申请并不限定于此。
示例性地,对于图5(c)所示的通信系统来说,第一信号经过第一神经网络的处理之后,发送给接收设备,接收设备接收到空口反馈的信息之后,经过第二神经网络的处理,得到第五信号,在该情况下:第一信息为第一设备或第二设备模拟得到的第一神经网络的输入信息(第一信号),第二信息为第一设备或第二设备模拟得到的第二神经网络的输出信息(第五信号),第一神经网络的输出信息为第二神经网络的输入信息;
示例性地,对于图5(c)所示的通信系统来说,第一信号经过第一功能模块处理之后, 再经第一神经网络的处理,发送给接收设备侧,接收设备接收到空口反馈的信息之后,经过第二功能模块处理之后,再经第二神经网络的处理,得到第五信号,在该情况下:第一信息为第一设备或第二设备模拟得到的第一功能模块的输入信息(第一信号),第二信息为第一设备或第二设备模拟得到的第二神经网络的输出信息(第五信号),第一神经网络的输出信息,经过第二功能模块处理之后的信息为第二神经网络的输入信息,其中,第一功能模块和第二功能模块的个数可以为至少一个。
示例性地,对于图5(c)所示的通信系统来说,第一信号经过第一功能模块处理之后,再经第一神经网络的处理,发送给接收设备侧,接收设备接收到空口反馈的信息之后,经过第二神经网络的处理,再经第二功能模块处理之后,得到第五信号,在该情况下:第一信息为第一设备或第二设备模拟得到的第一功能模块的输入信息(第一信号),第二信息为第一设备或第二设备模拟得到的第二功能模块的输出信息(第五信号),第一神经网络的输出信息,经过第二神经网络处理之后的信息为第二功能模块的输入信息,其中,第一功能模块和第二功能模块的个数可以为至少一个。
示例性地,对于图5(c)所示的通信系统来说,第一信号经过第一神经网络处理之后,再经第一功能模块的处理,发送给接收设备侧,第接收设备接收到空口反馈的信息之后,经过第二功能模块处理之后,再经第二神经网络的处理,得到第五信号,在该情况下:第一信息为第一设备或第二设备模拟得到的第一神经网络的输入信息(第一信号),第二信息为第一设备或第二设备模拟得到的第二神经网络的输出信息(第五信号),第一神经网络的输出信息,经过第一功能模块和第二功能模块处理之后的信息为第二神经网络的输入信息,其中,第一功能模块和第二功能模块的个数可以为至少一个。
示例性地,对于图5(c)所示的通信系统来说,第一信号经过第一神经网络处理之后,再经第一功能模块的处理,发送给接收设备侧,接收设备接收到空口反馈的信息之后,经过第二神经网络处理之后,再经第二功能模块的处理,得到第五信号,在该情况下:第一信息为第一设备或第二设备模拟得到的第一神经网络的输入信息(第一信号),第二信息为第一设备或第二设备模拟得到的第二功能模块的输出信息(第五信号),第一神经网络的输出信息,经过第一功能模块处理之后的信息为第二神经网络的输入信息,其中,第一功能模块和第二功能模块的个数可以为至少一个。
示例性地,对于图5(c)所示的通信系统来说,第一信号经过第一神经网络处理之后,发送给接收设备侧,接收设备接收到空口反馈的信息之后,基于辅助的信息和接收到的反馈信息经过第二神经网络处理,得到第五信号,在该情况下:第一信息为第一设备或第二设备模拟得到的第一神经网络的输入信息(第一信号),第二信息为第一设备或第二设备模拟得到的第二神经网络的输出信息(第五信号)。
上述介绍了第一信息和第二信息可能的形式,本申请实施例中为了便于说明,以上述的第一信息为第一设备或第二设备模拟得到的第一神经网络的输入信息也为第一信号,上述的第二信息为第一设备或第二设备模拟得到的第二神经网络的输出信息也为第五信号为例进行说明。第一信息和第二信息为其他功能模块的输出/输入信息的情况与第一信息为第一神经网络的输入信息、第二信息为第二神经网络的输出信息类似,不再一一进行说明。
当第一信息和第二信息之间的差异度大于或者等于第三预设值的情况下,或者,当第 一信息和第二信息之间的相似度小于或者等于第四预设值的情况下,第一设备判断第一神经网络和第二神经网络需要更新;当第一信息和第二信息之间的差异度小于第三预设值的情况下,或者,当第一信息和第二信息之间的相似度大于第四预设值的情况下,第一设备判断第一神经网络和第二神经网络不需要更新。
或者,当第一信息和第二信息之间的差异度大于第三预设值的情况下,或者,当第一信息和第二信息之间的相似度小于第四预设值的情况下,第一设备判断第一神经网络和第二神经网络需要更新;当第一信息和第二信息之间的差异度小于或者等于第三预设值的情况下,或者,当第一信息和第二信息之间的相似度大于或者等于第四预设值的情况下,第一设备判断第一神经网络和第二神经网络不需要更新。
需要说明的是,上述的基于第一信息和第二信息之间的差异度或相似度与对应的预设值之间的大小关系判断是否需要更新第一神经网络和第二神经网络只是举例对本申请的保护范围不构成任何限定。例如,第一设备还可以基于第一信息和第二信息之间的差异度或相似度与对应的预设值之间进一步的差异度或相似度,判断是否需要更新第一神经网络和第二神经网络。
可以理解,第一信息和第二信息之间的差异度或相似度可以反映第一神经网络和第二神经网络与当前通信环境的匹配程度,例如,第一信息和第二信息之间的差异度可以反映第一信息和第一信息通过第一神经网络和第二神经网络处理之后得到的第二信息之间的差异程度,进而推导出第一神经网络和第二神经网络的恢复性能;还例如,第一信息和第二信息之间的相似度可以反映第一信息和第一信息通过第一神经网络和第二神经网络处理之后得到的第二信息之间的相似程度,进而推导出第一神经网络和第二神经网络的恢复性能。
如果第一信息和第二信息之间的差异度或相似度在可接受的范围之内,则认为第一神经网络和第二神经网络的恢复性能较好,可以继续基于包括第一神经网络和第二神经网络构成的通信系统进行信息传输;如果第一信息和第二信息之间的差异度或相似度不在可接受的范围之内,则认为第一神经网络和第二神经网络的恢复性能较差,需要对第一神经网络和第二神经网络进行更新。
即在方式四下图5(a)所示的方法流程还包括S512a,第一设备判断第一神经网络和第二神经网络需要更新。本申请实施例中主要涉及到第一神经网络和第二神经网络的在线更新,对于第一设备判断第一神经网络和第二神经网络不需要更新的情况不做赘述。
进一步地,在方式四下第一设备判断第一神经网络和第二神经网络是否需要更新可以基于以下可能的触发方式的一种触发第一设备进行判断:
可能一、第一设备周期性地进行上述判断。
例如,第一设备基于第二预设周期T2,周期性地判断上述的第一神经网络和第二神经网络是否需要更新,其中,T2可以是协议预定义的,或者第一设备和第二设备通过协商确定的,还可以是第一设备随机选择的某个周期,对于第一设备如何获知该第二预设周期本申请不做限定。
可能二、第一设备非周期性地进行上述判断。
例如,第一设备可以随时进行上述的判断。
可能三、第一设备可以基于第二设备发送的第二指示信息进行上述判断,该第二指示 信息可以称为触发信令,用于触发第一设备进行上述判断,即该示例下图5(a)所示的方法流程还可以包括S513a:第二设备向第一设备发送第二指示信息。
例如,第一设备接收到第二设备发送的第二指示信息,该第二指示信息用于指示第一设备进行判断上述的第一神经网络和第二神经网络是否需要更新。
示例性地,发送端设备向接收端设备发送第二指示信息包括:本端设备在PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH上向接收端设备发送该第二指示信息。
应理解,由于PUCCH和PDCCH资源受限,所以在PUSCH或PDSCH上向接收端设备发送该第二指示信息可以增加方案的灵活性。
可能四、第一设备可以基于自身的触发信息进行上述判断。
例如,第一设备感知到自身的传输性能下降(如,吞吐性能下降),第一设备可以触发自身进行上述的判断。
第二设备确定更新第一神经网络和第二神经网络的方式与第一设备类似,不同的是:当第二设备被第一设备触发进行更新时,上述的第一指示信息由第一设备发送给第二设备;同理当第二设备被第一设备触发进行判断时,上述的第二指示信息由第一设备发送给第二设备,其他的确定更新的方式以及进行判断的方式与第一设备相同,只是执行主体由第一设备变为第二设备,这里不再赘述。
上文介绍了第一设备或第二设备如何确定第一神经网络和第二神经网络需要更新的方式。
具体地,第一设备或第二设备确定第一神经网络和第二神经网络需要更新的前提下,或者第一设备或第二设备直接周期性或非周期性更新第一神经网络和第二神经网络需要更新的情况下,该第一设备或第二设备更新第一神经网络和第二神经网络得到第三神经网络和第四神经网络。
下面介绍几种更新第一神经网络和第二神经网络得到第三神经网络和第四神经网络的方式:
方式一:
基于通信系统数据从第一集合中选择合适的第三神经网络和第四神经网络,其中,第三神经网络为更新之后的第一神经网络、第四神经网络为更新之后的第二神经网络,通信系统数据包括第一设备或第二设备采集到的近期通信过程中的系统数据,例如,信道特征、信噪比、下行信道信息、上行信道信息和混合自动重传请求HARQ信息中的至少一种。
例如,第一设备或第二设备本地保存有神经网络对#1、神经网络对#2以及神经网络对#3三对神经网络,本申请中所示的神经网络对包括设置于第一设备中的神经网络和第二设备中的神经网络。
上述的神经网络对#1(如,第一神经网络和第二神经网络)可以应用于通信系统数据为通信系统数据#1情况下的通信系统中、神经网络对#2(如,第三神经网络和第四神经网络)可以应用于通信系统数据为通信系统数据#2情况下的通信系统中、神经网络对#3(如,第九神经网络和第十神经网络)可以应用于通信系统数据为通信系统数据#3情况下的通信系统中。当第一设备或第二设备确定神经网络对#1(如,第一神经网络和第二神经网络)需要更新,且当前获得的通信系统数据为通信系统数据#2的情况下,第一设备或第二设备可以将通信系统中的神经网络对#1更新为神经网络对#2,即第一神经网络更 新为第三神经网络、第二神经网络更新为第四神经网络。
需要说明的是,在方式一下,第一设备或第二设备中保存有多对可以使用的神经网络对(称为第一集合),当前通信系统中的神经网络对不合适的情况下(例如,第一信息和第二信息之间的差异度或相似度不在可接受的范围之内),可以从多对可以使用的神经网络对中选择一对合适的神经网络对。
方式二:
基于通信系统数据调整第一神经网络和第二神经网络,使得调整后的第一神经网络和第二神经网络能够用于通信系统中,该调整后的第一神经网络可以称之为第三神经网络、调整后的第二神经网络可以称之为第四神经网络。
例如,第一神经网络对应网络架构#1和网络权重#1、第二神经网络对应网络架构#2和网络权重#2。当第一设备或第二设备确定第一神经网络和第二神经网络需要更新的情况下,第一设备或第二设备基于当前通信系统数据确定出当第一神经网络对应的网络权重更新为网络权重#3、第二神经网络对应的网络权重更新为网络权重#4时,更新后的第一神经网络和第二神经网络能够应用于信息反馈。
需要说明的是,在方式二中涉及的调整神经网络指的是该神经网络对应的网络架构不发生改变,仅网络架构中的网络权重发生改变,可以理解为在某个神经网络的基础上改变该神经网络对应的网络权重,从而达到更新该神经网络的目的。
方式三:
基于通信系统数据从第二集合中选择第九神经网络和第十神经网络,进一步地对该第九神经网络和第十神经网络进行调整,得到合适的第三神经网络和第四神经网络。
例如,第一设备或第二设备本地保存有神经网络对#1、神经网络对#2以及神经网络对#3三对神经网络。其中,神经网络对#1(如,第一神经网络和第二神经网络)可以应用于通信系统数据为通信系统数据#1情况下的通信系统中、神经网络对#2(如,第七神经网络和第八神经网络)可以应用于通信系统数据为通信系统数据#2情况下的通信系统中、神经网络对#3(如,第九神经网络和第十神经网络)可以应用于通信系统数据为通信系统数据#3情况下的通信系统中。
当第一设备或第二设备确定神经网络对#1(如,第一神经网络和第二神经网络)需要更新,且当前获得的通信系统数据为通信系统数据#4的情况下。
第一设备或第二设备首先可以先从第二集合中选择神经网络对#3,即第一神经网络更新为第九神经网络、第二神经网络更新为第十神经网络;然后,第一设备或第二设备基于通信系统数据#4确定出当第九神经网络对应的网络权重更新为网络权重#5、第十神经网络对应的网络权重更新为网络权重#6时,网络权重更新后的第九神经网络和第十神经网络能够应用于通信系统中。
应理解,上述的方式一~方式三只是举例说明如何更新得到第三神经网络和第四神经网络,对本申请的保护范围不构成任何的限定,还可以通过其他方式完成上述的更新流程。例如,可以对第一神经网络和第二神经网络进行多次调整以得到合适的第三神经网络和第四神经网络。需要说明的是,当第一设备或第二设备执行上述的更新第一神经网络和第二神经网络的步骤之后,如果无法选择到和/或调整到合适的第三神经网络和第四神经网络,第一设备或第二设备可以选择信息反馈方式回退到非AI模式;或者说,即便是第一设备 或第二设备执行上述的更新第一神经网络和第二神经网络的步骤之后,选择到和/或调整到合适的第三神经网络和第四神经网络了,第一设备或第二设备也可以选择信息反馈方式回退到非AI模式。
其中,非AI模式包括不基于神经网络实现信息传输的模式。例如,当上述的第一神经网络和第二神经网络为压缩器和解压缩器的情况下,非AI模式可以理解为利用传统的压缩解压方式实现第一设备和第二设备之间的信息传输;还例如,当上述的第一神经网络和第二神经网络为调制器和解调制器的情况下,非AI模式可以理解为利用传统的调制解调制方式实现第一设备和第二设备之间的信息传输;还例如,当上述的第一神经网络和第二神经网络为编码器和译码制器的情况下,非AI模式可以理解为利用传统的编码译码方式实现第一设备和第二设备之间的信息传输。
示例性地,在第一设备或第二设备确定需要更新第一神经网络和第二神经网络,并在执行上述的更新第一神经网络和第二神经网络的步骤之前,本申请实施例提供的用于调整神经网络的方法,为了保证不再基于不合适的第一神经网络和第二神经网络构成的通信系统进行信息传输,第一设备和第二设备可以先回退到非AI模式下进行信息传输,从而避免影响信息传输的时效性,本申请中非AI模式可以称为第二模式,AI模式可以称为第一模式,即图5(a)所示的方法流程还包括S522a,回退到非AI模式。
作为示例而非限定,本申请实施例中第一设备或第二设备确定回退到非AI模式下进行信息传输包括以下两种可能:
可能一、基于协议预定义,即协议规定当第一神经网络和第二神经网络需要更新的时候,信息反馈模式可以回退到非AI的模式。
可能二、基于对端设备的指示,即第一设备向第二设备向,或者,第二设备向第一设备发送第二通知消息,即图5(a)所示的方法流程还包括S521a,发送第二通知消息。该第二通知消息用于指示对端设备回退到非AI的模式进行信息反馈。
示例性地,对端设备向本端设备发送第二通知消息包括:本端设备在PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH上向接收对端设备发送该第二通知消息。
应理解,由于PUCCH和PDCCH资源受限,所以在PUSCH或PDSCH上向本端设备发送该第二通知消息可以增加方案的灵活性。
本申请中涉及的对端设备包括第一设备或第二设备,当第一设备为本端设备时,第二设备为对端设备;当第二设备为本端设备时,第一设备为对端设备。
例如,第一设备确定第一神经网络和第二神经网络需要更新,第一设备向第二设备发送该第二通知消息;还例如,第二设备确定第一神经网络和第二神经网络需要更新,第二设备向第一设备发送该第二通知消息;还例如,第一设备确定第一神经网络和第二神经网络需要更新,第二设备向第一设备发送该第二通知消息;还例如,第二设备确定第一神经网络和第二神经网络需要更新,第一设备向第二设备发送该第二通知消息。
作为一种可能的实现方式,上述的本端设备基于对端设备的指示,回退到非AI模式进行信息传输包括:本端设备将信息传输模式从AI模式切换至非AI模式。
需要说明的是,本申请实施例中上述本端设备切换信息传输模式的时机不限定,可以是在接收到对端设备的指示之后的任意时刻。
例如,本端设备接收到对端设备的指示,在第四起始时刻之后的第四预设时长之内或 者第四预设时长之后开始将信息传输模式从AI模式切换至非AI模式,其中,第四起始时刻包括本端设备接收来自对端设备的第二通知消息的时刻。
作为另一种可能的实现方式,上述的对端设备回退到非AI模式进行信息传输包括:对端设备将信息传输模式从AI模式切换至非AI模式。
需要说明的是,本申请实施例中上述对端设备切换信息传输模式的时机不限定,可以是任意时刻。
例如,对端设备在第四起始时刻之后的第四预设时长之内或者第四预设时长之后开始将信息传输模式从AI模式切换至非AI模式,其中,第四起始时刻包括对端设备向本端设备发送第二通知消息的时刻。
作为一种可能的实现方式,AI模式下图5(c)所示的系统中除了第一神经网络和第二神经网络还包括其他的神经网络(如,第七神经网络和第八神经网络)。
例如,第一神经网络和第二神经网络用于信道编解码、第七神经网络和第八神经网络用于调制解调。当通信系统中的本端设备和对端设备决定退回到非AI模式下进行信息传输时,可以理解为通信系统中包括的不同信息处理流程均回退到非AI模式,即上述的信道编解码和调制解调均采用非AI模式进行。
进一步地,当第一设备或第二设备完成上述的更新步骤之后,第一设备或第二设备需要将得到的第三神经网络的信息和/或第四神经网络的信息发送给对端设备。即图5(a)所示的方法流程还包括S520a,发送第三神经网络的信息和/或第四神经网络的信息。
示例性地,上述的S510a的执行主体为第一设备的情况下,即第一设备向第二设备发送第三神经网络的信息和/或第四神经网络的信息;
示例性地,上述的S510a的执行主体为第二设备的情况下,即第二设备向第一设备发送第三神经网络的信息和/或第四神经网络的信息。
具体地,S520a发送的内容包括以下两种可能:
可能一、对端设备需要配置第三神经网络,即S520a,发送第三神经网络的信息,或者,发送第三神经网络的信息和第四神经网络的信息;
可能二、对端设备需要配置第四神经网络,即S520a,发送第四神经网络的信息,或者,发送第三神经网络的信息和第四神经网络的信息。
需要说明的是,本申请实施例中第一设备或第二设备可以向对端设备发送对端设备需要的配置的第三神经网络的信息或第四神经网络的信息,或者,
第一设备或第二设备可以向对端设备发送第三神经网络的信息和第四神经网络的信息,则后续对端设备可以基于第三神经网络和第四神经网络判断是否需要更新第三神经网络和第四神经网络。
具体地,针对上述的更新第一神经网络和第二神经网络得到第三神经网络和第四神经网络的三种不同的方式分别介绍第三神经网络的信息和第四神经网络的信息的具体内容,为了与上述的更新方式相对应,下面也分为三个方式进行说明:
方式一:
对应上述的更新方式一,从第一集合中选择第三神经网络和第四神经网络。在该方式一下,第三神经网络的信息和第四神经网络的信息的具体内容包括以下几种可能:
可能一、当第一设备和第二设备本地均保存有第三神经网络,且第三神经网络在第一 设备中的索引(index)与第三神经网络在第二设备中的index一致,则第三神经网络的信息可以是第三神经网络的index;同理,当第一设备和第二设备本地均保存有第四神经网络,且第四神经网络在第一设备中的index与第四神经网络在第二设备中的index一致,则第四神经网络的信息可以是第四神经网络的index。
可选地,上述第三神经网络的index和第四神经网络的index相同,在该情况下上述的第三神经网络的信息和第四神经网络的信息为一个index即可,即需要发送第三神经网络的信息和第四神经网络的信息的情况下,发送该一个index即可。
需要说明的是,本申请实施例中涉及的index可以理解为标识(identify,ID),即用于标识某个神经网络。
可能二、当第三神经网络可以用第一网络权重和第一网络结构表示,则第三神经网络的信息可以是第一网络权重和第一网络结构;同理,当第四神经网络可以用第二网络权重和第二网络结构表示,则第四神经网络的信息可以是第二网络权重和第二网络结构。
示例性地,本申请实施例中涉及的神经网络包括卷积神经网络(convolutional neural network,CNN)、深度神经网络(deep neural networks,DNN)和循环神经网络(recurrent neural network,RNN)等神经网络中的至少一种神经网络,其中,DNN也可以称为全连接神经网络(fully connected layers,FC),下文中涉及描述为DNN/FC。
可以理解,本申请中实施例的涉及的神经网络可以包括CNN、DNN/FC或RNN等神经网络,还可以包括由CNN、DNN/FC和RNN等神经网络构成的神经网络。例如,本申请中实施例的涉及的神经网络由DNN/FC和RNN组成。
作为示例而非限定,本申请实施例中涉及的神经网络的信息中网络结构指示信息,可以包括神经网络类型的指示信息和神经网络结构的指示信息。
例如,当神经网络包括CNN时,网络结构指示信息中的神经网络类型的指示信息用于指示神经网络为CNN;网络结构指示信息中的神经网络结构的指示信息包括神经网络层数、各层卷积核的个数、每个卷积核的规模、各层激活函数指示等信息中的至少一个。
其中,当神经网络中各层神经网络的卷积核规模相同的情况下,上述神经网络结构的指示信息中包括的每个卷积核的规模信息,可以理解为包括各层神经网络对应的一个卷积核的规模信息或整个神经网络对应的一个卷积核的规模信息;同理,当神经网络中各层神经网络的激活函数指示信息相同的情况下,上述神经网络结构的指示信息中包括的各层激活函数指示信息,可以理解为包括整个神经网络对应的一个激活函数指示信息。
还例如,当神经网络包括DNN/FC时,网络结构指示信息中的神经网络类型的指示信息用于指示神经网络为DNN/FC;网络结构指示信息中的神经网络结构的指示信息包括神经网络层数、各层节点数、各层激活函数指示等信息中的至少一个。
其中,当神经网络中各层神经网络的激活函数指示信息相同的情况下,上述神经网络结构的指示信息中包括的各层激活函数指示信息,可以理解为包括整个神经网络对应的一个激活函数指示信息。
又例如,当神经网络包括RNN时,网络结构指示信息中的神经网络类型的指示信息用于指示神经网络为RNN;网络结构指示信息中的神经网络结构的指示信息包括RNN环的位置、激活函数指示等信息中的至少一个。
需要说明的是,本申请中涉及的神经网络可以包括多个CNN,则上述的当神经网络 包括CNN时对应的网络结构指示信息可以包括多套;同理,本申请中涉及的神经网络可以包括多个DNN/FC,则上述的当神经网络包括DNN/FC时对应的网络结构指示信息可以包括多套、本申请中涉及的神经网络可以包括多个RNN,则上述的当神经网络包括RNN时对应的网络结构指示信息可以包括多套。另外,本申请中涉及的神经网络还可以包括上述CNN、DNN/FC和RNN的任意组合,则该情况下网络结构指示信息可以为上述的网络结构指示信息的组合。
作为示例而非限定,本申请实施例中涉及的神经网络的信息中网络权重指示信息可以包括权重解读规则指示信息和权重数值的排列信息。其中,权重解读规则指示信息为可选地。
权重解读规则指示信息可以包括权重个数、每个权重的量化比特数、权重位置排序规则指示等信息中的至少一个。
应理解,上述只是举例说明当神经网络为不同的类型的情况下,网络结构指示信息可能的形式,以及神经网络对应的网络权重的指示信息可能的具体形式,对本申请的保护范围不构成任何的限定,当神经网络为其他类型的情况下,网络结构指示信息以及网络权重指示信息能够相应地发生变化,本申请实施例中只限定神经网络对应的网络权重和网络架构能够确定出该神经网络即可,对于网络权重和网络架构的具体表现形式不做限定。
可能三、当第一设备和第二设备本地均保存有第三神经网络对应的第一网络结构,且第一网络结构在第一设备中的index与第一网络结构在第二设备中的index一致,第三神经网络可以用第一网络权重和第一网络结构表示,则第三神经网络的信息可以是第一网络结构的index和第一网络权重;同理,当第一设备和第二设备本地均保存有第四神经网络对应的第二网络结构,且第二网络结构在第一设备中的index与第二网络结构在第二设备中的index一致,第四神经网络可以用第二网络权重和第二网络结构表示,则第四神经网络的信息可以是第二网络结构的index和第二网络权重。
可选地,上述第一网络结构的index和第二网络结构的index相同,在该情况下上述的第一网络结构index和第二网络结构的index为一个index即可。
可能四、当第一设备和第二设备本地均保存有第三神经网络对应的第一网络结构,且第一网络结构在第一设备中的index与第一网络结构在第二设备中的index一致,第三神经网络可以用第一网络权重和第一网络结构表示,另外,当第一设备和第二设备本地均保存有第三神经网络对应的第一网络权重,且第一网络权重在第一设备中的index与第一网络权重在第二设备中的index一致,则第三神经网络的信息可以是第一网络结构的index和第一网络权重的index;同理,当第一设备和第二设备本地均保存有第四神经网络对应的第二网络结构,且第二网络结构在第一设备中的index与第二网络结构在第二设备中的index一致,第四神经网络可以用第二网络权重和第二网络结构表示,另外,当第一设备和第二设备本地均保存有第四神经网络对应的第二网络权重,且第二网络权重在第一设备中的index与第二网络权重在第二设备中的index一致,则第四神经网络的信息可以是第二网络结构的index和第二网络权重的index。
可选地,上述第一网络结构的index和第二网络结构的index相同,在该情况下上述的第一网络结构index和第二网络结构的index为一个index即可;第一网络权重的index和第二网络权重的index相同,在该情况下上述的第一网络权重index和第二网络权重的 index为一个index即可。
可能五、当第一设备和第二设备本地均仅保存有第三神经网络对应的第一网络结构,第三神经网络可以用第一网络权重和第一网络结构表示,则第三神经网络的信息可以是第一网络权重;同理,当第一设备和第二设备本地均仅保存有第四神经网络对应的第二网络结构,第四神经网络可以用第二网络权重和第二网络结构表示,则第三神经网络的信息可以是第一网络权重。
可能六、当第一设备和第二设备本地均仅保存有第三神经网络对应的第一网络结构,第三神经网络可以用第一网络权重和第一网络结构表示,另外,第一设备和第二设备本地分别保存有第三神经网络对应的第一网络权重,且第一网络权重在第一设备中的index与第一网络权重在第二设备中的index一致,则第三神经网络的信息可以是第一网络权重的index;同理,当第一设备和第二设备本地均仅保存有第四神经网络对应的第二网络结构,第四神经网络可以用第二网络权重和第二网络结构表示,另外,第一设备和第二设备本地分别保存有第四神经网络对应的第二网络权重,且第二网络权重在第一设备中的index与第二网络权重在第二设备中的index一致,则第四神经网络的信息可以是第二网络权重的index。
可选地,上述第一网络权重的index和第二网络权重的index相同,在该情况下上述的第一网络权重的index和第二网络权重的index为一个index即可。
可能七、当第一神经网络和第三神经网络对应的网络结构一致,且第一神经网络对应的第三网络权重和第三神经网络对应的第一网络权重之间的变化量为第一网络权重变化量,则第三神经网络的信息可以是第一网络权重变化量;同理,当第二神经网络和第四神经网络对应的网络结构一致,且第二神经网络对应的第四网络权重和第四神经网络对应的第二网络权重之间的变化量为第二网络权重变化量,则第四神经网络的信息可以是第二网络权重变化量。
作为示例而非限定,本申请实施例中涉及的神经网络的信息中网络权重变化量指示信息可以包括权重位置信息、权重解读规则指示信息、权重数值变化量排列信息和权重数值的排列信息中的一个或多个。
例如,权重变化量指示信息包括权重解读规则指示信息、权重位置信息、权重数值排列信息;还例如,权重变化量指示信息包括权重解读规则指示信息、权重位置信息、权重数值变化量排列信息;还例如,权重变化量指示信息包括权重解读规则指示信息、权重数值变化量排列信息;还例如,权重变化量指示信息包括权重位置信息和权重数值排列信息;还例如,权重变化量指示信息包括权重位置信息和权重数值变化量排列信息;还例如,权重变化量指示信息包括权重数值变化量排列信息。
其中,权重解读规则指示信息为可选地,并且权重位置的集合、权重解读规则指示信息和权重数值的排列信息这三种信息携带的先后关系可以任意组合,这里不再赘述。
应理解,上述的权重位置的集合包括至少一个权重位置。本申请实施例中涉及的权重包括以下几种粒度:
连接两个节点的转移权重(如,DNN/FC神经网络中的不同层,不同节点之间的权重)、卷积核权重(如,CNN神经网络中不同卷积核对应的权重)、RNN环的转移权重(如,RNN神经网络中不同RNN环对应的权重)。
进一步地,不同权重粒度对应着不同的权重位置数据结构,权重位置数据结构包括以下几种可能:
可能一、权重层序号和该层内权重序号(如,DNN/FC神经网络中包括的不同权重可以由权重层序号和该层内权重序号确定出),其中,权重层和网络层之间的区别是,网络层指的是节点构成的某个网络层,权重层指的是两个网络层之间不同节点之间的转移权重构成的某个权重层;
可能二、权重层序号和该层内卷积核序号(如,CNN神经网络中包括的不同权重可以由权重层序号和该层内卷积核序号确定出);
可能三、RNN环开始节点位置和RNN环结束节点位置(如,RNN神经网络中包括的不同权重可以由RNN环开始节点位置和RNN环结束节点位置确定出)。
由上述的权重位置数据结构可知,涉及到节点的位置(如,RNN神经网络中权重位置数据结构涉及到RNN环开始节点位置和RNN环结束节点位置),所以本申请实施例中还给出节点位置的数据结构:节点层序号和该节点层内节点序号,即某个节点的位置可以由该节点位于的节点层的序号以及该节点在该节点层中的节点序号确定。
权重解读规则指示信息可以包括权重个数、每个权重的量化比特数、权重位置排序规则指示等信息中的至少一个。
上述权重位置的集合中包括的多个权重位置之间的相对前后顺序可以由权重位置排序规则指示确定,或者还可以由协议预定义,下面简单介绍如何基于权重位置排序规则指示确定多个权重位置之间的相对前后顺序:
针对DNN/FC神经网络先遍历层内权重序号(从小到大或从大到小),再遍历权重层序号(从小到大或从大到小);
针对CNN神经网络先遍历层内卷积核序号(从小到大或从大到小),再遍历权重层序号(从小到大或从大到小);
针对RNN神经网络先遍历RNN环结束节点位置(一般RNN环是安置在DNN/FC上,先从小到大或从大到小遍历层内节点序号,再从小到大或从大到小遍历节点层序号),再遍历RNN环开始节点位置(先从小到大或从大到小遍历层内节点序号,再从小到大或从大到小遍历节点层序号);或者,
针对RNN神经网络先遍历RNN环开始节点位置(一般RNN环是安置在DNN/FC上,先从小到大或从大到小遍历层内节点序号,再从小到大或从大到小遍历节点层序号),再遍历RNN环结束节点位置(先从小到大或从大到小遍历层内节点序号,再从小到大或从大到小遍历节点层序号)。
作为示例而非限定,本申请实施例中涉及的神经网络的信息中网络权重变化量指示信息可以包括权重位置以及该权重位置上的权重变化量。
作为示例而非限定,本申请实施例中涉及的神经网络的信息中网络权重变化量指示信息可以包括不存在权重的位置信息以及所有位置上的权重变化量。
应理解,上述只是举例说明神经网络对应的网络权重变化量指示信息可能的具体形式,对本申请的保护范围不构成任何的限定,本申请实施例中只限定权重变化量指示信息能够确定出该神经网络即可,对于网络权重变化量指示信息的具体表现形式不做限定。
需要说明的是,上述方式一中列举的第三神经网络的信息和第四神经网络的信息可能 的七种具体内容只是举例,对本申请的保护范围不构成任何的限定,上述可能一~可能七的简单变形以及其他第三神经网络的信息和第四神经网络的信息可能的内容也在本申请的保护范围之内,例如,第三神经网络的信息可以是第三神经网络对应的网络结构和网络权重的index等,这里不再一一举例说明。
另外,在方式一中主要说明对应上述的更新方式一发送第四神经网络的信息,或者,发送第三神经网络的信息和第四神经网络的信息,但是本申请中并不限定方式一所示的发送第四神经网络的信息,或者,发送第三神经网络的信息和第四神经网络的信息不能应用于上述的更新方式二和/或三所示的场景,也就是说当更新方式为上述的更新方式二和/或三所示的情况下,发送第四神经网络的信息,或者,发送第三神经网络的信息和第四神经网络的信息的方式也可以选择该方式一所述的方式。
方式二:
对应上述的更新方式二,调整第一神经网络和第二神经网络得到合适的第三神经网络和第四神经网络。为了与上述方式一中的第三神经网络的信息和第四神经网络进行区分,方式二中调整得到的合适的第三神经网络也可以称为调整完的第一神经网络、调整得到的合适的第四神经网络也可以称为调整完的第二神经网络。
在该方式一下,第三神经网络的信息和第四神经网络的信息的具体内容包括以下几种可能:
可能一、当第一设备和第二设备本地均仅保存有第一神经网络对应的第三网络结构,调整完的第一神经网络可以用第三网络结构和第三网络权重表示,则第三神经网络的信息可以是第三网络权重;同理,当第一设备和第二设备本地均仅保存有第二神经网络对应的第四网络结构,调整完的第二神经网络可以用第四网络结构和第四网络权重表示,则第四神经网络的信息可以是第四网络权重。
可能二、当第一设备和第二设备本地均仅保存有第一神经网络对应的第三网络结构,调整完的第一神经网络和第一神经网络之间的区别可以用第一网络权重变化量表示,则第三神经网络的信息可以是第三网络权重变化量;同理,当第一设备和第二设备本地均仅保存有第二神经网络对应的第四网络结构,调整完的第二神经网络和第二神经网络之间的区别可以用第四网络权重变化量表示,则第四神经网络的信息可以是第四网络权重变化量。
需要说明的是,上述方式二中列举的第三神经网络的信息和第四神经网络的信息可能的七种具体内容只是举例,对本申请的保护范围不构成任何的限定,上述可能一和可能二的简单变形以及其他第三神经网络的信息和第四神经网络的信息可能的内容也在本申请的保护范围之内,例如,第三神经网络的信息可以是第三神经网络对应的网络权重的index等,这里不再一一举例说明。
另外,在方式二中主要说明对应上述的更新方式二发送第四神经网络的信息,或者,发送第三神经网络的信息和第四神经网络的信息,但是本申请中并不限定方式二所示的发送第四神经网络的信息,或者,发送第三神经网络的信息和第四神经网络的信息不能应用于上述的更新方式一和/或三所示的场景,也就是说当更新方式为上述的更新方式一和/或三所示的情况下,发送第四神经网络的信息,或者,发送第三神经网络的信息和第四神经网络的信息的方式也可以选择该方式二所述的方式。
方式三:
对应上述的更新方式三,选择和调整得到合适的第三神经网络和第四神经网络。
在该方式三下,第三神经网络的信息和第四神经网络的信息的具体内容包括以下几种可能:
可能一、当第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构相同,第三神经网络可以用第一网络结构和第一网络权重表示,则第三神经网络的信息可以是第一网络权重以及第三指示信息,其中,第三指示用于指示第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构相同,即指示网络结构未发生改变;同理,当第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构相同,第四神经网络可以用第二网络结构和第二网络权重表示,则第四神经网络的信息可以是第二网络权重以及第四指示信息,其中,第四指示用于指示第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构相同,即指示网络结构未发生改变。
可能二、当第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构相同,第三神经网络可以用第一网络结构和第一网络权重表示,另外,第一设备和第二备本地分别保存有第三神经网络对应的第一网络权重,且第一网络权重在第一设备中的index与第一网络权重在第二设备中的index一致,则第三神经网络的信息可以是第一网络权重的index以及第三指示信息,其中,第三指示用于指示第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构相同,即指示网络结构未发生改变;同理,当第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构相同,第四神经网络可以用第二网络结构和第二网络权重表示,另外,第一设备和第二备本地分别保存有第四神经网络对应的第二网络权重,且第二网络权重在第一设备中的index与第二网络权重在第二设备中的index一致,则第四神经网络的信息可以是第二网络权重的index以及第四指示信息,其中,第四指示用于指示第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构相同,即指示网络结构未发生改变。
可选地,上述第一网络权重的index和第二网络权重的index相同,在该情况下上述的第一网络权重的index和第二网络权重的index为一个index即可。
可能三、当第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构相同,第三神经网络可以用第一网络结构和第一网络权重表示,第一神经网络可以用第三网络结构和第三网络权重表示,第三网络权重和第一网络权重之间的变化量为第五网络权重变化量,则第三神经网络的信息可以是第五网络权重变化量以及第三指示信息即可,其中,第三指示用于指示第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构相同,即指示网络结构未发生改变;同理,当第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构相同,第四神经网络可以用第二网络结构和第二网络权重表示,第二神经网络可以用第四网络结构和第四网络权重表示,第四网络权重和第二网络权重之间的变化量为第六网络权重变化量,则第四神经网络的信息可以是第六网络权重变化量以及第四指示信息即可,其中,第四指示用于指示第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构相同,即指示网络结构未发生改变。
可能四、当第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构不相同或者相同,第一设备和第二设备本地均保存有第三神经网络,且第三神经网络在第一设备中的index与第三神经网络在第二设备中的index一致,则第三神经网络的信息可以 是第三神经网络的index,第三神经网络的信息还可以包括用于指示网络结构是否发生改变的指示信息;同理,当第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构不相同或者相同,第一设备和第二设备本地均保存有第四神经网络,且第四神经网络在第一设备中的index与第四神经网络在第二设备中的index一致,则第四神经网络的信息可以是第四神经网络的index,第四神经网络的信息还可以包括用于指示网络结构是否发生改变的指示信息。
可选地,上述第三神经网络的index和第四神经网络的index相同,在该情况下上述的第三神经网络的信息和第四神经网络的信息为同一个index以及包括网络结构是否发生改变的指示信息。
可能五、当第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构不相同,第三神经网络可以用第一网络结构和第一网络权重表示,则第三神经网络的信息可以是第一网络结构、第一网络权重以及第五指示信息,其中,第五指示用于指示第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构不相同,即指示网络结构发生改变;同理,当第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构不相同,第四神经网络可以用第二网络结构和第二网络权重表示,则第四神经网络的信息可以是第二网络结构、第二网络权重以及第六指示信息,其中,第六指示用于指示第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构不相同,即指示网络结构发生改变。
可能六、当第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构不相同,第三神经网络可以用第一网络结构和第一网络权重表示,第一设备和第二设备本地均保存有第一网络结构,且第一网络结构在第一设备中的index与第一网络结构在第二设备中的index一致,则第三神经网络的信息可以是第一网络权重和第一网络结构的index以及第五指示信息,其中,第五指示用于指示第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构不相同,即指示网络结构发生改变;同理,当第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构不相同,第四神经网络可以用第二网络结构和第二网络权重表示,第一设备和第二设备本地均保存有第二网络结构,且第二网络结构在第一设备中的index与第二网络结构在第二设备中的index一致,则第四神经网络的信息可以是第二网络权重、第二网络结构的index以及第六指示信息,其中,第六指示用于指示第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构不相同,即指示网络结构发生改变。
可选地,上述第一网络结构的index和第二网络结构的index相同,在该情况下上述的第一网络结构的index和第二网络结构的index为一个index即可。
可能七、当第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构不相同,第三神经网络可以用第一网络结构和第一网络权重表示,第一设备和第二设备本地均保存有第一网络结构和第一网络权重,且第一网络结构在第一设备中的index与第一网络结构在第二设备中的index一致,第一网络权重在第一设备中的index与第一网络权重在第二设备中的index一致,则第三神经网络的信息可以是第一网络权重的index和第一网络结构的index以及第五指示信息,其中,第五指示用于指示第三神经网络对应的第一网络结构和第一神经网络对应的第三网络结构不相同,即指示网络结构发生改变;同理, 当第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构不相同,第四神经网络可以用第二网络结构和第二网络权重表示,第一设备和第二设备本地均保存有第二网络结构和第二网络权重,且第二网络结构在第一设备中的index与第二网络结构在第二设备中的index一致,第二网络权重在第一设备中的index与第二网络权重在第二设备中的index一致,则第四神经网络的信息可以是第二网络权重的index、第二网络结构的index以及第六指示信息,其中,第六指示用于指示第四神经网络对应的第二网络结构和第二神经网络对应的第四网络结构不相同,即指示网络结构发生改变。
可选地,上述第一网络结构的index和第二网络结构的index相同,在该情况下上述的第一网络结构index和第二网络结构的index为一个index即可;第一网络权重的index和第二网络权重的index相同,在该情况下上述的第一网络权重index和第二网络权重的index为一个index即可。
另外,在方式三中主要说明对应上述的更新方式三发送第四神经网络的信息,或者,发送第三神经网络的信息和第四神经网络的信息,但是本申请中并不限定方式三所示的发送第四神经网络的信息,或者,发送第三神经网络的信息和第四神经网络的信息不能应用于上述的更新方式一和/或二所示的场景,也就是说当更新方式为上述的更新方式一和/或二所示的情况下,发送第四神经网络的信息,或者,发送第三神经网络的信息和第四神经网络的信息的方式也可以选择该方式三所述的方式。
作为示例而非限定,本申请实施例中执行发送第三神经网络的信息和/或第四神经网络的信息之前,第一设备或第二设备可以通过以下方式确定向对端设备发送第三神经网络的信息和/或第四神经网络的信息:
方式一:
第一设备或第二设备执行上述的S510a得到第三神经网络和第四神经网络之后,向对端设备发送第一信息,该第一信息用于通知对端设备接收第三神经网络的信息和/或第四神经网络的信息,即图5(a)所示的方法流程还包括S530a,发送第一信息。
示例性地,发送端设备向接收端设备发送第一信息包括:本端设备在PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH上向接收端设备发送该第一信息。
应理解,由于PUCCH和PDCCH资源受限,所以在PUSCH或PDSCH上向接收端设备发送该第一信息可以增加方案的灵活性。
进一步地,对端设备接收到上述的第一信息之后,确定可以接收来自第一设备或第二设备的第三神经网络的信息和/或第四神经网络的信息,即图5(a)所示的方法流程还包括S531a,发送第一响应消息,该第一响应消息用于指示第一设备或第二设备可以发送上述的第三神经网络的信息和/或第四神经网络的信息。
示例性地,发送端设备向接收端设备发送第一响应消息包括:发送端设备在PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH上向接收端设备发送该第一响应消息。
示例性地,该第一响应消息承载于上行授权(uplink grant,UL Grant)上,所述UL Grant中包括预设字段指示第一设备或第二设备是否发送上述的第三神经网络的信息和/或第四神经网络的信息。
例如,该预设字段包括2比特,当预设字段比特值为00表示第一设备或第二设备不发送上述的第三神经网络的信息和第四神经网络的信息;当预设字段比特值为01表示第 一设备或第二设备不发送上述的第三神经网络的信息,但是发送第四神经网络的信息;当预设字段比特值为10表示第一设备或第二设备不发送上述的第四神经网络的信息,但是发送第三神经网络的信息;当预设字段比特值为11表示第一设备或第二设备发送上述的第三神经网络的信息和第四神经网络的信息。
需要说明书的是,上述UL Grant中包括预设字段的比特数以及比特值所表示的含义只是举例,对本申请的保护范围不构成任何的限定。
应理解,由于PUCCH和PDCCH资源受限,所以在PUSCH或PDSCH上向接收端设备发送该第一响应消息可以增加方案的灵活性。
根据执行上述的S510a的执行主体不同,以及对端设备需要配置的神经网络不同,方式一下S530a和S531a包括以下几种可能:
可能一、当第一设备更新第一神经网络和第二神经网络,第二设备需要配置第三神经网络的情况下。S530a为第一设备向第二设备发送第一信息,该第一信息用于通知第二设备接收第三神经网络的信息,或者,该第一信息用于通知第二设备接收第三神经网络的信息和第四神经网络的信息;S531a为第二设备向第一设备发送第一响应消息,该第一响应消息用于指示第一设备发送第三神经网络的信息,或者,该第一响应消息用于指示第一设备发送第三神经网络的信息和第四神经网络的信息。
可能二、当第一设备更新第一神经网络和第二神经网络,第二设备需要配置第四神经网络的情况下。S530a为第一设备向第二设备发送第一信息,该第一信息用于通知第二设备接收第四神经网络的信息,或者,该第一信息用于通知第二设备接收第三神经网络的信息和第四神经网络的信息;S531a为第二设备向第一设备发送第一响应消息,该第一响应消息用于指示第一设备发送第四神经网络的信息,或者,该第一响应消息用于指示第一设备发送第三神经网络的信息和第四神经网络的信息。
可能三、当第二设备更新第一神经网络和第二神经网络,第一设备需要配置第三神经网络的情况下。S530a为第二设备向第一设备发送第一信息,该第一信息用于通知第一设备接收第三神经网络的信息,或者,该第一信息用于通知第一设备接收第三神经网络的信息和第四神经网络的信息;S531a为第一设备向第二设备发送第一响应消息,该第一响应消息用于指示第二设备发送第三神经网络的信息,或者,该第一响应消息用于指示第二设备发送第三神经网络的信息和第四神经网络的信息。
可能四、当第二设备更新第一神经网络和第二神经网络,第一设备需要配置第四神经网络的情况下。S530a为第二设备向第一设备发送第一信息,该第一信息用于通知第一设备接收第四神经网络的信息,或者,该第一信息用于通知第一设备接收第三神经网络的信息和第四神经网络的信息;S531a为第一设备向第二设备发送第一响应消息,该第一响应消息用于指示第二设备发送第四神经网络的信息,或者,该第一响应消息用于指示第二设备发送第三神经网络的信息和第四神经网络的信息。
方式二:
第一设备或第二设备执行上述的S510a得到第三神经网络和第四神经网络之后,向对端设备发送第一信息,该第一信息用于通知对端设备接收第三神经网络的信息和/或第四神经网络的信息,即图5(a)所示的方法流程还包括S530a,发送第一信息。
进一步地,对端设备接收到上述的第一信息之后,可以不同意基于AI模式进行信息 传输。例如,对端设备向第一设备或第二设备发送第二响应消息,该第二响应消息用于指示第一设备或第二设备基于非AI模式进行信息传输;还例如,对端设备接收到第一信息之后在一段时间之内不向第一设备或第二设备发送任何的响应消息,则第一设备或第二设备在发送第一信息之后的第四预设时长内未收到任何响应消息的情况下,第一设备或第二设备可以确定基于传统的信息传输模式进行信息传输。
在该方式二下,图5(a)所示的方法流程还包括S532a,对端设备向第一设备或第二设备发送第二响应消息,或者,对端设备在一段时间之内不向第一设备或第二设备发送响应消息。
根据执行上述的S510a的执行主体不同,以及对端设备需要配置的神经网络不同,方式二下S530a和S532a包括以下几种可能:
可能一、当第一设备更新第一神经网络和第二神经网络,第二设备需要配置第三神经网络的情况下。S530a为第一设备向第二设备发送第一信息,该第一信息用于通知第二设备接收第三神经网络的信息,或者,该第一信息用于通知第二设备接收第三神经网络的信息和第四神经网络的信息;S532a为第二设备向第一设备发送第二响应消息,该第二响应消息用于指示第一设备基于非AI模式进行信息传输,或者,第二设备在一段时间之内不向第一设备发送响应消息。
示例性地,发送端设备向接收端设备发送第二响应消息包括:发送端设备在PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH上向接收端设备发送该第二响应消息。
应理解,由于PUCCH和PDCCH资源受限,所以PUSCH或PDSCH上向接收端设备发送该第二响应消息可以增加方案的灵活性。
可能二、当第一设备更新第一神经网络和第二神经网络,第二设备需要配置第四神经网络的情况下。S530a为第一设备向第二设备发送第一信息,该第一信息用于通知第二设备接收第四神经网络的信息,或者,该第一信息用于通知第二设备接收第三神经网络的信息和第四神经网络的信息;S532a为第二设备向第一设备发送第二响应消息,该第二响应消息用于指示第一设备基于非AI模式进行信息传输,或者,第二设备在一段时间之内不向第一设备发送响应消息。
可能三、当第二设备更新第一神经网络和第二神经网络,第一设备需要配置第三神经网络的情况下。S530a为第二设备向第一设备发送第一信息,该第一信息用于通知第一设备接收第三神经网络的信息,或者,该第一信息用于通知第一设备接收第三神经网络的信息和第四神经网络的信息;S532a为第一设备向第二设备发送第二响应消息,该第二响应消息用于指示第二设备基于非AI模式进行信息传输,或者,第一设备在一段时间之内不向第二设备发送响应消息。
可能四、当第二设备更新第一神经网络和第二神经网络,第一设备需要配置第四神经网络的情况下。S530a为第二设备向第一设备发送第一信息,该第一信息用于通知第一设备接收第四神经网络的信息,或者,该第一信息用于通知第一设备接收第三神经网络的信息和第四神经网络的信息;S532a为第一设备向第二设备发送第二响应消息,该第二响应消息用于指示第二设备基于非AI模式进行信息传输,或者,第一设备在一段时间之内不向第二设备发送响应消息。
方式三:
第一设备或第二设备执行上述的S510a得到第三神经网络和第四神经网络,该第一设备或第二设备接收到该第二信息之后,向该第二设备发送该第四神经网络的信息和/或该第三神经网络的信息。
需要说明的是,本申请实施例中上述第一设备或第二设备接收到该对端设备发送的第二信息之后,向该对端设备发送发送该第四神经网络的信息和/或该第三神经网络的信息的时机不限定,可以是在接收到该第二信息之后的任意时刻。
例如,第一设备或第二设备接收到对端设备发送的第二信息后,在第一起始时刻之后的第一预设时长之内或者在第一预设时长之后开始向对端设备发送第三神经网络的信息和/或第四神经网络的信息该第二信息用于指示对端设备能够接收第三神经网络的信息和/或第四神经网络的信息,即图5(a)所示的方法流程还包括S540a,发送第二信息。
其中,该所述第一起始时刻包括以下时刻的任意一种:
接收端设备接收来自发送端设备的第一指示信息的时刻、发送端设备向接收端设备发送所述第二通知消息的时刻、接收端设备接收来自发送端设备的第二通知消息的时刻、发送端设备向接收端设备发送第一信令的时刻、接收端设备接收来自发送端设备的第二信令的时刻,其中,第一信令用于指示计时开始,第二信令用于指示更新开始。
示例性地,发送端设备向接收端设备发送第二信息包括:发送端设备在PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH上向接收端设备发送该第二信息。
应理解,由于PUCCH和PDCCH资源受限,所以在PUSCH或PDSCH上向接收端设备发送该第二信息可以增加方案的灵活性。
根据执行上述的S510a的执行主体不同,以及对端设备需要配置的神经网络不同,方式三下S540a包括以下几种可能:
可能一、当第一设备更新第一神经网络和第二神经网络,第二设备需要配置第三神经网络的情况下。S540a为第二设备向第一设备发送第二信息,该第二信息用于指示第二设备能够接收第三神经网络的信息,或者,该第二信息用于指示第二设备能够接收第三神经网络的信息和第四神经网络的信息。
可能二、当第一设备更新第一神经网络和第二神经网络,第二设备需要配置第四神经网络的情况下。S540a为第二设备向第一设备发送第二信息,该第二信息用于指示第二设备能够接收第四神经网络的信息,或者,该第二信息用于指示第二设备能够接收第三神经网络的信息和第四神经网络的信息。
可能三、当第二设备更新第一神经网络和第二神经网络,第一设备需要配置第三神经网络的情况下。S540a为第一设备向第二设备发送第二信息,该第二信息用于指示第一设备能够接收第三神经网络的信息,或者,该第二信息用于指示第一设备能够接收第三神经网络的信息和第四神经网络的信息。
可能四、当第二设备更新第一神经网络和第二神经网络,第一设备需要配置第四神经网络的情况下。S540a为第一设备向第二设备发送第二信息,该第二信息用于指示第一设备能够接收第四神经网络的信息,或者,该第二信息用于指示第一设备能够接收第三神经网络的信息和第四神经网络的信息。
方式四:
第一设备或第二设备执行上述的S510a得到第三神经网络和第四神经网络,第一设备 或第二设备向对端设备发送第三神经网络的信息和/或第四神经网络的信息。
需要说明的是,本申请实施例中上述第一设备或第二设备向对端设备发送第三神经网络的信息和/或第四神经网络的信息的时机不限定。
例如,第一设备或第二设备在第二起始时刻之后的第二预设时长之内或者在第二预设时长之后开始向对端设备发送第三神经网络的信息和/或第四神经网络的信息,即方式四下直接在预设的时长之后执行上述S520a,发送第三神经网络的信息和/或第四神经网络的信息。
第二起始时刻包括以下时刻的任意一种:
接收端设备接收来自发送端设备的第一指示信息的时刻、发送端设备向接收端设备发送所述第二通知消息的时刻、接收端设备接收来自发送端设备的第二通知消息的时刻、发送端设备向接收端设备发送第一信令的时刻、接收端设备接收来自发送端设备的第二信令的时刻,其中,第一信令用于指示计时开始,第二信令用于指示更新开始。
根据执行上述的S510a的执行主体不同,以及对端设备需要配置的神经网络不同,方式四下S520a包括以下几种可能:
可能一、当第一设备更新第一神经网络和第二神经网络,第二设备需要配置第三神经网络的情况下。S520a为第一设备向第二设备发送第三神经网络的信息,或者,第一设备向第二设备发送第三神经网络的信息和第四神经网络的信息。
可能二、当第一设备更新第一神经网络和第二神经网络,第二设备需要配置第四神经网络的情况下。S520a为第一设备向第二设备发送第四神经网络的信息,或者,第一设备向第二设备发送第三神经网络的信息和第四神经网络的信息。
可能三、当第二设备更新第一神经网络和第二神经网络,第一设备需要配置第三神经网络的情况下。S520a为第二设备向第一设备发送第三神经网络的信息,或者,第二设备向第一设备发送第三神经网络的信息和第四神经网络的信息。
可能四、当第二设备更新第一神经网络和第二神经网络,第一设备需要配置第四神经网络的情况下。S520a为第二设备向第一设备发送第四神经网络的信息,或者,第二设备向第一设备发送第三神经网络的信息和第四神经网络的信息。
需要说明的是,方式三和方式四下第一设备和第二设备对于开始更新第一神经网络和第二神经网络的时刻都能获知(例如,执行更新的本端设备能够获知、对端设备根据信息传输的中断或模式变化感知到更新的发生)。预设的时长之后,第一设备和第二设备获知更新完成,可以约定传输更新得到的第三神经网络的信息和/或第四神经网络的信息,而不再需要一条指令(如,第一信息)通知对端设备已经更新完成。
方式五:
第一设备或第二设备执行上述的S510a得到第三神经网络和第四神经网络之后,向对端设备发送第一信息,该第一信息用于通知对端设备接收第三神经网络的信息和/或第四神经网络的信息,即方式五下图5(a)所示的方法流程还包括上述的S530a,发送第一信息。
进一步地,第一设备或第二设备发送上述的第一信息之后,在第三预设时长之内或者在第三预设时长之后开始向对端设备发送第三神经网络的信息和/或第四神经网络的信息,即方式五下图5(a)所示的方法流程还包括上述的S520a,发送第三神经网络的信息 和/或第四神经网络的信息。
与上述的方式一不同的是,方式五下第一设备或第二设备发送上述的第一信息之后,无需等待对端设备的响应直接在一段时长之后向对端设备发送更新得到的第三神经网络的信息和/或第四神经网络的信息。
根据执行上述的S510a的执行主体不同,以及对端设备需要配置的神经网络不同,方式五下S530a和S520a包括以下几种可能:
可能一、当第一设备更新第一神经网络和第二神经网络,第二设备需要配置第三神经网络的情况下。S530a为第一设备向第二设备发送第一信息,该第一信息用于通知第二设备接收第三神经网络的信息,或者,该第一信息用于通知第二设备接收第三神经网络的信息和第四神经网络的信息;S520a为第一设备向第二设备发送第三神经网络的信息,或者,第一设备向第二设备发送第三神经网络的信息和第四神经网络的信息。
可能二、当第一设备更新第一神经网络和第二神经网络,第二设备需要配置第四神经网络的情况下。S530a为第一设备向第二设备发送第一信息,该第一信息用于通知第二设备接收第四神经网络的信息,或者,该第一信息用于通知第二设备接收第三神经网络的信息和第四神经网络的信息;S520a为第一设备向第二设备发送第四神经网络的信息,或者,第一设备向第二设备发送第三神经网络的信息和第四神经网络的信息。
可能三、当第二设备更新第一神经网络和第二神经网络,第一设备需要配置第三神经网络的情况下。S530a为第二设备向第一设备发送第一信息,该第一信息用于通知第一设备接收第三神经网络的信息,或者,该第一信息用于通知第一设备接收第三神经网络的信息和第四神经网络的信息;S520a为第二设备向第一设备发送第三神经网络的信息,或者,第二设备向第一设备发送第三神经网络的信息和第四神经网络的信息。
可能四、当第二设备更新第一神经网络和第二神经网络,第一设备需要配置第四神经网络的情况下。S530a为第二设备向第一设备发送第一信息,该第一信息用于通知第一设备接收第四神经网络的信息,或者,该第一信息用于通知第一设备接收第三神经网络的信息和第四神经网络的信息;S520a为第二设备向第一设备发送第四神经网络的信息,或者,第二设备向第一设备发送第三神经网络的信息和第四神经网络的信息。
应理解,上述的方式一~方式五只是举例说明,第一设备和第二设备可以通过协商确定是否传输上述的第三神经网络的信息和/或第四神经网络的信息,或者,第一设备和第二设备之间无需通过协商可以直接传输上述的第三神经网络的信息和/或第四神经网络的信息,对本申请的保护范围不构成任何的限定,还可以通过其他的方式确定是否传输上述的第三神经网络的信息和/第四神经网络的信息,例如,通过协议预定义:在本端设备更新得到第三神经网络和第四神经网络之后,协议规定对端设备需要接受更新之后的第三神经网络的信息和/或第四神经网络的信息,并且基于更新之后的包括第三神经网络和第四神经网络的通信系统进行信息传输,这里不再一一举例说明。
还应理解,接收端设备接收到上述的第三神经网络的信息和/第四神经网络的信息之后,可以本地判断该第三神经网络和/或第四神经网络的性能是否满足要求,并决定是否采用该第三神经网络和第四神经网络与发送端设备进行信息传输。
示例性地,接收端设备向发送端设备发送第一通知消息,第一通知消息用于指示接收端设备是否采用第四神经网络,或者是否采用第四神经网络和第三神经网络进行信息传 输。
例如,当接收端设备和发送端设备已经协商退回到非AI模式进行信息传输的时候,该第一通知消息可以指示采用AI模式进行信息传输,即采用接收到的第三神经网络和第四神经网络与发送端设备进行信息传输,或者该第一通知消息可以指示采用非AI模式进行信息传输,即拒绝采用接收到的第三神经网络和第四神经网络与发送端设备进行信息传输;还例如,当接收端设备和发送端设备未协商退回到非AI模式,而是采用第一神经网络和第二神经网络进行信息传输的时候,该第一通知消息可以指示采用AI模式进行信息传输,即从采用第一神经网络和第二神经网络进行信息传输切换到采用接收到的第三神经网络和第四神经网络与发送端设备进行信息传输,或者该第一通知消息可以指示采用非AI模式进行信息传输,即拒绝采用接收到的第三神经网络和第四神经网络与发送端设备进行信息传输退回到非AI模式。
图5(b)所示的方法流程可以应用于图5(d)所示的传输框架下。从图5(d)中可以看出终端设备侧获得待反馈的下行信道信息,并通过第一压缩器处理该待反馈的下行信道信息获得需要反馈到空口的压缩信道信息,网络设备侧获得该压缩信道信息之后,通过第一解压缩器进行解压缩处理获得恢复的下行信道信息。
理论上,训练得到的第一压缩器和第一解压缩器构成的AI模型能够使得恢复的下行信道信息与待反馈的下行信道信息之间的差异度或相似度在可接受的范围之内,但是第一压缩器和第一解压缩器为离线训练得到的,在线下行信道信息反馈的过程中如果待反馈的下行信道和用于训练得到第一压缩器和第一解压缩器的训练信道特征不同,可能会导致基于第一压缩器和第一解压缩器构成的AI模型反馈该待反馈的下行信道信息之后,恢复的下行信道信息和待反馈的下行信道信息之间的差异度或相似度不在可接受的范围之内,这种情况下就需要对第一压缩器和第一解压缩器进行在线更新,以使得基于更新后的第一压缩器和第一解压缩器进行下行信道信息反馈时,恢复的下行信道信息与待反馈的下行信道信息之间的差异度或相似度在可接受的范围之内,下面结合图5(b)详细说明如何在线更新第一压缩器和第一解压缩器。
需要说明的是,图5(b)所示的方法流程与上述的图5(a)所示的方法流程类似,不同的是图5(b)主要介绍在信道信息反馈的场景下在线更新第一压缩器和第一解压缩器。
另外,图5(b)中第一设备和第二设备之间的交互信令与图5(a)中的类似,可以承载于PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH上,下文中不再赘述。其中,由于PUCCH和PDCCH资源受限,所以在PUSCH或PDSCH上进行信令交互可以增加方案的灵活性。
具体地,图5(b)中的第一设备或第二设备可以执行更新第一压缩器和第一解压缩器的步骤,并且与图5(a)所述的类似,第一设备或第二设备可以自行周期性或非周期性地更新第一压缩器和第一解压缩器,无需触发更新。为了体现在信道信息反馈的场景下的具体实施,图5(b)中主要以第一设备判断需要更新第一压缩器和第一解压缩的角度出发详细介绍在信道信息反馈的场景下在线更新第一压缩器和第一解压缩器的流程,对于第一设备或第二设备周期性或非周期性地更新第一压缩器和第一解压缩器可以参考上述的图5(a)中的描述,图5(b)不再赘述。
则图5(b)所示的方法包括以下部分或全部步骤。
S510,第一设备判断第一压缩器和第一解压缩器是否需要更新。
其中,第一设备包括终端设备或网络设备。
下面介绍两种第一设备可以用于判断第一压缩器和第一解压缩器是否需要更新的方式:
方式一:
第一设备基于下行信道信息、第一压缩器和第一解压缩器确定估计下行信道信息,并基于下行信道信息和估计下行信道信息之间的差异度或相似度与对应的预设门限之间的大小关系判断第一压缩器和第一解压缩器是否需要更新。其中,下行信道信息和估计下行信道信息之间的差异度与第一预设门限相比较、下行信道信息和估计下行信道信息之间的相似度与第二预设门限相比较。
本申请中预设门限也可以称之为阈值、门限值等,具体名称对本申请的保护范围不构成任何的限定。
示例性地,当该下行信道信息和估计下行信道信息之间的差异度大于或者等于第一预设门限的情况下,或者,当该下行信道信息和估计下行信道信息之间的相似度小于或者等于第二预设门限的情况下,第一设备判断第一压缩器和第一解压缩器需要更新;当该下行信道信息和估计下行信道信息之间的差异度小于预第一预设门限的情况下,或者,当该下行信道信息和估计下行信道信息之间的相似度大于第二预设门限的情况下,第一设备判断第一压缩器和第一解压缩器不需要更新。
或者,当该下行信道信息和估计下行信道信息之间的差异度大于第一预设门限的情况下,或者,当该下行信道信息和估计下行信道信息之间的相似度小于第二预设门限的情况下,第一设备判断第一压缩器和第一解压缩器需要更新;当该下行信道信息和估计下行信道信息之间的差异度小于或者等于第一预设门限的情况下,或者,当该下行信道信息和估计下行信道信息之间的相似度大于或者等于第二预设门限的情况下,第一设备判断第一压缩器和第一解压缩器不需要更新。
需要说明的是,上述的基于下行信道信息和估计下行信道信息之间的差异度或相似度与对应的预设门限之间的大小关系判断是否需要更新第一压缩器和第一解压缩器只是举例对本申请的保护范围不构成任何限定。例如,第一设备还可以基于下行信道信息和估计下行信道信息之间的差异度或相似度与对应预设门限之间进一步地的差异度或相似度判断是否需要更新第一压缩器和第一解压缩器。
上述的预设门限的具体取值可以是协议预定义的,还可以是网络设备和终端设备之间协商确定的,还可以是网络设备确定的,还可以是终端设备确定的,还可以是第三方设备确定之后通知给网络设备和终端设备的,本申请实施例中对于第一设备如何获知预设门限并不限制。
方式一下第一设备基于下行信道信息、第一压缩器和第一解压缩器确定估计下行信道信息包括以下几种可能:
可能一、第一设备为终端设备,则下行信道信息为终端设备获得的无压缩损失的下行信道(记为H d)。其中,第一压缩器记为函数f en,第一解压缩器记为函数f de。本申请实施例中对于终端设备如何获得了无压缩损失的下行信道并不限制,可以参考现有的终端 设备获得无压缩损失的下行信道的方案,这里对此不赘述。
在可能一下,基于下行信道信息、第一压缩器和第一解压缩器确定估计下行信道信息的流程如图6中的(a)所示,图6是本申请实施例提供的一种确定估计下行信道信息的示意性图。
从图6中的(a)中可以看出下行信道信息经过第一压缩器的压缩结果再经由第一解压缩器解压缩,得到上述的估计下行信道信息。
需要说明的是,在可能一下,终端设备已知上述的第一压缩器和第一解压缩器(例如,终端设备本地保存有第一压缩器和第一解压缩器,或者,终端设备已知第一压缩器并且网络设备将上述的第一解压缩器发送给终端设备),所以在终端设备获得无压缩损失的下行信道之后,能够基于无压缩损失的下行信道和已知的第一压缩器和第一解压缩器确定估计下行信道信息。
其中,终端设备确定估计下行信道信息可以是终端设备计算得到估计下行信道信息,还可以终端设备查表确定估计下行信道信息。
例如,从图6中的(a)中可以看出终端设备可以基于下式计算得到估计下行信道信息:
Figure PCTCN2020087875-appb-000001
其中,H d表示终端设备获得的无压缩损失的下行信道,f en表示第一压缩器,f en(H d)表示终端设备获得的无压缩损失的下行信道经由第一压缩器压缩的结果,f de表示第一解压缩器,
Figure PCTCN2020087875-appb-000002
表示终端设备计算得到的估计下行信道信息。
应理解,上述的公式
Figure PCTCN2020087875-appb-000003
只是举例对本申请的保护范围不构成任何的限定,该公式的简单变形也在本申请的保护范围之内,如:
Figure PCTCN2020087875-appb-000004
Δ为偏移量可以为预设的值,这里不再赘述。
还例如,终端设备可以基于表1查表得到估计下行信道信息。
表1
Figure PCTCN2020087875-appb-000005
应理解,上述的终端设备确定估计下行信道信息的方式只是举例,对本申请的保护范围不构成任何限定,其他终端设备能够确定估计下行信道信息的方式也在本申请的保护范围之内,本申请不再一一举例说明。
可能二、第一设备为网络设备,则下行信道信息为网络设备获得的存在压缩损失的下行信道(记为H d_NB)。其中,第一压缩器记为函数f en,第一解压缩器记为函数f de。本申请实施例中对于网络设备如何获得了存在压缩损失的下行信道不限制,可以参考现有的AI方式获或传统的信道反馈方式获得无压缩损失的下行信道的方案,这里对此不赘述。
在可能二下,基于下行信道信息、第一压缩器和第一解压缩器确定估计下行信道信息的流程如图6中的(b)所示,从图6中的(b)中可以看出下行信道信息经过第一压缩器的压缩结果再经由第一解压缩器解压缩,得到上述的估计下行信道信息。
需要说明的是,在可能二下,网络设备已知上述的第一压缩器和第一解压缩器(例如,网络设备本地保存有第一压缩器和第一解压缩器,或者,网络设备已知第一解压缩器并且 终端设备将上述的第一压缩器发送给网络设备),所以在网络设备获得存在压缩损失的下行信道之后,能够基于存在压缩损失的下行信道和已知的第一压缩器和第一解压缩器确定估计下行信道信息。
其中,网络设备确定估计下行信道信息可以是网络设备计算得到估计下行信道信息,还可以网络设备查表确定估计下行信道信息。
例如,从图6中的(b)中可以看出网络设备可以基于下式计算得到估计下行信道信息:
Figure PCTCN2020087875-appb-000006
其中,H d_NB表示网络设备获得的存在压缩损失的下行信道,f en表示第一压缩器,f en(H d_NB)表示网络设备获得的存在压缩损失的下行信道经由第一压缩器压缩的结果,f de表示第一解压缩器,
Figure PCTCN2020087875-appb-000007
表示网络设备计算得到的估计下行信道信息。
应理解,上述的公式
Figure PCTCN2020087875-appb-000008
只是举例对本申请的保护范围不构成任何的限定,该公式的简单变形也在本申请的保护范围之内,如:
Figure PCTCN2020087875-appb-000009
Δ为偏移量可以为预设的值,这里不再赘述。
还例如,终端设备可以基于表2查表得到估计下行信道信息。
表2
Figure PCTCN2020087875-appb-000010
应理解,上述的网络设备确定估计下行信道信息的方式只是举例,对本申请的保护范围不构成任何限定,其他网络设备能够确定估计下行信道信息的方式也在本申请的保护范围之内,本申请不再一一举例说明。
方式二:
第一设备基于下行信道信息、上行信道信息、第一压缩器和第一解压缩器确定估计下行信道信息。进一步地,基于下行信道信息和估计下行信道信息判断是否需要更新第一压缩器和第一解压缩器与上述的方式一相同,这里不再赘述。因此方式二中主要说明如何基于下行信道信息、上行信道信息、第一压缩器和第一解压缩器确定估计下行信道信息。
方式二下,第一设备基于下行信道信息、上行信道信息、第一压缩器和第一解压缩器确定估计下行信道信息包括以下几种可能:
可能一、第一设备为终端设备,则下行信道信息为终端设备获得的无压缩损失的下行信道(记为H d),上行信道为网络设备下发给终端设备的上行信道信息(记为H u)。其中,第一压缩器记为函数f en,第一解压缩器记为函数f de
在可能一下,基于下行信道信息、上行信道信息、第一压缩器和第一解压缩器确定估计下行信道信息的流程如图7中的(a)所示,图7是本申请实施例提供的另一种确定估计下行信道信息的示意性图。
从图7中的(a)中可以看出下行信道信息经过第一压缩器的压缩结果以及上行信道 信息经由第一解压缩器解压缩,得到上述的估计下行信道信息。
需要说明的是,在可能一下,终端设备已知上述的第一压缩器和第一解压缩器,所以在终端设备获得无压缩损失的下行信道以及上行信道信息之后,能够基于无压缩损失的下行信道、上行信道信息和已知的第一压缩器和第一解压缩器确定估计下行信道信息。
其中,终端设备确定估计下行信道信息可以是终端设备计算得到估计下行信道信息,还可以终端设备查表确定估计下行信道信息。
例如,从图7中的(a)中可以看出终端设备可以基于下式计算得到估计下行信道信息:
Figure PCTCN2020087875-appb-000011
其中,H d表示终端设备获得的无压缩损失的下行信道,H u表示终端设备获得的上行信道信息,f en表示第一压缩器,f en(H d)表示终端设备获得的无压缩损失的下行信道经由第一压缩器压缩的结果,f de表示第一解压缩器,
Figure PCTCN2020087875-appb-000012
表示终端设备计算得到的估计下行信道信息。
应理解,上述的公式
Figure PCTCN2020087875-appb-000013
只是举例对本申请的保护范围不构成任何的限定,该公式的简单变形也在本申请的保护范围之内,如:
Figure PCTCN2020087875-appb-000014
Δ为偏移量可以为预设的值,这里不再赘述。
还例如,终端设备可以基于表3查表得到估计下行信道信息。
表3
Figure PCTCN2020087875-appb-000015
可能二、第一设备为终端设备,则下行信道信息为终端设备获得的无压缩损失的下行信道(记为H d),上行信道为网络设备下发给终端设备的上行信道信息(记为H u)。其中,第一压缩器记为函数f en,第一解压缩器记为函数f de
在可能二下,基于下行信道信息、上行信道信息、第一压缩器和第一解压缩器确定估计下行信道信息的流程如图7中的(b)所示,从图7中的(b)中可以看出下行信道信息以及上行信道信息之间的差值经过第一压缩器的压缩结果,以及上行信道信息经由第一解压缩器解压缩,得到上述的估计下行信道信息。
需要说明的是,在可能一下,终端设备已知上述的第一压缩器和第一解压缩器,所以在终端设备获得无压缩损失的下行信道以及上行信道信息之后,能够基于无压缩损失的下行信道、上行信道信息和已知的第一压缩器和第一解压缩器确定估计下行信道信息。
其中,终端设备确定估计下行信道信息可以是终端设备计算得到估计下行信道信息,还可以终端设备查表确定估计下行信道信息。
例如,从图7中的(b)中可以看出终端设备可以基于下式计算得到估计下行信道信息:
Figure PCTCN2020087875-appb-000016
其中,H d表示终端设备获得的无压缩损失的下行信道,H u表示终端设备获得的上行信道信息,f en表示第一压缩器,f en(H d)表示终端设备获得的无压缩损失的下行信道经由第一压缩器压缩的结果,f de表示第一解压缩器,
Figure PCTCN2020087875-appb-000017
表示终端设备计算得到的估计下行信道信息。
应理解,上述的公式
Figure PCTCN2020087875-appb-000018
只是举例对本申请的保护范围不构成任何的限定,该公式的简单变形也在本申请的保护范围之内,如:
Figure PCTCN2020087875-appb-000019
Δ为偏移量可以为预设的值,这里不再赘述。
还例如,终端设备可以基于上述的表3类似的表格查表得到估计下行信道信息,这里不再赘述。
应理解,上述方式二下终端设备确定估计下行信道信息的方式只是举例,对本申请的保护范围不构成任何限定,其他终端设备能够确定估计下行信道信息的方式也在本申请的保护范围之内,本申请不再一一举例说明。
可能三、第一设备为网络设备,则下行信道信息为网络设备获得的存在压缩损失的下行信道(记为H d_NB),上行信道信息为网络设备测得的上行信道信息(记为H u)。其中,第一压缩器记为函数f en,第一解压缩器记为函数f de
在可能三下,基于下行信道信息、上行信道信息、第一压缩器和第一解压缩器确定估计下行信道信息的流程如图7中的(c)所示,从图7中的(c)中可以看出下行信道信息经过第一压缩器的压缩结果以及上行信道信息再经由第一解压缩器解压缩,得到上述的估计下行信道信息。
需要说明的是,在可能三下,网络设备已知上述的第一压缩器和第一解压缩器,所以在网络设备获得存在压缩损失的下行信道以及上行信道信息之后,能够基于存在压缩损失的下行信道、上行信道信息和已知的第一压缩器和第一解压缩器确定估计下行信道信息。
其中,网络设备确定估计下行信道信息可以是网络设备计算得到估计下行信道信息,还可以网络设备查表确定估计下行信道信息。
例如,从图7中的(c)中可以看出网络设备可以基于下式计算得到估计下行信道信息:
Figure PCTCN2020087875-appb-000020
其中,H d_NB表示网络设备获得的存在压缩损失的下行信道,H u表示终端设备获得的上行信道信息,f en表示第一压缩器,f en(H d_NB)表示网络设备获得的存在压缩损失的下行信道经由第一压缩器压缩的结果,f de表示第一解压缩器,
Figure PCTCN2020087875-appb-000021
表示网络设备计算得到的估计下行信道信息。
应理解,上述的公式
Figure PCTCN2020087875-appb-000022
只是举例对本申请的保护范围不构成任何的限定,该公式的简单变形也在本申请的保护范围之内,如:
Figure PCTCN2020087875-appb-000023
Δ为偏移量可以为预设的值,这里不再赘述。
还例如,终端设备可以基于表4查表得到估计下行信道信息。
表4
Figure PCTCN2020087875-appb-000024
可能四、第一设备为网络设备,则下行信道信息为网络设备获得的存在压缩损失的下行信道(记为H d_NB),上行信道信息为网络设备测得的上行信道信息(记为H u)。其中, 第一压缩器记为函数f en,第一解压缩器记为函数f de
在可能四下,基于下行信道信息、上行信道信息、第一压缩器和第一解压缩器确定估计下行信道信息的流程如图7中的(d)所示,从图7中的(d)中可以看出下行信道信息以及上行信道信息之间的差值经过第一压缩器的压缩结果,以及上行信道信息经由第一解压缩器解压缩,得到上述的估计下行信道信息。
需要说明的是,在可能四下,网络设备已知上述的第一压缩器和第一解压缩器,所以在网络设备获得存在压缩损失的下行信道以及上行信道信息之后,能够基于存在压缩损失的下行信道、上行信道信息和已知的第一压缩器和第一解压缩器确定估计下行信道信息。
其中,网络设备确定估计下行信道信息可以是网络设备计算得到估计下行信道信息,还可以网络设备查表确定估计下行信道信息。
例如,从图7中的(d)中可以看出网络设备可以基于下式计算得到估计下行信道信息:
Figure PCTCN2020087875-appb-000025
其中,H d_NB表示网络设备获得的存在压缩损失的下行信道,H u表示终端设备获得的上行信道信息,f en表示第一压缩器,f en(H d_NB)表示网络设备获得的存在压缩损失的下行信道经由第一压缩器压缩的结果,f de表示第一解压缩器,
Figure PCTCN2020087875-appb-000026
表示网络设备计算得到的估计下行信道信息。
应理解,上述的公式
Figure PCTCN2020087875-appb-000027
只是举例对本申请的保护范围不构成任何的限定,该公式的简单变形也在本申请的保护范围之内,如:
Figure PCTCN2020087875-appb-000028
Δ为偏移量可以为预设的值,这里不再赘述。
还例如,终端设备可以基于上述的表4类似的表格查表得到估计下行信道信息,这里不再赘述。
应理解,上述方式二下网络设备确定估计下行信道信息的方式只是举例,对本申请的保护范围不构成任何限定,其他网络设备能够确定估计下行信道信息的方式也在本申请的保护范围之内,本申请不再一一举例说明。
上面结合附图6和图7从第一设备为终端设备还是网络设备的角度详细介绍了第一设备如何判断第一压缩器和第一解压缩器是否需要更新。
需要说明的是,上述的第一设备判断第一压缩器和第一解压缩器是否需要更新的方式只是举例,对本申请的保护范围不构成任何的限定,上述方式的简单变形以及其他的判断方式也在本申请的保护范围之内,例如,第一设备直接基于下行信道信息进行判断,或者第一设备基于经验信息判断是否需要更新,这里不再一一举例说明。
示例性地,本申请中第一设备还可以周期性地进行上述判断。
例如,第一设备基于预设周期T,周期性地判断上述的第一压缩器和第一解压缩器是否需要更新,其中,T可以是协议预定义的,或者第一设备和第二设备通过协商确定的,还可以是第一设备随机选择的某个周期,对于第一设备如何获知该预设周期本申请不做限定。
示例性地,第一设备可以基于第二设备发送的第二指示信息进行上述判断,该第二指示信息可以称为触发信令,用于触发第一设备进行上述判断,即该示例下图5所示的方法 流程还可以包括S511:第二设备向第一设备发送第二指示信息。
例如,第一设备接收到第二设备发送的第二指示信息,该第二指示信息用于指示第一设备进行判断上述的第一压缩器和第一解压缩器是否需要更新。其中,当第一设备为终端设备的情况下,该第二设备可以为网络设备;当第一设备为网络设备的情况下,第二设备可以为终端设备。
示例性地,第一设备可以基于自身的触发信息进行上述判断。
例如,第一设备感知到自身的传输性能下降(如,吞吐性能),第一设备可以触发自身进行上述的判断。
具体地,当第一设备确定第一压缩器和第一解压缩器需要更新的情况下,图5所示的方法流程还包括更新第一压缩器和第一解压缩器。
需要说明的是,当第一设备确定第一压缩器和第一解压缩器不需要更新的情况下,第一设备可以在基于目前的AI模型进行信道信息反馈的同时,持续判断第一压缩器和第一解压缩器是否需要更新,下文主要介绍第一压缩器和第一解压缩器需要更新的场景。当第一设备确定第一压缩器和第一解压缩器不需要更新,后续又判断出压缩器和解压缩器需要更新的时候,该压缩器和解压缩器具体更新方式可以参考下文中第一压缩器和第一解压缩的更新流程,本申请不再赘述。
上述S510中已经介绍什么情况下,确定第一压缩器和第一解压缩器需要更新(例如,下行信道信息和估计下行信道信息之间的差异度大于或者等于第一预设门限,或下行信道信息和估计下行信道信息之间的相似度小于或者等于第二预设门限),因此这里不再赘述。
下面介绍几种更新第一压缩器和第一解压缩器的方式:
方式一:
第一设备更新第一压缩器和第一解压缩器,在方式一下由第一设备判断确定需要更新,并且由该第一设备执行更新第一压缩器和第一解压缩器得到合适的第二压缩器和第二解压缩器的步骤。即在方式一下,图5所示的方法流程还包括:S520,第一设备更新第一压缩器和第一解压缩器。
作为示例而非限定,第一设备更新第一压缩器和第一解压缩器得到合适的第二压缩器和第二解压缩器包括以下几种可能:
可能一、第一设备为终端设备,终端设备确定第一压缩器和第一解压缩器需要更新之后,基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息从第一集合中选择合适的第二压缩器和第二解压缩器,其中,第一集合包括至少一个压缩器和至少一个解压缩器。
示例性地,终端设备本地可以保存有至少一对压缩器和解压缩器,并且按照角度扩展、时延扩展等信道信息可以将信道进行划分,不同信道信息对应着不同的压缩器和解压缩器。下面以一个具体的例子说明终端设备如何更新第一压缩器和第一解压缩器:
例如,终端设备本地保存有压缩器#1和解压缩器#1、压缩器#2和解压缩器#2以及压缩器#3和解压缩器#3三对压缩器解压缩器,并且压缩器#1和解压缩器#1可以应用于下行信道信息为下行信道信息#1情况下的下行信道信息反馈、压缩器#2和解压缩器#2可以应用于下行信道信息为下行信道信息#2情况下的下行信道信息反馈、压缩器#3和解压缩器#3可以应用于下行信道信息为下行信道信息#3情况下的下行信道信息反馈。当终端设备 确定压缩器#1和解压缩器#1需要更新,且当前获得的下行信道信息为下行信道信息#2的情况下,终端设备可以将反馈框架中的压缩器#1和解压缩器#1分别更新为压缩器#2和解压缩器#2。
可能二、第一设备为终端设备,终端设备确定第一压缩器和第一解压缩器需要更新之后,基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息调整第一压缩器和第一解压缩器,使得调整后的第一压缩器和第一解压缩器能够用于信道信息反馈框架中,该调整后的第一压缩器可以称之为第二压缩器、调整后的第一解压缩器可以称之为第二解压缩器。
示例性地,终端设备可以基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息确定出压缩器和解压缩器对应的权重。下面以一个具体的例子说明终端设备如何更新第一压缩器和第一解压缩器:
例如,终端设备基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息确定出压缩器对应的网络权重为网络权重#3和解压缩器网络权重#4。第一压缩器对应的网络权重为网络权重#1和第一解压缩器对应的网络权重为网络权重#2。第一压缩器对应的网络权重为网络权重#1调整为网络权重#3即可获得合适的第二压缩器、第一解压缩器对应的网络权重为网络权重#2调整为网络权重#4即可获得合适的第二解压缩器。
可能三、第一设备为终端设备,终端设备确定第一压缩器和第一解压缩器需要更新之后,基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息选择第三压缩器和第三解压缩器,并对该第三压缩器和第三解压缩器进一步地调整,得到合适的压缩器和解压缩器,该选择和调整后得到的压缩器可以称之为第二压缩器、选择和调整后得到的解压缩器可以称之为第二解压缩器。
示例性地,终端设备本地可以保存有至少一对压缩器和解压缩器,并且按照角度扩展、时延扩展等信道信息可以将信道进行划分,不同信道信息可以用于确定不同的压缩器和解压缩器。下面以一个具体的例子说明终端设备如何更新第一压缩器和第一解压缩器:
例如,终端设备本地保存有压缩器#1和解压缩器#1、压缩器#2和解压缩器#2以及压缩器#3和解压缩器#3三对压缩器解压缩器。并且压缩器#1和解压缩器#1可以应用于下行信道信息为下行信道信息#1情况下的下行信道信息反馈、压缩器#2和解压缩器#2可以应用于下行信道信息为下行信道信息#2情况下的下行信道信息反馈、压缩器#3和解压缩器#3可以应用于下行信道信息为下行信道信息#3情况下的下行信道信息反馈。
进一步地,压缩器#3和解压缩器#3对应的权重分别调整为网络权重#1和网络权重#2可以应用于下行信道信息为下行信道信息#4情况下的下行信道信息反馈、压缩器#3和解压缩器#3对应的权重分别调整为网络权重#3和网络权重#4之后可以应用于下行信道信息为下行信道信息#5情况下的下行信道信息反馈。
当终端设备确定压缩器#1和解压缩器#1需要更新,且当前获得的下行信道信息为下行信道信息#5的情况下,终端设备可以先基于下行信道信息#5选择较为合适的压缩器#3和解压缩器#3,进一步地基于下行信道信息#5将反馈框架中的压缩器#3和解压缩器#3对应的权重分别调整为网络权重#3和网络权重#4。
可能四、第一设备为网络设备,当第一设备为网络设备的情况下,网络设备确定第一 压缩器和第一解压缩器需要更新之后,基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息选择合适的第二压缩器和第二解压缩器。具体更新方式与上述的可能一类似,只是执行主体由终端设备变为网络设备,获得的下行信道信息为存在压缩损失的下行信道信息,这里不再赘述。
可能五、第一设备为网络设备,当第一设备为网络设备的情况下,网络设备确定第一压缩器和第一解压缩器需要更新之后,基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息调整第一压缩器和第一解压缩器,使得调整后的第一压缩器和第一解压缩器能够用于信道信息反馈框架中,该调整后的第一压缩器可以称之为第二压缩器、调整后的第一解压缩器可以称之为第二解压缩器。具体更新方式与上述的可能二类似,只是执行主体由终端设备变为网络设备,获得的下行信道信息为存在压缩损失的下行信道信息,这里不再赘述。
可能六、第一设备为网络设备,当第一设备为网络设备的情况下,网络设备确定第一压缩器和第一解压缩器需要更新之后,基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息选择第三压缩器和第三解压缩器,并对该第三压缩器和第三解压缩器进一步地调整,得到合适的压缩器和解压缩器,该选择和调整后得到的压缩器可以称之为第二压缩器、选择和调整后得到的解压缩器可以称之为第二解压缩器。具体更新方式与上述的可能三类似,只是执行主体由终端设备变为网络设备,获得的下行信道信息为存在压缩损失的下行信道信息,这里不再赘述。
可选地,当第一设备执行上述的更新第一压缩器和第一解压缩器的步骤之后,如果无法找到和/或调整到合适的压缩器和解压缩器,第一设备可以选择信道反馈方式回退到非AI模式。例如,回退到传统的基于预编码矩阵进行信道信息反馈的方式。
可选地,当第一设备执行上述的更新第一压缩器和第一解压缩器的步骤之后,如果可以找到和/或调整到合适的压缩器和解压缩器,第一设备也可以选择信道信息反馈方式回退到非AI模式。例如,回退到传统的基于预编码矩阵进行信道信息反馈的方式。
方式二:
第二设备更新第一压缩器和第一解压缩器,在方式二下由第一设备判断确定需要更新,并且由第二设备执行更新第一压缩器和第一解压缩器的步骤。则在方式二下第一设备需要触发第二设备执行更新第一压缩器和第一解压缩器的步骤,即在方式二下图5所示的方法流程还包括S530,第一设备向第二设备发送第一指示信息、S531,第二设备更新第一压缩器和第一解压缩器。
其中,该第一指示信息用于指示第二设备更新第一压缩器和第一解压缩器。该第一指示信息可以理解为触发信息,触发第二设备实现更新的步骤。
需要说明的是,第二设备也可以包括终端设备和网络设备,当第二设备为终端设备的情况下,与上述方式一中第一设备为终端设备,终端设备更新第一压缩器和第一解压缩器类似(如方式一所示的可能一~可能三),这里不再赘述;同理,当第二设备为网络设备的情况下,与上述方式一中第一设备为网络设备,网络设备更新第一压缩器和第一解压缩器类似(如方式一所示的可能四~可能六),这里不再赘述。
可选地,当第二设备执行上述的更新第一压缩器和第一解压缩器的步骤之后,如果无法找到和/或调整到合适的压缩器和解压缩器,第二设备可以选择信道反馈方式回退到非 AI模式。例如,回退到传统的基于预编码矩阵进行信道反馈的方式。
可选地,当第二设备执行上述的更新第一压缩器和第一解压缩器的步骤之后,如果可以找到和/或调整到合适的压缩器和解压缩器,第二设备也可以选择信道信息反馈方式回退到非AI模式。例如,回退到传统的基于预编码矩阵进行信道反馈的方式。
需要说明的是,上述的S520和S531不是必须要执行的步骤。例如,本申请实施例中当第一设备确定第一压缩器和第一解压缩器需要更新之后,第一设备可以选择信道信息反馈方式回退到非AI模式;或者,第一设备通知第二设备该第一压缩器和第一解压缩器需要更新,第二设备可以选择不进行更新而是确定将信道信息反馈方式回退到非AI模式。例如,回退到传统的基于预编码矩阵进行信道反馈的方式。
下文中主要说明更新之后的传输方式,对于拒绝更新回退到非AI模型进行信道信息反馈的方式不再赘述。
对应于S520,第一设备更新第一压缩器和第一解压缩器之后,需要将更新之后的编码器和/或解编码器的信息通知给第二设备,即图5所示的方法流程还包括:S523,第一设备向第二设备发送更新之后的编码器和/或解编码器的信息,使得第二设备能够获知更新后的编码器和/或解编码器,从而第一设备和第二设备实现对齐后续信道信息反馈所使用的编码器和解编码器。
作为一种可能的实现方式,本申请实施例中,在第一设备向第二设备发送更新之后的编码器和/或解编码器的信息之前,第一设备可以根据第二设备的能力,确定更新之后的编码器和/或解编码器的信息的具体形式。
即图5所示的方法流程还包括S521,第一设备向第二设备的第六指示信息,第六指示信息用于指示第二设备上报第二设备的能力,其中,第二设备的能力可以称为AI能力,例如,计算能力、存储能力、是否存储有某项功能的AI模型(如,信道信息解压缩器)、支持的神经网络结构、支持的神经网络规模、支持的AI通信功能;S522,第二设备向第一设备发送第二能力信息。
第一设备获知第二设备的能力之后,能够基于第二设备的能力确定向第二设备发送的更新之后的编码器和/或解编码器的信息的具体形式。
例如,第二设备具备AI计算能力,第一设备发送编码器和/或解编码器的信息的时候,可以向第二设备发送编码器和/或解编码器对应的网络结构和网络权重,由第二设备自身计算出编码器和/或解编码器。
下面结合图8详细介绍第一设备如何通知第二设备更新后的编码器和/或解编码器的信息,图8是本申请实施例提供的发送更新后编码器和/或解编码器的信息的示意性流程图。
具体地,对应于S520中的可能一:
如图8中的(a)所示,包括以下步骤:
S801a,终端设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S801a中终端设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能一以及方式二下的可能一和可能二。
在终端设备确定第一压缩器和第一解压缩器需要更新的情况下,图8中的(a)所示的方法流程还包括:S810a,终端设备基于当前获得的下行信道信息,或者,基于当前获 得的下行信道信息和上行信道信息选择合适的第二压缩器和第二解压缩器。
具体地,S810a中终端设备如何选择合适的第二压缩器和第二解压缩器可以参考上述S520中方式一的可能一中的描述,这里不再赘述。
在终端设备选择到合适的第二压缩器和第二解压缩器之后,作为示例而非限定,图8中的(a)所示的方法流程后续还包括以下几种可能的方式:
方式一、图8中的(a)所示的方法流程还包括:S820a,终端设备向网络设备发送第一信息。该第一信息用于通知网络设备接收第二解压缩器的信息;或者,该第一信息用于通知网络设备接收第二压缩器的信息和第二解压缩器的信息。
网络设备接收到该第一信息之后,可执行的步骤包括以下两种可能:
可能一、网络设备接收到第一信息之后,向终端设备发送第一响应消息,该第一响应消息用于指示终端设备可以上报第二解压缩器的信息;或者,第一响应消息用于指示终端设备可以上报第二压缩器的信息和第二解压缩器的信息;在该可能一下,图8中的(a)所示的方法流程还包括S830a,网络设备向终端设备发送第一响应消息。
进一步地,在该可能一下,图8中的(a)所示的方法流程还包括S840a,终端设备向网络设备发送第二解压缩器的信息,或者,终端设备向网络设备发送第二压缩器的信息和第二解压缩器的信息。
需要说明的是,本申请实施例中终端设备可以向网络设备发送网络设备需要的配置的第二解压缩器的信息,或者,终端设备可以向网络设备发送选择的合适的第二压缩器的信息和第二解压缩器的信息,则后续网络设备可以基于第二压缩器和第二解压缩器重新判断是否需要更新第二压缩器和第二解压缩器。
一种可能的实现方式,网络设备和终端设备本地均保存有第二解压缩器,且第二解压缩器在网络设备中的索引(index)与第二解压缩器在终端设备中的index一致,则终端设备向网络设备发送第二解压缩器的信息可以是发送第二解压缩器的index即可;同理,当网络设备本地保存有第二压缩器和第二解压缩器,且第二压缩器和第二解压缩器在网络设备中分别对应的index与第二压缩器和第二解压缩器在终端设备中分别对应的index一致,则终端设备向网络设备发送第二压缩器的信息和第二解压缩器的信息可以是发送第二压缩器和第二解压缩器分别对应的index即可。
可选地,上述第二压缩器的index和第二解压缩器的index相同,在该情况下上述的第二压缩器的信息和第二解压缩器的信息为同一个index即可。
另一种可能的实现方式,第二解压缩器可以用第一网络权重和第一网络结构表示,则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络权重和第一网络结构即可;同理,第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示,则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络权重和第一网络结构、终端设备向网络设备发送第二压缩器可以是发送第二网络权重和第二网络结构即可。
又一种可能的实现方式,网络设备和终端设备本地分别保存有第二解压缩器对应的第一网络结构,且第一网络结构在网络设备中的index与第一网络结构在终端设备中的index一致,第二解压缩器可以用第一网络权重和第一网络结构表示,则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络结构的index和第一网络权重即可;
同理,当网络设备和终端设备本地分别保存有第二压缩器对应的第二网络结构和第二解压缩器对应的第一网络结构,且第二网络结构在网络设备中对应的index与第二网络结构在终端设备中对应的index一致,第一网络结构在网络设备中对应的index与第一网络结构在终端设备中对应的index一致。第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示,则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络权重和第一网络结构的index、终端设备向网络设备发送第二压缩器可以是发送第二网络权重和第二网络结构的index即可。
可选地,上述第一网络结构的index和第二网络结构的index相同,在该情况下上述的第一网络结构的index和第二网络结构的index为同一个index即可。
又一种可能的实现方式,网络设备和终端设备本地分别保存有第二解压缩器对应的第一网络结构,且第一网络结构在网络设备中的index与第一网络结构在终端设备中的index一致,第二解压缩器可以用第一网络权重和第一网络结构表示。另外,网络设备和终端设备本地分别保存有第二解压缩器对应的第一网络权重,且第一网络权重在网络设备中的index与第一网络权重在终端设备中的index一致,则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络结构的index和第一网络权重的index即可;
同理,当网络设备和终端设备本地分别保存有第二压缩器对应的第二网络结构和第二解压缩器对应的第一网络结构,且第二网络结构在网络设备中对应的index与第二网络结构在终端设备中对应的index一致,第一网络结构在网络设备中对应的index与第一网络结构在终端设备中对应的index一致。
第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示。另外,网络设备和终端设备本地分别保存有第二解压缩器对应的第一网络权重,且第一网络权重在网络设备中的index与第一网络权重在终端设备中的index一致,网络设备和终端设备本地分别保存有第二压缩器对应的第二网络权重,且第二网络权重在网络设备中的index与第二网络权重在终端设备中的index一致。
则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络权重的index和第一网络结构的index、终端设备向网络设备发送第二压缩器可以是发送第二网络权重的index和第二网络结构的index即可。
可选地,上述第一网络结构的index和第二网络结构的index相同,在该情况下上述的第一网络结构的index和第二网络结构的index为同一个index即可;上述第一网络权重的index和第二网络权重的index相同,在该情况下上述的第一网络权重的index和第二网络权重的index为同一个index即可。
又一种可能的实现方式,网络设备和终端设备本地分别仅保存有第二解压缩器对应的第一网络结构,第二解压缩器可以用第一网络权重和第一网络结构表示,则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络权重即可;同理,当网络设备和终端设备本地分别仅保存有第二压缩器对应的第二网络结构和第二解压缩器对应的第一网络结构,第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示,则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络权重、终端设备向网络设备发送第二压缩器可以是发送第二网络权重即可。
又一种可能的实现方式,网络设备和终端设备本地分别仅保存有第二解压缩器对应的 第一网络结构,第二解压缩器可以用第一网络权重和第一网络结构表示。另外,网络设备和终端设备本地分别保存有第二解压缩器对应的第一网络权重,且第一网络权重在网络设备中的index与第一网络权重在终端设备中的index一致,则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络权重的index即可;
网络设备和终端设备本地分别仅保存有第二解压缩器对应的第一网络结构和第二压缩器对应的第二网络结构,第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示。
另外,网络设备和终端设备本地分别保存有第二解压缩器对应的第一网络权重,且第一网络权重在网络设备中的index与第一网络权重在终端设备中的index一致,网络设备和终端设备本地分别保存有第二压缩器对应的第二网络权重,且第二网络权重在网络设备中的index与第二网络权重在终端设备中的index一致,则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络权重的index即可、终端设备向网络设备发送第二压缩器可以是发送第二网络权重的index即可。
可选地,上述第一网络权重的index和第二网络权重的index相同,在该情况下上述的第一网络权重的index和第二网络权重的index为同一个index即可。
又一种可能的实现方式,网络设备和终端设备本地分别仅保存有第二解压缩器对应的第一网络结构,第二解压缩器可以用第一网络权重和第一网络结构表示,另外,第二解压缩器对应的第一网络权重和第一解压缩器对应的第三网络权重之间的变化量为第一网络权重变化量,则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络权重变化量即可;
网络设备和终端设备本地分别仅保存有第二解压缩器对应的第一网络结构和第二压缩器对应的第二网络结构,第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示。
另外,第二解压缩器对应的第一网络权重和第一解压缩器对应的第三网络权重之间的变化量为第一网络权重变化量,第二压缩器对应的第二网络权重和第一压缩器对应的第四网络权重之间的变化量为第二网络权重变化量,则终端设备向网络设备发送第二解压缩器的信息可以是发送第一网络权重变化量即可、终端设备向网络设备发送第二压缩器可以是发送第二网络权重变化量即可。需要说明的是,上述的终端设备将第二解压缩器的信息,或者,第二解压缩器的信息和第二压缩器的信息发送给网络设备可能的实现方式只是举例,对本申请的保护范围不构成任何的限定,上述方式的简单变形以及其他终端设备将选择的合适的第二解压缩器的信息,或者,第二解压缩器的信息和第二压缩器的信息上报给网络设备的方式也在本申请的保护范围之内,例如,终端设备上报第二解压缩器对应的网络结构和网络权重的index等,这里不再一一举例说明。
可能二、网络设备接收到第一信息之后,可以不同意基于AI模式接收终端设备反馈的信道信息,例如,网络设备向终端设备发送第二响应消息,该第二响应消息用于指示终端设备继续基于传统的信道信息反馈模型进行信道信息反馈;还例如,网络设备接收到第一信息之后不向终端设备发送响应消息,则终端设备在发送第一信息之后的第四预设时长内未收到任何响应消息的情况下,终端设备可以确定继续基于传统的信道信息反馈模型进行信道信息反馈。
在该可能二下,图8中的(a)所示的方法流程还包括S831a,网络设备向终端设备发送第二响应消息,或者,网络设备在第四预设时长内不向终端设备发送响应消息。
需要说明的是,可能二下,网络设备不同意基于AI模式接收终端设备反馈的信道信息的前提包括:
协议预定义当第一压缩器和第一解压缩器需要更新的情况下网络设备和终端设备确定回退到传统的信道信息反馈模式;或者
终端设备向网络设备发送了第二通知消息,或,网络设备向终端设备发送了第二通知消息。该第二通知消息用于通知对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式,即在该可能二下,图8中的(a)所示的方法流程还包括S811a,发送第二通知消息。
应理解,前述的可能一中也可以包括该S811a,或者,可能一下无需执行S811a,终端设备确定需要更新第一压缩器和第一解压缩器之后,无需通知网络设备先回退到传统的信道信息反馈方式,可以基于第一压缩器和第一解压缩器继续实现信道信息反馈。
方式二、图8中的(a)所示的方法流程还包括:S821a,网络设备向终端设备发送第二信息,第二信息用于指示网络设备能够接收第二解压缩器的信息;或者,该第二信息用于通知网络设备能够接收第二压缩器的信息和第二解压缩器的信息。
终端设备接收到该第二信息之后,向网络设备发送第二解压缩器的信息,或者,向网络设备发送第二压缩器的信息和第二解压缩器的信息。
需要说明的是,本申请实施例中上述终端设备接收到该第二信息之后,向该网络设备发送该第二解压缩器的信息,或者,向网络设备发送第二压缩器的信息和第二解压缩器的信息的时机不限定,可以是在接收到该第二信息之后的任意时刻。
例如,在第一起始时刻之后的第一预设时长之内或者在第一预设时长之后开始向网络设备发送第二解压缩器的信息,或者,向网络设备发送第二压缩器的信息和第二解压缩器的信息,即在方式二下图8中的(a)所示的方法流程还包括上述的S840a,具体发送第二压缩器的信息和第二解压缩器的信息参见方式一中的可能一,这里不再赘述。
方式三、终端设备选择到合适的第二压缩器和第二解压缩器之后,在第二起始时刻之后的第二预设时长之内或者在第二预设时长之后开始向网络设备发送第二解压缩器的信息,或者,向网络设备发送第二压缩器的信息和第二解压缩器的信息。
需要说明的是,本申请实施例中上述终端设备选择到合适的第二压缩器和第二解压缩器之后,向该网络设备发送该第二解压缩器的信息,或者,向网络设备发送第二压缩器的信息和第二解压缩器的信息的时机不限定,可以是在选择到合适的第二压缩器和第二解压缩器之后的任意时刻。
例如,在第二起始时刻之后的第二预设时长之内或者在第二预设时长之后开始向网络设备发送第二解压缩器的信息,或者,向网络设备发送第二压缩器的信息和第二解压缩器的信息,即在方式三下图8中的(a)所示的方法流程还包括上述的S840a,具体发送第二压缩器的信息和第二解压缩器的信息参见方式一中的可能一,这里不再赘述。
需要说明的是,方式二和方式三下终端设备和网络设备对于开始更新第一压缩器和第一解压缩器的时刻都能获知(例如,执行更新的终端设备能够获知、网络设备根据下行信道信息传输的中断或模式感知到更新的发生)。预设的时长之后,终端设备和第网络设备 获知更新完成,可以约定传输更新得到的第二解压缩器的信息,或第二压缩器的信息和第二解压缩器的信息,而不再需要一条指令(如,上述的第一信息)通知网络设备已经更新完成。
方式四、图8中的(a)所示的方法流程还包括:S820a,终端设备向网络设备发送第一信息。该第一信息用于通知网络设备接收第二解压缩器的信息;或者,该第一信息用于通知网络设备接收第二压缩器的信息和第二解压缩器的信息。终端设备向网络设备发送第一信息之后,在第三预设时长之内或者在第三预设时长之后开始向网络设备发送第二解压缩器的信息,或者,向网络设备发送第二压缩器的信息和第二解压缩器的信息,即在方式四下图8中的(a)所示的方法流程还包括上述的S840a,具体发送第二压缩器的信息和第二解压缩器的信息参见方式一中的可能一,这里不再赘述。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当本申请提供的实施例用于CSI反馈流程中时,包括以下两种可能的情况:
情况一、图8中的(a)所示的方法流程还包括S812a,网络设备向终端设备发送CSI-RS;S813a,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S801a,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备基于CSI-RS进行信道测量得到下行信道信息以及已知的第一压缩器和解压缩器判断的。
情况二、图8中的(a)所示的方法流程还包括S814a,终端设备启动测量,向网络设备发送第三通知消息,其中,终端设备启动测量以及向网络设备发送第三通知消息是为了获得上行信道信息,应理解终端设备从网络设备侧获得的该上行信道信息存在压缩损失。本申请实施例中终端设备启动测量可以是因为终端设备感知到下行吞吐量恶化。S815a,网络设备向终端设备发送CSI-RS和上行信道信息;S816a,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S801a,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备基于CSI-RS进行信道测量得到下行信道信息、从网络设备接收到的存在压缩损失的上行信道信息以及已知的第一压缩器和解压缩器判断的。
具体地,对应于S520中的可能二:
如图8中的(b)所示,包括以下步骤:
S801b,终端设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S801b中终端设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能一以及方式二下的可能一和可能二。
在终端设备确定第一压缩器和第一解压缩器需要更新的情况下,图8中的(b)所示的方法流程还包括:S810b,终端设备基于当前获得的下行信道信,或者,基于当前获得的下行信道信息和上行信道信息调整第一压缩器和第一解压缩器。
具体地,S810b中终端设备如何调整第一压缩器和第一解压缩器以参考上述S520中的可能二中的描述,这里不再赘述。
为了便于描述,本实施例中将调整完的第一解压缩器也可以称为第二解压缩器、调整完第一压缩器也可以称为第二压缩器,下文中为了与图8中的(a)区分,描述为调整完的第一解压缩器和调整完第一压缩器。
在终端设备调整完第一压缩器和第一解压缩器之后,作为示例而非限定,图8中的(b)所示的方法流程后续还包括以下几种可能的方式:
方式一、图8中的(b)所示的方法流程还包括:S820b,终端设备向网络设备发送第四通知消息。该第四通知消息用于通知网络设备接收调整完的第一解压缩器的信息;或者,该第四通知消息用于通知网络设备接收调整完的第一压缩器的信息和第一解压缩器的信息。
应理解,从功能上说图8中的(b)中的第四通知消息和图8中的(a)中的第一信息功能类似,都是通知网络设备接收更新之后的压缩器的信息和解压缩器的信息,所以本申请中的第四通知消息也可以称为第一信息。
网络设备接收到该第四通知消息之后,可执行的步骤包括以下两种可能:
可能一、网络设备接收到第四通知消息之后,向终端设备发送第四响应消息,该第四响应消息用于指示终端设备可以上报调整完的第一解压缩器的信息;或者,第四响应消息用于指示终端设备可以上报调整完的第一压缩器的信息和第一解压缩器的信息;在该方式一下,图8中的(b)所示的方法流程还包括S830b,网络设备向终端设备发送第四响应消息。
第四响应消息也可以称为第一响应消息。
进一步地,在该可能一下,图8中的(b)所示的方法流程还包括S840b,终端设备向网络设备发送调整完的第一解压缩器的信息,或者,终端设备向网络设备发送调整完的第一压缩器的信息和第一解压缩器的信息。
需要说明的是,本申请实施例中终端设备可以向网络设备发送网络设备需要的配置的调整完的第一解压缩器的信息,或者,终端设备可以向网络设备发送调整完的第一压缩器的信息和第一解压缩器的信息,则后续网络设备可以基于调整完的第一压缩器和第一解压缩器重新判断是否需要更新调整完的第一压缩器和第一解压缩器。
一种可能的实现方式,网络设备和终端设备本地分别仅保存有第一解压缩器对应的第三网络结构,调整完的第一解压缩器可以用第三网络结构和第三网络权重表示,则终端设备向网络设备发送调整完的第一解压缩器的信息可以是发送第三网络权重即可;
同理,当网络设备和终端设备本地分别仅保存有第一压缩器对应的第四网络结构和第一解压缩器对应的第三网络结构,调整完的第一解压缩器可以用第三网络结构和第三网络权重表示,调整完的第一压缩器可以用第四网络结构和第四网络权重表示,则终端设备向网络设备发送调整完的第一解压缩器的信息可以是发送第三网络权重、终端设备向网络设备发送调整完的第一压缩器的信息可以是发送第四网络权重即可。
需要说明的是,当调整完的第一解压缩器称为第二解压缩器的情况下,上述的第三网络结构称为第一网络结构、第三网络权重称为第一网络权重;调整完的第一压缩器称为第二压缩器的情况下,上述的第四网络结构称为第二网络结构、第四网络权重称为第二网络权重。
另一种可能的实现方式,网络设备和终端设备本地分别仅保存有第一解压缩器对应的第三网络结构,调整完的第一解压缩器和第一解压缩器之间的区别可以用第一网络权重变化量表示,则终端设备向网络设备发送第一解压缩器可以是发送第一网络权重变化量即可;
同理,当网络设备和终端设备本地分别仅保存有第一压缩器对应的第四网络结构和第一解压缩器对应的第三网络结构,调整完的第一解压缩器和第一解压缩器之间的区别可以 用第一网络权重变化量表示,调整完的第一压缩器和第一压缩器之间的区别可以用第二网络权重变化量表示,则终端设备向网络设备发送调整完的第一解压缩器可以是发送第一网络权重变化量、终端设备向网络设备发送调整完的第一压缩器的信息可以是发送第二网络权重变化量即可。
需要说明的是,上述的终端设备将调整完的第一解压缩器的信息,或者,调整完的第一压缩器的信息和第一压缩器的信息发送给网络设备可能的实现方式只是举例,对本申请的保护范围不构成任何的限定,上述方式的简单变形以及其他终端设备将调整完的第一解压缩器的信息,或者,调整完的第一压缩器的信息和第一压缩器的信息上报给网络设备的方式也在本申请的保护范围之内,例如,终端设备上报调整完的第一解压缩器对应的网络结构和网络权重的index等,这里不再一一举例说明。
可能二、网络设备接收到第四通知消息之后,可以不同意基于AI模式接收终端设备反馈的信道信息,例如,网络设备向终端设备发送第三响应消息,该第三响应消息用于指示终端设备继续基于传统的信道信息反馈模型进行信道信息反馈;还例如,网络设备接收到第四通知消息之后不向终端设备发送响应消息,则终端设备在发送第四通知消息之后的预设时间段内未收到任何响应消息的情况下,终端设备可以确定继续基于传统的信道信息反馈模型进行信道信息反馈
在该可能二下,图8中的(b)所示的方法流程还包括S831b,网络设备向终端设备发送第三响应消息,或者,网络设备在第四预设时长内不向终端设备发送响应消息。其中,第三响应消息与图8中的(a)中的第二响应消息类似,也可以称之为第二响应消息。
需要说明的是,可能二下,网络设备不同意基于AI模式接收终端设备反馈的信道信息的前提包括:
协议预定义当第一压缩器和第一解压缩器需要更新的情况下网络设备和终端设备确定回退到传统的信道信息反馈模式;或者
终端设备向网络设备发送了第二通知消息,或,网络设备向终端设备发送了第二通知消息。该第二通知消息用于通知对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式,即在该可能二下,图8中的(b)所示的方法流程还包括S811b,发送第二通知消息。
应理解,前述的可能一中也可以包括该S811b,或者,可能一下无需执行S811b,终端设备确定需要更新之后无需通知网络设备先回退到传统的信道信息反馈方式,可以基于第一压缩器和第一解压缩器继续实现信道信息反馈。
方式二、图8中的(b)所示的方法流程还包括:S821b,网络设备向终端设备发送第二信息,第二信息用于指示网络设备能够接收调整完的第一解压缩器的信息;或者,该第二信息用于通知网络设备能够接收调整完的第一解压缩器的信息和调整完的第一压缩器的信息。
终端设备接收到该第二信息之后,向网络设备发送调整完的第一解压缩器的信息,或者,向网络设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息。
需要说明的是,本申请实施例中上述终端设备接收到该第二信息之后,向该网络设备发送调整完的第一解压缩器的信息,或者,向网络设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息的时机不限定,可以是在接收到该第二信息之后的任意时 刻。
例如,在第一起始时刻之后的第一预设时长之内或者第一预设时长之后开始向网络设备发送调整完的第一解压缩器的信息,或者,向网络设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息,即在方式二下图8中的(b)所示的方法流程还包括上述的S840b,具体发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息参见方式一中的可能一,这里不再赘述。
方式三、终端设备调整完第一压缩器和第一解压缩器之后,向网络设备发送调整完的第一解压缩器的信息,或者,向网络设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息。
需要说明的是,本申请实施例中上述终端设备调整完第一压缩器和第一解压缩器之后,向网络设备发送调整完的第一解压缩器的信息,或者,向网络设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息的时机不限定,可以是在调整完第一压缩器和第一解压缩器之后的任意时刻。
例如,在第二起始时刻之后的第二预设时长之内或者第二预设时长之后开始向网络设备发送调整完的第一解压缩器的信息,或者,向网络设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息,即在方式二下图8中的(b)所示的方法流程还包括上述的S840b,具体发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息参见方式一中的可能一,这里不再赘述。
需要说明的是,方式二和方式三下终端设备和网络设备对于开始更新第一压缩器和第一解压缩器的时刻都能获知(例如,执行更新的终端设备能够获知、网络设备根据下行信道信息传输的中断或模式感知到更新的发生)。预设的时长之后,终端设备和第网络设备获知更新完成,可以约定传输更新得到的第二解压缩器的信息,或第二压缩器的信息和第二解压缩器的信息,而不再需要一条指令(如,上述的第一信息)通知网络设备已经更新完成。
方式四、图8中的(b)所示的方法流程还包括:S820b,终端设备向网络设备发送第四通知消息。该第四通知消息用于通知网络设备接收调整完的第一解压缩器的信息;或者,该第四通知消息用于通知网络设备接收调整完的第一解压缩器的信息和调整完的第一压缩器的信息。终端设备向网络设备发送第四通知消息之后,在第三预设时长之内或者第三预设时长之后开始向网络设备发送调整完的第一解压缩器的信息,或者,向网络设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息,即在方式二下图8中的(b)所示的方法流程还包括上述的S840b,具体发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息参见方式一中的可能一,这里不再赘述。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当图8中的(b)所示的实施例用于CSI反馈流程中时,包括以下两种可能的情况:
情况一、图8中的(b)所示的方法流程还包括S812b,网络设备向终端设备发送CSI-RS;S813b,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S801b,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备基于CSI-RS进行信道测量得到下行信道信息以及已知的第一压缩器和解压缩器判断的。
情况二、图8中的(b)所示的方法流程还包括S814b,终端设备启动测量,向网络 设备发送第三通知消息;S815b,网络设备向终端设备发送CSI-RS和上行信道信息;S813b,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S801b,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备基于CSI-RS进行信道测量得到下行信道信息、从网络设备接收到的存在压缩损失的上行信道信息以及已知的第一压缩器和解压缩器判断的。
具体地,对应于S520中的可能三:
如图8中的(c)所示,包括以下步骤:
S801c,终端设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S801c中终端设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能一以及方式二下的可能一和可能二。
在终端设备确定第一压缩器和第一解压缩器需要更新的情况下,图8中的(c)所示的方法流程还包括:S810c,终端设备基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息选择压缩器和解压缩器,并对该压缩器和解压缩器进一步地调整,得到合适的第三压缩器和第三解压缩器。
具体地,S810c中终端设备如何选择和调整到合适的第三压缩器和第三解压缩器可以参考上述S520中的可能三中的描述,这里不再赘述。
为了便于描述,本申请实施例中将第三解压缩器也可以称为第二解压缩器、第三压缩器也可以称为第二压缩器,下文中为了与图8中的(a)区分,描述为第三压缩器和第三解压缩器。
在终端设备选择和调整到合适的第三压缩器和第三解压缩器之后,作为示例而非限定,图8中的(c)所示的方法流程后续还包括以下几种可能的方式:
方式一、图8中的(c)所示的方法流程还包括:S820c,终端设备向网络设备发送第五通知消息。该第五通知消息用于通知网络设备接收第三解压缩器的信息;或者,该第一信息用于通知网络设备接收第三压缩器的信息和第三解压缩器的信息。
应理解,从功能上说图8中的(c)中的第五通知消息和图8中的(a)中的第一信息功能类似,都是通知网络设备接收更新之后的压缩器的信息和解压缩器的信息,所以本申请中的第五通知消息也可以称为第一信息。
网络设备接收到该第五通知消息之后,可执行的步骤包括以下两种可能:
可能一、网络设备接收到第五通知消息之后,向终端设备发送第五响应消息,该第五响应消息用于指示终端设备可以上报第三解压缩器的信息;或者,第五响应消息用于指示终端设备可以上报第三压缩器的信息和第三解压缩器的信息;在该方式一下,图8中的(c)所示的方法流程还包括S830c,网络设备向终端设备发送第五响应消息。
第五响应消息也可以称为第一响应消息。
进一步地,在该可能一下,图8中的(c)所示的方法流程还包括S840c,终端设备向网络设备发送第三解压缩器的信息,或者,终端设备向网络设备发送第三压缩器的信息和第三解压缩器的信息。
需要说明的是,本申请实施例中终端设备可以向网络设备发送网络设备需要的配置的第三解压缩器的信息,或者,终端设备可以向网络设备发送第三压缩器的信息和第三解压缩器的信息,则后续网络设备可以基于第三压缩器和第三解压缩器重新判断是否需要更新 第三压缩器和第三解压缩器。
一种可能的实现方式,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同。第三解压缩器可以用第五网络结构和第五网络权重表示,则终端设备向网络设备发送第三解压缩器的信息可以是发送第五网络权重以及第三指示信息即可,其中,第三指示用于指示第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同,即指示网络结构未发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同。第三解压缩器可以用第五网络结构和第五网络权重表示,第三解压缩器可以用第六网络结构和第六网络权重表示,则终端设备向网络设备发送第三解压缩器的信息可以是发送第五网络权重以及第三指示信息即可、终端设备向网络设备发送第三压缩器的信息可以是发送第六网络权重以及第四指示信息即可,其中,第三指示信息用于指示第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同、第四指示用于指示第三压缩器对应的第六网络结构和第一解压缩器对应的第四网络结构相同,第三指示信息和第四指示信息可以为同一条指示信息即指示网络结构未发生改变。
需要说明的是,当调整完的第三解压缩器称为第二解压缩器的情况下,上述的第五网络结构称为第一网络结构、第五网络权重称为第一网络权重;第三压缩器称为第二压缩器的情况下,上述的第六网络结构称为第二网络结构、第六网络权重称为第二网络权重。
另一种可能的实现方式,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同。第三解压缩器可以用第五网络结构和第五网络权重表示。另外,网络设备和终端设备本地分别保存有第三解压缩器对应的第五网络权重,且第五网络权重在网络设备中的index与第五网络权重在终端设备中的index一致,则终端设备向网络设备发送第三解压缩器的信息可以是发送第五网络权重的index以及第三指示信息即可,其中,第三指示用于指示第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同,即指示网络结构未发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同。第三解压缩器可以用第五网络结构和第五网络权重表示,第三压缩器可以用第六网络结构和第六网络权重表示。
另外,网络设备和终端设备本地分别保存有第三解压缩器对应的第五网络权重,且第五网络权重在网络设备中的index与第五网络权重在终端设备中的index一致,网络设备和终端设备本地分别保存有第三压缩器对应的第六网络权重,且第六网络权重在网络设备中的index与第六网络权重在终端设备中的index一致,则终端设备向网络设备发送第三解压缩器的信息可以是发送第五网络权重的index以及第三指示信息即可、终端设备向网络设备发送第三压缩器的信息可以是发送第六网络权重的index以及第四指示信息即可,其中,第三指示用于指示第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同、第四指示用于指示第三压缩器对应的第六网络结构和第一解压缩器对应的第四网络结构相同,第三指示信息和第四指示信息可以为同一条指示信息即指示网络结构未发生改变。
可选地,上述第五网络权重的index和第六网络权重的index相同,在该情况下上述的第五网络权重的index和第六网络权重的index为同一个index即可。
又一种可能的实现方式,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同。第三解压缩器可以用第五网络结构和第五网络权重表示,第一解压缩器可以用第三网络结构和第三网络权重表示,第三网络权重和第五网络权重之间的变化量为第三网络权重变化量,则终端设备向网络设备发送第三解压缩器的信息可以是发送第三网络权重变化量以及第三指示信息即可,其中,第三指示用于指示第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同,即指示网络结构未发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同。第三解压缩器可以用第五网络结构和第五网络权重表示,第一解压缩器可以用第三网络结构和第三网络权重表示,第三网络权重和第五网络权重之间的变化量为第三网络权重变化量;第三压缩器可以用第六网络结构和第六网络权重表示,第一压缩器可以用第四网络结构和第四网络权重表示,第四网络权重和第六网络权重之间的变化量为第四网络权重变化量。
则终端设备向网络设备发送第三解压缩器的信息可以是发送第三网络权重变化量以及第三指示信息即可、终端设备向网络设备发送第三压缩器的信息可以是发送第四网络权重变化量以及第四指示信息即可,其中,第三指示用于指示第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同、第四指示用于指示第三压缩器对应的第六网络结构和第一解压缩器对应的第四网络结构相同,第三指示信息和第四指示信息可以为同一条指示信息即指示网络结构未发生改变。
又一种可能的实现方式,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同或者相同。网络设备和终端设备本地均保存有第三解压缩器,且第三解压缩器在网络设备中的索引(index)与第三解压缩器在终端设备中的index一致,则终端设备向网络设备发送第三解压缩器的信息可以是发送第三解压缩器的index即可,还可以发送用于指示网络结构是否发生改变的指示信息;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同或者相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同或者相同。网络设备本地保存有第三压缩器和第三解压缩器,且第三压缩器和第三解压缩器在网络设备中分别对应的index与第三压缩器和第三解压缩器在终端设备中分别对应的index一致,则终端设备向网络设备发送第三压缩器的信息和第三解压缩器的信息可以是发送第三压缩器和第三解压缩器分别对应的index即可,还可以发送用于指示网络结构是否发生改变的指示信息。
可选地,上述第三压缩器的index和第三解压缩器的index相同,在该情况下上述的第三压缩器的信息和第三解压缩器的信息为同一个index以及网络结构是否发生改变的指示信息。
又一种可能的实现方式,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同。第三解压缩器可以用第五网络权重和第五网络结构表示,则终端设备向网络设备发送第三解压缩器的信息可以是发送第五网络权重和第五网络结构以 及第五指示信息即可,该第五指示信息用于指示网络结构发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同。第三解压缩器可以用第五网络权重和第五网络结构表示,第三压缩器可以用第六网络权重和第六网络结构表示,则终端设备向网络设备发送第三解压缩器的信息可以是发送第五网络权重和第五网络结构以及第五指示信息即可、终端设备向网络设备发送第三压缩器的信息可以是发送第六网络权重和第六网络结构以及第六指示信息即可,其中,第五指示信息和第六指示信息可以为一条信息,用于指示网络结构发生改变。
又一种可能的实现方式,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同。第三解压缩器可以用第五网络权重和第五网络结构表示。网络设备和终端设备本地均保存有第五网络结构,且第五网络结构在网络设备中的index与第五网络结构在终端设备中的index一致,则终端设备向网络设备发送第三解压缩器的信息可以是发送第五网络权重和第五网络结构的index以及第五指示信息即可,该第五指示信息用于指示网络结构发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同。第三解压缩器可以用第五网络权重和第五网络结构表示,第三压缩器可以用第六网络权重和第六网络结构表示。
另外,网络设备和终端设备本地均保存有第五网络结构,且第五网络结构在网络设备中的index与第五网络结构在终端设备中的index一致;网络设备和终端设备本地均保存有第五网络结构,且第六网络结构在网络设备中的index与第六网络结构在终端设备中的index一致。
则终端设备向网络设备发送第三解压缩器的信息可以是发送第五网络权重和第五网络结构的index以及第五指示信息即可、终端设备向网络设备发送第三压缩器的信息可以是发送第六网络权重和第六网络结构的index以及第六指示信息即可,其中,第五指示信息和第六指示信息可以为一条信息,用于指示网络结构发生改变。
可选地,上述第五网络结构的index和第六网络结构的index相同,在该情况下上述的第五网络结构index和第六网络结构的index为一个index即可。
又一种可能的实现方式,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同。第三解压缩器可以用第五网络权重和第五网络结构表示。另外,网络设备和终端设备本地均保存有第五网络结构,且第五网络结构在网络设备中的index与第五网络结构在终端设备中的index一致;网络设备和终端设备本地均保存有第五网络权重,且第五网络权重在网络设备中的index与第五网络权重在终端设备中的index一致,则终端设备向网络设备发送第三解压缩器的信息可以是发送第五网络权重的index和第五网络结构的index以及第五指示信息即可,该第五指示信息用于指示网络结构发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同。第三解压缩器可以用第五网络权重和第五网络结构表示,第三压缩器可以用第六网络权重和第六网络结构表示。
另外,网络设备和终端设备本地均保存有第五网络结构,且第五网络结构在网络设备中的index与第五网络结构在终端设备中的index一致;网络设备和终端设备本地均保存有第五网络权重,且第五网络权重在网络设备中的index与第五网络权重在终端设备中的index一致;网络设备和终端设备本地均保存有第六网络结构,且第六网络结构在网络设备中的index与第六网络结构在终端设备中的index一致;网络设备和终端设备本地均保存有第六网络权重,且第六网络权重在网络设备中的index与第六网络权重在终端设备中的index一致。
则终端设备向网络设备发送第三解压缩器的信息可以是发送第五网络权重的index和第五网络结构的index以及第五指示信息即可、终端设备向网络设备发送第三压缩器的信息可以是发送第六网络权重的index和第六网络结构的index以及第六指示信息即可,其中,第五指示信息和第六指示信息可以为一条信息,用于指示网络结构发生改变。
可选地,上述第五网络结构的index和第六网络结构的index相同,在该情况下上述的第五网络结构index和第六网络结构的index为一个index即可;第五网络权重的index和第六网络权重的index相同,在该情况下上述的第五网络权重index和第六网络权重的index为一个index即可。
需要说明的是,上述的终端设备将第三解压缩器,或者,第三压缩器和第三解压缩器发送给网络设备可能的实现方式只是举例,对本申请的保护范围不构成任何的限定,上述方式的简单变形以及其他终端设备将调整完的第三解压缩器,或者,第三压缩器和第三解压缩器上报给网络设备的方式也在本申请的保护范围之内,例如,终端设备上报第三解压缩器对应的网络结构和网络权重的index等,这里不再一一举例说明。
可能二、网络设备接收到第五通知消息之后,可以不同意基于AI模式接收终端设备反馈的信道信息,例如,网络设备向终端设备发送第六响应消息,该第六响应消息用于指示终端设备继续基于传统的信道信息反馈模型进行信道信息反馈;还例如,网络设备接收到第一信息之后不向终端设备发送响应消息,则终端设备在发送第五通知消息之后的预设时间段内未收到任何响应消息的情况下,终端设备可以确定继续基于传统的信道信息反馈模型进行信道信息反馈
在该可能二下,图8中的(c)所示的方法流程还包括S831c,网络设备向终端设备发送第六响应消息,或者,网络设备在第四预设时长内不向终端设备发送响应消息。其中,第六响应消息与图8中的(a)中的第二响应消息类似,也可以称之为第六响应消息。
需要说明的是,可能二下,网络设备不同意基于AI模式接收终端设备反馈的信道信息的前提包括:
协议预定义当第一压缩器和第一解压缩器需要更新的情况下网络设备和终端设备确定回退到传统的信道信息反馈模式;或者
终端设备向网络设备发送了第二通知消息,或,网络设备向终端设备发送了第二通知消息。该第二通知消息用于通知对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式,即在该可能二下,图8中的(c)所示的方法流程还包括S811c,发送第二通知消息。
应理解,前述的可能一中也可以包括该S811c,或者,可能一下无需执行S811c,终端设备确定需要更新之后无需通知网络设备先回退到传统的信道信息反馈方式,可以基于 第一压缩器和第一解压缩器继续实现信道信息反馈。
方式二、图8中的(c)所示的方法流程还包括:S821c,网络设备向终端设备发送第二信息,第二信息用于指示网络设备能够接收第三解压缩器的信息;或者,该第二信息用于通知网络设备能够接收第三解压缩器的信息和第三压缩器的信息。
终端设备接收到该第二信息之后,向网络设备发送第三解压缩器的信息,或者,向网络设备发送第三解压缩器的信息和第三压缩器的信息。
需要说明的是,本申请实施例中上述终端设备接收到该第二信息之后,向网络设备发送第三解压缩器的信息,或者,向网络设备发送第三解压缩器的信息和第三压缩器的信息的时机不限定,可以是在接收到该第二信息之后的任意时刻。
例如,在第一起始时刻之后的第一预设时长之内或者第一预设时长之后开始向网络设备发送第三解压缩器的信息,或者,向网络设备发送第三解压缩器的信息和第三压缩器的信息,即在方式二下图8中的(c)所示的方法流程还包括上述的S840c,具体发送第三解压缩器的信息和第三压缩器的信息参见方式一中的可能一,这里不再赘述。
方式三、终端设备确定出第三压缩器和第三解压缩器之后,开始向网络设备发送第三解压缩器的信息,或者,向网络设备发送第三解压缩器的信息和第三压缩器的信息。
需要说明的是,本申请实施例中上述终端设备确定出第三压缩器和第三解压缩器之后,向网络设备发送第三解压缩器的信息,或者,向网络设备发送第三解压缩器的信息和第三压缩器的信息的时机不限定,可以是在终端设备确定出第三压缩器和第三解压缩器之后的任意时刻。
例如,在第二起始时刻之后的第二预设时长之内或者第二预设时长之后开始向网络设备发送第三解压缩器的信息,或者,向网络设备发送第三解压缩器的信息和第三压缩器的信息,即在方式二下图8中的(c)所示的方法流程还包括上述的S840c,具体发送第三解压缩器的信息和第三压缩器的信息参见方式一中的可能一,这里不再赘述。
需要说明的是,方式二和方式三下终端设备和网络设备对于开始更新第一压缩器和第一解压缩器的时刻都能获知(例如,执行更新的终端设备能够获知、网络设备根据下行信道信息传输的中断或模式感知到更新的发生)。预设的时长之后,终端设备和第网络设备获知更新完成,可以约定传输更新得到的第二解压缩器的信息,或第二压缩器的信息和第二解压缩器的信息,而不再需要一条指令(如,上述的第一信息)通知网络设备已经更新完成。
方式四、图8中的(c)所示的方法流程还包括:S820c,终端设备向网络设备发送第五通知消息。该第五通知消息用于通知网络设备接收第三解压缩器的信息;或者,该第四通知消息用于通知网络设备接收第三压缩器的信息和第三解压缩器的信息。终端设备向网络设备发送第五通知消息之后,在第三预设时长之内或者第三预设时长之后开始向网络设备发送第三解压缩器的信息,或者,向网络设备发送第三解压缩器的信息和第三压缩器的信息,即在方式二下图8中的(c)所示的方法流程还包括上述的S840c,具体发送第三解压缩器的信息和第三压缩器的信息参见方式一中的可能一,这里不再赘述。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当本申请提供的实施例用于CSI反馈流程中时,包括以下两种可能的情况:
情况一、图8中的(c)所示的方法流程还包括S812c,网络设备向终端设备发送CSI-RS; S813c,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S801c,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备基于CSI-RS进行信道测量得到下行信道信息以及已知的第一压缩器和解压缩器判断的。
情况二、图8中的(c)所示的方法流程还包括S814c,终端设备启动测量,向网络设备发送第三通知消息;S815c,网络设备向终端设备发送CSI-RS和上行信道信息;S816c,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S801c,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备基于CSI-RS进行信道测量得到下行信道信息、从网络设备接收到的存在压缩损失的上行信道信息以及已知的第一压缩器和解压缩器判断的。
具体地,对应于S520中的可能四:
如图8中的(d)所示,包括以下步骤:
S801d,网络设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S801d中网络设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能二以及方式二下的可能三和可能四。
在网络设备确定第一压缩器和第一解压缩器需要更新的情况下,图8中的(d)所示的方法流程还包括:S810d,网络设备基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息选择合适的第二压缩器和第二解压缩器。
具体地,S810d中网络设备如何选择合适的第二压缩器和第二解压缩器可以参考上述S520中的可能四的中的描述,这里不再赘述。
在网络设备选择到合适的第一压缩器和第一解压缩器之后,作为示例而非限定,图8中的(d)所示的方法流程后续还包括以下几种可能的方式:
方式一、图8中的(d)所示的方法流程还包括:S820d,网络设备向终端设备发送第一信息。该第一信息用于通知终端设备接收第二解压缩器的信息;或者,该第一信息用于通知终端设备接收第二压缩器的信息和第二解压缩器的信息。
终端设备接收到该第一信息之后,可执行的步骤包括以下两种可能:
可能一、终端设备接收到第一信息之后,向网络设备发送第一响应消息,该第一响应消息用于指示网络设备可以下发第二解压缩器;或者,第一响应消息用于指示网络设备可以上报第二压缩器和第二解压缩器;在该可能一下,图8中的(d)所示的方法流程还包括S830d,终端设备向网络设备发送第一响应消息。
进一步地,在该可能一下,图8中的(d)所示的方法流程还包括S840d,网络设备向终端设备发送第二压缩器的信息,或者,网络设备向终端设备发送第二压缩器的信息和第二解压缩器的信息。
需要说明的是,本申请实施例中网络设备可以向终端设备发送终端设备需要的配置的第二压缩器的信息,或者,网络设备可以向终端设备发送选择的合适的第二压缩器的信息和第二解压缩器的信息,则后续终端设备可以基于第二压缩器和第二解压缩器重新判断是否需要更新第二压缩器和第二解压缩器。
一种可能的实现方式,终端设备和网络设备本地均保存有第二压缩器,且第二压缩器在终端设备中的index与第二压缩器在网络设备中的index一致,则网络设备向终端设备发送第二压缩器可以是发送第二压缩器的index即可;同理,当终端设备本地保存有第二 压缩器和第二解压缩器,且第二压缩器和第二解压缩器在终端设备中分别对应的index与第二压缩器和第二解压缩器在网络设备中分别对应的index一致,则网络设备向终端设备发送第二压缩器的信息和第二解压缩器的信息可以是发送第二压缩器和第二解压缩器分别对应的index即可。
可选地,上述第二压缩器的index和第二解压缩器的index相同,在该情况下上述的第二压缩器的index和第二解压缩器的index为一个index即可。
另一种可能的实现方式,第二压缩器可以用第二网络权重和第二网络结构表示,则网络设备向终端设备发送第二压缩器可以是发送第二网络权重和第二网络结构即可;同理,当第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示,则网络设备向终端设备发送第二解压缩器的信息可以是发送第一网络权重和第一网络结构、网络设备向终端设备发送第二压缩器可以是发送第二网络权重和第二网络结构即可。
又一种可能的实现方式,终端设备和网络设备本地分别保存有第二压缩器对应的第二网络结构,且第二网络结构在终端设备中的index与第二网络结构在网络设备中的index一致,第二压缩器可以用第二网络权重和第二网络结构表示,则网络设备向终端设备发送第二压缩器可以是发送第二网络结构的index和第二网络权重即可;
同理,当终端设备和网络设备本地分别保存有第二压缩器对应的第二网络结构和第二解压缩器对应的第一网络结构,且第二网络结构在终端设备中对应的index与第二网络结构在网络设备中对应的index一致,第一网络结构在终端设备中对应的index与第一网络结构在网络设备中对应的index一致。
第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示,则网络设备向终端设备发送第二解压缩器的信息可以是发送第一网络权重和第一网络结构的index、网络设备向终端设备发送第二压缩器可以是发送第二网络权重和第二网络结构的index即可。
可选地,上述第二网络结构的index和第一网络结构的index相同,在该情况下上述的第二网络结构的index和第一网络结构的index为一个index即可。
又一种可能的实现方式,终端设备和网络设备本地分别保存有第二压缩器对应的第二网络结构,且第二网络结构在终端设备中的index与第二网络结构在网络设备中的index一致,第二压缩器可以用第二网络权重和第二网络结构表示。另外,终端设备和网络设备本地分别保存有第二压缩器对应的第二网络权重,且第二网络权重在终端设备中的index与第二网络权重在网络设备中的index一致,则网络设备向终端设备发送第二压缩器可以是发送第二网络结构的index和第二网络权重的index即可;
同理,当终端设备和网络设备本地分别保存有第二压缩器对应的第二网络结构和第二解压缩器对应的第一网络结构,且第二网络结构在终端设备中对应的index与第二网络结构在网络设备中对应的index一致,第一网络结构在终端设备中对应的index与第一网络结构在网络设备中对应的index一致。
第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示。另外,终端设备和网络设备本地分别保存有第二解压缩器对应的第一网络权重,且第一网络权重在终端设备中的index与第一网络权重在网络设备中的 index一致,终端设备和网络设备本地分别保存有第二压缩器对应的第二网络权重,且第二网络权重在终端设备中的index与第二网络权重在网络设备中的index一致。
则网络设备向终端设备发送第二解压缩器的信息可以是发送第一网络权重的index和第一网络结构的index、网络设备向终端设备发送第二压缩器可以是发送第二网络权重的index和第二网络结构的index即可。
可选地,上述第一网络结构的index和第二网络结构的index相同,在该情况下上述的第一网络结构index和第二网络结构的index为一个index即可;第一网络权重的index和第二网络权重的index相同,在该情况下上述的第一网络权重index和第二网络权重的index为一个index即可。
又一种可能的实现方式,终端设备和网络设备本地分别仅保存有第二压缩器对应的第二网络结构,第二压缩器可以用第二网络权重和第二网络结构表示,则网络设备向终端设备发送第二压缩器可以是发送第二网络权重即可;同理,当终端设备和网络设备本地分别仅保存有第二压缩器对应的第二网络结构和第二解压缩器对应的第一网络结构,第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示,则网络设备向终端设备发送第二解压缩器的信息可以是发送第一网络权重、网络设备向终端设备发送第二压缩器可以是发送第二网络权重即可。
又一种可能的实现方式,终端设备和网络设备本地分别仅保存有第二压缩器对应的第二网络结构,第二压缩器可以用第二网络权重和第二网络结构表示。另外,终端设备和网络设备本地分别保存有第二压缩器对应的第二网络权重,且第二网络权重在终端设备中的index与第二网络权重在网络设备中的index一致,则网络设备向终端设备发送第二压缩器可以是发送第二网络权重的index即可;
同理,终端设备和网络设备本地分别仅保存有第二解压缩器对应的第一网络结构和第二压缩器对应的第二网络结构,第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示。
另外,终端设备和网络设备本地分别保存有第二解压缩器对应的第一网络权重,且第一网络权重在终端设备中的index与第一网络权重在网络设备中的index一致,终端设备和网络设备本地分别保存有第二压缩器对应的第二网络权重,且第二网络权重在终端设备中的index与第二网络权重在网络设备中的index一致,则网络设备向终端设备发送第二解压缩器的信息可以是发送第一网络权重的index即可、网络设备向终端设备发送第二压缩器可以是发送第二网络权重的index即可。
可选地,第一网络权重的index和第二网络权重的index相同,在该情况下上述的第一网络权重index和第二网络权重的index为一个index即可。
又一种可能的实现方式,网络设备和终端设备本地分别仅保存有第二压缩器对应的第二网络结构,第二压缩器可以用第二网络权重和第二网络结构表示,另外,第二压缩器对应的第二网络权重和第一压缩器对应的第四网络权重之间的变化量为第二网络权重变化量,则网络设备向终端设备发送第二压缩器的信息可以是发送第二网络权重变化量即可;
网络设备和终端设备本地分别仅保存有第二解压缩器对应的第一网络结构和第二压缩器对应的第二网络结构,第二解压缩器可以用第一网络权重和第一网络结构表示,第二压缩器可以用第二网络权重和第二网络结构表示。
另外,第二解压缩器对应的第一网络权重和第一解压缩器对应的第三网络权重之间的变化量为第一网络权重变化量,第二压缩器对应的第二网络权重和第一压缩器对应的第四网络权重之间的变化量为第二网络权重变化量,则网络设备向终端设备发送发送第二解压缩器的信息可以是发送第一网络权重变化量即可、网络设备向终端设备发送第二压缩器可以是发送第二网络权重变化量即可。
需要说明的是,上述的网络设备将第二压缩器的信息,或者,第二解压缩器的信息和第二压缩器的信息发送给终端设备可能的实现方式只是举例,对本申请的保护范围不构成任何的限定,上述方式的简单变形以及其他网络设备将选择的合适的第二压缩器的信息,或者,第二解压缩器的信息和第二压缩器的信息通知给终端设备的方式也在本申请的保护范围之内,例如,网络设备向终端设备通知第二压缩器对应的网络结构和网络权重的index等,这里不再一一举例说明。
可能二、终端设备接收到第一信息之后,可以不同意基于AI模式向网络设备反馈信道信息,例如,终端设备向网络设备发送第二响应消息,该第二响应消息用于指示网络设备继续基于传统的信道信息反馈模型进行信道信息反馈;还例如,终端设备接收到第一信息之后不向网络设备发送响应消息,则网络设备在发送第一信息之后的预设时间段内未收到任何响应消息的情况下,网络设备可以确定继续基于传统的信道信息反馈模型进行信道信息反馈
在该可能二下,图8中的(d)所示的方法流程还包括S831d,终端设备向网络设备发送第二响应消息,或者,终端设备在第四预设时长内不向网络设备发送响应消息。
需要说明的是,可能二下,终端设备不同意基于AI模式向网络设备反馈的信道信息的前提包括:
协议预定义当第一压缩器和第一解压缩器需要更新的情况下网络设备和终端设备确定回退到传统的信道信息反馈模式;或者
网络设备向终端设备发送了第二通知消息,或,终端设备向网络设备发送了第二通知消息。该第二通知消息用于通知对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式,即在该可能二下,图8中的(d)所示的方法流程还包括S811d,发送第二通知消息。
应理解,前述的可能一中也可以包括该S811d,或者,可能一下无需执行S811d,网络设备确定需要更新之后无需通知终端设备先回退到传统的信道信息反馈方式,可以基于第一压缩器和第一解压缩器继续实现信道信息反馈。
方式二、图8中的(d)所示的方法流程还包括:S821d,终端设备向网络设备发送第二信息,第二信息用于指示终端设备能够接收第二解压缩器的信息;或者,该第二信息用于通知终端设备能够接收第二压缩器的信息和第二解压缩器的信息。
网络设备接收到该第二信息之后,向终端设备发送第二解压缩器的信息,或者,向终端设备发送第二压缩器的信息和第二解压缩器的信息。
需要说明的是,本申请实施例中上述网络设备接收到该第二信息之后,向终端设备发送第二解压缩器的信息,或者,向终端设备发送第二压缩器的信息和第二解压缩器的信息的时机不限定,可以是在接收到该第二信息之后的任意时刻。
例如,在第一起始时刻之后的第一预设时长之内或者第一预设时长之后开始向终端设 备发送第二解压缩器的信息,或者,向终端设备发送第二压缩器的信息和第二解压缩器的信息,即在方式二下图8中的(d)所示的方法流程还包括上述的S840d,具体发送第二压缩器的信息和第二解压缩器的信息参见方式一中的可能一,这里不再赘述。
方式三、网络设备选择到合适的第二压缩器和第二解压缩器之后,向终端设备发送第二解压缩器的信息,或者,向终端设备发送第二压缩器的信息和第二解压缩器的信息。
需要说明的是,本申请实施例中上述网络设备选择到合适的第二压缩器和第二解压缩器之后,向终端设备发送第二解压缩器的信息,或者,向终端设备发送第二压缩器的信息和第二解压缩器的信息的时机不限定,可以是在网络设备选择到合适的第二压缩器和第二解压缩器之后的任意时刻。
例如,在第二起始时刻之后的第二预设时长之内或者第二预设时长之后开始向终端设备发送第二解压缩器的信息,或者,向终端设备发送第二压缩器的信息和第二解压缩器的信息,即在方式三下图8中的(d)所示的方法流程还包括上述的S840d,具体发送第二压缩器的信息和第二解压缩器的信息参见方式一中的可能一,这里不再赘述。
需要说明的是,方式二和方式三下终端设备和网络设备对于开始更新第一压缩器和第一解压缩器的时刻都能获知(例如,执行更新的网络设备能够获知、终端设备根据下行信道信息传输的中断或模式感知到更新的发生)。预设的时长之后,终端设备和第网络设备获知更新完成,可以约定传输更新得到的第二解压缩器的信息,或第二压缩器的信息和第二解压缩器的信息,而不再需要一条指令(如,上述的第一信息)通知终端设备已经更新完成。
方式四、图8中的(d)所示的方法流程还包括:S820d,网络设备向终端设备发送第一信息。该第一信息用于通知终端设备接收第二解压缩器的信息;或者,该第一信息用于通知终端设备接收第二压缩器的信息和第二解压缩器的信息。网络设备向终端设备发送第一信息之后,在第三预设时长之内或者第三预设时长之后开始向终端设备发送第二解压缩器的信息,或者,向终端设备发送第二压缩器的信息和第二解压缩器的信息,即在方式四下图8中的(d)所示的方法流程还包括上述的S840d,具体发送第二压缩器的信息和第二解压缩器的信息参见方式一中的可能一,这里不再赘述。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当本申请提供的实施例用于CSI反馈流程中时,包括:
图8中的(d)所示的方法流程还包括S812d,网络设备向终端设备发送CSI-RS;S813d,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S801d,网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备上报的有损压缩的下行信道信息以及已知的第一压缩器和解压缩器判断的;或者网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于基于终端设备上报的有损压缩的下行信道信息、自身获得的上行信道信息以及已知的第一压缩器和解压缩器判断的。
具体地,对应于S520中的可能五:
如图8中的(e)所示,包括以下步骤:
S801e,网络设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S801e中网络设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能二以及方式二下的可能三和可能四。
在网络设备确定第一压缩器和第一解压缩器需要更新的情况下,图8中的(e)所示的方法流程还包括:S810e,网络设备基于当前获得的下行信道信,或者,基于当前获得的下行信道信息和上行信道信息调整第一压缩器和第一解压缩器。
具体地,S810e中网络设备如何调整第一压缩器和第一解压缩器以参考上述S520中的可能五中的描述,这里不再赘述。
为了便于描述,本实施例中将调整完的第一解压缩器也可以称为第二解压缩器、调整完第一压缩器也可以称为第二压缩器,下文中为了与图8中的(d)区分,描述为调整完的第一解压缩器和调整完第一压缩器。
在网络设备调整完第一压缩器和第一解压缩器之后,作为示例而非限定,图8中的(e)所示的方法流程后续还包括以下几种可能的方式:
方式一、图8中的(e)所示的方法流程还包括:S820e,网络设备向终端设备发送第四通知消息。该第四通知消息用于通知终端设备接收调整完的第一解压缩器;或者,该第四通知消息用于通知终端设备接收调整完的第一压缩器和第一解压缩器。
应理解,从功能上说图8中的(e)中的第四通知消息和图8中的(d)中的第一信息功能类似,都是通知终端设备接收更新之后的压缩器的信息和解压缩器的信息,所以本申请中的第四通知消息也可以称为第一信息。
终端设备接收到该第四通知消息之后,可执行的步骤包括以下两种可能:
可能一、终端设备接收到第四通知消息之后,向网络设备发送第四响应消息,该第四响应消息用于指示网络设备可以上报调整完的第一解压缩器;或者,第四响应消息用于指示网络设备可以上报调整完的第一压缩器和第一解压缩器;在该方式一下,图8中的(e)所示的方法流程还包括S830e,终端设备向网络设备发送第四响应消息。
第四响应消息也可以称为第一响应消息。
进一步地,在该方式一下,图8中的(e)所示的方法流程还包括S840e,网络设备向终端设备发送调整完的第一压缩器的信息,或者,网络设备向终端设备发送调整完的第一压缩器的信息和第一解压缩器的信息。
需要说明的是,本申请实施例中网络设备可以向终端设备发送终端设备需要的配置的调整完的第一压缩器的信息,或者,网络设备可以向终端设备发送调整完的第一压缩器的信息和第一解压缩器的信息,则后续终端设备可以基于调整完的第一压缩器和第一解压缩器重新判断是否需要更新调整完的第一压缩器和第一解压缩器。
一种可能的实现方式,终端设备和网络设备本地分别仅保存有第一压缩器对应的第三网络结构,调整完的第一压缩器可以用第四网络结构和第四网络权重表示,则网络设备向终端设备发送调整完的第一压缩器的信息可以是发送第四网络权重即可;
同理,当终端设备和网络设备本地分别仅保存有第一压缩器对应的第四网络结构和第一解压缩器对应的第三网络结构,调整完的第一解压缩器可以用第三网络结构和第三网络权重表示,调整完的第一压缩器可以用第四网络结构和第四网络权重表示,则网络设备向终端设备发送调整完的第一解压缩器的信息可以是发送第三网络权重、网络设备向终端设备发送调整完的第一压缩器的信息可以是发送第四网络权重即可。
需要说明的是,当调整完的第一解压缩器称为第二解压缩器的情况下,上述的第三网络结构称为第一网络结构、第三网络权重称为第一网络权重;调整完的第一压缩器称为第 二压缩器的情况下,上述的第四网络结构称为第二网络结构、第四网络权重称为第二网络权重。
另一种可能的实现方式,终端设备和网络设备本地分别仅保存有第一压缩器对应的第四网络结构,调整完的第一压缩器可以用第四网络结构和第四网络权重表示。另外,终端设备和网络设备本地分别保存有调整完的第一压缩器对应的第四网络权重,且第四网络权重在终端设备中的index与第四网络权重在网络设备中的index一致,则网络设备向终端设备发送调整完的第一压缩器的信息可以是发送第四网络权重的index即可;
同理,当终端设备和网络设备本地分别仅保存有第一压缩器对应的第四网络结构和第一解压缩器对应的第三网络结构,调整完的第一解压缩器可以用第三网络结构和第三网络权重表示,调整完的第一压缩器可以用第四网络结构和第四网络权重表示。
另外,终端设备和网络设备本地分别保存有调整完的第一解压缩器对应的第三网络权重,且第三网络权重在终端设备中的index与第三网络权重在网络设备中的index一致,终端设备和网络设备本地分别保存有调整完的第一压缩器对应的第四网络权重,且第四网络权重在终端设备中的index与第四网络权重在网络设备中的index一致,则网络设备向终端设备发送调整完的第一解压缩器的信息可以是发送第三网络权重的index、网络设备向终端设备发送调整完的第一压缩器的信息可以是发送第四网络权重的index即可。
可选地,上述第三网络权重的index和第四网络权重的index相同,在该情况下上述的第三网络权重的index和第四网络权重的index为一个index即可。
又一种可能的实现方式,终端设备和网络设备本地分别仅保存有第一压缩器对应的第四网络结构,调整完的第一压缩器和第一压缩器之间的区别可以用第二网络权重变化量表示,则网络设备向终端设备发送第一压缩器的信息可以是发送第二网络权重变化量即可;
同理,当终端设备和网络设备本地分别仅保存有第一压缩器对应的第四网络结构和第一解压缩器对应的第三网络结构,调整完的第一解压缩器和第一解压缩器之间的区别可以用第一网络权重变化量表示,调整完的第一压缩器和第一压缩器之间的区别可以用第二网络权重变化量表示,则网络设备向终端设备发送调整完的第一解压缩器的信息可以是发送第一网络权重变化量、网络设备向终端设备发送调整完的第一压缩器的信息可以是发送第二网络权重变化量即可。
需要说明的是,上述的网络设备将调整完的第一解压缩器的信息,或者,调整完的第一压缩器的信息和第一压缩器的信息发送给终端设备可能的实现方式只是举例,对本申请的保护范围不构成任何的限定,上述方式的简单变形以及其他网络设备将调整完的第一解压缩器的信息,或者,调整完的第一压缩器的信息和第一压缩器的信息上报给终端设备的方式也在本申请的保护范围之内,例如,网络设备上报调整完的第一解压缩器对应的网络结构和网络权重的index等,这里不再一一举例说明。
可能二、终端设备接收到第四通知消息之后,可以不同意基于AI模式向网络设备反馈的信道信息,例如,终端设备向网络设备发送第三响应消息,该第三响应消息用于指示网络设备继续基于传统的信道信息反馈模型进行信道信息反馈;还例如,终端设备接收到第四通知消息之后不向网络设备发送响应消息,则网络设备在发送第四通知消息之后的预设时间段内未收到任何响应消息的情况下,网络设备可以确定继续基于传统的信道信息反馈模型进行信道信息反馈
在该可能二下,图8中的(e)所示的方法流程还包括S831e,终端设备向网络设备发送第三响应消息,或者,终端设备在第四预设时长内不向网络设备发送响应消息。其中,第三响应消息与图8中的(d)中的第二响应消息类似,也可以称之为第二响应消息。
需要说明的是,可能二下,终端设备不同意基于AI模式向网络设备反馈的信道信息的前提包括:
协议预定义当第一压缩器和第一解压缩器需要更新的情况下网络设备和终端设备确定回退到传统的信道信息反馈模式;或者
网络设备向终端设备发送了第二通知消息,或,终端设备向网络设备发送了第二通知消息。该第二通知消息用于通知对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式,即在该可能二下,图8中的(e)所示的方法流程还包括S811e,发送第二通知消息。
应理解,前述的可能一中也可以包括该S811e,或者,可能一下无需执行S811e,网络设备确定需要更新之后无需通知终端设备先回退到传统的信道信息反馈方式,可以基于第一压缩器和第一解压缩器继续实现信道信息反馈。
方式二、图8中的(e)所示的方法流程还包括:S821e,终端设备向网络设备发送第二信息,第二信息用于指示终端设备能够接收调整完的第一解压缩器的信息;或者,该第二信息用于通知终端设备能够接收调整完的第一解压缩器的信息和调整完的第一压缩器的信息。
网络设备接收到该第二信息之后,向终端设备发送调整完的第一解压缩器的信息,或者,向终端设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息。
需要说明的是,本申请实施例中上述网络设备接收到该第二信息之后,向终端设备发送调整完的第一解压缩器的信息,或者,向终端设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息的时机不限定,可以是在接收到该第二信息之后的任意时刻。
例如,在第一起始时刻之后的第一预设时长之内或者第一预设时长之后开始向终端设备发送调整完的第一解压缩器的信息,或者,向终端设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息,即在方式二下图8中的(e)所示的方法流程还包括上述的S840e,具体发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息参见方式一中的可能一,这里不再赘述。
方式三、网络设备调整完第一压缩器和第一解压缩器之后,向终端设备发送调整完的第一解压缩器的信息,或者,向终端设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息。
需要说明的是,本申请实施例中上述网络设备调整完第一压缩器和第一解压缩器之后,向终端设备发送调整完的第一解压缩器的信息,或者,向终端设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息的时机不限定,可以是在网络设备调整完第一压缩器和第一解压缩器之后的任意时刻。
例如,在第二起始时刻之后的第二预设时长之内或者第二预设时长之后开始向终端设备发送调整完的第一解压缩器的信息,或者,向终端设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息,即在方式二下图8中的(e)所示的方法流程还包括上述的S840e,具体发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息参见方 式一中的可能一,这里不再赘述。
需要说明的是,方式二和方式三下终端设备和网络设备对于开始更新第一压缩器和第一解压缩器的时刻都能获知(例如,执行更新的网络设备能够获知、终端设备根据下行信道信息传输的中断或模式感知到更新的发生)。预设的时长之后,终端设备和第网络设备获知更新完成,可以约定传输更新得到的第二解压缩器的信息,或第二压缩器的信息和第二解压缩器的信息,而不再需要一条指令(如,上述的第一信息)通知终端设备已经更新完成。
方式四、图8中的(e)所示的方法流程还包括:S820e,网络设备向终端设备发送第四通知消息。该第四通知消息用于通知终端设备接收调整完的第一解压缩器的信息;或者,该第四通知消息用于通知终端设备接收调整完的第一解压缩器的信息和调整完的第一压缩器的信息。网络设备向终端设备发送第四通知消息之后,在第三预设时长之内或者第三预设时长之后开始向终端设备发送调整完的第一解压缩器的信息,或者,向终端设备发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息,即在方式二下图8中的(e)所示的方法流程还包括上述的S840e,具体发送调整完的第一解压缩器的信息和调整完的第一压缩器的信息参见方式一中的可能一,这里不再赘述。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当本申请提供的实施例用于CSI反馈流程中时,包括:
图8中的(d)所示的方法流程还包括S812d,网络设备向终端设备发送CSI-RS;S813d,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S801d,网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备上报的有损压缩的下行信道信息以及已知的第一压缩器和解压缩器判断的;或者网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于基于终端设备上报的有损压缩的下行信道信息、自身获得的上行信道信息以及已知的第一压缩器和解压缩器判断的。
具体地,对应于S520中的可能六:
如图8中的(f)所示,包括以下步骤:
S801f,网络设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S801f中网络设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能二以及方式二下的可能三和可能四。
在网络设备确定第一压缩器和第一解压缩器需要更新的情况下,图8中的(f)所示的方法流程还包括:S810f,网络设备基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息选择较为合适的压缩器和解压缩器,并对该较为合适的压缩器和解压缩器进一步地调整,得到合适的第三压缩器和第三解压缩器。
具体地,S810f中网络设备如何选择和调整到合适的第三压缩器和第三解压缩器可以参考上述S520中的可能六中的描述,这里不再赘述。
为了便于描述,本申请实施例中将第三解压缩器也可以称为第二解压缩器、第三压缩器也可以称为第二压缩器,下文中为了与图8中的(d)区分,描述为第三压缩器和第三解压缩器。
在网络设备选择和调整到合适的第三压缩器和第三解压缩器之后,作为示例而非限定,图8中的(f)所示的方法流程后续还包括以下几种可能的方式:
方式一、图8中的(f)所示的方法流程还包括:S820f,网络设备向终端设备发送第五通知消息。该第五通知消息用于通知终端设备接收第三压缩器的信息;或者,该第一信息用于通知终端设备接收第三压缩器的信息和第三解压缩器的信息。
应理解,从功能上说图8中的(f)中的第五通知消息和图8中的(a)中的第一信息功能类似,都是通知网络设备接收更新之后的压缩器的信息和解压缩器的信息,所以本申请中的第五通知消息也可以称为第一信息。
终端设备接收到该第五通知消息之后,可执行的步骤包括以下两种可能:
可能一、终端设备接收到第五通知消息之后,向网络设备发送第五响应消息,该第五响应消息用于指示网络设备可以下发第三解压缩器的信息;或者,第五响应消息用于指示网络设备可以上报第三压缩器的信息和第三解压缩器的信息;在该方式一下,图8中的(f)所示的方法流程还包括S830f,终端设备向网络设备发送第五响应消息。
第五响应消息也可以称为第一响应消息。
进一步地,在该方式一下,图8中的(f)所示的方法流程还包括S840f,网络设备向终端设备发送第三解压缩器的信息,或者,网络设备向终端设备发送第三压缩器的信息和第三解压缩器的信息。
需要说明的是,本申请实施例中网络设备可以向终端设备发送终端设备需要的配置的第三解压缩器的信息,或者,网络设备可以向终端设备发送第三压缩器的信息和第三解压缩器的信息,则后续终端设备可以基于第三压缩器和第三解压缩器重新判断是否需要更新第三压缩器和第三解压缩器。
一种可能的实现方式,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同。第三压缩器可以用第六网络结构和第六网络权重表示,则网络设备向终端设备发送第三压缩器的信息可以是发送第六网络权重以及第四指示信息即可,其中,第四指示用于指示第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同,即指示网络结构未发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同。第三解压缩器可以用第五网络结构和第五网络权重表示,第三解压缩器可以用第六网络结构和第六网络权重表示,则网络设备向终端设备发送第三解压缩器的信息可以是发送第五网络权重以及第三指示信息即可、网络设备向终端设备发送第三压缩器的信息可以是发送第六网络权重以及第四指示信息即可,其中,第三指示用于指示第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同、第四指示用于指示第三压缩器对应的第六网络结构和第一解压缩器对应的第四网络结构相同,第三指示信息和第四指示信息可以为同一条指示信息即指示网络结构未发生改变。
另一种可能的实现方式,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同。第三压缩器可以用第六网络结构和第六网络权重表示。另外,终端设备和网络设备本地分别保存有第三压缩器对应的第六网络权重,且第六网络权重在终端设备中的index与第六网络权重在网络设备中的index一致,则网络设备向终端设备发送第三压缩器的信息可以是发送第六网络权重的index以及第四指示信息即可,其中,第四指示用于指示第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同,即指 示网络结构未发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同。第三解压缩器可以用第五网络结构和第五网络权重表示,第三压缩器可以用第六网络结构和第六网络权重表示。
另外,终端设备和网络设备本地分别保存有第三解压缩器对应的第五网络权重,且第五网络权重在终端设备中的index与第五网络权重在网络设备中的index一致,终端设备和网络设备本地分别保存有第三压缩器对应的第六网络权重,且第六网络权重在终端设备中的index与第六网络权重在网络设备中的index一致,则网络设备向终端设备发送第三解压缩器的信息可以是发送第五网络权重的index以及第三指示信息即可、网络设备向终端设备发送第三压缩器的信息可以是发送第六网络权重的index以及第四指示信息即可,其中,第三指示用于指示第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同、第四指示用于指示第三压缩器对应的第六网络结构和第一解压缩器对应的第四网络结构相同,第三指示信息和第四指示信息可以为同一条指示信息即指示网络结构未发生改变。
可选地,上述第五网络权重的index和第六网络权重的index相同,在该情况下上述的第五网络权重index和第六网络权重的index为一个index即可。
又一种可能的实现方式,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同。第三压缩器可以用第六网络结构和第六网络权重表示,第一压缩器可以用第四网络结构和第四网络权重表示,第四网络权重和第六网络权重之间的变化量为第四网络权重变化量,则网络设备向终端设备发送第三压缩器的信息可以是发送第四网络权重变化量以及第四指示信息即可,其中,第四指示用于指示第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同,即指示网络结构未发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构相同。第三解压缩器可以用第五网络结构和第五网络权重表示,第一解压缩器可以用第三网络结构和第三网络权重表示,第三网络权重和第五网络权重之间的变化量为第三网络权重变化量;第三压缩器可以用第六网络结构和第六网络权重表示,第一压缩器可以用第四网络结构和第四网络权重表示,第四网络权重和第六网络权重之间的变化量为第四网络权重变化量。
则网络设备向终端设备发送第三解压缩器的信息可以是发送第三网络权重变化量以及第三指示信息即可、网络设备向终端设备发送第三压缩器的信息可以是发送第四网络权重变化量以及第四指示信息即可,其中,第三指示用于指示第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构相同、第四指示用于指示第三压缩器对应的第六网络结构和第一解压缩器对应的第四网络结构相同,第三指示信息和第四指示信息可以为同一条指示信息即指示网络结构未发生改变。
又一种可能的实现方式,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同或者相同。终端设备和网络设备本地均保存有第三压缩器,且第三压缩器在终端设备中的索引(index)与第三压缩器在网络设备中的index一致,则网络设备 向终端设备发送第三压缩器的信息可以是发送第三压缩器的index即可,还可以发送用于指示网络结构是否发生改变的指示信息;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同或者相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同或者相同。终端设备本地保存有第三压缩器和第三解压缩器,且第三压缩器和第三解压缩器在终端设备中分别对应的index与第三压缩器和第三解压缩器在网络设备中分别对应的index一致,则网络设备向终端设备发送第三压缩器的信息和第三解压缩器的信息可以是发送第三压缩器和第三解压缩器分别对应的index即可,还可以发送用于指示网络结构是否发生改变的指示信息。
可选地,上述第三压缩器的index和第三解压缩器的index相同,在该情况下上述的第三压缩器的index和第三解压缩器的index为一个index即可。
又一种可能的实现方式,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同。第三压缩器可以用第六网络权重和第六网络结构表示,则网络设备向终端设备发送第三压缩器的信息可以是发送第六网络权重和第六网络结构以及第六指示信息即可,该第六指示信息用于指示网络结构发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同。第三解压缩器可以用第五网络权重和第五网络结构表示,第三压缩器可以用第六网络权重和第六网络结构表示,则网络设备向终端设备发送第三解压缩器的信息可以是发送第五网络权重和第五网络结构以及第五指示信息即可、网络设备向终端设备发送第三压缩器的信息可以是发送第六网络权重和第六网络结构以及第六指示信息即可,其中,第五指示信息和第六指示信息可以为一条信息,用于指示网络结构发生改变。
又一种可能的实现方式,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同。第三压缩器可以用第六网络权重和第六网络结构表示。终端设备和网络设备本地均保存有第六网络结构,且第六网络结构在终端设备中的index与第六网络结构在网络设备中的index一致,则网络设备向终端设备发送第三压缩器的信息可以是发送第六网络权重和第六网络结构的index以及第六指示信息即可,该第六指示信息用于指示网络结构发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同。第三解压缩器可以用第五网络权重和第五网络结构表示,第三压缩器可以用第六网络权重和第六网络结构表示。
另外,终端设备和网络设备本地均保存有第五网络结构,且第五网络结构在终端设备中的index与第五网络结构在网络设备中的index一致;终端设备和网络设备本地均保存有第五网络结构,且第六网络结构在终端设备中的index与第六网络结构在网络设备中的index一致。
则网络设备向终端设备发送第三解压缩器的信息可以是发送第五网络权重和第五网络结构的index以及第五指示信息即可、网络设备向终端设备发送第三压缩器的信息可以是发送第六网络权重和第六网络结构的index以及第六指示信息即可,其中,第五指示信 息和第六指示信息可以为一条信息,用于指示网络结构发生改变。
可选地,上述第五网络结构的index和第六网络结构的index相同,在该情况下上述的第五网络结构的index和第六网络结构的index为一个index即可。
又一种可能的实现方式,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同。第三压缩器可以用第六网络权重和第六网络结构表示。另外,终端设备和网络设备本地均保存有第六网络结构,且第六网络结构在终端设备中的index与第六网络结构在网络设备中的index一致;终端设备和网络设备本地均保存有第六网络权重,且第六网络权重在终端设备中的index与第六网络权重在网络设备中的index一致,则网络设备向终端设备发送第三压缩器的信息可以是发送第六网络权重的index和第六网络结构的index以及第六指示信息即可,该第六指示信息用于指示网络结构发生改变;
同理,上述的第三解压缩器对应的第五网络结构和第一解压缩器对应的第三网络结构不相同,上述的第三压缩器对应的第六网络结构和第一压缩器对应的第四网络结构不相同。第三解压缩器可以用第五网络权重和第五网络结构表示,第三压缩器可以用第六网络权重和第六网络结构表示。
另外,终端设备和网络设备本地均保存有第五网络结构,且第五网络结构在终端设备中的index与第五网络结构在网络设备中的index一致;终端设备和网络设备本地均保存有第五网络权重,且第五网络权重在终端设备中的index与第五网络权重在网络设备中的index一致;终端设备和网络设备本地均保存有第六网络结构,且第六网络结构在终端设备中的index与第六网络结构在网络设备中的index一致;终端设备和网络设备本地均保存有第六网络权重,且第六网络权重在终端设备中的index与第六网络权重在网络设备中的index一致。
则网络设备向终端设备发送第三解压缩器的信息可以是发送第五网络权重的index和第五网络结构的index以及第五指示信息即可、网络设备向终端设备发送第三压缩器的信息可以是发送第六网络权重的index和第六网络结构的index以及第六指示信息即可,其中,第五指示信息和第六指示信息可以为一条信息,用于指示网络结构发生改变。
可选地,上述第五网络结构的index和第六网络结构的index相同,在该情况下上述的第五网络结构的index和第六网络结构的index为一个index即可;上述第五网络权重的index和第六网络权重的index相同,在该情况下上述的第五网络权重的index和第六网络权重的index为一个index即可。
需要说明的是,上述的网络设备将第三压缩器,或者,第三压缩器和第三解压缩器发送给终端设备可能的实现方式只是举例,对本申请的保护范围不构成任何的限定,上述方式的简单变形以及其他网络设备将调整完的第三压缩器,或者,第三压缩器和第三解压缩器上报给终端设备的方式也在本申请的保护范围之内,例如,网络设备上报第三压缩器对应的网络结构和网络权重的index等,这里不再一一举例说明。
可能二、终端设备接收到第五通知消息之后,可以不同意基于AI模式向网络设备反馈的信道信息,例如,终端设备向网络设备发送第六响应消息,该第六响应消息用于指示网络设备继续基于传统的信道信息反馈模型进行信道信息反馈;还例如,终端设备接收到第一信息之后不向网络设备发送响应消息,则网络设备在发送第五通知消息之后的预设时间段内未收到任何响应消息的情况下,网络设备可以确定继续基于传统的信道信息反馈模 型进行信道信息传输。
在该可能二下,图8中的(f)所示的方法流程还包括S831f,终端设备向网络设备发送第六响应消息,或者,终端设备在第四预设时长内不向网络设备发送响应消息。其中,第六响应消息与图8中的(d)中的第二响应消息类似,也可以称之为第六响应消息。
需要说明的是,可能二下,终端设备不同意基于AI模式向网络设备反馈的信道信息的前提包括:
协议预定义当第一压缩器和第一解压缩器需要更新的情况下网络设备和终端设备确定回退到传统的信道信息反馈模式;或者
网络设备向终端设备发送了第二通知消息,或,终端设备向网络设备发送了第二通知消息。该第二通知消息用于通知对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式,即在该可能二下,图8中的(f)所示的方法流程还包括S811f,发送第二通知消息。
方式二、图8中的(f)所示的方法流程还包括:S821f,终端设备向网络设备发送第二信息,第二信息用于指示终端设备能够接收第三解压缩器的信息;或者,该第二信息用于通知终端设备能够接收第三解压缩器的信息和第三压缩器的信息。
网络设备接收到该第二信息之后,向终端设备发送第三解压缩器的信息,或者,向终端设备发送第三解压缩器的信息和第三压缩器的信息。
需要说明的是,本申请实施例中上述网络设备接收到该第二信息之后,向终端设备发送第三解压缩器的信息,或者,向终端设备发送第三解压缩器的信息和第三压缩器的信息的时机不限定,可以是在接收到该第二信息之后的任意时刻。
例如,在第一起始时刻之后的第一预设时长之内或者第一预设时长之后开始向终端设备发送第三解压缩器的信息,或者,向终端设备发送第三解压缩器的信息和第三压缩器的信息,即在方式二下图8中的(f)所示的方法流程还包括上述的S840f,具体发送第三解压缩器的信息和第三压缩器的信息参见方式一中的可能一,这里不再赘述。
方式三、网络设备确定出第三压缩器和第三解压缩器之后,向终端设备发送第三解压缩器的信息,或者,向终端设备发送第三解压缩器的信息和第三压缩器的信息。
需要说明的是,本申请实施例中上述网络设备确定出第三压缩器和第三解压缩器之后,向该终端设备发送第三解压缩器的信息,或者,向终端设备发送第三解压缩器的信息和第三压缩器的信息的时机不限定,可以是在网络设备确定出第三压缩器和第三解压缩器之后的任意时刻。
例如,在第二起始时刻之后的第二预设时长之内或者第二预设时长之后开始向终端设备发送第三解压缩器的信息,或者,向终端设备发送第三解压缩器的信息和第三压缩器的信息,即在方式二下图8中的(f)所示的方法流程还包括上述的S840f,具体发送第三解压缩器的信息和第三压缩器的信息参见方式一中的可能一,这里不再赘述。
需要说明的是,方式二和方式三下终端设备和网络设备对于开始更新第一压缩器和第一解压缩器的时刻都能获知(例如,执行更新的网络设备能够获知、终端设备根据下行信道信息传输的中断或模式感知到更新的发生)。预设的时长之后,终端设备和第网络设备获知更新完成,可以约定传输更新得到的第二解压缩器的信息,或第二压缩器的信息和第二解压缩器的信息,而不再需要一条指令(如,上述的第一信息)通知终端设备已经更新 完成。
方式四、图8中的(f)所示的方法流程还包括:S820f,网络设备向终端设备发送第五通知消息。该第五通知消息用于通知终端设备接收第三解压缩器的信息;或者,该第四通知消息用于通知终端设备接收第三压缩器的信息和第三解压缩器的信息。网络设备向终端设备发送第五通知消息之后,在第三预设时长之内或者第三预设时长之后开始向终端设备发送第三解压缩器的信息,或者,向终端设备发送第三解压缩器的信息和第三压缩器的信息,即在方式二下图8中的(f)所示的方法流程还包括上述的S840f,具体发送第三解压缩器的信息和第三压缩器的信息参见方式一中的可能一,这里不再赘述。
应理解,前述的可能一中也可以包括该S811f,或者,可能一下无需执行S811f,网络设备确定需要更新之后无需通知终端设备先回退到传统的信道信息反馈方式,可以基于第一压缩器和第一解压缩器继续实现信道信息反馈。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当图8中的(f)所示的实施例用于CSI反馈流程中时,包括:
情况一、图8中的(f)所示的方法流程还包括S812f,网络设备向终端设备发送CSI-RS;S813f,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S801f,网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备上报的有损压缩的下行信道信息以及已知的第一压缩器和解压缩器判断的;或者网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于基于终端设备上报的有损压缩的下行信道信息、自身获得的上行信道信息以及已知的第一压缩器和解压缩器判断的。
对应于S531,第二设备更新第一压缩器和第一解压缩器之后,需要将更新之后的编码器和/或解编码器的信息通知给第一设备,即图5所示的方法流程还包括:S534,第二设备向第一设备发送更新之后的编码器和/或解编码器的信息,使得第一设备能够获知更新后的编码器和/或解编码器,从而第一设备和第二设备实现对齐后续信道信息反馈所使用的编码器和解编码器。
作为一种可能的实现方式,本申请实施例中,在第二设备向第一设备发送更新之后的编码器和/或解编码器的信息之前,第二设备可以根据第一设备的能力,确定更新之后的编码器和/或解编码器的信息的具体形式。
即图5所示的方法流程还包括S532,第二设备向第一设备的第五指示信息,第五指示信息用于指示第一设备上报第一设备的能力,其中,第一设备的能力可以称为AI能力,例如,计算能力、存储能力、是否存储有某项功能的AI模型(如,信道信息解压缩器)、支持的神经网络结构、支持的神经网络规模、支持的AI通信功能;S533,第一设备向第二设备发送第一能力信息。
第二设备获知第一设备的能力之后,能够基于第一设备的能力确定向第一设备发送的更新之后的编码器和/或解编码器的信息的具体形式。
例如,第一设备具备AI计算能力,第二设备发送编码器和/或解编码器的信息的时候,可以向第一设备发送编码器和/或解编码器对应的网络结构和网络权重,由第一设备自身计算出编码器和/或解编码器。
下面结合图9详细介绍第二设备如何通知第一设备更新后的编码器和/或解编码器的信息,图9是本申请实施例提供的发送更新后编码器和/或解编码器的信息的示意性流程 图。
具体地,对应于S531,第二设备向第一设备发送更新之后的编码器和/或解编码器的信息包括以下几种可能:
可能一、第二设备为终端设备,第一设备为网络设备。如图9中的(a)所示,包括以下步骤:
S901a,网络设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S901a中网络设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能二以及方式二下的可能三和可能四。
在网络设备确定第一压缩器和第一解压缩器需要更新的情况下,图9中的(a)所示的方法流程还包括:S910a,网络设备向终端设备发送第一指示信息,该第一指示信息用于指示终端设备更新第一压缩器和第一解压缩器。
可选地,终端设备接收到第一指示信息之后,可以拒绝更新第一压缩器和第一解压缩器;
可选地,终端设备接收到第一指示信息之后,更新第一压缩器和第一解压缩器,本申请实施例中主要考虑更新第一压缩器和第一解压缩器的情况。即图9中的(a)所示的方法流程还包括:S920a,终端设备基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息选择合适的第二压缩器和第二解压缩器,与图8中的(a)中的S810a类似,这里不再赘述。
在终端设备选择到合适的第二压缩器和第二解压缩器之后,作为示例而非限定,图9中的(a)所示的方法流程后续还包括以下几种可能的方式:
方式一、图9中的(a)所示的方法流程还包括:S930a,终端设备向网络设备发送第一信息,与图8中的(a)中的S820a类似,这里不再赘述。
网络设备接收到该第一信息之后,可执行的步骤包括以下两种可能:
可能一、网络设备接收到第一信息之后,向终端设备发送第一响应消息,进一步地终端设备向网络设备发送第二解压缩器的信息,或者,终端设备向网络设备发送第二压缩器的信息和第二解压缩器的信息。图9中的(a)所示的方法流程还包括:S940a,网络设备向终端设备发送第一响应消息,与图8中的(a)中的S830a类似,这里不再赘述;S950a,终端设备向网络设备发送第二解压缩器的信息,或者,终端设备向网络设备发送第二压缩器的信息和第二解压缩器的信息,与图8中的(a)中的S840a类似,这里不再赘述。
可能二、网络设备接收到第一信息之后,可以不同意基于AI模式接收终端设备反馈的信道信息。图9中的(a)所示的方法流程还包括:S941a,网络设备向终端设备发送第二响应消息,或者,网络设备在第四预设时长内不向终端设备发送响应消息,与图8中的(a)中的S831a类似,这里不再赘述。
需要说明的是,可能二下,网络设备不同意基于AI模式接收终端设备反馈的信道信息的前提包括:
可以通过协议预定义当第一压缩器和第一解压缩器需要更新的情况下网络设备和终端设备确定回退到传统的信道信息反馈模式,或者,网络设备和/或终端设备自身决定当第一压缩器和第一解压缩器需要更新的情况下网络设备和/或终端设备确定回退到传统的信道信息反馈模式即图9中的(a)所示的方法流程还包括S960a,网络设备和终端设备回 退到传统的信道信息反馈模式。
进一步地,当网络设备确定回退到传统的信道信息反馈模式之后,可以通知终端设备回退到传统的信道信息反馈模式,或者,当终端设备确定回退到传统的信道信息反馈模式之后,可以通知网络设备回退到传统的信道信息反馈模式,则图9中的(a)所示的方法流程还包括S961a,发送第二通知消息,该第二通知消息用于指示对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式。
作为一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过一条消息发送,即S961a和前述的S910a为同一个步骤。
作为另一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过不同的消息发送,即S961a和前述的S910a不是同一个步骤。应理解,前述的可能一中也可以包括该S961a,或者,可能一下无需执行S961a,网络设备确定需要更新第一压缩器和第一解压缩器之后,无需通知终端设备先回退到传统的信道信息反馈方式,可以基于第一压缩器和第一解压缩器继续实现信道信息反馈。
方式二~方式四与图8中的(a)中所示的方式二~方式四类似,这里不再赘述。
对应于方式二图9中的(a)所示的方法流程还包括:S921a,网络设备向终端设备发送第二信息和上述的S950a、对应于方式三图9中的(a)所示的方法流程还包括上述的S950a、对应于方式四图9中的(a)所示的方法流程还包括上述的S930a和S950a。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当图9中的(a)所示的实施例用于CSI反馈流程中时,包括:
图9中的(a)所示的方法流程还包括S912 a,网络设备向终端设备发送CSI-RS;S913a,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S901 a,网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备上报的有损压缩的下行信道信息以及已知的第一压缩器和解压缩器判断的;或者网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备上报的有损压缩的下行信道信息、自身获得的上行信道信息以及已知的第一压缩器和解压缩器判断的。
可能二、第二设备为终端设备,第一设备为网络设备。如图9中的(b)所示,包括以下步骤:
S901b,网络设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S901b中网络设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能二以及方式二下的可能三和可能四。
在网络设备确定第一压缩器和第一解压缩器需要更新的情况下,图9中的(b)所示的方法流程还包括:S910b,网络设备向终端设备发送第一指示信息,该第一指示信息用于指示终端设备更新第一压缩器和第一解压缩器。
可选地,终端设备接收到第一指示信息之后,可以拒绝更新第一压缩器和第一解压缩器;
可选地,终端设备接收到第一指示信息之后,更新第一压缩器和第一解压缩器,本申请实施例中主要考虑更新第一压缩器和第一解压缩器的情况。即图9中的(b)所示的方法流程还包括:S920b,终端设备基于当前获得的下行信道信,或者,基于当前获得的下 行信道信息和上行信道信息调整第一压缩器和第一解压缩器,与图8中的(b)中的S810b类似,这里不再赘述。
为了便于描述,本实施例中将调整完的第一解压缩器也可以称为第二解压缩器、调整完第一压缩器也可以称为第二压缩器,下文中为了与图9中的(a)区分,描述为调整完的第一解压缩器和调整完第一压缩器。
在终端设备调整完第一压缩器和第一解压缩器之后,作为示例而非限定,图9中的(b)所示的方法流程后续还包括以下几种可能的方式:
方式一、图9中的(b)所示的方法流程还包括:S930b,终端设备向网络设备发送第四通知消息,与图8中的(b)中的S820b类似,这里不再赘述。
应理解,从功能上说图9中的(b)中的第四通知消息和图9中的(a)中的第一信息功能类似,都是通知网络设备接收更新之后的压缩器的信息和解压缩器的信息,所以本申请中的第四通知消息也可以称为第一信息。
网络设备接收到该第四通知消息之后,可执行的步骤包括以下两种可能:
可能一、网络设备接收到第四通知消息之后,向终端设备发送第四响应消息,进一步地终端设备向网络设备发送调整完的第一解压缩器,或者,终端设备向网络设备发送调整完的第一压缩器和第一解压缩器。图9中的(b)所示的方法流程还包括:S940b,网络设备向终端设备发送第四响应消息,与图8中的(b)中的S830b类似,这里不再赘述;S950b,终端设备向网络设备发送调整完的第一解压缩器,或者,终端设备向网络设备发送调整完的第一压缩器和第一解压缩器,与图8中的(b)中的S840b类似,这里不再赘述。
第四响应消息也可以称为第一响应消息。
可能二、网络设备接收到第四通知消息之后,可以不同意基于AI模式接收终端设备反馈的信道信息。图9中的(b)所示的方法流程还包括:S941b,网络设备向终端设备发送第三响应消息,或者,网络设备在第四预设时长内不向终端设备发送响应消息,与图8中的(b)中的S831b类似,这里不再赘述。
需要说明的是,可能二下,网络设备不同意基于AI模式接收终端设备反馈的信道信息的前提包括:
可以通过协议预定义当第一压缩器和第一解压缩器需要更新的情况下网络设备和终端设备确定回退到传统的信道信息反馈模式,或者,网络设备和/或终端设备自身决定当第一压缩器和第一解压缩器需要更新的情况下网络设备和/或终端设备确定回退到传统的信道信息反馈模式即图9中的(b)所示的方法流程还包括S960b,网络设备和终端设备回退到传统的信道信息反馈模式。
进一步地,当网络设备确定回退到传统的信道信息反馈模式之后,可以通知终端设备回退到传统的信道信息反馈模式,或者,当终端设备确定回退到传统的信道信息反馈模式之后,可以通知网络设备回退到传统的信道信息反馈模式,则图9中的(b)所示的方法流程还包括S961b,网络设备向终端设备发送第二通知消息,该第二通知消息用于指示对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式。
作为一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过一条消息发送,即S961b和前述的S910b为同一个步骤。
作为另一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过不同的消息发送,即S961b和前述的S910b不是同一个步骤。
应理解,前述的可能一中也可以包括该S961b,或者,可能一下无需执行S961b,网络设备确定需要更新第一压缩器和第一解压缩器之后,无需通知终端设备先回退到传统的信道信息反馈方式,可以基于第一压缩器和第一解压缩器继续实现信道信息反馈。
方式二~方式四与图8中的(b)中所示的方式二~方式四类似,这里不再赘述。
对应于方式二图9中的(b)所示的方法流程还包括:S921b,网络设备向终端设备发送第二信息和上述的S950b、对应于方式三图9中的(b)所示的方法流程还包括上述的S950b、对应于方式四图9中的(b)所示的方法流程还包括上述的S930b和S950b。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当图9中的(b)所示的实施例用于CSI反馈流程中时,包括:
图9中的(b)所示的方法流程还包括S912 b,网络设备向终端设备发送CSI-RS;S913b,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S901 b,网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备上报的有损压缩的下行信道信息以及已知的第一压缩器和解压缩器判断的;或者网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备上报的有损压缩的下行信道信息、自身获得的上行信道信息以及已知的第一压缩器和解压缩器判断的。
可能三、第二设备为终端设备,第一设备为网络设备。如图9中的(c)所示,包括以下步骤:
S901c,网络设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S901c中网络设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能二以及方式二下的可能三和可能四。
在网络设备确定第一压缩器和第一解压缩器需要更新的情况下,图9中的(c)所示的方法流程还包括:S910c,网络设备向终端设备发送第一指示信息,该第一指示信息用于指示终端设备更新第一压缩器和第一解压缩器。
可选地,终端设备接收到第一指示信息之后,可以拒绝更新第一压缩器和第一解压缩器;
可选地,终端设备接收到第一指示信息之后,更新第一压缩器和第一解压缩器,本申请实施例中主要考虑更新第一压缩器和第一解压缩器的情况。即图9中的(c)所示的方法流程还包括:S920c,终端设备基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息选择第二压缩器和第二解压缩器,并对该第二压缩器和第二解压缩器进一步地调整,得到合适的第三压缩器和第三解压缩器,与图8中的(c)中的S810c类似,这里不再赘述。
为了便于描述,本申请实施例中将第三解压缩器也可以称为第二解压缩器、第三压缩器也可以称为第二压缩器,下文中为了与图9中的(a)区分,描述为第三压缩器和第三解压缩器。
在终端设备选择和调整到合适的第三压缩器和第三解压缩器之后,作为示例而非限定,图9中的(c)所示的方法流程后续还包括以下几种可能的方式:
方式一、图9中的(c)所示的方法流程还包括:S930c,终端设备向网络设备发送第 五通知消息,与图8中的(c)中的S820c类似,这里不再赘述。
应理解,从功能上说图9中的(c)中的第五通知消息和图9中的(a)中的第一信息功能类似,都是通知网络设备接收更新之后的压缩器的信息和解压缩器的信息,所以本申请中的第五通知消息也可以称为第一信息。
网络设备接收到该第五通知消息之后,可执行的步骤包括以下两种可能:
可能一、网络设备接收到第五通知消息之后,向终端设备发送第五响应消息,进一步地终端设备向网络设备发送第三解压缩器的信息,或者,终端设备向网络设备发送第三压缩器的信息和第三解压缩器的信息。图9中的(c)所示的方法流程还包括:S940c,网络设备向终端设备发送第五响应消息,与图8中的(c)中的S830c类似,这里不再赘述;S950c,终端设备向网络设备发送第三解压缩器的信息,或者,终端设备向网络设备发送第三压缩器的信息和第三解压缩器的信息,与图8中的(c)中的S840c类似,这里不再赘述。
第五响应消息也可以称为第一响应消息。
可能二、网络设备接收到第五通知消息之后,可以不同意基于AI模式接收终端设备反馈的信道信息。图9中的(c)所示的方法流程还包括:S941c,网络设备向终端设备发送第六响应消息,或者,网络设备在第四预设时长内不向终端设备发送响应消息,与图8中的(c)中的S831c类似,这里不再赘述。
需要说明的是,可能二下,网络设备不同意基于AI模式接收终端设备反馈的信道信息的前提包括:
可以通过协议预定义当第一压缩器和第一解压缩器需要更新的情况下网络设备和终端设备确定回退到传统的信道信息反馈模式,或者,网络设备和/或终端设备自身决定当第一压缩器和第一解压缩器需要更新的情况下网络设备和/或终端设备确定回退到传统的信道信息反馈模式即图9中的(c)所示的方法流程还包括S960c,网络设备和终端设备确定回退到传统的信道信息反馈模式。
进一步地,当网络设备确定回退到传统的信道信息反馈模式之后,可以通知终端设备回退到传统的信道信息反馈模式,或者,当终端设备确定回退到传统的信道信息反馈模式之后,可以通知网络设备回退到传统的信道信息反馈模式,则图9中的(c)所示的方法流程还包括S961c,网络设备向终端设备发送第二通知消息,该第二通知消息用于指示对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式。
作为一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过一条消息发送,即S960c和前述的S910c为同一个步骤。
作为另一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过不同的消息发送,即S961c和前述的S910c不是同一个步骤。
应理解,前述的可能一中也可以包括该S961c,或者,可能一下无需执行S961c,网络设备确定需要更新第一压缩器和第一解压缩器之后,无需通知终端设备先回退到传统的信道信息反馈方式,可以基于第一压缩器和第一解压缩器继续实现信道信息反馈。
方式二~方式四与图8中的(c)中所示的方式二~方式四类似,这里不再赘述。
对应于方式二图9中的(c)所示的方法流程还包括:S921 c,网络设备向终端设备发 送第二信息和上述的S950 c、对应于方式三图9中的(c)所示的方法流程还包括上述的S950 c、对应于方式四图9中的(c)所示的方法流程还包括上述的S930 c和S950 c。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当图9中的(c)所示的实施例用于CSI反馈流程中时,包括:
图9中的(c)所示的方法流程还包括S912 c,网络设备向终端设备发送CSI-RS;S913c,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S901 c,网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备上报的有损压缩的下行信道信息以及已知的第一压缩器和解压缩器判断的;或者网络设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于终端设备上报的有损压缩的下行信道信息、自身获得的上行信道信息以及已知的第一压缩器和解压缩器判断的。
可能四、第二设备为网络设备,第一设备为终端设备。如图9中的(d)所示,包括以下步骤:
S901d,终端设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S901d中终端设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能一以及方式二下的可能一和可能二。
在终端设备确定第一压缩器和第一解压缩器需要更新的情况下,图9中的(d)所示的方法流程还包括:S910d,终端设备向网络设备发送第一指示信息,该第一指示信息用于指示网络设备更新第一压缩器和第一解压缩器。
可选地,网络设备接收到第一指示信息之后,可以拒绝更新第一压缩器和第一解压缩器;
可选地,网络设备接收到第一指示信息之后,更新第一压缩器和第一解压缩器,本申请实施例中主要考虑更新第一压缩器和第一解压缩器的情况。即图9中的(d)所示的方法流程还包括:S920d,网络设备基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息选择合适的第二压缩器和第二解压缩器,与图8中的(d)中的S810d类似,这里不再赘述。
在网络设备选择到合适的第二压缩器和第二解压缩器之后,作为示例而非限定,图9中的(d)所示的方法流程后续还包括以下几种可能的方式:
方式一、图9中的(d)所示的方法流程还包括:S930d,网络设备向终端设备发送第一信息,与图8中的(d)中的S820d类似,这里不再赘述。
终端设备接收到该第一信息之后,可执行的步骤包括以下几种方式:可能一、终端设备接收到第一信息之后,向网络设备发送第一响应消息,进一步地网络设备向终端设备发送第二压缩器的信息,或者,网络设备向终端设备发送第二压缩器的信息和第二解压缩器的信息。图9中的(d)所示的方法流程还包括:S940d,终端设备向网络设备发送第一响应消息,与图8中的(d)中的S830d类似,这里不再赘述;S950d,网络设备向终端设备发送第二压缩器的信息,或者,网络设备向终端设备发送第二压缩器的信息和第二解压缩器的信息,与图8中的(d)中的S840d类似,这里不再赘述。
可能二、终端设备接收到第一信息之后,可以不同意基于AI模式向网络设备反馈的信道信息。图9中的(d)所示的方法流程还包括:S941d,终端设备向网络设备发送第二响应消息,或者,终端设备在第四预设时长内不向网络设备发送响应消息,与图8中的(d) 中的S831d类似,这里不再赘述。
需要说明的是,可能二下,终端设备不同意基于AI模式向网络设备反馈的信道信息的前提包括:
可以通过协议预定义当第一压缩器和第一解压缩器需要更新的情况下终端设备和网络设备确定回退到传统的信道信息反馈模式,或者,终端设备和/或网络设备自身决定当第一压缩器和第一解压缩器需要更新的情况下终端设备和/或网络设备确定回退到传统的信道信息反馈模式即图9中的(d)所示的方法流程还包括S960d,终端设备和网络设备确定回退到传统的信道信息反馈模式。
进一步地,当终端设备确定回退到传统的信道信息反馈模式之后,可以通知网络设备回退到传统的信道信息反馈模式,或者,当网络设备确定回退到传统的信道信息反馈模式之后,可以通知终端设备回退到传统的信道信息反馈模式,则图9中的(d)所示的方法流程还包括S961d,发送第二通知消息,该第二通知消息用于指示对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式。
作为一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过一条消息发送,即S961d和前述的S910d为同一个步骤。
作为另一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过不同的消息发送,即S961d和前述的S910d不是同一个步骤。
应理解,前述的可能一中也可以包括该S961d,或者,可能一下无需执行S961d,终端设备确定需要更新第一压缩器和第一解压缩器之后,无需通知网络设备先回退到传统的信道信息反馈方式,可以基于第一压缩器和第一解压缩器继续实现信道信息反馈。
方式二~方式四与图8中的(d)中所示的方式二~方式四类似,这里不再赘述。
对应于方式二图9中的(d)所示的方法流程还包括:S921 d,网络设备向终端设备发送第二信息和上述的S950 c、对应于方式三图9中的(d)所示的方法流程还包括上述的S950 d、对应于方式四图9中的(d)所示的方法流程还包括上述的S930 d和S950 d。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当图9中的(d)所示的实施例用于CSI反馈流程中时,包括以下两种可能的情况:
情况一、图9中的(d)所示的方法流程还包括S912 d,网络设备向终端设备发送CSI-RS;S913b,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S901 d,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于CSI-RS进行信道测量得到下行信道信息以及已知的第一压缩器和解压缩器判断的。
情况二、图9中的(d)所示的方法流程还包括S914 d,终端设备启动测量,向网络设备发送第三通知消息;S915 d,网络设备向终端设备发送CSI-RS和上行信道信息;S913d,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S901 d,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于CSI-RS进行信道测量得到下行信道信息、接收到的存在压缩损失的上行信道信息以及已知的第一压缩器和解压缩器判断的。
可能五、第二设备为网络设备,第一设备为终端设备。如图9中的(e)所示,包括以下步骤:
S901e,终端设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S901e中终端设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能一以及方式二下的可能一和可能二。
在终端设备确定第一压缩器和第一解压缩器需要更新的情况下,图9中的(e)所示的方法流程还包括:S910e,终端设备向网络设备发送第一指示信息,该第一指示信息用于指示网络设备更新第一压缩器和第一解压缩器。
可选地,网络设备接收到第一指示信息之后,可以拒绝更新第一压缩器和第一解压缩器;
可选地,网络设备接收到第一指示信息之后,更新第一压缩器和第一解压缩器,本申请实施例中主要考虑更新第一压缩器和第一解压缩器的情况。即图9中的(e)所示的方法流程还包括:S920e,网络设备基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息调整第一压缩器和第一解压缩器,与图8中的(e)中的S810e类似,这里不再赘述。
为了便于描述,本实施例中将调整完的第一解压缩器也可以称为第二解压缩器、调整完第一压缩器也可以称为第二压缩器,下文中为了与图9中的(d)区分,描述为调整完的第一解压缩器和调整完第一压缩器。
在网络设备调整完第一压缩器和第一解压缩器之后,作为示例而非限定,图9中的(e)所示的方法流程后续还包括以下几种可能的方式:
方式一、图9中的(e)所示的方法流程还包括:S930e,网络设备向终端设备发送第四通知消息,与图8中的(e)中的S820e类似,这里不再赘述。
应理解,从功能上说图9中的(e)中的第四通知消息和图9中的(d)中的第一信息功能类似,都是通知终端设备接收更新之后的压缩器的信息和解压缩器的信息,所以本申请中的第四通知消息也可以称为第一信息。
终端设备接收到该第四通知消息之后,可执行的步骤包括以下几种方式:
可能一、终端设备接收到第四通知消息之后,向网络设备发送第四响应消息,进一步地网络设备向终端设备发送调整完的第一压缩器的信息,或者,网络设备向终端设备发送调整完的第一压缩器的信息和第一解压缩器的信息。图9中的(e)所示的方法流程还包括:S940e,终端设备向网络设备发送第四响应消息,与图8中的(e)中的S830e类似,这里不再赘述;S950e,网络设备向终端设备发送调整完的第一压缩器的信息,或者,网络设备向终端设备发送调整完的第一压缩器的信息和第一解压缩器的信息,与图8中的(e)中的S840e类似,这里不再赘述。
第四响应消息也可以称为第一响应消息。
可能二、终端设备接收到第四通知消息之后,可以不同意基于AI模式向网络设备反馈的信道信息。图9中的(e)所示的方法流程还包括:S941e,终端设备向网络设备发送第三响应消息,或者,终端设备在第四预设时长内不向网络设备发送响应消息,与图8中的(e)中的S831e类似,这里不再赘述。
需要说明的是,可能二下,终端设备不同意基于AI模式向网络设备反馈的信道信息的前提包括:
可以通过协议预定义当第一压缩器和第一解压缩器需要更新的情况下终端设备和网 络设备确定回退到传统的信道信息反馈模式,或者,终端设备和/或网络设备自身决定当第一压缩器和第一解压缩器需要更新的情况下终端设备和/或网络设备确定回退到传统的信道信息反馈模式即图9中的(e)所示的方法流程还包括S960e,终端设备和网络设备确定回退到传统的信道信息反馈模式。
进一步地,当终端设备确定回退到传统的信道信息反馈模式之后,可以通知网络设备回退到传统的信道信息反馈模式,或者,当网络设备确定回退到传统的信道信息反馈模式之后,可以通知终端设备回退到传统的信道信息反馈模式,则图9中的(e)所示的方法流程还包括S961e,发送第二通知消息,该第二通知消息用于指示对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式。
作为一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过一条消息发送,即S961e和前述的S910e为同一个步骤。
作为另一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过不同的消息发送,即S960e和前述的S910e不是同一个步骤。
应理解,前述的可能一中也可以包括该S961e,或者,可能一下无需执行S961e,终端设备确定需要更新第一压缩器和第一解压缩器之后,无需通知网络设备先回退到传统的信道信息反馈方式,可以基于第一压缩器和第一解压缩器继续实现信道信息反馈。
方式二~方式四与图8中的(e)中所示的方式二~方式四类似,这里不再赘述。
对应于方式二图9中的(e)所示的方法流程还包括:S921 e,网络设备向终端设备发送第二信息和上述的S950 c、对应于方式三图9中的(e)所示的方法流程还包括上述的S950 e、对应于方式四图9中的(e)所示的方法流程还包括上述的S930 e和S950 e。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当图9中的(e)所示的实施例用于CSI反馈流程中时,包括以下两种可能的情况:
情况一、图9中的(e)所示的方法流程还包括S912 e,网络设备向终端设备发送CSI-RS;S913b,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S901 e,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于CSI-RS进行信道测量得到下行信道信息以及已知的第一压缩器和解压缩器判断的。
情况二、图9中的(e)所示的方法流程还包括S914 e,终端设备启动测量,向网络设备发送第三通知消息;S915 e,网络设备向终端设备发送CSI-RS和上行信道信息;S913e,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S901 e,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于CSI-RS进行信道测量得到下行信道信息、接收到的存在压缩损失的上行信道信息以及已知的第一压缩器和解压缩器判断的。
可能六、第二设备为网络设备,第一设备为终端设备。如图9中的(f)所示,包括以下步骤:
S901f,终端设备判断第一压缩器和第一解压缩器是否需要更新。
具体地,S901f中终端设备如何判断第一压缩器和第一解压缩器是否需要更新可以参考上述S510中方式一下的可能一以及方式二下的可能一和可能二。
在终端设备确定第一压缩器和第一解压缩器需要更新的情况下,图9中的(f)所示 的方法流程还包括:S910f,终端设备向网络设备发送第一指示信息,该第一指示信息用于指示网络设备更新第一压缩器和第一解压缩器。
可选地,网络设备接收到第一指示信息之后,可以拒绝更新第一压缩器和第一解压缩器;
可选地,网络设备接收到第一指示信息之后,更新第一压缩器和第一解压缩器,本申请实施例中主要考虑更新第一压缩器和第一解压缩器的情况。即图9中的(f)所示的方法流程还包括:S920f,网络设备基于当前获得的下行信道信息,或者,基于当前获得的下行信道信息和上行信道信息选择较为合适的压缩器和解压缩器,并对该较为合适的压缩器和解压缩器进一步地调整,得到合适的第三压缩器和第三解压缩器,与图8中的(f)中的S810f类似,这里不再赘述。
为了便于描述,本申请实施例中将第三解压缩器也可以称为第二解压缩器、第三压缩器也可以称为第二压缩器,下文中为了与图9中的(d)区分,描述为第三压缩器和第三解压缩器。
在网络设备选择和调整到合适的第三压缩器和第三解压缩器之后,作为示例而非限定,图9中的(f)所示的方法流程后续还包括以下几种可能的方式:
方式一、图9中的(f)所示的方法流程还包括:S930f,网络设备向终端设备发送第五通知消息,与图8中的(f)中的S820f类似,这里不再赘述。
应理解,从功能上说图9中的(f)中的第五通知消息和图9中的(a)中的第一信息功能类似,都是通知网络设备接收更新之后的压缩器的信息和解压缩器的信息,所以本申请中的第五通知消息也可以称为第一信息。
终端设备接收到该第五通知消息之后,可执行的步骤包括以下两种可能:
可能一、终端设备接收到第五通知消息之后,向网络设备发送第五响应消息,进一步地网络设备向终端设备发送第三压缩器,或者,网络设备向终端设备发送第三压缩器和第三解压缩器。图9中的(f)所示的方法流程还包括:S940f,终端设备向网络设备发送第五响应消息,与图8中的(f)中的S830f类似,这里不再赘述;S950f,网络设备向终端设备发送第三压缩器的信息,或者,网络设备向终端设备发送第三压缩器的信息和第三解压缩器的信息,与图8中的(f)中的S840f类似,这里不再赘述。
可能二、终端设备接收到第五通知消息之后,可以不同意基于AI模式向网络设备反馈的信道信息。图9中的(f)所示的方法流程还包括:S941f,终端设备向网络设备发送第六响应消息,或者,终端设备在第四预设时长内不向网络设备发送响应消息,与图8中的(f)中的S831f类似,这里不再赘述。
需要说明的是,可能二下,终端设备不同意基于AI模式向网络设备反馈的信道信息的前提包括:
可以通过协议预定义当第一压缩器和第一解压缩器需要更新的情况下终端设备和网络设备确定回退到传统的信道信息反馈模式,或者,终端设备和/或网络设备自身决定当第一压缩器和第一解压缩器需要更新的情况下终端设备和/或网络设备确定回退到传统的信道信息反馈模式即图9中的(f)所示的方法流程还包括S960f,终端设备和网络设备确定回退到传统的信道信息反馈模式。
进一步地,当终端设备确定回退到传统的信道信息反馈模式之后,可以通知网络设备 回退到传统的信道信息反馈模式,或者,当网络设备确定回退到传统的信道信息反馈模式之后,可以通知终端设备回退到传统的信道信息反馈模式,则图9中的(f)所示的方法流程还包括S961f,第二通知消息,该第二通知消息用于指示对端设备从基于AI模式进行信道信息反馈(该AI框架中的压缩器和解压缩器为第一压缩器和第一解压缩器)模式退回到传统的信道信息反馈模式。
作为一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过一条消息发送,即S961f和前述的S910f为同一个步骤。
作为另一种可能的实现方式,该第二通知消息和上述的第一指示信息可以通过不同的消息发送,即S961f和前述的S910f不是同一个步骤。
应理解,前述的可能一中也可以包括该S961f,或者,可能一下无需执行S961f,终端设备确定需要更新第一压缩器和第一解压缩器之后,无需通知网络设备先回退到传统的信道信息反馈方式,可以基于第一压缩器和第一解压缩器继续实现信道信息反馈。
方式二~方式四与图8中的(f)中所示的方式二~方式四类似,这里不再赘述。
对应于方式二图9中的(f)所示的方法流程还包括:S921 f,网络设备向终端设备发送第二信息和上述的S950 c、对应于方式三图9中的(f)所示的方法流程还包括上述的S950 f、对应于方式四图9中的(f)所示的方法流程还包括上述的S930 f和S950 f。
应理解,本申请实施例提供的用于调整神经网络的方法可以应用于CSI的反馈,则当图9中的(e)所示的实施例用于CSI反馈流程中时,包括以下两种可能的情况:
情况一、图9中的(f)所示的方法流程还包括S912 f,网络设备向终端设备发送CSI-RS;S913b,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S901 f,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于CSI-RS进行信道测量得到下行信道信息以及已知的第一压缩器和解压缩器判断的。
情况二、图9中的(f)所示的方法流程还包括S914 f,终端设备启动测量,向网络设备发送第三通知消息;S915 f,网络设备向终端设备发送CSI-RS和上行信道信息;S913 f,终端设备基于CSI-RS进行信道测量得到下行信道信息。即上述的S901 f,终端设备判断第一压缩器和第一解压缩器是否需要更新,可以是基于CSI-RS进行信道测量得到下行信道信息、接收到的存在压缩损失的上行信道信息以及已知的第一压缩器和解压缩器判断的。
进一步地,本申请实施例中,基于AI模型反馈信道信息的场景下,终端设备反馈信道信息的时候,可以将多根接收天线接收到的信道信息经由压缩器压缩,并将压缩信道信息反馈给网络设备,网络设备可以分别恢复出多根接收天线接收到的信道信息;或者,
终端设备反馈信道信息的时候,可以将多个层分别对应的信道信息经由压缩器压缩,并将压缩信道信息反馈给网络设备,网络设备可以分别恢复出多个层对应的信道信息。
本申请还提供一种通信方法,该通信方法用于启动终端设备或网络设备的AI功能。下面结合图10详细介绍该通信方法。
该通信方法包括以下部分或全部步骤。
S1010,第一设备向第二设备发送第一消息。
该第一消息用于指示第二设备上报第二设备的AI能力。
本申请实施例中,第一设备向第二设备发送第一消息可以是显示地在某条消息中携带 第一消息,或者,该第一消息隐式地携带在该条消息中。
可选地,第一消息隐式地携带在该条消息包括:
该条消息中包括第一资源指示信息,该第一资源指示信息用于指示第二设备在相应的资源上接收该第一消息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH。
S1020,第二设备向第一设备发送第十指示信息。
该第十指示信息用于指示第二设备的AI能力。
示例性地,第二设备的AI能力包括:第二设备的计算能力、第二设备的存储能力、第二设备的是否存储有某项功能的AI模型、第二设备支持的神经网络结构、第二设备支持的神经网络规模、第二设备支持的AI通信功能等。
示例性地,第二设备的计算能力信息可以是计算能力的指标、计算能力的指示。例如,每秒的浮点运算次数、每秒的张量运算次数等。
第二设备的计算能力信息还可以是芯片信息。例如,不同的芯片具备不同的计算能力,计算能力信息可以为芯片类型。
第二设备的计算能力信息还可以是否具备AI计算能力。例如,具备AI计算能力时计算能力信息为1,不具备AI计算能力计算能力信息为0。
可选地,AI计算能力可以为与一般计算能力不同的计算能力,例如,AI计算能力指示专门用于神经网络相关计算的计算资源,擅长于并行计算,可以由神经网络对应的算子构成。
第二设备的计算能力信息还可以是AI能力等级信息。例如,AI能力等级可以分为1~5个等级,计算能力信息可以1~5中的任意一个等级,不同的AI等级对应不同的计算能力。
示例性地,第二设备的存储能力信息可以是存储能力的指标、存储能力的指示等。例如,第二设备的存储能力信息可以是存储空间、寻址信息或存储位数(如,64位)。
第二设备的存储能力信息还可以是芯片信息。例如,不同的芯片具备不同的存储能力,存储能力信息可以为芯片类型。
第二设备的存储能力信息还可以是否具备AI存储能力。例如,具备AI存储能力时存储能力信息为1,不具备AI存储能力存储能力信息为0。
可选地,AI存储能力可以为与一般存储能力不同的存储能力,例如,AI存储能力指示专门用于存储神经网络相关参数的存储器。
第二设备的存储能力信息还可以是AI能力等级信息。例如,AI能力等级可以分为1~5个等级,存储能力信息可以1~5中的任意一个等级,不同的AI等级对应不同的存储能力。
示例性地,第二设备是否存储有第一AI模型的信息可以是1比特的信息。例如,存储有第一AI模型的信息比特值为1,未存储有第一AI模型的信息比特值为0。
示例性地,第二设备支持的神经网络结构可以是第二设备支持的神经网络类型(如,CNN、DNN/FC或RNN等)。
第二设备支持的神经网络结构还可以是第二设备对于不同神经网络支持的程度,其中,支持程度可以用算子数量和能力表示,不同的神经网络对应的硬件算子数量以及每个算子的能力可能不同。
示例性地,第二设备支持的神经网络规模可以是支持的神经网络的相关参数的值。
示例性地,第二设备支持的AI通信功能可以是压缩解压功能,还可以是调制解调功能等。其中,不同的功能也可以由算子数量和能力表示。
本申请实施例中,神经网络对应的算子可以表示神经网络的功能和/或神经网络的结构。本申请实施例中,第二设备向第一设备发送第十指示信息可以是显示地在某条消息中携带第十指示信息,或者,该第十指示信息隐式地携带在该条消息中。
可选地,第十指示信息隐式地携带在该条消息包括:
该条消息中包括第二资源指示信息,该第二资源指示信息用于指示第一设备在相应的资源上接收该第十指示信息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH。
第一设备获知第二设备的能力之后,可以向第二设备发送AI模型。即图10所示的方法流程还包括:S1030,第一设备向第二设备发送AI模型的信息。
本申请实施例中,第一设备向第二设备发送AI模型的信息可以是显示地在某条消息中携带AI模型的信息,或者,该AI模型的信息隐式地携带在该条消息中。
可选地,AI模型的信息隐式地携带在该条消息包括:
该条消息中包括第三资源指示信息,该第三资源指示信息用于指示第二设备在相应的资源上接收该AI模型的信息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH。
AI模型的信息包括以下几种可能:
可能一、当第一设备和第二设备本地均保存有该AI模型,则AI模型的信息可以是该AI模型的index。
可能二、当该AI模型可以用第一网络权重和第一网络结构表示,则该AI模型的信息可以是第一网络权重和第一网络结构。
可能三、当第一设备和第二设备本地均保存有该AI模型对应的第一网络结构,且第一网络结构在第一设备中的index与第一网络结构在第二设备中的index一致,该AI模型可以用第一网络权重和第一网络结构表示,则该AI模型的信息可以是第一网络结构的index和第一网络权重。
可能四、当第一设备和第二设备本地均保存有该AI模型对应的第一网络结构,且第一网络结构在第一设备中的index与第一网络结构在第二设备中的index一致,该AI模型可以用第一网络权重和第一网络结构表示,另外,当第一设备和第二设备本地均保存有该AI模型对应的第一网络权重,且第一网络权重在第一设备中的index与第一网络权重在第二设备中的index一致,则该AI模型的信息可以是第一网络结构的index和第一网络权重的index。
可能五、当第一设备和第二设备本地均仅保存有该AI模型对应的第一网络结构,该AI模型可以用第一网络权重和第一网络结构表示,则该AI模型的信息可以是第一网络权重。
可能六、当第一设备和第二设备本地均仅保存有该AI模型对应的第一网络结构,该AI模型可以用第一网络权重和第一网络结构表示,另外,当第一设备和第二设备本地均保存有该AI模型对应的第一网络权重,且第一网络权重在第一设备中的index与第一网络权重在第二设备中的index一致,则该AI模型的信息可以是第一网络权重的index。
作为一种可能的实现方式,图10所示的通信方法流程中,当第一设备本地保存有N个神经网络的情况下,在发送上述的AI模型的信息之前,该第一设备还可以向第二设备发送至少一个神经网络作为候选的神经网络:
示例性地,第一设备向第二设备发送至少一个神经网络包括以下几种可能:
可能一、第一设备本地保存的N个神经网络为需要应用于第二设备或第一设备的神经网络。
在可能一中,第一设备可以向第二设备发送N个神经网络中的M个神经网络的信息,其中,M和N为正整数,且M小于或者等于N。
示例性地,第一设备向第二设备发送M个神经网络的信息包括以下至少一种方式:
第一设备向第二设备发送M个神经网络、第一设备向第二设备发送M个神经网络分别对应的网络权重、第一设备向第二设备发送M个神经网络分别对应的网络结构。
可能二、第一设备本地保存的N个网络结构相同的神经网络为需要应用于第二设备或第一设备的神经网络。
在可能二中,第一设备可以向第二设备发送N个神经网络中的某个神经网络的网络结构。
可能三、第一设备本地保存的N个神经网络包括N/2个神经网络对,每对神经网络对包括第一神经网络和第二神经网络,N为非0偶数。
在可能三中,第一设备可以向第二设备发送N/2个神经网络对中的Q个神经网络对中的第一神经网络的信息和/或第二神经网络的信息,其中,Q为小于或者等于N/2的正整数。
示例性地,第一设备向第二设备发送Q个神经网络对中的第一神经网络的信息和/或第二神经网络的信息包括以下至少一种方式:
第一设备向所述第二设备发送Q个第二神经网络、第一设备向所述第二设备发送Q个第一神经网络、第一设备向所述第二设备发送Q个第一神经网络分别对应的网络权重、第一设备向所述第二设备发送Q个第二神经网络分别对应的网络权重、第一设备向所述第二设备发送Q个第一神经网络分别对应的网络结构、第一设备向所述第二设备发送Q个第二神经网络分别对应的网络结构。
可能四、第一设备本地保存的N个神经网络包括N/2个神经网络对,每对神经网络对包括第一神经网络和第二神经网络,其中,N/2个第一神经网络的网络结构相同,N/2个第二神经网络的网络结构相同,N为非0偶数。
在可能四中,第一设备可以向第二设备发送N/2个神经网络对中的某一对神经网络对中的第一神经网络对应的网络结构的信息和/或第二神经网络对应的网络结构的信息。
上述的可能一~可能四所示的可以理解为第一设备向第二设备发送候选的神经网络,进一步地第一设备还可以通过指示信息指示该至少一个候选神经网络中适用于当前使用的神经网络;或者,第一设备可以直接将适用于当前使用的神经网络发送给第二设备无需下发候选的神经网络。
例如,第一设备本地保存有2对相对应的神经网络对:神经网络#1、神经网络#2、神经网络#3、神经网络#4,其中,神经网络#1和神经网络#2为一对神经网络对、神经网络#3和神经网络#4为一对神经网络对,且神经网络#1和神经网络#3需要应用于第一设备侧、 神经网络#2和神经网络#4需要应用于第二设备侧,则第一设备可以将需要应用于第二设备侧的神经网络#2和神经网络#4发送给第二设备,或者第一设备可以将神经网络#1、神经网络#2、神经网络#3、神经网络#4均发送给第二设备,作为候选神经网络。并通过指示信息指示当前使用的神经网络为神经网络#2,其中,指示信息指示当前使用的神经网络为神经网络#2的指示方式可以参考S1030中所示的可能一~可能六,这里不再赘述。
示例性地,图10所示的通信方法用于启动终端设备或网络设备的AI功能可以是在终端设备初始接入的场景下完成的,即在终端设备实现初始接入的流程中启动终端设备的AI功能。
现有的初始接入流程如图11所示,图11是一种初始接入的示意性流程图。
初始接入包括以下步骤:
S1110,终端设备向网络设备发送第七消息。
该第七消息包括随机接入前导码(random access preamble),终端设备在随机接入信道(Random Access Channel,PRACH)上向网络设备发送random access preamble,以发起随机接入流程。
现有随机接入流程中该第七消息称为消息1(message 1,MSG 1)。
S1120,网络设备向终端设备发送第七响应消息。
该第七响应消息包括随机接入响应(random access response),网络设备在物理下行链路共享信道(physical downlink shared channel,PDSCH)上向终端设备发送random access response,以响应终端设备的随机接入,该第七响应消息中包括基站确定的终端设备对应的随机前导序列的索引号。
现有随机接入流程中该第七响应消息称为消息2(message 2,MSG 2)。
S1130,终端设备向网络设备发送第八消息。
该第八消息包括RRC建立请求(RRC connection request)消息,终端设备在物理上行链路共享信道(physical uplink shared channel,PDSCH)上向网络设备发送RRC connection request,以请求建立连接,该第八消息中包括终端设备的标识。
现有随机接入流程中该第八消息称为消息3(message 3,MSG 3)。
S1140,网络设备向终端设备发送第八响应消息。
该第八响应消息包括连接建立(connection resolution)消息,网络设备在PDSCH上向终端设备发送connection resolution,该第八响应消息用于确认随机接入过程中的冲突解决。
现有随机接入流程中该第八响应消息称为消息4(message 4,MSG 4)。
上述只是简单说明了随机接入的流程,具体随机接入流程中的信令交互可以参考现有协议中的规定,本申请对此不做进一步地描述。图11所示的实施例主要介绍如何在结合随机接入流程启动终端设备的AI功能,包括以下几种可能的方式:
作为一种可能的实现方式,上述第八响应消息中包括第一消息,该第一消息用于指示终端设备上报终端设备的AI能力。
其中,第一消息可以显示地携带在第八响应消息中,或者,该第一消息隐式地携带在第八响应消息中。
可选地,该第一消息隐式地携带在第八响应消息中包括:
第八响应消息中包括第一资源指示信息,该第一资源指示信息用于指示终端设备在相应的资源上接收该第一消息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH。
在该方式下,终端设备接收到第八响应消息之后,向网络设备发送第十指示信息;并且网络设备接收到终端设备上报的第十指示信息之后,可以基于该第十指示信息,或者基于终端设备的AI能力向终端设备发送AI模型的信息。
即图11所示的方法流程还包括S1101,终端设备向网络设备发送第十指示信息,与图10中的S1020类似,这里不再赘述,S1102,网络设备向终端设备发送AI模型的信息,与图10中的S1030类似,这里不再赘述。
作为另一种可能的实现方式,协议预定义终端设备接收到第八响应消息之后需要向网络设备上报第十指示信息。
在该方式下,终端设备接收到第八响应消息之后,向网络设备发送第十指示信息;并且网络设备接收到终端设备上报的第十指示信息之后,向终端设备发送AI模型的信息。即图11所示的方法流程还包括S1101,终端设备向网络设备发送第十指示信息,与图10中的S1020类似,这里不再赘述,S1102,网络设备向终端设备发送AI模型的信息,与图10中的S1030类似,这里不再赘述。
作为又一种可能的实现方式,上述第七响应消息中包括第一消息,该第一消息用于指示终端设备上报终端设备的AI能力。
其中,第一消息可以显示地携带在第七响应消息中,或者,该第一消息隐式地携带在第七响应消息中。
可选地,该第一消息隐式地携带在第七响应消息中包括:
第七响应消息中包括第一资源指示信息,该第一资源指示信息用于指示终端设备在相应的资源上接收该第一消息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH。
在该方式下,终端设备接收到第七响应消息之后,向网络设备发送的第八消息中包括第十指示信息,或者,该第八消息中包括第二资源指示信息,该第二资源指示信息用于指示终端设备在相应的资源上接收该第十指示信息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH;
并且网络设备接收到终端设备发送的第八消息之后,向终端设备发送的第八响应消息中包括AI模型的信息,或者,该第八响应消息中包括第三资源指示信息,该第三资源指示信息用于指示终端设备在相应的资源上接收该AI模型的信息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH。
作为又一种可能的实现方式,协议预定义终端设备接收到第七响应消息之后需要向网络设备上报第十指示信息。
在该方式下,终端设备接收到第七响应消息之后,向网络设备发送的第八消息中包括第十指示信息,或者,该第八消息中包括第二资源指示信息,该第二资源指示信息用于指示终端设备在相应的资源上接收该第十指示信息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH;
并且网络设备接收到终端设备发送的第八消息之后,向终端设备发送的第八响应消息 中包括AI模型的信息,或者,该第八响应消息中包括第三资源指示信息,该第三资源指示信息用于指示终端设备在相应的资源上接收该AI模型的信息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH。
作为又一种可能的实现方式,上述第七响应消息中包括第一消息,该第一消息用于指示终端设备上报终端设备的AI能力。
其中,第一消息可以显示地携带在第七响应消息中,或者,该第一消息隐式地携带在第七响应消息中。
可选地,该第一消息隐式地携带在第七响应消息中包括:
第七响应消息中包括第一资源指示信息,该第一资源指示信息用于指示终端设备在相应的资源上接收该第一消息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH。
在该方式下,终端设备接收到第七响应消息之后,向网络设备发送的第八消息中包括第十指示信息,或者,该第八消息中包括第二资源指示信息,该第二资源指示信息用于指示终端设备在相应的资源上接收该第十指示信息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH;
并且网络设备接收到终端设备发送的第八消息之后,向终端设备发送的第八响应消息之后,在其他的信令中下发AI模型的信息。即图11所示的方法流程还包括S1103,网络设备向终端设备发送AI模型的信息,与图10中的S1030类似,这里不再赘述。
作为又一种可能的实现方式,协议预定义终端设备接收到第七响应消息之后需要向网络设备上报第十指示信息。
在该方式下,终端设备接收到第七响应消息之后,向网络设备发送的第八消息中包括第十指示信息,或者,该第八消息中包括第二资源指示信息,该第二资源指示信息用于指示终端设备在相应的资源上接收该第十指示信息,该资源可以是PUCCH、PDCCH、PUSCH、PDSCH、UL grant或RACH;
并且网络设备接收到终端设备发送的第八消息之后,向终端设备发送的第八响应消息之后,在其他的信令中下发AI模型的信息。即图11所示的方法流程还包括S1103,网络设备向终端设备发送AI模型的信息,与图10中的S1030类似,这里不再赘述。
需要说明的是,上述图11所示的在初始接入流程中启动终端设备的AI功能只是举例,对本申请的保护范围不构成任何的限定,可以在终端设备和网络设备建立连接之后的通信过程中启动终端设备的AI功能。
上述方法实施例中,上述各过程的序列号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。并且有可能并非要执行上述方法实施例中的全部操作。
应理解,上述方法实施例中终端设备和/或网络设备可以执行施例中的部分或全部步骤,这些步骤或操作仅是示例,本申请实施例还可以包括执行其它操作或者各种操作的变形。
还应理解,在本申请的各个实施例中,如果没有特殊说明以及逻辑冲突,不同的实施例之间的术语和/或描述可以具有一致性、且可以相互引用,不同的实施例中的技术特征 根据其内在的逻辑关系可以组合形成新的实施例。
上面结合图5-图11详细介绍了本申请实施例提供的用于调整神经网络的方法和通信方法下面结合图12-图17详细介绍本申请实施例提供的用于调整神经网络的装置和通信装置。
参见图12,图12是本申请提出的用于调整神经网络的装置1200的示意图。如图12所示,装置1200包括处理单元1210和发送单元1220。
处理单元1210,用于确定第三神经网络和第四神经网络,该第三神经网络和该第四神经网络分别对应该第一神经网络和该第二神经网络;
和发送单元1220,用于向该第二设备发送该第四神经网络的信息;
其中,该第一神经网络或该第三神经网络用于该第一设备进行第一信号处理,该第二神经网络或该第四神经网络用于该第二设备进行第二信号处理,该第二信号处理与该第一信号处理相对应。
示例性地,处理单元1210,用于确定第三神经网络和第四神经网络包括:
处理单元1210,用于更新该第一神经网络和该第二神经网络分别得到该第三神经网络和该第四神经网络。
示例性地,该装置还包括接收单元,用于在处理单元1210更新该第一神经网络和该第二神经网络分别得到该第三神经网络和该第四神经网络之前,接收来自该第二设备的第一指示信息,该第一指示信息用于指示该处理单元1210更新该第一神经网络和该第二神经网络;或者,
接收来自第二设备的第二指示信息,该第二指示信息用于指示该处理单元1210判断该第一神经网络和该第二神经网络是否需要更新,该处理单元1210判断该第一神经网络和该第二神经网络需要更新;
示例性地,处理单元1210,用于在处理单元1210更新该第一神经网络和该第二神经网络分别得到该第三神经网络和该第四神经网络之前,周期性地或非周期性地判断该第一神经网络和该第二神经网络是否需要更新,处理单元1210判断该第一神经网络和该第二神经网络需要更新;
示例性地,处理单元1210,用于在处理单元1210更新该第一神经网络和该第二神经网络分别得到该第三神经网络和该第四神经网络之前,基于预设条件触发判断该第一神经网络和该第二神经网络是否需要更新,该处理单元1210判断该第一神经网络和该第二神经网络需要更新。
示例性地,处理单元1210更新该第一神经网络和该第二神经网络包括:
该处理单元1210周期性地或非周期性地更新该第一神经网络和该第二神经网络。
示例性地,处理单元1210判断该第一神经网络和该第二神经网络是否需要更新包括:
该处理单元1210根据第一信息和第二信息之间的差异度或相似度是否满足第三条件判断该第一神经网络和该第二神经网络是否需要更新,其中,该第一信息包括该第一信号相关的第一判断信号,该第二信息包括该第五信号相关的第二判断信号。
示例性地,处理单元1210还用于基于该第一判断信号、该第一神经网络和该第二神经网络确定该第二判断信号;或者,
该处理单元1210还用于基于该第一判断信号、该第一神经网络和该第二神经网络以 及该第一功能模块和/或该第二功能模块确定该第二判断信号。
示例性地,处理单元1210确定该第三神经网络和该第四神经网络包括:
该处理单元1210基于通信系统数据从第一集合中选择得到该第三神经网络和该第四神经网络,该第一集合包括多个神经网络;或者,
该处理单元1210基于该通信系统数据调整该第一神经网络和该第二神经网络分别对应的网络权重,得到该第三神经网络和该第四神经网络;或者,
该处理单元1210基于该通信系统数据从第二集合中选择得到第五神经网络和第六神经网络,再基于该通信系统数据调整该第五神经网络和该第六神经网络分别对应的网络权重,得到该第三神经网络和该第四神经网络。
示例性地,发送单元1220还用于向该第二设备发送该第三神经网络的信息。
示例性地,发送单元1220向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息之前,该发送单元1220还用于,向该第二设备发送第一信息,该第一信息用于请求该第二设备接收该第四神经网络的信息,或者,用于请求该第二设备接收该第四神经网络的信息和该第三神经网络的信息;接收单元,用于接收来自该第二设备的第一响应消息,该第一响应消息用于指示该第一设备发送该第四神经网络的信息,或者,用于指示该第一设备发送该第四神经网络的信息和该第三神经网络的信息。
示例性地,发送单元1220向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息之前,接收单元,用于接收来自该第二设备的第二信息,该第二信息用于指示该第二设备能够接收该第四神经网络的信息,或者,指示该第二设备能够接收该第四神经网络的信息和该第三神经网络的信息。
示例性地,发送单元1220向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息包括:
在接收单元接收到该第二信息之后,发送单元1220向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息。
示例性地,发送单元1220向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息包括:
处理单元1210更新该第一神经网络和该第二神经网络分别得到第三神经网络和该第四神经网络之后,发送单元1220向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息。
示例性地,发送单元1220向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息之前,该发送单元1220还用于,向该第二设备发送第一信息,该第一信息用于通知该第二设备接收该第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息;
发送单元1220向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息包括:
发送单元1220,在发送单元1220向该第二设备发送该第一信息之后的第三预设时长之内或第三预设时长之后开始向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息。
示例性地,在发送单元1220向该第二设备发送该第四神经网络的信息,或者,发送该第四神经网络的信息和该第三神经网络的信息之后,接收单元还用于接收来自该第二设备的第一通知消息,该第一通知消息用于指示该第二设备采用该第四神经网络,或者采用该第四神经网络和该第三神经网络进行信息传输。
示例性地,接收单元还用于接收来自该第二设备的第二通知消息,或者,发送单元1220还用于向第二设备发送第二通知消息,
其中,该第二通知消息用于通知信息传输模式从第一模式转变为第二模式,该第一模式包括基于神经网络进行信息传输,该神经网络包括该第一神经网络和该第二神经网络,该第二模式包括基于非神经网络进行信息传输。
示例性地,处理单元1210还用于将该信息传输模式从该第一模式切换至该第二模式,其中,该第四起始时刻包括该第一设备向该第二设备发送该第二通知消息的时刻,或该第一设备接收来自该第二设备的该第二通知消息的时刻。
示例性地,接收单元还用于接收来自该第二设备的第二响应消息,该第二响应消息用于指示拒绝接收该第四神经网络的信息,或者,用于指示拒绝接收该第四神经网络的信息和该第三神经网络的信息。
示例性地,接收单元还用于接收来自该第二设备的第五指示信息,该第五指示信息用于指示该第一设备发送该第一设备的能力,发送单元1220还用于向该第二设备发送第一能力信息,该第一能力信息包括以下信息中的至少一项:
该第一设备的计算能力信息、该第一设备的存储能力信息或该第一设备是否存储有第一AI模型的信息、该第一设备支持的神经网络结构、该第一设备支持的神经网络规模、该第一设备支持的AI通信功能,其中,该第一AI模型为任意一个AI模型;
示例性地,发送单元1220还用于向该第二设备发送第六指示信息,该第六指示信息用于指示该第二设备发送该第二设备的能力;接收单元还用于接收来自该第二设备的第二能力信息,该第二能力信息包括以下信息中的至少一项:
该第二设备的计算能力信息、该第二设备的存储能力信息或该第二设备是否存储有第二AI模型的信息、该第二设备支持的神经网络结构、该第二设备支持的神经网络规模、该第二设备支持的AI通信功能,其中,该第二AI模型为任意一个AI模型。
装置1200和用于调整神经网络的方法实施例中的第一设备对应,装置1200可以是用于调整神经网络的方法实施例中的第一设备,或者用于调整神经网络的方法实施例中的第一设备内部的芯片或功能模块。装置1200的相应单元用于执行图5-图9所示的方法实施例中由第一设备执行的相应步骤。
其中,装置1200中的处理单元1210用于执行用于调整神经网络的方法实施例中第一设备对应与处理相关的步骤。
装置1200中的发送单元1220用于执行用于调整神经网络的方法实施例中第一设备发送的步骤。
装置1200中的接收单元用于执行用于调整神经网络的方法实施例中第一设备接收的步骤。
发送单元1220和接收单元可以组成收发单元,同时具有接收和发送的功能。其中,处理单元1210可以是至少一个处理器。发送单元1220可以是发射器或者接口电路,接收 单元可以是接收器或者接口电路。接收器和发射器可以集成在一起组成收发器或者接口电路。
可选的,装置1200还可以包括存储单元,用于存储数据和/或信令,处理单元1210、发送单元1220和接收单元可以与存储单元交互或者耦合,例如读取或者调用存储单元中的数据和/或信令,以使得上述实施例的方法被执行。
以上各个单元可以独立存在,也可以全部或者部分集成。
参见图13,图13是本申请提出的通信装置1300的示意图。如图13所示,装置1300包括接收单元1310和发送单元1320。
接收单元1310,用于接收来自第二设备的第十指示信息,该第十指示信息用于指示该第二设备的AI能力;
发送单元1320,用于基于该第二设备的AI能力向该第二设备发送AI模型的信息。
示例性地,接收单元1310接收来自该第二设备的第十指示信息之前,发送单元1320还用于向该第二设备发送第一消息,该第一消息用于询问第二设备的AI能力。
示例性地,发送单元1320向该第二设备发送第一消息包括:
该发送单元1320向第二设备发送第八响应消息,该第八响应消息中包括该第一消息;或者,
该第八响应消息中包括第一资源指示信息,该第一资源指示信息用于指示该第二设备接收该第一消息的资源。
示例性地,发送单元1320向第二设备发送第一消息包括:
该发送单元1320向第二设备发送第七响应消息,该第七响应消息中包括该第一消息;或者,
该第七响应消息中包括第一资源指示信息,该第一资源指示信息用于指示该第二设备接收该第一消息的资源。
示例性地,接收单元1310接收来自该第二设备的第十指示信息之前,发送单元1320向第二设备发送第八响应消息,该第八响应消息用于初始接入过程中完成RRC建立。
示例性地,接收单元1310接收来自该第二设备的第十指示信息之前,发送单元1320向第二设备发送第七响应消息,该第七响应消息用于初始接入过程中响应初始接入请求。
示例性地,接收单元1310接收来自该第二设备的第十指示信息包括:
该接收单元1310接收来自第二设备的第八消息,该第八消息中包括该第十指示信息,或者,
该第八消息中包括第二资源指示信息,该第二资源指示信息用于指示该第一设备接收该第十指示信息的资源。
示例性地,发送单元1320向该第二设备发送AI模型的信息包括:
该发送单元1320向该第二设备发送第八响应消息,该第八响应消息中包括该AI模型的信息,或者,
该第八响应消息中包括第三资源指示信息,该第三资源指示信息用于指示该第二设备接收该AI模型的信息的资源。
示例性地,发送单元1320还用于向该第二设备发送至少一个神经网络,该N为正整数,该至少一个神经网络为该N个神经网络中的部分或全部神经网络。
示例性地,发送单元1320还用于向第二设备发送第八指示信息,该第八指示信息用于指示当前适用的神经网络。
装置1300和用于启动AI功能的通信方法实施例中的第一设备对应,装置1300可以是用于启动AI功能的通信方法实施例中的第一设备,或者用于启动AI功能的通信方法实施例中的第一设备内部的芯片或功能模块。装置1300的相应单元用于执行图10所示的方法实施例中由第一设备执行的相应步骤。
其中,装置1300中的发送单元1320用于执行用于启动AI功能的通信方法实施例中第一设备发送的步骤。
装置1300中的接收单元1310用于执行用于启动AI功能的通信方法实施例中第一设备接收的步骤。
装置1300还可以包括处理单元,用于执行用于启动AI功能的通信方法实施例中第一设备对应与处理相关的步骤。
发送单元1320和接收单元1310可以组成收发单元,同时具有接收和发送的功能。其中,处理单元可以是至少一个处理器。发送单元1320可以是发射器或者接口电路,接收单元1310可以是接收器或者接口电路。接收器和发射器可以集成在一起组成收发器或者接口电路。
可选的,装置1300还可以包括存储单元,用于存储数据和/或信令,处理单元、发送单元1320和接收单元1310可以与存储单元交互或者耦合,例如读取或者调用存储单元中的数据和/或信令,以使得上述实施例的方法被执行。
以上各个单元可以独立存在,也可以全部或者部分集成。
如图14所示,图14是本申请提供的第一设备1400的示意图。该第一设备1400包括处理器1410,处理器1410与存储器1420耦合,存储器1420用于存储计算机程序或指令或者和/或数据,处理器1410用于执行存储器1420存储的计算机程序或指令和/或者数据,使得上文方法实施例中的方法被执行。
可选地,该第一设备1400包括的处理器1410为一个或多个。
可选地,如图14所示,第一设备1400还可以包括存储器1420。
可选地,该第一设备1400包括的存储器1420可以为一个或多个。
可选地,该存储器1420可以与该处理器1410集成在一起,或者分离设置。
可选地,如图14所示,该第一设备1400还可以包括收发器1430,收发器1430用于信号的接收和/或发送。例如,处理器1410用于控制收发器1430进行信号的接收和/或发送。
作为一种方案,第一设备1400用于实现上文方法实施例中第一设备中的各单元执行的操作。
例如,处理器1410用于实现上文方法实施例中由第一设备处理单元执行的处理相关的操作。
参见图15,图15是本申请提出的用于调整神经网络的装置1500的示意图。如图15所示,装置1500包括接收单元1510和处理单元1520。
接收单元1510,用于接收来自该第一设备的第四神经网络的信息,其中,该第四神经网络为该第二神经网络对应的神经网络;
处理单元1520,用于基于该第四神经网络的信息确定该第四神经网络。
示例性地,处理单元1520还用于在该接收单元1510接收来自该第一设备的该第四神经网络的信息,或者,接收来自该第一设备的该第四神经网络的信息和该第三神经网络的信息之前,判断该第一神经网络和该第二神经网络需要更新;
装置1500还包括发送单元,用于向该第一设备发送第一指示信息,该第一指示信息用于指示该第一设备更新该第一神经网络和该第二神经网络;或者,
发送单元,用于向该第一设备发送第二指示信息,该第二指示信息用于指示该第一设备判断该第一神经网络和该第二神经网络是否需要更新。
示例性地,处理单元1520判断该第一神经网络和该第二神经网络需要更新包括:
该处理单元1520周期性地或非周期性地判断该第一神经网络和该第二神经网络是否需要更新;或者,
该接收单元1510接收来自第一设备的第七指示信息,该第七指示信息用于指示该第二设备判断该第一神经网络和该第二神经网络是否需要更新;或者,
该处理单元1520基于预设条件触发判断该第一神经网络和该第二神经网络是否需要更新。
示例性地,处理单元1520判断该第一神经网络和该第二神经网络需要更新包括:
处理单元1520根据第一信息和第二信息之间的差异度或相似度是否满足第三条件判断该第一神经网络和该第二神经网络是否需要更新,其中,该第一信息包括该第一信号相关的第一判断信号,该第二信息包括该第五信号相关的第二判断信号。
示例性地,处理单元1520还用于基于该第一判断信号、该第一神经网络和该第二神经网络确定该第二判断信号;或者,
该处理单元1520还用于基于该第一判断信号、该第一神经网络和该第二神经网络以及该第一功能模块和/或该第二功能模块确定该第二判断信号。
示例性地,在接收单元1510接收来自第一设备的第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息之前,接收单元1510还用于接收来自该第一设备的第一信息,该第一信息用于通知该第二设备接收该第四神经网络的信息,或者,用于通知该第二设备接收该第四神经网络的信息和该第三神经网络的信息;
发送单元,用于向该第一设备发送第一响应消息,该第一响应消息用于指示该第一设备发送该第四神经网络的信息,或者,用于指示该第一设备发送该第四神经网络的信息和该第三神经网络的信息。
示例性地,在接收单元1510接收来自第一设备的第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息之前,发送单元,用于向该第一设备发送第二信息,该第二信息用于指示该第二设备能够接收该第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息;
接收单元1510接收来自第一设备的第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息包括:
发送单元发送该第二信息之后,接收来自该第一设备的该第四神经网络的信息,或者,接收来自该第一设备的该第四神经网络的信息和该第三神经网络的信息。
示例性地,接收单元1510接收来自第一设备的第四神经网络的信息,或者,该第四 神经网络的信息和该第三神经网络的信息包括:在第二起始时刻之后的第二预设时长之内或第二预设时长之后开始接收来自该第一设备的该第四神经网络的信息,或者,接收来自该第一设备的该第四神经网络的信息和该第三神经网络的信息。
示例性地,在接收单元1510接收来自第一设备的第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息之前,接收单元1510接收来自该第一设备的第一信息,该第一信息用于通知该第二设备接收该第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息;
接收单元1510接收来自第一设备的第四神经网络的信息,或者,该第四神经网络的信息和该第三神经网络的信息包括:
该接收单元1510接收来自该第一设备的第一信息之后的第三预设时长之内或第三预设时长之后开始接收来自该第一设备的第四神经网络的信息,或者,接收来自该第一设备的该第四神经网络的信息和该第三神经网络的信息。
示例性地,发送单元向该第一设备发送第一通知消息,该第一通知消息用于指示该第二设备采用该第四神经网络,或者采用该第四神经网络和该第三神经网络进行信息传输。
示例性地,发送单元向第一设备发送第二通知消息,或者,接收单元1510接收来自该第一设备的第二通知消息,
其中,该第二通知消息用于通知信息传输模式从第一模式转变为第二模式,该第一模式包括基于AI模型进行信息传输,该AI模型中包括该第一压缩器和第一解压缩器,该第二模式包括基于非AI模型进行信息传输。
示例性地,发送单元向第一设备发送第二响应消息,该第二响应消息用于指示拒绝接收该第四神经网络的信息,或者,用于指示拒绝接收该第四神经网络的信息和该第三神经网络的信息。
示例性地,发送单元向该第一设备发送第五指示信息,该第五指示信息用于指示该第一设备发送该第一设备的能力;
接收单元1510接收来自第一设备的第一能力信息,该第一能力信息包括以下信息中的至少一项:
该第一设备的计算能力信息、该第一设备的存储能力信息或该第一设备是否存储有第一AI模型的信息、该第一设备支持的神经网络结构、该第一设备支持的神经网络规模、该第一设备支持的AI通信功能,其中,该第一AI模型为任意一个AI模型;或者,
接收单元1510接收来自该第一设备的第六指示信息,该第六指示信息用于指示该第二设备发送该第二设备的能力;
发送单元向该第一设备发送第二能力信息,该第二能力信息包括以下信息中的至少一项:
该第二设备的计算能力信息、该第二设备的存储能力信息或该第二设备是否存储有第二AI模型的信息、该第二设备支持的神经网络结构、该第二设备支持的神经网络规模、该第二设备支持的AI通信功能,其中,该第二AI模型为任意一个AI模型。
装置1500和用于调整神经网络的方法实施例中的第二设备对应,装置1500可以是用于调整神经网络的方法实施例中的第二设备,或者用于调整神经网络的方法实施例中的第二设备内部的芯片或功能模块。装置1500的相应单元用于执行图5-图9所示的方法实施 例中由第二设备执行的相应步骤。
其中,装置1500中的处理单元1520用于执行用于调整神经网络的方法实施例中第二设备对应与处理相关的步骤。
装置1500中的发送单元用于执行用于调整神经网络的方法实施例中第二设备发送的步骤。
装置1500中的接收单元1510用于执行用于调整神经网络的方法实施例中第二设备接收的步骤。
发送单元和接收单元1510可以组成收发单元,同时具有接收和发送的功能。其中,处理单元1520可以是至少一个处理器。发送单元可以是发射器或者接口电路,接收单元1510可以是接收器或者接口电路。接收器和发射器可以集成在一起组成收发器或者接口电路。
可选的,装置1500还可以包括存储单元,用于存储数据和/或信令,处理单元1520、发送单元和接收单元1510可以与存储单元交互或者耦合,例如读取或者调用存储单元中的数据和/或信令,以使得上述实施例的方法被执行。
以上各个单元可以独立存在,也可以全部或者部分集成。
参见图16,图16是本申请提出的通信装置1600的示意图。如图16所示,装置1600包括接收单元1610和发送单元1620。
发送单元1620,用于向第一设备发送第十指示信息,该第十指示信息用于指示该第二设备的AI能力;
接收单元1610,用于接收来自该第一设备的AI模型的信息。
示例性地,接收单元1610接收来自该第一设备的第一消息包括:
该接收单元1610接收来自该第一设备的第八响应消息,该第八响应消息中包括该第一消息;或者,
该第八响应消息中包括第一资源指示信息,该第一资源指示信息用于指示该第二设备接收该第一消息的资源。
示例性地,接收单元1610接收来自该第一设备的第一消息包括:
该接收单元1610接收来自该第一设备的第七响应消息,该第七响应消息中包括该第一消息;或者,
该第七响应消息中包括第一资源指示信息,该第一资源指示信息用于指示该第二设备接收该第一消息的资源。
示例性地,在发送单元1620向该第一设备发送第十指示信息之前,该方法还包括:
该接收单元1610接收来自该第一设备的第八响应消息,该第八响应消息用于初始接入过程中完成RRC建立。
示例性地,在发送单元1620向该第一设备发送第十指示信息之前,该方法还包括:
该接收单元1610接收来自该第一设备的第七响应消息,该第七响应消息用于初始接入过程中响应初始接入请求。
示例性地,该发送单元1620向该第一设备发送第十指示信息包括:
该发送单元1620向该第一设备发送第八消息,该第八消息中包括该第十指示信息,或者,
该第八消息中包括第二资源指示信息,该第二资源指示信息用于指示该第一设备接收该第十指示信息的资源。
示例性地,接收单元1610接收来自该第一设备的AI模型的信息包括:
该接收单元1610接收来自该第一设备的第八响应消息,该第八响应消息中包括该AI模型的信息,或者,
该第八响应消息中包括第三资源指示信息,该第三资源指示信息用于指示该第二设备接收该AI模型的信息的资源。
示例性地,接收单元1610接收来自该第一设备的至少一个神经网络,该N为正整数,该至少一个神经网络为该N个神经网络中的部分或全部神经网络。
示例性地,接收单元1610接收来自该第一设备的第八指示信息,该第八指示信息用于指示当前适用的神经网络。
装置1600和用于启动AI功能的通信方法实施例中的第二设备对应,装置1600可以是用于启动AI功能的通信方法实施例中的第二设备,或者用于启动AI功能的通信方法实施例中的第二设备内部的芯片或功能模块。装置1600的相应单元用于执行图10所示的方法实施例中由第二设备执行的相应步骤。
其中,装置1600中的发送单元1620用于执行用于启动AI功能的通信方法实施例中第二设备发送的步骤。
装置1600中的接收单元1610用于执行用于启动AI功能的通信方法实施例中第二设备接收的步骤。
装置1600还可以包括处理单元,用于执行用于启动AI功能的通信方法实施例中第二设备对应与处理相关的步骤。
发送单元1620和接收单元1610可以组成收发单元,同时具有接收和发送的功能。其中,处理单元可以是至少一个处理器。发送单元1620可以是发射器或者接口电路,接收单元1610可以是接收器或者接口电路。接收器和发射器可以集成在一起组成收发器或者接口电路。
可选的,装置1600还可以包括存储单元,用于存储数据和/或信令,处理单元、发送单元1620和接收单元1610可以与存储单元交互或者耦合,例如读取或者调用存储单元中的数据和/或信令,以使得上述实施例的方法被执行。
以上各个单元可以独立存在,也可以全部或者部分集成。
如图17所示,图17是本申请提供的第二设备1700的示意图。该第二设备1700包括处理器1710,处理器1710与存储器1720耦合,存储器1720用于存储计算机程序或指令或者和/或数据,处理器1710用于执行存储器1720存储的计算机程序或指令和/或者数据,使得上文方法实施例中的方法被执行。
可选地,该第二设备1700包括的处理器1710为一个或多个。
可选地,如图17所示,第二设备1700还可以包括存储器1720。
可选地,该第二设备1700包括的存储器1720可以为一个或多个。
可选地,该存储器1720可以与该处理器1710集成在一起,或者分离设置。
可选地,如图17所示,该第二设备1700还可以包括收发器1730,收发器1730用于信号的接收和/或发送。例如,处理器1710用于控制收发器1730进行信号的接收和/或发 送。
作为一种方案,第二设备1700用于实现上文方法实施例中第二设备中的各单元执行的操作。
例如,处理器1710用于实现上文方法实施例中由第二设备处理单元执行的处理相关的操作。
本申请实施例还提供一种通信系统,其包括前述的第一设备和第二设备。
本申请的又一个实施方式,还提供了一种通信装置,该通信装置可以是基站、终端或中继节点等。该通信装置包括存储器或存储单元,该存储器可以集成在芯片内部,或者是与芯片相连接的存储介质,用于存储一个或多个神经网络,这里的存储一个或多个神经网络可以指存储不同的神经网络参数集合,基站在进行数据处理时,需要调用上述一个或多个神经网络参数集合进行计算。除该参数集合之外,这里的存储一个或多个神经网络还可以指存储除了参数之外的其它描述该神经网络的内容,例如该神经网络计算过程中采用的函数,例如存储一个激活函数或激活函数的标识,激活函数可以是阶跃函数、ReLU函数等,这里也可以适用前述实施例。具体的计算步骤、切换、处理数据或信号、初始化过程等等步骤可以参考本申请的方法或装置的各个实施例、与之结合。进一步的,一个实施例中,该通信装置可以包含计算单元,由处理器等装置实现,以处理上述计算步骤、切换、处理数据或信号、初始化过程等等步骤。又一个实施例中,上述通信装置可以仅包含处理器,而神经网络参数集合可以通过其它装置或网元进行配置。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当该指令在计算机上运行时,使得计算机执行上述如图5(a)、图5(b)、图8~图10所示的方法中第一设备执行的各个步骤。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当该指令在计算机上运行时,使得计算机执行上述如图5(a)、图5(b)、图8~图10所示的方法中第二设备执行的各个步骤。
本申请还提供了一种包含指令的计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述如图5(a)、图5(b)、图8~图10所示的方法中第一设备执行的各个步骤。
本申请还提供了一种包含指令的计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述如图5(a)、图5(b)、图8~图10所示的方法中第二设备执行的各个步骤。
本申请还提供一种芯片,包括处理器。该处理器用于读取并运行存储器中存储的计算机程序,以执行本申请提供的用于调整神经网络的方法中或用于启动AI功能的通信方法中由第一设备执行的相应操作和/或流程。可选地,该芯片还包括存储器,该存储器与该处理器通过电路或电线与存储器连接,处理器用于读取并执行该存储器中的计算机程序。进一步可选地,该芯片还包括通信接口,处理器与该通信接口连接。通信接口用于接收处理的数据和/或信息,处理器从该通信接口获取该数据和/或信息,并对该数据和/或信息进行处理。该通信接口可以是该芯片上的输入/输出接口、接口电路、输出电路、输入电路、管脚或相关电路等。该处理器也可以体现为处理电路或逻辑电路。
本申请还提供一种芯片,包括处理器。该处理器用于读取并运行存储器中存储的计算 机程序,以执行本申请提供的用于调整神经网络的方法中或用于启动AI功能的通信方法中由第二设备执行的相应操作和/或流程。可选地,该芯片还包括存储器,该存储器与该处理器通过电路或电线与存储器连接,处理器用于读取并执行该存储器中的计算机程序。进一步可选地,该芯片还包括通信接口,处理器与该通信接口连接。通信接口用于接收处理的数据和/或信息,处理器从该通信接口获取该数据和/或信息,并对该数据和/或信息进行处理。该通信接口可以是该芯片上的输入/输出接口、接口电路、输出电路、输入电路、管脚或相关电路等。该处理器也可以体现为处理电路或逻辑电路。
上述的芯片也可以替换为芯片系统,这里不再赘述。
本申请中的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
另外,本申请中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三 种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系;本申请中术语“至少一个”,可以表示“一个”和“两个或两个以上”,例如,A、B和C中至少一个,可以表示:单独存在A,单独存在B,单独存在C、同时存在A和B,同时存在A和C,同时存在C和B,同时存在A和B和C,这七种情况。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (161)

  1. 一种用于调整神经网络的方法,涉及第一神经网络和第二神经网络,其中,第一神经网络应用于第一设备侧,第二神经网络应用于第二设备侧,其特征在于,所述方法包括:
    所述第一设备确定第三神经网络和第四神经网络,所述第三神经网络和所述第四神经网络分别对应所述第一神经网络和所述第二神经网络;
    所述第一设备向所述第二设备发送所述第四神经网络的信息,
    其中,所述第一神经网络或所述第三神经网络用于所述第一设备进行第一信号处理,所述第二神经网络或所述第四神经网络用于所述第二设备进行第二信号处理,所述第二信号处理与所述第一信号处理相对应。
  2. 如权利要求1所述的方法,其特征在于,所述第一神经网络或所述第三神经网络用于所述第一设备进行第一信号处理包括:
    所述第一神经网络用于所述第一设备对第一信号进行处理得到第二信号;
    所述第三神经网络用于所述第一设备对第三信号进行处理得到第四信号;
    所述第二神经网络或所述第四神经网络用于所述第二设备进行第二信号处理包括:
    所述第二神经网络用于所述第二设备对所述第二信号进行处理得到第五信号;
    所述第四神经网络用于所述第二设备对所述第四信号进行处理得到第六信号;
    或者,
    所述第二神经网络或所述第四神经网络用于所述第二设备进行第二信号处理包括:
    所述第二神经网络用于所述第二设备对所述第一信号进行处理得到所述第二信号;
    所述第四神经网络用于所述第二设备对所述第三信号进行处理得到所述第四信号;
    所述第一神经网络或所述第三神经网络用于所述第一设备进行第一信号处理包括:
    所述第一神经网络用于所述第一设备对所述第二信号进行处理得到所述第五信号;
    所述第三神经网络用于所述第一设备对所述第四信号进行处理得到所述第六信号。
  3. 如权利要求2所述的方法,其特征在于,所述第三信号相关的第一训练信号与所述第六信号相关的第二训练信号之间的差异度满足第一条件;或者,
    所述第一训练信号与所述第二训练信号之间的相似度满足第二条件。
  4. 如权利要求3所述的方法,其特征在于,所述差异度包括以下任意一种:
    差值、均方差值、归一化均方差值或平均绝对误差;
    所述相似度包括相关性系数。
  5. 如权利要求2-4中任一项所述的方法,其特征在于,所述第一神经网络或所述第二神经网络用于对所述第一信号进行处理得到所述第二信号包括:
    所述第一神经网络或所述第二神经网络和第一功能模块用于对所述第一信号进行处理得到所述第二信号;
    和/或,
    所述第一神经网络或所述第二神经网络用于对所述第二信号进行处理得到所述第五信号包括:
    所述第一神经网络或所述第二神经网络和第二功能模块用于对所述第二信号进行处 理得到所述第五信号。
  6. 如权利要求2-5中任一项所述的方法,其特征在于,所述第三神经网络或所述第四神经网络用于对所述第三信号进行处理得到所述第四信号包括:
    所述第三神经网络或所述第四神经网络和第三功能模块用于对所述第三信号进行处理得到所述第四信号;
    和/或,
    所述第三神经网络或所述第四神经网络用于对所述第四信号进行处理得到所述第六信号包括:
    所述第三神经网络或所述第四神经网络和第四功能模块用于对所述第四信号进行处理得到所述第六信号。
  7. 如权利要求1-6中任一项所述的方法,其特征在于,所述第一设备确定所述第三神经网络和所述第四神经网络包括:
    所述第一设备更新所述第一神经网络和所述第二神经网络分别得到所述第三神经网络和所述第四神经网络。
  8. 如权利要求7所述的方法,其特征在于,所述第一设备更新所述第一神经网络和所述第二神经网络分别得到所述第三神经网络和所述第四神经网络之前,所述方法还包括:
    所述第一设备接收来自所述第二设备的第一指示信息,所述第一指示信息用于指示所述第一设备更新所述第一神经网络和所述第二神经网络;或者,
    所述第一设备周期性地或非周期性地判断所述第一神经网络和所述第二神经网络是否需要更新,所述第一设备判断所述第一神经网络和所述第二神经网络需要更新;或者,
    所述第一设备接收来自第二设备的第二指示信息,所述第二指示信息用于指示所述第一设备判断所述第一神经网络和所述第二神经网络是否需要更新,所述第一设备判断所述第一神经网络和所述第二神经网络需要更新;或者,
    所述第一设备基于预设条件触发判断所述第一神经网络和所述第二神经网络是否需要更新,所述第一设备判断所述第一神经网络和所述第二神经网络需要更新。
  9. 如权利要求8所述的方法,其特征在于,所述第一指示信息和/或所述第二指示信息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  10. 如权利要求7-9中任一项所述的方法,其特征在于,所述第一设备更新所述第一神经网络和所述第二神经网络包括:
    所述第一设备周期性地或非周期性地更新所述第一神经网络和所述第二神经网络。
  11. 如权利要求8或9所述的方法,其特征在于,所述第一设备判断所述第一神经网络和所述第二神经网络是否需要更新包括:
    所述第一设备根据第一信息和第二信息之间的差异度或相似度是否满足第三条件判断所述第一神经网络和所述第二神经网络是否需要更新,其中,所述第一信息包括所述第一信号相关的第一判断信号,所述第二信息包括所述第五信号相关的第二判断信号。
  12. 如权利要求11所述的方法,其特征在于,所述方法还包括:
    所述第一设备基于所述第一判断信号、所述第一神经网络和所述第二神经网络确定所 述第二判断信号;或者,
    所述第一设备基于所述第一判断信号、所述第一神经网络和所述第二神经网络以及所述第一功能模块和/或所述第二功能模块确定所述第二判断信号。
  13. 如权利要求11或12所述的方法,其特征在于,所述第一判断信号包括所述第一设备接收来自所述第二设备的下行信道信息,或者,
    所述第一判断信号包括所述第一设备基于接收来自所述第二设备的探测参考信号SRS测量得到的信道信息;
    其中,所述下行信道信息承载于预设的资源上或者所述下行信道信息被指示用于确定所述第一判断信号。
  14. 如权利要求1-13中任一项所述的方法,其特征在于,所述第一设备确定所述第三神经网络和所述第四神经网络包括:
    所述第一设备基于通信系统数据从第一集合中选择得到所述第三神经网络和所述第四神经网络,所述第一集合包括多个神经网络;或者,
    所述第一设备基于所述通信系统数据调整所述第一神经网络和所述第二神经网络分别对应的网络权重,得到所述第三神经网络和所述第四神经网络;或者,
    所述第一设备基于所述通信系统数据从第二集合中选择得到第五神经网络和第六神经网络,再基于所述通信系统数据调整所述第五神经网络和所述第六神经网络分别对应的网络权重,得到所述第三神经网络和所述第四神经网络。
  15. 如权利要求14所述的方法,其特征在于,所述通信系统数据包括信道特征、信噪比、下行信道信息、上行信道信息和混合自动重传请求HARQ信息中的至少一种。
  16. 如权利要求1-15中任一项所述的方法,其特征在于,所述方法还包括:
    所述第一设备向所述第二设备发送所述第三神经网络的信息。
  17. 如权利要求16所述的方法,其特征在于,
    所述第三神经网络的信息包括以下信息的至少一种:
    所述第三神经网络的标识、第三神经网络对应的网络结构的信息和第三神经网络对应的网络权重的信息、所述第三神经网络对应的网络结构的标识和所述第三神经网络对应的网络权重的信息、所述第三神经网络对应的网络结构的标识和所述第三神经网络对应的网络权重的标识、所述第三神经网络对应的网络权重的信息、所述第三神经网络对应的网络权重和所述第一神经网络对应的网络权重之间的变化量、所述第三神经网络对应的网络权重的标识、第三指示信息,其中,第三指示信息用于指示所述第三神经网络对应的网络结构和所述第一神经网络对应的网络结构是否相同。
  18. 如权利要求1-17中任一项所述的方法,其特征在于,
    所述第四神经网络的信息包括以下信息的至少一种:
    所述第四神经网络的标识、第四神经网络对应的网络结构的信息和第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络结构的标识和所述第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络结构的标识和所述第四神经网络对应的网络权重的标识、所述第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络权重和所述第二神经网络对应的网络权重之间的变化量、所述第四神经网络对应的网络权重的标识、第四指示信息,其中,第四指示信息用于指示所述第四神经网络对应的网络结 构和所述第二神经网络对应的网络结构是否相同。
  19. 如权利要求17或18所述的方法,其特征在于,所述第三神经网络对应的网络权重和所述第一神经网络对应的网络权重之间的变化量,和/或,所述第四神经网络对应的网络权重和所述第二神经网络对应的网络权重之间的变化量包括以下信息中的一个或多个:
    权重位置信息、权重解读规则指示信息、权重数值排列信息和权重数值变化量排列信息;
    所述第三神经网络对应的网络结构的信息和/或所述第四神经网络对应的网络结构的信息包括:
    神经网络类型的指示信息和神经网络结构的指示信息;
    所述第三神经网络对应的网络权重的信息和/或所述第四神经网络对应的网络权重的信息包括:
    权重解读规则指示信息和/或权重数值的排列信息。
  20. 如权利要求1-19中任一项所述的方法,其特征在于,所述第一设备向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息之前,所述方法还包括:
    所述第一设备向所述第二设备发送第一信息,所述第一信息用于请求所述第二设备接收所述第四神经网络的信息,或者,用于请求所述第二设备接收所述第四神经网络的信息和所述第三神经网络的信息;
    所述第一设备接收来自所述第二设备的第一响应消息,所述第一响应消息用于指示所述第一设备发送所述第四神经网络的信息,或者,用于指示所述第一设备发送所述第四神经网络的信息和所述第三神经网络的信息。
  21. 如权利要求20所述的方法,其特征在于,所述第一信息和/或所述第一响应消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  22. 如权利要求1-21中任一项所述的方法,其特征在于,所述第一设备向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息之前,所述方法还包括:
    所述第一设备接收来自所述第二设备的第二信息,所述第二信息用于指示所述第二设备能够接收所述第四神经网络的信息,或者,指示所述第二设备能够接收所述第四神经网络的信息和所述第三神经网络的信息;
    所述第一设备向第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述第一设备接收到所述第二信息之后,向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息。
  23. 如权利要求22所述的方法,其特征在于,所述第一设备接收到所述第二信息之后,向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述第一设备接收到所述第二信息之后,在第一起始时刻之后的第一预设时长之内或 第一预设时长之后开始向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息。
  24. 如权利要求22或23所述的方法,其特征在于,所述第二信息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  25. 如权利要求1-24中任一项所述的方法,其特征在于,所述第一设备向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述第一设备更新所述第一神经网络和所述第二神经网络分别得到第三神经网络和所述第四神经网络之后,向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息。
  26. 如权利要求25所述的方法,其特征在于,所述第一设备向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述第一设备更新所述第一神经网络和所述第二神经网络分别得到第三神经网络和所述第四神经网络之后,在第二起始时刻之后的第二预设时长之内或第二预设时长之后开始向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息。
  27. 如权利要求1-26中任一项所述的方法,其特征在于,所述第一设备向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息之前,所述方法还包括:
    所述第一设备向所述第二设备发送第一信息,所述第一信息用于通知所述第二设备接收所述第四神经网络的信息,或者,所述第四神经网络的信息和所述第三神经网络的信息;
    所述第一设备向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述第一设备向所述第二设备发送所述第一信息之后的第三预设时长之内或第三预设时长之后开始向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息。
  28. 如权利要求1-27中任一项所述的方法,其特征在于,在所述第一设备向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息之后,所述方法还包括:
    所述第一设备接收来自所述第二设备的第一通知消息,所述第一通知消息用于指示所述第二设备采用所述第四神经网络,或者采用所述第四神经网络和所述第三神经网络进行信息传输。
  29. 如权利要求28所述的方法,其特征在于,所述第一通知消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  30. 如权利要求20-29中任一项所述的方法,其特征在于,所述方法还包括:
    所述第一设备向第二设备发送第二通知消息,或者,
    所述第一设备接收来自所述第二设备的第二通知消息,
    其中,所述第二通知消息用于通知信息传输模式从第一模式转变为第二模式,所述第一模式包括基于神经网络进行信息传输,所述神经网络包括所述第一神经网络和所述第二神经网络,所述第二模式包括基于非神经网络进行信息传输。
  31. 如权利要求30所述的方法,其特征在于,所述神经网络还包括第七神经网络和第八神经网络。
  32. 如权利要求30或31所述的方法,其特征在于,所述方法还包括:
    所述第一设备将所述信息传输模式从所述第一模式切换至所述第二模式。
  33. 如权利要求32所述的方法,其特征在于,所述第一设备将所述信息传输模式从所述第一模式切换至所述第二模式包括:
    第一设备在第四起始时刻之后的第四预设时长之内或第四预设时长之后开始将所述信息传输模式从所述第一模式切换至所述第二模式,其中,所述第四起始时刻包括所述第一设备向所述第二设备发送所述第二通知消息的时刻,或所述第一设备接收来自所述第二设备的所述第二通知消息的时刻。
  34. 如权利要求23-33中任一项所述的方法,其特征在于,所述第一起始时刻和所述第二起始时刻包括:
    所述第一设备接收来自所述第二设备的所述第一指示信息的时刻;或,
    所述第一设备向所述第二设备发送第二通知消息的时刻;或,
    所述第一设备接收来自所述第二设备的所述第二通知消息的时刻;或,
    所述第一设备向所述第二设备发送第一信令的时刻;或,
    所述第一设备接收来自所述第二设备的第二信令的时刻,其中,所述第一信令用于指示计时开始,所述第二信令用于指示更新开始;
    其中,第二通知消息用于通知信息传输模式从第一模式转变为第二模式。
  35. 如权利要求30-34中任一项所述的方法,其特征在于,所述第二通知消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  36. 如权利要求1-35中任一项所述的方法,其特征在于,所述方法还包括:
    所述第一设备接收来自所述第二设备的第二响应消息,所述第二响应消息用于指示拒绝接收所述第四神经网络的信息,或者,用于指示拒绝接收所述第四神经网络的信息和所述第三神经网络的信息。
  37. 如权利要求36所述的方法,其特征在于,所述第二响应消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  38. 如权利要求1-37中任一项所述的方法,其特征在于,所述第一设备包括终端设备或网络设备,所述第二设备包括所述终端设备或者所述网络设备,
    当所述第一设备为所述终端设备时,所述第二设备为所述网络设备,
    当所述第一设备为所述网络设备时,所述第二设备为所述终端设备。
  39. 如权利要求1-38中任一项所述的方法,其特征在于,所述方法还包括:
    所述第一设备接收来自所述第二设备的第五指示信息,所述第五指示信息用于指示所 述第一设备发送所述第一设备的能力;
    所述第一设备向所述第二设备发送第一能力信息,所述第一能力信息包括以下信息中的至少一项:
    所述第一设备的计算能力信息、所述第一设备的存储能力信息或所述第一设备是否存储有第一AI模型的信息、所述第一设备支持的神经网络结构、所述第一设备支持的神经网络规模、所述第一设备支持的AI通信功能,其中,所述第一AI模型为任意一个AI模型;或者,
    所述方法还包括:
    所述第一设备向所述第二设备发送第六指示信息,所述第六指示信息用于指示所述第二设备发送所述第二设备的能力;
    所述第一设备接收来自所述第二设备的第二能力信息,所述第二能力信息包括以下信息中的至少一项:
    所述第二设备的计算能力信息、所述第二设备的存储能力信息或所述第二设备是否存储有第二AI模型的信息、所述第二设备支持的神经网络结构、所述第二设备支持的神经网络规模、所述第二设备支持的AI通信功能,其中,所述第二AI模型为任意一个AI模型。
  40. 如权利要求2-39中任一项所述的方法,其特征在于,所述第一信号包括信道信息;
    所述第一神经网络包括第一压缩器、所述第二神经网络包括第一解压器、所述第三神经网络包括第二压缩器、所述第四神经网络包括第二解压器;或者,
    所述第一神经网络包括第一解压器、所述第二神经网络包括第一压缩器、所述第三神经网络包括第二解压器、所述第四神经网络包括第二压缩器。
  41. 如权利要求40所述的方法,其特征在于,所述信道信息中包括多根接收天线接收到的信道信息或多个层的信道信息。
  42. 一种用于调整神经网络的方法,涉及第一神经网络和第二神经网络,其中,第一神经网络应用于第一设备侧,第二神经网络应用于第二设备侧,其特征在于,所述方法包括:
    所述第二设备接收来自所述第一设备的第四神经网络的信息,其中,所述第四神经网络为所述第二神经网络对应的神经网络;
    所述第二设备基于所述第四神经网络的信息确定所述第四神经网络。
  43. 如权利要求42所述的方法,其特征在于,所述方法还包括:
    所述第二设备接收来自所述第一设备的第三神经网络的信息,所述第三神经网络为所述第一神经网络对应的神经网络;
    其中,所述第一神经网络或所述第三神经网络用于所述第一设备进行第一信号处理,所述第二神经网络或所述第四神经网络用于所述第二设备进行第二信号处理,所述第二信号处理与所述第一信号处理相对应。
  44. 如权利要求43所述的方法,其特征在于,所述第一神经网络或所述第三神经网络用于所述第一设备进行第一信号处理包括:
    所述第一神经网络用于所述第一设备对第一信号进行处理得到第二信号;
    所述第三神经网络用于所述第一设备对第三信号进行处理得到第四信号;
    所述第二神经网络或所述第四神经网络用于所述第二设备进行第二信号处理包括:
    所述第二神经网络用于所述第二设备对所述第二信号进行处理得到第五信号;
    所述第四神经网络用于所述第二设备对所述第四信号进行处理得到第六信号;
    或者,
    所述第二神经网络或所述第四神经网络用于所述第二设备进行第二信号处理包括:
    所述第二神经网络用于所述第二设备对所述第一信号进行处理得到所述第二信号;
    所述第四神经网络用于所述第二设备对所述第三信号进行处理得到所述第四信号;
    所述第一神经网络或所述第三神经网络用于所述第一设备进行第一信号处理包括:
    所述第一神经网络用于所述第一设备对所述第二信号进行处理得到所述第五信号;
    所述第三神经网络用于所述第一设备对所述第四信号进行处理得到所述第六信号。
  45. 如权利要求44所述的方法,其特征在于,所述第三信号相关的第一训练信号与所述第六信号相关的第二训练信号之间的差异度满足第一条件;或者,
    所述第一训练信号与所述第二训练信号之间的相似度满足第二条件。
  46. 如权利要求45所述的方法,其特征在于,所述差异度包括以下任意一种:
    差值、均方差值、归一化均方差值或平均绝对误差;
    所述相似度包括相关性系数。
  47. 如权利要求44-46中任一项所述的方法,其特征在于,所述第一神经网络或所述第二神经网络用于对所述第一信号进行处理得到所述第二信号包括:
    所述第一神经网络或所述第二神经网络和第一功能模块用于对所述第一信号进行处理得到所述第二信号;
    和/或,
    所述第一神经网络或所述第二神经网络用于对所述第二信号进行处理得到所述第五信号包括:
    所述第一神经网络或所述第二神经网络和所述第二功能模块用于对所述第二信号进行处理得到所述第五信号。
  48. 如权利要求44-47中任一项所述的方法,其特征在于,所述第三神经网络或所述第四神经网络用于对所述第三信号进行处理得到所述第四信号包括:
    所述第三神经网络或所述第四神经网络和第三功能模块用于对所述第三信号进行处理得到所述第四信号;
    和/或,
    所述第三神经网络或所述第四神经网络用于对所述第四信号进行处理得到所述第六信号包括:
    所述第三神经网络或所述第四神经网络和第四功能模块用于对所述第四信号进行处理得到所述第六信号。
  49. 如权利要求42-48中任一项所述的方法,其特征在于,在所述第二设备接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息之前,所述方法还包括:
    所述第二设备判断所述第一神经网络和所述第二神经网络需要更新;
    所述第二设备向所述第一设备发送第一指示信息,所述第一指示信息用于指示所述第一设备更新所述第一神经网络和所述第二神经网络;或者,
    所述方法还包括:
    所述第二设备向所述第一设备发送第二指示信息,所述第二指示信息用于指示所述第一设备判断所述第一神经网络和所述第二神经网络是否需要更新。
  50. 如权利要求49所述的方法,其特征在于,所述第一指示信息和/或所述第二指示信息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  51. 如权利要求49或50所述的方法,其特征在于,所述第二设备判断所述第一神经网络和所述第二神经网络需要更新包括:
    所述第二设备周期性地或非周期性地判断所述第一神经网络和所述第二神经网络是否需要更新;或者,
    所述第二设备接收来自第一设备的第七指示信息,所述第七指示信息用于指示所述第二设备判断所述第一神经网络和所述第二神经网络是否需要更新;或者,
    所述第二设备基于预设条件触发判断所述第一神经网络和所述第二神经网络是否需要更新。
  52. 如权利要求51所述的方法,其特征在于,所述第七指示信息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  53. 如权利要求49-52中任一项所述的方法,其特征在于,所述第二设备判断所述第一神经网络和所述第二神经网络是否需要更新包括:
    所述第二设备根据第一信息和第二信息之间的差异度或相似度是否满足第三条件判断所述第一神经网络和所述第二神经网络是否需要更新,其中,所述第一信息包括所述第一信号相关的第一判断信号,所述第二信息包括所述第五信号相关的第二判断信号。
  54. 如权利要求53所述的方法,其特征在于,所述方法还包括:
    所述第二设备基于所述第一判断信号、所述第一神经网络和所述第二神经网络确定所述第二判断信号;或者,
    所述第二设备基于所述第一判断信号、所述第一神经网络和所述第二神经网络以及所述第一功能模块和/或所述第二功能模块确定所述第二判断信号。
  55. 如权利要求53或54所述的方法,其特征在于,所述第一判断信号包括所述第一设备向所述第二设备发送的下行信道信息,或者,
    所述第一判断信号包括基于所述第一设备发送的探测参考信号SRS测量得到的信道信息;
    其中,所述下行信道信息承载于预设的资源上或者所述下行信道信息被指示用于确定所述第一判断信号。
  56. 如权利要求43-55中任一项所述的方法,其特征在于,
    所述第三神经网络的信息包括以下信息的至少一种:
    所述第三神经网络的标识、第三神经网络对应的网络结构的信息和第三神经网络对应 的网络权重的信息、所述第三神经网络对应的网络结构的标识和所述第三神经网络对应的网络权重的信息、所述第三神经网络对应的网络结构的标识和所述第三神经网络对应的网络权重的标识、所述第三神经网络对应的网络权重的信息、所述第三神经网络对应的网络权重和所述第一神经网络对应的网络权重之间的变化量、所述第三神经网络对应的网络权重的标识、第三指示信息,其中,第三指示信息用于指示所述第三神经网络对应的网络结构和所述第一神经网络对应的网络结构是否相同。
  57. 如权利要求42-56中任一项所述的方法,其特征在于,
    所述第四神经网络的信息包括以下信息的至少一种:
    所述第四神经网络的标识、第四神经网络对应的网络结构的信息和第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络结构的标识和所述第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络结构的标识和所述第四神经网络对应的网络权重的标识、所述第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络权重和所述第二神经网络对应的网络权重之间的变化量、所述第四神经网络对应的网络权重的标识、第四指示信息,其中,第四指示信息用于指示所述第四神经网络对应的网络结构和所述第二神经网络对应的网络结构是否相同。
  58. 如权利要求56或57所述的方法,其特征在于,所述第三神经网络对应的网络权重和所述第一神经网络对应的网络权重之间的变化量,和/或,所述第四神经网络对应的网络权重和所述第二神经网络对应的网络权重之间的变化量包括以下信息中的一个或多个:
    权重位置信息、权重解读规则指示信息、权重数值排列信息和权重数值变化量排列信息;
    所述第三神经网络对应的网络结构的信息和/或所述第四神经网络对应的网络结构的信息包括:
    神经网络类型的指示信息和神经网络结构的指示信息;
    所述第三神经网络对应的网络权重的信息和/或所述第四神经网络对应的网络权重的信息包括:
    权重解读规则指示信息和/或权重数值的排列信息。
  59. 如权利要求42-58中任一项所述的方法,其特征在于,在所述第二设备接收来自所述第一设备的第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息之前,所述方法还包括:
    所述第二设备接收来自所述第一设备的第一信息,所述第一信息用于通知所述第二设备接收所述第四神经网络的信息,或者,用于通知所述第二设备接收所述第四神经网络的信息和所述第三神经网络的信息;
    所述第二设备向所述第一设备发送第一响应消息,所述第一响应消息用于指示所述第一设备发送所述第四神经网络的信息,或者,用于指示所述第一设备发送所述第四神经网络的信息和所述第三神经网络的信息。
  60. 如权利要求59所述的方法,其特征在于,所述第一信息和/或所述第一响应消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  61. 如权利要求42-60中任一项所述的方法,其特征在于,在所述第二设备接收来自所述第一设备的第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息之前,所述方法还包括:
    所述第二设备向所述第一设备发送第二信息,所述第二信息用于指示所述第二设备能够接收所述第四神经网络的信息,或者,指示所述第二设备能够接收所述第四神经网络的信息和所述第三神经网络的信息;
    所述第二设备接收来自所述第一设备的第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述第二设备发送所述第二信息之后,接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息。
  62. 如权利要求61所述的方法,其特征在于,所述第二设备发送所述第二信息之后,接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述第二设备发送所述第二信息之后,在第一起始时刻之后的第一预设时长之内或第一预设时长之后开始接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息。
  63. 如权利要求61或62所述的方法,其特征在于,所述第二信息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  64. 如权利要求42-63中任一项所述的方法,其特征在于,所述第二设备接收来自所述第一设备的第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息包括:
    在第二起始时刻之后的第二预设时长之内或第二预设时长之后开始接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息。
  65. 如权利要求42-64中任一项所述的方法,其特征在于,在所述第二设备接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息之前,所述方法还包括:
    所述第二设备接收来自所述第一设备的第一信息,所述第一信息用于通知所述第二设备接收所述第四神经网络的信息,或者,通知所述第二设备接收所述第四神经网络的信息和所述第三神经网络的信息;
    所述第二设备接收来自所述第一设备的所述第四神经网络的信息,或者,收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述第二设备接收来自所述第一设备的第一信息之后的第三预设时长之内或第三预设时长之后开始接收来自所述第一设备的第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息。
  66. 如权利要求42-65中任一项所述的方法,其特征在于,在所述第二设备接收来自所述第一设备的第四神经网络的信息,或者,接收所述第四神经网络的信息和所述第三神 经网络的信息之后,所述方法还包括:
    所述第二设备向所述第一设备发送第一通知消息,所述第一通知消息用于指示所述第二设备采用所述第四神经网络,或者采用所述第四神经网络和所述第三神经网络进行信息传输。
  67. 如权利要求66所述的方法,其特征在于,所述第一通知消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  68. 如权利要求59-67中任一项所述的方法,其特征在于,所述方法还包括:
    所述第二设备向第一设备发送第二通知消息,或者,
    所述第二设备接收来自所述第一设备的第二通知消息,
    其中,所述第二通知消息用于通知信息传输模式从第一模式转变为第二模式,所述第一模式包括基于神经网络进行信息传输,所述神经网络包括所述第一神经网络和所述第二神经网络,所述第二模式包括基于非神经网络进行信息传输。
  69. 如权利要求68所述的方法,其特征在于,所述神经网络还包括第七神经网络和第八神经网络。
  70. 如权利要求68或69所述的方法,其特征在于,所述方法还包括:
    所述第二设备将所述信息传输模式从所述第一模式切换至所述第二模式。
  71. 如权利要求70所述的方法,其特征在于,所述第二设备将所述信息传输模式从所述第一模式切换至所述第二模式包括:
    所述第二设备在第四起始时刻之后的第四预设时长之内或第四预设时长之后开始将所述信息传输模式从所述第一模式切换至所述第二模式,其中,所述第四起始时刻包括所述第二设备向所述第一设备发送所述第二通知消息的时刻,或所述第二设备接收来自所述第一设备的所述第二通知消息的时刻。
  72. 如权利要求62-71中任一项所述的方法,其特征在于,所述第一起始时刻和所述第二起始时刻包括:
    所述第二设备向所述第一设备发送所述第一指示信息的时刻;或,
    所述第二设备接收来自所述第一设备发送第二通知消息的时刻;或,
    所述第二设备向所述第一设备发送所述第二通知消息的时刻;或,
    所述第二设备接收来自所述第一设备的第一信令的时刻;或,
    所述第二设备向所述第一设备发送第二信令的时刻,其中,所述第一信令用于指示计时开始,所述第二信令用于指示更新开始;
    其中,第二通知消息用于通知信息传输模式从第一模式转变为第二模式。
  73. 如权利要求68-72中任一项所述的方法,其特征在于,所述第二通知消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  74. 如权利要求42-73中任一项所述的方法,其特征在于,所述方法还包括:
    所述第二设备向所述第一设备发送第二响应消息,所述第二响应消息用于指示拒绝接收所述第四神经网络的信息,或者,用于指示拒绝接收所述第四神经网络的信息和所述第三神经网络的信息。
  75. 如权利要求74所述的方法,其特征在于,所述第二响应消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  76. 如权利要求42-75中任一项所述的方法,其特征在于,所述第一设备包括终端设备或网络设备,所述第二设备包括所述终端设备或者所述网络设备,
    当所述第一设备为所述终端设备时,所述第二设备为所述网络设备,
    当所述第一设备为所述网络设备时,所述第二设备为所述终端设备。
  77. 如权利要求42-76中任一项所述的方法,其特征在于,所述方法还包括:
    所述第二设备向所述第一设备发送第五指示信息,所述第五指示信息用于指示所述第一设备发送所述第一设备的能力;
    所述第二设备接收来自所述第一设备的第一能力信息,所述第一能力信息包括以下信息中的至少一项:
    所述第一设备的计算能力信息、所述第一设备的存储能力信息或所述第一设备是否存储有第一AI模型的信息、所述第一设备支持的神经网络结构、所述第一设备支持的神经网络规模、所述第一设备支持的AI通信功能,其中,所述第一AI模型为任意一个AI模型;或者,
    所述方法还包括:
    所述第二设备接收来自所述第一设备的第六指示信息,所述第六指示信息用于指示所述第二设备发送所述第二设备的能力;
    所述第二设备向所述第一设备发送第二能力信息,所述第二能力信息包括以下信息中的至少一项:
    所述第二设备的计算能力信息、所述第二设备的存储能力信息或所述第二设备是否存储有第二AI模型的信息、所述第二设备支持的神经网络结构、所述第二设备支持的神经网络规模、所述第二设备支持的AI通信功能,其中,所述第二AI模型为任意一个AI模型。
  78. 如权利要求44-77中任一项所述的方法,其特征在于,所述第一信号包括信道信息;
    所述第一神经网络包括第一压缩器、所述第二神经网络包括第一解压器、所述第三神经网络包括第二压缩器、所述第四神经网络包括第二解压器;或者,
    所述第一神经网络包括第一解压器、所述第二神经网络包括第一压缩器、所述第三神经网络包括第二解压器、所述第四神经网络包括第二压缩器。
  79. 如权利要求78所述的方法,其特征在于,所述信道信息中包括多根接收天线接收到的信道信息或多个层的信道信息。
  80. 一种用于调整神经网络的装置,涉及第一神经网络和第二神经网络,其中,第一神经网络应用于装置侧,第二神经网络应用于第二设备侧,其特征在于,所述装置包括:
    处理单元,用于确定第三神经网络和第四神经网络,所述第三神经网络和所述第四神经网络分别对应所述第一神经网络和所述第二神经网络;
    发送单元,用于向所述第二设备发送所述第四神经网络的信息,
    其中,所述第一神经网络或所述第三神经网络用于所述处理单元进行第一信号处理, 所述第二神经网络或所述第四神经网络用于所述第二设备进行第二信号处理,所述第二信号处理与所述第一信号处理相对应。
  81. 如权利要求80所述的装置,其特征在于,所述第一神经网络或所述第三神经网络用于所述处理单元进行第一信号处理包括:
    所述第一神经网络用于所述处理单元对第一信号进行处理得到第二信号;
    所述第三神经网络用于所述处理单元对第三信号进行处理得到第四信号;
    所述第二神经网络或所述第四神经网络用于所述第二设备进行第二信号处理包括:
    所述第二神经网络用于所述第二设备对所述第二信号进行处理得到第五信号;
    所述第四神经网络用于所述第二设备对所述第四信号进行处理得到第六信号;
    或者,
    所述第二神经网络或所述第四神经网络用于所述第二设备进行第二信号处理包括:
    所述第二神经网络用于所述第二设备对所述第一信号进行处理得到所述第二信号;
    所述第四神经网络用于所述第二设备对所述第三信号进行处理得到所述第四信号;
    所述第一神经网络或所述第三神经网络用于所述处理单元进行第一信号处理包括:
    所述第一神经网络用于所述处理单元对所述第二信号进行处理得到所述第五信号;
    所述第三神经网络用于所述处理单元对所述第四信号进行处理得到所述第六信号。
  82. 如权利要求81所述的装置,其特征在于,所述第三信号相关的第一训练信号与所述第六信号相关的第二训练信号之间的差异度满足第一条件;或者,
    所述第一训练信号与所述第二训练信号之间的相似度满足第二条件。
  83. 如权利要求82所述的装置,其特征在于,所述差异度包括以下任意一种:
    差值、均方差值、归一化均方差值或平均绝对误差;
    所述相似度包括相关性系数。
  84. 如权利要求81-83中任一项所述的装置,其特征在于,所述第一神经网络或所述第二神经网络用于对所述第一信号进行处理得到所述第二信号包括:
    所述第一神经网络或所述第二神经网络和第一功能模块用于对所述第一信号进行处理得到所述第二信号;
    和/或,
    所述第一神经网络或所述第二神经网络用于对所述第二信号进行处理得到所述第五信号包括:
    所述第一神经网络或所述第二神经网络和第二功能模块用于对所述第二信号进行处理得到所述第五信号。
  85. 如权利要求81-84中任一项所述的装置,其特征在于,所述第三神经网络或所述第四神经网络用于对所述第三信号进行处理得到所述第四信号包括:
    所述第三神经网络或所述第四神经网络和第三功能模块用于对所述第三信号进行处理得到所述第四信号;
    和/或,
    所述第三神经网络或所述第四神经网络用于对所述第四信号进行处理得到所述第六信号包括:
    所述第三神经网络或所述第四神经网络和第四功能模块用于对所述第四信号进行处 理得到所述第六信号。
  86. 如权利要求80-85中任一项所述的装置,其特征在于,所述处理单元确定所述第三神经网络和所述第四神经网络包括:
    所述处理单元更新所述第一神经网络和所述第二神经网络分别得到所述第三神经网络和所述第四神经网络。
  87. 如权利要求86所述的装置,其特征在于,所述处理单元更新所述第一神经网络和所述第二神经网络分别得到所述第三神经网络和所述第四神经网络之前,所述装置还包括:
    接收单元,用于接收来自所述第二设备的第一指示信息,所述第一指示信息用于指示所述处理单元更新所述第一神经网络和所述第二神经网络;或者,
    所述处理单元周期性地或非周期性地判断所述第一神经网络和所述第二神经网络是否需要更新,所述处理单元判断所述第一神经网络和所述第二神经网络需要更新;或者,
    所述接收单元接收来自第二设备的第二指示信息,所述第二指示信息用于指示所述处理单元判断所述第一神经网络和所述第二神经网络是否需要更新,所述处理单元判断所述第一神经网络和所述第二神经网络需要更新;或者,
    所述处理单元基于预设条件触发判断所述第一神经网络和所述第二神经网络是否需要更新,所述处理单元判断所述第一神经网络和所述第二神经网络需要更新。
  88. 如权利要求87所述的装置,其特征在于,所述第一指示信息和/或所述第二指示信息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  89. 如权利要求86-88中任一项所述的装置,其特征在于,所述处理单元更新所述第一神经网络和所述第二神经网络包括:
    所述处理单元周期性地或非周期性地更新所述第一神经网络和所述第二神经网络。
  90. 如权利要求87或88所述的装置,其特征在于,所述处理单元判断所述第一神经网络和所述第二神经网络是否需要更新包括:
    所述处理根据基于第一信息和第二信息之间的差异度或相似度是否满足第三条件判断所述第一神经网络和所述第二神经网络是否需要更新,其中,所述第一信息包括所述第一信号相关的第一判断信号,所述第二信息包括所述第五信号相关的第二判断信号。
  91. 如权利要求90所述的装置,其特征在于,所述处理单元,还用于基于所述第一判断信号、所述第一神经网络和所述第二神经网络确定所述第二判断信号;或者,
    所述处理单元,还用于基于所述第一判断信号、所述第一神经网络和所述第二神经网络以及所述第一功能模块和/或所述第二功能模块确定所述第二判断信号。
  92. 如权利要求90或91所述的装置,其特征在于,所述第一判断信号包括所述接收单元接收来自所述第二设备的下行信道信息,或者,
    所述第一判断信号包括所述处理单元基于接收来自所述第二设备的探测参考信号SRS测量得到的信道信息;
    其中,所述下行信道信息承载于预设的资源上或者所述下行信道信息被指示用于确定所述第一判断信号。
  93. 如权利要求80-92中任一项所述的装置,其特征在于,所述处理单元确定所述第三神经网络和所述第四神经网络包括:
    所述处理单元基于通信系统数据从第一集合中选择得到所述第三神经网络和所述第四神经网络,所述第一集合包括多个神经网络;或者,
    所述处理单元基于所述通信系统数据调整所述第一神经网络和所述第二神经网络分别对应的网络权重,得到所述第三神经网络和所述第四神经网络;或者,
    所述处理单元基于所述通信系统数据从第二集合中选择得到第五神经网络和第六神经网络,再基于所述通信系统数据调整所述第五神经网络和所述第六神经网络分别对应的网络权重,得到所述第三神经网络和所述第四神经网络。
  94. 如权利要求93所述的装置,其特征在于,所述通信系统数据包括信道特征、信噪比、下行信道信息、上行信道信息和混合自动重传请求HARQ信息中的至少一种。
  95. 如权利要求80-94中任一项所述的装置,其特征在于,所述发送单元,还用于向所述第二设备发送所述第三神经网络的信息。
  96. 如权利要求95所述的装置,其特征在于,
    所述第三神经网络的信息包括以下信息的至少一种:
    所述第三神经网络的标识、第三神经网络对应的网络结构的信息和第三神经网络对应的网络权重的信息、所述第三神经网络对应的网络结构的标识和所述第三神经网络对应的网络权重的信息、所述第三神经网络对应的网络结构的标识和所述第三神经网络对应的网络权重的标识、所述第三神经网络对应的网络权重的信息、所述第三神经网络对应的网络权重和所述第一神经网络对应的网络权重之间的变化量、所述第三神经网络对应的网络权重的标识、第三指示信息,其中,第三指示信息用于指示所述第三神经网络对应的网络结构和所述第一神经网络对应的网络结构是否相同。
  97. 如权利要求80-96中任一项所述的装置,其特征在于,
    所述第四神经网络的信息包括以下信息的至少一种:
    所述第四神经网络的标识、第四神经网络对应的网络结构的信息和第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络结构的标识和所述第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络结构的标识和所述第四神经网络对应的网络权重的标识、所述第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络权重和所述第二神经网络对应的网络权重之间的变化量、所述第四神经网络对应的网络权重的标识、第四指示信息,其中,第四指示信息用于指示所述第四神经网络对应的网络结构和所述第二神经网络对应的网络结构是否相同。
  98. 如权利要求96或97所述的装置,其特征在于,所述第三神经网络对应的网络权重和所述第一神经网络对应的网络权重之间的变化量,和/或,所述第四神经网络对应的网络权重和所述第二神经网络对应的网络权重之间的变化量包括以下信息中的一个或多个:
    权重位置信息、权重解读规则指示信息、权重数值排列信息和权重数值变化量排列信息;
    所述第三神经网络对应的网络结构的信息和/或所述第四神经网络对应的网络结构的信息包括:
    神经网络类型的指示信息和神经网络结构的指示信息;
    所述第三神经网络对应的网络权重的信息和/或所述第四神经网络对应的网络权重的信息包括:
    权重解读规则指示信息和/或权重数值的排列信息。
  99. 如权利要求80-98中任一项所述的装置,其特征在于,所述发送单元向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息之前,所述发送单元还用于向所述第二设备发送第一信息,所述第一信息用于请求所述第二设备接收所述第四神经网络的信息,或者,用于请求所述第二设备接收所述第四神经网络的信息和所述第三神经网络的信息;
    所述接收单元,用于接收来自所述第二设备的第一响应消息,所述第一响应消息用于指示所述发送单元发送所述第四神经网络的信息,或者,用于指示所述发送单元发送所述第四神经网络的信息和所述第三神经网络的信息。
  100. 如权利要求99所述的装置,其特征在于,所述第一信息和/或所述第一响应消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  101. 如权利要求80-100中任一项所述的装置,其特征在于,所述发送单元向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息之前,所述接收单元,用于接收来自所述第二设备的第二信息,所述第二信息用于指示所述第二设备能够接收所述第四神经网络的信息,或者,指示所述第二设备能够接收所述第四神经网络的信息和所述第三神经网络的信息;
    所述发送单元用于向第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述发送单元在所述接收单元接收到所述第二信息之后,向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息。
  102. 如权利要求101所述的装置,其特征在于,所述发送单元在所述接收单元接收到所述第二信息之后,向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述发送单元在所述接收单元接收到所述第二信息之后,在第一起始时刻之后的第一预设时长之内或第一预设时长之后开始向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息。
  103. 如权利要求101或102所述的装置,其特征在于,所述第二信息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  104. 如权利要求80-103中任一项所述的装置,其特征在于,所述发送单元向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述发送单元,在所述处理单元更新所述第一神经网络和所述第二神经网络分别得到第三神经网络和所述第四神经网络之后,向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息。
  105. 如权利要求104所述的装置,其特征在于,所述发送单元,在所述处理单元更新所述第一神经网络和所述第二神经网络分别得到第三神经网络和所述第四神经网络之后,向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述发送单元,在所述处理单元更新所述第一神经网络和所述第二神经网络分别得到第三神经网络和所述第四神经网络之后,在第二起始时刻之后的第二预设时长之内或第二预设时长之后开始向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息。
  106. 如权利要求80-105中任一项所述的装置,其特征在于,所述发送单元向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息之前,所述发送单元,还用于向所述第二设备发送第一信息,所述第一信息用于通知所述第二设备接收所述第四神经网络的信息,或者,用于通知所述第二设备接收所述第四神经网络的信息和所述第三神经网络的信息;
    所述发送单元向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述发送单元在向所述第二设备发送所述第一信息之后的第三预设时长之内或第三预设时长之后开始向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息。
  107. 如权利要求80-106中任一项所述的装置,其特征在于,在所述发送单元向所述第二设备发送所述第四神经网络的信息,或者,发送所述第四神经网络的信息和所述第三神经网络的信息之后,所述接收单元接收来自所述第二设备的第一通知消息,所述第一通知消息用于指示所述第二设备采用所述第四神经网络,或者采用所述第四神经网络和所述第三神经网络进行信息传输。
  108. 如权利要求107所述的装置,其特征在于,所述第一通知消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  109. 如权利要求99-108中任一项所述的装置,其特征在于,所述发送单元,还用于向第二设备发送第二通知消息,或者,
    所述接收单元接收来自所述第二设备的第二通知消息,
    其中,所述第二通知消息用于通知信息传输模式从第一模式转变为第二模式,所述第一模式包括基于神经网络进行信息传输,所述神经网络包括所述第一神经网络和所述第二神经网络,所述第二模式包括基于非神经网络进行信息传输。
  110. 如权利要求109所述的装置,其特征在于,所述神经网络还包括第七神经网络和第八神经网络。
  111. 如权利要求109或110所述的装置,其特征在于,所述处理单元,还用于将所述信息传输模式从所述第一模式切换至所述第二模式。
  112. 如权利要求111所述的装置,其特征在于,所述处理单元,还用于将所述信息传输模式从所述第一模式切换至所述第二模式包括:
    所述处理单元,还用于在第四起始时刻之后的第四预设时长之内或第四预设时长之后 开始将所述信息传输模式从所述第一模式切换至所述第二模式,其中,所述第四起始时刻包括所述发送单元向所述第二设备发送所述第二通知消息的时刻,或所述接收单元接收来自所述第二设备的所述第二通知消息的时刻。
  113. 如权利要求102-112中任一项所述的装置,其特征在于,所述第一起始时刻和所述第二起始时刻包括:
    所述接收单元接收来自所述第二设备的所述第一指示信息的时刻;或,
    所述发送单元向所述第二设备发送第二通知消息的时刻;或,
    所述接收单元接收来自所述第二设备的所述第二通知消息的时刻;或,
    所述发送单元向所述第二设备发送第一信令的时刻;或,
    所述接收单元接收来自所述第二设备的第二信令的时刻,其中,所述第一信令用于指示计时开始,所述第二信令用于指示更新开始;
    其中,第二通知消息用于通知信息传输模式从第一模式转变为第二模式。
  114. 如权利要求109-113中任一项所述的装置,其特征在于,所述第二通知消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  115. 如权利要求80-114中任一项所述的装置,其特征在于,所述接收单元接收来自所述第二设备的第二响应消息,所述第二响应消息用于指示拒绝接收所述第四神经网络的信息,或者,用于指示拒绝接收所述第四神经网络的信息和所述第三神经网络的信息。
  116. 如权利要求115所述的装置,其特征在于,所述第二响应消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  117. 如权利要求80-116中任一项所述的装置,其特征在于,所述装置包括终端设备或网络设备,所述第二设备包括所述终端设备或者所述网络设备,
    当所述装置为所述终端设备时,所述第二设备为所述网络设备,
    当所述装置为所述网络设备时,所述第二设备为所述终端设备。
  118. 如权利要求80-117中任一项所述的装置,其特征在于,所述接收单元接收来自所述第二设备的第五指示信息,所述第五指示信息用于指示所述发送单元发送所述装置的能力;
    所述发送单元向所述第二设备发送第一能力信息,所述第一能力信息包括以下信息中的至少一项:
    所述装置的计算能力信息、所述装置的存储能力信息或所述装置是否存储有第一AI模型的信息、所述装置支持的神经网络结构、所述装置支持的神经网络规模、所述装置支持的AI通信功能,其中,所述第一AI模型为任意一个AI模型;或者,
    所述装置还包括:
    所述发送单元向所述第二设备发送第六指示信息,所述第六指示信息用于指示所述第二设备发送所述第二设备的能力;
    所述接收单元接收来自所述第二设备的第二能力信息,所述第二能力信息包括以下信息中的至少一项:
    所述第二设备的计算能力信息、所述第二设备的存储能力信息或所述第二设备是否存 储有第二AI模型的信息、所述第二设备支持的神经网络结构、所述第二设备支持的神经网络规模、所述第二设备支持的AI通信功能,其中,所述第二AI模型为任意一个AI模型。
  119. 如权利要求81-118中任一项所述的装置,其特征在于,所述第一信号包括信道信息;
    所述第一神经网络包括第一压缩器、所述第二神经网络包括第一解压器、所述第三神经网络包括第二压缩器、所述第四神经网络包括第二解压器;或者,
    所述第一神经网络包括第一解压器、所述第二神经网络包括第一压缩器、所述第三神经网络包括第二解压器、所述第四神经网络包括第二压缩器。
  120. 如权利要求119所述的装置,其特征在于,所述信道信息中包括多根接收天线接收到的信道信息或多个层的信道信息。
  121. 一种用于调整神经网络的装置,涉及第一神经网络和第二神经网络,其中,第一神经网络应用于第一设备侧,第二神经网络应用于所述装置侧,其特征在于,所述装置包括:
    接收单元,用于接收来自所述第一设备的第四神经网络的信息,其中,所述第四神经网络为所述第二神经网络对应的神经网络;
    处理单元,用于基于所述第四神经网络的信息确定所述第四神经网络。
  122. 如权利要求121所述的装置,其特征在于,所述接收单元还用于接收来自所述第一设备的第三神经网络的信息,所述第三神经网络为所述第一神经网络对应的神经网络;
    其中,所述第一神经网络或所述第三神经网络用于所述第一设备进行第一信号处理,所述第二神经网络或所述第四神经网络用于所述处理单元进行第二信号处理,所述第二信号处理与所述第一信号处理相对应。
  123. 如权利要求122所述的装置,其特征在于,所述第一神经网络或所述第三神经网络用于所述第一设备进行第一信号处理包括:
    所述第一神经网络用于所述第一设备对第一信号进行处理得到第二信号;
    所述第三神经网络用于所述第一设备对第三信号进行处理得到第四信号;
    所述第二神经网络或所述第四神经网络用于所述处理单元进行第二信号处理包括:
    所述第二神经网络用于所述处理单元对所述第二信号进行处理得到第五信号;
    所述第四神经网络用于所述处理单元对所述第四信号进行处理得到第六信号;
    或者,
    所述第二神经网络或所述第四神经网络用于所述处理单元进行第二信号处理包括:
    所述第二神经网络用于所述处理单元对所述第一信号进行处理得到所述第二信号;
    所述第四神经网络用于所述处理单元对所述第三信号进行处理得到所述第四信号;
    所述第一神经网络或所述第三神经网络用于所述第一设备进行第一信号处理包括:
    所述第一神经网络用于所述第一设备对所述第二信号进行处理得到所述第五信号;
    所述第三神经网络用于所述第一设备对所述第四信号进行处理得到所述第六信号。
  124. 如权利要求123所述的装置,其特征在于,所述第三信号相关的第一训练信号与所述第六信号相关的第二训练信号之间的差异度满足第一条件;或者,
    所述第一训练信号与所述第二训练信号之间的相似度满足第二条件。
  125. 如权利要求124所述的装置,其特征在于,所述差异度包括以下任意一种:
    差值、均方差值、归一化均方差值或平均绝对误差;
    所述相似度包括相关性系数。
  126. 如权利要求123-125中任一项所述的装置,其特征在于,所述第一神经网络或所述第二神经网络用于对所述第一信号进行处理得到所述第二信号包括:
    所述第一神经网络或所述第二神经网络和第一功能模块用于对所述第一信号进行处理得到所述第二信号;
    和/或,
    所述第一神经网络或所述第二神经网络用于对所述第二信号进行处理得到所述第五信号包括:
    所述第一神经网络或所述第二神经网络和所述第二功能模块用于对所述第二信号进行处理得到所述第五信号。
  127. 如权利要求123-126中任一项所述的装置,其特征在于,所述第三神经网络或所述第四神经网络用于对所述第三信号进行处理得到所述第四信号包括:
    所述第三神经网络或所述第四神经网络和第三功能模块用于对所述第三信号进行处理得到所述第四信号;
    和/或,
    所述第三神经网络或所述第四神经网络用于对所述第四信号进行处理得到所述第六信号包括:
    所述第三神经网络或所述第四神经网络和第四功能模块用于对所述第四信号进行处理得到所述第六信号。
  128. 如权利要求121-123中任一项所述的装置,其特征在于,在所述接收单元接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息之前,所述处理单元,还用于判断所述第一神经网络和所述第二神经网络需要更新;
    所述装置还包括:
    发送单元,用于向所述第一设备发送第一指示信息,所述第一指示信息用于指示所述第一设备更新所述第一神经网络和所述第二神经网络;或者,
    所述发送单元,还用于向所述第一设备发送第二指示信息,所述第二指示信息用于指示所述第一设备判断所述第一神经网络和所述第二神经网络是否需要更新。
  129. 如权利要求128所述的装置,其特征在于,所述第一指示信息和/或所述第二指示信息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  130. 如权利要求128或129所述的装置,其特征在于,所述处理单元判断所述第一神经网络和所述第二神经网络需要更新包括:
    所述处理单元周期性地或非周期性地判断所述第一神经网络和所述第二神经网络是否需要更新;或者,
    所述接收单元接收来自第一设备的第七指示信息,所述第七指示信息用于指示所述处理单元判断所述第一神经网络和所述第二神经网络是否需要更新;或者,
    所述处理单元基于预设条件触发判断所述第一神经网络和所述第二神经网络是否需要更新。
  131. 如权利要求130所述的装置,其特征在于,所述第七指示信息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  132. 如权利要求128-131中任一项所述的装置,其特征在于,所述处理单元判断所述第一神经网络和所述第二神经网络是否需要更新包括:
    所述处理单元根据第一信息和第二信息之间的差异度或相似度是否满足第三条件判断所述第一神经网络和所述第二神经网络是否需要更新,其中,所述第一信息包括所述第一信号相关的第一判断信号,所述第二信息包括所述第五信号相关的第二判断信号。
  133. 如权利要求132所述的装置,其特征在于,所述处理单元基于所述第一判断信号、所述第一神经网络和所述第二神经网络确定所述第二判断信号;或者,
    所述处理单元基于所述第一判断信号、所述第一神经网络和所述第二神经网络以及所述第一功能模块和/或所述第二功能模块确定所述第二判断信号。
  134. 如权利要求132或133所述的装置,其特征在于,所述第一判断信号包括所述接收单元接收的下行信道信息,或者,
    所述第一判断信号包括基于所述接收单元接收的探测参考信号SRS测量得到的信道信息;
    其中,所述下行信道信息承载于预设的资源上或者所述下行信道信息被指示用于确定所述第一判断信号。
  135. 如权利要求122-134中任一项所述的装置,其特征在于,
    所述第三神经网络的信息包括以下信息的至少一种:
    所述第三神经网络的标识、第三神经网络对应的网络结构的信息和第三神经网络对应的网络权重的信息、所述第三神经网络对应的网络结构的标识和所述第三神经网络对应的网络权重的信息、所述第三神经网络对应的网络结构的标识和所述第三神经网络对应的网络权重的标识、所述第三神经网络对应的网络权重的信息、所述第三神经网络对应的网络权重和所述第一神经网络对应的网络权重之间的变化量、所述第三神经网络对应的网络权重的标识、第三指示信息,其中,第三指示信息用于指示所述第三神经网络对应的网络结构和所述第一神经网络对应的网络结构是否相同。
  136. 如权利要求121-135中任一项所述的装置,其特征在于,
    所述第四神经网络的信息包括以下信息的至少一种:
    所述第四神经网络的标识、第四神经网络对应的网络结构的信息和第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络结构的标识和所述第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络结构的标识和所述第四神经网络对应的网络权重的标识、所述第四神经网络对应的网络权重的信息、所述第四神经网络对应的网络权重和所述第二神经网络对应的网络权重之间的变化量、所述第四神经网络对应的网络权重的标识、第四指示信息,其中,第四指示信息用于指示所述第四神经网络对应的网络结 构和所述第二神经网络对应的网络结构是否相同。
  137. 如权利要求135或136所述的装置,其特征在于,所述第三神经网络对应的网络权重和所述第一神经网络对应的网络权重之间的变化量,和/或,所述第四神经网络对应的网络权重和所述第二神经网络对应的网络权重之间的变化量包括以下信息中的一个或多个:
    权重位置信息、权重解读规则指示信息、权重数值排列信息和权重数值变化量排列信息;
    所述第三神经网络对应的网络结构的信息和/或所述第四神经网络对应的网络结构的信息包括:
    神经网络类型的指示信息和神经网络结构的指示信息;
    所述第三神经网络对应的网络权重的信息和/或所述第四神经网络对应的网络权重的信息包括:
    权重解读规则指示信息和/或权重数值的排列信息。
  138. 如权利要求121-137中任一项所述的装置,其特征在于,在所述接收单元接收来自所述第一设备的第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息之前,所述接收单元还用于接收来自所述第一设备的第一信息,所述第一信息用于通知所述接收单元接收所述第四神经网络的信息,或者,用于通知所述接收单元接收所述第四神经网络的信息和所述第三神经网络的信息;
    所述发送单元向所述第一设备发送第一响应消息,所述第一响应消息用于指示所述第一设备发送所述第四神经网络的信息,或者,用于指示所述第一设备发送所述第四神经网络的信息和所述第三神经网络的信息。
  139. 如权利要求138所述的装置,其特征在于,所述第一信息和/或所述第一响应消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  140. 如权利要求121-139中任一项所述的装置,其特征在于,在所述接收单元接收来自所述第一设备的第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息之前,所述发送单元向所述第一设备发送第二信息,所述第二信息用于指示所述接收单元能够接收所述第四神经网络的信息,或者,接收所述第四神经网络的信息和所述第三神经网络的信息;
    所述接收单元接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述接收单元在所述发送单元发送所述第二信息之后,接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息。
  141. 如权利要求140所述的装置,其特征在于,所述接收单元在所述发送单元发送所述第二信息之后,接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述接收单元在所述发送单元发送所述第二信息之后,在第一起始时刻之后的第一预设时长之内或第一预设时长之后开始接收来自所述第一设备的所述第四神经网络的信息, 或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息。
  142. 如权利要求140或141所述的装置,其特征在于,所述第二信息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  143. 如权利要求121-141中任一项所述的装置,其特征在于,所述接收单元接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述接收单元在第二起始时刻之后的第二预设时长之内或第二预设时长之后开始接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息。
  144. 如权利要求121-143中任一项所述的装置,其特征在于,在所述接收单元接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息之前,所述接收单元接收来自所述第一设备的第一信息,所述第一信息用于通知所述接收单元接收所述第四神经网络的信息,或者,接收所述第四神经网络的信息和所述第三神经网络的信息;
    所述接收单元接收来自所述第一设备的所述第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息包括:
    所述接收单元接收来自所述第一设备的第一信息之后的第三预设时长之内或第三预设时长之后开始接收来自所述第一设备的第四神经网络的信息,或者,接收来自所述第一设备的所述第四神经网络的信息和所述第三神经网络的信息。
  145. 如权利要求121-144中任一项所述的装置,其特征在于,在所述接收单元接收来自所述第一设备的第四神经网络的信息,或者,接收所述第四神经网络的信息和所述第三神经网络的信息之后,所述发送单元向所述第一设备发送第一通知消息,所述第一通知消息用于指示所述处理单元采用所述第四神经网络,或者采用所述第四神经网络和所述第三神经网络进行信息传输。
  146. 如权利要求145所述的装置,其特征在于,所述第一通知消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  147. 如权利要求138-146中任一项所述的装置,其特征在于,所述发送单元向第一设备发送第二通知消息,或者,
    所述接收单元接收来自所述第一设备的第二通知消息,
    其中,所述第二通知消息用于通知信息传输模式从第一模式转变为第二模式,所述第一模式包括基于神经网络进行信息传输,所述神经网络包括所述第一神经网络和所述第二神经网络,所述第二模式包括基于非神经网络进行信息传输。
  148. 如权利要求147所述的装置,其特征在于,所述神经网络还包括第七神经网络和第八神经网络。
  149. 如权利要求147或148所述的装置,其特征在于,所述处理单元将所述信息传输模式从所述第一模式切换至所述第二模式。
  150. 如权利要求149所述的装置,其特征在于,所述处理单元将所述信息传输模式 从所述第一模式切换至所述第二模式包括:
    所述处理单元在第四起始时刻之后的第四预设时长之内或第四预设时长之后开始将所述信息传输模式从所述第一模式切换至所述第二模式,其中,所述第四起始时刻包括所述发送单元向所述第一设备发送所述第二通知消息的时刻,或所述接收单元接收来自所述第一设备的所述第二通知消息的时刻。
  151. 如权利要求141-150中任一项所述的装置,其特征在于,所述第一起始时刻和所述第二起始时刻包括:
    所述发送单元向所述第一设备发送所述第一指示信息的时刻;或,
    所述接收单元接收来自所述第一设备发送第二通知消息的时刻;或,
    所述发送单元向所述第一设备发送所述第二通知消息的时刻;或,
    所述接收单元接收来自所述第一设备的第一信令的时刻;或,
    所述发送单元向所述第一设备发送第二信令的时刻,其中,所述第一信令用于指示计时开始,所述第二信令用于指示更新开始;
    其中,第二通知消息用于通知信息传输模式从第一模式转变为第二模式。
  152. 如权利要求147-151中任一项所述的装置,其特征在于,所述第二通知消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  153. 如权利要求121-152中任一项所述的装置,其特征在于,所述发送单元向所述第一设备发送第二响应消息,所述第二响应消息用于指示拒绝接收所述第四神经网络的信息,或者,用于指示拒绝接收所述第四神经网络的信息和所述第三神经网络的信息。
  154. 如权利要求153所述的装置,其特征在于,所述第二响应消息承载于上行物理控制信道PUCCH、下行物理控制信道PDCCH、物理上行链路共享信道PUSCH、物理下行链路共享信道PDSCH、上行授权UL grant或随机接入信道RACH中。
  155. 如权利要求121-154中任一项所述的装置,其特征在于,所述第一设备包括终端设备或网络设备,所述装置包括所述终端设备或者所述网络设备,
    当所述第一设备为所述终端设备时,所述装置为所述网络设备,
    当所述第一设备为所述网络设备时,所述装置为所述终端设备。
  156. 如权利要求121-155中任一项所述的装置,其特征在于,所述发送单元向所述第一设备发送第五指示信息,所述第五指示信息用于指示所述第一设备发送所述第一设备的能力;
    所述接收单元接收来自所述第一设备的第一能力信息,所述第一能力信息包括以下信息中的至少一项:
    所述第一设备的计算能力信息、所述第一设备的存储能力信息或所述第一设备是否存储有第一AI模型的信息、所述第一设备支持的神经网络结构、所述第一设备支持的神经网络规模、所述第一设备支持的AI通信功能,其中,所述第一AI模型为任意一个AI模型;或者,
    所述装置还包括:
    所述接收单元接收来自所述第一设备的第六指示信息,所述第六指示信息用于指示所述发送单元发送所述装置的能力;
    所述发送单元向所述第一设备发送第二能力信息,所述第二能力信息包括以下信息中的至少一项:
    所述装置的计算能力信息、所述装置的存储能力信息或所述装置是否存储有第二AI模型的信息、所述装置支持的神经网络结构、所述装置支持的神经网络规模、所述装置支持的AI通信功能,其中,所述第二AI模型为任意一个AI模型。
  157. 如权利要求123-156中任一项所述的装置,其特征在于,所述第一信号包括信道信息;
    所述第一神经网络包括第一压缩器、所述第二神经网络包括第一解压器、所述第三神经网络包括第二压缩器、所述第四神经网络包括第二解压器;或者,
    所述第一神经网络包括第一解压器、所述第二神经网络包括第一压缩器、所述第三神经网络包括第二解压器、所述第四神经网络包括第二压缩器。
  158. 如权利要求157中任一项所述的装置,其特征在于,所述信道信息中包括多根接收天线接收到的信道信息或多个层的信道信息。
  159. 一种通信系统,包括如权利要求80-120中任一项所述的用于调整神经网络的装置和如权利要求121-158中任一项所述的用于调整神经网络的装置。
  160. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,当所述计算机程序被运行时,使得所述计算机实现如权利要求1至41中任一项所述的方法,或者,使得所述计算机实现如权利要求42至79中任一项所述的方法。
  161. 一种芯片装置,其特征在于,包括处理电路,所述处理电路用于从存储器中调用并运行程序,使得安装有该芯片装置的通信设备执行如权利要求1至41中任一项所述的方法,或者使得所述安装有该芯片装置的通信设备执行如权利要求42至79中任一项所述的方法。
PCT/CN2020/087875 2020-04-29 2020-04-29 用于调整神经网络的方法和装置 WO2021217519A1 (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20932853.3A EP4135226A4 (en) 2020-04-29 2020-04-29 METHOD AND APPARATUS FOR ADJUSTING NEURONAL NETWORK
CN202080100274.1A CN115485995A (zh) 2020-04-29 2020-04-29 用于调整神经网络的方法和装置
PCT/CN2020/087875 WO2021217519A1 (zh) 2020-04-29 2020-04-29 用于调整神经网络的方法和装置
US17/973,781 US20230118031A1 (en) 2020-04-29 2022-10-26 Neural network adjustment method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2020/087875 WO2021217519A1 (zh) 2020-04-29 2020-04-29 用于调整神经网络的方法和装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/973,781 Continuation US20230118031A1 (en) 2020-04-29 2022-10-26 Neural network adjustment method and apparatus

Publications (1)

Publication Number Publication Date
WO2021217519A1 true WO2021217519A1 (zh) 2021-11-04

Family

ID=78331631

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/087875 WO2021217519A1 (zh) 2020-04-29 2020-04-29 用于调整神经网络的方法和装置

Country Status (4)

Country Link
US (1) US20230118031A1 (zh)
EP (1) EP4135226A4 (zh)
CN (1) CN115485995A (zh)
WO (1) WO2021217519A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023083193A1 (zh) * 2021-11-10 2023-05-19 中国移动通信有限公司研究院 信道状态信息反馈的方法、装置、通信设备和存储介质
WO2023092307A1 (zh) * 2021-11-23 2023-06-01 Oppo广东移动通信有限公司 通信方法、模型训练方法和设备
WO2023159614A1 (zh) * 2022-02-28 2023-08-31 北京小米移动软件有限公司 一种预编码矩阵确定方法及设备/存储介质/装置
WO2023208474A1 (en) * 2022-04-29 2023-11-02 Telefonaktiebolaget Lm Ericsson (Publ) First wireless node, operator node and methods in a wireless communication network
WO2024021130A1 (zh) * 2022-07-29 2024-02-01 北京小米移动软件有限公司 一种信道估计方法及其装置
WO2024030410A1 (en) * 2022-08-01 2024-02-08 Interdigital Patent Holdings, Inc. Methods for online training for devices performing ai/ml based csi feedback
WO2024046288A1 (zh) * 2022-08-29 2024-03-07 华为技术有限公司 通信方法和装置
WO2024065650A1 (en) * 2022-09-30 2024-04-04 Apple Inc. Performance monitoring for artificial intelligence (ai) model-based channel state information (csi) feedback

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11843934B2 (en) * 2021-05-28 2023-12-12 Hand Held Products, Inc. Methods and systems for tracking of assets and user navigation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107994973A (zh) * 2017-12-04 2018-05-04 电子科技大学 一种自适应调制与编码方法
CN108390706A (zh) * 2018-01-30 2018-08-10 东南大学 一种基于深度学习的大规模mimo信道状态信息反馈方法
CN109672464A (zh) * 2018-12-13 2019-04-23 西安电子科技大学 基于fcfnn的大规模mimo信道状态信息反馈方法
CN110636020A (zh) * 2019-08-05 2019-12-31 北京大学 一种自适应通信系统神经网络均衡方法
US10572830B2 (en) * 2017-04-24 2020-02-25 Virginia Tech Intellectual Properties, Inc. Learning and deploying compression of radio signals

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2646575A1 (fr) * 1989-04-26 1990-11-02 Labo Electronique Physique Procede et structure pour la compression de donnees
CN110035472A (zh) * 2018-01-12 2019-07-19 华为技术有限公司 一种传输方法和网络设备
CN111049615B (zh) * 2018-10-15 2021-01-05 华为技术有限公司 处理信号的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10572830B2 (en) * 2017-04-24 2020-02-25 Virginia Tech Intellectual Properties, Inc. Learning and deploying compression of radio signals
CN107994973A (zh) * 2017-12-04 2018-05-04 电子科技大学 一种自适应调制与编码方法
CN108390706A (zh) * 2018-01-30 2018-08-10 东南大学 一种基于深度学习的大规模mimo信道状态信息反馈方法
CN109672464A (zh) * 2018-12-13 2019-04-23 西安电子科技大学 基于fcfnn的大规模mimo信道状态信息反馈方法
CN110636020A (zh) * 2019-08-05 2019-12-31 北京大学 一种自适应通信系统神经网络均衡方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4135226A4 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023083193A1 (zh) * 2021-11-10 2023-05-19 中国移动通信有限公司研究院 信道状态信息反馈的方法、装置、通信设备和存储介质
WO2023092307A1 (zh) * 2021-11-23 2023-06-01 Oppo广东移动通信有限公司 通信方法、模型训练方法和设备
WO2023159614A1 (zh) * 2022-02-28 2023-08-31 北京小米移动软件有限公司 一种预编码矩阵确定方法及设备/存储介质/装置
WO2023208474A1 (en) * 2022-04-29 2023-11-02 Telefonaktiebolaget Lm Ericsson (Publ) First wireless node, operator node and methods in a wireless communication network
WO2024021130A1 (zh) * 2022-07-29 2024-02-01 北京小米移动软件有限公司 一种信道估计方法及其装置
WO2024030410A1 (en) * 2022-08-01 2024-02-08 Interdigital Patent Holdings, Inc. Methods for online training for devices performing ai/ml based csi feedback
WO2024046288A1 (zh) * 2022-08-29 2024-03-07 华为技术有限公司 通信方法和装置
WO2024065650A1 (en) * 2022-09-30 2024-04-04 Apple Inc. Performance monitoring for artificial intelligence (ai) model-based channel state information (csi) feedback

Also Published As

Publication number Publication date
EP4135226A4 (en) 2023-05-03
EP4135226A1 (en) 2023-02-15
US20230118031A1 (en) 2023-04-20
CN115485995A (zh) 2022-12-16

Similar Documents

Publication Publication Date Title
WO2021217519A1 (zh) 用于调整神经网络的方法和装置
WO2021142605A1 (zh) 用于信道测量的方法和装置
CN117044125A (zh) 用于支持在fdd mimo系统中进行csi反馈的机器学习或人工智能技术的方法和装置
CN116097591A (zh) 用于信道状态信息的处理时间线考虑因素
WO2021063178A1 (zh) 信道测量方法和通信装置
US11617100B2 (en) Systems and methods for Wi-Fi sensing
US20230164004A1 (en) Channel parameter obtaining method and apparatus
WO2021083157A1 (zh) 一种预编码矩阵的处理方法和通信装置
WO2021237715A1 (zh) 一种信道状态信息处理方法、电子设备及存储介质
WO2021203373A1 (zh) 一种信道测量方法和通信装置
WO2022012256A1 (zh) 通信的方法及通信装置
EP4163827A1 (en) Method and device for acquiring neural network
CN114492784A (zh) 神经网络的测试方法和装置
US20240162957A1 (en) Method and device for reporting csi based on ai model in wireless communication system
WO2024008004A1 (zh) 一种通信方法及装置
WO2022151064A1 (zh) 信息发送方法、信息接收方法、装置、设备及介质
WO2021207895A1 (zh) 一种用于传输上行信号的方法和通信装置
WO2024001744A1 (zh) 一种信道状态信息的上报方法及通信装置
WO2024046215A1 (zh) 一种通信方法及装置
WO2023231933A1 (zh) 一种通信方法及装置
WO2023102706A1 (zh) 信息指示方法、信息处理方法和设备
WO2024093638A1 (zh) 一种信息处理的方法和装置
WO2023208082A1 (zh) 一种通信方法、装置、芯片及模组设备
US20240098533A1 (en) Ai/ml model monitoring operations for nr air interface
WO2024032089A1 (en) Low complexity machine learning-based channel state information compression

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20932853

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020932853

Country of ref document: EP

Effective date: 20221107

NENP Non-entry into the national phase

Ref country code: DE