WO2023178706A1 - 一种通信方法、通信装置及通信设备 - Google Patents

一种通信方法、通信装置及通信设备 Download PDF

Info

Publication number
WO2023178706A1
WO2023178706A1 PCT/CN2022/083205 CN2022083205W WO2023178706A1 WO 2023178706 A1 WO2023178706 A1 WO 2023178706A1 CN 2022083205 W CN2022083205 W CN 2022083205W WO 2023178706 A1 WO2023178706 A1 WO 2023178706A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
network device
processing
pdsch
terminal device
Prior art date
Application number
PCT/CN2022/083205
Other languages
English (en)
French (fr)
Inventor
乔雪梅
牟勤
程文韬
Original Assignee
北京小米移动软件有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京小米移动软件有限公司 filed Critical 北京小米移动软件有限公司
Priority to CN202280000752.0A priority Critical patent/CN117136520A/zh
Priority to PCT/CN2022/083205 priority patent/WO2023178706A1/zh
Publication of WO2023178706A1 publication Critical patent/WO2023178706A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W74/00Wireless channel access
    • H04W74/02Hybrid access

Definitions

  • the present disclosure relates to the field of wireless communication technology, and in particular, to a communication method, communication device and communication equipment.
  • the terminal device In the fifth generation (5G) mobile communication system, the terminal device cannot immediately feedback the hybrid automatic repeat request (HARQ) after receiving the physical downlink shared channel (PDSCH) from the network device. ) response signal, it takes a certain amount of time to process the data transmitted by the PDSCH and a certain amount of time to prepare the physical uplink control channel (PUCCH).
  • HARQ hybrid automatic repeat request
  • PDSCH processing duration T proc The value of T proc is related to the subcarrier spacing of the time slot, the configuration type of (demodulatin reference signal, DMRS) used in PDSCH, the signal processing capability of the UE itself, etc.
  • the present disclosure provides a communication method, communication device and communication equipment to meet the needs of new communication scenarios after the introduction of AI-based channel estimation.
  • a communication method which method can be applied to network devices in a communication system.
  • the method may include: the network device determines the processing time of the first AI model, and the first AI model is a neural network model used by the terminal device for channel estimation; the network device determines, based on at least the processing time of the first AI model, the first AI model corresponding The first PDSCH processing duration.
  • the network device determines the processing time of the first AI model, including: the network device determines the processing time of the first AI model based on the AI capability information of the terminal device, the complexity information and/or category information of the AI model. duration.
  • the network device determines the first PDSCH processing duration corresponding to the first AI model based on at least the processing duration of the first AI model, including: the network device based on the processing duration of the first AI model, subcarrier spacing, The DMRS configuration category information and the first PDSCH processing capability information of the terminal device determine the first PDSCH processing duration.
  • the above method also includes: the network device receives AI capability information from the terminal device, where the AI capability information is used to represent the terminal device's processing capability of the AI model; the network device determines the first AI based on the AI capability information. Model.
  • the AI capability information includes at least one of the following parameters: the single processing duration of the AI model relative to the baseline model, the number of internal operations of the AI model per unit time, and the single processing duration of the AI model.
  • the above method further includes: the network device determines that the first PDSCH processing duration meets the second AI model of the transmission delay; and the network device instructs the terminal device to enable AI-based channel estimation.
  • the above method further includes: the network device indicates the second AI model to the terminal device.
  • the above method further includes: the network device schedules transmission according to the first PDSCH processing duration corresponding to the second AI model. resource.
  • the above method further includes: the network device determines that the first PDSCH processing duration does not meet the transmission delay; and the network device indicates to the terminal device not to enable AI-based channel estimation.
  • the above method before the network device determines the processing duration of the first AI model, the above method further includes: the network device determines the corresponding first AI model according to the configuration category information of the DMRS; or, the network device determines the corresponding first AI model according to the terminal The granularity of the channel estimation configured by the device determines the corresponding first AI model.
  • the above method before the network device determines the processing duration of the first AI model, the above method further includes: the network device receives the first AI model sent by the terminal device, where the first AI model is the configuration category of the terminal device according to DMRS The information is certain.
  • DMRS configuration category information is used to indicate whether the terminal device uses additional DMRS symbols when performing AI-based channel estimation.
  • the method can be applied to network equipment in a communication system.
  • the method may include: the network device receives second PDSCH processing capability information from the terminal device, and the second PDSCH processing capability information is based on the complexity information of the AI model and/or the category information of the AI model, the AI capability information of the terminal device, and the terminal device.
  • the third PDSCH processing capability information of the device is determined.
  • the third PDSCH processing capability information is used to indicate the terminal device's processing capability for PDSCH when channel estimation is not based on AI; the network device determines the corresponding PDSCH processing capability information at least based on the second PDSCH processing capability information.
  • the second PDSCH processing time is used to indicate the terminal device's processing capability for PDSCH when channel estimation is not based on AI.
  • the network device determines the corresponding second PDSCH processing duration based on at least the second PDSCH processing capability information, including: the network device determines the corresponding second PDSCH processing duration based on the second PDSCH processing capability information, subcarrier spacing, and DMRS configuration category information, Determine the second PDSCH processing duration.
  • the above method further includes: the network device determines that the second PDSCH processing duration meets the third AI model of transmission delay; and the network device instructs the terminal device to enable AI-based channel estimation.
  • the above method further includes: the network device indicates the third AI model to the terminal device.
  • the above method further includes: the network device schedules transmission according to the second PDSCH processing duration corresponding to the third AI model. resource.
  • the above method further includes: the network device determines that the second PDSCH processing duration does not meet the transmission delay; and the network device indicates to the terminal device not to enable AI-based channel estimation.
  • the method can be applied to a terminal device in a communication system.
  • the method may include: the terminal device receives the first PDSCH processing duration sent by the network device; wherein the first PDSCH processing duration is determined by the network device according to the processing duration of the first AI model, and the first AI model is used for channel estimation by the terminal device. Neural network model; the terminal device sends uplink control information to the network device according to the first PDSCH processing duration.
  • the above method before the terminal device receives the first PDSCH processing duration sent by the network device, the above method further includes: the terminal device sends its own AI capability information to the network device, and the AI capability information is used to represent the terminal device's support for AI.
  • the model's processing capability and AI capability information are used by the network device to determine the first AI model.
  • the AI capability information includes at least one of the following parameters: the single processing time of the AI model relative to the baseline model, the number of operations of the AI model per unit time, and the single processing time of the AI model.
  • the above method further includes: the terminal device determines a first AI model according to instructions from the network device; and the terminal device uses the first AI model to perform channel estimation.
  • the above method further includes: the terminal device receives an instruction from the network device to enable AI-based channel estimation; and the terminal device performs channel estimation according to the instruction from the network device.
  • the above method further includes: the terminal device determines the corresponding first AI model according to the configuration category information of the DMRS; and the terminal device sends the first AI model to the network device.
  • DMRS configuration category information is used to indicate whether the terminal device uses additional DMRS symbols when performing AI-based channel estimation.
  • the above method further includes: the terminal device determines the corresponding first AI model according to the granularity of channel estimation configured by the network device; and the terminal device sends the first AI model to the network device.
  • a communication device may be a network device in a communication system or a chip or system-on-chip in the network device. It may also be a network device used to implement the methods of the above embodiments. functional module.
  • the communication device can realize the functions performed by the network equipment in the above embodiments, and these functions can be realized by hardware executing corresponding software. These hardware or software include one or more modules corresponding to the above functions.
  • the communication device includes: a first processing module, configured to determine a processing duration of a first AI model, where the first AI model is a neural network model used by the terminal device for channel estimation; and at least based on the processing duration of the first AI model, determine the processing duration of the first AI model.
  • the first PDSCH processing time corresponding to an AI model.
  • the first processing module is configured to determine the first PDSCH processing duration based on the processing duration of the first AI model, subcarrier spacing, DMRS configuration category information, and first PDSCH processing capability information of the terminal device. .
  • the above device further includes: a first transmission module; a first transmission module used to receive AI capability information from the terminal device, where the AI capability information is used to represent the terminal device's processing capability of the AI model; A processing module used to determine the first AI model based on the AI capability information.
  • the AI capability information includes at least one of the following parameters: the single processing duration of the AI model relative to the baseline model, the number of internal operations of the AI model per unit time, and the single processing duration of the AI model.
  • the above device further includes: a first transmission module; a first processing module, used to determine that the first PDSCH processing duration satisfies the second AI model of the transmission delay; a first transmission module, used to provide the terminal with Device indicates to enable AI-based channel estimation.
  • the above device further includes: a first transmission module; a first processing module, used to determine that the first PDSCH processing duration does not meet the transmission delay; a first transmission module, used to indicate to the terminal device not to enable AI-based channel estimation.
  • the above device further includes: a first transmission module, configured to receive the first AI model sent by the terminal device before the first processing module determines the processing duration of the first AI model, where the first AI model is The terminal device is determined based on the configuration category information of DMRS.
  • Wireless communication between communication devices may include: wireless communication between network devices and terminal devices, wireless communication between network devices and network devices, and wireless communication between terminal devices.
  • wireless communication may also be referred to as “communication”
  • communication may also be described as “data transmission”, “information transmission” or “transmission”.
  • the subcarrier spacing of the time slot in which the PDSCH is located and the configuration type of the demodulation reference signals (DMRS) can affect the PDSCH processing time T proc of the network device scheduling the UE, both of which are related to the processing capability of the UE. Together they form the performance index that determines T proc .
  • Important factors that affect T proc can be: low density parity check code (LDPC) decoding, channel estimation, demodulation, etc. time.
  • LDPC low density parity check code
  • LMMSE linear minimum mean squared error
  • the network device can determine the processing time of the downlink channel according to the processing time of the AI model to meet the needs of new communication scenarios after the introduction of the AI model.
  • the network device determines the processing parameters of the first AI model.
  • the first AI model may be one or more AI models specified in the communication protocol that can be used for channel estimation, or it may be one or more AI models supported by the UE network device reported by itself, or it may be The network device configures one or more AI models for the UE based on the UE's AI capability information.
  • the first AI model may also exist in other situations, which are not specifically limited in the embodiments of this disclosure.
  • S201 may include: the network device may determine the processing duration of the first AI model based on at least one of the following parameters: AI capability information of the UE, complexity information of the AI model, and category information of the AI model.
  • the network device traverses the first AI model and determines based on known parameters (the parameters here may include at least one of the following: UE's AI capability information, AI model complexity information, and AI model category information).
  • the processing time of the first AI model may include at least one of the following: UE's AI capability information, AI model complexity information, and AI model category information.
  • the network device can determine one or more first AI models based on the UE's AI capability information, complexity information and/or category information of each AI model, and then the network device determines the first AI model. processing time.
  • S202 may include: the network device determines the first PDSCH processing based on the processing duration of the first AI model, subcarrier spacing, configuration category information of the demodulation reference signal (DMRS), and the first PDSCH processing capability information of the UE. duration.
  • DMRS demodulation reference signal
  • T proc,1 (N 1 +d 1,1 +d 2 +d 3 )(a+b) ⁇ 2 - ⁇ ⁇ T C +T ext (2)
  • T proc,1 (N 1 +d 1,1 +d 2 )(a+b) ⁇ 2 - ⁇ ⁇ T C +T ext +d 3 (3)
  • the parameter d 3 is added based on the formula (1) satisfied by the PDSCH processing duration defined in the 38.214 (v16.3.0) communication protocol.
  • the network device may schedule transmission resources according to the first PDSCH processing duration.
  • the above transmission resources are used to transmit uplink channels.
  • the uplink channel may include any uplink channel specified by the communication protocol and its evolved version. For example, PUCCH, PUSCH, physical random access channel (physical random access channel, PRACH), physical sidelink feedback channel (physical sidelink feedback channel, PSFCH), etc.
  • the first PDSCH processing duration of the UE is determined based on the processing duration of the first AI model, which helps to set the first PDSCH processing duration more accurately and flexibly to meet the needs of new communications after the introduction of AI-based channel estimation. Scenario needs.
  • the AI capability information reported by the UE to the network device may represent the UE's processing capability for a single AI model, or may also represent the UE's processing capability for multiple AI models.
  • the UE's performance parameters reported by the UE to the network device can represent the UE's general processing capabilities, such as UE capability (UE capability).
  • the network device can receive the AI capability information sent by the UE through high-level signaling.
  • the above-mentioned high-level signaling can be signaling carried by radio resource control (RRC) signaling, medium access control (medium access control, MAC) control element (control element, CE), PUSCH, PUCCH, etc.
  • the UE when sending AI capability information to the network device, may also send first PDSCH processing capability information to inform the network device of the UE's PDSCH processing capability.
  • the first PDSCH processing capability information may represent the UE's processing capability for the PDSCH when there is no AI-based channel estimation, that is, the UE processing capability (UE processing capability) specified in 3GPP TS 38.214 (v16.3.0).
  • the network device determines the processing time of the first AI model.
  • the network device determines the first PDSCH processing duration corresponding to the first AI model based on at least the processing duration of the first AI model.
  • the "first AI model” may be one AI model or two or more different AI models, which is not limited in the embodiments of the present disclosure.
  • the network device may also deliver the first PDSCH processing duration to the UE. Then, the UE can also determine the time-frequency location of the above-mentioned transmission resource according to the first PDSCH processing duration, and then transmit the PUCCH on the transmission resource with the network device.
  • the downlink channel is PDSCH as an example; since different AI models correspond to different first PDSCH processing durations, these first PDSCH processing durations may not meet the transmission delay requirements. Then, see Figure As shown by the dotted line in 3, after S304, the above method may also include:
  • S305 The network device determines that the first PDSCH processing duration meets the second AI model of the transmission delay.
  • the network device schedules transmission resources according to the first PDSCH processing duration.
  • the transmission resources can be used to transmit uplink channels, such as PUCCH.
  • the UE can at least send HARQ response information (such as ACK/NACK) to the network device on the PUCCH.
  • the network device may also deliver the first PDSCH processing duration corresponding to the second AI model to the UE. Then, the UE can also determine the time-frequency position of the above-mentioned transmission resource based on the first PDSCH processing duration and the K 1 value carried by the PDCCH that schedules the PDSCH (such as downlink control information (DCI)), and then communicate with the network equipment. PUCCH is transmitted on this transmission resource.
  • K 1 may refer to the provisions of the communication protocol, and this is not specifically limited in the embodiment of the present disclosure.
  • the above method may further include:
  • the network device determines that the first PDSCH processing time corresponding to the first AI model does not meet the transmission delay.
  • the network device indicates to the UE not to enable AI-based channel estimation.
  • the network device After the network device calculates the first PDSCH processing duration corresponding to each first AI model, it needs to select the first PDSCH processing duration that meets the transmission delay requirement and transfer the corresponding first AI model (i.e., the second AI model) is used as the AI model used by the UE for channel estimation.
  • the network device finds that there is no first PDSCH processing duration that meets the transmission delay requirement, that is, there is no second AI model, it means that the network device has not found a suitable AI model. Then, the network device can indicate to the UE not to enable it.
  • AI-based channel estimation For example, the network device may indicate to the UE not to enable AI-based channel estimation through high-layer signaling. Alternatively, the network device may also indicate to the UE not to enable AI-based channel estimation by not indicating the AI model to the UE.
  • the network device may also indicate the second AI model to the UE.
  • the network device sends the second AI model to the UE; or, the network device sends identification information (such as a model index) of the second AI model to the UE, so that the UE can determine from multiple AI models specified in the communication protocol based on the identification information. to generate the second AI model; furthermore, the network device can also send relevant parameters of the second AI model to the UE, so that the UE can construct the second AI model on its own based on the relevant parameters.
  • the network device may also use other methods to indicate the second AI model to the UE, which is not specifically limited in the embodiments of the present disclosure.
  • the UE may use the second AI model to perform channel estimation.
  • the accuracy and flexibility of setting the first PDSCH processing duration are further improved. , to meet the needs of new communication scenarios after the introduction of AI-based channel estimation.
  • FIG. 4 is a schematic flowchart of the third implementation of the network device side communication method in the embodiment of the present disclosure. See Figure 4. The method includes:
  • the network device determines the corresponding first AI model according to the configuration category information of the DMRS.
  • 3GPP TS 38.214 stipulates whether additional use of DMRS symbols affects the length of PDSCH processing time.
  • the configuration category of DMRS may change (for example, the required DMRS resources are reduced).
  • the AI models corresponding to different DMRS configuration categories are different.
  • different DMRS configurations such as single-symbol configuration or dual-symbol configuration
  • the dimensions of DMRS obtained from the same number of physical resource blocks (PRBs) are different.
  • Figure 5 is a schematic diagram of a DMRS configuration category in an embodiment of the present disclosure. See Figure 5 , where (a) is a single symbol configuration and (b) is a dual symbol configuration.
  • DMRS of different dimensions represent input data of different dimensions and need to be processed by different AI models.
  • the processing delays of different AI models will be different, thus affecting the calculation of PDSCH processing delays.
  • the network device can determine the corresponding first AI model according to the configuration category information of DMRS configured for the UE.
  • the DMRS configuration category information is used to indicate whether the UE uses additional DMRS symbols when performing AI-based channel estimation, that is, using a single symbol configuration or a dual symbol configuration.
  • the single-symbol configuration may indicate that no additional DMRS symbols are used
  • the dual-symbol configuration may indicate that additional DMRS symbols are used.
  • the above method may also include: the UE determines the first AI model based on the configuration category information of DMRS, and sends the first AI model to the network device, and then the network device determines the first AI model based on the first AI model sent by the UE. Execute S402 to S403.
  • the network device determines the processing time of the first AI model.
  • the first AI model is determined according to the configuration category of DMRS, and the processing duration of the first AI model is added to the first PDSCH processing duration.
  • the DMRS resource mapping method when using AI channel estimation is taken into consideration. impact and meet the needs of new communication scenarios after the introduction of AI-based channel estimation.
  • FIG. 6 is a schematic flowchart of the fourth implementation of the network device side communication method in the embodiment of the present disclosure. See Figure 6. The method includes:
  • the network device determines the corresponding first AI model according to the granularity of channel estimation configured for the UE.
  • the granularity of the channel estimation (that is, the number of PRBs estimated at a time) will affect the processing speed (that is, the processing time of the AI model), which will in turn affect the determination of the PDSCH processing time.
  • the UE can use the AI model to estimate the channels on all PRBs within the transmission bandwidth at once, or it can use the AI model to estimate the channels on PRBs with a certain granularity and repeat it multiple times. Since the dimensions of the input data must be given when training the AI model, the AI models corresponding to different channel estimation granularities are also different.
  • the network device can determine the corresponding first AI model according to the granularity of channel estimation configured for the UE.
  • the network device determines the processing time of the first AI model.
  • the network device determines the first PDSCH processing duration corresponding to the first AI model based on at least the processing duration of the first AI model.
  • the network device receives the second PDSCH processing capability information from the UE.
  • the second PDSCH processing capability information is determined by the UE based on the complexity information of the AI model and/or the category information of the AI model, the AI capability information of the UE, and the third PDSCH processing capability information of the UE.
  • the third PDSCH processing capability information refers to the PDSCH processing capability information when the UE does not perform channel estimation based on AI, and is used to indicate the UE's processing capability of the PDSCH when it does not perform channel estimation based on AI.
  • the second PDSCH processing capability refers to the UE's processing capability of the PDSCH when AI-based channel estimation is used, and can be considered to be obtained by updating the third PDSCH processing capability for the condition of AI-based channel estimation.
  • the second PDSCH processing capability can be divided into multiple types such as capability 1, capability 2, capability 3, capability 4, etc.
  • the processing time of different AI models can be different.
  • the UE when reporting the second PDSCH processing capability, determines which type of capability is satisfied and reports the PDSCH processing capability information corresponding to which type to the network device.
  • the UE reports the third PDSCH processing capability to the network device, that is, when the UE does not perform channel estimation based on AI, it performs channel estimation on the PDSCH. processing power.
  • the network device determines the corresponding second PDSCH processing duration based on at least the second PDSCH processing capability information.
  • the network device may calculate one or more second PDSCH processing durations based on the second PDSCH processing capability information.
  • S702 may include: the network device determines the second PDSCH processing duration based on the subcarrier spacing, DMRS configuration category information, and the UE's second PDSCH processing capability information.
  • T proc,1 (N′ 1 +d 1,1 +d 2 )(a+b) ⁇ 2 - ⁇ ⁇ T C +T ext (4)
  • N′ 1 is a value related to the subcarrier spacing and the second PDSCH processing capability information.
  • the explanations and examples of d 1,1 , d 2 , a, b, ⁇ , ⁇ , T C and T ext in the above formula (4) can be referred to 3GPP TS 38.214 (v16.3.0)
  • the formula (4) satisfied by the PDSCH processing duration provided by the embodiment of the present disclosure is the basis of the formula (1) satisfied by the PDSCH processing duration defined in the 3GPP TS 38.214 (v16.3.0) communication protocol.
  • the value of N 1 is updated above, that is, N′ 1 .
  • the UE when the UE reports the processing capability of the second PDSCH to the network device, the UE may directly report the second PDSCH processing capability information, or may report the third PDSCH processing capability information and the corresponding capability increment.
  • the second PDSCH processing capability information For example, in the above formula (4), the UE may directly report N′ 1 or may report N 1 + ⁇ n (where ⁇ n is the capability increment).
  • the UE may also report the processing capability of the second PDSCH in other forms, which is not specifically limited in this embodiment of the disclosure.
  • the above method may further include: the network device determines that the second PDSCH processing duration meets the third AI model of transmission delay; and the network device instructs the UE to enable AI-based channel estimation.
  • the network device may instruct the UE to enable AI-based channel estimation.
  • the network device may instruct the UE to enable AI-based channel estimation through high-layer signaling.
  • the network device may also instruct the UE to enable AI-based channel estimation by indicating the third AI model to the UE.
  • the above method may further include: the network device determines that the second PDSCH processing duration does not meet the transmission delay; and the network device indicates to the UE not to enable AI-based channel estimation.
  • the network device determines that there is no second PDSCH processing duration that meets the transmission delay requirement, that is, determines one or more second PDSCH processing durations.
  • the PDSCH processing time does not meet the transmission delay.
  • the network device has not found a suitable AI model and can indicate to the UE not to enable AI-based channel estimation.
  • the network device may indicate to the UE not to enable AI-based channel estimation through high-layer signaling.
  • the network device may also indicate to the UE not to enable AI-based channel estimation by not indicating the AI model to the UE.
  • the network device may also indicate the third AI model to the UE.
  • the network device sends the third AI model to the UE; or the network device sends the identification information of the third AI model to the UE, so that the UE can determine the third AI model from multiple AI models specified in the communication protocol based on the identification information.
  • the network device can also send relevant parameters of the third AI model to the UE, so that the UE can construct the third AI model on its own based on the relevant parameters.
  • the network device can also use other methods to indicate the third AI model to the UE, which is not specifically limited in the embodiments of the present disclosure.
  • the UE can use the third AI model to perform channel estimation.
  • the network device may schedule transmission resources according to the second PDSCH processing duration corresponding to the third AI model.
  • the transmission resources can be used to transmit uplink channels, such as PUCCH.
  • the UE can at least send HARQ response information (such as ACK/NACK) to the network device on the PUCCH.
  • the determination of the processing duration of the PDSCH is taken as an example for explanation.
  • this communication method can also be applied to any downlink channel specified in the communication protocol and its evolved version, such as the processing time to obtain the PDCCH, the processing time to obtain the PBCH, etc.
  • the specific determination method please refer to the specific description in the above embodiment, and will not be described again here.
  • the network device determines the corresponding UE according to the parameters of the UE (for example, at least one of the following: UE processing capability, UE AI capability information, AI model complexity information, AI model category information)
  • the first PDSCH processing duration further improves the accuracy and flexibility of setting the first PDSCH processing duration and meets the needs of new communication scenarios after the introduction of AI-based channel estimation.
  • embodiments of the present disclosure also provide a communication method, which can be applied to UEs in the above communication system.
  • the above communication method is explained using PDSCH as an example of a downlink channel, but the downlink channel is not limited to PDSCH, and can also be any downlink channel specified in the communication protocol and its evolved version, such as PDCCH, PBCH, PSBCH, PSDCH, PSSCH, PSCCH, etc.
  • the communication methods for different downlink channels please refer to the specific descriptions in the above embodiments and will not be described again here.
  • FIG 8 is a schematic flowchart of a first implementation of a UE-side communication method in an embodiment of the present disclosure. Referring to Figure 8, the above method may include:
  • the UE receives the first PDSCH processing duration sent by the network device.
  • the first PDSCH processing duration is determined by the network device based on the processing duration of the first AI model, and the first AI model is a neural network model used by the UE for channel estimation;
  • S802 The UE sends uplink control information to the network device according to the first PDSCH processing duration.
  • the network device can send the first PDSCH processing duration to the UE, and the UE can determine the transmission configured by the network device for the UE based on the first PDSCH processing duration. resources, and sends uplink information, such as HARQ response information, to the network device on the transmission resources.
  • the UE can transmit uplink channels, such as PUCCH, on the above transmission resources.
  • uplink channels such as PUCCH
  • the above method may also include: the UE sends its own AI capability information to the network device.
  • the AI capability information is used to represent the UE's processing capability of the AI model, and the AI capability information is used by the network device. Determine the first AI model.
  • the AI capability information may include at least one of the following parameters: the single processing duration of the AI model relative to the baseline model, the number of operations of the AI model per unit time, and the single processing duration of the AI model.
  • the above method may further include: the UE determines the first AI model according to the instruction of the network device; and the UE uses the first AI model to perform channel estimation.
  • the method further includes: the UE receiving an instruction from the network device to enable AI-based channel estimation; and the UE performs channel estimation according to the instruction of the network device.
  • the network device instructs the UE to enable AI channel estimation by delivering an AI model.
  • the UE can use the AI model delivered by the network device to perform channel estimation.
  • Figure 9 is a schematic flowchart of the second implementation of the UE-side communication method in the embodiment of the present disclosure.
  • the above Methods in response to the network device configuring different DMRS resource mapping methods for the UE, the above Methods also include:
  • S901 The UE determines the corresponding first AI model according to the configuration category information of DMRS.
  • S902 The UE sends the first AI model to the network device.
  • the network device can execute S201 to S202 after S902. It should be understood that after receiving the first AI model reported by the UE, the network device can calculate the corresponding PDSCH processing time according to the processing time of the first AI model, and then determine whether to enable AI-based channel estimation, etc.
  • DMRS configuration category information is used to indicate whether the UE uses additional DMRS symbols when performing AI-based channel estimation.
  • the implementation process of S901 to S902 on the UE side can refer to the description of the execution process on the network device side in the embodiment of Figure 4, and will not be described again.
  • Figure 10 discloses a schematic flowchart of the third implementation of the UE-side communication method in the embodiment.
  • the above method in response to the network device configuring different channel estimation granularities for the UE, the above method also include:
  • the UE determines the corresponding first AI model according to the granularity of channel estimation configured by the network device;
  • the UE sends the first AI model to the network device.
  • the network device can execute S201 to S202 after S1002. It should be understood that after receiving the first AI model reported by the UE, the network device can calculate the corresponding PDSCH processing time according to the processing time of the first AI model, and then determine whether to enable AI-based channel estimation, etc.
  • the above method further includes: the UE determines the second PDSCH processing capability information according to at least one of the following parameters: complexity information of the AI model, category information of the AI model, UE's AI capability information and the UE's third PDSCH processing capability information; the UE sends the second PDSCH processing capability information to the network device, and the second PDSCH processing capability information is used to instruct the network device to determine the first PDSCH processing duration.
  • the impact of the AI model, the DMRS resource mapping method when using AI channel estimation, or the granularity of AI-based channel estimation on determining the processing time of the downlink channel is taken into account to improve the setting of downlink
  • the accuracy and flexibility of the channel processing duration (such as the first PDSCH processing duration) meet the needs of new communication scenarios after the introduction of AI-based channel estimation.
  • FIG. 11 is a schematic structural diagram of a first communication device in an embodiment of the present disclosure.
  • the communication device 110 includes: a first processing module 111 for determining the processing time of the first AI model.
  • the model is a neural network model used by the terminal device for channel estimation; at least according to the processing time of the first AI model, the first PDSCH processing time corresponding to the first AI model is determined.
  • the first processing module 111 is configured to determine the processing time of the first AI model based on the AI capability information of the terminal device, the complexity information and/or category information of the AI model.
  • the first processing module 111 is configured to determine the first PDSCH processing according to the processing duration of the first AI model, subcarrier spacing, DMRS configuration category information, and first PDSCH processing capability information of the terminal device. duration.
  • the above-mentioned communication device 110 also includes: a first transmission module 112 for receiving AI capability information from the terminal device, where the AI capability information is used to represent the terminal device's response to the AI model. processing capability; the first processing module 111 is used to determine the first AI model based on the AI capability information.
  • the AI capability information includes at least one of the following parameters: the single processing duration of the AI model relative to the baseline model, the number of internal operations of the AI model per unit time, and the single processing duration of the AI model.
  • the above-mentioned communication device 110 further includes: a first transmission module 112; a first processing module 111, used to determine that the first PDSCH processing duration meets the second AI model of the transmission delay; the first transmission module 112 , used to indicate to the terminal device to enable AI-based channel estimation.
  • the first transmission module 112 is also configured to indicate the second AI model to the terminal device after the first processing module 111 determines that the first PDSCH processing duration meets the second AI model of the transmission delay.
  • the first transmission module 112 is also configured to, after the first processing module 111 determines that the first PDSCH processing duration satisfies the second AI model of the transmission delay, the first PDSCH corresponding to the second AI model. Processing time, scheduling transmission resources.
  • the above-mentioned communication device 110 further includes: a first transmission module 112; a first processing module 111, used to determine that the first PDSCH processing duration does not meet the transmission delay; a first transmission module 112, used to The terminal device indicates that AI-based channel estimation is not enabled.
  • the first processing module 111 is configured to determine the corresponding first AI model according to the configuration category information of the DMRS before determining the processing duration of the first AI model; or, according to the configuration type configured for the terminal device, The granularity of channel estimation determines the corresponding first AI model.
  • the above-mentioned communication device 110 further includes: a first transmission module 112, configured to receive the first AI model sent by the terminal device before the first processing module 111 determines the processing duration of the first AI model.
  • An AI model is determined by the terminal device based on the configuration category information of DMRS.
  • DMRS configuration category information is used to indicate whether the terminal device uses additional DMRS symbols when performing AI-based channel estimation.
  • the first transmission module 112 mentioned in the embodiment of this disclosure may be a transceiver interface, a transceiver circuit, a transceiver, etc.; the first processing module 111 may be one or more processors.
  • embodiments of the present disclosure also provide a communication device.
  • the communication device can be a network device in a communication system or a chip or system on a chip in a network device. It can also be used in a network device to implement the above implementations.
  • the communication device can realize the functions performed by the network equipment in the above embodiments, and these functions can be realized by hardware executing corresponding software. These hardware or software include one or more modules corresponding to the above functions.
  • Figure 12 is a schematic structural diagram of a second communication device in an embodiment of the present disclosure.
  • the communication device 121 includes: a second transmission module 121 for receiving the second PDSCH processing capability information from the terminal equipment,
  • the second PDSCH processing capability information is determined based on the complexity information of the AI model and/or the category information of the AI model, the AI capability information of the terminal device, and the third PDSCH processing capability information of the terminal device.
  • the third PDSCH processing capability information is used for Indicates the PDSCH processing capability of the terminal equipment when channel estimation is not based on AI; the second processing module 122 is configured to determine the corresponding second PDSCH processing duration based on at least the second PDSCH processing capability information.
  • the second processing module 122 is configured to determine the second PDSCH processing duration according to the second PDSCH processing capability information, subcarrier spacing, and DMRS configuration category information.
  • the second processing module 122 is used to determine that the second PDSCH processing duration meets the third AI model of the transmission delay; the second transmission module 121 is used to instruct the terminal device to enable AI-based channel estimation. .
  • the second transmission module 121 is configured to indicate the third AI model to the terminal device after the second processing module 122 determines that the second PDSCH processing duration meets the third AI model of the transmission delay.
  • the second transmission module 121 is configured to process the second PDSCH according to the third AI model after the second processing module 122 determines that the second PDSCH processing duration meets the third AI model of transmission delay. Duration, schedule transmission resources.
  • the second processing module 122 is used to determine that the second PDSCH processing duration does not meet the transmission delay; the second transmission module 121 is used to indicate to the terminal device not to enable AI-based channel estimation.
  • the second transmission module 121 mentioned in the embodiment of this disclosure may be a transceiver interface, a transceiver circuit, a transceiver, etc.; the second processing module 122 may be one or more processors.
  • embodiments of the present disclosure also provide a communication device.
  • the communication device can be a terminal device in a communication system or a chip or system on a chip in a terminal device. It can also be used in a terminal device to implement the above implementations.
  • the communication device can realize the functions performed by the terminal equipment in the above embodiments, and these functions can be realized by hardware executing corresponding software. These hardware or software include one or more modules corresponding to the above functions.
  • Figure 13 is a schematic structural diagram of a third communication device in an embodiment of the present disclosure.
  • the communication device 130 includes: a third transmission module 131, used to receive the first PDSCH processing duration sent by the network device; wherein , the first PDSCH processing duration is determined by the network device based on the processing duration of the first AI model, which is a neural network model used by the terminal device for channel estimation; according to the first PDSCH processing duration, uplink control information is sent to the network device .
  • a third transmission module 131 used to receive the first PDSCH processing duration sent by the network device; wherein , the first PDSCH processing duration is determined by the network device based on the processing duration of the first AI model, which is a neural network model used by the terminal device for channel estimation; according to the first PDSCH processing duration, uplink control information is sent to the network device .
  • the third transmission module 131 is configured to send its own AI capability information to the network device before receiving the first PDSCH processing duration sent by the network device.
  • the AI capability information is used to represent the terminal device's response to the AI model.
  • the processing capability and AI capability information are used by the network device to determine the first AI model.
  • the AI capability information includes at least one of the following parameters: the single processing time of the AI model relative to the baseline model, the number of operations of the AI model per unit time, and the single processing time of the AI model.
  • the above-mentioned communication device 130 also includes: a third processing module 132, configured to: determine the first AI model according to instructions from the network device; use the first AI model to perform channel processing. estimate.
  • the above-mentioned communication device 130 also includes: a third processing module 132; a third transmission module 131 for receiving an instruction from a network device to enable AI-based channel estimation; a third processing module 132 for The device is instructed to perform channel estimation.
  • the above-mentioned communication device 130 also includes: a third processing module 132, used to determine the corresponding first AI model according to the configuration category information of DMRS; a third transmission module 131, used to send a message to the network device.
  • the first AI model used to determine the corresponding first AI model according to the configuration category information of DMRS.
  • DMRS configuration category information is used to indicate whether the terminal device uses additional DMRS symbols when performing AI-based channel estimation.
  • the above-mentioned communication device 130 also includes: a third processing module 132, configured to determine the corresponding first AI model according to the granularity of channel estimation configured by the network device; a third transmission module 131, configured to The network device sends the first AI model.
  • the above-mentioned communication device 130 also includes: a third processing module 132, configured to calculate the complexity information of the AI model and/or the category information of the AI model, the AI capability information of the terminal device, and the third processing module of the terminal device.
  • the third PDSCH processing capability information determines the second PDSCH processing capability information; the third transmission module 131 is used to send the second PDSCH processing capability information to the network device, and the second PDSCH processing capability information is used to instruct the network device to determine the first PDSCH processing duration.
  • the third transmission module 131 mentioned in the embodiment of the present disclosure may be a transceiver interface, a transceiver circuit, a transceiver, etc.; the third processing module 132 may be one or more processors.
  • FIG. 14 is a schematic structural diagram of a communication device in an embodiment of the present disclosure.
  • the communication device 140 uses general computer hardware, including a processor 141, a memory 142, a bus 143, an input device 144 and an output.
  • Equipment 145 is a schematic structural diagram of a communication device in an embodiment of the present disclosure.
  • the communication device 140 uses general computer hardware, including a processor 141, a memory 142, a bus 143, an input device 144 and an output.
  • Equipment 145 included in the communication device 140.
  • memory 142 may include computer storage media in the form of volatile and/or non-volatile memory, such as read-only memory and/or random access memory.
  • Memory 142 may store an operating system, application programs, other program modules, executable code, program data, user data, and the like.
  • Input device 144 may be used to input commands and information to a communication device, such as a keyboard or pointing device such as a mouse, trackball, touch pad, microphone, joystick, game pad, satellite television dish, scanner, or similar device. These input devices may be connected to processor 141 via bus 143 .
  • the output device 145 can be used for a communication device to output information.
  • the output device 145 can also be other peripheral output devices, such as speakers and/or printing devices. These output devices can also be connected to the processor 141 through the bus 143 .
  • the communication device may be connected to a network through the antenna 146, such as a local area network (LAN).
  • LAN local area network
  • the computer execution instructions stored in the control device can be stored in a remote storage device and are not limited to local storage.
  • the communication device executes the communication method on the terminal device side or the network device side in the above embodiments.
  • the communication device executes the communication method on the terminal device side or the network device side in the above embodiments.
  • the specific execution process refer to the above embodiments. I won’t go into details here.
  • the above-mentioned memory 142 stores computer execution instructions for realizing the functions of the first processing module 111 and the first transmission module 112 in FIG. 11 .
  • the functions/implementation processes of the first processing module 111 and the first transmission module 112 in Figure 11 can be realized by the processor 141 in Figure 14 calling the computer execution instructions stored in the memory 142.
  • the processor 141 in Figure 14 calling the computer execution instructions stored in the memory 142.
  • the above-mentioned memory 142 stores computer execution instructions for realizing the functions of the second transmission module 121 and the second processing module 122 in FIG. 12 .
  • the functions/implementation processes of the second transmission module 121 and the second processing module 122 in Figure 12 can be realized by the processor 141 in Figure 14 calling the computer execution instructions stored in the memory 142.
  • the processor 141 in Figure 14 calling the computer execution instructions stored in the memory 142.
  • the above-mentioned memory 142 stores computer execution instructions for realizing the functions of the third transmission module 131 and the third processing module 132 in FIG. 13 .
  • the functions/implementation processes of the third transmission module 131 and the third processing module 132 in Figure 13 can be realized by the processor 141 in Figure 14 calling the computer execution instructions stored in the memory 142.
  • the processor 141 in Figure 14 calling the computer execution instructions stored in the memory 142.
  • the terminal device may be a mobile phone, a computer, a digital broadcast terminal device, a messaging device, a game console, a tablet device, a medical device, a fitness device, a personal digital assistant, etc.
  • Figure 15 is a schematic structural diagram of a terminal device in an embodiment of the present disclosure.
  • the terminal device 150 may include one or more of the following components: a processing component 151, a memory 152, a power supply component 153, a multimedia component 154, Audio component 155 , input/output (I/O) interface 156 , sensor component 157 and communication component 158 .
  • the processing component 151 generally controls the overall operations of the terminal device 150, such as operations associated with display, phone calls, data communications, camera operations, and recording operations.
  • the processing component 151 may include one or more processors 1511 to execute instructions to complete all or part of the steps of the above method.
  • processing component 151 may include one or more modules that facilitate interaction between processing component 151 and other components.
  • processing component 151 may include a multimedia module to facilitate interaction between multimedia component 154 and processing component 151 .
  • the memory 152 is configured to store various types of data to support operations at the terminal device 150 . Examples of such data include instructions for any application or method operating on the terminal device 150, contact data, phonebook data, messages, pictures, videos, etc.
  • Memory 152 may be implemented by any type of volatile or non-volatile storage device, or a combination thereof, such as static random access memory (SRAM), electrically erasable programmable read-only memory (EEPROM), erasable programmable read-only memory (EEPROM), Programmable read-only memory (EPROM), programmable read-only memory (PROM), read-only memory (ROM), magnetic memory, flash memory, magnetic or optical disk.
  • SRAM static random access memory
  • EEPROM electrically erasable programmable read-only memory
  • EEPROM erasable programmable read-only memory
  • EPROM Programmable read-only memory
  • PROM programmable read-only memory
  • ROM read-only memory
  • magnetic memory flash memory
  • flash memory magnetic or optical disk.
  • the power supply component 153 provides power to various components of the terminal device 150 .
  • Power supply components 153 may include a power management system, one or more power supplies, and other components associated with generating, managing, and distributing power to end devices 150 .
  • Multimedia component 154 includes a screen that provides an output interface between terminal device 150 and the user.
  • the screen may include a liquid crystal display (LCD) and a touch panel (TP). If the screen includes a touch panel, the screen may be implemented as a touch screen to receive input signals from the user.
  • the touch panel includes one or more touch sensors to sense touches, swipes, and gestures on the touch panel. A touch sensor can not only sense the boundaries of a touch or swipe action, but also detect the duration and pressure associated with the touch or swipe action.
  • multimedia component 154 includes a front-facing camera and/or a rear-facing camera.
  • the front camera and/or the rear camera may receive external multimedia data.
  • Each front-facing camera and rear-facing camera can be a fixed optical lens system or have a focal length and optical zoom capabilities.
  • Audio component 155 is configured to output and/or input audio signals.
  • the audio component 155 includes a microphone (MIC) configured to receive external audio signals when the terminal device 150 is in an operating mode, such as a call mode, a recording mode, and a voice recognition mode.
  • the received audio signals may be further stored in memory 152 or sent via communications component 158 .
  • audio component 155 also includes a speaker for outputting audio signals.
  • the I/O interface 156 provides an interface between the processing component 151 and a peripheral interface module.
  • the peripheral interface module may be a keyboard, a click wheel, a button, etc. These buttons may include, but are not limited to: Home button, Volume buttons, Start button, and Lock button.
  • Sensor component 157 includes one or more sensors for providing various aspects of status assessment for terminal device 150 .
  • the sensor component 157 can monitor the open/closed state of the terminal device 150 and the relative positioning of components, such as the display and keypad of the terminal device 150.
  • the sensor component 157 can also detect the status of the terminal device 150 or a component of the terminal device 150. Position changes, presence or absence of user contact with the terminal device 150 , orientation or acceleration/deceleration of the terminal device 150 and temperature changes of the terminal device 150 .
  • Sensor assembly 157 may include a proximity sensor configured to detect the presence of nearby objects without any physical contact.
  • Sensor assembly 157 may also include a light sensor, such as a CMOS or CCD image sensor, for use in imaging applications.
  • the sensor component 157 may also include an acceleration sensor, a gyroscope sensor, a magnetic sensor, a pressure sensor, or a temperature sensor.
  • the communication component 158 is configured to facilitate wired or wireless communication between the terminal device 150 and other devices.
  • the terminal device 150 can access a wireless network using a communication standard, such as Wi-Fi, 2G, 3G, 4G or 5G, or a combination thereof.
  • communication component 158 receives broadcast signals or broadcast-related information from an external broadcast management system via a broadcast channel.
  • communications component 158 also includes a near field communications (NFC) module to facilitate short-range communications.
  • NFC near field communications
  • the NFC module can be implemented using radio frequency identification (RFID) technology, infrared data association (IrDA) technology, ultra-wideband (UWB) technology, Bluetooth (BT) technology and other technologies.
  • RFID radio frequency identification
  • IrDA infrared data association
  • UWB ultra-wideband
  • Bluetooth Bluetooth
  • the terminal device 150 may be configured by one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable A programmable gate array (FPGA), controller, microcontroller, microprocessor or other electronic component implementation is used to perform the above method.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGA field programmable A programmable gate array
  • controller microcontroller, microprocessor or other electronic component implementation is used to perform the above method.
  • embodiments of the present disclosure provide a network device that is consistent with the network device in one or more of the above embodiments.
  • Figure 16 is a schematic structural diagram of a network device in an embodiment of the present disclosure.
  • the network device 160 may include a processing component 161, which further includes one or more processors, and a memory represented by a memory 162. Resources for storing instructions, such as application programs, that can be executed by processing component 161.
  • An application program stored in memory 162 may include one or more modules, each of which corresponds to a set of instructions.
  • the processing component 161 is configured to execute instructions to perform any of the foregoing methods applied to the network device.
  • Network device 160 may also include a power supply component 163 configured to perform power management of network device 160, a wired or wireless network interface 164 configured to connect network device 160 to a network, and an input-output (I/O) interface 165 .
  • Network device 160 may operate using an operating system stored in memory 162, such as Windows ServerTM, Mac OS XTM, UnixTM, LinuxTM, FreeBSDTM, or the like.
  • embodiments of the present disclosure also provide a computer-readable storage medium. Instructions are stored in the computer-readable storage medium; when the instructions are run on the computer, they are used to execute the terminal in one or more of the above embodiments. Communication method on the device side or network device side.
  • embodiments of the present disclosure also provide a computer program or computer program product.
  • the computer program product When the computer program product is executed on a computer, the computer implements the terminal device side or the network device side in one or more of the above embodiments. communication method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本公开实施例提供了一种通信方法、通信装置及通信设备。该方法可以包括:网络设备确定第一AI模型的处理时长;网络设备至少根据所述第一AI模型的处理时长,确定所述第一AI模型对应的第一PDSCH处理时长。在本公开中,第一PDSCH处理时长中增加第一AI模型的处理时长,有助于更加准确、灵活的设置第一PDSCH处理时长,满足引入基于AI的信道估计后新的通信场景的需求。

Description

一种通信方法、通信装置及通信设备 技术领域
本公开涉及无线通信技术领域,尤其涉及一种通信方法、通信装置及通信设备。
背景技术
第五代(5th generation,5G)移动通信系统中,终端设备在完成从网络设备接收物理下行共享信道(physical downlink shared channel,PDSCH)后不能立刻反馈自动混合重传请求(hybrid automatic repeat request,HARQ)应答信号,而是需要一定的时间来处理PDSCH所传递的数据,同时需要一定的时间来准备物理上行控制信道(physical uplink control channel,PUCCH)。现有通信协议(如3GPP TS 38.214 V16.3.0)将上述时间定义为PDSCH处理时长T proc。T proc的取值与该时隙的子载波间隔、PDSCH中所使用的(demodulatin reference signal,DMRS)的配置类型、UE自身的信号处理能力等均相关。
目前,随着人工智能(artifact intelligence,AI)的日趋发展,越来越多的研究开始利用AI技术进行信道估计,以消除干扰和噪声的影响,更加准确的描述通信信道状态信息,并提高通信系统的性能。但是,现有通信协议中规定的T proc的确定方法,无法满足引入AI模型后新的通信场景的需求。
发明内容
本公开提供了一种通信方法、通信装置及通信设备,以满足引入基于AI的信道估计后新的通信场景的需求。
根据本公开的第一方面提供一种通信方法,该方法可以应用于通信系统中的网络设备。该方法可以包括:网络设备确定第一AI模型的处理时长,第一AI模型为终端设备用于信道估计的神经网络模型;网络设备至少根据第一AI模型的处理时长,确定第一AI模型对应的第一PDSCH处理时长。
在一些可能的实施方式中,网络设备确定第一AI模型的处理时长,包括:网络设备根据终端设备的AI能力信息、AI模型的复杂度信息和/或类别信息,确定第一AI模型的处理时长。
在一些可能的实施方式中,网络设备至少根据第一AI模型的处理时长,确定第一AI模型对应的第一PDSCH处理时长,包括:网络设备根据第一AI模型的处理时长、子载波间隔、DMRS的配置类别信息以及终端设备的第一PDSCH处理能力信息,确定第一PDSCH处理时长。
在一些可能的实施方式中,上述方法还包括:网络设备接收来自终端设备的AI能力信息,AI能力信息用于表示终端设备对AI模型的处理能力;网络设备根据AI能力信息,确定第一AI模型。
在一些可能的实施方式中,AI能力信息包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间AI模型的内运算次数、AI模型的单次处理时长。
在一些可能的实施方式中,上述方法还包括:网络设备确定第一PDSCH处理时长满足传输时延的第二AI模型;网络设备向终端设备指示启用基于AI的信道估计。
在一些可能的实施方式中,在网络设备确定第一PDSCH处理时长满足传输时延的第二AI模型之后,上述方法还包括:网络设备向终端设备指示第二AI模型。
在一些可能的实施方式中,在网络设备确定第一PDSCH处理时长满足传输时延的第二AI模型之后,上述方法还包括:网络设备根据第二AI模型对应的第一PDSCH处理时长,调度传输资源。
在一些可能的实施方式中,上述方法还包括:网络设备确定第一PDSCH处理时长不满足传输时延;网络设备向终端设备指示不启用基于AI的信道估计。
在一些可能的实施方式中,在网络设备确定第一AI模型的处理时长之前,上述方法还包括:网络设备根据DMRS的配置类别信息,确定对应的第一AI模型;或,网络设备根据为终端设备配置的信道估计的粒度,确定对应的第一AI模型。
在一些可能的实施方式中,在网络设备确定第一AI模型的处理时长之前,上述方法还包括:网络设备接收终端设备发送的第一AI模型,第一AI模型为终端设备根据DMRS的配置类别信息确定的。
在一些可能的实施方式中,DMRS的配置类别信息用于表示终端设备在进行基于AI的信道估计时是否使用额外的DMRS符号。
根据本公开的第二方面提供的一种通信方法,该方法可以应用于通信系统中的网络设备。该方法可以包括:网络设备接收来自终端设备的第二PDSCH处理能力信息,第二PDSCH处理能力信息是根据AI模型的复杂度信息和/或AI模型的类别信息、终端设备的AI能力信息以及终端设备的第三PDSCH处理能力信息确定的,第三PDSCH处理能力信息用于表示终端设备在未基于AI进行信道估计时对PDSCH的处理能力;网络设备至少根据第二PDSCH处理能力信息,确定对应的第二PDSCH处理时长。
在一些可能的实施方式中,网络设备至少根据第二PDSCH处理能力信息,确定对应的第二PDSCH处理时长,包括:网络设备根据第二PDSCH处理能力信息、子载波间隔以及DMRS的配置类别信息,确定第二PDSCH处理时长。
在一些可能的实施方式中,上述方法还包括:网络设备确定第二PDSCH处理时长满足传输时延的第三AI模型;网络设备向终端设备指示启用基于AI的信道估计。
在一些可能的实施方式中,在网络设备确定第二PDSCH处理时长满足传输时延的第三AI模型之后,上述方法还包括:网络设备向终端设备指示第三AI模型。
在一些可能的实施方式中,在网络设备确定第二PDSCH处理时长满足传输时延的第三AI模型之后,上述方法还包括:网络设备根据第三AI模型对应的第二PDSCH处理时长,调度传输资源。
在一些可能的实施方式中,上述方法还包括:网络设备确定第二PDSCH处理时长不满足传输时延;网络设备向终端设备指示不启用基于AI的信道估计。
根据本公开的第三方面提供的一种通信方法,该方法可以应用于通信系统中的终端设备。该方法可以包括:终端设备接收网络设备发送的第一PDSCH处理时长;其中,第一PDSCH处理时长是网络设备根据第一AI模型的处理时长确定的,第一AI模型为终端设备用于信道估计的神经网络模型;终端设备根据第一PDSCH处理时长,向网络设备发送上行控制信息。
在一些可能的实施方式中,在终端设备接收网络设备发送的第一PDSCH处理时长之前,上述方法还包括:终端设备向网络设备发送自身的AI能力信息,AI能力信息用于表示终端设备对AI模型的处理能力,AI能力信息用于网络设备确定第一AI模型。
在一些可能的实施方式中,AI能力信息包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间内AI模型的运算次数、AI模型的单次处理时长。
在一些可能的实施方式中,上述方法还包括:终端设备根据网络设备的指示,确定第一AI模型;终端设备使用第一AI模型进行信道估计。
在一些可能的实施方式中,上述方法还包括:终端设备接收网络设备指示启用基于AI的信道估计;终端设备根据网络设备的指示,执行信道估计。
在一些可能的实施方式中,上述方法还包括:终端设备根据DMRS的配置类别信息,确定对应的第一AI模型;终端设备向网络设备发送第一AI模型。
在一些可能的实施方式中,DMRS的配置类别信息用于表示终端设备在进行基于AI的信道估计时是否使用额外的DMRS符号。
在一些可能的实施方式中,上述方法还包括:终端设备根据网络设备配置的信道估计的粒度,确定对应的第一AI模型;终端设备向网络设备发送第一AI模型。
在一些可能的实施方式中,上述方法还包括:终端设备根据AI模型的复杂度信息和/或AI模型的类别信息、终端设备的AI能力信息以及终端设备的第三PDSCH处理能力信息,确定第二PDSCH处理能力信息;终端设备向网络设备发送第二PDSCH处理能力信息,第二PDSCH处理能力信息用于指示网络设备确定第一PDSCH处理时长。
根据本公开的第四方面提供一种通信装置,该通信装置可以为通信系统中的网络设备或者网络设备中的芯片或者片上系统,还可以为网络设备中用于实现上述各个实施例的方法的功能模块。该通信装置可以实现上述各实施例中网络设备所执行的功能,这些功能可以通过硬件执行相应的软件实现。这些硬件或软件包括一个或多个上述功能相应的模块。该通信装置,包括:第一处理模块,用于确定第一AI模型的处理时长,第一AI模型为终端设备用于信道估计的神经网络模型;至少根据第一AI模型的处理时长,确定第一AI模型对应的第一PDSCH处理时长。
在一些可能的实施方式中,第一处理模块,用于根据终端设备的AI能力信息、AI模型的复杂度信息和/或类别信息,确定第一AI模型的处理时长。
在一些可能的实施方式中,第一处理模块,用于根据第一AI模型的处理时长、子载波间隔、DMRS的配置类别信息以及终端设备的第一PDSCH处理能力信息,确定第一PDSCH处理时长。
在一些可能的实施方式中,上述装置还包括:第一传输模块;第一传输模块,用于接收来自终端设备的AI能力信息,AI能力信息用于表示终端设备对AI模型的处理能力;第一处理模块,用于根据AI能力信息,确定第一AI模型。
在一些可能的实施方式中,AI能力信息包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间AI模型的内运算次数、AI模型的单次处理时长。
在一些可能的实施方式中,上述装置还包括:第一传输模块;第一处理模块,用于确定第一 PDSCH处理时长满足传输时延的第二AI模型;第一传输模块,用于向终端设备指示启用基于AI的信道估计。
在一些可能的实施方式中,第一传输模块,还用于在第一处理模块确定第一PDSCH处理时长满足传输时延的第二AI模型之后,向终端设备指示第二AI模型。
在一些可能的实施方式中,第一传输模块,还用于在第一处理模块确定第一PDSCH处理时长满足传输时延的第二AI模型之后,据第二AI模型对应的第一PDSCH处理时长,调度传输资源。
在一些可能的实施方式中,上述装置还包括:第一传输模块;第一处理模块,用于确定第一PDSCH处理时长不满足传输时延;第一传输模块,用于向终端设备指示不启用基于AI的信道估计。
在一些可能的实施方式中,第一处理模块,用于在确定第一AI模型的处理时长之前,根据DMRS的配置类别信息,确定对应的第一AI模型;或,根据为终端设备配置的信道估计的粒度,确定对应的第一AI模型。
在一些可能的实施方式中,上述装置还包括:第一传输模块,用于在第一处理模块确定第一AI模型的处理时长之前,接收终端设备发送的第一AI模型,第一AI模型为终端设备根据DMRS的配置类别信息确定的。
在一些可能的实施方式中,DMRS的配置类别信息用于表示终端设备在进行基于AI的信道估计时是否使用额外的DMRS符号。
根据本公开的第五方面提供一种通信装置,该通信装置可以为通信系统中的网络设备或者网络设备中的芯片或者片上系统,还可以为网络设备中用于实现上述各个实施例的方法的功能模块。该通信装置可以实现上述各实施例中网络设备所执行的功能,这些功能可以通过硬件执行相应的软件实现。这些硬件或软件包括一个或多个上述功能相应的模块。该通信装置,包括:第二传输模块,用于接收来自终端设备的第二PDSCH处理能力信息,第二PDSCH处理能力信息是根据AI模型的复杂度信息和/或AI模型的类别信息、终端设备的AI能力信息以及终端设备的第三PDSCH处理能力信息确定的,第三PDSCH处理能力信息用于表示终端设备在未基于AI进行信道估计时对PDSCH的处理能力;第二处理模块,用于至少根据第二PDSCH处理能力信息,确定对应的第二PDSCH处理时长。
在一些可能的实施方式中,第二处理模块,用于根据第二PDSCH处理能力信息、子载波间隔以及DMRS的配置类别信息,确定第二PDSCH处理时长。
在一些可能的实施方式中,第二处理模块,用于确定第二PDSCH处理时长满足传输时延的第三AI模型;第二传输模块,用于向终端设备指示启用基于AI的信道估计。
在一些可能的实施方式中,第二传输模块,用于在第二处理模块确定第二PDSCH处理时长满足传输时延的第三AI模型之后,向终端设备指示第三AI模型。
在一些可能的实施方式中,第二传输模块,用于在第二处理模块确定第二PDSCH处理时长满足传输时延的第三AI模型之后,根据第三AI模型对应的第二PDSCH处理时长,调度传输资源。
在一些可能的实施方式中,第二处理模块,用于确定第二PDSCH处理时长不满足传输时延;第二传输模块,用于向终端设备指示不启用基于AI的信道估计。
根据本公开的第六方面提供一种通信装置,该通信装置可以为通信系统中的终端设备或者终端设 备中的芯片或者片上系统,还可以为终端设备中用于实现上述各个实施例的方法的功能模块。该通信装置可以实现上述各实施例中终端设备所执行的功能,这些功能可以通过硬件执行相应的软件实现。这些硬件或软件包括一个或多个上述功能相应的模块。该通信装置,包括:第三传输模块,用于接收网络设备发送的第一PDSCH处理时长;其中,第一PDSCH处理时长是网络设备根据第一AI模型的处理时长确定的,第一AI模型为终端设备用于信道估计的神经网络模型;根据第一PDSCH处理时长,向网络设备发送上行控制信息。
在一些可能的实施方式中,第第三传输模块,用于在接收网络设备发送的第一PDSCH处理时长之前,向网络设备发送自身的AI能力信息,AI能力信息用于表示终端设备对AI模型的处理能力,AI能力信息用于网络设备确定第一AI模型。
在一些可能的实施方式中,AI能力信息包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间内AI模型的运算次数、AI模型的单次处理时长。
在一些可能的实施方式中,上述装置还包括:第三处理模块,用于:根据网络设备的指示,确定第一AI模型;使用第一AI模型进行信道估计。
在一些可能的实施方式中,上述装置还包括:第三处理模块;第三传输模块,用于接收网络设备指示启用基于AI的信道估计;第三处理模块,用于根据网络设备的指示,执行信道估计。
在一些可能的实施方式中,上述装置还包括:第三处理模块,用于根据DMRS的配置类别信息,确定对应的第一AI模型;第三传输模块,用于向网络设备发送第一AI模型。
在一些可能的实施方式中,DMRS的配置类别信息用于表示终端设备在进行基于AI的信道估计时是否使用额外的DMRS符号。
在一些可能的实施方式中,上述装置还包括:第三处理模块,用于根据网络设备配置的信道估计的粒度,确定对应的第一AI模型;第三传输模块,用于向网络设备发送第一AI模型。
在一些可能的实施方式中,上述装置还包括:第三处理模块,用于根据AI模型的复杂度信息和/或AI模型的类别信息、终端设备的AI能力信息以及终端设备的第三PDSCH处理能力信息,确定第二PDSCH处理能力信息;第三传输模块,用于向网络设备发送第二PDSCH处理能力信息,第二PDSCH处理能力信息用于指示网络设备确定第一PDSCH处理时长。
根据本公开的第七方面提供一种通信设备,如网络设备,包括:天线;存储器;处理器,分别与天线及存储器连接,被配置为通执行存储在存储器上的计算机可执行指令,控制天线的收发,并能够实现如本公开第一方面、第二方面及其可能的实施方式中任一项的通信方法。
根据本公开的第八方面提供一种通信设备,如终端设备,包括:天线;存储器;处理器,分别与天线及存储器连接,被配置为通执行存储在存储器上的计算机可执行指令,控制天线的收发,并能够实现如本公开第三方面及其可能的实施方式中任一项的通信方法。
根据本公开的第九方面提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机可执行指令,计算机可执行指令在被处理器执行后,能够实现如上述第一至三方面及其任一项可能的实施方式所述的通信方法。
根据本公开的第十方面提供一种计算机程序或计算机程序产品,当计算机程序产品在计算机上被 执行时,使得计算机实现如上述第一至三方面及其任一可能的实施方式所述的通信方法。
在本公开中,根据终端设备的AI处理能力确定第一AI模型的处理时长,使得网络设备在确定第一PDSCH处理时长中能够增加第一AI模型的处理时长,提高设置第一PDSCH处理时长的准确性和灵活性,满足引入基于AI的信道估计后新的通信场景的需求。
另外,根据DMRS的配置类别确定对应的第一AI模型,使得网络设备在确定第一PDSCH处理时长中能够增加第一AI模型的处理时长,如此,考虑到了使用AI信道估计时对DMRS资源映射方式的影响,提高设置第一PDSCH处理时长的准确性和灵活性,满足引入基于AI的信道估计后新的通信场景的需求。
进一步地,根据信道估计的粒度的不同确定对应的第一AI模型,使得网络设备在第一PDSCH处理时长中能够增加第一AI模型的处理时长,如此,考虑到了使用AI信道估计时信道估计粒度对PDSCH处理时长的影响,提高设置第一PDSCH处理时长的准确性和灵活性,满足引入基于AI的信道估计后新的通信场景的需求。
应当理解的是,本公开的第四至十方面与本公开的第一至三方面的技术方案一致,各方面及对应的可行实施方式所取得的有益效果相似,不再赘述。
附图说明
图1为本公开实施例中的一种通信系统的结构示意图;
图2为本公开实施例中的网络设备侧通信方法的第一种实施流程示意图;
图3为本公开实施例中的网络设备侧通信方法的第二种实施流程示意图;
图4为本公开实施例中的网络设备侧通信方法的第三种实施流程示意图;
图5为本公开实施例中的DMRS配置类别的示意图;
图6为本公开实施例中的网络设备侧通信方法的第四种实施流程示意图;
图7为本公开实施例中的网络设备侧通信方法的第五种实施流程示意图;
图8为本公开实施例中的UE侧通信方法的第一种实施流程示意图;
图9为本公开实施例中的UE侧通信方法的第二种实施流程示意图;
图10公开实施例中的UE侧通信方法的第三种实施流程示意图;
图11为本公开实施例中的第一种通信装置的结构示意图;
图12为本公开实施例中的第二种通信装置的结构示意图;
图13为本公开实施例中的第三种通信装置的结构示意图;
图14为本公开实施例中的一种通信设备的结构示意图;
图15为本公开实施例中的一种终端设备的结构示意图;
图16为本公开实施例中的一种网络设备的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开实施例相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开实施例的一些方面相一致的装置和方法的例子。
在本公开实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开实施例。在本公开实施例和所附权利要求书中所使用的单数形式的“一种”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开实施例可能采用术语“第一”、“第二”、“第三”等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开实施例范围的情况下,“第一信息”也可以被称为“第二信息”,类似地,“第二信息”也可以被称为“第一信息”。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
本公开实施例提供的技术方案可以应用于通信设备间的无线通信。通信设备间的无线通信可以包括:网络设备和终端设备间的无线通信、网络设备和网络设备间的无线通信、以及终端设备和终端设备间的无线通信。在本公开实施例中,术语“无线通信”还可以简称为“通信”,术语“通信”还可以描述为“数据传输”、“信息传输”或“传输”。
本公开实施例提供一种通信系统。该通信系统可以为采用蜂窝移动通信技术的通信系统。图1为本公开实施例中的一种通信系统的结构示意图,参见图1所示,该通信系统10可以包括:终端设备11和网络设备12。
在一实施例中,上述终端设备11可以为一种向用户提供语音或者数据连接性的设备。在一些实施例中,终端设备也可以称为用户设备(user equipment,UE)、移动台(mobile station)、用户单元(subsriber unit)、站台(station)或者终端(terminal equipment,TE)等。终端设备可以为蜂窝电话(cellular phone)、个人数字助理(personal digital assistant,PDA)、无线调制解调器(modem)、手持设备(handheld)、膝上型电脑(laptop computer)、无绳电话(cordless phone)、无线本地环路(wireless local loop,WLL)台或者平板电脑(pad)等。随着无线通信技术的发展,可以接入通信系统、可以与通信系统的网络侧进行通信或者通过通信系统与其他设备进行通信的设备都是本公开实施例中的终端设备。例如,智能交通中的终端和汽车、智能家居中的家用设备、智能电网中的电力抄表仪器、电压监测仪器、环境监测仪器、智能完全网络中的视频监控仪器、收款机等。在本公开实施例中,终端设备可以与网络设备进行通信,多个终端设备之间也可以进行通信。终端设备可以是静态固定的,也可以移动的。示例性的,在下述实施例中以终端设备为UE为例进行说明。
上述网络设备12可以为接入网侧用于支持终端接入通信系统的设备。网络设备12可以包括各种形式的宏基站、微基站(也可以描述为小站)、中继站、接入点等。在采用不同的无线接入技术的系统 中,网络设备12的名称可能会有所不同。例如,4G接入技术通信系统中的演进型基站(evolved NodeB,eNB)、5G接入技术通信系统中的下一代基站(next generation NodeB,gNB)、发送接收点(transmission reception point,TRP)、中继节点(relay node)、接入点(access point,AP)等。
以下,对本公开实施例中所涉及的部分术语和技术进行简单介绍。
一、子载波间隔,可以为物理下行共享信道(physical downlink shared channel,PDSCH)的子载波间隔、该PDSCH对应的物理下行控制信道(physical downlink control channel,PDCCH)的子载波间隔与该PDSCH对应的上行子载波间隔中之一、三者中的最小值、三者中的最大值等。
其中,该PDSCH对应的PDCCH,可以指调度该PDSCH的PDCCH。该PDSCH对应的上行子载波间隔可以指UE针对该PDSCH上传输的数据向网络设备反馈应答信号(即ACK/NACK)时所使用的上行信道的子载波间隔。例如,若UE通过物理上行控制信道(physical uplink control channel,PUCCH)向网络设备反馈ACK/NACK,则这里的上行子载波间隔是指PUCCH的子载波间隔。又如,若UE通过物理上行共享信道(physical uplink shared channel,PUSCH)向网络设备反馈ACK/NACK,则这里的上行子载波间隔是指PUSCH的子载波间隔。
本公开实施例中对子载波间隔的具体描述不进行限定,原则上,所有与“PDSCH的子载波间隔、该PDSCH对应的PDCCH的子载波间隔、该PDSCH对应的上行子载波间隔或三者中的最小值”这一特征相同或实质相同的描述,均可以作为子载波间隔的定义。例如,子载波间隔,是PDSCH的子载波间隔、PDCCH的子载波间隔和上行子载波间隔中的,使得计算得到的PDSCH的处理时长满足传输时延子载波间隔。
二、UE的处理能力(UE processing capability)
UE的处理能力,可以指UE处理PDSCH的能力,可以分为能力1(UE processing capability 1)和能力2(UE processing capability 2)、能力3(UE processing capability 3)、能力4(UE processing capability 4)、能力5(UE processing capability 5)等多种类型。UE可以通过能力上报过程,向网络设备上报自己支持哪种类型的PDSCH处理能力。其中,关于UE的处理能力的示例可以参考3GPP 38.214通信协议。例如,3GPP 38.214通信协议中给出了能力1和能力2所对应的N 1的取值;其中,关于d1,1相关说明可以参考下文。本公开实施例中所提供的UE的处理能力可以但不限于是按照3GPP 38.214通信协议中所定义的处理能力。
三、现有3GPP TS 38.214(v16.3.0)中定义的PDSCH的处理时长(PDSCH processing time)
在3GPP TS 38.214(v16.3.0)中,PDSCH的处理时长通过以下公式(1)进行计算。
T proc,1=(N 1+d 1,1+d 2)(a+b)·κ2 ·T C+T ext           (1)
其中,N 1是该公式(1)中占比最大的一项重要因素,N 1包含PDSCH解码时长(PDSCH decoding time)以及PUCCH的准备时长,与子载波间隔和UE自身的处理能力有关;d 1,1跟所分配的符号长度有关,若所分配的符号较长,UE则可以通过并行处理缩短实际PDSCH处理时长,反之,符号越短,并行处理时长太短,则需要额外的增加一定的处理时长;d 2由UE自行上报,是与高优先级的PUCCH与低优先级的PUCCH或PUSCH发生资源重叠有关的参数,若未发生重叠则d2=0;T C为基本采样时间单 元,T ext是非授权频谱下使用的参数,不作过多赘述。a是一个符号(symbol)包括的采样点数,b是一个符号的循环前缀(cyclic prefix,CP)包括的采样点数。例如,a=2048,b=144。关于该公式(1)中其他参数的解释可以参考3GPP TS 38.214(v16.3.0)。
四、AI模型
AI模型,也可以描述为神经网络模型、深度学习模型等。UE使用AI模型进行信道估计(如下行信道估计或者上行信道估计),不同的AI模型具有不同的复杂度和/或类别。也就是说,AI模型为用于信道估计的神经网络模型。AI模型的模型信息用于表示各个AI模型的复杂度和/或模型类别。示例性的,AI模型的复杂度可以是指AI模型包含的层数、计算时长等;AI模型的类型可以包括:深度神经网络(deep neural network,DNN)模型、卷积神经网路(convolutional neural networks,CNN)模型、Transformer模型等。当然,AI模型还可以为包括其他复杂度和类型的神经网络模型,本公开实施例对此不做具体限定。
在一实施例中,AI模型的复杂度信息和/或类别信息可以是通信协议中规定的,也可以是根据网络设备下发的信息(如AI模型索引、AI模型参数等)确定出来的,还可以是网络设备为UE配置的,本公开实施例对此不做具体限定。
在实际应用中,AI模型可以是非单一类别和/或非单一复杂度,当然也可以是单一类别和/或单一复杂度,本公开实施例对此不作具体限定。
五、UE的AI处理能力
AI处理能力,可以指UE处理AI模型的能力。在本公开实施例中,UE的AI处理能力可以通过AI能力信息进行表示。AI能力信息可以包括以下至少一个参数:UE相对于一个基线模型的处理时长、UE在每单位时间内对单个AI模型的运算次数(即单位时间内AI模型的运算次数)、单个AI模型的处理时长(可以理解为单个AI模型完成一次运算所需时长)。当然,UE的AI处理能力还可以通过其他参数表示,相应的,AI能力信息也可以包括其他参数,本公开实施例对此不做具体限定。
在实际应用中,用于表示UE的AI处理能力的AI能力信息可以是量化后的处理能力,如量化后的取值信息、通信协议中预设的量化后的表格等。
本公开实施例中,PDSCH所处时隙的子载波间隔和解调参考信号(demodulation reference signals,DMRS)的配置类型可以影响网络设备调度UE的PDSCH处理时长T proc,两者与UE的处理能力共同构成决定T proc的性能指标。影响T proc的重要因素可以为:低密度奇偶校验码(low density parity check code,LDPC)译码、信道估计、解调等时长。其中,对于信道估计,若使用AI模型替换使用最小二乘(linear square,LS)或最小均方误差(linear minimum mean squared error,LMMSE)进行信道估计,信道估计的处理时长很有可能会增加,UE处理PDSCH所需要的时间也会增加。可见,UE处理PDSCH所需要的时长与进行信道估计所使用的AI模型、UE自身的AI处理能力等参数同样相关,而公式(1)中所规定的确定T proc的方法无法满足引入AI模型后新的通信场景的需求。
为了解决上述问题,本公开实施例提供一种通信方法,该方法可以应用于上述通信系统的网络设备中。
在本公开实施例中,网络设备可以根据AI模型的处理时长对下行信道的处理时长进行确定,以满足引入AI模型后新的通信场景的需求。
应理解的,在下述实施例中,以PDSCH作为下行信道的示例对上述通信方法进行说明,但是下行信道不限于PDSCH,还可以为通信协议及其演进版本中规定的任意下行信道,例如PDCCH、物理广播信道(physical broadcast channel,PBCH)、物理侧链路广播信道(physical sidelink broadcast channel,PSBCH)、物理侧链路发现信道(physical sidelink discovery channel,PSDCH)、物理侧链路共享信道(physical sidelink shared channel,PSSCH)、物理侧链路控制信道(physical sidelink control channel,PSCCH)等。针对不同下行信道的通信方法可以参见上述实施例中的具体描述,此处不再赘述。
图2为本公开实施例中的网络设备侧通信方法的第一种实施流程示意图,参见图2所示,该方法可以包括:
S201,网络设备确定第一AI模型的处理参数。
其中,第一AI模型为UE用于信道估计的神经网络模型;不同第一AI模型的复杂度和/或类型不同。在实际应用中,第一AI模型的处理参数可以为第一AI模型的处理时长,也可以为用于确定第一AI模型的处理时长的一个参数或参数集。这里,第一AI模型的处理时长为可以理解为UE利用第一AI模型进行下行信道估计的时间长度。
应理解的,由于不同AI模型在复杂度、类型等方面是不同的,导致单个AI模型的单次处理时长也是不同的。那么,在使用AI模型进行信道估计的场景下,不同AI模型的处理时长会影响PSDCH处理时长。所以,网络设备在确定UE的PSDCH处理时长时,可以先确定一个或者多个第一AI模型的处理时长。
需要说明的是,第一AI模型可以为通信协议中规定的能够用于信道估计的一个或者多个AI模型,也可以是UE网络设备上报的自身支持的一个或者多个AI模型,还可以为网络设备根据UE的AI能力信息为UE配置的一个或者多个AI模型。当然,第一AI模型还可以存在其他情况,本公开实施例对此不做具体限定。
在一些可能的实施方式中,S201可以包括:网络设备可以根据以下的至少一种参数确定第一AI模型的处理时长:UE的AI能力信息、AI模型的复杂度信息、AI模型的类别信息。
应理解的,网络设备遍历第一AI模型,根据已知的参数(这里该参数可以包括以下的至少一种:UE的AI能力信息、AI模型的复杂度信息、AI模型的类别信息),确定第一AI模型的处理时长。
在实际应用中,UE的AI能力信息可以是由UE上报的,也可以是通信协议规定的。
那么,网络设备在获得前述的参数后,可以根据UE的AI能力信息、各个AI模型的复杂度信息和/或类别信息,确定一个或者多个第一AI模型,进而网络设备确定第一AI模型的处理时长。
当然,通信协议中还可以规定前述的参数与AI模型的处理时长的映射关系(可如采用量化后的表格等形式体现),那么,网络设备可以根据前述的参数直接得到第一AI模型的处理时长,而无需先确定第一AI模型。
S202,网络设备至少根据第一AI模型的处理参数,确定第一AI模型对应的下行信道处理时长,如第一PDSCH处理时长。
应理解的,网络设备在通过S201根据第一AI模型的处理参数确定出第一AI模型的处理时长后,可以根据该第一AI模型的处理时长来计算第一PDSCH处理时长。
在实际应用中,S202可以包括:网络设备根据第一AI模型的处理时长、子载波间隔、解调参考信号(DMRS)的配置类别信息以及UE的第一PDSCH处理能力信息,确定第一PDSCH处理时长。
示例性的,第一PDSCH处理时长满足以下公式(2)或(3)。
T proc,1=(N 1+d 1,1+d 2+d 3)(a+b)·κ2 ·T C+T ext        (2)
T proc,1=(N 1+d 1,1+d 2)(a+b)·κ2 ·T C+T ext+d 3     (3)
其中,d 3是与UE的AI处理能力以及AI模型的复杂度和/或类别相关的值,d 3可以大于或等于0,d 3也可以小于0。d 3表示第一AI模型的处理时长。在一个示例中,上述公式(2)或(3)中的N 1、d 1,1、d 2、a、b、 μ、κ、T C和T ext的解释和示例均可以分别参考3GPP TS 38.214 (v16.3.0)(其中,通信协议文件名为Physical layer procedures for data)通信协议中PDSCH的处理时长的公式(如上述公式(1))中的N 1、d 1,1、d 2、a、b、μ、κ、T C和T ext的解释和示例。基于此,可以认为本公开实施例提供的PDSCH的处理时长所满足的公式(2)或(3)是在3GPP TS
38.214(v16.3.0)通信协议中定义的PDSCH的处理时长所满足的公式(1)的基础上增加了参数d 3
在一些可能的实施方式中,网络设备在S202之后,可以根据第一PDSCH处理时长,调度传输资源。
可选的,上述传输资源用于传输上行信道。应理解的,上行信道可以包括通信协议及其演进版本规定的任意上行信道。例如,PUCCH、PUSCH、物理随机接入信道(physical random access channel,PRACH)、物理侧链路反馈信道(physical sidelink feedback channel,PSFCH)等。
进一步地,UE至少可以在PUCCH上向网络设备发送HARQ的应答信息(如ACK/NACK)。
在一种可能的实施方式中,网络设备还可以将第一PDSCH处理时长下发给UE。那么,UE还可以根据第一PDSCH处理时长,确定上述传输资源的时频位置,进而与网络设备在该传输资源上传输上行信道,如PUCCH。
在本公开实施例中,基于第一AI模型的处理时长确定UE的第一PDSCH处理时长,有助于更加准确、灵活的设置第一PDSCH处理时长,满足引入基于AI的信道估计后新的通信场景的需求。
在一些可能的实施例中,本公开实施例还提供一种通信方法。图3为本公开实施例中的网络设备侧通信方法的第二种实施流程示意图,参见图3所示,该方法包括:
S301,网络设备接收来自UE的AI能力信息。
在一些可能的实施方式中,UE的AI能力信息可以为UE与AI模型相关的参数,或为UE的性能参数,如UE的通用处理能力参数等,这些都可以统称为UE的AI能力信息。
应理解的,UE向网络设备上报的AI能力信息可以表示UE对单个AI模型的处理能力,也可以表示UE对多个AI模型的处理能力。或者,UE向网络设备上报的UE的性能参数可以表示UE的通用处理能力,如UE能力(UE capability)。
示例性的,对于单个AI模型来说,AI能力信息可以包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间内AI模型的运算次数、AI模型的单次处理时长。
在实际应用中,网络设备可以通过高层信令接收UE发送的AI能力信息。例如,上述高层信令可以为无线资源控制(radio resourcecontrol,RRC)信令、媒体接入控制(medium access control,MAC)控制元素(control element,CE)、PUSCH、PUCCH等携带的信令。
在另一实施例中,UE在向网络设备发送AI能力信息时,还可以发送第一PDSCH处理能力信息,以向网络设备告知UE对于PDSCH的处理能力。这里,第一PDSCH处理能力信息可以表示在未基于AI的信道估计时UE对PDSCH的处理能力,即3GPP TS 38.214(v16.3.0)中规定的UE处理能力(UE processing capability)。
可选的,UE的AI能力信息以及第一PDSCH处理能力信息可以承载于同一信令发送,也可以承载于不同信令发送,本公开实施例对此不做具体限定。
S302,网络设备根据AI能力信息,确定第一AI模型。
应理解的,由于不同AI模型的处理时长不同,有些AI模型的处理时长能够满足传输时延的要求,有些AI模型的处理时长不能够满足传输时延的要求。所以,网络设备可以根据UE的AI能力信息,从多个AI模型中确定出第一AI模型。这里,第一AI模型可以认为是候选AI模型。此时,第一AI模型与UE的AI能力信息对应,也就是说第一AI模型与UE对AI模型的处理能力相匹配,即第一AI模型为UE支持的AI模型。
S303,网络设备确定第一AI模型的处理时长。
S304,网络设备至少根据第一AI模型的处理时长,确定第一AI模型对应的第一PDSCH处理时长。
这里,S303至S304的执行过程可以参见图2实施例中对S201至S202的具体描述,在此不再赘述。同样的,“第一AI模型”可以是一个AI模型,也可以是两个或两个以上的不同的AI模型,本公开实施例并不对此作出限定。
在一些可能的实施方式中,网络设备在S304之后,可以根据第一PDSCH处理时长,调度传输资源。其中,该传输资源上可以传输PUCCH,UE至少可以在PUCCH上向网络设备发送HARQ的应答信息(如ACK/NACK)。
进一步地,在S304之后,网络设备还可以将第一PDSCH处理时长下发给UE。那么,UE还可以根据第一PDSCH处理时长,确定上述传输资源的时频位置,进而与网络设备在该传输资源上传输PUCCH。
在一些可能的实施方式中,以下行信道为PDSCH为例;由于不同AI模型对应第一PDSCH处理时长是不同的,这些第一PDSCH处理时长存在不满足传输时延要求的情况,那么,参见图3中虚线所示,在S304之后,上述方法还可以包括:
S305,网络设备确定第一PDSCH处理时长满足传输时延的第二AI模型。
S306,网络设备向UE指示启用基于AI的信道估计。
应理解的,网络设备在计算出第一AI模型对应的第一PDSCH处理时长之后,可以从中选择满足传输时延要求的第一PDSCH处理时长,并将对应的第一AI模型(即第二AI模型)作为UE进行信道估计时所使用的AI模型。进一步地,由于网络设备找到了合适的AI模型,那么,网络设备可以向UE指示启用(enable)基于AI的信道估计。示例性的,网络设备可以通过高层信令向UE指示启用基于AI的信道估计。例如,上述高层信令还可以为RRC信令、MAC CE、PDSCH、PDCCH等携带的信令。或者,网络设备也可以通过向UE指示第二AI模型的方式,向UE指示启用基于AI的信道估计。
在一些可能的实施方式中,在S305中,网络设备在选择满足传输时延要求的第一PDSCH处理时长之后,根据该第一PDSCH处理时长,调度传输资源。其中,该传输资源可以用于传输上行信道,如PUCCH。进一步地,UE至少可以在PUCCH上向网络设备发送HARQ的应答信息(如ACK/NACK)。
进一步地,在S305中,网络设备在选择满足传输时延要求的第一PDSCH处理时长之后,网络设备还可以将第二AI模型对应的第一PDSCH处理时长下发给UE。那么,UE还可以根据第一PDSCH处理时长以及调度PDSCH的PDCCH(如下行控制信息(downlink control information,DCI))所携带的K 1值,确定上述传输资源的时频位置,进而与网络设备在该传输资源上传输PUCCH。其中,K 1的取值可以参见通信协议的规定,本公开实施例对此不作具体限定。
在另一实施例中,仍参见图3中虚线所示,在S304之后,上述方法还可以包括:
S307,网络设备确定第一AI模型对应的第一PDSCH处理时长不满足传输时延。
S308,网络设备向UE指示不启用基于AI的信道估计。
应理解的,网络设备在计算出各个第一AI模型对应的第一PDSCH处理时长之后,需要从中选择满足传输时延要求的第一PDSCH处理时长,并将对应的第一AI模型(即第二AI模型)作为UE进行信道估计时所使用的AI模型。当网络设备发现不存在满足传输时延要求的第一PDSCH处理时长,即不存在第二AI模型时,表示网络设备没有找到合适的AI模型,那么,网络设备可以向UE指示不启用(not enable)基于AI的信道估计。示例性的,网络设备可以通过高层信令向UE指示不启用基于AI的信道估计。或者,网络设备也可以通过不向UE指示AI模型的方式,向UE指示不启用基于AI的信道估计。
可选的,响应于网络设备可以通过高层信令向UE指示启用基于AI的信道估计,网络设备还可以向UE指示第二AI模型。例如,网络设备向UE发送第二AI模型;或者,网络设备向UE发送第二AI模型的标识信息(如模型索引),以使得UE可以根据标识信息从通信协议规定的多个AI模型中确定出第二AI模型;再者,网络设备还可以向UE发送第二AI模型的相关参数,以使得UE可以根据相关参数,自行构建出第二AI模型。当然,网络设备还可以采用其他方式向UE指示第二AI模型,本公开实施例对此不作具体限定。
可选的,UE在获得网络设备指示的第二AI模型后,可以使用第二AI模型进行信道估计。
在本公开实施例中,通过根据UE的AI处理能力确定第一AI模型,进而根据第一AI模型的处理时长确定第一PDSCH处理时长,进一步提高设置第一PDSCH处理时长的准确性和灵活性,满足引入基于AI的信道估计后新的通信场景的需求。
本公开实施例还提供一种通信方法,图4为本公开实施例中的网络设备侧通信方法的第三种实施流程示意图,参见图4所示,该方法包括:
S401,网络设备根据DMRS的配置类别信息,确定对应的第一AI模型。
应理解的,3GPP TS 38.214(v16.3.0)中规定,是否额外使用DMRS符号影响PDSCH处理时间的时长。当UE使用基于AI的信道估计时,DMRS的配置类别可能会出现改变(如需要的DMRS资源减少)。不同DMRS配置类别所对应的AI模型是不同的。当采用不同的DMRS配置时(如单符号配置或双符号配置),从相同数量的物理资源块(physical resourse block,PRB)中获取的DMRS的维度是不相同的。图5为本公开实施例中的DMRS配置类别的示意图,参见图5所示,其中,(a)为单符号配置,(b)为双符号配置。不同维度的DMRS代表着不同维度的输入数据,需要使用不同的AI模型来处理。而不同AI模型的处理时延会有所差异,从而影响PDSCH处理时延的计算。那么,网络设备可以根据为UE配置的DMRS的配置类别信息,确定对应的第一AI模型。
在一些可能的实施方式中,DMRS的配置类别信息用于表示UE在进行基于AI的信道估计时是否使用额外的DMRS符号,即采用单符号配置或者双符号配置。示例性的,单符号配置可以为未使用额外的DMRS符号,双符号配置可以表示使用额外的DMRS符号。
在一些可能的实施方式中,上述方法还可以包括:UE根据DMRS的配置类别信息确定第一AI模型,并将第一AI模型发送给网络设备,进而网络设备根据UE发送的第一AI模型,执行S402至S403。
S402,网络设备确定第一AI模型的处理时长。
S403,网络设备至少根据第一AI模型的处理时长,确定第一AI模型对应的第一PDSCH处理时长。
这里,S402至S403的执行过程可以参见图2实施例中对S201至S202的具体描述,在此不再赘述。
在本公开实施例中,通过根据DMRS的配置类别确定第一AI模型,进而在第一PDSCH处理时长中增加第一AI模型的处理时长,如此,考虑到了使用AI信道估计时对DMRS资源映射方式的影响,满足引入基于AI的信道估计后新的通信场景的需求。
本公开实施例还提供一种通信方法,图6为本公开实施例中的网络设备侧通信方法的第四种实施流程示意图,参见图6所示,该方法包括:
S601,网络设备根据为UE配置的信道估计的粒度,确定对应的第一AI模型。
应理解的,UE在使用AI模型进行处理时,信道估计的粒度(即单次估计的PRB数量)会影响处理速度(也就是AI模型的处理时长),进而会影响PDSCH处理时长的确定。在进行基于AI的信道估计时,UE可以使用AI模型一次性估计传输带宽内所有PRB上的信道,也可以使用AI模型估计一定粒度的PRB上的信道,并重复多次。由于AI模型训练时须给定输入数据的维度,则对应于不同信道 估计粒度的AI模型也是不同的。例如,使用基于CNN的结构应对输入数据维度较小的情况,使用Transformer的结构应对输入数据维度较大的情况。信道估计粒度的差异带来AI模型处理时长的不同,从而影响PDSCH的处理时长。那么,网络设备可以根据为UE配置的信道估计的粒度,确定对应的第一AI模型。
S602,网络设备确定第一AI模型的处理时长。
S603,网络设备至少根据第一AI模型的处理时长,确定第一AI模型对应的第一PDSCH处理时长。
这里,S602至S603的执行过程可以参见图2实施例中对S201至S202的具体描述,在此不再赘述。
在本公开实施例中,通过根据信道估计的粒度确定第一AI模型,进而在第一PDSCH处理时长中增加第一AI模型的处理时长,如此,考虑到了使用AI信道估计时信道估计粒度对PDSCH处理时长的影响,满足引入基于AI的信道估计后新的通信场景的需求。
本公开实施例还提供一种通信方法,图7为本公开实施例中的网络设备侧通信方法的第五种实施流程示意图,参见图7所示,该方法包括:
S701,网络设备接收来自UE的第二PDSCH处理能力信息。
其中,第二PDSCH处理能力信息是UE根据AI模型的复杂度信息和/或AI模型的类别信息、UE的AI能力信息以及UE的第三PDSCH处理能力信息确定的。这里,第三PDSCH处理能力信息是指UE在未基于AI进行信道估计时PDSCH处理能力信息,用于表示UE在未基于AI进行信道估计时对PDSCH的处理能力。
应理解的,第二PDSCH处理能力是指UE在采用基于AI进行信道估计的情况下对PDSCH的处理能力,可以认为是针对基于AI进行信道估计的情况对第三PDSCH处理能力更新得到的。
在一些可能的实施方式中,根据通信协议的规定,第二PDSCH处理能力可以分为能力1、能力2、能力3、能力4等多种类型。对于任意一个类型的PDSCH处理能力,不同AI模型的处理时长可以是不同的。
相应的,UE在上报第二PDSCH处理能力时,确定满足哪个类型的能力就向网络设备上报哪个类型对应的PDSCH处理能力信息。
在一实施例中,若UE的第二PDSCH处理能力不满足上述通信协议规定的任一类型的能力,UE向网络设备上报第三PDSCH处理能力,即UE未基于AI进行信道估计时对PDSCH的处理能力。
S702,网络设备至少根据第二PDSCH处理能力信息,确定对应的第二PDSCH处理时长。
应理解的,网络设备在通过S701接收到UE发送第二PDSCH处理能力信息后,可以根据第二PDSCH处理能力信息计算一个或者多个第二PDSCH处理时长。
在实际应用中,S702可以包括:网络设备根据子载波间隔、DMRS的配置类别信息以及UE的第二PDSCH处理能力信息,确定第二PDSCH处理时长。
示例性的,网络设备可以在上述公式(1)的基础上,根据UE的第二PDSCH处理能力信息确定新的N 1,即记为N′ 1。那么,第二PDSCH处理时长可以满足公式(4)。
T proc,1=(N′ 1+d 1,1+d 2)(a+b)·κ2 ·T C+T ext      (4)
其中,N′ 1是与子载波间隔和第二PDSCH处理能力信息有关的值。在一个示例中,上述公式(4)中的d 1,1、d 2、a、b、 μ、κ、T C和T ext的解释和示例均可以分别参考3GPP TS 38.214(v16.3.0)(其中,通信协议文件名为Physical layer procedures for data)通信协议中PDSCH的处理时长的公式(如上述公式(1))中的d 1,1、d 2、a、b、μ、κ、T C和T ext的解释和示例。基于此,可以认为本公开实施例提供的PDSCH的处理时长所满足的公式(4)是在3GPP TS 38.214(v16.3.0)通信协议中定义的PDSCH的处理时长所满足的公式(1)的基础上更新了N 1的取值,即N′ 1
在一些可能的实施方式中,UE在向网络设备上报第二PDSCH的处理能力时,UE可以直接上报第二PDSCH处理能力信息,也可以上报由第三PDSCH处理能力信息和相应的能力增量组成的第二PDSCH处理能力信息。示例性的,在上述公式(4)中,UE可以直接上报N′ 1,也可以上报N 1+Δn(其中,Δn为能力增量)。当然,UE还可以采用其他形式上报第二PDSCH的处理能力,本公开实施例对此不做具体限定。
在一些可能的实施方式中,在S702之后,上述方法还可以包括:网络设备确定第二PDSCH处理时长满足传输时延的第三AI模型;网络设备向UE指示启用基于AI的信道估计。
应理解的,网络设备在根据第二PDSCHCH处理时间计算出一个或者多个第二PDSCH处理时长之后,需要从一个或者多个第二PDSCH处理时长中确定满足传输时延要求的第二PDSCH处理时长,并将对应的AI模型(即第三AI模型)作为UE进行信道估计时所使用的AI模型。由于网络设备找到了合适的AI模型,那么,网络设备可以向UE指示启用(enable)基于AI的信道估计。示例性的,网络设备可以通过高层信令向UE指示启用基于AI的信道估计。或者,网络设备也可以通过向UE指示第三AI模型的方式,向UE指示启用基于AI的信道估计。
在另一些可能的实施方式中,在S702之后,上述方法还可以包括:网络设备网络设备确定第二PDSCH处理时长不满足传输时延;网络设备向UE指示不启用基于AI的信道估计。
应理解的,网络设备在根据第二PDSCH处理能力信息对应的一个或者多个第二PDSCH处理时长之后,确定不存在满足传输时延要求的第二PDSCH处理时长,即确定一个或者多个第二PDSCH处理时长均不满足传输时延,此时,网络设备没有找到合适的AI模型,可以向UE指示不启用(not enable)基于AI的信道估计。示例性的,网络设备可以通过高层信令向UE指示不启用基于AI的信道估计。或者,网络设备也可以通过不向UE指示AI模型的方式,向UE指示不启用基于AI的信道估计。
可选的,响应于网络设备可以通过高层信令向UE指示启用基于AI的信道估计,网络设备还可以向UE指示第三AI模型。例如,网络设备向UE发送第三AI模型;或者,网络设备向UE发送第三AI模型的标识信息,以使得UE可以根据标识信息从通信协议规定的多个AI模型中确定出第三AI模型;再者,网络设备还可以向UE发送第三AI模型的相关参数,以使得UE可以根据相关参数,自行构建出第三AI模型。当然,网络设备还可以采用其他方式向UE指示第三AI模型,本公开实施例对 此不作具体限定。
可选的,UE在获得网络设备指示的第三AI模型后,可以使用第三AI模型进行信道估计。
在一些可能的实施方式中,网络设备在S702之后,可以根据第三AI模型对应的第二PDSCH处理时长,调度传输资源。其中,该传输资源可以用于传输上行信道,如PUCCH。进一步地,UE至少可以在PUCCH上向网络设备发送HARQ的应答信息(如ACK/NACK)。
进一步地,在网络设备向UE指示启用基于AI的信道估计之后,网络设备还可以将第三AI模型对应的第二PDSCH处理时长下发给UE。那么,UE还可以根据第二PDSCH处理时长,确定上述传输资源的时频位置,进而与网络设备在该传输资源上传输PUCCH。
需要说明的是,本公开实施例中是以确定PDSCH的处理时长为例进行说明的。在实际应用中该通信方法也可以适用于通信协议及其演进版本中规定的任意下行信道,如获取PDCCH的处理时长、获取PBCH的处理时长等。具体的确定方法可以参见上述实施例中的具体描述,此处不再赘述。
在本公开实施例中,网络设备通过根据UE的参数(例如以下的至少一种:UE的处理能力、UE的AI能力信息、AI模型的复杂度信息、AI模型的类别信息),确定对应的第一PDSCH处理时长,进一步提高设置第一PDSCH处理时长的准确性和灵活性,满足引入基于AI的信道估计后新的通信场景的需求。
基于相同的发明构思,本公开实施例还提供一种通信方法,可以应用于上述通信系统的UE中。
应理解的,在下述实施例中,以PDSCH作为下行信道的示例对上述通信方法进行说明,但是下行信道不限于PDSCH,还可以为通信协议及其演进版本中规定的任意下行信道,例如PDCCH、PBCH、PSBCH、PSDCH、PSSCH、PSCCH等。针对不同下行信道的通信方法可以参见上述实施例中的具体描述,此处不再赘述。
图8为本公开实施例中的UE侧通信方法的第一种实施流程示意图,参见图8所示,上述方法可以包括:
S801,UE接收网络设备发送的第一PDSCH处理时长。
其中,第一PDSCH处理时长是网络设备根据第一AI模型的处理时长确定的,第一AI模型为UE用于信道估计的神经网络模型;
S802,UE根据第一PDSCH处理时长,向网络设备发送上行控制信息。
应理解的,网络设备根据第一AI模型的处理时长确定第一PDSCH处理时长后,可以将第一PDSCH处理时长发送给UE,UE根据第一PDSCH处理时长,能够确定网络设备为UE配置的传输资源,并在该传输资源上向网络设备发送上行信息,如HARQ的应答信息。
进一步地,UE可以在上述传输资源上传输上行信道,如PUCCH。
在一些可能的实施方式中,在S801之前,上述方法还可以包括:UE向网络设备发送自身的AI能力信息,AI能力信息用于表示UE对AI模型的处理能力,AI能力信息用于网络设备确定第一AI模型。
在一些可能的实施方式中,AI能力信息可以包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间内AI模型的运算次数、AI模型的单次处理时长。
在一些可能的实施方式中,在网络设备向UE指示第一AI模型后,上述方法还可以包括:UE根据网络设备的指示,确定第一AI模型;UE使用第一AI模型进行信道估计。
在一些可能的实施方式中,在网络设备向UE指示启用基于AI的信道估计后,该方法还包括:UE接收网络设备指示启用基于AI的信道估计;UE根据网络设备的指示,执行信道估计。
可选的,网络设备通过下发AI模型向UE指示启用AI的信道估计,此时,UE在收到指示后,可以采用网络设备下发的AI模型进行信道估计。
在一些可能的实施方式中,图9为本公开实施例中的UE侧通信方法的第二种实施流程示意图,参见图9所示,响应于网络设备为UE配置不同的DMRS资源映射方式,上述方法还包括:
S901,UE根据DMRS的配置类别信息,确定对应的第一AI模型。
S902,UE向网络设备发送第一AI模型。
如此,网络设备在S902之后,可以执行S201至S202。应理解的,网络设备在收到UE上报的第一AI模型后,可以根据第一AI模型的处理时长,计算对应的PDSCH处理时长,进而确定是否启用基于AI的信道估计等。
在一些可能的实施方式中,DMRS的配置类别信息用于表示UE在进行基于AI的信道估计时是否使用额外的DMRS符号。
需要说明的时,UE侧S901至S902的实施流程可以参见图4实施例中网络设备侧执行流程的描述,在此不做赘述。
在一些可能的实施方式中,图10公开实施例中的UE侧通信方法的第三种实施流程示意图,参见图10所示,响应于网络设备为UE配置不同的信道估计的粒度,上述方法还包括:
S1001,UE根据网络设备配置的信道估计的粒度,确定对应的第一AI模型;
S1002,UE向网络设备发送第一AI模型。
如此,网络设备在S1002之后,可以执行S201至S202。应理解的,网络设备在收到UE上报的第一AI模型后,可以根据第一AI模型的处理时长,计算对应的PDSCH处理时长,进而确定是否启用基于AI的信道估计等。
需要说明的时,UE侧S1001至S1002的实施流程可以参见图5实施例中网络设备侧执行流程的描述,在此不做赘述。
在一些可能的实施方式中,响应于图6实施例,上述方法还包括:UE根据以下的至少一个参数确定第二PDSCH处理能力信息:AI模型的复杂度信息、AI模型的类别信息、UE的AI能力信息以及UE的第三PDSCH处理能力信息;UE向网络设备发送第二PDSCH处理能力信息,第二PDSCH处理能力信息用于指示网络设备确定第一PDSCH处理时长。
需要说明的是,上述UE侧通信方法的实施流程可以结合图2至图6实施例中对网络设备侧通信方法的描述,在此不做赘述。
需要说明的是,本公开实施例中是以确定PDSCH的处理时长为例进行说明的。在实际应用中该通信方法也可以适用于其他下行信道的处理时长,如获取PDCCH的处理时长、PBCH的处理时长等。具体的确定方法可以参见上述实施例中的具体描述,此处不再赘述。
在本公开实施例中,通过上述方法,考虑到了AI模型、使用AI信道估计时对DMRS资源映射方式或者基于AI的信道估计的粒度对确定下行信道(例如PDSCH)处理时长的影响,提高设置下行信道的处理时长(如第一PDSCH处理时长)的准确性和灵活性,满足引入基于AI的信道估计后新的通信场景的需求。
基于相同的发明构思,本公开实施例还提供一种通信装置,该通信装置可以为通信系统中的网络设备或者网络设备中的芯片或者片上系统,还可以为网络设备中用于实现上述各个实施例的方法的功能模块。该通信装置可以实现上述各实施例中网络设备所执行的功能,这些功能可以通过硬件执行相应的软件实现。这些硬件或软件包括一个或多个上述功能相应的模块。图11为本公开实施例中的第一种通信装置的结构示意图,参见图11所示,该通信装置110包括:第一处理模块111,用于确定第一AI模型的处理时长,第一AI模型为终端设备用于信道估计的神经网络模型;至少根据第一AI模型的处理时长,确定第一AI模型对应的第一PDSCH处理时长。
在一些可能的实施方式中,第一处理模块111,用于根据终端设备的AI能力信息、AI模型的复杂度信息和/或类别信息,确定第一AI模型的处理时长。
在一些可能的实施方式中,第一处理模块111,用于根据第一AI模型的处理时长、子载波间隔、DMRS的配置类别信息以及终端设备的第一PDSCH处理能力信息,确定第一PDSCH处理时长。
在一些可能的实施方式中,仍参见图11所示,上述通信装置110还包括:第一传输模块112,用于接收来自终端设备的AI能力信息,AI能力信息用于表示终端设备对AI模型的处理能力;第一处理模块111,用于根据AI能力信息,确定第一AI模型。
在一些可能的实施方式中,AI能力信息包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间AI模型的内运算次数、AI模型的单次处理时长。
在一些可能的实施方式中,上述通信装置110还包括:第一传输模块112;第一处理模块111,用于确定第一PDSCH处理时长满足传输时延的第二AI模型;第一传输模块112,用于向终端设备指示启用基于AI的信道估计。
在一些可能的实施方式中,第一传输模块112,还用于在第一处理模块111确定第一PDSCH处理时长满足传输时延的第二AI模型之后,向终端设备指示第二AI模型。
在一些可能的实施方式中,第一传输模块112,还用于在第一处理模块111确定第一PDSCH处理时长满足传输时延的第二AI模型之后,据第二AI模型对应的第一PDSCH处理时长,调度传输资源。
在一些可能的实施方式中,上述通信装置110还包括:第一传输模块112;第一处理模块111,用于确定第一PDSCH处理时长不满足传输时延;第一传输模块112,用于向终端设备指示不启用基于AI的信道估计。
在一些可能的实施方式中,第一处理模块111,用于在确定第一AI模型的处理时长之前,根据DMRS的配置类别信息,确定对应的第一AI模型;或,根据为终端设备配置的信道估计的粒度,确定对应的第一AI模型。
在一些可能的实施方式中,上述通信装置110还包括:第一传输模块112,用于在第一处理模块 111确定第一AI模型的处理时长之前,接收终端设备发送的第一AI模型,第一AI模型为终端设备根据DMRS的配置类别信息确定的。
在一些可能的实施方式中,DMRS的配置类别信息用于表示终端设备在进行基于AI的信道估计时是否使用额外的DMRS符号。
需要说明的是,第一处理模块111和第一传输模块112的具体实现过程可参考图2至图6实施例中对网络设备的详细描述,为了说明书的简洁,这里不再赘述。
本公开实施例中提到的第一传输模块112可以为收发接口、收发电路或者收发机等;第一处理模块111可以为一个或者多个处理器。
基于相同的发明构思,本公开实施例还提供一种通信装置,该通信装置可以为通信系统中的网络设备或者网络设备中的芯片或者片上系统,还可以为网络设备中用于实现上述各个实施例的方法的功能模块。该通信装置可以实现上述各实施例中网络设备所执行的功能,这些功能可以通过硬件执行相应的软件实现。这些硬件或软件包括一个或多个上述功能相应的模块。图12为本公开实施例中的第二种通信装置的结构示意图,参见图12所示,该通信装置121包括:第二传输模块121,用于接收来自终端设备的第二PDSCH处理能力信息,第二PDSCH处理能力信息是根据AI模型的复杂度信息和/或AI模型的类别信息、终端设备的AI能力信息以及终端设备的第三PDSCH处理能力信息确定的,第三PDSCH处理能力信息用于表示终端设备在未基于AI进行信道估计时对PDSCH的处理能力;第二处理模块122,用于至少根据第二PDSCH处理能力信息,确定对应的第二PDSCH处理时长。
在一些可能的实施方式中,第二处理模块122,用于根据第二PDSCH处理能力信息、子载波间隔以及DMRS的配置类别信息,确定第二PDSCH处理时长。
在一些可能的实施方式中,第二处理模块122,用于确定第二PDSCH处理时长满足传输时延的第三AI模型;第二传输模块121,用于向终端设备指示启用基于AI的信道估计。
在一些可能的实施方式中,第二传输模块121,用于在第二处理模块122确定第二PDSCH处理时长满足传输时延的第三AI模型之后,向终端设备指示第三AI模型。
在一些可能的实施方式中,第二传输模块121,用于在第二处理模块122确定第二PDSCH处理时长满足传输时延的第三AI模型之后,根据第三AI模型对应的第二PDSCH处理时长,调度传输资源。
在一些可能的实施方式中,第二处理模块122,用于确定第二PDSCH处理时长不满足传输时延;第二传输模块121,用于向终端设备指示不启用基于AI的信道估计。
需要说明的是,第二传输模块121和第二处理模块122的具体实现过程可参考图2至图6实施例中对网络设备的详细描述,为了说明书的简洁,这里不再赘述。
本公开实施例中提到的第二传输模块121可以为收发接口、收发电路或者收发机等;第二处理模块122可以为一个或者多个处理器。
基于相同的发明构思,本公开实施例还提供一种通信装置,该通信装置可以为通信系统中的终端设备或者终端设备中的芯片或者片上系统,还可以为终端设备中用于实现上述各个实施例的方法的功能模块。该通信装置可以实现上述各实施例中终端设备所执行的功能,这些功能可以通过硬件执行相 应的软件实现。这些硬件或软件包括一个或多个上述功能相应的模块。图13为本公开实施例中的第三种通信装置的结构示意图,参见图13所示,该通信装置130包括:第三传输模块131,用于接收网络设备发送的第一PDSCH处理时长;其中,第一PDSCH处理时长是网络设备根据第一AI模型的处理时长确定的,第一AI模型为终端设备用于信道估计的神经网络模型;根据第一PDSCH处理时长,向网络设备发送上行控制信息。
在一些可能的实施方式中,第三传输模块131,用于在接收网络设备发送的第一PDSCH处理时长之前,向网络设备发送自身的AI能力信息,AI能力信息用于表示终端设备对AI模型的处理能力,AI能力信息用于网络设备确定第一AI模型。
在一些可能的实施方式中,AI能力信息包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间内AI模型的运算次数、AI模型的单次处理时长。
在一些可能的实施方式中,仍参见图13所示,上述通信装置130还包括:第三处理模块132,用于:根据网络设备的指示,确定第一AI模型;使用第一AI模型进行信道估计。
在一些可能的实施方式中,上述通信装置130还包括:第三处理模块132;第三传输模块131,用于接收网络设备指示启用基于AI的信道估计;第三处理模块132,用于根据网络设备的指示,执行信道估计。
在一些可能的实施方式中,上述通信装置130还包括:第三处理模块132,用于根据DMRS的配置类别信息,确定对应的第一AI模型;第三传输模块131,用于向网络设备发送第一AI模型。
在一些可能的实施方式中,DMRS的配置类别信息用于表示终端设备在进行基于AI的信道估计时是否使用额外的DMRS符号。
在一些可能的实施方式中,上述通信装置130还包括:第三处理模块132,用于根据网络设备配置的信道估计的粒度,确定对应的第一AI模型;第三传输模块131,用于向网络设备发送第一AI模型。
在一些可能的实施方式中,上述通信装置130还包括:第三处理模块132,用于根据AI模型的复杂度信息和/或AI模型的类别信息、终端设备的AI能力信息以及终端设备的第三PDSCH处理能力信息,确定第二PDSCH处理能力信息;第三传输模块131,用于向网络设备发送第二PDSCH处理能力信息,第二PDSCH处理能力信息用于指示网络设备确定第一PDSCH处理时长。
需要说明的是,第三传输模块131和第三处理模块132的具体实现过程可参考图2至图6实施例中对UE的详细描述,为了说明书的简洁,这里不再赘述。
本公开实施例中提到的第三传输模块131可以为收发接口、收发电路或者收发机等;第三处理模块132可以为一个或者多个处理器。
基于相同的发明构思,本公开实施例提供一种通信设备,该通信设备可以为上述一个或者多个实施例中所述的网络设备或者终端设备。图14为本公开实施例中的一种通信设备的结构示意图,参见图14所示,通信设备140,采用了通用的计算机硬件,包括处理器141、存储器142、总线143、输入设备144和输出设备145。
在一些可能的实施方式中,存储器142可以包括以易失性和/或非易失性存储器形式的计算机存 储媒体,如只读存储器和/或随机存取存储器。存储器142可以存储操作系统、应用程序、其他程序模块、可执行代码、程序数据、用户数据等。
输入设备144可以用于向通信设备输入命令和信息,输入设备144如键盘或指向设备,如鼠标、轨迹球、触摸板、麦克风、操纵杆、游戏垫、卫星电视天线、扫描仪或类似设备。这些输入设备可以通过总线143连接至处理器141。
输出设备145可以用于通信设备输出信息,除了监视器之外,输出设备145还可以为其他外围输出设各,如扬声器和/或打印设备,这些输出设备也可以通过总线143连接到处理器141。
通信设备可以通过天线146连接到网络中,例如连接到局域网(local area network,LAN)。在联网环境下,控制备中存储的计算机执行指令可以存储在远程存储设备中,而不限于在本地存储。
当通信设备中的处理器141执行存储器142中存储的可执行代码或应用程序时,通信设备以执行以上实施例中的终端设备侧或者网络设备侧的通信方法,具体执行过程参见上述实施例,在此不再赘述。
此外,上述存储器142中存储有用于实现图11中的第一处理模块111和第一传输模块112的功能的计算机执行指令。图11中的第一处理模块111和第一传输模块112的功能/实现过程均可以通过图14中的处理器141调用存储器142中存储的计算机执行指令来实现,具体实现过程和功能参考上述相关实施例。
或者,上述存储器142中存储有用于实现图12中的第二传输模块121和第二处理模块122的功能的计算机执行指令。图12中的第二传输模块121和第二处理模块122的功能/实现过程均可以通过图14中的处理器141调用存储器142中存储的计算机执行指令来实现,具体实现过程和功能参考上述相关实施例。
或者,上述存储器142中存储有用于实现图13中的第三传输模块131和第三处理模块132的功能的计算机执行指令。图13中的第三传输模块131和第三处理模块132的功能/实现过程均可以通过图14中的处理器141调用存储器142中存储的计算机执行指令来实现,具体实现过程和功能参考上述相关实施例。
基于相同的发明构思,本公开实施例提供一种终端设备,该终端设备与上述一个或者多个实施例中的终端设备一致。可选的,终端设备可以为移动电话,计算机,数字广播终端设备,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
图15为本公开实施例中的一种终端设备的结构示意图,参见图15所示,终端设备150可以包括以下一个或多个组件:处理组件151、存储器152、电源组件153、多媒体组件154、音频组件155、输入/输出(I/O)的接口156、传感器组件157以及通信组件158。
处理组件151通常控制终端设备150的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件151可以包括一个或多个处理器1511来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件151可以包括一个或多个模块,便于处理组件151和其他组件之间的交互。例如,处理组件151可以包括多媒体模块,以方便多媒体组件154和处理组件151之间的交互。
存储器152被配置为存储各种类型的数据以支持在终端设备150的操作。这些数据的示例包括用于在终端设备150上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器152可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件153为终端设备150的各种组件提供电力。电源组件153可以包括电源管理系统,一个或多个电源,及其他与为终端设备150生成、管理和分配电力相关联的组件。
多媒体组件154包括在终端设备150和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件154包括一个前置摄像头和/或后置摄像头。当终端设备150处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件155被配置为输出和/或输入音频信号。例如,音频组件155包括一个麦克风(MIC),当终端设备150处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器152或经由通信组件158发送。在一些实施例中,音频组件155还包括一个扬声器,用于输出音频信号。
I/O接口156为处理组件151和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件157包括一个或多个传感器,用于为终端设备150提供各个方面的状态评估。例如,传感器组件157可以监听到终端设备150的打开/关闭状态,组件的相对定位,例如组件为终端设备150的显示器和小键盘,传感器组件157还可以检测终端设备150或终端设备150一个组件的位置改变,用户与终端设备150接触的存在或不存在,终端设备150方位或加速/减速和终端设备150的温度变化。传感器组件157可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件157还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件157还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件158被配置为便于终端设备150和其他设备之间有线或无线方式的通信。终端设备150可以接入采用通信标准的无线网络,如Wi-Fi、2G、3G、4G或5G,或它们的组合。在一个示例性实施例中,通信组件158经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件158还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可采用射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,终端设备150可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器 (DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
采用相同的发明构思,本公开实施例提供一种网络设备,该网络设备与上述一个或者多个实施例中的网络设备一致。
图16为本公开实施例中的一种网络设备的结构示意图,参见图16所示,网络设备160可以包括处理组件161,其进一步包括一个或多个处理器,以及由存储器162所代表的存储器资源,用于存储可由处理组件161的执行的指令,例如应用程序。存储器162中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件161被配置为执行指令,以执行上述方法前述应用在所述网络设备的任一方法。
网络设备160还可以包括一个电源组件163被配置为执行网络设备160的电源管理,一个有线或无线网络接口164被配置为将网络设备160连接到网络,和一个输入输出(I/O)接口165。网络设备160可以操作采用存储在存储器162的操作系统,例如Windows Server TM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
基于相同的发明构思,本公开实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有指令;当指令在计算机上运行时,用于执行上述一个或者多个实施例中终端设备侧或者网络设备侧的通信方法。
采用相同的发明构思,本公开实施例还提供一种计算机程序或计算机程序产品,当计算机程序产品在计算机上被执行时,使得计算机实现上述一个或者多个实施例中终端设备侧或者网络设备侧的通信方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本公开旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (56)

  1. 一种通信方法,其特征在于,包括:
    网络设备确定第一人工智能AI模型的处理时长,所述第一AI模型为终端设备用于信道估计的神经网络模型;
    所述网络设备至少根据所述第一AI模型的处理时长,确定所述第一AI模型对应的第一物理下行共享信道PDSCH处理时长。
  2. 根据权利要求1所述的方法,其特征在于,所述网络设备确定第一AI模型的处理时长,包括:
    所述网络设备根据终端设备的AI能力信息、AI模型的复杂度信息和/或类别信息,确定所述第一AI模型的处理时长。
  3. 根据权利要求1所述的方法,其特征在于,所述网络设备至少根据所述第一AI模型的处理时长,确定所述第一AI模型对应的第一PDSCH处理时长,包括:
    所述网络设备根据所述第一AI模型的处理时长、子载波间隔、解调参考信号DMRS的配置类别信息以及所述终端设备的第一PDSCH处理能力信息,确定所述第一PDSCH处理时长。
  4. 根据权利要求1所述的方法,其特征在于,所述方法还包括:
    所述网络设备接收来自所述终端设备的AI能力信息,所述AI能力信息用于表示所述终端设备对AI模型的处理能力;
    所述网络设备根据所述AI能力信息,确定所述第一AI模型。
  5. 根据权利要求4所述的方法,其特征在于,所述AI能力信息包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间内AI模型的运算次数、AI模型的单次处理时长。
  6. 根据权利要求1所述的方法,其特征在于,所述方法还包括:
    所述网络设备确定所述第一PDSCH处理时长满足传输时延的第二AI模型;
    所述网络设备向所述终端设备指示启用基于AI的信道估计。
  7. 根据权利要求6所述的方法,其特征在于,在所述网络设备确定所述第一PDSCH处理时长满足传输时延的第二AI模型之后,所述方法还包括:
    所述网络设备向所述终端设备指示所述第二AI模型。
  8. 根据权利要求6所述的方法,其特征在于,在所述网络设备确定所述第一PDSCH处理时长满足传输时延的第二AI模型之后,所述方法还包括:
    所述网络设备根据所述第二AI模型对应的第一PDSCH处理时长,调度传输资源。
  9. 根据权利要求1所述的方法,其特征在于,所述方法还包括:
    所述网络设备确定所述第一PDSCH处理时长不满足传输时延;
    所述网络设备向所述终端设备指示不启用基于AI的信道估计。
  10. 根据权利要求1所述的方法,其特征在于,在所述网络设备确定第一AI模型的处理时长之前,所述方法还包括:
    所述网络设备根据DMRS的配置类别信息,确定对应的所述第一AI模型;或,
    所述网络设备根据为所述终端设备配置的信道估计的粒度,确定对应的所述第一AI模型。
  11. 根据权利要求1所述的方法,其特征在于,在所述网络设备确定第一AI模型的处理时长之前,所述方法还包括:
    所述网络设备接收所述终端设备发送的所述第一AI模型,所述第一AI模型为所述终端设备根据DMRS的配置类别信息确定的。
  12. 根据权利要求10或11所述的方法,其特征在于,所述DMRS的配置类别信息用于表示所述终端设备在进行基于AI的信道估计时是否使用额外的DMRS符号。
  13. 一种通信方法,其特征在于,包括:
    网络设备接收来自终端设备的第二物理下行共享信道PDSCH处理能力信息,所述第二PDSCH处理能力信息是根据人工智能AI模型的复杂度信息、AI模型的类别信息、所述终端设备的AI能力信息以及所述终端设备的第三PDSCH处理能力信息确定的,所述第三PDSCH处理能力信息用于表示所述终端设备在未基于AI进行信道估计时对PDSCH的处理能力;
    所述网络设备至少根据所述第二PDSCH处理能力信息,确定对应的第二PDSCH处理时长。
  14. 根据权利要求13所述的方法,其特征在于,所述网络设备至少根据所述第二PDSCH处理能力信息,确定对应的第二PDSCH处理时长,包括:
    所述网络设备根据所述第二PDSCH处理能力信息、子载波间隔以及解调参考信号DMRS的配置类别信息,确定所述第二PDSCH处理时长。
  15. 根据权利要求13所述的方法,其特征在于,所述方法还包括:
    所述网络设备确定所述第二PDSCH处理时长满足传输时延的第三AI模型;
    所述网络设备向所述终端设备指示启用基于AI的信道估计。
  16. 根据权利要求15所述的方法,其特征在于,在所述网络设备确定所述第二PDSCH处理时长满足传输时延的第三AI模型之后,所述方法还包括:
    所述网络设备向所述终端设备指示所述第三AI模型。
  17. 根据权利要求13所述的方法,其特征在于,在所述网络设备确定所述第二PDSCH处理时长满足传输时延的第三AI模型之后,所述方法还包括:
    所述网络设备根据所述第三AI模型对应的第二PDSCH处理时长,调度传输资源。
  18. 根据权利要求13所述的方法,其特征在于,所述方法还包括:
    所述网络设备确定所述第二PDSCH处理时长不满足传输时延;
    所述网络设备向所述终端设备指示不启用基于AI的信道估计。
  19. 一种通信方法,其特征在于,包括:
    终端设备接收网络设备发送的第一物理下行共享信道PDSCH处理时长;其中,所述第一PDSCH处理时长是所述网络设备根据第一人工智能AI模型的处理时长确定的,所述第一AI模型为所述终端设备用于信道估计的神经网络模型;
    所述终端设备根据所述第一PDSCH处理时长,向所述网络设备发送上行控制信息。
  20. 根据权利要求19所述的方法,其特征在于,在所述终端设备接收网络设备发送的第一 PDSCH处理时长之前,所述方法还包括:
    所述终端设备向所述网络设备发送自身的AI能力信息,所述AI能力信息用于表示所述终端设备对AI模型的处理能力,所述AI能力信息用于所述网络设备确定所述第一AI模型。
  21. 根据权利要求20所述的方法,其特征在于,所述AI能力信息包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间内AI模型的运算次数、AI模型的单次处理时长。
  22. 根据权利要求20所述的方法,其特征在于,所述方法还包括:
    所述终端设备根据所述网络设备的指示,确定所述第一AI模型;
    所述终端设备使用所述第一AI模型进行信道估计。
  23. 根据权利要求20所述的方法,其特征在于,所述方法还包括:
    所述终端设备接收所述网络设备指示启用基于AI的信道估计;
    所述终端设备根据所述网络设备的指示,执行信道估计。
  24. 根据权利要求19所述的方法,其特征在于,所述方法还包括:
    所述终端设备根据解调参考信号DMRS的配置类别信息,确定对应的所述第一AI模型;
    所述终端设备向所述网络设备发送所述第一AI模型。
  25. 根据权利要求24所述的方法,其特征在于,所述DMRS的配置类别信息用于表示所述终端设备在进行基于AI的信道估计时是否使用额外的DMRS符号。
  26. 根据权利要求19所述的方法,其特征在于,所述方法还包括:
    所述终端设备根据所述网络设备配置的信道估计的粒度,确定对应的所述第一AI模型;
    所述终端设备向所述网络设备发送所述第一AI模型。
  27. 根据权利要求19所述的方法,其特征在于,所述方法还包括:
    所述终端设备根据AI模型的复杂度信息和/或AI模型的类别信息、所述终端设备的AI能力信息以及所述终端设备的第三PDSCH处理能力信息,确定第二PDSCH处理能力信息;
    所述终端设备向所述网络设备发送所述第二PDSCH处理能力信息,所述第二PDSCH处理能力信息用于指示所述网络设备确定所述第一PDSCH处理时长。
  28. 一种通信装置,其特征在于,包括:
    第一处理模块,用于确定第一人工智能AI模型的处理时长,所述第一AI模型为终端设备用于信道估计的神经网络模型;至少根据所述第一AI模型的处理时长,确定所述第一AI模型对应的第一物理下行共享信道PDSCH处理时长。
  29. 根据权利要求28所述的装置,其特征在于,所述第一处理模块,用于根据终端设备的AI能力信息、AI模型的复杂度信息和/或类别信息,确定所述第一AI模型的处理时长。
  30. 根据权利要求29所述的装置,其特征在于,所述第一处理模块,用于根据所述第一AI模型的处理时长、子载波间隔、解调参考信号DMRS的配置类别信息以及所述终端设备的第一PDSCH处理能力信息,确定所述第一PDSCH处理时长。
  31. 根据权利要求28所述的装置,其特征在于,所述装置还包括:第一传输模块;
    所述第一传输模块,用于接收来自所述终端设备的AI能力信息,所述AI能力信息用于表示所述 终端设备对AI模型的处理能力;
    所述第一处理模块,用于根据所述AI能力信息,确定所述第一AI模型。
  32. 根据权利要求31所述的装置,其特征在于,所述AI能力信息包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间AI模型的内运算次数、AI模型的单次处理时长。
  33. 根据权利要求28所述的装置,其特征在于,所述装置还包括:第一传输模块;
    所述第一处理模块,用于确定所述第一PDSCH处理时长满足传输时延的第二AI模型;
    所述第一传输模块,用于向所述终端设备指示启用基于AI的信道估计。
  34. 根据权利要求33所述的装置,其特征在于,所述第一传输模块,还用于在所述第一处理模块确定所述第一PDSCH处理时长满足传输时延的第二AI模型之后,向所述终端设备指示所述第二AI模型。
  35. 根据权利要求33所述的装置,其特征在于,所述第一传输模块,还用于在所述第一处理模块确定所述第一PDSCH处理时长满足传输时延的第二AI模型之后,据所述第二AI模型对应的第一PDSCH处理时长,调度传输资源。
  36. 根据权利要求28所述的装置,其特征在于,所述装置还包括:第一传输模块;
    所述第一处理模块,用于确定所述第一PDSCH处理时长不满足传输时延;
    所述第一传输模块,用于向所述终端设备指示不启用基于AI的信道估计。
  37. 根据权利要求28所述的装置,其特征在于,所述第一处理模块,用于在确定第一AI模型的处理时长之前,根据DMRS的配置类别信息,确定对应的所述第一AI模型;或,根据为所述终端设备配置的信道估计的粒度,确定对应的所述第一AI模型。
  38. 根据权利要求28所述的装置,其特征在于,所述装置还包括:第一传输模块,用于在所述第一处理模块确定第一AI模型的处理时长之前,接收所述终端设备发送的所述第一AI模型,所述第一AI模型为所述终端设备根据DMRS的配置类别信息确定的。
  39. 根据权利要求37或38所述的装置,其特征在于,所述DMRS的配置类别信息用于表示所述终端设备在进行基于AI的信道估计时是否使用额外的DMRS符号。
  40. 一种通信装置,其特征在于,包括:
    第二传输模块,用于接收来自终端设备的第二物理下行共享信道PDSCH处理能力信息,所述第二PDSCH处理能力信息是根据人工智能AI模型的复杂度信息、AI模型的类别信息、所述终端设备的AI能力信息以及所述终端设备的第三PDSCH处理能力信息确定的,所述第三PDSCH处理能力信息用于表示所述终端设备在未基于AI进行信道估计时对PDSCH的处理能力;
    第二处理模块,用于至少根据所述第二PDSCH处理能力信息,确定对应的第二PDSCH处理时长。
  41. 根据权利要求40所述的装置,其特征在于,所述第二处理模块,用于根据所述第二PDSCH处理能力信息、子载波间隔以及解调参考信号DMRS的配置类别信息,确定所述第二PDSCH处理时长。
  42. 根据权利要求40所述的装置,其特征在于,所述第二处理模块,用于确定所述第二PDSCH 处理时长满足传输时延的第三AI模型;
    所述第二传输模块,用于向所述终端设备指示启用基于AI的信道估计。
  43. 根据权利要求42所述的装置,其特征在于,所述第二传输模块,用于在所述第二处理模块确定所述第二PDSCH处理时长满足传输时延的第三AI模型之后,向所述终端设备指示所述第三AI模型。
  44. 根据权利要求43所述的装置,其特征在于,所述第二传输模块,用于在所述第二处理模块确定所述第二PDSCH处理时长满足传输时延的第三AI模型之后,根据所述第三AI模型对应的第二PDSCH处理时长,调度传输资源。
  45. 根据权利要求40所述的装置,其特征在于,所述第二处理模块,用于确定所述第二PDSCH处理时长不满足传输时延;
    所述第二传输模块,用于向所述终端设备指示不启用基于AI的信道估计。
  46. 一种通信装置,其特征在于,包括:
    第三传输模块,用于接收网络设备发送的第一物理下行共享信道PDSCH处理时长;其中,所述第一PDSCH处理时长是所述网络设备根据第一人工智能AI模型的处理时长确定的,所述第一AI模型为所述终端设备用于信道估计的神经网络模型;根据所述第一PDSCH处理时长,向所述网络设备发送上行控制信息。
  47. 根据权利要求46所述的装置,其特征在于,所述第三传输模块,用于在接收网络设备发送的第一PDSCH处理时长之前,向所述网络设备发送自身的AI能力信息,所述AI能力信息用于表示所述终端设备对AI模型的处理能力,所述AI能力信息用于所述网络设备确定所述第一AI模型。
  48. 根据权利要求47所述的装置,其特征在于,所述AI能力信息包括以下至少一个参数:AI模型相对于基线模型的单次处理时长、单位时间内AI模型的运算次数、AI模型的单次处理时长。
  49. 根据权利要求47所述的装置,其特征在于,所述装置还包括:第三处理模块,用于:根据所述网络设备的指示,确定所述第一AI模型;使用所述第一AI模型进行信道估计。
  50. 根据权利要求47所述的装置,其特征在于,所述装置还包括:第三处理模块;
    所述第三传输模块,用于接收所述网络设备指示启用基于AI的信道估计;
    所述第三处理模块,用于根据所述网络设备的指示,执行信道估计。
  51. 根据权利要求46所述的装置,其特征在于,所述装置还包括:第三处理模块;
    所述第三处理模块,用于根据解调参考信号DMRS的配置类别信息,确定对应的所述第一AI模型;
    所述第三传输模块,用于向所述网络设备发送所述第一AI模型。
  52. 根据权利要求51所述的装置,其特征在于,所述DMRS的配置类别信息用于表示所述终端设备在进行基于AI的信道估计时是否使用额外的DMRS符号。
  53. 根据权利要求46所述的装置,其特征在于,所述装置还包括:第三处理模块;
    所述第三处理模块,用于根据所述网络设备配置的信道估计的粒度,确定对应的所述第一AI模型;
    所述第三传输模块,用于向所述网络设备发送所述第一AI模型。
  54. 根据权利要求46所述的装置,其特征在于,所述装置还包括:第三处理模块;
    所述第三处理模块,用于根据AI模型的复杂度信息和/或AI模型的类别信息、所述终端设备的AI能力信息以及所述终端设备的第三PDSCH处理能力信息,确定第二PDSCH处理能力信息;
    所述第三传输模块,用于向所述网络设备发送所述第二PDSCH处理能力信息,所述第二PDSCH处理能力信息用于指示所述网络设备确定所述第一PDSCH处理时长。
  55. 一种通信设备,其特征在于,包括:
    天线;
    存储器;
    处理器,分别与所述天线及存储器连接,被配置为通执行存储在所述存储器上的计算机可执行指令,控制所述天线的收发,并能够实现如权利要求1至18或权利要求19至27任一项所述的通信方法。
  56. 一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可执行指令,其特征在于,所述计算机可执行指令在被处理器执行后,能够实现如权利要求1至18或权利要求19至27任一项所述的通信方法。
PCT/CN2022/083205 2022-03-25 2022-03-25 一种通信方法、通信装置及通信设备 WO2023178706A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280000752.0A CN117136520A (zh) 2022-03-25 2022-03-25 一种通信方法、通信装置及通信设备
PCT/CN2022/083205 WO2023178706A1 (zh) 2022-03-25 2022-03-25 一种通信方法、通信装置及通信设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2022/083205 WO2023178706A1 (zh) 2022-03-25 2022-03-25 一种通信方法、通信装置及通信设备

Publications (1)

Publication Number Publication Date
WO2023178706A1 true WO2023178706A1 (zh) 2023-09-28

Family

ID=88099624

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2022/083205 WO2023178706A1 (zh) 2022-03-25 2022-03-25 一种通信方法、通信装置及通信设备

Country Status (2)

Country Link
CN (1) CN117136520A (zh)
WO (1) WO2023178706A1 (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112399565A (zh) * 2019-08-13 2021-02-23 华为技术有限公司 应用pdsch的处理时长的方法和装置
CN114071484A (zh) * 2020-07-30 2022-02-18 华为技术有限公司 基于人工智能的通信方法和通信装置
WO2022040055A1 (en) * 2020-08-18 2022-02-24 Qualcomm Incorporated Processing timeline considerations for channel state information
US20220095131A1 (en) * 2020-09-03 2022-03-24 Samsung Electronics Co., Ltd. Methods and wireless communication networks for handling data driven model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112399565A (zh) * 2019-08-13 2021-02-23 华为技术有限公司 应用pdsch的处理时长的方法和装置
CN114071484A (zh) * 2020-07-30 2022-02-18 华为技术有限公司 基于人工智能的通信方法和通信装置
WO2022040055A1 (en) * 2020-08-18 2022-02-24 Qualcomm Incorporated Processing timeline considerations for channel state information
US20220095131A1 (en) * 2020-09-03 2022-03-24 Samsung Electronics Co., Ltd. Methods and wireless communication networks for handling data driven model

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
INTERDIGITAL, OPPO: "FS_AMMT – Including device-to-device aspects in the use case for Split Image Recognition", 3GPP DRAFT; S1-204009, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, vol. SA WG1, no. Electronic Meeting; 20201111 - 20201120, 3 November 2020 (2020-11-03), Mobile Competence Centre ; 650, route des Lucioles ; F-06921 Sophia-Antipolis Cedex ; France, XP052453950 *

Also Published As

Publication number Publication date
CN117136520A (zh) 2023-11-28

Similar Documents

Publication Publication Date Title
WO2021159515A1 (zh) 数据传输方法及数据传输装置
WO2018191839A1 (zh) 用于请求系统消息的方法、装置、用户设备及基站
US20220368504A1 (en) Feedback method, feedback device, and storage medium
WO2021163936A1 (zh) 通信处理方法、装置及计算机存储介质
WO2021196214A1 (zh) 传输方法、装置及计算机存储介质
WO2023070562A1 (zh) 传输配置指示状态确定方法、装置及存储介质
US20220394704A1 (en) Feedback method, feedback apparatus and storage medium
WO2022193149A1 (zh) 波束确定方法、波束确定装置及存储介质
WO2020029147A1 (zh) 传输harq反馈信息的方法、装置、基站及终端
WO2021087786A1 (zh) 波束失败请求资源分配方法、装置及存储介质
WO2020258041A1 (zh) 数据传输方法、装置、系统及存储介质
WO2023240573A1 (zh) 信道状态信息的处理方法、装置及通信设备
WO2022152072A1 (zh) 信道信息发送方法、信道信息接收方法及相关设备
WO2022205004A1 (zh) 默认波束的确定方法、装置及通信设备
WO2022257136A1 (zh) 波束失败恢复方法、装置及存储介质
WO2022222144A1 (zh) 混合自动重传请求harq的传输方法、装置及通信设备
WO2019191878A1 (zh) 数据传输方法、装置、系统及存储介质
WO2021142796A1 (zh) 通信处理方法、装置及计算机存储介质
WO2023178706A1 (zh) 一种通信方法、通信装置及通信设备
US20230262691A1 (en) Uplink transmission sending method and apparatus, uplink transmission receiving method and apparatus, communication device, and medium
WO2022120535A1 (zh) 资源确定方法、资源确定装置及存储介质
WO2021087766A1 (zh) 混合自动重传请求应答传输方法及装置、设备及介质
CN115189828A (zh) 传输处理方法、装置及相关设备
WO2021016888A1 (zh) 物理上行控制信道资源确定方法、装置及存储介质
WO2022205003A1 (zh) 默认波束的确定方法、装置及通信设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22932767

Country of ref document: EP

Kind code of ref document: A1