WO2023199437A1 - 端末、無線通信方法及び基地局 - Google Patents

端末、無線通信方法及び基地局 Download PDF

Info

Publication number
WO2023199437A1
WO2023199437A1 PCT/JP2022/017733 JP2022017733W WO2023199437A1 WO 2023199437 A1 WO2023199437 A1 WO 2023199437A1 JP 2022017733 W JP2022017733 W JP 2022017733W WO 2023199437 A1 WO2023199437 A1 WO 2023199437A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
information
training
present disclosure
base station
Prior art date
Application number
PCT/JP2022/017733
Other languages
English (en)
French (fr)
Inventor
春陽 越後
浩樹 原田
ヤジュオ グァン
一成 中村
リュー リュー
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Priority to PCT/JP2022/017733 priority Critical patent/WO2023199437A1/ja
Publication of WO2023199437A1 publication Critical patent/WO2023199437A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present disclosure relates to a terminal, a wireless communication method, and a base station in a next-generation mobile communication system.
  • LTE Long Term Evolution
  • 3GPP Rel. 10-14 LTE-Advanced (3GPP Rel. 10-14) has been specified for the purpose of further increasing capacity and sophistication of LTE (Third Generation Partnership Project (3GPP) Releases (Rel.) 8 and 9).
  • LTE Long Term Evolution
  • 5G 5th generation mobile communication system
  • 5G+ plus
  • NR New Radio
  • E-UTRA Evolved Universal Terrestrial Radio Access
  • E-UTRAN Evolved Universal Terrestrial Radio Access Network
  • AI artificial intelligence
  • ML machine learning
  • AI model training/model inference at a terminal can be appropriately controlled.
  • UE user equipment
  • the specific details of the control have not yet been studied. If this control is not appropriately defined, appropriate overhead reduction/highly accurate channel estimation/highly efficient resource utilization cannot be achieved, and there is a risk that improvement in communication throughput/communication quality may be suppressed.
  • one of the purposes of the present disclosure is to provide a terminal, a wireless communication method, and a base station that can realize suitable overhead reduction/channel estimation/resource utilization.
  • a terminal includes a receiving unit that receives student model information regarding a student model in knowledge distillation, and a transmitting unit that transmits information regarding an output based on the student model information.
  • suitable overhead reduction/channel estimation/resource utilization can be achieved.
  • FIG. 1 is a diagram illustrating an example of an AI model management framework.
  • FIG. 2 is a diagram showing an example of an AI model.
  • FIG. 3 is a diagram illustrating an example of specifying an AI model according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of updating the AI model according to the first embodiment.
  • FIG. 5 is a diagram showing an example of fine tuning.
  • FIG. 6 is a diagram illustrating an example of transfer learning.
  • FIG. 7 is a diagram illustrating an example of updating the AI model according to the first embodiment.
  • FIG. 8 is a diagram illustrating an example of specifying an AI model according to the second embodiment.
  • FIG. 9 is a diagram illustrating an example of updating the AI model according to the second embodiment.
  • FIG. 1 is a diagram illustrating an example of an AI model management framework.
  • FIG. 2 is a diagram showing an example of an AI model.
  • FIG. 3 is a diagram illustrating an example of specifying an AI model according to the first embodiment.
  • FIG. 10 is a diagram illustrating an example of updating the AI model according to the second embodiment.
  • FIG. 11 is a diagram illustrating an example of specifying an AI model according to the third embodiment.
  • FIG. 12 is a diagram illustrating an example of specifying an AI model according to the third embodiment.
  • 13A-13B are diagrams illustrating an example of UE training AI model information according to the third embodiment.
  • 14A-14B are diagrams illustrating an example of UE training AI model information according to the third embodiment.
  • FIG. 15 is a diagram illustrating an example of exchange of AI model information regarding federated learning.
  • 16A to 16C are diagrams showing examples of updated AI model information.
  • 17A and 17B are diagrams illustrating an example of learning using knowledge distillation.
  • FIG. 18 is a diagram illustrating an example of a schematic configuration of a wireless communication system according to an embodiment.
  • FIG. 19 is a diagram illustrating an example of the configuration of a base station according to an embodiment.
  • FIG. 20 is a diagram illustrating an example of the configuration of a user terminal according to an embodiment.
  • FIG. 21 is a diagram illustrating an example of the hardware configuration of a base station and a user terminal according to an embodiment.
  • FIG. 22 is a diagram illustrating an example of a vehicle according to an embodiment.
  • AI Artificial Intelligence
  • ML machine learning
  • improved Channel State Information Reference Signal e.g., reduced overhead, improved accuracy, prediction
  • improved beam management e.g., improved accuracy, time
  • positioning e.g., position estimation/prediction in the spatial domain
  • position measurement e.g., position estimation/prediction
  • FIG. 1 is a diagram illustrating an example of an AI model management framework.
  • each stage related to the AI model is shown as a block.
  • This example is also expressed as AI model life cycle management.
  • the data collection stage corresponds to the stage of collecting data for generating/updating an AI model.
  • the data collection stage includes data reduction (e.g., deciding which data to transfer for model training/model inference), data transfer (e.g., to entities performing model training/model inference (e.g., UE, gNB)), and transfer data).
  • model training is performed based on the data (training data) transferred from the collection stage.
  • This stage includes data preparation (e.g., performing data preprocessing, cleaning, formatting, transformation, etc.), model training/validation, and model testing (e.g., ensuring that the trained model meets performance thresholds).
  • model exchange e.g., transferring a model for distributed learning
  • model deployment/updating deploying/updating a model to entities performing model inference
  • model inference is performed based on the data (inference data) transferred from the collection stage.
  • This stage includes data preparation (e.g., performing data preprocessing, cleaning, formatting, transformation, etc.), model inference, model performance feedback (feeding back model performance to the entity training the model), and output (feeding back model performance to the actor). (Providing the output of the model).
  • the actor stage includes action triggers (e.g., deciding whether to trigger an action on other entities), feedback (e.g., feeding back information necessary for training data/inference data/performance feedback), etc. May include.
  • action triggers e.g., deciding whether to trigger an action on other entities
  • feedback e.g., feeding back information necessary for training data/inference data/performance feedback
  • training of a model for mobility optimization may be performed, for example, in Operation, Administration and Maintenance (Management)/gNodeB (gNB) in a network (NW).
  • Management Administration and Maintenance
  • gNB gNodeB
  • NW network
  • the former has advantages in interoperability, large storage capacity, operator manageability, and model flexibility (e.g., feature engineering).
  • model flexibility e.g., feature engineering
  • the advantage is that there is no need for model update latency or data exchange for model development.
  • Inference of the above model may be performed in the gNB, for example.
  • the entity that performs training/inference may be different.
  • the OAM/gNB may perform model training and the gNB may perform model inference.
  • a Location Management Function may perform model training, and the LMF may perform model inference.
  • the OAM/gNB/UE may perform model training and the gNB/UE (jointly) may perform model inference.
  • the OAM/gNB/UE may perform model training and the UE may perform model inference.
  • AI model training can be performed in the UE. This is because the UE may be able to directly obtain data that cannot be directly used by the gNB/OAM. For example, model training of an autoencoder for CSI feedback requires complete downlink CSI information (or channel information), but only the UE can directly obtain this information.
  • the UE needs to transmit complete downlink CSI information (or channel information), but the communication overhead is large.
  • the UE needs to maintain complete downlink CSI information (or channel information), but the UE's storage/computation resources are scarce compared to gNB/OAM. .
  • the present inventors conceived of a suitable control method for model training/model inference. Note that each embodiment of the present disclosure may be applied when AI/prediction is not used.
  • a terminal User Equipment (UE)
  • BS Base Station
  • UE User Equipment
  • BS Base Station
  • UE User Equipment
  • inference mode the accuracy of the trained ML model trained in the training mode may be verified.
  • the UE/BS inputs channel state information, reference signal measurements, etc. to the ML model to obtain highly accurate channel state information/measurements/beam selection/position, future channel state information, etc. /Wireless link quality, etc. may be output.
  • AI may be read as an object (also referred to as a target, object, data, function, program, etc.) that has (implements) at least one of the following characteristics: ⁇ Estimation based on observed or collected information; - Selection based on observed or collected information; - Predictions based on observed or collected information.
  • an object may be, for example, an apparatus, a device, such as a terminal or a base station. Furthermore, in the present disclosure, an object may correspond to a program/model/entity that operates on the device.
  • the ML model may be replaced by an object that has (implements) at least one of the following characteristics: ⁇ Produce estimates by feeding information, ⁇ Predict the estimated value by giving information, ⁇ Discover characteristics by providing information, ⁇ Select an action by providing information.
  • ML model, model, AI model, predictive analytics, predictive analysis model, etc. may be read interchangeably.
  • the ML model may be derived using at least one of regression analysis (eg, linear regression analysis, multiple regression analysis, logistic regression analysis), support vector machine, random forest, neural network, deep learning, and the like.
  • regression analysis eg, linear regression analysis, multiple regression analysis, logistic regression analysis
  • support vector machine random forest, neural network, deep learning, and the like.
  • a model may be interpreted as at least one of an encoder, a decoder, a tool, etc.
  • the ML model Based on the input information, the ML model outputs at least one information such as an estimated value, a predicted value, a selected action, a classification, etc.
  • the ML model may include supervised learning, unsupervised learning, reinforcement learning, and the like.
  • Supervised learning may be used to learn general rules that map inputs to outputs.
  • Unsupervised learning may be used to learn features of the data.
  • Reinforcement learning may be used to learn actions to maximize a goal.
  • generation, calculation, derivation, etc. may be read interchangeably.
  • implementation, operation, operation, execution, etc. may be read interchangeably.
  • training, learning, updating, retraining, etc. may be read interchangeably.
  • inference, after-training, production use, actual use, etc. may be read interchangeably.
  • Signal may be interchanged with signal/channel.
  • the training mode may correspond to a mode in which the UE/BS transmits/receives signals for the ML model (in other words, an operation mode during the training period).
  • the inference mode may correspond to a mode in which the UE/BS implements an ML model (e.g., implements a trained ML model to predict an output) (in other words, an operating mode during the inference period). good.
  • the training mode may mean a mode in which a specific signal transmitted in the inference mode has a large overhead (for example, a large amount of resources).
  • training mode may mean a mode that refers to a first configuration (for example, a first DMRS configuration, a first CSI-RS configuration, a first CSI reporting configuration).
  • inference mode refers to a mode that refers to a second configuration different from the first configuration (e.g., second DMRS configuration, second CSI-RS configuration, second CSI reporting configuration). You may.
  • the first setting at least one of measurement-related time resources, frequency resources, code resources, and ports (antenna ports) may be set more than in the second setting.
  • the CSI report settings may include settings related to an autoencoder.
  • the relevant entities are the UE and the BS, but the application of each embodiment of the present disclosure is not limited to this.
  • the UE and BS in the embodiment below may be replaced with a first UE and a second UE.
  • the UE, BS, etc. of the present disclosure may be replaced with any UE/BS.
  • A/B and “at least one of A and B” may be read interchangeably. Furthermore, in the present disclosure, “A/B/C” may mean “at least one of A, B, and C.”
  • Radio Resource Control RRC
  • RRC parameters RRC parameters
  • RRC messages upper layer parameters, fields, Information Elements (IEs), settings, etc.
  • IEs Information Elements
  • CE Medium Access Control Element
  • update command activation/deactivation command, etc.
  • the upper layer signaling may be, for example, Radio Resource Control (RRC) signaling, Medium Access Control (MAC) signaling, broadcast information, etc., or a combination thereof.
  • RRC Radio Resource Control
  • MAC Medium Access Control
  • MAC signaling may use, for example, a MAC Control Element (MAC CE), a MAC Protocol Data Unit (PDU), or the like.
  • Broadcast information includes, for example, a master information block (MIB), a system information block (SIB), a minimum system information (RMSI), and other system information ( Other System Information (OSI)) may also be used.
  • MIB master information block
  • SIB system information block
  • RMSI minimum system information
  • OSI Other System Information
  • the physical layer signaling may be, for example, downlink control information (DCI), uplink control information (UCI), etc.
  • DCI downlink control information
  • UCI uplink control information
  • an index an identifier (ID), an indicator, a resource ID, etc.
  • ID an identifier
  • indicator an indicator
  • resource ID a resource ID
  • sequences, lists, sets, groups, groups, clusters, subsets, etc. may be used interchangeably.
  • a panel, a UE panel, a panel group, a beam, a beam group, a precoder, an uplink (UL) transmitting entity, a transmission/reception point (TRP), a base station, and a spatial relation information (SRI) are described.
  • SRS resource indicator SRI
  • control resource set CONtrol REsource SET (CORESET)
  • Physical Downlink Shared Channel PDSCH
  • codeword CW
  • Transport Block Transport Block
  • TB transport Block
  • RS reference signal
  • antenna port e.g. demodulation reference signal (DMRS) port
  • antenna port group e.g.
  • DMRS port group groups (e.g., spatial relationship groups, Code Division Multiplexing (CDM) groups, reference signal groups, CORESET groups, Physical Uplink Control Channel (PUCCH) groups, PUCCH resource groups), resources (e.g., reference signal resources, SRS resource), resource set (for example, reference signal resource set), CORESET pool, downlink Transmission Configuration Indication state (TCI state) (DL TCI state), uplink TCI state (UL TCI state), unified TCI Unified TCI state, common TCI state, quasi-co-location (QCL), QCL assumption, etc. may be read interchangeably.
  • groups e.g., spatial relationship groups, Code Division Multiplexing (CDM) groups, reference signal groups, CORESET groups, Physical Uplink Control Channel (PUCCH) groups, PUCCH resource groups
  • resources e.g., reference signal resources, SRS resource
  • resource set for example, reference signal resource set
  • CORESET pool downlink Transmission Configuration Indication state (TCI state) (DL TCI state), up
  • CSI-RS Non Zero Power (NZP) CSI-RS, Zero Power (ZP) CSI-RS, and CSI Interference Measurement (CSI-IM) are: They may be read interchangeably. Additionally, the CSI-RS may include other reference signals.
  • NZP Non Zero Power
  • ZP Zero Power
  • CSI-IM CSI Interference Measurement
  • RS to be measured/reported may mean RS to be measured/reported for CSI reporting.
  • timing, time, time, slot, subslot, symbol, subframe, etc. may be read interchangeably.
  • direction, axis, dimension, domain, polarization, polarization component, etc. may be read interchangeably.
  • the RS may be, for example, a CSI-RS, an SS/PBCH block (SS block (SSB)), or the like.
  • the RS index may be a CSI-RS resource indicator (CSI-RS resource indicator (CRI)), an SS/PBCH block resource indicator (SS/PBCH block indicator (SSBRI)), or the like.
  • estimation, prediction, and inference may be used interchangeably.
  • estimate the terms “estimate,” “predict,” and “infer” may be used interchangeably.
  • autoencoder, encoder, decoder, etc. may be replaced with at least one of a model, ML model, neural network model, AI model, AI algorithm, etc. Further, the autoencoder may be interchanged with any autoencoder such as a stacked autoencoder or a convolutional autoencoder.
  • the encoder/decoder of the present disclosure may adopt models such as Residual Network (ResNet), DenseNet, RefineNet, etc.
  • encoder encoding, encoding, modification/change/control by encoder, etc.
  • decoder decoding, decoding, modification/change/control by decoder, etc.
  • channel measurement/estimation includes, for example, a channel state information reference signal (CSI-RS), a synchronization signal (SS), a synchronization signal/broadcast channel (Synchronization Signal/Physical It may be performed using at least one of a Broadcast Channel (SS/PBCH) block, a demodulation reference signal (DMRS), a measurement reference signal (Sounding Reference Signal (SRS)), and the like.
  • CSI-RS channel state information reference signal
  • SS synchronization signal
  • SS/PBCH Broadcast Channel
  • DMRS demodulation reference signal
  • SRS Sounding Reference Signal
  • CSI includes a channel quality indicator (CQI), a precoding matrix indicator (PMI), and a CSI-RS resource indicator (CRI).
  • CQI channel quality indicator
  • PMI precoding matrix indicator
  • CRI CSI-RS resource indicator
  • SSBRI SS/PBCH Block Resource Indicator
  • LI Layer Indicator
  • RI Rank Indicator
  • L1-RSRP Reference in Layer 1 Signal received power (Layer 1 Reference Signal Received Power), L1-RSRQ (Reference Signal Received Quality), L1-SINR (Signal to Interference plus Noise Ratio), L1-SNR (Signal to Noise Ratio) ) etc.
  • L1-RSRP Reference in Layer 1 Signal received power
  • L1-RSRQ Reference Signal Received Quality
  • L1-SINR Signal Received Quality
  • L1-SNR Synignal to Noise Ratio
  • UCI UCI
  • CSI report CSI feedback
  • feedback information feedback bit, etc.
  • bits, bit strings, bit sequences, sequences, values, information, values obtained from bits, information obtained from bits, etc. may be interchanged.
  • layers for encoders may be interchanged with layers (input layer, intermediate layer, etc.) used in the AI model.
  • the layers of the present disclosure include an input layer, an intermediate layer, an output layer, a batch normalization layer, a convolution layer, an activation layer, a dense layer, a normalization layer, a pooling layer, an attention layer, a dropout layer, It may correspond to at least one of the fully connected layers.
  • AI model information may mean information including at least one of the following: ⁇ AI model input/output information, ⁇ Pre-processing/post-processing information for AI model input/output, ⁇ Information on AI model parameters, ⁇ Training information for AI models (training information), ⁇ Inference information for AI models, ⁇ Performance information regarding AI models.
  • the input/output information of the AI model may include information regarding at least one of the following: - Contents of input/output data (e.g. RSRP, SINR, amplitude/phase information in channel matrix (or precoding matrix), information on angle of arrival (AoA), angle of departure (AoD)) ), location information), - type of input/output data (e.g. immutable value, floating point number), - Quantization interval (quantization step size) of input/output data (for example, 1 dBm for L1-RSRP), - The range that input/output data can take (for example, [0, 1]).
  • - Contents of input/output data e.g. RSRP, SINR, amplitude/phase information in channel matrix (or precoding matrix), information on angle of arrival (AoA), angle of departure (AoD))
  • location information e.g. immutable value, floating point number
  • Quantization interval (quantization step size) of input/output data for example
  • the information regarding AoA may include information regarding at least one of the azimuth angle of arrival and the zenith angle of arrival (ZoA). Further, the information regarding the AoD may include, for example, information regarding at least one of a radial azimuth angle of departure and a radial zenith angle of depth (ZoD).
  • the location information may be location information regarding the UE/NW.
  • Location information includes information (e.g., latitude, longitude, altitude) obtained using a positioning system (e.g., Global Navigation Satellite System (GNSS), Global Positioning System (GPS), etc.), and information (e.g., latitude, longitude, altitude) adjacent to the UE.
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • Information on the base station serving (or serving) e.g.
  • the base station/cell identifier ID
  • BS-UE distance e.g., X/Y/Z axis coordinates, etc.
  • IP Internet Protocol
  • the location information of the UE is not limited to information based on the location of the BS, but may be information based on a specific point.
  • the location information may include information regarding its own implementation (for example, location/position/orientation of antennas, location/orientation of antenna panels, number of antennas, number of antenna panels, etc.).
  • the location information may include mobility information.
  • the mobility information may include information indicating at least one of the mobility type, the moving speed of the UE, the acceleration of the UE, the moving direction of the UE, and the like.
  • the mobility types are fixed location UE, movable/moving UE, no mobility UE, low mobility UE, and medium mobility UE.
  • the pre-processing/post-processing information for the input/output of the AI model may include information regarding at least one of the following: - whether to apply normalization (e.g., Z-score normalization, min-max normalization); - Parameters for normalization (e.g. mean/variance for Z-score normalization, minimum/maximum for min-max normalization), - Whether to apply a specific numerical conversion method (e.g. one hot encoding, label encoding, etc.); - Selection rules for whether or not to be used as training data.
  • normalization e.g., Z-score normalization, min-max normalization
  • Parameters for normalization e.g. mean/variance for Z-score normalization, minimum/maximum for min-max normalization
  • a specific numerical conversion method e.g. one hot encoding, label encoding, etc.
  • Selection rules for whether or not to be used as training data.
  • the information on the parameters of the AI model may include information regarding at least one of the following: ⁇ Weight (e.g. neuron coefficient (coupling coefficient)) information in the AI model, ⁇ Structure of the AI model, ⁇ Type of AI model as model component (e.g. ResNet, DenseNet, RefineNet, Transformer model, CRBlock, Recurrent Neural Network (RNN), Long Short Memory -Term Memory (LSTM)), Gated Recurrent Unit (GRU)), - Functions of the AI model as a model component (e.g. decoder, encoder).
  • ⁇ Weight e.g. neuron coefficient (coupling coefficient)
  • ⁇ Structure of the AI model e.g. ResNet, DenseNet, RefineNet, Transformer model, CRBlock, Recurrent Neural Network (RNN), Long Short Memory -Term Memory (LSTM)), Gated Recurrent Unit (GRU)
  • - Functions of the AI model as a model component e.g. decoder, encode
  • the weight information in the AI model may include information regarding at least one of the following: ⁇ Bit width (size) of weight information, ⁇ Quantization interval of weight information, ⁇ The range that weight information can take, ⁇ Weight parameters in the AI model, ⁇ Difference information from the AI model before update (if updating), ⁇ Weight initialization methods (e.g. zero initialization, random initialization (based on normal distribution/uniform distribution/truncated normal distribution), Xavier initialization (for sigmoid functions), He initialization (rectified) For Rectified Linear Units (ReLU)).
  • ⁇ Bit width (size) of weight information e.g. zero initialization, random initialization (based on normal distribution/uniform distribution/truncated normal distribution), Xavier initialization (for sigmoid functions), He initialization (rectified) For Rectified Linear Units (ReLU)).
  • the structure of the AI model may include information regarding at least one of the following: ⁇ Number of layers, - Type of layer (e.g. convolution layer, activation layer, dense layer, normalization layer, pooling layer, attention layer), ⁇ Layer information, - Time series specific parameters (e.g. bidirectionality, time step), - Parameters for training (e.g. type of function (L2 regularization, dropout function, etc.), where to put this function (e.g. after which layer)).
  • ⁇ Number of layers e.g. convolution layer, activation layer, dense layer, normalization layer, pooling layer, attention layer
  • ⁇ Layer information e.g. bidirectionality, time step
  • Parameters for training e.g. type of function (L2 regularization, dropout function, etc.), where to put this function (e.g. after which layer)).
  • the layer information may include information regarding at least one of the following: ⁇ Number of neurons in each layer, ⁇ Kernel size, ⁇ Stride for pooling layer/convolution layer, ⁇ Pooling method (MaxPooling, AveragePooling, etc.), ⁇ Residual block information, ⁇ Number of heads, ⁇ Normalization methods (batch normalization, instance normalization, layer normalization, etc.), - Activation function (sigmoid, tanh function, ReLU, leaky ReLU information, Maxout, Softmax).
  • FIG. 2 is a diagram showing an example of an AI model.
  • This example shows an AI model that includes ResNet as model component #1, a transformer model as model component #2, a dense layer, and a normalization layer.
  • ResNet as model component #1
  • transformer model as model component #2
  • dense layer a dense layer
  • normalization layer a normalization layer
  • one AI model may be included as a component of another AI model.
  • FIG. 2 may be an AI model in which processing proceeds in order from left to right.
  • the training information for the AI model may include information regarding at least one of the following: ⁇ Information for the optimization algorithm (e.g., optimization type (Stochastic Gradient Descent (SGD), AdaGrad, Adam, etc.), optimization parameters (learning rate, momentum, etc.) information, etc.), - Information on the loss function (for example, information on the metrics of the loss function (Mean Absolute Error (MAE), Mean Square Error (MSE)), Cross Entropy Loss, NLLLoss, KL Divergence Such)), parameters to be frozen for training (e.g. layers, weights), - parameters to be updated (e.g.
  • optimization type Stochastic Gradient Descent (SGD), AdaGrad, Adam, etc.
  • optimization parameters learning rate, momentum, etc.
  • - Information on the loss function for example, information on the metrics of the loss function (Mean Absolute Error (MAE), Mean Square Error (MSE)), Cross Entropy Loss, NLLLos
  • ⁇ Parameters for example, layers, weights
  • How to train/update the AI model e.g. (recommended) number of epochs, batch size, number of data used for training.
  • the inference information for the AI model may include information regarding branch pruning of a decision tree, parameter quantization, etc.
  • the performance information regarding the AI model may include information regarding the expected value of a loss function defined for the AI model.
  • AI model information regarding a specific AI model may be predefined in a standard, or may be notified to the UE from a network (NW).
  • the AI model defined in the standard may be called a reference AI model.
  • AI model information regarding the reference AI model may be referred to as reference AI model information.
  • the AI model information in the present disclosure may include an index (for example, may be called an AI model index) for identifying the AI model.
  • the AI model information in the present disclosure may include an AI model index in addition to/instead of the input/output information of the AI model described above.
  • the association between the AI model index and the AI model information (for example, input/output information of the AI model) may be predetermined in the standard, or may be notified from the NW to the UE.
  • the first embodiment relates to controlling the use of a reference AI model.
  • the UE may receive reference AI model information from the NW.
  • the UE may deploy (may make available or deploy) the reference AI model based on the received reference AI model information.
  • FIG. 3 is a diagram illustrating an example of specifying an AI model according to the first embodiment.
  • AI models #1 to #3 are defined in the standard.
  • the UE that has received AI model information indicating AI model #3 from the NW may deploy AI model #3.
  • the UE may use the reference AI model based on the received reference AI model information (for example, specified by the received reference AI model information) as is for inference.
  • the UE may train a reference AI model based on the received reference AI model information.
  • training/updating of the AI model in the UE may be performed based on a data set (for example, data obtained from measurement results) possessed by the UE.
  • FIG. 4 is a diagram illustrating an example of updating the AI model according to the first embodiment.
  • AI models #1-#2 are defined in the standard.
  • the UE that has received AI model information indicating AI model #2 from the NW may deploy AI model #2. Further, the UE may update the AI model #2.
  • FIG. 5 is a diagram showing an example of fine tuning.
  • FIG. 6 is a diagram illustrating an example of transfer learning.
  • the entity that performs training uses the parameters of the trained AI model in the source domain as the initial parameters (pre-training AI model) of the AI model in the target domain. , derive a trained AI model in the target domain. That is, all the layers of the trained AI model in the source domain may be transferred to all the layers of the AI model in the target domain, and some may be used as is without being updated (even if they are fixed (frozen)). good).
  • transfer learning (which may also be called network-based deep transfer learning)
  • an entity performing training reuses some trained layers in the source domain as layers in the target domain. Make use of it.
  • These layers in the figure, the front (left part) layer
  • the remaining layers in the target domain may have no corresponding layers in the source domain and may be newly trained (or fine-tuned) in the target domain.
  • the UE does not need to update parameters (e.g., layers, weights) that should be frozen for training that are obtained from reference AI model information during training.
  • the UE may update parameters to be updated (fine-tuned) obtained from reference AI model information during training.
  • the UE may perform training using parameters that should be initial parameters for training (should be used as initial parameters) obtained from reference AI model information.
  • FIG. 7 is a diagram showing an example of updating the AI model according to the first embodiment.
  • the UE is instructed by the NW to update reference AI model #2.
  • the instructions include information indicating that the first three layers should be frozen and the last two layers should be fine-tuned.
  • the UE may derive an updated AI model #2 in which the first three layers of the reference AI model #2 are frozen and the last two layers are fine-tuned.
  • the reference AI model can be appropriately used in the UE.
  • the second embodiment relates to controlling the use of an AI model trained by a NW (hereinafter also referred to as an NW-trained AI model).
  • the NW may train a reference AI model.
  • the NW may send AI model information regarding the trained reference AI model (in other words, the NW training AI model) to the UE.
  • the AI model information may be called NW training AI model information.
  • the UE may receive reference AI model information, which is the basis of the NW training AI model information, from the NW. Additionally, the UE may receive NW training AI model information from the NW.
  • the NW training AI model information may include any or a combination of the following information instead of or in addition to the AI model information already described: ⁇ (Index of) the reference AI model that was the basis of the NW training AI model, - Information on the difference between the NW training AI model and the reference AI model.
  • the UE may deploy (may make available or deploy) the NW training AI model based on the received NW training AI model information.
  • FIG. 8 is a diagram showing an example of specifying an AI model according to the second embodiment.
  • reference AI models #1-#2 are defined in the standard. NW trains reference AI model #2 and derives NW training AI model #2.
  • the NW notifies the UE of AI model information indicating the reference AI model #2, and also notifies the information of the NW training AI model #2 (for example, updated difference information).
  • the UE that has received these can determine the NW training AI model #2 by considering the updated difference information regarding the reference AI model #2.
  • the UE may use the NW training AI model based on the received NW training AI model information for inference as is.
  • the UE may train the NW training AI model based on the received NW training AI model information.
  • FIG. 9 is a diagram illustrating an example of updating the AI model according to the second embodiment.
  • the UE similarly to FIG. 8, it is assumed that the UE has determined NW training AI model #2.
  • the UE may further update the NW training AI model #2.
  • the UE may update the same layers (the first three layers shown) as the original reference AI model #2 in the NW training AI model #2 based on the data set it has.
  • the UE does not need to update parameters (e.g., layers, weights) that should be frozen for training that are obtained from the NW training AI model information during training.
  • the UE may update the parameters to be updated obtained from the NW training AI model information during training.
  • the UE may perform training using parameters that should be initial parameters for training (should be used as initial parameters) obtained from the NW training AI model information.
  • FIG. 10 is a diagram illustrating an example of updating the AI model according to the second embodiment.
  • the UE is instructed by the NW to update the NW training AI model #2.
  • the instructions include information indicating that the first three layers should be frozen and the last two layers should be fine-tuned.
  • the UE may derive an updated AI model #2 in which the first three layers of the NW training AI model #2 are frozen and the last two layers are fine-tuned.
  • the NW training AI model can be appropriately used in the UE.
  • the third embodiment relates to controlling the use of an AI model trained by the UE (hereinafter also referred to as UE-trained AI model).
  • the UE may derive the UE training AI model by training the reference AI model/NW training AI model.
  • the UE transmits AI model information regarding the UE training AI model (hereinafter also referred to as UE training AI model information) through physical layer signaling (e.g., UCI), upper layer signaling (e.g., RRC signaling, MAC CE), specific signal/ It may be transmitted to the NW using a channel or a combination thereof.
  • the UE training AI model information may include any or a combination of the following information instead of or in addition to the AI model information already mentioned: ⁇ Reference AI model/NW training AI model (index of) that was the basis of the UE training AI model, - Information on the difference of the UE training AI model from the reference AI model/NW training AI model.
  • FIG. 11 is a diagram illustrating an example of specifying an AI model according to the third embodiment.
  • the UE has derived a UE training AI model.
  • the UE transmits UE training AI model information (which may include performance information of the AI model) to the NW.
  • the NW may apply the UE training AI model indicated by the information.
  • FIG. 12 is a diagram illustrating an example of specifying an AI model according to the third embodiment.
  • the UE derives a UE training AI model from some reference AI model. The differences between these models are some of the layers colored in the diagram.
  • the UE transmits UE training AI model information to the NW.
  • the information may include information on the reference AI model, information on the difference, and (performance information on the AI model).
  • the NW can determine a UE training AI model by considering the updated difference information regarding the reference AI model indicated by the information.
  • the UE may report information regarding which weights/layers are updated (e.g. in the UE training AI model information).
  • FIGS. 13A-13B and 14A-14B are diagrams showing examples of UE training AI model information according to the third embodiment.
  • the UE trains an autoencoder (encoder/decoder) and optionally reports UE training AI model information about the decoder to the NW.
  • FIG. 13A corresponds to the case where the UE does not train an AI model, and since both the encoder and decoder have not been updated, UE training AI model information is not transmitted to the NW.
  • FIG. 13B corresponds to the case where only the encoder is updated.
  • the UE does not need to include decoder information in the UE training AI model information, the UE may include and transmit information regarding the estimated performance of the updated model, for example.
  • the case of FIG. 13B can be used when a change in the statistical properties of the input can be adequately dealt with simply by modifying the encoder.
  • FIG. 14A corresponds to the case where the encoder and part of the decoder are updated.
  • the UE may transmit the UE training AI model information by including decoder information (updated part information), for example, including information regarding the estimated performance of the updated model.
  • decoder information updated part information
  • the case of FIG. 14A may be used when relatively small modifications of the decoder are sufficient to respond to changes in the statistical properties of the input.
  • FIG. 14B corresponds to the case where all the encoders and decoders are updated.
  • the UE may include decoder information in the UE training AI model information, for example, information regarding the estimated performance of the updated model, a reference model report, etc., and transmit the information.
  • the case of FIG. 14B may be used when a relatively large modification of the decoder is required in response to changes in the statistical properties of the input.
  • the UE reports in FIG. 13B when the performance is sufficient in FIG. 13B, reports in FIG. 14A when the performance in FIG. 14A is sufficient, and reports in FIG. 14A when the performance is insufficient in FIG. 14A. In this case, it is preferable to apply the report in FIG. 14B. In this way, the UE may dynamically control the communication overhead associated with AI model notification.
  • the transmission of the UE training AI model information in the third embodiment may be used for distributed learning performed using a server and a large number of clients in the NW.
  • the UE training AI model information may be referred to as client training AI model information.
  • Distributed learning may be federated learning, including at least one of the following steps: ⁇ Each client reports resources of computation to the server. ⁇ The server provides the global AI model to the selected client, - Each selected client trains a local AI model based on the global AI model and its own data; ⁇ Each selected client reports the parameters of the local AI model to the server, - The server combines the reported local AI models to update the global AI model and provides the updated global AI model to one or more clients (eg, all clients).
  • FIG. 15 is a diagram illustrating an example of exchange of AI model information regarding federated learning.
  • the server sends the AI model information of the global AI model G i to the client (UE in this example).
  • the client updates the global AI model G i and obtains the local AI model L i based on the data set it owns.
  • the client feeds back (reports) updated information i regarding the local AI model L i to the server.
  • the server updates the global AI model G i to obtain the global AI model G i+1 based on update information i from one or more clients. Federated learning may proceed in this manner.
  • the NW may transmit AI model information regarding the global AI model to the UE.
  • the AI model information may be called global AI model information.
  • Global AI model information may include reference AI model information.
  • Global AI model information may only include information on any or a combination of the following: ⁇ (Index of) the reference AI model that is the basis of the global AI model, ⁇ Global AI model (index), ⁇ Information on the difference between the global AI model and the reference AI model.
  • the AI model information of the global AI model G i+1 may include information on a difference from the AI model (information) of the global AI model G i .
  • the update information i may include a model ID related to the global AI model/local AI model, or may include information on the difference from the AI model (information) of the global AI model G i , or may include information on the difference from the AI model (information) of the global AI model G i, which will be described later in the fourth embodiment. This may correspond to AI model information that is updated.
  • the UE may report intermediate information (eg, gradients, features, etc.) of the local AI model L i in or instead of the update information i.
  • intermediate information eg, gradients, features, etc.
  • the server may be gNB/OAM/LMF/UE
  • the client may be UE/gNB.
  • the UE is a client
  • the gNB is a client
  • server, NW, gNB, OAM, LMF, and UE may be interchanged.
  • client, NW, UE, and gNB may be interchanged.
  • gNB/UE may be replaced with a device in another network/core network.
  • a client may report information about resources for AI model training in the current iteration (hereinafter also referred to as resource information) to a server (eg, gNB).
  • the resource information may include information regarding at least one of the following: ⁇ Capabilities related to training AI models (e.g. computational resources); ⁇ Information on available datasets (e.g. structure/type/format/amount of datasets); - Information about the client (e.g. UE status).
  • the above computational resources include, for example, at least one of the available number of floating-point operations per second (FLOPS), Central Processing Unit (CPU)/Graphics Processing Unit (GPU) performance, available memory amount, etc. You may also indicate one.
  • FLOPS floating-point operations per second
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the information regarding the client may include information regarding at least one of the following: - Information regarding the type of client (device) (e.g., device model name/model number, communication chip name/model number, etc.); - Estimated result/quality (e.g. Block Error Rate (BLER)/CQI/RSRP/RSRQ/SINR), the client's will to process the training (e.g. whether one or more clients are willing to process the training of the AI model); ⁇ Remaining amount of data that the client can exchange with the server (for example, the amount of data that the client can exchange), -Battery power remaining.
  • device e.g., device model name/model number, communication chip name/model number, etc.
  • Estimated result/quality e.g. Block Error Rate (BLER)/CQI/RSRP/RSRQ/SINR
  • BLER Block Error Rate
  • CQI/RSRP/RSRQ/SINR Block Error Rate
  • the UE training AI model can be appropriately utilized.
  • the fourth embodiment relates to information on the difference between one AI model and another AI model (information on the difference between another AI model with respect to one AI model).
  • the difference information may be called updated AI model information.
  • the updated AI model information may be used, for example, as at least one of the following information already mentioned: ⁇ Information on the difference between the pre-update AI model and the post-update AI model, ⁇ Difference information of the NW training AI model from the reference AI model, - Information on the difference of the UE training AI model from the reference AI model/NW training AI model.
  • the updated AI model information may include weight information expressed as an absolute value, or may include weight information expressed as a difference value between the pre-update AI model and the post-update AI model.
  • FIGS. 16A to 16C are diagrams showing examples of updated AI model information. This example shows updated AI model information when the NW training AI model is trained from the reference model shown in FIG. 16A.
  • FIG. 16B shows weight information expressed as an absolute value and included in the updated AI model information.
  • the last layer has not been updated, so it does not need to be reported.
  • the UE may not expect to report/receive AI model information that has not been updated.
  • FIG. 16C shows weight information expressed as a difference value, included in the updated AI model information. Since the difference value is basically expected to be smaller than the absolute value, a reduction in the amount of information can be expected. Further, if the amount of information in FIG. 16C is the same as that in FIG. 16B, the granularity of each weight information can be reduced, and a more detailed model can be expressed.
  • the updated AI model information does not need to include information on the structure of the AI model. This is because the UE and base station can determine the AI model based on the same AI model structure by exchanging only weight information.
  • the signaling overhead for AI model deployment can be appropriately reduced.
  • a fifth embodiment relates to knowledge distillation.
  • a single large model or multiple ensembled models with good predictive accuracy is prepared as a teacher model, and the knowledge of the teacher model is transferred to a student model that is lightweight and easy to deploy. ) is used for learning.
  • the student model obtained through distillation is expected to be as accurate as the teacher model and more lightweight.
  • FIGS. 17A and 17B are diagrams showing an example of learning using knowledge distillation.
  • an AI model is trained so that the output (output from layer m) obtained by inputting a certain data set (learning data) is close to the correct answer.
  • the variables/values before one or more functions may be called logits, and the one or more The variables/values after the function is applied may be called Probs.
  • the sum of the probuses for all possible correct answer classes is 1.
  • the teacher's output (probus) is used as a soft target, and the loss between the student's probus and the soft target (also called soft target loss, distillation loss, etc.) is reduced. Learning takes place in this way.
  • the one or more functions may be, for example, a softmax function with temperature.
  • the soft target may correspond to information regarding the probability that the input belongs to each class.
  • the UE may receive AI model information regarding the student model (hereinafter also referred to as student model information).
  • the UE may obtain an output (train the student model) using a student model specified based on the received student model information, and may report information regarding the output to the NW. This step may be called re-training the student model.
  • Student model information may include any or a combination of the following information, instead of or in addition to the AI model information already described: ⁇ Student model (index), ⁇ Teacher model (index), ⁇ Information about the dataset used to calculate the teacher model/student model, ⁇ Soft target value of teacher model/student model, ⁇ The value of the output from the layer with the teacher model/student model, ⁇ Value of loss function of teacher model/student model, ⁇ Soft target values for teacher model/student model, ⁇ The value of the output from a layer for the teacher model/student model, - Value of loss function for teacher model/student model.
  • the information regarding the data set may correspond to at least one of, for example, a batch of data, an index indicating the data set (or data), the data set (or data) itself, etc.
  • the information on the value of the loss function may include information on one or both of a soft target loss and a hard target loss.
  • the UE transmits information about the student model to be retrained (hereinafter also referred to as retraining student model information) through physical layer signaling (e.g. UCI), upper layer signaling (e.g. RRC signaling, MAC CE), specific signals/channels. , or a combination thereof, may be used to transmit to the NW.
  • Retraining student model information may include any or a combination of the following information, instead of or in addition to the AI model information already described: ⁇ Student model (index) that is the basis of the retraining student model, information about the knowledge of the retrained student model (e.g. soft targets, outputs from certain layers), ⁇ Information about the dataset used for retraining, ⁇ Intermediate information of the retrained student model (e.g. gradients, features, etc.), - Information about hard target losses for retraining student models.
  • ⁇ Student model (index) that is the basis of the retraining student model
  • the information regarding the dataset may include information regarding the content of data included in the dataset.
  • the NW may further update the student model based on the soft target specified by the information regarding the student model to be retrained and the soft target of the teacher data. Note that this update of the NW may also be referred to as retraining.
  • the UE may use the teacher model information to retrain the student model.
  • the NW can once again distill knowledge by reporting retraining student model information to the NW. can be used to generate more accurate/lighter student models.
  • Any notification from the NW to the UE in the above embodiments may be based on physical layer signaling (e.g. DCI), higher layer signaling (e.g. RRC signaling, MAC CE), specific signals/channels (e.g. PDCCH, PDSCH, ref. signals), or a combination thereof.
  • physical layer signaling e.g. DCI
  • higher layer signaling e.g. RRC signaling, MAC CE
  • specific signals/channels e.g. PDCCH, PDSCH, ref. signals
  • the MAC CE may be identified by including a new logical channel ID (LCID) in the MAC subheader.
  • LCID logical channel ID
  • the above notification When the above notification is performed by a DCI, the above notification includes a specific field of the DCI, a radio network temporary identifier (Radio Network Temporary Identifier (RNTI)), the format of the DCI, etc.
  • RNTI Radio Network Temporary Identifier
  • any notification from the NW to the UE in the above embodiments may be performed periodically, semi-persistently, or aperiodically.
  • the encoder/decoder may be interchanged with the AI model deployed at the UE/base station. That is, the present disclosure is not limited to the case of using an autoencoder, but may be applied to the case of inference using any model. Furthermore, the object that the UE/base station compresses using the encoder in the present disclosure is not limited to CSI (or channel/precoding matrix), but may be any information.
  • At least one of the embodiments described above may be applied only to UEs that have reported or support a particular UE capability.
  • the particular UE capability may indicate at least one of the following: - supporting specific processing/operation/control/information for at least one of the above embodiments; Supporting acquisition/reporting of channel characteristic information (e.g. LOS, NLOS, location information); ⁇ Maximum FLOPs of AI model that UE can deploy, ⁇ Maximum number of parameters of AI model that UE can deploy, ⁇ Reference model supported by UE, ⁇ Layers/algorithms/functions supported by the UE, ⁇ Calculating ability, ⁇ Data collection ability.
  • channel characteristic information e.g. LOS, NLOS, location information
  • the above-mentioned specific UE capability may be a capability that is applied across all frequencies (commonly regardless of frequency), or may be a capability for each frequency (for example, cell, band, BWP). , capability for each frequency range (for example, Frequency Range 1 (FR1), FR2, FR3, FR4, FR5, FR2-1, FR2-2), or for each subcarrier spacing (SCS). It may be the ability of
  • the above-mentioned specific UE capability may be a capability that is applied across all duplex schemes (commonly regardless of the duplex scheme), or may be a capability that is applied across all duplex schemes (for example, Time Division Duplex).
  • the capability may be for each frequency division duplex (TDD)) or frequency division duplex (FDD)).
  • the UE is configured with specific information related to the embodiment described above by upper layer signaling.
  • the specific information may be information indicating that the use of the AI model is enabled, arbitrary RRC parameters for a specific release (for example, Rel. 18), or the like.
  • the UE does not support at least one of the specific UE capabilities or is not configured with the specific information, for example, Rel. 15/16 operations may be applied.
  • the UE may be used for (for compression of) transmission of information between the UE and the base station other than CSI feedback.
  • the UE generates information related to location (or positioning)/information related to location estimation in a location management function (LMF) according to at least one of the above-described embodiments (e.g., using an encoder). You may report it to the network.
  • the information may be channel impulse response (CIR) information for each subband/antenna port. By reporting this, the base station can estimate the location of the UE without reporting the angle/time difference of received signals.
  • CIR channel impulse response
  • a receiving unit that receives NW training model information regarding a model (NW training model) trained by a network (Network (NW)) and reference model information regarding a reference model that is a base of the NW training model;
  • a terminal comprising: a control unit that determines the NW training model based on the NW training model information and the reference model information.
  • NW training model information indicates a difference between the NW training model and the reference model, and the reference model information indicates an index regarding the reference model.
  • the terminal according to Supplementary Note 1 or 2 wherein the control unit further trains the NW training model.
  • the NW training model information includes information on parameters to be frozen for training, The terminal according to any one of Supplementary Notes 1 to 3, wherein the control unit further trains the NW training model, and does not update the parameters.
  • a receiving unit that receives NW training model information regarding a model (NW training model) trained by a network (Network (NW)) or reference model information regarding a reference model that is the base of the NW training model; a control unit that further trains a model determined based on the NW training model information or the reference model information;
  • a terminal comprising: a transmitter configured to transmit information regarding the trained model.
  • the terminal according to supplementary note 1, wherein the information regarding the trained model includes information regarding which weights or layers are updated.
  • a receiver for receiving student model information regarding the student model in knowledge distillation A terminal comprising: a transmitter that transmits information regarding output based on the student model information.
  • a terminal comprising: a transmitter that transmits information regarding output based on the student model information.
  • the terminal according to appendix 1 or 2 The terminal according to appendix 1 or 2, wherein the student model information includes a value of a loss function.
  • the student model information includes information on one or both of soft target loss and hard target loss.
  • wireless communication system The configuration of a wireless communication system according to an embodiment of the present disclosure will be described below.
  • communication is performed using any one of the wireless communication methods according to the above-described embodiments of the present disclosure or a combination thereof.
  • FIG. 18 is a diagram illustrating an example of a schematic configuration of a wireless communication system according to an embodiment.
  • the wireless communication system 1 may be a system that realizes communication using Long Term Evolution (LTE), 5th generation mobile communication system New Radio (5G NR), etc. specified by the Third Generation Partnership Project (3GPP). .
  • LTE Long Term Evolution
  • 5G NR 5th generation mobile communication system New Radio
  • 3GPP Third Generation Partnership Project
  • the wireless communication system 1 may support dual connectivity between multiple Radio Access Technologies (RATs) (Multi-RAT Dual Connectivity (MR-DC)).
  • MR-DC has dual connectivity between LTE (Evolved Universal Terrestrial Radio Access (E-UTRA)) and NR (E-UTRA-NR Dual Connectivity (EN-DC)), and dual connectivity between NR and LTE (NR-E -UTRA Dual Connectivity (NE-DC)).
  • RATs Radio Access Technologies
  • MR-DC has dual connectivity between LTE (Evolved Universal Terrestrial Radio Access (E-UTRA)) and NR (E-UTRA-NR Dual Connectivity (EN-DC)), and dual connectivity between NR and LTE (NR-E -UTRA Dual Connectivity (NE-DC)).
  • E-UTRA Evolved Universal Terrestrial Radio Access
  • EN-DC E-UTRA-NR Dual Connectivity
  • NE-DC NR-E -UTRA Dual Connectivity
  • the LTE (E-UTRA) base station (eNB) is the master node (Master Node (MN)), and the NR base station (gNB) is the secondary node (Secondary Node (SN)).
  • the NR base station (gNB) is the MN
  • the LTE (E-UTRA) base station (eNB) is the SN.
  • the wireless communication system 1 has dual connectivity between multiple base stations within the same RAT (for example, dual connectivity (NR-NR Dual Connectivity (NN-DC) where both the MN and SN are NR base stations (gNB)). )) may be supported.
  • dual connectivity NR-NR Dual Connectivity (NN-DC) where both the MN and SN are NR base stations (gNB)).
  • the wireless communication system 1 includes a base station 11 that forms a macro cell C1 with relatively wide coverage, and base stations 12 (12a-12c) that are located within the macro cell C1 and form a small cell C2 that is narrower than the macro cell C1. You may prepare.
  • User terminal 20 may be located within at least one cell. The arrangement, number, etc. of each cell and user terminal 20 are not limited to the embodiment shown in the figure. Hereinafter, when base stations 11 and 12 are not distinguished, they will be collectively referred to as base station 10.
  • the user terminal 20 may be connected to at least one of the plurality of base stations 10.
  • the user terminal 20 may use at least one of carrier aggregation (CA) using a plurality of component carriers (CC) and dual connectivity (DC).
  • CA carrier aggregation
  • CC component carriers
  • DC dual connectivity
  • Each CC may be included in at least one of a first frequency band (Frequency Range 1 (FR1)) and a second frequency band (Frequency Range 2 (FR2)).
  • Macro cell C1 may be included in FR1
  • small cell C2 may be included in FR2.
  • FR1 may be a frequency band below 6 GHz (sub-6 GHz)
  • FR2 may be a frequency band above 24 GHz (above-24 GHz). Note that the frequency bands and definitions of FR1 and FR2 are not limited to these, and FR1 may correspond to a higher frequency band than FR2, for example.
  • the user terminal 20 may communicate using at least one of time division duplex (TDD) and frequency division duplex (FDD) in each CC.
  • TDD time division duplex
  • FDD frequency division duplex
  • the plurality of base stations 10 may be connected by wire (for example, optical fiber, X2 interface, etc. compliant with Common Public Radio Interface (CPRI)) or wirelessly (for example, NR communication).
  • wire for example, optical fiber, X2 interface, etc. compliant with Common Public Radio Interface (CPRI)
  • NR communication for example, when NR communication is used as a backhaul between base stations 11 and 12, base station 11, which is an upper station, is an Integrated Access Backhaul (IAB) donor, and base station 12, which is a relay station, is an IAB donor. May also be called a node.
  • IAB Integrated Access Backhaul
  • the base station 10 may be connected to the core network 30 via another base station 10 or directly.
  • the core network 30 may include, for example, at least one of Evolved Packet Core (EPC), 5G Core Network (5GCN), Next Generation Core (NGC), and the like.
  • EPC Evolved Packet Core
  • 5GCN 5G Core Network
  • NGC Next Generation Core
  • the user terminal 20 may be a terminal compatible with at least one of communication systems such as LTE, LTE-A, and 5G.
  • an orthogonal frequency division multiplexing (OFDM)-based wireless access method may be used.
  • OFDM orthogonal frequency division multiplexing
  • CP-OFDM Cyclic Prefix OFDM
  • DFT-s-OFDM Discrete Fourier Transform Spread OFDM
  • OFDMA Orthogonal Frequency Division Multiple Access
  • SC-FDMA Single Carrier Frequency Division Multiple Access
  • a wireless access method may also be called a waveform.
  • other wireless access methods for example, other single carrier transmission methods, other multicarrier transmission methods
  • the UL and DL radio access methods may be used as the UL and DL radio access methods.
  • the downlink channels include a physical downlink shared channel (PDSCH) shared by each user terminal 20, a broadcast channel (physical broadcast channel (PBCH)), and a downlink control channel (physical downlink control). Channel (PDCCH)) or the like may be used.
  • PDSCH physical downlink shared channel
  • PBCH physical broadcast channel
  • PDCCH downlink control channel
  • uplink channels include a physical uplink shared channel (PUSCH) shared by each user terminal 20, an uplink control channel (PUCCH), and a random access channel. (Physical Random Access Channel (PRACH)) or the like may be used.
  • PUSCH physical uplink shared channel
  • PUCCH uplink control channel
  • PRACH Physical Random Access Channel
  • User data, upper layer control information, System Information Block (SIB), etc. are transmitted by the PDSCH.
  • User data, upper layer control information, etc. may be transmitted by PUSCH.
  • a Master Information Block (MIB) may be transmitted via the PBCH.
  • Lower layer control information may be transmitted by PDCCH.
  • the lower layer control information may include, for example, downlink control information (DCI) that includes scheduling information for at least one of PDSCH and PUSCH.
  • DCI downlink control information
  • DCI that schedules PDSCH may be called DL assignment, DL DCI, etc.
  • DCI that schedules PUSCH may be called UL grant, UL DCI, etc.
  • PDSCH may be replaced with DL data
  • PUSCH may be replaced with UL data.
  • a control resource set (CONtrol REsource SET (CORESET)) and a search space may be used to detect the PDCCH.
  • CORESET corresponds to a resource for searching DCI.
  • the search space corresponds to a search area and a search method for PDCCH candidates (PDCCH candidates).
  • PDCCH candidates PDCCH candidates
  • One CORESET may be associated with one or more search spaces. The UE may monitor the CORESET associated with a certain search space based on the search space configuration.
  • One search space may correspond to PDCCH candidates corresponding to one or more aggregation levels.
  • One or more search spaces may be referred to as a search space set. Note that “search space”, “search space set”, “search space setting”, “search space set setting”, “CORESET”, “CORESET setting”, etc. in the present disclosure may be read interchangeably.
  • the PUCCH allows channel state information (CSI), delivery confirmation information (for example, may be called Hybrid Automatic Repeat Request ACKnowledgement (HARQ-ACK), ACK/NACK, etc.), and scheduling request ( Uplink Control Information (UCI) including at least one of SR)) may be transmitted.
  • CSI channel state information
  • delivery confirmation information for example, may be called Hybrid Automatic Repeat Request ACKnowledgement (HARQ-ACK), ACK/NACK, etc.
  • UCI Uplink Control Information including at least one of SR
  • a random access preamble for establishing a connection with a cell may be transmitted by PRACH.
  • downlinks, uplinks, etc. may be expressed without adding "link”.
  • various channels may be expressed without adding "Physical” at the beginning.
  • a synchronization signal (SS), a downlink reference signal (DL-RS), and the like may be transmitted.
  • the DL-RS includes a cell-specific reference signal (CRS), a channel state information reference signal (CSI-RS), and a demodulation reference signal (DeModulation).
  • Reference Signal (DMRS)), Positioning Reference Signal (PRS), Phase Tracking Reference Signal (PTRS), etc. may be transmitted.
  • the synchronization signal may be, for example, at least one of a primary synchronization signal (PSS) and a secondary synchronization signal (SSS).
  • a signal block including SS (PSS, SSS) and PBCH (and DMRS for PBCH) may be called an SS/PBCH block, SS Block (SSB), etc. Note that SS, SSB, etc. may also be called reference signals.
  • DMRS Downlink Reference Signal
  • UL-RS uplink reference signals
  • SRS Sounding Reference Signal
  • DMRS demodulation reference signals
  • UE-specific reference signal user terminal-specific reference signal
  • FIG. 19 is a diagram illustrating an example of the configuration of a base station according to an embodiment.
  • the base station 10 includes a control section 110, a transmitting/receiving section 120, a transmitting/receiving antenna 130, and a transmission line interface 140. Note that one or more of each of the control unit 110, the transmitting/receiving unit 120, the transmitting/receiving antenna 130, and the transmission path interface 140 may be provided.
  • this example mainly shows functional blocks that are characteristic of the present embodiment, and it may be assumed that the base station 10 also has other functional blocks necessary for wireless communication. A part of the processing of each unit described below may be omitted.
  • the control unit 110 controls the entire base station 10.
  • the control unit 110 can be configured from a controller, a control circuit, etc., which will be explained based on common recognition in the technical field related to the present disclosure.
  • the control unit 110 may control signal generation, scheduling (e.g., resource allocation, mapping), and the like.
  • the control unit 110 may control transmission and reception, measurement, etc. using the transmitting/receiving unit 120, the transmitting/receiving antenna 130, and the transmission path interface 140.
  • the control unit 110 may generate data, control information, a sequence, etc. to be transmitted as a signal, and may transfer the generated data to the transmitting/receiving unit 120.
  • the control unit 110 may perform communication channel call processing (setting, release, etc.), status management of the base station 10, radio resource management, and the like.
  • the transmitting/receiving section 120 may include a baseband section 121, a radio frequency (RF) section 122, and a measuring section 123.
  • the baseband section 121 may include a transmission processing section 1211 and a reception processing section 1212.
  • the transmitter/receiver unit 120 includes a transmitter/receiver, an RF circuit, a baseband circuit, a filter, a phase shifter, a measurement circuit, a transmitter/receiver circuit, etc., which are explained based on common understanding in the technical field related to the present disclosure. be able to.
  • the transmitting/receiving section 120 may be configured as an integrated transmitting/receiving section, or may be configured from a transmitting section and a receiving section.
  • the transmitting section may include a transmitting processing section 1211 and an RF section 122.
  • the reception section may include a reception processing section 1212, an RF section 122, and a measurement section 123.
  • the transmitting/receiving antenna 130 can be configured from an antenna described based on common recognition in the technical field related to the present disclosure, such as an array antenna.
  • the transmitter/receiver 120 may transmit the above-mentioned downlink channel, synchronization signal, downlink reference signal, etc.
  • the transmitter/receiver 120 may receive the above-mentioned uplink channel, uplink reference signal, and the like.
  • the transmitting/receiving unit 120 may form at least one of a transmitting beam and a receiving beam using digital beamforming (e.g., precoding), analog beamforming (e.g., phase rotation), or the like.
  • digital beamforming e.g., precoding
  • analog beamforming e.g., phase rotation
  • the transmitting/receiving unit 120 (transmission processing unit 1211) performs Packet Data Convergence Protocol (PDCP) layer processing, Radio Link Control (RLC) layer processing (for example, RLC retransmission control), Medium Access Control (MAC) layer processing (for example, HARQ retransmission control), etc. may be performed to generate a bit string to be transmitted.
  • PDCP Packet Data Convergence Protocol
  • RLC Radio Link Control
  • MAC Medium Access Control
  • HARQ retransmission control for example, HARQ retransmission control
  • the transmitting/receiving unit 120 performs channel encoding (which may include error correction encoding), modulation, mapping, filter processing, and discrete Fourier transform (DFT) on the bit string to be transmitted.
  • a baseband signal may be output by performing transmission processing such as processing (if necessary), Inverse Fast Fourier Transform (IFFT) processing, precoding, and digital-to-analog conversion.
  • IFFT Inverse Fast Fourier Transform
  • the transmitting/receiving unit 120 may perform modulation, filter processing, amplification, etc. on the baseband signal in a radio frequency band, and may transmit the signal in the radio frequency band via the transmitting/receiving antenna 130. .
  • the transmitting/receiving section 120 may perform amplification, filter processing, demodulation into a baseband signal, etc. on the radio frequency band signal received by the transmitting/receiving antenna 130.
  • the transmitting/receiving unit 120 (reception processing unit 1212) performs analog-to-digital conversion, fast Fourier transform (FFT) processing, and inverse discrete Fourier transform (IDFT) on the acquired baseband signal. )) processing (if necessary), applying reception processing such as filter processing, demapping, demodulation, decoding (which may include error correction decoding), MAC layer processing, RLC layer processing and PDCP layer processing, User data etc. may also be acquired.
  • FFT fast Fourier transform
  • IDFT inverse discrete Fourier transform
  • the transmitting/receiving unit 120 may perform measurements regarding the received signal.
  • the measurement unit 123 may perform Radio Resource Management (RRM) measurement, Channel State Information (CSI) measurement, etc. based on the received signal.
  • the measurement unit 123 measures received power (for example, Reference Signal Received Power (RSRP)), reception quality (for example, Reference Signal Received Quality (RSRQ), Signal to Interference plus Noise Ratio (SINR), Signal to Noise Ratio (SNR) )) , signal strength (for example, Received Signal Strength Indicator (RSSI)), propagation path information (for example, CSI), etc. may be measured.
  • the measurement results may be output to the control unit 110.
  • the transmission path interface 140 transmits and receives signals (backhaul signaling) between devices included in the core network 30, other base stations 10, etc., and transmits and receives user data (user plane data) for the user terminal 20, control plane It is also possible to acquire and transmit data.
  • the transmitting unit and receiving unit of the base station 10 in the present disclosure may be configured by at least one of the transmitting/receiving unit 120, the transmitting/receiving antenna 130, and the transmission path interface 140.
  • control unit 110 may train a reference model.
  • the transmitting/receiving unit 120 may transmit information regarding the trained model and reference model information regarding the reference model to the user terminal 20.
  • the transmitting/receiving unit 120 may transmit reference model information regarding a reference model or information regarding a model trained based on the reference model to the user terminal 20.
  • the transmitting/receiving unit 120 may receive information regarding the reference model or a model further trained based on the model.
  • the transmitting/receiving unit 120 may transmit student model information regarding the student model in knowledge distillation to the user terminal 20.
  • the transmitter/receiver 120 may receive information regarding output based on the student model information.
  • FIG. 20 is a diagram illustrating an example of the configuration of a user terminal according to an embodiment.
  • the user terminal 20 includes a control section 210, a transmitting/receiving section 220, and a transmitting/receiving antenna 230. Note that one or more of each of the control unit 210, the transmitting/receiving unit 220, and the transmitting/receiving antenna 230 may be provided.
  • this example mainly shows functional blocks that are characteristic of the present embodiment, and it may be assumed that the user terminal 20 also has other functional blocks necessary for wireless communication. A part of the processing of each unit described below may be omitted.
  • the control unit 210 controls the entire user terminal 20.
  • the control unit 210 can be configured from a controller, a control circuit, etc., which will be explained based on common recognition in the technical field related to the present disclosure.
  • the control unit 210 may control signal generation, mapping, etc.
  • the control unit 210 may control transmission and reception using the transmitting/receiving unit 220 and the transmitting/receiving antenna 230, measurement, and the like.
  • the control unit 210 may generate data, control information, sequences, etc. to be transmitted as a signal, and may transfer the generated data to the transmitting/receiving unit 220.
  • the transmitting/receiving section 220 may include a baseband section 221, an RF section 222, and a measuring section 223.
  • the baseband section 221 may include a transmission processing section 2211 and a reception processing section 2212.
  • the transmitting/receiving unit 220 can be configured from a transmitter/receiver, an RF circuit, a baseband circuit, a filter, a phase shifter, a measuring circuit, a transmitting/receiving circuit, etc., which are explained based on common recognition in the technical field related to the present disclosure.
  • the transmitting/receiving section 220 may be configured as an integrated transmitting/receiving section, or may be configured from a transmitting section and a receiving section.
  • the transmitting section may include a transmitting processing section 2211 and an RF section 222.
  • the reception section may include a reception processing section 2212, an RF section 222, and a measurement section 223.
  • the transmitting/receiving antenna 230 can be configured from an antenna, such as an array antenna, as described based on common recognition in the technical field related to the present disclosure.
  • the transmitter/receiver 220 may receive the above-mentioned downlink channel, synchronization signal, downlink reference signal, etc.
  • the transmitter/receiver 220 may transmit the above-mentioned uplink channel, uplink reference signal, and the like.
  • the transmitting/receiving unit 220 may form at least one of a transmitting beam and a receiving beam using digital beamforming (e.g., precoding), analog beamforming (e.g., phase rotation), or the like.
  • digital beamforming e.g., precoding
  • analog beamforming e.g., phase rotation
  • the transmission/reception unit 220 (transmission processing unit 2211) performs PDCP layer processing, RLC layer processing (e.g. RLC retransmission control), MAC layer processing (e.g. , HARQ retransmission control), etc., to generate a bit string to be transmitted.
  • RLC layer processing e.g. RLC retransmission control
  • MAC layer processing e.g. , HARQ retransmission control
  • the transmitting/receiving unit 220 (transmission processing unit 2211) performs channel encoding (which may include error correction encoding), modulation, mapping, filter processing, DFT processing (as necessary), and IFFT processing on the bit string to be transmitted. , precoding, digital-to-analog conversion, etc., and output a baseband signal.
  • DFT processing may be based on the settings of transform precoding.
  • the transmitting/receiving unit 220 transmits the above processing in order to transmit the channel using the DFT-s-OFDM waveform.
  • DFT processing may be performed as the transmission processing, or if not, DFT processing may not be performed as the transmission processing.
  • the transmitting/receiving unit 220 may perform modulation, filter processing, amplification, etc. on the baseband signal in a radio frequency band, and may transmit the signal in the radio frequency band via the transmitting/receiving antenna 230. .
  • the transmitting/receiving section 220 may perform amplification, filter processing, demodulation into a baseband signal, etc. on the radio frequency band signal received by the transmitting/receiving antenna 230.
  • the transmission/reception unit 220 (reception processing unit 2212) performs analog-to-digital conversion, FFT processing, IDFT processing (if necessary), filter processing, demapping, demodulation, and decoding (error correction) on the acquired baseband signal. (which may include decoding), MAC layer processing, RLC layer processing, and PDCP layer processing may be applied to obtain user data and the like.
  • the transmitting/receiving unit 220 may perform measurements regarding the received signal.
  • the measurement unit 223 may perform RRM measurement, CSI measurement, etc. based on the received signal.
  • the measurement unit 223 may measure received power (for example, RSRP), reception quality (for example, RSRQ, SINR, SNR), signal strength (for example, RSSI), propagation path information (for example, CSI), and the like.
  • the measurement results may be output to the control unit 210.
  • the transmitting unit and receiving unit of the user terminal 20 in the present disclosure may be configured by at least one of the transmitting/receiving unit 220 and the transmitting/receiving antenna 230.
  • the transmitting/receiving unit 220 receives NW training model information regarding a model (NW training model) trained by a network (Network (NW)) and reference model information regarding a reference model that is the base of the NW training model. It's okay.
  • the control unit 210 may determine the NW training model based on the NW training model information and the reference model information.
  • the NW training model information may indicate a difference between the NW training model and the reference model, and the reference model information may indicate an index regarding the reference model.
  • the control unit 210 may further train the NW training model.
  • the NW training model information includes information on parameters to be frozen for training, and the control unit 210 further trains the NW training model, in which case the parameters do not need to be updated.
  • the transmitting/receiving unit 220 may also receive NW training model information regarding a model (NW training model) trained by a network (Network (NW)) or reference model information regarding a reference model that is the base of the NW training model. .
  • the control unit 210 may further train the model determined based on the NW training model information or the reference model information.
  • the transmitting/receiving unit 220 may transmit information regarding the trained model.
  • the information regarding the trained model may include information regarding which weights or layers are updated.
  • the information regarding the trained model may include update information of the global model in federated learning.
  • the transmitter 220 may transmit information about resources for model training in the current iteration of federated learning.
  • the transmitting/receiving unit 220 may receive student model information regarding student models in knowledge distillation.
  • the transmitter/receiver 220 may transmit information regarding output based on the student model information.
  • the information regarding the output may include information regarding the soft target of the student model.
  • the student model information may include a value of a loss function.
  • the student model information may include information on one or both of soft target loss and hard target loss.
  • each functional block may be realized using one physically or logically coupled device, or may be realized using two or more physically or logically separated devices directly or indirectly (e.g. , wired, wireless, etc.) and may be realized using a plurality of these devices.
  • the functional block may be realized by combining software with the one device or the plurality of devices.
  • functions include judgment, decision, judgement, calculation, calculation, processing, derivation, investigation, exploration, confirmation, reception, transmission, output, access, solution, selection, selection, establishment, comparison, assumption, expectation, and consideration. , broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc.
  • a functional block (configuration unit) that performs transmission may be called a transmitting unit, a transmitter, or the like. In either case, as described above, the implementation method is not particularly limited.
  • a base station, a user terminal, etc. in an embodiment of the present disclosure may function as a computer that performs processing of the wireless communication method of the present disclosure.
  • FIG. 21 is a diagram illustrating an example of the hardware configuration of a base station and a user terminal according to an embodiment.
  • the base station 10 and user terminal 20 described above may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, etc. .
  • the hardware configuration of the base station 10 and the user terminal 20 may be configured to include one or more of each device shown in the figure, or may be configured not to include some of the devices.
  • processor 1001 may be implemented using one or more chips.
  • Each function in the base station 10 and the user terminal 20 is performed by, for example, loading predetermined software (program) onto hardware such as a processor 1001 and a memory 1002, so that the processor 1001 performs calculations and communicates via the communication device 1004. This is achieved by controlling at least one of reading and writing data in the memory 1002 and storage 1003.
  • predetermined software program
  • the processor 1001 operates an operating system to control the entire computer.
  • the processor 1001 may be configured by a central processing unit (CPU) that includes interfaces with peripheral devices, a control device, an arithmetic unit, registers, and the like.
  • CPU central processing unit
  • the above-mentioned control unit 110 (210), transmitting/receiving unit 120 (220), etc. may be realized by the processor 1001.
  • the processor 1001 reads programs (program codes), software modules, data, etc. from at least one of the storage 1003 and the communication device 1004 to the memory 1002, and executes various processes in accordance with these.
  • programs program codes
  • software modules software modules
  • data etc.
  • the control unit 110 may be realized by a control program stored in the memory 1002 and operated in the processor 1001, and other functional blocks may also be realized in the same way.
  • the memory 1002 is a computer-readable recording medium, and includes at least one of Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically EPROM (EEPROM), Random Access Memory (RAM), and other suitable storage media. It may be composed of one. Memory 1002 may be called a register, cache, main memory, or the like.
  • the memory 1002 can store executable programs (program codes), software modules, and the like to implement a wireless communication method according to an embodiment of the present disclosure.
  • the storage 1003 is a computer-readable recording medium, such as a flexible disk, a floppy (registered trademark) disk, a magneto-optical disk (for example, a compact disk (CD-ROM), etc.), a digital versatile disk, removable disk, hard disk drive, smart card, flash memory device (e.g., card, stick, key drive), magnetic stripe, database, server, or other suitable storage medium. It may be configured by Storage 1003 may also be called an auxiliary storage device.
  • a computer-readable recording medium such as a flexible disk, a floppy (registered trademark) disk, a magneto-optical disk (for example, a compact disk (CD-ROM), etc.), a digital versatile disk, removable disk, hard disk drive, smart card, flash memory device (e.g., card, stick, key drive), magnetic stripe, database, server, or other suitable storage medium. It may be configured by Storage 1003 may also be called an auxiliary storage device.
  • the communication device 1004 is hardware (transmission/reception device) for communicating between computers via at least one of a wired network and a wireless network, and is also referred to as a network device, network controller, network card, communication module, etc., for example.
  • the communication device 1004 includes, for example, a high frequency switch, a duplexer, a filter, a frequency synthesizer, etc. in order to realize at least one of frequency division duplex (FDD) and time division duplex (TDD). It may be configured to include.
  • FDD frequency division duplex
  • TDD time division duplex
  • the transmitter/receiver 120 (220) may be physically or logically separated into a transmitter 120a (220a) and a receiver 120b (220b).
  • the input device 1005 is an input device (eg, keyboard, mouse, microphone, switch, button, sensor, etc.) that accepts input from the outside.
  • the output device 1006 is an output device (for example, a display, a speaker, a light emitting diode (LED) lamp, etc.) that performs output to the outside. Note that the input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).
  • each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information.
  • the bus 1007 may be configured using a single bus, or may be configured using different buses for each device.
  • the base station 10 and user terminal 20 also include a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), a field programmable gate array (FPGA), etc. It may be configured to include hardware, and a part or all of each functional block may be realized using the hardware. For example, processor 1001 may be implemented using at least one of these hardwares.
  • DSP digital signal processor
  • ASIC application specific integrated circuit
  • PLD programmable logic device
  • FPGA field programmable gate array
  • channel, symbol and signal may be interchanged.
  • the signal may be a message.
  • the reference signal may also be abbreviated as RS, and may be called a pilot, pilot signal, etc. depending on the applicable standard.
  • a component carrier CC may be called a cell, a frequency carrier, a carrier frequency, or the like.
  • a radio frame may be composed of one or more periods (frames) in the time domain.
  • Each of the one or more periods (frames) constituting a radio frame may be called a subframe.
  • a subframe may be composed of one or more slots in the time domain.
  • a subframe may have a fixed time length (eg, 1 ms) that does not depend on numerology.
  • the numerology may be a communication parameter applied to at least one of transmission and reception of a certain signal or channel.
  • Numerology includes, for example, subcarrier spacing (SCS), bandwidth, symbol length, cyclic prefix length, transmission time interval (TTI), number of symbols per TTI, and radio frame structure. , a specific filtering process performed by the transceiver in the frequency domain, a specific windowing process performed by the transceiver in the time domain, etc.
  • a slot may be composed of one or more symbols (Orthogonal Frequency Division Multiplexing (OFDM) symbols, Single Carrier Frequency Division Multiple Access (SC-FDMA) symbols, etc.) in the time domain. Furthermore, a slot may be a time unit based on numerology.
  • OFDM Orthogonal Frequency Division Multiplexing
  • SC-FDMA Single Carrier Frequency Division Multiple Access
  • a slot may include multiple mini-slots. Each minislot may be made up of one or more symbols in the time domain. Furthermore, a mini-slot may also be called a sub-slot. A minislot may be made up of fewer symbols than a slot.
  • PDSCH (or PUSCH) transmitted in time units larger than minislots may be referred to as PDSCH (PUSCH) mapping type A.
  • PDSCH (or PUSCH) transmitted using minislots may be referred to as PDSCH (PUSCH) mapping type B.
  • Radio frames, subframes, slots, minislots, and symbols all represent time units when transmitting signals. Other names may be used for the radio frame, subframe, slot, minislot, and symbol. Note that time units such as frames, subframes, slots, minislots, and symbols in the present disclosure may be read interchangeably.
  • one subframe may be called a TTI
  • a plurality of consecutive subframes may be called a TTI
  • one slot or one minislot may be called a TTI.
  • at least one of the subframe and TTI may be a subframe (1ms) in existing LTE, a period shorter than 1ms (for example, 1-13 symbols), or a period longer than 1ms. It may be.
  • the unit representing the TTI may be called a slot, minislot, etc. instead of a subframe.
  • TTI refers to, for example, the minimum time unit for scheduling in wireless communication.
  • a base station performs scheduling to allocate radio resources (frequency bandwidth, transmission power, etc. that can be used by each user terminal) to each user terminal on a TTI basis.
  • radio resources frequency bandwidth, transmission power, etc. that can be used by each user terminal
  • the TTI may be a transmission time unit of a channel-coded data packet (transport block), a code block, a codeword, etc., or may be a processing unit of scheduling, link adaptation, etc. Note that when a TTI is given, the time interval (for example, the number of symbols) to which transport blocks, code blocks, code words, etc. are actually mapped may be shorter than the TTI.
  • one slot or one minislot is called a TTI
  • one or more TTIs may be the minimum time unit for scheduling.
  • the number of slots (minislot number) that constitutes the minimum time unit of the scheduling may be controlled.
  • a TTI having a time length of 1 ms may be called a normal TTI (TTI in 3GPP Rel. 8-12), normal TTI, long TTI, normal subframe, normal subframe, long subframe, slot, etc.
  • TTI TTI in 3GPP Rel. 8-12
  • normal TTI long TTI
  • normal subframe normal subframe
  • long subframe slot
  • TTI that is shorter than the normal TTI may be referred to as an abbreviated TTI, short TTI, partial or fractional TTI, shortened subframe, short subframe, minislot, subslot, slot, etc.
  • long TTI for example, normal TTI, subframe, etc.
  • short TTI for example, short TTI, etc. It may also be read as a TTI having the above TTI length.
  • a resource block is a resource allocation unit in the time domain and frequency domain, and may include one or more continuous subcarriers (subcarriers) in the frequency domain.
  • the number of subcarriers included in an RB may be the same regardless of the numerology, and may be 12, for example.
  • the number of subcarriers included in an RB may be determined based on numerology.
  • an RB may include one or more symbols in the time domain, and may have a length of one slot, one minislot, one subframe, or one TTI.
  • One TTI, one subframe, etc. may each be composed of one or more resource blocks.
  • one or more RBs include a physical resource block (Physical RB (PRB)), a sub-carrier group (SCG), a resource element group (REG), a PRB pair, and an RB. They may also be called pairs.
  • PRB Physical RB
  • SCG sub-carrier group
  • REG resource element group
  • PRB pair an RB. They may also be called pairs.
  • a resource block may be configured by one or more resource elements (REs).
  • REs resource elements
  • 1 RE may be a radio resource region of 1 subcarrier and 1 symbol.
  • Bandwidth Part (also called partial bandwidth, etc.) refers to a subset of consecutive common resource blocks (RB) for a certain numerology in a certain carrier.
  • the common RB may be specified by an RB index based on a common reference point of the carrier.
  • PRBs may be defined in a BWP and numbered within that BWP.
  • BWP may include UL BWP (BWP for UL) and DL BWP (BWP for DL).
  • BWP UL BWP
  • BWP for DL DL BWP
  • One or more BWPs may be configured within one carrier for a UE.
  • At least one of the configured BWPs may be active and the UE may not expect to transmit or receive a given signal/channel outside of the active BWP.
  • “cell”, “carrier”, etc. in the present disclosure may be replaced with "BWP”.
  • the structures of the radio frame, subframe, slot, minislot, symbol, etc. described above are merely examples.
  • the number of subframes included in a radio frame, the number of slots per subframe or radio frame, the number of minislots included in a slot, the number of symbols and RBs included in a slot or minislot, the number of symbols included in an RB The number of subcarriers, the number of symbols within a TTI, the symbol length, the cyclic prefix (CP) length, and other configurations can be changed in various ways.
  • radio resources may be indicated by a predetermined index.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. which may be referred to throughout the above description, may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may also be represented by a combination of
  • information, signals, etc. may be output from the upper layer to the lower layer and from the lower layer to at least one of the upper layer.
  • Information, signals, etc. may be input and output via multiple network nodes.
  • Input/output information, signals, etc. may be stored in a specific location (for example, memory) or may be managed using a management table. Information, signals, etc. that are input and output can be overwritten, updated, or added. The output information, signals, etc. may be deleted. The input information, signals, etc. may be transmitted to other devices.
  • Notification of information is not limited to the aspects/embodiments described in this disclosure, and may be performed using other methods.
  • the notification of information in this disclosure may be physical layer signaling (e.g., Downlink Control Information (DCI), Uplink Control Information (UCI)), upper layer signaling (e.g., Radio Resource Control (RRC) signaling, broadcast information (Master Information Block (MIB), System Information Block (SIB), etc.), Medium Access Control (MAC) signaling), other signals, or a combination thereof It may be carried out by physical layer signaling (e.g., Downlink Control Information (DCI), Uplink Control Information (UCI)), upper layer signaling (e.g., Radio Resource Control (RRC) signaling, broadcast information (Master Information Block (MIB), System Information Block (SIB), etc.), Medium Access Control (MAC) signaling), other signals, or a combination thereof It may be carried out by
  • the physical layer signaling may also be called Layer 1/Layer 2 (L1/L2) control information (L1/L2 control signal), L1 control information (L1 control signal), etc.
  • RRC signaling may be called an RRC message, and may be, for example, an RRC Connection Setup message, an RRC Connection Reconfiguration message, or the like.
  • MAC signaling may be notified using, for example, a MAC Control Element (CE).
  • CE MAC Control Element
  • notification of prescribed information is not limited to explicit notification, but may be made implicitly (for example, by not notifying the prescribed information or by providing other information) (by notification).
  • the determination may be made by a value expressed by 1 bit (0 or 1), or by a boolean value expressed by true or false. , may be performed by numerical comparison (for example, comparison with a predetermined value).
  • Software includes instructions, instruction sets, code, code segments, program code, programs, subprograms, software modules, whether referred to as software, firmware, middleware, microcode, hardware description language, or by any other name. , should be broadly construed to mean an application, software application, software package, routine, subroutine, object, executable, thread of execution, procedure, function, etc.
  • software, instructions, information, etc. may be sent and received via a transmission medium.
  • a transmission medium such as coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.
  • wired technology such as coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.
  • wireless technology such as infrared, microwave, etc.
  • Network may refer to devices (eg, base stations) included in the network.
  • precoding "precoding weight”
  • QCL quadsi-co-location
  • TCI state "Transmission Configuration Indication state
  • space space
  • spatial relation "spatial domain filter”
  • transmission power "phase rotation”
  • antenna port "antenna port group”
  • layer "number of layers”
  • Terms such as “rank”, “resource”, “resource set”, “resource group”, “beam”, “beam width”, “beam angle”, “antenna”, “antenna element”, and “panel” are interchangeable.
  • Base Station BS
  • Wireless base station Wireless base station
  • Fixed station NodeB
  • eNB eNodeB
  • gNB gNodeB
  • Access point "Transmission Point (TP)”, “Reception Point (RP)”, “Transmission/Reception Point (TRP)”, “Panel”
  • cell “sector,” “cell group,” “carrier,” “component carrier,” and the like
  • a base station is sometimes referred to by terms such as macrocell, small cell, femtocell, and picocell.
  • a base station can accommodate one or more (eg, three) cells. If a base station accommodates multiple cells, the overall coverage area of the base station can be partitioned into multiple smaller areas, and each smaller area is connected to a base station subsystem (e.g., an indoor small base station (Remote Radio Communication services can also be provided by the Head (RRH)).
  • a base station subsystem e.g., an indoor small base station (Remote Radio Communication services can also be provided by the Head (RRH)
  • RRH Remote Radio Communication services
  • the term “cell” or “sector” refers to part or all of the coverage area of a base station and/or base station subsystem that provides communication services in this coverage.
  • a base station transmitting information to a terminal may be interchanged with the base station instructing the terminal to control/operate based on the information.
  • MS Mobile Station
  • UE User Equipment
  • a mobile station is a subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless terminal, remote terminal. , handset, user agent, mobile client, client, or some other suitable terminology.
  • At least one of a base station and a mobile station may be called a transmitting device, a receiving device, a wireless communication device, etc.
  • a transmitting device may be called a transmitting device, a receiving device, a wireless communication device, etc.
  • the base station and the mobile station may be a device mounted on a moving object, the moving object itself, or the like.
  • the moving body refers to a movable object, and the moving speed is arbitrary, and naturally includes cases where the moving body is stopped.
  • the mobile objects include, for example, vehicles, transport vehicles, automobiles, motorcycles, bicycles, connected cars, excavators, bulldozers, wheel loaders, dump trucks, forklifts, trains, buses, carts, rickshaws, and ships (ships and other watercraft). , including, but not limited to, airplanes, rockets, artificial satellites, drones, multicopters, quadcopters, balloons, and items mounted thereon.
  • the mobile object may be a mobile object that autonomously travels based on a travel command.
  • the moving object may be a vehicle (for example, a car, an airplane, etc.), an unmanned moving object (for example, a drone, a self-driving car, etc.), or a robot (manned or unmanned). ).
  • a vehicle for example, a car, an airplane, etc.
  • an unmanned moving object for example, a drone, a self-driving car, etc.
  • a robot manned or unmanned.
  • at least one of the base station and the mobile station includes devices that do not necessarily move during communication operations.
  • at least one of the base station and the mobile station may be an Internet of Things (IoT) device such as a sensor.
  • IoT Internet of Things
  • FIG. 22 is a diagram illustrating an example of a vehicle according to an embodiment.
  • the vehicle 40 includes a drive unit 41, a steering unit 42, an accelerator pedal 43, a brake pedal 44, a shift lever 45, left and right front wheels 46, left and right rear wheels 47, an axle 48, an electronic control unit 49, various sensors (current sensor 50, (including a rotation speed sensor 51, an air pressure sensor 52, a vehicle speed sensor 53, an acceleration sensor 54, an accelerator pedal sensor 55, a brake pedal sensor 56, a shift lever sensor 57, and an object detection sensor 58), an information service section 59, and a communication module 60. Be prepared.
  • the drive unit 41 is composed of, for example, at least one of an engine, a motor, and a hybrid of an engine and a motor.
  • the steering unit 42 includes at least a steering wheel (also referred to as a steering wheel), and is configured to steer at least one of the front wheels 46 and the rear wheels 47 based on the operation of the steering wheel operated by the user.
  • the electronic control unit 49 includes a microprocessor 61, a memory (ROM, RAM) 62, and a communication port (for example, an input/output (IO) port) 63. Signals from various sensors 50-58 provided in the vehicle are input to the electronic control unit 49.
  • the electronic control section 49 may be called an electronic control unit (ECU).
  • the signals from the various sensors 50 to 58 include a current signal from the current sensor 50 that senses the current of the motor, a rotation speed signal of the front wheel 46/rear wheel 47 obtained by the rotation speed sensor 51, and a signal obtained by the air pressure sensor 52.
  • air pressure signals of the front wheels 46/rear wheels 47 a vehicle speed signal acquired by the vehicle speed sensor 53, an acceleration signal acquired by the acceleration sensor 54, a depression amount signal of the accelerator pedal 43 acquired by the accelerator pedal sensor 55, and a brake pedal sensor.
  • 56 a shift lever 45 operation signal obtained by the shift lever sensor 57, and an object detection sensor 58 for detecting obstacles, vehicles, pedestrians, etc. There are signals etc.
  • the information service department 59 includes various devices such as car navigation systems, audio systems, speakers, displays, televisions, and radios that provide (output) various information such as driving information, traffic information, and entertainment information, and these devices. It consists of one or more ECUs that control the The information service unit 59 provides various information/services (for example, multimedia information/multimedia services) to the occupants of the vehicle 40 using information acquired from an external device via the communication module 60 or the like.
  • various information/services for example, multimedia information/multimedia services
  • the information service unit 59 may include an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, a touch panel, etc.) that accepts input from the outside, and an output device that performs output to the outside (for example, display, speaker, LED lamp, touch panel, etc.).
  • an input device for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, a touch panel, etc.
  • an output device that performs output to the outside (for example, display, speaker, LED lamp, touch panel, etc.).
  • the driving support system unit 64 includes millimeter wave radar, Light Detection and Ranging (LiDAR), a camera, a positioning locator (for example, Global Navigation Satellite System (GNSS), etc.), and map information (for example, High Definition (HD)). maps, autonomous vehicle (AV) maps, etc.), gyro systems (e.g., inertial measurement units (IMUs), inertial navigation systems (INS), etc.), artificial intelligence ( Artificial Intelligence (AI) chips, AI processors, and other devices that provide functions to prevent accidents and reduce the driver's driving burden, as well as one or more devices that control these devices. It consists of an ECU. Further, the driving support system section 64 transmits and receives various information via the communication module 60, and realizes a driving support function or an automatic driving function.
  • LiDAR Light Detection and Ranging
  • GNSS Global Navigation Satellite System
  • HD High Definition
  • maps for example, autonomous vehicle (AV) maps, etc.
  • gyro systems e.g.,
  • the communication module 60 can communicate with the microprocessor 61 and components of the vehicle 40 via the communication port 63.
  • the communication module 60 communicates via the communication port 63 with a drive unit 41, a steering unit 42, an accelerator pedal 43, a brake pedal 44, a shift lever 45, left and right front wheels 46, left and right rear wheels 47, which are included in the vehicle 40.
  • Data (information) is transmitted and received between the axle 48, the microprocessor 61 and memory (ROM, RAM) 62 in the electronic control unit 49, and various sensors 50-58.
  • the communication module 60 is a communication device that can be controlled by the microprocessor 61 of the electronic control unit 49 and can communicate with external devices. For example, various information is transmitted and received with an external device via wireless communication.
  • the communication module 60 may be located either inside or outside the electronic control unit 49.
  • the external device may be, for example, the base station 10, user terminal 20, etc. described above.
  • the communication module 60 may be, for example, at least one of the base station 10 and the user terminal 20 described above (it may function as at least one of the base station 10 and the user terminal 20).
  • the communication module 60 receives signals from the various sensors 50 to 58 described above that are input to the electronic control unit 49, information obtained based on the signals, and input from the outside (user) obtained via the information service unit 59. At least one of the information based on the information may be transmitted to an external device via wireless communication.
  • the electronic control unit 49, various sensors 50-58, information service unit 59, etc. may be called an input unit that receives input.
  • the PUSCH transmitted by the communication module 60 may include information based on the above input.
  • the communication module 60 receives various information (traffic information, signal information, inter-vehicle information, etc.) transmitted from an external device, and displays it on the information service section 59 provided in the vehicle.
  • the information service unit 59 is an output unit that outputs information (for example, outputs information to devices such as a display and a speaker based on the PDSCH (or data/information decoded from the PDSCH) received by the communication module 60). may be called.
  • the communication module 60 also stores various information received from external devices into a memory 62 that can be used by the microprocessor 61. Based on the information stored in the memory 62, the microprocessor 61 controls the drive unit 41, steering unit 42, accelerator pedal 43, brake pedal 44, shift lever 45, left and right front wheels 46, and left and right rear wheels provided in the vehicle 40. 47, axle 48, various sensors 50-58, etc. may be controlled.
  • the base station in the present disclosure may be replaced by a user terminal.
  • communication between a base station and a user terminal is replaced with communication between multiple user terminals (for example, it may be called Device-to-Device (D2D), Vehicle-to-Everything (V2X), etc.).
  • D2D Device-to-Device
  • V2X Vehicle-to-Everything
  • each aspect/embodiment of the present disclosure may be applied.
  • the user terminal 20 may have the functions that the base station 10 described above has.
  • words such as "uplink” and “downlink” may be replaced with words corresponding to inter-terminal communication (for example, "sidelink”).
  • uplink channels, downlink channels, etc. may be replaced with sidelink channels.
  • the user terminal in the present disclosure may be replaced with a base station.
  • the base station 10 may have the functions that the user terminal 20 described above has.
  • the operations performed by the base station may be performed by its upper node in some cases.
  • various operations performed for communication with a terminal may be performed by the base station, one or more network nodes other than the base station (e.g. It is clear that this can be performed by a Mobility Management Entity (MME), a Serving-Gateway (S-GW), etc. (though not limited thereto), or a combination thereof.
  • MME Mobility Management Entity
  • S-GW Serving-Gateway
  • Each aspect/embodiment described in this disclosure may be used alone, in combination, or may be switched and used in accordance with execution. Further, the order of the processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in this disclosure may be changed as long as there is no contradiction. For example, the methods described in this disclosure use an example order to present elements of the various steps and are not limited to the particular order presented.
  • LTE Long Term Evolution
  • LTE-A LTE-Advanced
  • LTE-B LTE-Beyond
  • SUPER 3G IMT-Advanced
  • 4G 4th generation mobile communication system
  • 5G 5th generation mobile communication system
  • 6G 6th generation mobile communication system
  • xG x is an integer or decimal number, for example
  • Future Radio Access FAA
  • RAT New-Radio Access Technology
  • NR New Radio
  • NX New Radio Access
  • FX Future Generation Radio Access
  • G Global System for Mobile Communications
  • CDMA2000 Ultra Mobile Broadband
  • UMB Ultra Mobile Broadband
  • IEEE 802 .11 Wi-Fi (registered trademark)
  • IEEE 802.16 WiMAX (registered trademark)
  • IEEE 802.20 Ultra-WideBand (UWB), Bluetooth (registered trademark), and other appropriate wireless communication methods.
  • the present invention may be applied to systems to be used, next-generation systems expanded, modified, created, or defined based on these
  • the phrase “based on” does not mean “based solely on” unless explicitly stated otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”
  • any reference to elements using the designations "first,” “second,” etc. does not generally limit the amount or order of those elements. These designations may be used in this disclosure as a convenient way to distinguish between two or more elements. Thus, reference to a first and second element does not imply that only two elements may be employed or that the first element must precede the second element in any way.
  • determining may encompass a wide variety of actions. For example, “judgment” can mean judging, calculating, computing, processing, deriving, investigating, looking up, search, inquiry ( For example, searching in a table, database, or other data structure), ascertaining, etc. may be considered to be “determining.”
  • judgment (decision) includes receiving (e.g., receiving information), transmitting (e.g., sending information), input (input), output (output), access ( may be considered to be “determining”, such as accessing data in memory (eg, accessing data in memory).
  • judgment is considered to mean “judging” resolving, selecting, choosing, establishing, comparing, etc. Good too.
  • judgment (decision) may be considered to be “judgment (decision)” of some action.
  • connection refers to any connection or coupling, direct or indirect, between two or more elements.
  • the coupling or connection between elements may be physical, logical, or a combination thereof. For example, "connection” may be replaced with "access.”
  • microwave when two elements are connected, they may be connected using one or more electrical wires, cables, printed electrical connections, etc., as well as in the radio frequency domain, microwave can be considered to be “connected” or “coupled” to each other using electromagnetic energy having wavelengths in the light (both visible and invisible) range.
  • a and B are different may mean “A and B are different from each other.” Note that the term may also mean that "A and B are each different from C”. Terms such as “separate” and “coupled” may also be interpreted similarly to “different.”
  • words meaning "good”, “bad”, “large”, “small”, “high”, “low”, “early”, “slow”, etc. may be read interchangeably. (Not limited to original, comparative, and superlative).
  • words meaning "good”, “bad”, “large”, “small”, “high”, “low”, “early”, “slow”, etc. are replaced with “i-th”. They may be interchanged as expressions (not limited to the original, comparative, and superlative) (for example, “the highest” may be interchanged with “the i-th highest”).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本開示の一態様に係る端末は、知識の蒸留における生徒モデルに関する生徒モデル情報を受信する受信部と、前記生徒モデル情報に基づく出力に関する情報を送信する送信部と、を有する。本開示の一態様によれば、好適なオーバーヘッド低減/チャネル推定/リソースの利用を実現できる。

Description

端末、無線通信方法及び基地局
 本開示は、次世代移動通信システムにおける端末、無線通信方法及び基地局に関する。
 Universal Mobile Telecommunications System(UMTS)ネットワークにおいて、更なる高速データレート、低遅延などを目的としてLong Term Evolution(LTE)が仕様化された(非特許文献1)。また、LTE(Third Generation Partnership Project(3GPP) Release(Rel.)8、9)の更なる大容量、高度化などを目的として、LTE-Advanced(3GPP Rel.10-14)が仕様化された。
 LTEの後継システム(例えば、5th generation mobile communication system(5G)、5G+(plus)、6th generation mobile communication system(6G)、New Radio(NR)、3GPP Rel.15以降などともいう)も検討されている。
 将来の無線通信技術について、ネットワーク/デバイスの制御、管理などに、機械学習(Machine Learning(ML))のような人工知能(Artificial Intelligence(AI))技術を活用することが検討されている。
 端末(ユーザ端末、User Equipment(UE))におけるAIモデル訓練/モデル推論を適切に制御できることが好ましい。しかしながら、制御の具体的な内容については、まだ検討が進んでいない。この制御を適切に規定しなければ、適切なオーバーヘッド低減/高精度なチャネル推定/高効率なリソースの利用が達成できず、通信スループット/通信品質の向上が抑制されるおそれがある。
 そこで、本開示は、好適なオーバーヘッド低減/チャネル推定/リソースの利用を実現できる端末、無線通信方法及び基地局を提供することを目的の1つとする。
 本開示の一態様に係る端末は、知識の蒸留における生徒モデルに関する生徒モデル情報を受信する受信部と、前記生徒モデル情報に基づく出力に関する情報を送信する送信部と、を有する。
 本開示の一態様によれば、好適なオーバーヘッド低減/チャネル推定/リソースの利用を実現できる。
図1は、AIモデルの管理のフレームワークの一例を示す図である。 図2は、AIモデルの一例を示す図である。 図3は、第1の実施形態にかかるAIモデルの指定の一例を示す図である。 図4は、第1の実施形態にかかるAIモデルの更新の一例を示す図である。 図5は、ファインチューニングの一例を示す図である。 図6は、転移学習の一例を示す図である。 図7は、第1の実施形態にかかるAIモデルの更新の一例を示す図である。 図8は、第2の実施形態にかかるAIモデルの指定の一例を示す図である。 図9は、第2の実施形態にかかるAIモデルの更新の一例を示す図である。 図10は、第2の実施形態にかかるAIモデルの更新の一例を示す図である。 図11は、第3の実施形態にかかるAIモデルの指定の一例を示す図である。 図12は、第3の実施形態にかかるAIモデルの指定の一例を示す図である。 図13A-13Bは、第3の実施形態にかかるUE訓練AIモデル情報の一例を示す図である。 図14A-14Bは、第3の実施形態にかかるUE訓練AIモデル情報の一例を示す図である。 図15は、連合学習についてのAIモデル情報のやり取りの一例を示す図である。 図16A-16Cは、更新されるAIモデル情報の一例を示す図である。 図17A及び17Bは、知識の蒸留を利用した学習の一例を示す図である。 図18は、一実施形態に係る無線通信システムの概略構成の一例を示す図である。 図19は、一実施形態に係る基地局の構成の一例を示す図である。 図20は、一実施形態に係るユーザ端末の構成の一例を示す図である。 図21は、一実施形態に係る基地局及びユーザ端末のハードウェア構成の一例を示す図である。 図22は、一実施形態に係る車両の一例を示す図である。
(無線通信への人工知能(Artificial Intelligence(AI))技術の適用)
 将来の無線通信技術について、ネットワーク/デバイスの制御、管理などに、機械学習(Machine Learning(ML))のようなAI技術を活用することが検討されている。
 例えば、将来の無線通信技術について、チャネル状態情報(Channel State Information Reference Signal(CSI))フィードバックの向上(例えば、オーバーヘッド低減、正確度改善、予測)、ビームマネジメントの改善(例えば、正確度改善、時間/空間領域での予測)、位置測定の改善(例えば、位置推定/予測の改善)などのためにAI技術を活用することが検討されている。
 図1は、AIモデルの管理のフレームワークの一例を示す図である。本例では、AIモデルに関連する各ステージがブロックで示されている。本例は、AIモデルのライフサイクル管理とも表現される。
 データ収集ステージは、AIモデルの生成/更新のためのデータを収集する段階に該当する。データ収集ステージは、データ整理(例えば、どのデータをモデル訓練/モデル推論のために転送するかの決定)、データ転送(例えば、モデル訓練/モデル推論を行うエンティティ(例えば、UE、gNB)に対して、データを転送)などを含んでもよい。
 モデル訓練ステージでは、収集ステージから転送されるデータ(訓練用データ)に基づいてモデル訓練が行われる。このステージは、データ準備(例えば、データの前処理、クリーニング、フォーマット化、変換などの実施)、モデル訓練/バリデーション、モデルテスティング(例えば、訓練されたモデルが性能の閾値を満たすかの確認)、モデル交換(例えば、分散学習のためのモデルの転送)、モデルデプロイメント/更新(モデル推論を行うエンティティに対してモデルをデプロイ/更新)などを含んでもよい。
 モデル推論ステージでは、収集ステージから転送されるデータ(推論用データ)に基づいてモデル推論が行われる。このステージは、データ準備(例えば、データの前処理、クリーニング、フォーマット化、変換などの実施)、モデル推論、モデル性能フィードバック(モデル訓練を行うエンティティに対してモデル性能をフィードバック)、出力(アクターに対してモデルの出力を提供)などを含んでもよい。
 アクターステージは、アクショントリガ(例えば、他のエンティティに対してアクションをトリガするか否かの決定)、フィードバック(例えば、訓練用データ/推論用データ/性能フィードバックのために必要な情報をフィードバック)などを含んでもよい。
 なお、例えばモビリティ最適化のためのモデルの訓練は、例えば、ネットワーク(Network(NW))における保守運用管理(Operation、Administration and Maintenance(Management))/gNodeB(gNB)において行われてもよい。前者の場合、相互運用、大容量ストレージ、オペレータの管理性、モデルの柔軟性(フィーチャーエンジニアリングなど)が有利である。後者の場合、モデル更新のレイテンシ、モデル展開のためのデータ交換などが不要な点が有利である。上記モデルの推論は、例えば、gNBにおいて行われてもよい。
 また、ユースケースに応じて、訓練/推論を行うエンティティは異なってもよい。
 例えば、メジャメントレポートに基づくAI支援ビーム管理については、OAM/gNBがモデル訓練を行い、gNBがモデル推論を行ってもよい。
 AI支援UEアシステッドポジショニングについては、Location Management Function(LMF)がモデル訓練を行い、当該LMFがモデル推論を行ってもよい。
 自己符号化器(オートエンコーダ(autoencoder))を用いるCSIフィードバック/チャネル推定については、OAM/gNB/UEがモデル訓練を行い、gNB/UEが(ジョイントで)モデル推論を行ってもよい。
 ビーム測定に基づくAI支援ビーム管理又はAI支援UEベースドポジショニングについては、OAM/gNB/UEがモデル訓練を行い、UEがモデル推論を行ってもよい。
 以上述べたように、UEにおいてAIモデルの訓練を実施できることが好ましい。gNB/OAMが直接利用できないデータを、UEが直接取得できることがあるためである。例えば、CSIフィードバックのためのオートエンコーダのモデル訓練には完全な下りリンクのCSI情報(又はチャネル情報)が必要であるが、この情報を直接取得できるのはUEだけである。
 もしgNB/OAMにおいてオートエンコーダのモデル訓練を行う場合、完全な下りリンクのCSI情報(又はチャネル情報)をUEが送信する必要があるが、通信オーバーヘッドが大きい。一方で、UEにおいてオートエンコーダのモデル訓練を行う場合、完全な下りリンクのCSI情報(又はチャネル情報)をUEが保持する必要があるが、UEのストレージ/計算リソースはgNB/OAMに比べて乏しい。
 以上から、UEにおけるモデル訓練/モデル推論を適切に制御できることが好ましい。しかしながら、制御の具体的な内容については、まだ検討が進んでいない。この制御を適切に規定しなければ、適切なオーバーヘッド低減/高精度なチャネル推定/高効率なリソースの利用が達成できず、通信スループット/通信品質の向上が抑制されるおそれがある。
 そこで、本発明者らは、モデル訓練/モデル推論の好適な制御方法を着想した。なお、本開示の各実施形態は、AI/予測が利用されない場合に適用されてもよい。
 本開示の一実施形態では、端末(ユーザ端末、User Equipment(UE))/基地局(Base Station(BS))は、訓練モード(training mode)においてMLモデルの訓練を行い、推論モード(inference mode、inference modeなどとも呼ばれる)においてMLモデルを実施する。推論モードでは、訓練モードにおいて訓練されたMLモデル(trained ML model)の精度の検証(バリデーション)が行われてもよい。
 本開示においては、UE/BSは、MLモデルに対して、チャネル状態情報、参照信号測定値などを入力して、高精度なチャネル状態情報/測定値/ビーム選択/位置、将来のチャネル状態情報/無線リンク品質などを出力してもよい。
 なお、本開示において、AIは、以下の少なくとも1つの特徴を有する(実施する)オブジェクト(対象、客体、データ、関数、プログラムなどとも呼ばれる)で読み替えられてもよい:
・観測又は収集される情報に基づく推定、
・観測又は収集される情報に基づく選択、
・観測又は収集される情報に基づく予測。
 本開示において、オブジェクトは、例えば、端末、基地局などの装置、デバイスなどであってもよい。また、本開示において、オブジェクトは、当該装置において動作するプログラム/モデル/エンティティに該当してもよい。
 また、本開示において、MLモデルは、以下の少なくとも1つの特徴を有する(実施する)オブジェクトで読み替えられてもよい:
・情報を与えること(feeding)によって、推定値を生み出す、
・情報を与えることによって、推定値を予測する、
・情報を与えることによって、特徴を発見する、
・情報を与えることによって、動作を選択する。
 また、本開示において、MLモデル、モデル、AIモデル、予測分析(predictive analytics)、予測分析モデルなどは、互いに読み替えられてもよい。また、MLモデルは、回帰分析(例えば、線形回帰分析、重回帰分析、ロジスティック回帰分析)、サポートベクターマシン、ランダムフォレスト、ニューラルネットワーク、ディープラーニングなどの少なくとも1つを用いて導出されてもよい。本開示において、モデルは、エンコーダ、デコーダ、ツールなどの少なくとも1つで読み替えられてもよい。
 MLモデルは、入力される情報に基づいて、推定値、予測値、選択される動作、分類、などの少なくとも1つの情報を出力する。
 MLモデルには、教師あり学習(supervised learning)、教師なし学習(unsupervised learning)、強化学習(Reinforcement learning)などが含まれてもよい。教師あり学習は、入力を出力にマップする一般的なルールを学習するために用いられてもよい。教師なし学習は、データの特徴を学習するために用いられてもよい。強化学習は、目的(ゴール)を最大化するための動作を学習するために用いられてもよい。
 本開示において、生成、算出、導出などは、互いに読み替えられてもよい。本開示において、実施、運用、動作、実行などは、互いに読み替えられてもよい。本開示において、訓練、学習、更新、再訓練などは、互いに読み替えられてもよい。本開示において、推論、訓練後(after-training)、本番の利用、実際の利用、などは互いに読み替えられてもよい。信号は、信号/チャネルと互いに読み替えられてもよい。
 本開示において、訓練モードは、UE/BSがMLモデルのために信号を送信/受信するモード(言い換えると、訓練期間における動作モード)に該当してもよい。本開示において、推論モードは、UE/BSがMLモデルを実施する(例えば、訓練されたMLモデルを実施して出力を予測する)モード(言い換えると、推論期間における動作モード)に該当してもよい。
 本開示において、訓練モードは、推論モードで送信される特定の信号について、オーバーヘッドが大きい(例えば、リソース量が多い)当該特定の信号が送信されるモードを意味してもよい。
 本開示において、訓練モードは、第1の設定(例えば、第1のDMRS設定、第1のCSI-RS設定、第1のCSI報告設定)を参照するモードを意味してもよい。本開示において、推論モードは、第1の設定とは別の第2の設定(例えば、第2のDMRS設定、第2のCSI-RS設定、第2のCSI報告設定)を参照するモードを意味してもよい。第1の設定は、第2の設定よりも、測定に関する時間リソース、周波数リソース、符号リソース、ポート(アンテナポート)の少なくとも1つが多く設定されてもよい。なお、例えば、CSI報告設定は、オートエンコーダに関する設定を含んでもよい。
 以下、本開示に係る実施形態について、図面を参照して詳細に説明する。各実施形態に係る無線通信方法は、それぞれ単独で適用されてもよいし、組み合わせて適用されてもよい。
 以下の実施形態では、UE-BS間の通信に関するMLモデルを説明するため、関連する主体はUE及びBSであるが、本開示の各実施形態の適用は、これに限られない。例えば、別の主体間の通信(例えば、UE-UE間の通信)については、下記実施形態のUE及びBSを、第1のUE及び第2のUEで読み替えてもよい。言い換えると、本開示のUE、BSなどは、いずれも任意のUE/BSで読み替えられてもよい。
 本開示において、「A/B」及び「A及びBの少なくとも一方」は、互いに読み替えられてもよい。また、本開示において、「A/B/C」は、「A、B及びCの少なくとも1つ」を意味してもよい。
 本開示において、アクティベート、ディアクティベート、指示(又は指定(indicate))、選択(select)、設定(configure)、更新(update)、決定(determine)などは、互いに読み替えられてもよい。本開示において、サポートする、制御する、制御できる、動作する、動作できるなどは、互いに読み替えられてもよい。
 本開示において、無線リソース制御(Radio Resource Control(RRC))、RRCパラメータ、RRCメッセージ、上位レイヤパラメータ、フィールド、情報要素(Information Element(IE))、設定などは、互いに読み替えられてもよい。本開示において、Medium Access Control制御要素(MAC Control Element(CE))、更新コマンド、アクティベーション/ディアクティベーションコマンドなどは、互いに読み替えられてもよい。
 本開示において、上位レイヤシグナリングは、例えば、Radio Resource Control(RRC)シグナリング、Medium Access Control(MAC)シグナリング、ブロードキャスト情報などのいずれか、又はこれらの組み合わせであってもよい。
 本開示において、MACシグナリングは、例えば、MAC制御要素(MAC Control Element(MAC CE))、MAC Protocol Data Unit(PDU)などを用いてもよい。ブロードキャスト情報は、例えば、マスタ情報ブロック(Master Information Block(MIB))、システム情報ブロック(System Information Block(SIB))、最低限のシステム情報(Remaining Minimum System Information(RMSI))、その他のシステム情報(Other System Information(OSI))などであってもよい。
 本開示において、物理レイヤシグナリングは、例えば、下りリンク制御情報(Downlink Control Information(DCI))、上りリンク制御情報(Uplink Control Information(UCI))などであってもよい。
 本開示において、インデックス、識別子(Identifier(ID))、インディケーター、リソースIDなどは、互いに読み替えられてもよい。本開示において、シーケンス、リスト、セット、グループ、群、クラスター、サブセットなどは、互いに読み替えられてもよい。
 本開示において、パネル、UEパネル、パネルグループ、ビーム、ビームグループ、プリコーダ、Uplink(UL)送信エンティティ、送受信ポイント(Transmission/Reception Point(TRP))、基地局、空間関係情報(Spatial Relation Information(SRI))、空間関係、SRSリソースインディケーター(SRS Resource Indicator(SRI))、制御リソースセット(COntrol REsource SET(CORESET))、Physical Downlink Shared Channel(PDSCH)、コードワード(Codeword(CW))、トランスポートブロック(Transport Block(TB))、参照信号(Reference Signal(RS))、アンテナポート(例えば、復調用参照信号(DeModulation Reference Signal(DMRS))ポート)、アンテナポートグループ(例えば、DMRSポートグループ)、グループ(例えば、空間関係グループ、符号分割多重(Code Division Multiplexing(CDM))グループ、参照信号グループ、CORESETグループ、Physical Uplink Control Channel(PUCCH)グループ、PUCCHリソースグループ)、リソース(例えば、参照信号リソース、SRSリソース)、リソースセット(例えば、参照信号リソースセット)、CORESETプール、下りリンクのTransmission Configuration Indication state(TCI状態)(DL TCI状態)、上りリンクのTCI状態(UL TCI状態)、統一されたTCI状態(unified TCI state)、共通TCI状態(common TCI state)、擬似コロケーション(Quasi-Co-Location(QCL))、QCL想定などは、互いに読み替えられてもよい。
 本開示において、CSI-RS、ノンゼロパワー(Non Zero Power(NZP))CSI-RS、ゼロパワー(Zero Power(ZP))CSI-RS及びCSI干渉測定(CSI Interference Measurement(CSI-IM))は、互いに読み替えられてもよい。また、CSI-RSは、その他の参照信号を含んでもよい。
 本開示において、測定/報告されるRSは、CSIレポートのために測定/報告されるRSを意味してもよい。
 本開示において、タイミング、時刻、時間、スロット、サブスロット、シンボル、サブフレームなどは、互いに読み替えられてもよい。
 本開示において、方向、軸、次元、ドメイン、偏波、偏波成分などは、互いに読み替えられてもよい。
 本開示において、RSは、例えば、CSI-RS、SS/PBCHブロック(SSブロック(SSB))などであってもよい。また、RSインデックスは、CSI-RSリソースインディケーター(CSI-RS Resource Indicator(CRI))、SS/PBCHブロックリソースインディケーター(SS/PBCH Block Indicator(SSBRI))などであってもよい。
 本開示において、推定(estimation)、予測(prediction)、推論(inference)は、互いに読み替えられてもよい。また、本開示において、推定する(estimate)、予測する(predict)、推論する(infer)は、互いに読み替えられてもよい。
 本開示において、オートエンコーダ、エンコーダ、デコーダなどは、モデル、MLモデル、ニューラルネットワークモデル、AIモデル、AIアルゴリズムなどの少なくとも1つで読み替えられてもよい。また、オートエンコーダは、積層オートエンコーダ、畳み込みオートエンコーダなど任意のオートエンコーダと互いに読み替えられてもよい。本開示のエンコーダ/デコーダは、Residual Network(ResNet)、DenseNet、RefineNetなどのモデルを採用してもよい。
 また、本開示において、エンコーダ、エンコーディング、エンコード、エンコーダによる修正/変更/制御などは、互いに読み替えられてもよい。また、本開示において、デコーダ、デコーディング、デコード、デコーダによる修正/変更/制御などは、互いに読み替えられてもよい。
 本開示において、チャネル測定/推定は、例えば、チャネル状態情報参照信号(Channel State Information Reference Signal(CSI-RS))、同期信号(Synchronization Signal(SS))、同期信号/ブロードキャストチャネル(Synchronization Signal/Physical Broadcast Channel(SS/PBCH))ブロック、復調用参照信号(DeModulation Reference Signal(DMRS))、測定用参照信号(Sounding Reference Signal(SRS))などの少なくとも1つを用いて行われてもよい。
 本開示において、CSIは、チャネル品質インディケーター(Channel Quality Indicator(CQI))、プリコーディング行列インディケーター(Precoding Matrix Indicator(PMI))、CSI-RSリソースインディケーター(CSI-RS Resource Indicator(CRI))、SS/PBCHブロックリソースインディケーター(SS/PBCH Block Resource Indicator(SSBRI))、レイヤインディケーター(Layer Indicator(LI))、ランクインディケーター(Rank Indicator(RI))、L1-RSRP(レイヤ1における参照信号受信電力(Layer 1 Reference Signal Received Power))、L1-RSRQ(Reference Signal Received Quality)、L1-SINR(Signal to Interference plus Noise Ratio)、L1-SNR(Signal to Noise Ratio)などの少なくとも1つを含んでもよい。
 本開示において、UCI、CSIレポート、CSIフィードバック、フィードバック情報、フィードバックビットなどは、互いに読み替えられてもよい。また、本開示において、ビット、ビット列、ビット系列、系列、値、情報、ビットから得られる値、ビットから得られる情報などは、互いに読み替えられてもよい。
 本開示において、(エンコーダについての)レイヤは、AIモデルにおいて利用されるレイヤ(入力層、中間層など)と互いに読み替えられてもよい。本開示のレイヤ(層)は、入力層、中間層、出力層、バッチ正規化層、畳み込み層、活性化層、デンス(dense)層、正規化層、プーリング層、アテンション層、ドロップアウト層、全結合層などの少なくとも1つに該当してもよい。
(無線通信方法)
 本開示において、AIモデル情報は、以下の少なくとも1つを含む情報を意味してもよい:
 ・AIモデルの入力/出力の情報、
 ・AIモデルの入力/出力のための前処理/後処理の情報、
 ・AIモデルのパラメータの情報、
 ・AIモデルのための訓練情報(トレーニング情報)、
 ・AIモデルのための推論情報、
 ・AIモデルに関する性能情報。
 ここで、上記AIモデルの入力/出力の情報は、以下の少なくとも1つに関する情報を含んでもよい:
 ・入力/出力データの内容(例えば、RSRP、SINR、チャネル行列(又はプリコーディング行列)における振幅/位相情報、到来角度(Angle of Arrival(AoA))に関する情報、放射角度(Angle of Departure(AoD))に関する情報、位置情報)、
 ・入力/出力データのタイプ(例えば、不変値(immutable value)、浮動小数点数)、
 ・入力/出力データの量子化間隔(量子化ステップサイズ)(例えば、L1-RSRPについて、1dBm)、
 ・入力/出力データが取り得る範囲(例えば、[0、1])。
 なお、本開示において、AoAに関する情報は、到来方位角度(azimuth angle of arrival)及び到来天頂角度(zenith angle of arrival(ZoA))の少なくとも1つに関する情報を含んでもよい。また、AoDに関する情報は、例えば、放射方位角度(azimuth angle of departure)及び放射天頂角度(zenith angle of depature(ZoD))の少なくとも1つに関する情報を含んでもよい。
 本開示において、位置情報は、UE/NWに関する位置情報であってもよい。位置情報は、測位システム(例えば、衛星測位システム(Global Navigation Satellite System(GNSS)、Global Positioning System(GPS)など))を用いて得られる情報(例えば、緯度、経度、高度)、当該UEに隣接する(又はサービング中の)基地局の情報(例えば、基地局/セルの識別子(Identifier(ID))、BS-UE間の距離、UE(BS)から見たBS(UE)の方向/角度、UE(BS)から見たBS(UE)の座標(例えば、X/Y/Z軸の座標)など)、UEの特定のアドレス(例えば、Internet Protocol(IP)アドレス)などの少なくとも1つを含んでもよい。UEの位置情報は、BSの位置を基準とする情報に限られず、特定のポイントを基準とする情報であってもよい。
 位置情報は、自身の実装に関する情報(例えば、アンテナの位置(location/position)/向き、アンテナパネルの位置/向き、アンテナの数、アンテナパネルの数など)を含んでもよい。
 位置情報は、モビリティ情報を含んでもよい。モビリティ情報は、モビリティタイプを示す情報、UEの移動速度、UEの加速度、UEの移動方向などの少なくとも1つを示す情報を含んでもよい。
 ここで、モビリティタイプは、固定位置UE(fixed location UE)、移動可能/移動中UE(movable/moving UE)、モビリティ無しUE(no mobility UE)、低モビリティUE(low mobility UE)、中モビリティUE(middle mobility UE)、高モビリティUE(high mobility UE)、セル端UE(cell-edge UE)、非セル端UE(not-cell-edge UE)などの少なくとも1つに該当してもよい。
 上記AIモデルの入力/出力のための前処理/後処理の情報は、以下の少なくとも1つに関する情報を含んでもよい:
 ・正規化(例えば、Zスコア正規化(標準化)、最小-最大(min-max)正規化)を適用するか否か、
 ・正規化のためのパラメータ(例えば、Zスコア正規化については平均/分散、最小-最大正規化については最小値/最大値)、
 ・特定の数値変換方法(例えば、ワンホットエンコーディング(one hot encoding)、ラベルエンコーディング(label encoding)など)を適用するか否か、
 ・訓練データとして用いられるか否かの選択ルール。
 例えば、入力情報xに対して前処理としてZスコア正規化(xnew=(x-μ)/σ。ここで、μはxの平均、σは標準偏差)を行った正規化済み入力情報xnewをAIモデルに入力してもよく、AIモデルからの出力youtに後処理を掛けて最終的な出力yが得られてもよい。
 上記AIモデルのパラメータの情報は、以下の少なくとも1つに関する情報を含んでもよい:
 ・AIモデルにおける重み(例えば、ニューロンの係数(結合係数))情報、
 ・AIモデルの構造(structure)、
 ・モデルコンポーネントとしてのAIモデルのタイプ(例えば、Residual Network(ResNet)、DenseNet、RefineNet、トランスフォーマー(Transformer)モデル、CRBlock、回帰型ニューラルネットワーク(Recurrent Neural Network(RNN))、長・短期記憶(Long Short-Term Memory(LSTM))、ゲート付き回帰型ユニット(Gated Recurrent Unit(GRU))),
 ・モデルコンポーネントとしてのAIモデルの機能(例えば、デコーダ、エンコーダ)。
 なお、上記AIモデルにおける重み情報は、以下の少なくとも1つに関する情報を含んでもよい:
 ・重み情報のビット幅(サイズ)、
 ・重み情報の量子化間隔、
 ・重み情報が取り得る範囲、
 ・AIモデルにおける重みのパラメータ、
 ・更新前のAIモデルからの差分の情報(更新する場合)、
 ・重み初期化(weight initialization)の方法(例えば、ゼロ初期化、ランダム初期化(正規分布/一様分布/切断正規分布に基づく)、Xavier初期化(シグモイド関数向け)、He初期化(整流化線形ユニット(Rectified Linear Units(ReLU))向け))。
 また、上記AIモデルの構造は、以下の少なくとも1つに関する情報を含んでもよい:
 ・レイヤ数、
 ・レイヤのタイプ(例えば、畳み込み層、活性化層、デンス(dense)層、正規化層、プーリング層、アテンション層)、
 ・レイヤ情報、
 ・時系列特有のパラメータ(例えば、双方向性、時間ステップ)、
 ・訓練のためのパラメータ(例えば、機能のタイプ(L2正則化、ドロップアウト機能など)、どこに(例えば、どのレイヤの後に)この機能を置くか)。
 上記レイヤ情報は、以下の少なくとも1つに関する情報を含んでもよい:
 ・各レイヤにおけるニューロン数、
 ・カーネルサイズ、
 ・プーリング層/畳み込み層のためのストライド、
 ・プーリング方法(MaxPooling、AveragePoolingなど)、
 ・残差ブロックの情報、
 ・ヘッド(head)数、
 ・正規化方法(バッチ正規化、インスタンス正規化、レイヤ正規化など)、
 ・活性化関数(シグモイド、tanh関数、ReLU、リーキーReLUの情報、Maxout、Softmax)。
 図2は、AIモデルの一例を示す図である。本例は、モデルコンポーネント#1であるResNet、モデルコンポーネント#2であるトランスフォーマーモデル、デンス層及び正規化層を含むAIモデルを示す。このように、あるAIモデルは、別のAIモデルのコンポーネントとして含まれてもよい。なお、図2は、左から右の順に処理が進んでいくAIモデルであってもよい。
 上記AIモデルのための訓練情報は、以下の少なくとも1つに関する情報を含んでもよい:
 ・最適化アルゴリズムのための情報(例えば、最適化の種類(確率的勾配降下法(Stochastic Gradient Descent(SGD)))、AdaGrad、Adamなど)、最適化のパラメータ(学習率(learning rate)、モメンタム情報など)、
 ・損失関数の情報(例えば、損失関数の指標(metrics)に関する情報(平均絶対誤差(Mean Absolute Error(MAE))、平均二乗誤差(Mean Square Error(MSE))、クロスエントロピーロス、NLLLoss、KLダイバージェンスなど))、
 ・訓練用に凍結されるべきパラメータ(例えば、レイヤ、重み)、
 ・更新されるべきパラメータ(例えば、レイヤ、重み)、
 ・訓練用の初期パラメータであるべき(初期パラメータとして用いられるべき)パラメータ(例えば、レイヤ、重み)、
 ・AIモデルの訓練/更新方法(例えば、(推奨)エポック数、バッチサイズ、訓練に使用するデータ数)。
 上記AIモデルのための推論情報は、決定木の枝剪定(branch pruning)、パラメータ量子化などに関する情報を含んでもよい。
 上記AIモデルに関する性能情報は、AIモデルのために定義される損失関数の期待値に関する情報を含んでもよい。
 特定のAIモデルに関するAIモデル情報は、規格において予め定められてもよいし、ネットワーク(Network(NW))からUEに通知されてもよい。規格において規定されるAIモデルは、参照(reference)AIモデルと呼ばれてもよい。参照AIモデルに関するAIモデル情報は、参照AIモデル情報と呼ばれてもよい。
 なお、本開示におけるAIモデル情報は、AIモデルを特定するためのインデックス(例えば、AIモデルインデックスと呼ばれてもよい)を含んでもよい。本開示におけるAIモデル情報は、上述のAIモデルの入力/出力の情報などに加えて/の代わりに、AIモデルインデックスを含んでもよい。AIモデルインデックスとAIモデル情報(例えば、AIモデルの入力/出力の情報)との関連付けは、規格において予め定められてもよいし、NWからUEに通知されてもよい。
<第1の実施形態>
 第1の実施形態は、参照AIモデルの利用の制御に関する。
 UEは、参照AIモデル情報を、NWから受信してもよい。UEは、受信した参照AIモデル情報に基づいて、上記参照AIモデルをデプロイしてもよい(利用可能にしてもよい、配備してもよい)。
 図3は、第1の実施形態にかかるAIモデルの指定の一例を示す図である。本例では、AIモデル#1-#3が規格において規定されている。NWからAIモデル#3を示すAIモデル情報を受信したUEは、AIモデル#3をデプロイしてもよい。
 UEは、受信した参照AIモデル情報に基づく(例えば、受信した参照AIモデル情報によって指定される)参照AIモデルをそのまま推論に利用してもよい。
 また、UEは、受信した参照AIモデル情報に基づいて、参照AIモデルを訓練してもよい。
 なお、本開示において、UEにおけるAIモデルの訓練/更新は、UEが有するデータセット(例えば、測定結果から得られるデータ)に基づいて行われてもよい。
 図4は、第1の実施形態にかかるAIモデルの更新の一例を示す図である。本例では、AIモデル#1-#2が規格において規定されている。NWからAIモデル#2を示すAIモデル情報を受信したUEは、AIモデル#2をデプロイしてもよい。また、UEは、当該AIモデル#2を更新してもよい。
 ここで、AIモデルの更新に関して、ファインチューニングと転移学習(transfer learning)について説明する。図5は、ファインチューニングの一例を示す図である。図6は、転移学習の一例を示す図である。
 図5に示すように、ファインチューニングでは、訓練を実施するエンティティは、ソースドメインにおける訓練済みのAIモデルのパラメータを、ターゲットドメインにおけるAIモデルの初期パラメータ(訓練前AIモデル)として用いて訓練を行い、ターゲットドメインにおける訓練済みのAIモデルを導出する。つまり、ソースドメインにおける訓練済みのAIモデルの全レイヤが、ターゲットドメインにおけるAIモデルの全レイヤに転送されてもよく、一部は更新されずそのまま用いられてもよい(固定(凍結)されてもよい)。
 図6に示すように、転移学習(ネットワークベースドディープ転移学習などと呼ばれてもよい)では、訓練を実施するエンティティは、ソースドメインにおける訓練済みの一部のレイヤを、ターゲットドメインのレイヤとして再利用する。これらのレイヤ(図では、フロント(左部分)レイヤ)は特徴抽出器として利用され得る。つまり、ソースドメインにおける訓練済みのAIモデルの一部のレイヤのみが、ターゲットドメインにおけるAIモデルの対応するレイヤに転送されてもよく、当該レイヤは固定(凍結)されてもよいし、ファインチューニングされてもよい。また、ターゲットドメインにおける残りのレイヤは、ソースドメインに対応するレイヤがなくてもよく、ターゲットドメインにおいて新たに訓練(又はファインチューニング)されてもよい。
 UEは、参照AIモデル情報から得られる訓練用に凍結されるべきパラメータ(例えば、レイヤ、重み)については、訓練の際に更新しなくてもよい。UEは、参照AIモデル情報から得られる更新(ファインチューン)されるべきパラメータについては、訓練の際に更新してもよい。
 UEは、参照AIモデル情報から得られる訓練用の初期パラメータであるべき(初期パラメータとして用いられるべき)パラメータを用いて、訓練を行ってもよい。
 図7は、第1の実施形態にかかるAIモデルの更新の一例を示す図である。本例では、UEは、NWから参照AIモデル#2の更新を指示される。ただし、当該指示は、最初の3レイヤが凍結されるべきであり、かつ最後の2レイヤがファインチューンされるべきであることを示す情報を含む。UEは、当該指示に基づいて、参照AIモデル#2の最初の3レイヤを凍結しつつ最後の2レイヤをファインチューンした、更新されたAIモデル#2を導出してもよい。
 以上説明した第1の実施形態によれば、UEにおいて、参照AIモデルを適切に利用できる。
<第2の実施形態>
 第2の実施形態は、NWによって訓練されたAIモデル(以下、NW訓練AIモデル(NW-trained AI model)とも呼ぶ)の利用の制御に関する。
 NWは、参照AIモデルを訓練してもよい。NWは、訓練された参照AIモデル(言い換えると、NW訓練AIモデル)に関するAIモデル情報を、UEに送信してもよい。当該AIモデル情報は、NW訓練AIモデル情報と呼ばれてもよい。
 UEは、NW訓練AIモデル情報のベースとなる参照AIモデル情報を、NWから受信してもよい。また、UEは、NW訓練AIモデル情報を、NWから受信してもよい。NW訓練AIモデル情報は、既に述べたAIモデル情報の代わりに又はこれに加えて、以下のいずれか又はこれらの組み合わせの情報を含んでもよい:
 ・NW訓練AIモデルのベースとなった参照AIモデル(のインデックス)、
 ・参照AIモデルからのNW訓練AIモデルの差分の情報。
 UEは、受信したNW訓練AIモデル情報に基づいて、NW訓練AIモデルをデプロイしてもよい(利用可能にしてもよい、配備してもよい)。
 図8は、第2の実施形態にかかるAIモデルの指定の一例を示す図である。本例では、参照AIモデル#1-#2が規格において規定されている。NWは、参照AIモデル#2を訓練し、NW訓練AIモデル#2を導出する。
 NWは、UEに対して、参照AIモデル#2を示すAIモデル情報を通知し、また、NW訓練AIモデル#2の情報(例えば、更新された差分の情報)を通知する。これらを受信したUEは、参照AIモデル#2について、更新された差分の情報を考慮してNW訓練AIモデル#2を決定できる。
 UEは、受信したNW訓練AIモデル情報に基づくNW訓練AIモデルを、そのまま推論に利用してもよい。
 また、UEは、受信したNW訓練AIモデル情報に基づいて、NW訓練AIモデルを訓練してもよい。
 図9は、第2の実施形態にかかるAIモデルの更新の一例を示す図である。本例では、図8と同様に、UEは、NW訓練AIモデル#2を決定したと想定する。UEは、NW訓練AIモデル#2をさらに更新してもよい。例えば、UEは、NW訓練AIモデル#2のうち、元々の参照AIモデル#2と同じレイヤ(図示される最初の3レイヤ)を、自身が有するデータセットに基づいて更新してもよい。
 UEは、NW訓練AIモデル情報から得られる訓練用に凍結されるべきパラメータ(例えば、レイヤ、重み)については、訓練の際に更新しなくてもよい。UEは、NW訓練AIモデル情報から得られる更新されるべきパラメータについては、訓練の際に更新してもよい。
 UEは、NW訓練AIモデル情報から得られる訓練用の初期パラメータであるべき(初期パラメータとして用いられるべき)パラメータを用いて、訓練を行ってもよい。
 図10は、第2の実施形態にかかるAIモデルの更新の一例を示す図である。本例では、UEは、NWからNW訓練AIモデル#2の更新を指示される。ただし、当該指示は、最初の3レイヤが凍結されるべきであり、かつ最後の2レイヤがファインチューンされるべきであることを示す情報を含む。UEは、当該指示に基づいて、NW訓練AIモデル#2の最初の3レイヤを凍結しつつ最後の2レイヤをファインチューンした、更新されたAIモデル#2を導出してもよい。
 以上説明した第2の実施形態によれば、UEにおいて、NW訓練AIモデルを適切に利用できる。
<第3の実施形態>
 第3の実施形態は、UEによって訓練されたAIモデル(以下、UE訓練AIモデル(UE-trained AI model)とも呼ぶ)の利用の制御に関する。
 UEは、参照AIモデル/NW訓練AIモデルを訓練して、UE訓練AIモデルを導出してもよい。
 UEは、UE訓練AIモデルに関するAIモデル情報(以下、UE訓練AIモデル情報とも呼ぶ)を、物理レイヤシグナリング(例えば、UCI)、上位レイヤシグナリング(例えば、RRCシグナリング、MAC CE)、特定の信号/チャネル、又はこれらの組み合わせを用いて、NWに送信してもよい。UE訓練AIモデル情報は、既に述べたAIモデル情報の代わりに又はこれに加えて、以下のいずれか又はこれらの組み合わせの情報を含んでもよい:
 ・UE訓練AIモデルのベースとなった参照AIモデル/NW訓練AIモデル(のインデックス)、
 ・参照AIモデル/NW訓練AIモデルからのUE訓練AIモデルの差分の情報。
 図11は、第3の実施形態にかかるAIモデルの指定の一例を示す図である。本例では、UEはUE訓練AIモデルを導出している。UEは、NWに対して、UE訓練AIモデル情報(AIモデルの性能情報を含んでもよい)を送信する。NWは、当該情報によって示されるUE訓練AIモデルを適用してもよい。
 図12は、第3の実施形態にかかるAIモデルの指定の一例を示す図である。本例では、UEはある参照AIモデルからUE訓練AIモデルを導出している。これらのモデルの差分は、図において色付けされる一部のレイヤである。UEは、NWに対して、UE訓練AIモデル情報を送信する。当該情報は、上記参照AIモデルの情報と、上記差分の情報と、(AIモデルの性能情報と、)を含んでもよい。NWは、当該情報によって示される参照AIモデルについて、更新された差分の情報を考慮してUE訓練AIモデルを決定できる。
 UEは、どのウェイト/レイヤが更新されるかに関する情報を、(例えばUE訓練AIモデル情報に含めて)報告してもよい。
 図13A-13B及び図14A-14Bは、第3の実施形態にかかるUE訓練AIモデル情報の一例を示す図である。本例では、UEはオートエンコーダ(エンコーダ/デコーダ)を訓練し、必要に応じて、NWに対してデコーダについてのUE訓練AIモデル情報を報告する。
 図13Aは、UEがAIモデルを訓練しない場合に該当し、エンコーダ及びデコーダの両方が更新されていないため、NWにはUE訓練AIモデル情報は送信されない。
 図13Bは、エンコーダのみが更新される場合に該当する。UEは、UE訓練AIモデル情報にデコーダの情報は含めなくてもよいが、例えば更新されたモデルの推定性能に関する情報を含めて送信してもよい。図13Bのケースは、入力の統計的性質の変化に対して、エンコーダの修正だけで十分対応できる場合に利用され得る。
 図14Aは、エンコーダと、デコーダの一部が更新される場合に該当する。UEは、UE訓練AIモデル情報にデコーダの情報(更新部分の情報)を含め、例えば更新されたモデルの推定性能に関する情報を含めて送信してもよい。図14Aのケースは、入力の統計的性質の変化に対して、デコーダの比較的小さな修正だけで十分対応できる場合に利用され得る。
 図14Bは、エンコーダと、デコーダの全部が更新される場合に該当する。UEは、UE訓練AIモデル情報にデコーダの情報を含め、例えば更新されたモデルの推定性能に関する情報、参照モデルレポートなどを含めて送信してもよい。図14Bのケースは、入力の統計的性質の変化に対して、デコーダの比較的大きな修正が必要な場合に利用され得る。
 通信オーバーヘッド低減の観点からは、UEは、図13Bで性能が十分な場合には図13Bの報告を、図14Aで性能が十分な場合には図14Aの報告を、図14Aで性能が足りない場合には図14Bの報告を、適用することが好ましい。このように、UEは、動的にAIモデルの通知にかかる通信オーバーヘッドを制御してもよい。
[分散型学習]
 第3の実施形態のUE訓練AIモデル情報の送信は、NWにおけるサーバと多数のクライアントを用いて行われる分散型学習のために利用されてもよい。この場合、UE訓練AIモデル情報は、クライアント訓練AIモデル情報と呼ばれてもよい。
 分散型学習は、以下に示す少なくとも1つのステップを含むような連合学習(federated learning)であってもよい:
 ・各クライアントは、計算資源(resource of computation)をサーバに報告する、
 ・サーバは、選択されたクライアントに対してグローバルAIモデルを提供する、
 ・選択されたクライアントはそれぞれ、グローバルAIモデル及び自身が有するデータに基づいてローカルAIモデルを訓練する、
 ・選択されたクライアントはそれぞれ、ローカルAIモデルのパラメータをサーバに報告する、
 ・サーバは、報告されたローカルAIモデルを結合してグローバルAIモデルを更新し、1つ以上のクライアント(例えば、全クライアント)に更新されたグローバルAIモデルを提供する。
 上記ステップの少なくとも一部は繰り返し行われてもよい。図15は、連合学習についてのAIモデル情報のやり取りの一例を示す図である。
 例えば、i番目(iは整数)の繰り返しにおいて、サーバ(本例ではNW)はグローバルAIモデルGのAIモデル情報をクライアント(本例ではUE)に送信する。クライアントは、自身が有するデータセットに基づいて、グローバルAIモデルGを更新してローカルAIモデルLを得る。クライアントは、ローカルAIモデルLに関する更新情報iを、サーバにフィードバック(報告)する。
 サーバは、1つ以上のクライアントからの更新情報iに基づいて、グローバルAIモデルGを更新してグローバルAIモデルGi+1を得る。このように連合学習が進められてもよい。
 NWは、グローバルAIモデルに関するAIモデル情報を、UEに送信してもよい。当該AIモデル情報は、グローバルAIモデル情報と呼ばれてもよい。グローバルAIモデル情報は、参照AIモデル情報を含んでもよい。
 グローバルAIモデル情報は、以下のいずれか又はこれらの組み合わせの情報のみを含んでもよい:
 ・グローバルAIモデルのベースとなった参照AIモデル(のインデックス)、
 ・グローバルAIモデル(のインデックス)、
 ・参照AIモデルからのグローバルAIモデルの差分の情報。
 また、グローバルAIモデルGi+1のAIモデル情報は、グローバルAIモデルGのAIモデル(情報)からの差分の情報を含んでもよい。
 更新情報iは、グローバルAIモデル/ローカルAIモデルに関するモデルIDを含んでもよいし、グローバルAIモデルGのAIモデル(情報)からの差分の情報を含んでもよいし、第4の実施形態で後述する更新されるAIモデル情報に該当してもよい。
 UEは、更新情報iにおいて又はその代わりに、ローカルAIモデルLの中間情報(例えば、勾配、特徴など)を報告してもよい。
 なお、サーバはgNB/OAM/LMF/UEであってもよく、クライアントはUE/gNBであってもよい。例えば、UEがクライアントである場合、gNBに対して訓練のための大量のデータを送信する必要がないという利点がある。例えば、gNBがクライアントである場合、OAM/LMFに対して訓練のための大量のデータを送信する必要がないという利点がある。
 なお、本開示において、サーバ、NW、gNB、OAM、LMF及びUEは互いに読み替えられてもよい。本開示において、クライアント、NW、UE、gNBは互いに読み替えられてもよい。また、本開示において、gNB/UEは、その他のネットワーク/コアネットワークにおける装置で読み替えられてもよい。
 クライアント(例えば、UE)は、現在の繰り返しにおけるAIモデル訓練のための資源についての情報(以下、資源情報とも呼ぶ)をサーバ(例えば、gNB)に報告してもよい。上記資源情報は、以下の少なくとも1つに関する情報を含んでもよい:
 ・AIモデルの訓練に関する能力(例えば、計算資源)、
 ・利用できるデータセットの情報(例えば、データセットの構造/タイプ/フォーマット/量)、
 ・クライアントに関する情報(例えば、UEのステータス)。
 上記計算資源は、例えば、利用できる秒あたり浮動小数点演算数(Floating-point Operations Per Second(FLOPS))、Central Processing Unit(CPU)/Graphics Processing Unit(GPU)性能、利用できるメモリ量などの少なくとも1つを示してもよい。
 上記クライアントに関する情報は、以下の少なくとも1つに関する情報を含んでもよい:
 ・クライアント(デバイス)のタイプに関する情報(例えば、デバイスの機種名/モデル番号、通信チップの名称/モデル番号など)、
 ・推定される結果/品質(例えば、ブロック誤り率(Block Error Rate(BLER))/CQI/RSRP/RSRQ/SINR)、
 ・訓練を処理することについてのクライアントの意思(will)(例えば、1つ以上のクライアントがAIモデルを訓練する処理の用意があるか否か)、
 ・クライアントがサーバと交換できるデータ残量(例えば、クライアントが交換できるデータ量)、
 ・バッテリー電力残量。
 以上説明した第3の実施形態によれば、UE訓練AIモデルを適切に利用できる。
<第4の実施形態>
 第4の実施形態は、あるAIモデルからの別のAIモデルの差分の情報(あるAIモデルを基準とした別のAIモデルの差分の情報)に関する。当該差分の情報は、更新されるAIモデル情報(updated AI model information)と呼ばれてもよい。
 更新されるAIモデル情報は、例えば、既に述べた以下の少なくとも1つの情報として用いられてもよい:
 ・更新前のAIモデルからの更新後のAIモデルの差分の情報、
 ・参照AIモデルからのNW訓練AIモデルの差分の情報、
 ・参照AIモデル/NW訓練AIモデルからのUE訓練AIモデルの差分の情報。
 更新されるAIモデル情報は、絶対値で表される重み情報を含んでもよいし、更新前のAIモデルからの更新後のAIモデルの差分値で表される重み情報を含んでもよい。
 図16A-16Cは、更新されるAIモデル情報の一例を示す図である。本例では、図16Aに示す参照モデルからNW訓練AIモデルが訓練された場合の、更新されたAIモデル情報を示す。
 図16Bは、更新されるAIモデル情報に含まれる、絶対値で表される重み情報を示す。本例では、最後のレイヤは更新されていないため、報告されなくてもよい。UEは、更新されなかったAIモデル情報を報告/受信することは予期しなくてもよい。
 図16Cは、更新されるAIモデル情報に含まれる、差分値で表される重み情報を示す。差分値は、基本的には絶対値よりも小さいと期待されるため、情報量の低減が期待できる。また、図16Cの情報量が図16Bと同じとすると、各重み情報の粒度を小さくすることができ、より詳細なモデルの表現が可能となる。
 なお、参照モデル情報がAIモデルの構造の情報も含む場合には、更新されるAIモデル情報は、AIモデルの構造の情報を含まなくてもよい。UE及び基地局は、重み情報だけやり取りすれば同じAIモデルの構造に基づいてAIモデルを判断できるためである。
 以上説明した第4の実施形態によれば、AIモデルデプロイメントのためのシグナリングオーバーヘッドを適切に低減できる。
<第5の実施形態>
 第5の実施形態は、知識の蒸留(knowledge distillation)に関する。
 知識の蒸留では、予測精度の良い、単一の大きいモデル/複数のアンサンブルされたモデルを教師モデル(teacher model)として準備し、教師モデルが持つ知識を、軽量でデプロイしやすい生徒モデル(student model)の学習に利用する。蒸留によって得られる生徒モデルは、教師モデルと同程度の精度かつより軽量なモデルとなることが期待される。
 図17A及び17Bは、知識の蒸留を利用した学習の一例を示す図である。通常の学習であれば、AIモデルに対して、あるデータセット(学習データ)を入力して得られる出力(レイヤmからの出力)が、正解と近くなるように訓練が行われる。
 なお、レイヤmからの出力について、1つ以上の関数(例えば、シグモイド関数/ソフトマックス関数)が適用される前の変数/値は、ロジッツ(logits)と呼ばれてもよく、当該1つ以上の関数が適用された後の変数/値は、プロブス(Probs)と呼ばれてもよい。正解の取り得る全てのクラスについてプロブスの総和を取ると、1となる。
 図17Aに示す通常の学習では、学習データの正解ラベルをハードターゲットとして、プロブスとハードターゲットとの損失(ハードターゲットロス、推論参照ロスなどとも呼ばれる)が小さくなるように学習が行われる。
 一方で、図17Bに示す知識の蒸留を用いた学習では、教師の出力(プロブス)をソフトターゲットとして、生徒のプロブスとソフトターゲットとの損失(ソフトターゲットロス、蒸留ロスなどとも呼ばれる)が小さくなるように学習が行われる。知識の蒸留において、上記1つ以上の関数は、例えば、温度付きソフトマックス関数であってもよい。なお、ソフトターゲットは、入力が各クラスに属する確率に関する情報に該当してもよい。
 教師モデルのロジッツをv、プロブスをp、生徒モデルのロジッツをz、プロブスをqと表すと、温度パラメータがTの場合の教師モデルのクラスiについてのプロブスpは、p=exp(v/T)/Σexp(v/T)によって求められてもよく、温度パラメータがTの場合の教師モデルのクラスiについてのプロブスqは、q=exp(z/T)/Σexp(z/T)によって求められてもよい。
 ソフトターゲットロスは、教師モデルのpと生徒モデルのpに基づいて、クロスエントロピーを取って求められてもよく、例えば、ソフトターゲットロス=-Σlog(q)と求められてもよい。
 なお、ハードターゲットロスは、T=1についてのqに基づいて求められてもよい。
 第5の実施形態では、UEは、生徒モデルに関するAIモデル情報(以下、生徒モデル情報とも呼ぶ)を受信してもよい。UEは、受信した生徒モデル情報に基づいて指定される生徒モデルを用いて出力を得て(生徒モデルを訓練して)、当該出力に関する情報を、NWに報告してもよい。このステップは、生徒モデルの再訓練(re-train)と呼ばれてもよい。
 生徒モデル情報は、既に述べたAIモデル情報の代わりに又はこれに加えて、以下のいずれか又はこれらの組み合わせの情報を含んでもよい:
 ・生徒モデル(のインデックス)、
 ・教師モデル(のインデックス)、
 ・教師モデル/生徒モデルの算出に用いたデータセットに関する情報、
 ・教師モデル/生徒モデルのソフトターゲットの値、
 ・教師モデル/生徒モデルのあるレイヤからの出力の値、
 ・教師モデル/生徒モデルの損失関数の値、
 ・教師モデル/生徒モデルのためのソフトターゲットの値、
 ・教師モデル/生徒モデルのためのあるレイヤからの出力の値、
 ・教師モデル/生徒モデルのための損失関数の値。
 なお、データセットに関する情報は、例えば、データのバッチ(batch of data)、データセット(又はデータ)を示すインデックス、データセット(又はデータ)それ自体などの少なくとも1つに該当してもよい。上記損失関数の値の情報は、ソフトターゲットロス及びハードターゲットロスの一方又は両方の情報を含んでもよい。
 UEは、再訓練する生徒モデルに関する情報(以下、再訓練生徒モデル情報とも呼ぶ)を、物理レイヤシグナリング(例えば、UCI)、上位レイヤシグナリング(例えば、RRCシグナリング、MAC CE)、特定の信号/チャネル、又はこれらの組み合わせを用いて、NWに送信してもよい。再訓練生徒モデル情報は、既に述べたAIモデル情報の代わりに又はこれに加えて、以下のいずれか又はこれらの組み合わせの情報を含んでもよい:
 ・再訓練生徒モデルのベースとなった生徒モデル(のインデックス)、
 ・再訓練生徒モデルの知識に関する情報(例えば、ソフトターゲット、あるレイヤからの出力)、
 ・再訓練に用いられるデータセットに関する情報、
 ・再訓練生徒モデルの中間情報(例えば、勾配、特徴など)、
 ・再訓練生徒モデルについてのハードターゲットロスに関する情報。
 上記データセットに関する情報は、当該データセットに含まれるデータの内容に関する情報を含んでもよい。
 NWは、再訓練する生徒モデルに関する情報によって特定されるソフトターゲットと、教師データのソフトターゲットと、に基づいて、生徒モデルをさらに更新してもよい。なお、NWのこの更新も含めて再訓練と呼ばれてもよい。
 なお、UEは、NWから教師モデルに関する情報(以下、教師モデル情報とも呼ぶ)を受信する場合には、当該教師モデル情報を、上記生徒モデルの再訓練に利用してもよい。
 第5の実施形態によれば、UEが計算能力を考慮して軽量な生徒モデルを用いる場合であっても、NWに対して再訓練生徒モデル情報を報告することによって、NWでは改めて知識の蒸留を行ってより高精度/軽量な生徒モデルを生成できる。
<補足>
 上述の実施形態におけるNWからUEへの任意の通知は、物理レイヤシグナリング(例えば、DCI)、上位レイヤシグナリング(例えば、RRCシグナリング、MAC CE)、特定の信号/チャネル(例えば、PDCCH、PDSCH、参照信号)、又はこれらの組み合わせを用いて行われてもよい。
 上記通知がMAC CEによって行われる場合、当該MAC CEは、新たな論理チャネルID(Logical Channel ID(LCID))がMACサブヘッダに含まれることによって識別されてもよい。
 上記通知がDCIによって行われる場合、上記通知は、当該DCIの特定のフィールド、当該DCIに付与される巡回冗長検査(Cyclic Redundancy Check(CRC))ビットのスクランブルに用いられる無線ネットワーク一時識別子(Radio Network Temporary Identifier(RNTI))、当該DCIのフォーマットなどによって行われてもよい。
 また、上述の実施形態におけるNWからUEへの任意の通知は、周期的、セミパーシステント又は非周期的に行われてもよい。
 上述の実施形態における、エンコーダ/デコーダは、UE/基地局に配備されているAIモデルと互いに読み替えられてもよい。つまり、本開示は、オートエンコーダを用いる場合に限られず、任意のモデルを用いて推論する場合に適用されてもよい。また、本開示におけるUE/基地局がエンコーダを用いて圧縮する対象は、CSI(又はチャネル/プリコーディング行列)に限られず、任意の情報であってもよい。
 上述の実施形態の少なくとも1つは、特定のUE能力(UE capability)を報告した又は当該特定のUE能力をサポートするUEに対してのみ適用されてもよい。
 当該特定のUE能力は、以下の少なくとも1つを示してもよい:
 ・上記実施形態の少なくとも1つについての特定の処理/動作/制御/情報をサポートすること、
 ・チャネル特性情報(例えば、LOS、NLOS、位置情報)の取得/報告をサポートすること、
 ・UEがデプロイできるAIモデルの最大のFLOPs、
 ・UEがデプロイできるAIモデルの最大のパラメータ数、
 ・UEがサポートする参照モデル、
 ・UEがサポートするレイヤ/アルゴリズム/機能、
 ・計算能力、
 ・データ収集能力。
 また、上記特定のUE能力は、全周波数にわたって(周波数に関わらず共通に)適用される能力であってもよいし、周波数(例えば、セル、バンド、BWP)ごとの能力であってもよいし、周波数レンジ(例えば、Frequency Range 1(FR1)、FR2、FR3、FR4、FR5、FR2-1、FR2-2)ごとの能力であってもよいし、サブキャリア間隔(SubCarrier Spacing(SCS))ごとの能力であってもよい。
 また、上記特定のUE能力は、全複信方式にわたって(複信方式に関わらず共通に)適用される能力であってもよいし、複信方式(例えば、時分割複信(Time Division Duplex(TDD))、周波数分割複信(Frequency Division Duplex(FDD)))ごとの能力であってもよい。
 また、上述の実施形態の少なくとも1つは、UEが上位レイヤシグナリングによって上述の実施形態に関連する特定の情報を設定された場合に適用されてもよい。例えば、当該特定の情報は、AIモデルの利用を有効化することを示す情報、特定のリリース(例えば、Rel.18)向けの任意のRRCパラメータなどであってもよい。
 UEは、上記特定のUE能力の少なくとも1つをサポートしない又は上記特定の情報を設定されない場合、例えばRel.15/16の動作を適用してもよい。
 なお、上述の実施形態の少なくとも1つは、CSIフィードバック以外のUE-基地局間の情報の伝送(の圧縮のために)に用いられてもよい。例えば、UEは、位置(又はポジショニング)に関する情報/ロケーション管理機能(Location Management Function(LMF))における位置推定に関する情報を、上述の実施形態の少なくとも1つに従って(例えば、エンコーダを用いて生成し)ネットワークに報告してもよい。当該情報は、サブバンドごと/アンテナポートごとのチャネルインパルス応答(Channel Impulse Response(CIR))の情報であってもよい。これを報告すると、受信信号の角度/時間差などを報告しなくても基地局はUEの位置を推定することができる。
(付記)
 本開示の一実施形態に関して、以下の発明を付記する。
[付記1]
 ネットワーク(Network(NW))によって訓練されたモデル(NW訓練モデル)に関するNW訓練モデル情報と、前記NW訓練モデルのベースとなる参照モデルに関する参照モデル情報と、を受信する受信部と、
 前記NW訓練モデル情報及び前記参照モデル情報に基づいて、前記NW訓練モデルを判断する制御部と、を有する端末。
[付記2]
 前記NW訓練モデル情報は、前記NW訓練モデルと前記参照モデルとの差分を示し、前記参照モデル情報は、前記参照モデルに関するインデックスを示す付記1に記載の端末。
[付記3]
 前記制御部は、前記NW訓練モデルをさらに訓練する
付記1又は付記2に記載の端末。
[付記4]
 前記NW訓練モデル情報は、訓練用に凍結されるべきパラメータの情報を含み、
 前記制御部は、前記NW訓練モデルをさらに訓練する、ここで、前記パラメータについては更新しない付記1から付記3のいずれかに記載の端末。
(付記)
 本開示の一実施形態に関して、以下の発明を付記する。
[付記1]
 ネットワーク(Network(NW))によって訓練されたモデル(NW訓練モデル)に関するNW訓練モデル情報又は前記NW訓練モデルのベースとなる参照モデルに関する参照モデル情報を受信する受信部と、
 前記NW訓練モデル情報又は前記参照モデル情報に基づいて判断されるモデルをさらに訓練する制御部と、
 前記訓練されたモデルに関する情報を送信する送信部と、を有する端末。
[付記2]
 前記訓練されたモデルに関する情報は、どのウェイト又はレイヤが更新されるかに関する情報を含む付記1に記載の端末。
[付記3]
 前記訓練されたモデルに関する情報は、連合学習におけるグローバルモデルの更新情報を含む付記1又は付記2に記載の端末。
[付記4]
 前記送信部は、連合学習における現在の繰り返しにおけるモデル訓練のための資源についての情報を送信する付記1から付記3のいずれかに記載の端末。
(付記)
 本開示の一実施形態に関して、以下の発明を付記する。
[付記1]
 知識の蒸留における生徒モデルに関する生徒モデル情報を受信する受信部と、
 前記生徒モデル情報に基づく出力に関する情報を送信する送信部と、を有する端末。
[付記2]
 前記出力に関する情報は、前記生徒モデルのソフトターゲットに関する情報を含む付記1に記載の端末。
[付記3]
 前記生徒モデル情報は、損失関数の値を含む付記1又は付記2に記載の端末。
[付記4]
 前記生徒モデル情報は、ソフトターゲットロス及びハードターゲットロスの一方又は両方の情報を含む付記1から付記3のいずれかに記載の端末。
(無線通信システム)
 以下、本開示の一実施形態に係る無線通信システムの構成について説明する。この無線通信システムでは、本開示の上記各実施形態に係る無線通信方法のいずれか又はこれらの組み合わせを用いて通信が行われる。
 図18は、一実施形態に係る無線通信システムの概略構成の一例を示す図である。無線通信システム1は、Third Generation Partnership Project(3GPP)によって仕様化されるLong Term Evolution(LTE)、5th generation mobile communication system New Radio(5G NR)などを用いて通信を実現するシステムであってもよい。
 また、無線通信システム1は、複数のRadio Access Technology(RAT)間のデュアルコネクティビティ(マルチRATデュアルコネクティビティ(Multi-RAT Dual Connectivity(MR-DC)))をサポートしてもよい。MR-DCは、LTE(Evolved Universal Terrestrial Radio Access(E-UTRA))とNRとのデュアルコネクティビティ(E-UTRA-NR Dual Connectivity(EN-DC))、NRとLTEとのデュアルコネクティビティ(NR-E-UTRA Dual Connectivity(NE-DC))などを含んでもよい。
 EN-DCでは、LTE(E-UTRA)の基地局(eNB)がマスタノード(Master Node(MN))であり、NRの基地局(gNB)がセカンダリノード(Secondary Node(SN))である。NE-DCでは、NRの基地局(gNB)がMNであり、LTE(E-UTRA)の基地局(eNB)がSNである。
 無線通信システム1は、同一のRAT内の複数の基地局間のデュアルコネクティビティ(例えば、MN及びSNの双方がNRの基地局(gNB)であるデュアルコネクティビティ(NR-NR Dual Connectivity(NN-DC)))をサポートしてもよい。
 無線通信システム1は、比較的カバレッジの広いマクロセルC1を形成する基地局11と、マクロセルC1内に配置され、マクロセルC1よりも狭いスモールセルC2を形成する基地局12(12a-12c)と、を備えてもよい。ユーザ端末20は、少なくとも1つのセル内に位置してもよい。各セル及びユーザ端末20の配置、数などは、図に示す態様に限定されない。以下、基地局11及び12を区別しない場合は、基地局10と総称する。
 ユーザ端末20は、複数の基地局10のうち、少なくとも1つに接続してもよい。ユーザ端末20は、複数のコンポーネントキャリア(Component Carrier(CC))を用いたキャリアアグリゲーション(Carrier Aggregation(CA))及びデュアルコネクティビティ(DC)の少なくとも一方を利用してもよい。
 各CCは、第1の周波数帯(Frequency Range 1(FR1))及び第2の周波数帯(Frequency Range 2(FR2))の少なくとも1つに含まれてもよい。マクロセルC1はFR1に含まれてもよいし、スモールセルC2はFR2に含まれてもよい。例えば、FR1は、6GHz以下の周波数帯(サブ6GHz(sub-6GHz))であってもよいし、FR2は、24GHzよりも高い周波数帯(above-24GHz)であってもよい。なお、FR1及びFR2の周波数帯、定義などはこれらに限られず、例えばFR1がFR2よりも高い周波数帯に該当してもよい。
 また、ユーザ端末20は、各CCにおいて、時分割複信(Time Division Duplex(TDD))及び周波数分割複信(Frequency Division Duplex(FDD))の少なくとも1つを用いて通信を行ってもよい。
 複数の基地局10は、有線(例えば、Common Public Radio Interface(CPRI)に準拠した光ファイバ、X2インターフェースなど)又は無線(例えば、NR通信)によって接続されてもよい。例えば、基地局11及び12間においてNR通信がバックホールとして利用される場合、上位局に該当する基地局11はIntegrated Access Backhaul(IAB)ドナー、中継局(リレー)に該当する基地局12はIABノードと呼ばれてもよい。
 基地局10は、他の基地局10を介して、又は直接コアネットワーク30に接続されてもよい。コアネットワーク30は、例えば、Evolved Packet Core(EPC)、5G Core Network(5GCN)、Next Generation Core(NGC)などの少なくとも1つを含んでもよい。
 ユーザ端末20は、LTE、LTE-A、5Gなどの通信方式の少なくとも1つに対応した端末であってもよい。
 無線通信システム1においては、直交周波数分割多重(Orthogonal Frequency Division Multiplexing(OFDM))ベースの無線アクセス方式が利用されてもよい。例えば、下りリンク(Downlink(DL))及び上りリンク(Uplink(UL))の少なくとも一方において、Cyclic Prefix OFDM(CP-OFDM)、Discrete Fourier Transform Spread OFDM(DFT-s-OFDM)、Orthogonal Frequency Division Multiple Access(OFDMA)、Single Carrier Frequency Division Multiple Access(SC-FDMA)などが利用されてもよい。
 無線アクセス方式は、波形(waveform)と呼ばれてもよい。なお、無線通信システム1においては、UL及びDLの無線アクセス方式には、他の無線アクセス方式(例えば、他のシングルキャリア伝送方式、他のマルチキャリア伝送方式)が用いられてもよい。
 無線通信システム1では、下りリンクチャネルとして、各ユーザ端末20で共有される下り共有チャネル(Physical Downlink Shared Channel(PDSCH))、ブロードキャストチャネル(Physical Broadcast Channel(PBCH))、下り制御チャネル(Physical Downlink Control Channel(PDCCH))などが用いられてもよい。
 また、無線通信システム1では、上りリンクチャネルとして、各ユーザ端末20で共有される上り共有チャネル(Physical Uplink Shared Channel(PUSCH))、上り制御チャネル(Physical Uplink Control Channel(PUCCH))、ランダムアクセスチャネル(Physical Random Access Channel(PRACH))などが用いられてもよい。
 PDSCHによって、ユーザデータ、上位レイヤ制御情報、System Information Block(SIB)などが伝送される。PUSCHによって、ユーザデータ、上位レイヤ制御情報などが伝送されてもよい。また、PBCHによって、Master Information Block(MIB)が伝送されてもよい。
 PDCCHによって、下位レイヤ制御情報が伝送されてもよい。下位レイヤ制御情報は、例えば、PDSCH及びPUSCHの少なくとも一方のスケジューリング情報を含む下り制御情報(Downlink Control Information(DCI))を含んでもよい。
 なお、PDSCHをスケジューリングするDCIは、DLアサインメント、DL DCIなどと呼ばれてもよいし、PUSCHをスケジューリングするDCIは、ULグラント、UL DCIなどと呼ばれてもよい。なお、PDSCHはDLデータで読み替えられてもよいし、PUSCHはULデータで読み替えられてもよい。
 PDCCHの検出には、制御リソースセット(COntrol REsource SET(CORESET))及びサーチスペース(search space)が利用されてもよい。CORESETは、DCIをサーチするリソースに対応する。サーチスペースは、PDCCH候補(PDCCH candidates)のサーチ領域及びサーチ方法に対応する。1つのCORESETは、1つ又は複数のサーチスペースに関連付けられてもよい。UEは、サーチスペース設定に基づいて、あるサーチスペースに関連するCORESETをモニタしてもよい。
 1つのサーチスペースは、1つ又は複数のアグリゲーションレベル(aggregation Level)に該当するPDCCH候補に対応してもよい。1つ又は複数のサーチスペースは、サーチスペースセットと呼ばれてもよい。なお、本開示の「サーチスペース」、「サーチスペースセット」、「サーチスペース設定」、「サーチスペースセット設定」、「CORESET」、「CORESET設定」などは、互いに読み替えられてもよい。
 PUCCHによって、チャネル状態情報(Channel State Information(CSI))、送達確認情報(例えば、Hybrid Automatic Repeat reQuest ACKnowledgement(HARQ-ACK)、ACK/NACKなどと呼ばれてもよい)及びスケジューリングリクエスト(Scheduling Request(SR))の少なくとも1つを含む上り制御情報(Uplink Control Information(UCI))が伝送されてもよい。PRACHによって、セルとの接続確立のためのランダムアクセスプリアンブルが伝送されてもよい。
 なお、本開示において下りリンク、上りリンクなどは「リンク」を付けずに表現されてもよい。また、各種チャネルの先頭に「物理(Physical)」を付けずに表現されてもよい。
 無線通信システム1では、同期信号(Synchronization Signal(SS))、下りリンク参照信号(Downlink Reference Signal(DL-RS))などが伝送されてもよい。無線通信システム1では、DL-RSとして、セル固有参照信号(Cell-specific Reference Signal(CRS))、チャネル状態情報参照信号(Channel State Information Reference Signal(CSI-RS))、復調用参照信号(DeModulation Reference Signal(DMRS))、位置決定参照信号(Positioning Reference Signal(PRS))、位相トラッキング参照信号(Phase Tracking Reference Signal(PTRS))などが伝送されてもよい。
 同期信号は、例えば、プライマリ同期信号(Primary Synchronization Signal(PSS))及びセカンダリ同期信号(Secondary Synchronization Signal(SSS))の少なくとも1つであってもよい。SS(PSS、SSS)及びPBCH(及びPBCH用のDMRS)を含む信号ブロックは、SS/PBCHブロック、SS Block(SSB)などと呼ばれてもよい。なお、SS、SSBなども、参照信号と呼ばれてもよい。
 また、無線通信システム1では、上りリンク参照信号(Uplink Reference Signal(UL-RS))として、測定用参照信号(Sounding Reference Signal(SRS))、復調用参照信号(DMRS)などが伝送されてもよい。なお、DMRSはユーザ端末固有参照信号(UE-specific Reference Signal)と呼ばれてもよい。
(基地局)
 図19は、一実施形態に係る基地局の構成の一例を示す図である。基地局10は、制御部110、送受信部120、送受信アンテナ130及び伝送路インターフェース(transmission line interface)140を備えている。なお、制御部110、送受信部120及び送受信アンテナ130及び伝送路インターフェース140は、それぞれ1つ以上が備えられてもよい。
 なお、本例では、本実施の形態における特徴部分の機能ブロックを主に示しており、基地局10は、無線通信に必要な他の機能ブロックも有すると想定されてもよい。以下で説明する各部の処理の一部は、省略されてもよい。
 制御部110は、基地局10全体の制御を実施する。制御部110は、本開示に係る技術分野での共通認識に基づいて説明されるコントローラ、制御回路などから構成することができる。
 制御部110は、信号の生成、スケジューリング(例えば、リソース割り当て、マッピング)などを制御してもよい。制御部110は、送受信部120、送受信アンテナ130及び伝送路インターフェース140を用いた送受信、測定などを制御してもよい。制御部110は、信号として送信するデータ、制御情報、系列(sequence)などを生成し、送受信部120に転送してもよい。制御部110は、通信チャネルの呼処理(設定、解放など)、基地局10の状態管理、無線リソースの管理などを行ってもよい。
 送受信部120は、ベースバンド(baseband)部121、Radio Frequency(RF)部122、測定部123を含んでもよい。ベースバンド部121は、送信処理部1211及び受信処理部1212を含んでもよい。送受信部120は、本開示に係る技術分野での共通認識に基づいて説明されるトランスミッター/レシーバー、RF回路、ベースバンド回路、フィルタ、位相シフタ(phase shifter)、測定回路、送受信回路などから構成することができる。
 送受信部120は、一体の送受信部として構成されてもよいし、送信部及び受信部から構成されてもよい。当該送信部は、送信処理部1211、RF部122から構成されてもよい。当該受信部は、受信処理部1212、RF部122、測定部123から構成されてもよい。
 送受信アンテナ130は、本開示に係る技術分野での共通認識に基づいて説明されるアンテナ、例えばアレイアンテナなどから構成することができる。
 送受信部120は、上述の下りリンクチャネル、同期信号、下りリンク参照信号などを送信してもよい。送受信部120は、上述の上りリンクチャネル、上りリンク参照信号などを受信してもよい。
 送受信部120は、デジタルビームフォーミング(例えば、プリコーディング)、アナログビームフォーミング(例えば、位相回転)などを用いて、送信ビーム及び受信ビームの少なくとも一方を形成してもよい。
 送受信部120(送信処理部1211)は、例えば制御部110から取得したデータ、制御情報などに対して、Packet Data Convergence Protocol(PDCP)レイヤの処理、Radio Link Control(RLC)レイヤの処理(例えば、RLC再送制御)、Medium Access Control(MAC)レイヤの処理(例えば、HARQ再送制御)などを行い、送信するビット列を生成してもよい。
 送受信部120(送信処理部1211)は、送信するビット列に対して、チャネル符号化(誤り訂正符号化を含んでもよい)、変調、マッピング、フィルタ処理、離散フーリエ変換(Discrete Fourier Transform(DFT))処理(必要に応じて)、逆高速フーリエ変換(Inverse Fast Fourier Transform(IFFT))処理、プリコーディング、デジタル-アナログ変換などの送信処理を行い、ベースバンド信号を出力してもよい。
 送受信部120(RF部122)は、ベースバンド信号に対して、無線周波数帯への変調、フィルタ処理、増幅などを行い、無線周波数帯の信号を、送受信アンテナ130を介して送信してもよい。
 一方、送受信部120(RF部122)は、送受信アンテナ130によって受信された無線周波数帯の信号に対して、増幅、フィルタ処理、ベースバンド信号への復調などを行ってもよい。
 送受信部120(受信処理部1212)は、取得されたベースバンド信号に対して、アナログ-デジタル変換、高速フーリエ変換(Fast Fourier Transform(FFT))処理、逆離散フーリエ変換(Inverse Discrete Fourier Transform(IDFT))処理(必要に応じて)、フィルタ処理、デマッピング、復調、復号(誤り訂正復号を含んでもよい)、MACレイヤ処理、RLCレイヤの処理及びPDCPレイヤの処理などの受信処理を適用し、ユーザデータなどを取得してもよい。
 送受信部120(測定部123)は、受信した信号に関する測定を実施してもよい。例えば、測定部123は、受信した信号に基づいて、Radio Resource Management(RRM)測定、Channel State Information(CSI)測定などを行ってもよい。測定部123は、受信電力(例えば、Reference Signal Received Power(RSRP))、受信品質(例えば、Reference Signal Received Quality(RSRQ)、Signal to Interference plus Noise Ratio(SINR)、Signal to Noise Ratio(SNR))、信号強度(例えば、Received Signal Strength Indicator(RSSI))、伝搬路情報(例えば、CSI)などについて測定してもよい。測定結果は、制御部110に出力されてもよい。
 伝送路インターフェース140は、コアネットワーク30に含まれる装置、他の基地局10などとの間で信号を送受信(バックホールシグナリング)し、ユーザ端末20のためのユーザデータ(ユーザプレーンデータ)、制御プレーンデータなどを取得、伝送などしてもよい。
 なお、本開示における基地局10の送信部及び受信部は、送受信部120、送受信アンテナ130及び伝送路インターフェース140の少なくとも1つによって構成されてもよい。
 なお、制御部110は、参照モデルを訓練してもよい。送受信部120は、前記訓練されたモデルに関する情報と、前記参照モデルに関する参照モデル情報と、をユーザ端末20に送信してもよい。
 また、送受信部120は、参照モデルに関する参照モデル情報又は前記参照モデルに基づいて訓練されたモデルに関する情報を、ユーザ端末20に送信してもよい。送受信部120は、前記参照モデル又は前記モデルに基づいてさらに訓練されたモデルに関する情報を受信してもよい。
 また、送受信部120は、知識の蒸留における生徒モデルに関する生徒モデル情報を、ユーザ端末20に送信してもよい。送受信部120は、前記生徒モデル情報に基づく出力に関する情報を受信してもよい。
(ユーザ端末)
 図20は、一実施形態に係るユーザ端末の構成の一例を示す図である。ユーザ端末20は、制御部210、送受信部220及び送受信アンテナ230を備えている。なお、制御部210、送受信部220及び送受信アンテナ230は、それぞれ1つ以上が備えられてもよい。
 なお、本例では、本実施の形態における特徴部分の機能ブロックを主に示しており、ユーザ端末20は、無線通信に必要な他の機能ブロックも有すると想定されてもよい。以下で説明する各部の処理の一部は、省略されてもよい。
 制御部210は、ユーザ端末20全体の制御を実施する。制御部210は、本開示に係る技術分野での共通認識に基づいて説明されるコントローラ、制御回路などから構成することができる。
 制御部210は、信号の生成、マッピングなどを制御してもよい。制御部210は、送受信部220及び送受信アンテナ230を用いた送受信、測定などを制御してもよい。制御部210は、信号として送信するデータ、制御情報、系列などを生成し、送受信部220に転送してもよい。
 送受信部220は、ベースバンド部221、RF部222、測定部223を含んでもよい。ベースバンド部221は、送信処理部2211、受信処理部2212を含んでもよい。送受信部220は、本開示に係る技術分野での共通認識に基づいて説明されるトランスミッター/レシーバー、RF回路、ベースバンド回路、フィルタ、位相シフタ、測定回路、送受信回路などから構成することができる。
 送受信部220は、一体の送受信部として構成されてもよいし、送信部及び受信部から構成されてもよい。当該送信部は、送信処理部2211、RF部222から構成されてもよい。当該受信部は、受信処理部2212、RF部222、測定部223から構成されてもよい。
 送受信アンテナ230は、本開示に係る技術分野での共通認識に基づいて説明されるアンテナ、例えばアレイアンテナなどから構成することができる。
 送受信部220は、上述の下りリンクチャネル、同期信号、下りリンク参照信号などを受信してもよい。送受信部220は、上述の上りリンクチャネル、上りリンク参照信号などを送信してもよい。
 送受信部220は、デジタルビームフォーミング(例えば、プリコーディング)、アナログビームフォーミング(例えば、位相回転)などを用いて、送信ビーム及び受信ビームの少なくとも一方を形成してもよい。
 送受信部220(送信処理部2211)は、例えば制御部210から取得したデータ、制御情報などに対して、PDCPレイヤの処理、RLCレイヤの処理(例えば、RLC再送制御)、MACレイヤの処理(例えば、HARQ再送制御)などを行い、送信するビット列を生成してもよい。
 送受信部220(送信処理部2211)は、送信するビット列に対して、チャネル符号化(誤り訂正符号化を含んでもよい)、変調、マッピング、フィルタ処理、DFT処理(必要に応じて)、IFFT処理、プリコーディング、デジタル-アナログ変換などの送信処理を行い、ベースバンド信号を出力してもよい。
 なお、DFT処理を適用するか否かは、トランスフォームプリコーディングの設定に基づいてもよい。送受信部220(送信処理部2211)は、あるチャネル(例えば、PUSCH)について、トランスフォームプリコーディングが有効(enabled)である場合、当該チャネルをDFT-s-OFDM波形を用いて送信するために上記送信処理としてDFT処理を行ってもよいし、そうでない場合、上記送信処理としてDFT処理を行わなくてもよい。
 送受信部220(RF部222)は、ベースバンド信号に対して、無線周波数帯への変調、フィルタ処理、増幅などを行い、無線周波数帯の信号を、送受信アンテナ230を介して送信してもよい。
 一方、送受信部220(RF部222)は、送受信アンテナ230によって受信された無線周波数帯の信号に対して、増幅、フィルタ処理、ベースバンド信号への復調などを行ってもよい。
 送受信部220(受信処理部2212)は、取得されたベースバンド信号に対して、アナログ-デジタル変換、FFT処理、IDFT処理(必要に応じて)、フィルタ処理、デマッピング、復調、復号(誤り訂正復号を含んでもよい)、MACレイヤ処理、RLCレイヤの処理及びPDCPレイヤの処理などの受信処理を適用し、ユーザデータなどを取得してもよい。
 送受信部220(測定部223)は、受信した信号に関する測定を実施してもよい。例えば、測定部223は、受信した信号に基づいて、RRM測定、CSI測定などを行ってもよい。測定部223は、受信電力(例えば、RSRP)、受信品質(例えば、RSRQ、SINR、SNR)、信号強度(例えば、RSSI)、伝搬路情報(例えば、CSI)などについて測定してもよい。測定結果は、制御部210に出力されてもよい。
 なお、本開示におけるユーザ端末20の送信部及び受信部は、送受信部220及び送受信アンテナ230の少なくとも1つによって構成されてもよい。
 なお、送受信部220は、ネットワーク(Network(NW))によって訓練されたモデル(NW訓練モデル)に関するNW訓練モデル情報と、前記NW訓練モデルのベースとなる参照モデルに関する参照モデル情報と、を受信してもよい。制御部210は、前記NW訓練モデル情報及び前記参照モデル情報に基づいて、前記NW訓練モデルを判断してもよい。
 前記NW訓練モデル情報は、前記NW訓練モデルと前記参照モデルとの差分を示し、前記参照モデル情報は、前記参照モデルに関するインデックスを示してもよい。
 制御部210は、前記NW訓練モデルをさらに訓練してもよい。
 前記NW訓練モデル情報は、訓練用に凍結されるべきパラメータの情報を含み、制御部210は、前記NW訓練モデルをさらに訓練する、ここで、前記パラメータについては更新しなくてもよい。
 また、送受信部220は、ネットワーク(Network(NW))によって訓練されたモデル(NW訓練モデル)に関するNW訓練モデル情報又は前記NW訓練モデルのベースとなる参照モデルに関する参照モデル情報を受信してもよい。制御部210は、前記NW訓練モデル情報又は前記参照モデル情報に基づいて判断されるモデルをさらに訓練してもよい。送受信部220は、前記訓練されたモデルに関する情報を送信してもよい。
 前記訓練されたモデルに関する情報は、どのウェイト又はレイヤが更新されるかに関する情報を含んでもよい。
 前記訓練されたモデルに関する情報は、連合学習におけるグローバルモデルの更新情報を含んでもよい。
 送信部220は、連合学習における現在の繰り返しにおけるモデル訓練のための資源についての情報を送信してもよい。
 また、送受信部220は、知識の蒸留における生徒モデルに関する生徒モデル情報を受信してもよい。送受信部220は、前記生徒モデル情報に基づく出力に関する情報を送信してもよい。
 前記出力に関する情報は、前記生徒モデルのソフトターゲットに関する情報を含んでもよい。
 前記生徒モデル情報は、損失関数の値を含んでもよい。
 前記生徒モデル情報は、ソフトターゲットロス及びハードターゲットロスの一方又は両方の情報を含んでもよい。
(ハードウェア構成)
 なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
 ここで、機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、みなし、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。例えば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)、送信機(transmitter)などと呼称されてもよい。いずれも、上述したとおり、実現方法は特に限定されない。
 例えば、本開示の一実施形態における基地局、ユーザ端末などは、本開示の無線通信方法の処理を行うコンピュータとして機能してもよい。図21は、一実施形態に係る基地局及びユーザ端末のハードウェア構成の一例を示す図である。上述の基地局10及びユーザ端末20は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
 なお、本開示において、装置、回路、デバイス、部(section)、ユニットなどの文言は、互いに読み替えることができる。基地局10及びユーザ端末20のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
 例えば、プロセッサ1001は1つだけ図示されているが、複数のプロセッサがあってもよい。また、処理は、1のプロセッサによって実行されてもよいし、処理が同時に、逐次に、又はその他の手法を用いて、2以上のプロセッサによって実行されてもよい。なお、プロセッサ1001は、1以上のチップによって実装されてもよい。
 基地局10及びユーザ端末20における各機能は、例えば、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004を介する通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
 プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(Central Processing Unit(CPU))によって構成されてもよい。例えば、上述の制御部110(210)、送受信部120(220)などの少なくとも一部は、プロセッサ1001によって実現されてもよい。
 また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、制御部110(210)は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。
 メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、Read Only Memory(ROM)、Erasable Programmable ROM(EPROM)、Electrically EPROM(EEPROM)、Random Access Memory(RAM)、その他の適切な記憶媒体の少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
 ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、フレキシブルディスク、フロッピー(登録商標)ディスク、光磁気ディスク(例えば、コンパクトディスク(Compact Disc ROM(CD-ROM)など)、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、リムーバブルディスク、ハードディスクドライブ、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、磁気ストライプ、データベース、サーバ、その他の適切な記憶媒体の少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。
 通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(Frequency Division Duplex(FDD))及び時分割複信(Time Division Duplex(TDD))の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、上述の送受信部120(220)、送受信アンテナ130(230)などは、通信装置1004によって実現されてもよい。送受信部120(220)は、送信部120a(220a)と受信部120b(220b)とで、物理的に又は論理的に分離された実装がなされてもよい。
 入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、Light Emitting Diode(LED)ランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
 また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
 また、基地局10及びユーザ端末20は、マイクロプロセッサ、デジタル信号プロセッサ(Digital Signal Processor(DSP))、Application Specific Integrated Circuit(ASIC)、Programmable Logic Device(PLD)、Field Programmable Gate Array(FPGA)などのハードウェアを含んで構成されてもよく、当該ハードウェアを用いて各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
(変形例)
 なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル、シンボル及び信号(シグナル又はシグナリング)は、互いに読み替えられてもよい。また、信号はメッセージであってもよい。参照信号(reference signal)は、RSと略称することもでき、適用される標準によってパイロット(Pilot)、パイロット信号などと呼ばれてもよい。また、コンポーネントキャリア(Component Carrier(CC))は、セル、周波数キャリア、キャリア周波数などと呼ばれてもよい。
 無線フレームは、時間領域において1つ又は複数の期間(フレーム)によって構成されてもよい。無線フレームを構成する当該1つ又は複数の各期間(フレーム)は、サブフレームと呼ばれてもよい。さらに、サブフレームは、時間領域において1つ又は複数のスロットによって構成されてもよい。サブフレームは、ニューメロロジー(numerology)に依存しない固定の時間長(例えば、1ms)であってもよい。
 ここで、ニューメロロジーは、ある信号又はチャネルの送信及び受信の少なくとも一方に適用される通信パラメータであってもよい。ニューメロロジーは、例えば、サブキャリア間隔(SubCarrier Spacing(SCS))、帯域幅、シンボル長、サイクリックプレフィックス長、送信時間間隔(Transmission Time Interval(TTI))、TTIあたりのシンボル数、無線フレーム構成、送受信機が周波数領域において行う特定のフィルタリング処理、送受信機が時間領域において行う特定のウィンドウイング処理などの少なくとも1つを示してもよい。
 スロットは、時間領域において1つ又は複数のシンボル(Orthogonal Frequency Division Multiplexing(OFDM)シンボル、Single Carrier Frequency Division Multiple Access(SC-FDMA)シンボルなど)によって構成されてもよい。また、スロットは、ニューメロロジーに基づく時間単位であってもよい。
 スロットは、複数のミニスロットを含んでもよい。各ミニスロットは、時間領域において1つ又は複数のシンボルによって構成されてもよい。また、ミニスロットは、サブスロットと呼ばれてもよい。ミニスロットは、スロットよりも少ない数のシンボルによって構成されてもよい。ミニスロットより大きい時間単位で送信されるPDSCH(又はPUSCH)は、PDSCH(PUSCH)マッピングタイプAと呼ばれてもよい。ミニスロットを用いて送信されるPDSCH(又はPUSCH)は、PDSCH(PUSCH)マッピングタイプBと呼ばれてもよい。
 無線フレーム、サブフレーム、スロット、ミニスロット及びシンボルは、いずれも信号を伝送する際の時間単位を表す。無線フレーム、サブフレーム、スロット、ミニスロット及びシンボルは、それぞれに対応する別の呼称が用いられてもよい。なお、本開示におけるフレーム、サブフレーム、スロット、ミニスロット、シンボルなどの時間単位は、互いに読み替えられてもよい。
 例えば、1サブフレームはTTIと呼ばれてもよいし、複数の連続したサブフレームがTTIと呼ばれてよいし、1スロット又は1ミニスロットがTTIと呼ばれてもよい。つまり、サブフレーム及びTTIの少なくとも一方は、既存のLTEにおけるサブフレーム(1ms)であってもよいし、1msより短い期間(例えば、1-13シンボル)であってもよいし、1msより長い期間であってもよい。なお、TTIを表す単位は、サブフレームではなくスロット、ミニスロットなどと呼ばれてもよい。
 ここで、TTIは、例えば、無線通信におけるスケジューリングの最小時間単位のことをいう。例えば、LTEシステムでは、基地局が各ユーザ端末に対して、無線リソース(各ユーザ端末において使用することが可能な周波数帯域幅、送信電力など)を、TTI単位で割り当てるスケジューリングを行う。なお、TTIの定義はこれに限られない。
 TTIは、チャネル符号化されたデータパケット(トランスポートブロック)、コードブロック、コードワードなどの送信時間単位であってもよいし、スケジューリング、リンクアダプテーションなどの処理単位となってもよい。なお、TTIが与えられたとき、実際にトランスポートブロック、コードブロック、コードワードなどがマッピングされる時間区間(例えば、シンボル数)は、当該TTIよりも短くてもよい。
 なお、1スロット又は1ミニスロットがTTIと呼ばれる場合、1以上のTTI(すなわち、1以上のスロット又は1以上のミニスロット)が、スケジューリングの最小時間単位となってもよい。また、当該スケジューリングの最小時間単位を構成するスロット数(ミニスロット数)は制御されてもよい。
 1msの時間長を有するTTIは、通常TTI(3GPP Rel.8-12におけるTTI)、ノーマルTTI、ロングTTI、通常サブフレーム、ノーマルサブフレーム、ロングサブフレーム、スロットなどと呼ばれてもよい。通常TTIより短いTTIは、短縮TTI、ショートTTI、部分TTI(partial又はfractional TTI)、短縮サブフレーム、ショートサブフレーム、ミニスロット、サブスロット、スロットなどと呼ばれてもよい。
 なお、ロングTTI(例えば、通常TTI、サブフレームなど)は、1msを超える時間長を有するTTIで読み替えてもよいし、ショートTTI(例えば、短縮TTIなど)は、ロングTTIのTTI長未満かつ1ms以上のTTI長を有するTTIで読み替えてもよい。
 リソースブロック(Resource Block(RB))は、時間領域及び周波数領域のリソース割当単位であり、周波数領域において、1つ又は複数個の連続した副搬送波(サブキャリア(subcarrier))を含んでもよい。RBに含まれるサブキャリアの数は、ニューメロロジーに関わらず同じであってもよく、例えば12であってもよい。RBに含まれるサブキャリアの数は、ニューメロロジーに基づいて決定されてもよい。
 また、RBは、時間領域において、1つ又は複数個のシンボルを含んでもよく、1スロット、1ミニスロット、1サブフレーム又は1TTIの長さであってもよい。1TTI、1サブフレームなどは、それぞれ1つ又は複数のリソースブロックによって構成されてもよい。
 なお、1つ又は複数のRBは、物理リソースブロック(Physical RB(PRB))、サブキャリアグループ(Sub-Carrier Group(SCG))、リソースエレメントグループ(Resource Element Group(REG))、PRBペア、RBペアなどと呼ばれてもよい。
 また、リソースブロックは、1つ又は複数のリソースエレメント(Resource Element(RE))によって構成されてもよい。例えば、1REは、1サブキャリア及び1シンボルの無線リソース領域であってもよい。
 帯域幅部分(Bandwidth Part(BWP))(部分帯域幅などと呼ばれてもよい)は、あるキャリアにおいて、あるニューメロロジー用の連続する共通RB(common resource blocks)のサブセットのことを表してもよい。ここで、共通RBは、当該キャリアの共通参照ポイントを基準としたRBのインデックスによって特定されてもよい。PRBは、あるBWPで定義され、当該BWP内で番号付けされてもよい。
 BWPには、UL BWP(UL用のBWP)と、DL BWP(DL用のBWP)とが含まれてもよい。UEに対して、1キャリア内に1つ又は複数のBWPが設定されてもよい。
 設定されたBWPの少なくとも1つがアクティブであってもよく、UEは、アクティブなBWPの外で所定の信号/チャネルを送受信することを想定しなくてもよい。なお、本開示における「セル」、「キャリア」などは、「BWP」で読み替えられてもよい。
 なお、上述した無線フレーム、サブフレーム、スロット、ミニスロット及びシンボルなどの構造は例示に過ぎない。例えば、無線フレームに含まれるサブフレームの数、サブフレーム又は無線フレームあたりのスロットの数、スロット内に含まれるミニスロットの数、スロット又はミニスロットに含まれるシンボル及びRBの数、RBに含まれるサブキャリアの数、並びにTTI内のシンボル数、シンボル長、サイクリックプレフィックス(Cyclic Prefix(CP))長などの構成は、様々に変更することができる。
 また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースは、所定のインデックスによって指示されてもよい。
 本開示においてパラメータなどに使用する名称は、いかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式などは、本開示において明示的に開示したものと異なってもよい。様々なチャネル(PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
 本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
 また、情報、信号などは、上位レイヤから下位レイヤ及び下位レイヤから上位レイヤの少なくとも一方へ出力され得る。情報、信号などは、複数のネットワークノードを介して入出力されてもよい。
 入出力された情報、信号などは、特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報、信号などは、上書き、更新又は追記をされ得る。出力された情報、信号などは、削除されてもよい。入力された情報、信号などは、他の装置へ送信されてもよい。
 情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、本開示における情報の通知は、物理レイヤシグナリング(例えば、下り制御情報(Downlink Control Information(DCI))、上り制御情報(Uplink Control Information(UCI)))、上位レイヤシグナリング(例えば、Radio Resource Control(RRC)シグナリング、ブロードキャスト情報(マスタ情報ブロック(Master Information Block(MIB))、システム情報ブロック(System Information Block(SIB))など)、Medium Access Control(MAC)シグナリング)、その他の信号又はこれらの組み合わせによって実施されてもよい。
 なお、物理レイヤシグナリングは、Layer 1/Layer 2(L1/L2)制御情報(L1/L2制御信号)、L1制御情報(L1制御信号)などと呼ばれてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。また、MACシグナリングは、例えば、MAC制御要素(MAC Control Element(CE))を用いて通知されてもよい。
 また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的な通知に限られず、暗示的に(例えば、当該所定の情報の通知を行わないことによって又は別の情報の通知によって)行われてもよい。
 判定は、1ビットで表される値(0か1か)によって行われてもよいし、真(true)又は偽(false)で表される真偽値(boolean)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
 ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(Digital Subscriber Line(DSL))など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
 本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用され得る。「ネットワーク」は、ネットワークに含まれる装置(例えば、基地局)のことを意味してもよい。
 本開示において、「プリコーディング」、「プリコーダ」、「ウェイト(プリコーディングウェイト)」、「擬似コロケーション(Quasi-Co-Location(QCL))」、「Transmission Configuration Indication state(TCI状態)」、「空間関係(spatial relation)」、「空間ドメインフィルタ(spatial domain filter)」、「送信電力」、「位相回転」、「アンテナポート」、「アンテナポートグル-プ」、「レイヤ」、「レイヤ数」、「ランク」、「リソース」、「リソースセット」、「リソースグループ」、「ビーム」、「ビーム幅」、「ビーム角度」、「アンテナ」、「アンテナ素子」、「パネル」などの用語は、互換的に使用され得る。
 本開示においては、「基地局(Base Station(BS))」、「無線基地局」、「固定局(fixed station)」、「NodeB」、「eNB(eNodeB)」、「gNB(gNodeB)」、「アクセスポイント(access point)」、「送信ポイント(Transmission Point(TP))」、「受信ポイント(Reception Point(RP))」、「送受信ポイント(Transmission/Reception Point(TRP))」、「パネル」、「セル」、「セクタ」、「セルグループ」、「キャリア」、「コンポーネントキャリア」などの用語は、互換的に使用され得る。基地局は、マクロセル、スモールセル、フェムトセル、ピコセルなどの用語で呼ばれる場合もある。
 基地局は、1つ又は複数(例えば、3つ)のセルを収容することができる。基地局が複数のセルを収容する場合、基地局のカバレッジエリア全体は複数のより小さいエリアに区分でき、各々のより小さいエリアは、基地局サブシステム(例えば、屋内用の小型基地局(Remote Radio Head(RRH)))によって通信サービスを提供することもできる。「セル」又は「セクタ」という用語は、このカバレッジにおいて通信サービスを行う基地局及び基地局サブシステムの少なくとも一方のカバレッジエリアの一部又は全体を指す。
 本開示において、基地局が端末に情報を送信することは、当該基地局が当該端末に対して、当該情報に基づく制御/動作を指示することと、互いに読み替えられてもよい。
 本開示においては、「移動局(Mobile Station(MS))」、「ユーザ端末(user terminal)」、「ユーザ装置(User Equipment(UE))」、「端末」などの用語は、互換的に使用され得る。
 移動局は、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント又はいくつかの他の適切な用語で呼ばれる場合もある。
 基地局及び移動局の少なくとも一方は、送信装置、受信装置、無線通信装置などと呼ばれてもよい。なお、基地局及び移動局の少なくとも一方は、移動体(moving object)に搭載されたデバイス、移動体自体などであってもよい。
 当該移動体は、移動可能な物体をいい、移動速度は任意であり、移動体が停止している場合も当然含む。当該移動体は、例えば、車両、輸送車両、自動車、自動二輪車、自転車、コネクテッドカー、ショベルカー、ブルドーザー、ホイールローダー、ダンプトラック、フォークリフト、列車、バス、リヤカー、人力車、船舶(ship and other watercraft)、飛行機、ロケット、人工衛星、ドローン、マルチコプター、クアッドコプター、気球及びこれらに搭載される物を含み、またこれらに限られない。また、当該移動体は、運行指令に基づいて自律走行する移動体であってもよい。
 当該移動体は、乗り物(例えば、車、飛行機など)であってもよいし、無人で動く移動体(例えば、ドローン、自動運転車など)であってもよいし、ロボット(有人型又は無人型)であってもよい。なお、基地局及び移動局の少なくとも一方は、必ずしも通信動作時に移動しない装置も含む。例えば、基地局及び移動局の少なくとも一方は、センサなどのInternet of Things(IoT)機器であってもよい。
 図22は、一実施形態に係る車両の一例を示す図である。車両40は、駆動部41、操舵部42、アクセルペダル43、ブレーキペダル44、シフトレバー45、左右の前輪46、左右の後輪47、車軸48、電子制御部49、各種センサ(電流センサ50、回転数センサ51、空気圧センサ52、車速センサ53、加速度センサ54、アクセルペダルセンサ55、ブレーキペダルセンサ56、シフトレバーセンサ57、及び物体検知センサ58を含む)、情報サービス部59と通信モジュール60を備える。
 駆動部41は、例えば、エンジン、モータ、エンジンとモータのハイブリッドの少なくとも1つで構成される。操舵部42は、少なくともステアリングホイール(ハンドルとも呼ぶ)を含み、ユーザによって操作されるステアリングホイールの操作に基づいて前輪46及び後輪47の少なくとも一方を操舵するように構成される。
 電子制御部49は、マイクロプロセッサ61、メモリ(ROM、RAM)62、通信ポート(例えば、入出力(Input/Output(IO))ポート)63で構成される。電子制御部49には、車両に備えられた各種センサ50-58からの信号が入力される。電子制御部49は、Electronic Control Unit(ECU)と呼ばれてもよい。
 各種センサ50-58からの信号としては、モータの電流をセンシングする電流センサ50からの電流信号、回転数センサ51によって取得された前輪46/後輪47の回転数信号、空気圧センサ52によって取得された前輪46/後輪47の空気圧信号、車速センサ53によって取得された車速信号、加速度センサ54によって取得された加速度信号、アクセルペダルセンサ55によって取得されたアクセルペダル43の踏み込み量信号、ブレーキペダルセンサ56によって取得されたブレーキペダル44の踏み込み量信号、シフトレバーセンサ57によって取得されたシフトレバー45の操作信号、物体検知センサ58によって取得された障害物、車両、歩行者などを検出するための検出信号などがある。
 情報サービス部59は、カーナビゲーションシステム、オーディオシステム、スピーカー、ディスプレイ、テレビ、ラジオ、といった、運転情報、交通情報、エンターテイメント情報などの各種情報を提供(出力)するための各種機器と、これらの機器を制御する1つ以上のECUとから構成される。情報サービス部59は、外部装置から通信モジュール60などを介して取得した情報を利用して、車両40の乗員に各種情報/サービス(例えば、マルチメディア情報/マルチメディアサービス)を提供する。
 情報サービス部59は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサ、タッチパネルなど)を含んでもよいし、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプ、タッチパネルなど)を含んでもよい。
 運転支援システム部64は、ミリ波レーダ、Light Detection and Ranging(LiDAR)、カメラ、測位ロケータ(例えば、Global Navigation Satellite System(GNSS)など)、地図情報(例えば、高精細(High Definition(HD))マップ、自動運転車(Autonomous Vehicle(AV))マップなど)、ジャイロシステム(例えば、慣性計測装置(Inertial Measurement Unit(IMU))、慣性航法装置(Inertial Navigation System(INS))など)、人工知能(Artificial Intelligence(AI))チップ、AIプロセッサといった、事故を未然に防止したりドライバの運転負荷を軽減したりするための機能を提供するための各種機器と、これらの機器を制御する1つ以上のECUとから構成される。また、運転支援システム部64は、通信モジュール60を介して各種情報を送受信し、運転支援機能又は自動運転機能を実現する。
 通信モジュール60は、通信ポート63を介して、マイクロプロセッサ61及び車両40の構成要素と通信することができる。例えば、通信モジュール60は通信ポート63を介して、車両40に備えられた駆動部41、操舵部42、アクセルペダル43、ブレーキペダル44、シフトレバー45、左右の前輪46、左右の後輪47、車軸48、電子制御部49内のマイクロプロセッサ61及びメモリ(ROM、RAM)62、各種センサ50-58との間でデータ(情報)を送受信する。
 通信モジュール60は、電子制御部49のマイクロプロセッサ61によって制御可能であり、外部装置と通信を行うことが可能な通信デバイスである。例えば、外部装置との間で無線通信を介して各種情報の送受信を行う。通信モジュール60は、電子制御部49の内部と外部のどちらにあってもよい。外部装置は、例えば、上述の基地局10、ユーザ端末20などであってもよい。また、通信モジュール60は、例えば、上述の基地局10及びユーザ端末20の少なくとも1つであってもよい(基地局10及びユーザ端末20の少なくとも1つとして機能してもよい)。
 通信モジュール60は、電子制御部49に入力された上述の各種センサ50-58からの信号、当該信号に基づいて得られる情報、及び情報サービス部59を介して得られる外部(ユーザ)からの入力に基づく情報、の少なくとも1つを、無線通信を介して外部装置へ送信してもよい。電子制御部49、各種センサ50-58、情報サービス部59などは、入力を受け付ける入力部と呼ばれてもよい。例えば、通信モジュール60によって送信されるPUSCHは、上記入力に基づく情報を含んでもよい。
 通信モジュール60は、外部装置から送信されてきた種々の情報(交通情報、信号情報、車間情報など)を受信し、車両に備えられた情報サービス部59へ表示する。情報サービス部59は、情報を出力する(例えば、通信モジュール60によって受信されるPDSCH(又は当該PDSCHから復号されるデータ/情報)に基づいてディスプレイ、スピーカーなどの機器に情報を出力する)出力部と呼ばれてもよい。
 また、通信モジュール60は、外部装置から受信した種々の情報をマイクロプロセッサ61によって利用可能なメモリ62へ記憶する。メモリ62に記憶された情報に基づいて、マイクロプロセッサ61が車両40に備えられた駆動部41、操舵部42、アクセルペダル43、ブレーキペダル44、シフトレバー45、左右の前輪46、左右の後輪47、車軸48、各種センサ50-58などの制御を行ってもよい。
 また、本開示における基地局は、ユーザ端末で読み替えてもよい。例えば、基地局及びユーザ端末間の通信を、複数のユーザ端末間の通信(例えば、Device-to-Device(D2D)、Vehicle-to-Everything(V2X)などと呼ばれてもよい)に置き換えた構成について、本開示の各態様/実施形態を適用してもよい。この場合、上述の基地局10が有する機能をユーザ端末20が有する構成としてもよい。また、「上りリンク(uplink)」、「下りリンク(downlink)」などの文言は、端末間通信に対応する文言(例えば、「サイドリンク(sidelink)」)で読み替えられてもよい。例えば、上りリンクチャネル、下りリンクチャネルなどは、サイドリンクチャネルで読み替えられてもよい。
 同様に、本開示におけるユーザ端末は、基地局で読み替えてもよい。この場合、上述のユーザ端末20が有する機能を基地局10が有する構成としてもよい。
 本開示において、基地局によって行われるとした動作は、場合によってはその上位ノード(upper node)によって行われることもある。基地局を有する1つ又は複数のネットワークノード(network nodes)を含むネットワークにおいて、端末との通信のために行われる様々な動作は、基地局、基地局以外の1つ以上のネットワークノード(例えば、Mobility Management Entity(MME)、Serving-Gateway(S-GW)などが考えられるが、これらに限られない)又はこれらの組み合わせによって行われ得ることは明らかである。
 本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
 本開示において説明した各態様/実施形態は、Long Term Evolution(LTE)、LTE-Advanced(LTE-A)、LTE-Beyond(LTE-B)、SUPER 3G、IMT-Advanced、4th generation mobile communication system(4G)、5th generation mobile communication system(5G)、6th generation mobile communication system(6G)、xth generation mobile communication system(xG(xは、例えば整数、小数))、Future Radio Access(FRA)、New-Radio Access Technology(RAT)、New Radio(NR)、New radio access(NX)、Future generation radio access(FX)、Global System for Mobile communications(GSM(登録商標))、CDMA2000、Ultra Mobile Broadband(UMB)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、Ultra-WideBand(UWB)、Bluetooth(登録商標)、その他の適切な無線通信方法を利用するシステム、これらに基づいて拡張、修正、作成又は規定された次世代システムなどに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE又はLTE-Aと、5Gとの組み合わせなど)適用されてもよい。
 本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
 本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素の参照は、2つの要素のみが採用され得ること又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
 本開示において使用する「判断(決定)(determining)」という用語は、多種多様な動作を包含する場合がある。例えば、「判断(決定)」は、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)などを「判断(決定)」することであるとみなされてもよい。
 また、「判断(決定)」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)などを「判断(決定)」することであるとみなされてもよい。
 また、「判断(決定)」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などを「判断(決定)」することであるとみなされてもよい。つまり、「判断(決定)」は、何らかの動作を「判断(決定)」することであるとみなされてもよい。
 また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
 本開示において使用する「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的であっても、論理的であっても、あるいはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。
 本開示において、2つの要素が接続される場合、1つ以上の電線、ケーブル、プリント電気接続などを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域、光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。
 本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
 本開示において、「含む(include)」、「含んでいる(including)」及びこれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
 本開示において、例えば、英語でのa, an及びtheのように、翻訳によって冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
 本開示において、「以下」、「未満」、「以上」、「より多い」、「と等しい」などは、互いに読み替えられてもよい。また、本開示において、「良い」、「悪い」、「大きい」、「小さい」、「高い」、「低い」、「早い」、「遅い」などを意味する文言は、互いに読み替えられてもよい(原級、比較級、最上級を限らず)。また、本開示において、「良い」、「悪い」、「大きい」、「小さい」、「高い」、「低い」、「早い」、「遅い」などを意味する文言は、「i番目に」を付けた表現として互いに読み替えられてもよい(原級、比較級、最上級を限らず)(例えば、「最高」は「i番目に最高」と互いに読み替えられてもよい)。
 本開示において、「の(of)」、「のための(for)」、「に関する(regarding)」、「に関係する(related to)」、「に関連付けられる(associated with)」などは、互いに読み替えられてもよい。
 以上、本開示に係る発明について詳細に説明したが、当業者にとっては、本開示に係る発明が本開示中に説明した実施形態に限定されないということは明らかである。本開示に係る発明は、請求の範囲の記載に基づいて定まる発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とし、本開示に係る発明に対して何ら制限的な意味をもたらさない。

Claims (6)

  1.  知識の蒸留における生徒モデルに関する生徒モデル情報を受信する受信部と、
     前記生徒モデル情報に基づく出力に関する情報を送信する送信部と、を有する端末。
  2.  前記出力に関する情報は、前記生徒モデルのソフトターゲットに関する情報を含む請求項1に記載の端末。
  3.  前記生徒モデル情報は、損失関数の値を含む請求項1に記載の端末。
  4.  前記生徒モデル情報は、ソフトターゲットロス及びハードターゲットロスの一方又は両方の情報を含む請求項1に記載の端末。
  5.  知識の蒸留における生徒モデルに関する生徒モデル情報を受信するステップと、
     前記生徒モデル情報に基づく出力に関する情報を送信するステップと、を有する端末の無線通信方法。
  6.  知識の蒸留における生徒モデルに関する生徒モデル情報を送信する送信部と、
     前記生徒モデル情報に基づく出力に関する情報を受信する受信部と、を有する基地局。
PCT/JP2022/017733 2022-04-13 2022-04-13 端末、無線通信方法及び基地局 WO2023199437A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/017733 WO2023199437A1 (ja) 2022-04-13 2022-04-13 端末、無線通信方法及び基地局

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/017733 WO2023199437A1 (ja) 2022-04-13 2022-04-13 端末、無線通信方法及び基地局

Publications (1)

Publication Number Publication Date
WO2023199437A1 true WO2023199437A1 (ja) 2023-10-19

Family

ID=88329315

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/017733 WO2023199437A1 (ja) 2022-04-13 2022-04-13 端末、無線通信方法及び基地局

Country Status (1)

Country Link
WO (1) WO2023199437A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024211A1 (ja) * 2020-07-28 2022-02-03 三菱電機株式会社 学習活用システム、活用装置、学習装置、プログラム及び学習活用方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024211A1 (ja) * 2020-07-28 2022-02-03 三菱電機株式会社 学習活用システム、活用装置、学習装置、プログラム及び学習活用方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HU HAIZHOU; JIANG CONGFENG: "Edge Intelligence: Challenges and Opportunities", 2020 INTERNATIONAL CONFERENCE ON COMPUTER, INFORMATION AND TELECOMMUNICATION SYSTEMS (CITS), IEEE, 5 October 2020 (2020-10-05), pages 1 - 5, XP033844405, DOI: 10.1109/CITS49457.2020.9232575 *
JANKOWSKI MIKOLAJ; GUNDUZ DENIZ; MIKOLAJCZYK KRYSTIAN: "AirNet: Neural Network Transmission over the Air", 2022 IEEE INTERNATIONAL SYMPOSIUM ON INFORMATION THEORY (ISIT), IEEE, 26 June 2022 (2022-06-26), pages 2451 - 2456, XP034159850, DOI: 10.1109/ISIT50566.2022.9834372 *

Similar Documents

Publication Publication Date Title
WO2023199437A1 (ja) 端末、無線通信方法及び基地局
WO2023199439A1 (ja) 端末、無線通信方法及び基地局
WO2023199438A1 (ja) 端末、無線通信方法及び基地局
WO2023218543A1 (ja) 端末、無線通信方法及び基地局
WO2023218544A1 (ja) 端末、無線通信方法及び基地局
WO2023218650A1 (ja) 端末、無線通信方法及び基地局
WO2024004194A1 (ja) 端末、無線通信方法及び基地局
WO2024013852A1 (ja) 端末、無線通信方法及び基地局
WO2024013851A1 (ja) 端末、無線通信方法及び基地局
WO2023228382A1 (ja) 端末、無線通信方法及び基地局
WO2024004219A1 (ja) 端末、無線通信方法及び基地局
WO2024004220A1 (ja) 端末、無線通信方法及び基地局
WO2024106379A1 (ja) 端末、無線通信方法及び基地局
WO2024106380A1 (ja) 端末、無線通信方法及び基地局
WO2024053071A1 (ja) 端末、無線通信方法及び基地局
WO2024029087A1 (ja) 端末、無線通信方法及び基地局
WO2024029089A1 (ja) 端末、無線通信方法及び基地局
WO2024075263A1 (ja) 端末、無線通信方法及び基地局
WO2024029088A1 (ja) 端末、無線通信方法及び基地局
WO2024075261A1 (ja) 端末、無線通信方法及び基地局
WO2024053063A1 (ja) 端末、無線通信方法及び基地局
WO2024053064A1 (ja) 端末、無線通信方法及び基地局
WO2024075262A1 (ja) 端末、無線通信方法及び基地局
WO2024004189A1 (ja) 端末、無線通信方法及び基地局
WO2024004187A1 (ja) 端末、無線通信方法及び基地局

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22937416

Country of ref document: EP

Kind code of ref document: A1