WO2023204211A1 - 通信装置及び通信方法 - Google Patents

通信装置及び通信方法 Download PDF

Info

Publication number
WO2023204211A1
WO2023204211A1 PCT/JP2023/015485 JP2023015485W WO2023204211A1 WO 2023204211 A1 WO2023204211 A1 WO 2023204211A1 JP 2023015485 W JP2023015485 W JP 2023015485W WO 2023204211 A1 WO2023204211 A1 WO 2023204211A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
communication device
message
learning
gnb
Prior art date
Application number
PCT/JP2023/015485
Other languages
English (en)
French (fr)
Inventor
真人 藤代
光孝 秦
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2023204211A1 publication Critical patent/WO2023204211A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/08Testing, supervising or monitoring using real traffic

Definitions

  • the present disclosure relates to a communication device and a communication method used in a mobile communication system.
  • the communication device is a device that communicates with another communication device in a mobile communication system that uses machine learning technology.
  • the communication device includes a receiving unit that receives a configuration message from the another communication device that includes a model used in machine learning processing, which is at least one of learning processing and inference processing, and additional information regarding the model; a control unit that executes the machine learning process using the model based on the model.
  • the communication method according to the second aspect is a method executed by a communication device that communicates with another communication device in a mobile communication system that uses machine learning technology.
  • the communication method includes the steps of receiving a configuration message from the another communication device including a model used in machine learning processing, which is at least one of learning processing and inference processing, and additional information regarding the model; and executing the machine learning process using the model.
  • FIG. 1 is a diagram showing the configuration of a mobile communication system according to an embodiment.
  • FIG. 1 is a diagram showing a configuration of a UE (user equipment) according to an embodiment. It is a diagram showing the configuration of a gNB (base station) according to an embodiment.
  • FIG. 2 is a diagram showing the configuration of a protocol stack of a user plane wireless interface that handles data.
  • FIG. 2 is a diagram showing the configuration of a protocol stack of a control plane radio interface that handles signaling (control signals).
  • FIG. 2 is a diagram showing a functional block configuration of AI/ML technology in a mobile communication system according to an embodiment.
  • FIG. 3 is a diagram illustrating an overview of operations related to each operation scenario according to the embodiment.
  • FIG. 3 is a diagram illustrating an overview of operations related to each operation scenario according to the embodiment.
  • FIG. 3 is a diagram illustrating a first operation scenario according to the embodiment.
  • FIG. 3 is a diagram illustrating a first example of reducing CSI-RSs according to the embodiment.
  • FIG. 7 is a diagram illustrating a second example of reducing CSI-RSs according to the embodiment.
  • FIG. 3 is an operation flow diagram showing a first operation example related to a first operation scenario according to the embodiment.
  • FIG. 7 is an operation flow diagram showing a second operation example related to the first operation scenario according to the embodiment.
  • FIG. 7 is an operation flow diagram showing a third operation example related to the first operation scenario according to the embodiment.
  • FIG. 7 is a diagram illustrating a second operation scenario according to the embodiment.
  • FIG. 7 is an operation flow diagram illustrating an operation example related to a second operation scenario according to the embodiment.
  • FIG. 7 is an operation flow diagram showing an operation example related to a third operation scenario according to the embodiment.
  • FIG. 3 is a diagram for explaining notification of capability information or load status information according to the embodiment.
  • FIG. 3 is a diagram for explaining model settings according to the embodiment.
  • FIG. 3 is a diagram illustrating a first operation example regarding model transfer according to the embodiment.
  • FIG. 3 is a diagram illustrating an example of a setting message including a model and additional information according to the embodiment.
  • FIG. 7 is a diagram illustrating a second operation example regarding model transfer according to the embodiment.
  • FIG. 6 is a diagram illustrating an example of operation related to divided transmission of a configuration message according to the embodiment.
  • FIG. 7 is a diagram illustrating a third operation example regarding model transfer according to the embodiment.
  • the present disclosure aims to make it possible to utilize machine learning processing in a mobile communication system.
  • FIG. 1 is a diagram showing the configuration of a mobile communication system 1 according to an embodiment.
  • the mobile communication system 1 complies with the 5th Generation System (5GS) of the 3GPP standard.
  • 5GS will be described as an example below
  • an LTE (Long Term Evolution) system may be applied at least partially to the mobile communication system.
  • a 6th generation (6G) system may be at least partially applied to the mobile communication system.
  • the mobile communication system 1 includes a user equipment (UE: User Equipment) 100, a 5G radio access network (NG-RAN: Next Generation Radio Access Network) 10, and a 5G core network (5GC: 5G Core). Network) 20 and have Below, the NG-RAN 10 may be simply referred to as RAN 10. Further, the 5GC 20 may be simply referred to as the core network (CN) 20.
  • UE User Equipment
  • NG-RAN Next Generation Radio Access Network
  • 5GC 5G Core
  • the UE 100 is a mobile wireless communication device.
  • the UE 100 may be any device as long as it is used by a user.
  • the UE 100 may be a mobile phone terminal (including a smartphone), a tablet terminal, a notebook PC, a communication module (including a communication card or chipset), a sensor or a device provided in the sensor, a vehicle or a device provided in the vehicle (Vehicle UE ), an aircraft or a device installed on an aircraft (Aerial UE).
  • the NG-RAN 10 includes a base station (called “gNB” in the 5G system) 200.
  • gNB200 is mutually connected via the Xn interface which is an interface between base stations.
  • gNB200 manages one or more cells.
  • the gNB 200 performs wireless communication with the UE 100 that has established a connection with its own cell.
  • the gNB 200 has a radio resource management (RRM) function, a routing function for user data (hereinafter simply referred to as "data”), a measurement control function for mobility control/scheduling, and the like.
  • RRM radio resource management
  • Cell is a term used to indicate the smallest unit of wireless communication area.
  • Cell is also used as a term indicating a function or resource for performing wireless communication with the UE 100.
  • One cell belongs to one carrier frequency (hereinafter simply referred to as "frequency").
  • the gNB can also be connected to EPC (Evolved Packet Core), which is the core network of LTE.
  • EPC Evolved Packet Core
  • LTE base stations can also connect to 5GC.
  • An LTE base station and a gNB can also be connected via an inter-base station interface.
  • 5GC20 includes an AMF (Access and Mobility Management Function) and a UPF (User Plane Function) 300.
  • the AMF performs various mobility controls for the UE 100.
  • AMF manages the mobility of UE 100 by communicating with UE 100 using NAS (Non-Access Stratum) signaling.
  • the UPF controls data transfer.
  • AMF and UPF are connected to gNB 200 via an NG interface that is a base station-core network interface.
  • FIG. 2 is a diagram showing the configuration of the UE 100 (user device) according to the embodiment.
  • UE 100 includes a receiving section 110, a transmitting section 120, and a control section 130.
  • the receiving unit 110 and the transmitting unit 120 constitute a communication unit that performs wireless communication with the gNB 200.
  • UE 100 is an example of a communication device.
  • the receiving unit 110 performs various types of reception under the control of the control unit 130.
  • Receiving section 110 includes an antenna and a receiver.
  • the receiver converts the radio signal received by the antenna into a baseband signal (received signal) and outputs the baseband signal (received signal) to the control unit 130.
  • the transmitter 120 performs various transmissions under the control of the controller 130.
  • Transmitter 120 includes an antenna and a transmitter.
  • the transmitter converts the baseband signal (transmission signal) output by the control unit 130 into a wireless signal and transmits it from the antenna.
  • Control unit 130 performs various controls and processes in the UE 100. Such processing includes processing for each layer, which will be described later.
  • Control unit 130 includes at least one processor and at least one memory.
  • the memory stores programs executed by the processor and information used in processing by the processor.
  • the processor may include a baseband processor and a CPU (Central Processing Unit).
  • the baseband processor performs modulation/demodulation, encoding/decoding, etc. of the baseband signal.
  • the CPU executes programs stored in memory to perform various processes.
  • FIG. 3 is a diagram showing the configuration of the gNB 200 (base station) according to the embodiment.
  • gNB 200 includes a transmitting section 210, a receiving section 220, a control section 230, and a backhaul communication section 240.
  • the transmitting section 210 and the receiving section 220 constitute a communication section that performs wireless communication with the UE 100.
  • the backhaul communication unit 240 constitutes a network communication unit that communicates with the CN 20.
  • gNB200 is another example of a communication device.
  • the transmitter 210 performs various transmissions under the control of the controller 230.
  • Transmitter 210 includes an antenna and a transmitter.
  • the transmitter converts the baseband signal (transmission signal) output by the control unit 230 into a wireless signal and transmits it from the antenna.
  • the receiving unit 220 performs various types of reception under the control of the control unit 230.
  • Receiving section 220 includes an antenna and a receiver. The receiver converts the radio signal received by the antenna into a baseband signal (received signal) and outputs it to the control unit 230.
  • Control unit 230 performs various controls and processes in the gNB 200. Such processing includes processing for each layer, which will be described later.
  • Control unit 230 includes at least one processor and at least one memory.
  • the memory stores programs executed by the processor and information used in processing by the processor.
  • the processor may include a baseband processor and a CPU.
  • the baseband processor performs modulation/demodulation, encoding/decoding, etc. of the baseband signal.
  • the CPU executes programs stored in memory to perform various processes.
  • the backhaul communication unit 240 is connected to adjacent base stations via the Xn interface, which is an interface between base stations.
  • Backhaul communication unit 240 is connected to AMF/UPF 300 via an NG interface that is a base station-core network interface.
  • the gNB 200 may be configured (that is, functionally divided) of a central unit (CU) and a distributed unit (DU), and the two units may be connected by an F1 interface that is a fronthaul interface.
  • FIG. 4 is a diagram showing the configuration of a protocol stack of a user plane wireless interface that handles data.
  • the user plane radio interface protocols include a physical (PHY) layer, a medium access control (MAC) layer, a radio link control (RLC) layer, a packet data convergence protocol (PDCP) layer, and a service data adaptation protocol (SDAP). It has a layer.
  • PHY physical
  • MAC medium access control
  • RLC radio link control
  • PDCP packet data convergence protocol
  • SDAP service data adaptation protocol
  • the PHY layer performs encoding/decoding, modulation/demodulation, antenna mapping/demapping, and resource mapping/demapping. Data and control information are transmitted between the PHY layer of the UE 100 and the PHY layer of the gNB 200 via a physical channel.
  • the PHY layer of the UE 100 receives downlink control information (DCI) transmitted from the gNB 200 on the physical downlink control channel (PDCCH).
  • DCI downlink control information
  • the UE 100 performs blind decoding of the PDCCH using a radio network temporary identifier (RNTI), and acquires the successfully decoded DCI as the DCI addressed to its own UE.
  • RNTI radio network temporary identifier
  • a CRC parity bit scrambled by the RNTI is added to the DCI transmitted from the gNB 200.
  • the UE 100 can use a bandwidth narrower than the system bandwidth (i.e., the cell bandwidth).
  • the gNB 200 sets a bandwidth portion (BWP) consisting of consecutive PRBs to the UE 100.
  • UE 100 transmits and receives data and control signals in active BWP.
  • BWP bandwidth portion
  • up to four BWPs may be configurable in the UE 100.
  • Each BWP may have a different subcarrier spacing.
  • the respective BWPs may have overlapping frequencies.
  • the gNB 200 can specify which BWP to apply through downlink control. Thereby, the gNB 200 dynamically adjusts the UE bandwidth according to the amount of data traffic of the UE 100, etc., and reduces UE power consumption.
  • the gNB 200 can configure up to three control resource sets (CORESET) for each of up to four BWPs on the serving cell.
  • CORESET is a radio resource for control information that the UE 100 should receive. Up to 12 or more CORESETs may be configured in the UE 100 on the serving cell. Each CORESET may have 0 to 11 or more indices.
  • a CORESET may be composed of six resource blocks (PRBs) and one, two, or three consecutive OFDM symbols in the time domain.
  • PRBs resource blocks
  • the MAC layer performs data priority control, retransmission processing using Hybrid ARQ (HARQ: Hybrid Automatic Repeat reQuest), random access procedure, etc.
  • Data and control information are transmitted between the MAC layer of UE 100 and the MAC layer of gNB 200 via a transport channel.
  • the MAC layer of gNB 200 includes a scheduler. The scheduler determines uplink and downlink transport formats (transport block size, modulation and coding scheme (MCS)) and resource blocks to be allocated to the UE 100.
  • MCS modulation and coding scheme
  • the RLC layer uses the functions of the MAC layer and PHY layer to transmit data to the RLC layer on the receiving side. Data and control information are transmitted between the RLC layer of UE 100 and the RLC layer of gNB 200 via logical channels.
  • the PDCP layer performs header compression/expansion, encryption/decryption, etc.
  • the SDAP layer performs mapping between an IP flow, which is a unit in which the core network performs QoS (Quality of Service) control, and a radio bearer, which is a unit in which an access stratum (AS) performs QoS control. Note that if the RAN is connected to the EPC, the SDAP may not be provided.
  • QoS Quality of Service
  • AS access stratum
  • FIG. 5 is a diagram showing the configuration of the protocol stack of the wireless interface of the control plane that handles signaling (control signals).
  • the protocol stack of the radio interface of the control plane includes a radio resource control (RRC) layer and a non-access stratum (NAS) instead of the SDAP layer shown in FIG. 4.
  • RRC radio resource control
  • NAS non-access stratum
  • RRC signaling for various settings is transmitted between the RRC layer of the UE 100 and the RRC layer of the gNB 200.
  • the RRC layer controls logical, transport and physical channels according to the establishment, re-establishment and release of radio bearers.
  • RRC connection connection between the RRC of the UE 100 and the RRC of the gNB 200
  • the UE 100 is in an RRC connected state.
  • RRC connection no connection between the RRC of the UE 100 and the RRC of the gNB 200
  • the UE 100 is in an RRC idle state.
  • the connection between the RRC of the UE 100 and the RRC of the gNB 200 is suspended, the UE 100 is in an RRC inactive state.
  • the NAS located above the RRC layer performs session management, mobility management, etc.
  • NAS signaling is transmitted between the NAS of the UE 100 and the NAS of the AMF 300A.
  • the UE 100 has an application layer and the like in addition to the wireless interface protocol.
  • AS Access Stratum
  • FIG. 6 is a diagram showing a functional block configuration of AI/ML technology in the mobile communication system 1 according to the embodiment.
  • the functional block configuration shown in FIG. 6 includes a data collection section A1, a model learning section A2, a model inference section A3, and a data processing section A4.
  • the data collection unit A1 collects input data, specifically, learning data and inference data, outputs the learning data to the model learning unit A2, and outputs the inference data to the model inference unit A3.
  • the data collection unit A1 may obtain, as input data, data in its own device in which the data collection unit A1 is provided. Alternatively, the data collection unit A1 may obtain data from another device as input data.
  • machine learning includes supervised learning, unsupervised learning, and reinforcement learning.
  • Supervised learning is a method that uses correct answer data as learning data.
  • Unsupervised learning is a method that does not use correct answer data as learning data. For example, in unsupervised learning, feature points are memorized from a large amount of learning data and correct answers are determined (range estimated).
  • Reinforcement learning is a method of assigning scores to output results and learning how to maximize the scores.
  • the model inference unit A3 may provide model performance feedback to the model learning unit A2.
  • the data processing unit A4 receives the inference result data and performs processing using the inference result data.
  • the problem is how to arrange the functional block configuration shown in FIG. 6.
  • wireless communication between the UE 100 and the gNB 200 is mainly assumed.
  • the question is how to arrange each functional block in FIG. 6 in the UE 100 and gNB 200.
  • the question becomes how to control and set each functional block from gNB 200 to UE 100.
  • FIG. 7 is a diagram showing an overview of operations related to each operation scenario according to the embodiment.
  • one of the UE 100 and the gNB 200 corresponds to a first communication device, and the other corresponds to a second communication device.
  • the UE 100 transmits control data regarding model learning to or receives control data from the gNB 200.
  • the control data may be an RRC message that is RRC layer (ie, layer 3) signaling.
  • the control data may be MAC CE (Control Element), which is MAC layer (namely, layer 2) signaling.
  • the control data may be downlink control information (DCI) that is PHY layer (ie, layer 1) signaling.
  • DCI downlink control information
  • PHY layer ie, layer 1
  • the control data may be control messages in an artificial intelligence or machine learning specific control layer (eg, an AI/ML layer).
  • FIG. 8 is a diagram illustrating a first operation scenario according to the embodiment.
  • the data collection unit A1, model learning unit A2, and model inference unit A3 are placed in the UE 100 (for example, the control unit 130), and the data processing unit A4 is placed in the gNB 200 (for example, the control unit 230). . That is, model learning and model inference are performed on the UE 100 side.
  • CSI channel state information
  • the CSI transmitted (feedback) from the UE 100 to the gNB 200 is information indicating the downlink channel state between the UE 100 and the gNB 200.
  • CSI includes at least one of a channel quality indicator (CQI), a precoding matrix indicator (PMI), and a rank indicator (RI).
  • CQI channel quality indicator
  • PMI precoding matrix indicator
  • RI rank indicator
  • the gNB 200 performs, for example, downlink scheduling based on CSI feedback from the UE 100.
  • the gNB 200 transmits a reference signal for the UE 100 to estimate the downlink channel state.
  • a reference signal may be, for example, a CSI reference signal (CSI-RS).
  • CSI-RS CSI reference signal
  • DMRS demodulation reference signal
  • the reference signal is a CSI-RS.
  • the UE 100 receives the first reference signal from the gNB 200 using the first resource. Then, the UE 100 (model learning unit A2) uses the learning data including the first reference signal to derive a learned model for inferring the CSI from the reference signal.
  • a first reference signal may be referred to as a full CSI-RS.
  • the UE 100 performs channel estimation using the received signal (CSI-RS) received by the reception unit 110 from the gNB 200, and generates CSI.
  • UE 100 transmits the generated CSI to gNB 200.
  • the model learning unit A2 performs model learning using multiple sets of received signals (CSI-RS) and CSI as learning data, and derives a trained model for inferring CSI from received signals (CSI-RS). do.
  • the UE 100 receives the second reference signal from the gNB 200 using a second resource that is smaller than the first resource. Then, the UE 100 (model inference unit A3) uses the learned model to infer the CSI from the inference data including the second reference signal as inference result data.
  • a second reference signal may be referred to as a partial CSI-RS or a punctured CSI-RS.
  • the UE 100 uses the received signal (CSI-RS) received by the reception unit 110 from the gNB 200 as inference data, and uses the trained model to extract the received signal (CSI-RS) from the received signal (CSI-RS). Infer CSI.
  • UE 100 transmits the inferred CSI to gNB 200.
  • the UE 100 can feed back accurate (complete) CSI to the gNB 200 from a small number of CSI-RSs (partial CSI-RSs) received from the gNB 200.
  • the gNB 200 can puncture the CSI-RS when intended to reduce overhead.
  • the UE 100 can cope with a situation where the radio conditions deteriorate and some CSI-RSs cannot be received normally.
  • FIG. 9 is a diagram showing a first example of reducing CSI-RS according to the embodiment.
  • the gNB 200 reduces the number of antenna ports that transmit CSI-RS. For example, the gNB 200 transmits CSI-RS from all antenna ports of the antenna panel in a mode in which the UE 100 performs model learning. On the other hand, in the mode in which the UE 100 performs model inference, the gNB 200 reduces the number of antenna ports that transmit CSI-RS, and transmits CSI-RS from half of the antenna ports of the antenna panel.
  • the antenna port is an example of a resource. As a result, overhead can be reduced, antenna port usage efficiency can be improved, and power consumption can be reduced.
  • FIG. 10 is a diagram showing a second example of reducing CSI-RS according to the embodiment.
  • the gNB 200 reduces the number of radio resources for transmitting CSI-RS, specifically, the number of time-frequency resources.
  • the gNB 200 transmits a CSI-RS using a predetermined time-frequency resource in a mode in which the UE 100 performs model learning.
  • the gNB 200 transmits the CSI-RS using a time-frequency resource that is smaller than the predetermined time-frequency resource.
  • the gNB 200 notifies mode switching between a mode for model learning (hereinafter also referred to as "learning mode”) and a mode for performing model inference (hereinafter also referred to as "inference mode").
  • a switching notification is transmitted to the UE 100 as control data.
  • UE 100 receives the switching notification and performs mode switching between learning mode and inference mode. This makes it possible to appropriately switch between the learning mode and the inference mode.
  • the switching notification may be setting information for setting a mode in the UE 100. Alternatively, the switching notification may be a switching command that instructs the UE 100 to switch modes.
  • the UE 100 transmits a completion notification indicating that the model learning is completed to the gNB 200 as control data.
  • gNB 200 receives the completion notification. Thereby, the gNB 200 can understand that model learning has been completed on the UE 100 side.
  • FIG. 11 is an operation flow diagram showing a first operation example related to the first operation scenario according to the embodiment. This flow may be performed after the UE 100 establishes an RRC connection with the cell of the gNB 200. Note that in the operation flow diagrams below, omissible steps are indicated by broken lines.
  • the gNB 200 may notify or set an input data pattern in the inference mode, for example, a CSI-RS transmission pattern (puncture pattern) in the inference mode, to the UE 100 as control data. For example, the gNB 200 notifies the UE 100 of the antenna port and/or time frequency resource that transmits or does not transmit the CSI-RS during the speculation mode.
  • a CSI-RS transmission pattern punctcture pattern
  • step S102 the gNB 200 may transmit a switching notification to the UE 100 to start the learning mode.
  • step S103 the UE 100 starts learning mode.
  • step S104 the gNB 200 transmits a full CSI-RS.
  • UE 100 receives the full CSI-RS and generates CSI based on the received CSI-RS.
  • the UE 100 can perform supervised learning using the received CSI-RS and the corresponding CSI.
  • the UE 100 may derive and manage learning results (learned models) for each communication environment of the UE 100, for example, for each reception quality (RSRP/RSRQ/SINR) and/or movement speed.
  • step S105 the UE 100 transmits (feedback) the generated CSI to the gNB 200.
  • step S106 when the model learning is completed, the UE 100 transmits a completion notification to the gNB 200 that the model learning has been completed.
  • the UE 100 may transmit a completion notification to the gNB 200 when the derivation (generation, update) of the learned model is completed.
  • UE 100 may notify that learning has been completed for each communication environment (for example, moving speed, reception quality).
  • the UE 100 includes information indicating in which communication environment the completion notification is sent in the notification.
  • step S107 the gNB 200 transmits a switching notification to the UE 100 for switching from learning mode to inference mode.
  • step S108 the UE 100 switches from learning mode to inference mode in response to receiving the switching notification in step S107.
  • step S109 the gNB 200 transmits a partial CSI-RS.
  • the UE 100 uses the learned model to infer CSI from the received CSI-RS.
  • the UE 100 may select a learned model corresponding to its own communication environment from the learned models managed for each communication environment, and perform CSI inference using the selected learned model.
  • step S110 the UE 100 transmits (feedback) the inferred CSI to the gNB 200.
  • step S111 if the UE 100 determines that model learning is necessary, it may transmit a notification that model learning is necessary to the gNB 200 as control data. For example, when the UE 100 moves, when its moving speed changes, when its reception quality changes, when the cell it is in changes, the UE 100 uses the bandwidth portion (BWP) that it uses for communication. ) changes, it is assumed that the accuracy of the inference result can no longer be guaranteed, and the notification is sent to the gNB 200.
  • BWP bandwidth portion
  • the gNB 200 transmits a completion condition notification indicating the completion condition of model learning to the UE 100 as control data.
  • the UE 100 receives the completion condition notification and determines completion of model learning based on the completion condition notification. Thereby, the UE 100 can appropriately determine the completion of model learning.
  • the completion condition notification may be setting information that sets the completion condition of model learning in the UE 100.
  • the completion condition notification may be included in a switching notification that notifies (instructs) switching to learning mode.
  • FIG. 12 is an operation flow diagram showing a second operation example related to the first operation scenario according to the embodiment.
  • step S201 the gNB 200 transmits a completion condition notification indicating the completion condition of model learning to the UE 100 as control data.
  • the completion condition notification may include at least one of the following completion condition information.
  • ⁇ Permissible error range for correct data For example, it is an allowable error range between CSI generated using a normal CSI feedback calculation method and CSI inferred by model inference.
  • the UE 100 infers the CSI using the learned model at that point, compares this with the correct CSI, and determines that learning is complete based on the error being within an allowable range.
  • ⁇ Number of learning data This is the number of data used for learning, and for example, the number of CSI-RSs received corresponds to the number of data for learning.
  • the UE 100 can determine that learning is complete based on the fact that the number of CSI-RSs received in learning mode has reached the notified (set) number of learning data.
  • ⁇ Number of learning trials This is the number of times model learning was performed using training data.
  • the UE 100 can determine that learning has been completed based on the fact that the number of times of learning in the learning mode has reached the notified (set) number of times.
  • ⁇ Output score threshold For example, it is a score in reinforcement learning.
  • the UE 100 can determine that learning is complete based on the fact that the score has reached the notified (set) score.
  • the UE 100 continues learning based on the full CSI-RS until it determines that learning is complete (steps S203 and S204).
  • step S205 when the UE 100 determines that the model learning has been completed, the UE 100 may transmit a completion notification to the gNB 200 that the model learning has been completed.
  • the gNB 200 transmits at least data type information that specifies the type of data used as learning data to the UE 100 as control data. That is, the gNB 200 specifies to the UE 100 what to use as the learning data/inference data (type of input data). The UE 100 receives the data type information and performs model learning using the specified type of data. Thereby, the UE 100 can perform appropriate model learning.
  • PDSCH physical downlink shared channel
  • FIG. 13 is an operation flow diagram showing a third operation example related to the first operation scenario according to the embodiment.
  • the UE 100 may transmit capability information indicating which type of input data the UE 100 can handle using machine learning to the gNB 200 as control data.
  • the UE 100 may further notify accompanying information such as the accuracy of the input data.
  • the gNB 200 transmits data type information to the UE 100.
  • the data type information may be setting information for setting the type of input data in the UE 100.
  • the type of input data may be reception quality and/or UE movement speed for CSI feedback.
  • Reception quality includes reference signal reception power (RSRP), reference signal reception quality (RSRQ), signal-to-interference-noise ratio (SINR), bit error rate (BER), block error rate (BLER), and analog/digital converter output waveform. etc.
  • the types of input data include GNSS (Global Navigation Satellite System) location information (latitude, longitude, altitude), RF fingerprint (cell ID and reception quality, etc.), and received signals.
  • the reception information may be short-range wireless reception information such as angle of arrival (AoA), reception level/reception phase/reception time difference (OTDOA) for each antenna, round trip time, wireless LAN (Local Area Network), etc.
  • the gNB 200 may independently specify the type of input data as learning data and inference data.
  • the gNB 200 may independently specify the type of input data using CSI feedback and UE positioning.
  • the second operation scenario will be mainly described with respect to its differences from the first operation scenario.
  • the downlink reference signal ie, downlink CSI estimation
  • an uplink reference signal ie, uplink CSI estimation
  • the uplink reference signal is a sounding reference signal (SRS), but it may be an uplink DMRS or the like.
  • FIG. 14 is a diagram showing a second operation scenario according to the embodiment.
  • the data collection unit A1, model learning unit A2, model inference unit A3, and data processing unit A4 are arranged in the gNB 200 (for example, the control unit 230). That is, model learning and model inference are performed on the gNB 200 side.
  • the gNB 200 (for example, the control unit 230) includes a CSI generation unit 231 that generates CSI based on the SRS received by the reception unit 220 from the UE 100.
  • This CSI is information indicating the uplink channel state between the UE 100 and the gNB 200.
  • the gNB 200 (eg, data processing unit A4) performs, for example, uplink scheduling based on the CSI generated based on the SRS.
  • the gNB 200 receives the first reference signal from the UE 100 using the first resource. Then, the gNB 200 (model learning unit A2) derives a trained model for inferring CSI from the reference signal (SRS) using the learning data including the first reference signal.
  • SRS reference signal
  • a first reference signal may be referred to as a full SRS.
  • the gNB 200 performs channel estimation using the received signal (SRS) received by the reception unit 220 from the UE 100, and generates CSI.
  • the model learning unit A2 performs model learning using a plurality of sets of the received signal (SRS) and CSI as learning data, and derives a learned model for inferring the CSI from the received signal (SRS).
  • the gNB 200 receives the second reference signal from the UE 100 using a second resource that is smaller than the first resource. Then, the UE 100 (model inference unit A3) uses the learned model to infer the CSI from the inference data including the second reference signal as inference result data.
  • a second reference signal may be referred to as a partial SRS or a punctured SRS.
  • the SRS puncture pattern the same pattern as in the first operation scenario can be used (see FIGS. 9 and 10).
  • the gNB 200 uses the received signal (SRS) received by the reception unit 220 from the UE 100 as inference data, and uses the learned model to infer the CSI from the received signal (SRS). .
  • SRS received signal
  • the gNB 200 can generate accurate (complete) CSI from a small number of SRSs (partial SRSs) received from the UE 100. For example, the UE 100 can puncture the SRS when intended to reduce overhead. Furthermore, the gNB 200 can cope with a situation where some SRSs cannot be received normally due to poor radio conditions.
  • the gNB 200 controls reference signal type information that instructs the type of reference signal to be transmitted to the UE 100 among the first reference signal (full SRS) and the second reference signal (partial SRS). It is transmitted to the UE 100 as data.
  • UE 100 receives the reference signal type information and transmits the SRS specified from gNB 200 to gNB 200. This allows the UE 100 to transmit an appropriate SRS.
  • FIG. 15 is an operation flow diagram showing an operation example related to the second operation scenario according to the embodiment.
  • step S501 the gNB 200 performs SRS transmission settings on the UE 100.
  • step S502 the gNB 200 starts learning mode.
  • step S503 the UE 100 transmits a full SRS to the gNB 200 according to the settings in step S501.
  • gNB 200 receives the full SRS and performs model learning for channel estimation.
  • step S504 the gNB 200 identifies an SRS transmission pattern (puncture pattern) to be input to the learned model as inference data, and sets the identified SRS transmission pattern in the UE 100.
  • step S505 the gNB 200 transitions to inference mode and starts model inference using the learned model.
  • step S506 the UE 100 transmits a partial SRS according to the SRS transmission settings in step S504.
  • the gNB 200 inputs the SRS as inference data into the trained model to obtain a channel estimation result, and performs uplink scheduling of the UE 100 (for example, controlling uplink transmission weights, etc.) using the channel estimation result.
  • the gNB 200 may reset the UE 100 to transmit the full SRS when the inference accuracy based on the learned model deteriorates.
  • the third operation scenario is an embodiment in which the position of the UE 100 is estimated (so-called UE positioning) using federated learning.
  • FIG. 16 is a diagram illustrating a third operation scenario according to the embodiment. In such an application example of federated learning, the following steps are performed.
  • the location server 400 transmits a model to the UE 100.
  • the UE 100 performs model learning on the UE 100 (model learning unit A2) side using data in the UE 100.
  • the data present in the UE 100 is, for example, a positioning reference signal (PRS) that the UE 100 receives from the gNB 200 and/or the output data of the GNSS receiver 140.
  • the data in the UE 100 may include location information (including latitude and longitude) generated by the location information generation unit 132 based on the PRS reception result and/or the output data of the GNSS receiver 140.
  • the UE 100 applies the learned model that is the learning result at the UE 100 (model inference unit A3), and transfers variable parameters included in the learned model (hereinafter also referred to as "learned parameters") to the location server 400.
  • the optimized a (slope) and b (intercept) correspond to the learned parameters.
  • the location server 400 collects learned parameters from multiple UEs 100 and integrates them.
  • the location server 400 may transmit the learned model obtained through the integration to the UE 100.
  • the location server 400 can estimate the position of the UE 100 based on the learned model obtained through integration and the measurement report from the UE 100.
  • the gNB 200 transmits trigger setting information that sets transmission trigger conditions for the UE 100 to transmit learned parameters to the UE 100 as control data.
  • the UE 100 receives the trigger setting information and transmits the learned parameters to the gNB 200 (location server 400) when the set transmission trigger conditions are met. This allows the UE 100 to transmit learned parameters at appropriate timing.
  • FIG. 17 is an operation flow diagram showing an operation example related to the third operation scenario according to the embodiment.
  • the gNB 200 may notify the base model that the UE 100 learns.
  • the base model may be a previously learned model.
  • the gNB 200 may transmit data type information about what to use as input data to the UE 100.
  • step S602 the gNB 200 instructs the UE 100 to learn the model and sets the reporting timing (trigger condition) of the learned parameters.
  • the set report timing may be periodic timing.
  • the reporting timing may be triggered by the fact that the learning proficiency level satisfies a condition (that is, an event trigger).
  • the gNB 200 sets a timer value in the UE 100, for example.
  • the UE 100 starts learning (step S603), it starts a timer, and when it expires, it reports the learned parameters to the gNB 200 (location server 400) (step S604).
  • the gNB 200 may specify the radio frame or time to report to the UE 100.
  • the radio frame may be calculated by modulo calculation.
  • the gNB 200 sets the above-mentioned completion conditions in the UE 100.
  • the UE 100 reports the learned parameters to the gNB 200 (location server 400) when the completion condition is satisfied (step S604).
  • the UE 100 may trigger a report of learned parameters, for example, when the accuracy of model inference becomes better than the previously transmitted model.
  • the UE 100 may introduce an offset and trigger when "current accuracy>previous accuracy+offset".
  • the UE 100 may trigger a report of learned parameters when learning data is input (learned) N times or more. Such an offset and/or a value of N may be set from the gNB 200 to the UE 100.
  • step S604 when the reporting timing condition is met, the UE 100 reports the learned parameters at that time to the network (gNB 200).
  • step S605 the network (location server 400) integrates the learned parameters reported from multiple UEs 100.
  • the communication between the UE 100 and the gNB 200 has been mainly explained, but by applying the operation of each of the above-mentioned operation scenarios to the communication between the gNB 200 and the AMF 300A (that is, the communication between the base station and the core network). Good too.
  • the above control data may be transmitted from the gNB 200 to the AMF 300A on the NG interface.
  • the above control data may be transmitted from the AMF 300A to the gNB 200 on the NG interface.
  • a federated learning execution request and/or federated learning learning results may be exchanged between the AMF 300A and the gNB 200.
  • the above control data may be transmitted from gNB 200 to another gNB 200 on the Xn interface.
  • a request for execution of federated learning and/or a learning result of federated learning may be exchanged between gNB 200 and another gNB 200.
  • Each of the operation scenario operations described above may be applied to communication between UE 100 and another UE 100 (ie, communication between user equipments).
  • the above control data may be transmitted from the UE 100 to another UE 100 on the side link.
  • a federated learning execution request and/or a federated learning learning result may be exchanged between the UE 100 and another UE 100. The same applies to the following embodiments.
  • model transfer (model setting) is performed from one communication device to another communication device.
  • FIG. 18 is a diagram for explaining notification of capability information or load status information according to the embodiment.
  • the communication device 501 that communicates with the communication device 502 performs a learning process (i.e., model learning) that derives a learned model using learning data, and A control unit 530 that executes at least one type of machine learning processing (also referred to as "AI/ML processing") among inference processing (that is, model inference) that infers inference result data from inference data using a trained model; , a transmitter 520 that transmits to the communication device 502 a message including an information element regarding processing capacity and/or storage capacity (memory capacity) that the communication device 501 can use for machine learning processing.
  • a learning process i.e., model learning
  • AI/ML processing machine learning processing
  • AI/ML processing machine learning processing
  • inference processing that is, model inference
  • a transmitter 520 that transmits to the communication device 502 a message including an information element regarding processing capacity and/or storage capacity (memory capacity) that the communication device 501 can use for machine learning processing.
  • the communication device 502 appropriately configures the model and/or changes the settings for the communication device 501 based on the message including the information element regarding the processing capacity and/or storage capacity that the communication device 501 can use for machine learning processing. can be done.
  • the information element may be an information element indicating the execution ability regarding machine learning processing in the communication device 501.
  • the communication device 501 may further include a receiving unit 510 that receives a transmission request from the communication device 502 requesting transmission of a message including the information element.
  • the transmitter 520 may transmit a message including the above information element to the communication device 502 in response to receiving the transmission request.
  • control unit 530 includes a processor 531 and/or a memory 532 for executing machine learning processing, and the information element is It may also include information indicating the capabilities and/or capabilities of memory 532.
  • the information element may include information indicating the ability to execute inference processing.
  • the information element may include information indicating the ability to execute learning processing.
  • the information element may be an information element indicating a load status regarding machine learning processing in the communication device 501.
  • the communication device 501 may further include a receiving unit 510 that receives from the communication device 502 information requesting or setting transmission of a message including the above information element.
  • the transmitter 520 may transmit a message including the information element to the communication device 502 in response to the receiver 510 receiving the information.
  • the transmitter 520 includes the information element in response to the value indicating the load status satisfying the threshold condition, or periodically.
  • the message may be sent to communication device 502.
  • control unit 530 includes a processor 531 and/or a memory 532 for executing machine learning processing, and the information element is It may also include information indicating the load status of the processor 531 and/or the load status of the memory 532.
  • the transmitting unit 520 transmits a message including the information element and a model identifier associated with the information element to the communication device. 502, and the model identifier may be an identifier that identifies a model in machine learning.
  • the communication device 501 includes a receiving unit that receives a model used for machine learning processing from another communication device 502. 510 may be further provided.
  • the communication device 502 is a base station (gNB 200) or a core network device (for example, AMF 300A), and the communication device 501 is a user device ( UE 100).
  • the communication device 502 may be a base station, and the message may be an RRC message.
  • the communication device 502 may be a core network device and the message may be a NAS message.
  • the communication device 502 may be a core network device and the communication device 501 may be a base station.
  • the communication device 502 may be the first base station, and the communication device 501 may be the second base station.
  • the communication method executed by the communication device 501 that communicates with the communication device 502 includes a learning process for deriving a learned model using learning data, and a learning process for deriving a trained model using learning data. a step of executing at least one of the machine learning processes of the inference process of inferring inference result data from the inference data using the completed model, and the processing capacity and/or storage capacity that the communication device 501 can use for the machine learning process. and transmitting a message to the communication device 502 containing an information element regarding the information.
  • FIG. 19 is a diagram for explaining model settings according to the embodiment.
  • the communication device 501 that communicates with the communication device 502 stores a model used in machine learning processing, which is at least one of learning processing and inference processing, and additional information regarding the model. , and a control unit 530 that executes machine learning processing using the model based on the additional information.
  • the model may be a trained model used in inference processing.
  • the model may be an unlearned model used in the learning process.
  • the above message is associated with multiple models including the above model, individually or in common with each of the multiple models. Additional information may also be included.
  • the additional information may include an index of the model.
  • the additional information is at least one of information indicating the use of the model and information indicating the type of input data to the model. It may include one.
  • the additional information may include information indicating the performance necessary for applying the model.
  • the additional information may include information indicating criteria for applying the model.
  • the additional information may indicate whether or not learning or relearning of the model is necessary, and whether learning or relearning of the model is possible. It may include at least one of the following information.
  • control unit 530 deploys the model in response to receiving the message, and the communication device 501 completes deployment of the model.
  • the communication device 502 may further include a transmitting unit 520 that transmits a response message indicating that the communication device 502 has received a response message.
  • the transmitter 520 may transmit an error message to the communication device 502.
  • the message is a message for setting the above model in the user device, and the receiving unit 510 is an active
  • the controller 530 may further receive an activation command from the communication device 502, deploy the model in response to receiving the message, and activate the deployed model in response to receiving the activation command.
  • the activation command may include an index indicating the model to be applied.
  • the receiving unit 510 further receives a deletion message instructing deletion of the model set by the setting message, and the control unit 530 , the model set by the setting message may be deleted in response to receiving the deletion message.
  • the receiving unit 510 Information indicating how to send multiple divided messages may be received from the communication device 502.
  • the communication device 502 may be a base station or a core network device, and the communication device 501 may be a user device.
  • the communication device 502 may be a base station, and the message may be an RRC message.
  • the communication device 502 may be a core network device and the message may be a NAS message.
  • the communication device 502 is a core network device and the communication device 501 is a base station, or the communication device 502 is a first base station.
  • the communication device 501 may be a second base station.
  • the communication method executed by the communication device 501 that communicates with the communication device 502 includes a model used in the machine learning process, which is at least one of the learning process and the inference process.
  • the method includes the steps of: receiving a configuration message including additional information regarding the model from the communication device 502; and executing machine learning processing using the model based on the additional information.
  • FIG. 20 is a diagram illustrating a first operation example regarding model transfer according to the embodiment.
  • the communication device 501 is the UE 100, but the communication device 501 may be the gNB 200 or the AMF 300A.
  • the communication device 502 is the gNB 200, but the communication device 502 may be the UE 100 or the AMF 300A.
  • the gNB 200 transmits a capability inquiry message to the UE 100 to request transmission of a message including an information element indicating the execution capability regarding machine learning processing.
  • the capability inquiry message is an example of a transmission request that requests transmission of a message including an information element indicating execution capability regarding machine learning processing.
  • UE 100 receives the capability inquiry message.
  • the gNB 200 may transmit the capability inquiry message.
  • the UE 100 transmits to the gNB 200 a message including an information element indicating the execution ability regarding machine learning processing (from another perspective, the execution environment regarding machine learning processing).
  • gNB200 receives the message.
  • the message may be an RRC message, for example, a "UE Capability" message defined in the RRC technical specifications, or a newly defined message (for example, a "UE AI Capability" message, etc.).
  • the communication device 502 may be the AMF 300A and the message may be a NAS message.
  • the message may be a message of the new layer.
  • the new layer will be appropriately referred to as an "AI/ML layer.”
  • the information element indicating the execution ability regarding machine learning processing is at least one of the following information elements (A1) to (A3).
  • the information element (A1) is an information element indicating the ability of the processor to execute the machine learning process and/or an information element indicating the capacity of the memory to execute the machine learning process.
  • the information element indicating the ability of the processor to execute machine learning processing may be an information element indicating whether the UE 100 has an AI processor.
  • the information element may include the AI processor product number (model number).
  • the information element may be an information element indicating whether or not the UE 100 can use a GPU (Graphics Processing Unit).
  • the information element may be an information element indicating whether or not the machine learning process must be executed by the CPU.
  • the network side can determine, for example, whether the UE 100 can use a neural network model as a model.
  • the information element indicating the ability of a processor to execute machine learning processing may be an information element indicating the clock frequency and/or the number of parallel executions of the processor.
  • the information element indicating the memory capacity for executing machine learning processing may be an information element indicating the memory capacity of volatile memory (for example, RAM: Random Access Memory) among the memories of the UE 100.
  • the information element may be an information element indicating the memory capacity of a nonvolatile memory (for example, ROM: Read Only Memory) among the memories of the UE 100.
  • the information element may be both of these.
  • Information elements indicating the memory capacity for executing machine learning processing may be defined for each type, such as model storage memory, AI processor memory, GPU memory, etc.
  • the information element (A1) may be defined as an information element for inference processing (model inference). Alternatively, the information element (A1) may be defined as an information element for learning processing (model learning). Alternatively, the information element (A1) may be defined as both an information element for inference processing and an information element for learning processing.
  • the information element (A2) is an information element indicating the ability to execute inference processing.
  • the information element (A2) may be an information element indicating a model supported in inference processing.
  • the information element may be an information element indicating whether or not a deep neural network model can be supported.
  • the information element includes information indicating the number of layers (stages) of the neural network that can be supported, information indicating the number of neurons that can be supported (or the number of neurons per layer), and information indicating the number of synapses that can be supported. may include at least one of the following information (which may be the number of input or output synapses per layer or per neuron).
  • the information element (A2) may be an information element indicating the execution time (response time) required to execute the inference process.
  • the information element (A2) may be an information element indicating the number of concurrent executions of inference processes (for example, how many inference processes can be executed in parallel).
  • the information element (A2) may be an information element indicating the processing capacity of inference processing. For example, if the processing load of a standard model (standard task) is determined to be 1 point, the information element indicating the processing capacity of inference processing may be information indicating how many points its own processing capacity is. good.
  • the information element (A3) is an information element indicating the ability to execute learning processing.
  • the information element (A3) may be an information element indicating a learning algorithm supported in the learning process.
  • the learning algorithms indicated by the information element include supervised learning (e.g., linear regression, decision tree, logistic regression, k-nearest neighbor method, support vector machine, etc.), unsupervised learning (e.g., clustering, k-means method, principal component analysis, etc.). ), reinforcement learning, and deep learning.
  • the information element includes information indicating the number of layers (stages) of a supportable neural network, information indicating the number of neurons that can be supported (the number of neurons per layer may be used), It may include at least one of information indicating the number of supportable synapses (which may be the number of input or output synapses per layer or per neuron).
  • the information element (A3) may be an information element indicating the execution time (response time) required to execute the learning process.
  • the information element (A3) may be an information element indicating the number of simultaneous executions of learning processes (for example, how many learning processes can be executed in parallel).
  • the information element (A3) may be an information element indicating the processing capacity of learning processing. For example, if the processing load of a standard model (standard task) is determined to be 1 point, the information element indicating the processing capacity of the learning process may be information indicating how many points its own processing capacity is. good.
  • the number of concurrent executions since learning processing generally has a higher processing load than inference processing, information such as the number of simultaneous executions with inference processing (for example, two inference processing and one learning processing) is not available. It's okay.
  • the gNB 200 determines a model to be set (deployed) in the UE 100 based on the information element included in the message received in step S702.
  • the model may be a learned model used by the UE 100 in inference processing.
  • the model may be an unlearned model used by the UE 100 in the learning process.
  • step S704 the gNB 200 transmits a message including the model determined in step S703 to the UE 100.
  • the UE 100 receives the message and performs machine learning processing (learning processing and/or inference processing) using the model included in the message.
  • machine learning processing learning processing and/or inference processing
  • FIG. 21 is a diagram illustrating an example of a configuration message including a model and additional information according to the embodiment.
  • the configuration message is an RRC message sent from the gNB 200 to the UE 100, for example, an "RRC Reconfiguration" message defined in the RRC technical specifications, or a newly defined message (for example, an "AI Deployment” message or an "AI Reconfiguration” message). ” message, etc.).
  • the configuration message may be a NAS message sent from AMF 300A to UE 100.
  • the message may be a message of the new layer.
  • the configuration message includes three models (Model #1 to #3). Each model is included as a container for configuration messages. However, the configuration message may include only one model.
  • the configuration message includes, as additional information, three individual additional information (Info #1 to #3) provided individually corresponding to each of the three models (Model #1 to #3), and #1 to #3). Each of the individual additional information (Info #1 to #3) includes information specific to the corresponding model.
  • Common additional information includes information common to all models in the configuration message.
  • FIG. 22 is a diagram illustrating a second operation example regarding model transfer according to the embodiment.
  • step S711 the gNB 200 transmits a configuration message including the model and additional information to the UE 100.
  • UE 100 receives the configuration message.
  • the configuration message includes at least one of the following information elements (B1) to (B6).
  • the "model” may be a learned model used by the UE 100 in inference processing. Alternatively, the “model” may be an unlearned model used by the UE 100 in the learning process. In the configuration message, the “model” may be encapsulated (containerized). When the “model” is a neural network model, the “model” may be expressed by the number of layers (number of stages), the number of neurons in each layer, synapses (weighting) between each neuron, and the like. For example, a trained (or untrained) neural network model may be expressed by a combination of matrices.
  • a single configuration message may include multiple "models". In that case, a plurality of "models" may be included in the configuration message in a list format. A plurality of "models" may be set for the same purpose, or may be set for different purposes. Details of the use of the model will be described later.
  • Model index is an example of additional information (for example, individual additional information).
  • Model index is an index (index number) attached to a model. In the activation command and deletion message described below, a model can be specified using a "model index.” Even when changing model settings, the model can be specified using the "model index”.
  • Model usage is an example of additional information (individual additional information or common additional information).
  • Model usage specifies the function to which the model is applied.
  • the functions to which the model is applied include, for example, CSI feedback, beam management (beam estimation, overhead/latency reduction, beam selection accuracy improvement), positioning, modulation/demodulation, encoding/decoding (CODEC), and packet compression.
  • the content of the model usage and its index (identifier) may be defined in advance in the 3GPP technical specifications, and the "model usage" may be specified by the index.
  • the model usage and its index (identifier) are defined, such as CSI feedback using usage index #A and beam management using usage index #B.
  • the UE 100 deploys a model for which "model usage" is designated in a functional block corresponding to the designated usage.
  • the "model usage” may be an information element that specifies input data and output data of the model.
  • Model Execution Requirements is an example of additional information (for example, individual additional information).
  • Model execution requirements is an information element that indicates the performance (required performance) necessary to apply (execute) the model, for example, processing delay (required latency).
  • Model selection criteria is an example of additional information (individual additional information or common additional information).
  • the UE 100 applies (executes) the corresponding model in response to the criteria specified in the "model selection criteria" being met.
  • the "model selection criterion” may be the moving speed of the UE 100. In that case, the “model selection criteria” may be specified in a speed range such as “low-speed movement” or “high-speed movement.” Alternatively, the “model selection criterion” may be specified by a threshold value of moving speed.
  • the "model selection criterion” may be radio quality (for example, RSRP/RSRQ/SINR) measured by the UE 100. In that case, the "model selection criteria” may be specified in the range of radio quality.
  • model selection criteria may be specified by a wireless quality threshold.
  • the “model selection criteria” may be the location (latitude/longitude/altitude) of the UE 100. As the “model selection criteria", it may be set to follow notifications from the network (activation commands described below) sequentially. Alternatively, the “model selection criteria” may specify autonomous selection by the UE 100.
  • Necessity of learning process is an information element indicating whether or not learning process (or relearning) is necessary or possible for the corresponding model. If learning processing is required, parameter types used for learning processing may be further set. For example, in the case of CSI feedback, the CSI-RS and UE movement speed are set to be used as parameters. If learning processing is required, a learning processing method, for example, supervised learning, unsupervised learning, reinforcement learning, or deep learning may be further set. It may also be set whether or not to execute the learning process immediately after setting the model. If not executed immediately, learning execution may be controlled by an activation command described below.
  • whether or not to notify the gNB 200 of the result of the learning process of the UE 100 may be further set. If it is necessary to notify the gNB 200 of the results of the learning process of the UE 100, the UE 100 may encapsulate the learned model or the learned parameters and transmit them to the gNB 200 using an RRC message or the like after executing the learning process.
  • the information element indicating "necessity of learning processing" may be an information element indicating whether or not the corresponding model is used only for model inference, in addition to the necessity of learning processing.
  • step S712 the UE 100 determines whether the model set in step S711 can be deployed (executed). The UE 100 may make this determination when activating the model, which will be described later, and step S713, which will be described later, may be a message notifying an error at the time of activation. Further, the determination may be made while the model is in use (while machine learning processing is being executed) instead of at the time of deployment or activation. If it is determined that the model cannot be deployed (step S712: NO), that is, if an error occurs, the UE 100 transmits an error message to the gNB 200 in step S713.
  • the error message is an RRC message sent from the UE 100 to the gNB 200, for example, a "Failure Information" message defined in the RRC technical specifications, or a newly defined message (for example, an "AI Deployment Failure Information” message). There may be.
  • the error message may be UCI (Uplink Control Information) defined in the physical layer or MAC CE (Control Element) defined in the MAC layer.
  • the error message may be a NAS message sent from the UE 100 to the AMF 300A.
  • a new layer AI/ML layer
  • AI/ML processing executing machine learning processing
  • the message may be a message of the new layer.
  • the error message includes at least one of the following information elements (C1) to (C3).
  • Model index This is the model index of the model determined to be undeployable.
  • the "error cause” may be, for example, "unsupported model,””exceeding processing capacity,”"phase of error occurrence,” or “other error.”
  • the "unsupported model” includes, for example, the UE 100 cannot support a neural network model, or the UE 100 cannot support machine learning processing (AI/ML processing) of a specified function.
  • “Exceeding processing capacity” may be due to, for example, overload (processing load or memory load exceeding capacity), inability to satisfy requested processing time, interrupt processing or priority processing of an application (upper layer), etc.
  • the "phase of error occurrence” is information indicating when the error occurred.
  • the “phase of error occurrence” may be categorized as deployment (setting), activation, or operation. Alternatively, the "phase of error occurrence” may be classified as during inference processing or during learning processing. "Other errors” are other causes.
  • the UE 100 may automatically delete the corresponding model.
  • the UE 100 may delete the model when confirming that the error message has been received by the gNB 200, for example, when receiving an ACK in the lower layer.
  • gNB 200 may recognize that the model has been deleted.
  • step S712 YES
  • the UE 100 deploys the model according to the setting in step S714.
  • “Deployment” may mean making the model applicable.
  • “deployment” may mean actually applying the model. In the former case, the model will not be applied just by deploying the model, but will be applied when the model is activated by an activation command, which will be described later. In the latter case, once the model is deployed, the model will be in use.
  • the UE 100 transmits a response message to the gNB 200 in response to the completion of model deployment.
  • gNB 200 receives the response message.
  • the UE 100 may transmit a response message when activation of the model is completed using an activation command described below.
  • the response message is an RRC message sent from the UE 100 to the gNB 200, for example, an "RRC Reconfiguration Complete" message defined in the RRC technical specifications, or a newly defined message (for example, an "AI Deployment Complete" message). There may be.
  • the response message may be a MAC CE defined in the MAC layer.
  • the response message may be a NAS message sent from the UE 100 to the AMF 300A.
  • the message may be a message of the new layer.
  • the UE 100 may transmit a measurement report message, which is an RRC message including the measurement results of the wireless environment, to the gNB 200.
  • gNB 200 receives the measurement report message.
  • the gNB 200 selects a model to be activated, based on the measurement report message, for example, and transmits an activation command (selection command) to activate the selected model to the UE 100.
  • UE 100 receives the activation command.
  • the activation command may be a DCI, MAC CE, RRC message, or an AI/ML layer message.
  • the activation command may include a model index indicating the selected model.
  • the activation command may include information specifying whether UE 100 performs inference processing or learning processing.
  • the gNB 200 selects a model to deactivate based on the measurement report message, for example, and transmits a deactivation command (selection command) to deactivate the selected model to the UE 100.
  • UE 100 receives the deactivation command.
  • the deactivation command may be a DCI, MAC CE, RRC message, or an AI/ML layer message.
  • the deactivation command may include a model index indicating the selected model.
  • the UE 100 may deactivate (stop applying) the specified model without deleting it.
  • step S718 the UE 100 applies (activates) the specified model in response to receiving the activation command.
  • the UE 100 performs inference processing and/or learning processing using activated models from among the deployed models.
  • the gNB 200 transmits a deletion message to the UE 100 to delete the model.
  • UE 100 receives the deletion message.
  • the deletion message may be a MAC CE, RRC message, NAS message, or AI/ML layer message.
  • the deletion message may include the model index of the model to be deleted.
  • UE 100 deletes the specified model.
  • the gNB 200 may divide the configuration message including the model into a plurality of divided messages, and may sequentially transmit the divided messages. In that case, the gNB 200 notifies the UE 100 of the method of transmitting the divided message.
  • FIG. 23 is a diagram illustrating an operation example regarding divided transmission of a configuration message according to the embodiment.
  • the gNB 200 transmits a message including information regarding the model transfer method to the UE 100.
  • UE 100 receives the message.
  • the message includes at least one information element among "size of transmission data”, “time until completion of delivery”, “total capacity of data”, and “transmission method, transmission conditions”.
  • “Transmission method and transmission conditions” are “continuous setting”, “periodic (periodic, aperiodic) setting", “sending time and transmission time (for example, 24:00 to 2 hours every day)”, “conditional transmission” (For example, it is sent when there is no battery concern (e.g., only when charging), or it is sent only when resources are free),” and "designation of bearer, communication path, and network slice.”
  • step S732 the UE 100 determines whether the data transmission method and transmission conditions notified from the gNB 200 in step S731 are the desired ones, and if they are not the desired ones, transmits a change request notification to the gNB 200 requesting a change.
  • the gNB 200 may execute step S731 again in response to the change request notification.
  • the gNB 200 transmits the division message to the UE 100.
  • UE 100 receives the split message.
  • the gNB 200 transmits to the UE 100 information indicating the amount of transmitted data and/or the amount of remaining data, for example, information indicating "transmitted number and total number" or "transmitted ratio (%)" You may.
  • the UE 100 may transmit a request to stop transmission of divided messages or a request to resume transmission to the gNB 200 according to its convenience.
  • the gNB 200 may send a transmission stop notification or a transmission restart notification to the UE 100 according to its convenience.
  • the gNB 200 may notify the UE 100 of the data amount of the model (configuration message), and start transmitting the model only when approval is obtained from the UE 100.
  • the UE 100 may compare the model with its own remaining memory capacity, and may return OK if the model can be deployed, and may return NG if the model cannot be deployed.
  • the other information mentioned above may be negotiated between the sending side and the receiving side.
  • the UE 100 notifies the network of the load status of machine learning processing (AI/ML processing). Thereby, the network (for example, gNB 200) can determine how many more models can be deployed (or can be activated) in UE 100 based on the notified load situation.
  • This third operation example does not have to be based on the first operation example regarding model transfer described above. Alternatively, the third operation example may be based on the first operation example.
  • FIG. 24 is a diagram illustrating a third operation example regarding model transfer according to the embodiment.
  • the gNB 200 transmits to the UE 100 a message including a request to provide information on the AI/ML processing load status or a setting for reporting the AI/ML processing load status.
  • UE 100 receives the message.
  • the message may be a MAC CE, an RRC message, a NAS message, or an AI/ML layer message.
  • the settings for reporting the AI/ML processing load status may include information for setting a report trigger (transmission trigger), for example, "Periodic" or "Event triggered.” "Periodic" sets a reporting period, and the UE 100 performs a report at this period.
  • Event triggered sets a threshold value that is compared with a value (processing load value and/or memory load value) indicating the AI/ML processing load status in the UE 100, and the UE 100 determines whether the value satisfies the conditions of the threshold value. Reports will be made accordingly.
  • the threshold value may be set for each model. For example, in the message, a model index and a threshold value may be associated with each other.
  • the UE 100 transmits a message (report message) including information indicating the AI/ML processing load status to the gNB 200.
  • the message may be an RRC message, for example, a "UE Assistance Information” message or a "Measurement Report” message.
  • the message may be a newly defined message (for example, an "AI Assistance Information” message).
  • the message may be a NAS message.
  • the message may be an AI/ML layer message.
  • the message includes "processing load status" and/or "memory load status".
  • the "processing load status” may be what percentage of the processing capacity (processor capacity) is being used or what percentage of the remaining processing capacity is available. Alternatively, the "processing load status” may express the load in points as described above, and notify how many points are being used and how many points are remaining.
  • the UE 100 may notify the "processing load status" for each model. For example, the UE 100 may include at least one set of "model index” and “processing load status” in the message.
  • the "memory load status" may be memory capacity, memory usage, or remaining memory amount. The UE 100 may notify “memory load status" for each type, such as model storage memory, AI processor memory, GPU memory, etc.
  • step S752 if the UE 100 wishes to discontinue the use of a particular model due to high processing load or poor efficiency, the UE 100 sends information (model index) indicating the model for which model settings are to be deleted or deactivated. It may be included in the message. UE 100 may include alert information in the message and transmit it to gNB 200 when its own processing load becomes dangerous.
  • step S753 the gNB 200 determines whether to change the model settings based on the message received from the UE 100 in step S752, and transmits a message for changing the model settings to the UE 100.
  • the message may be a MAC CE, an RRC message, a NAS message, or an AI/ML layer message.
  • gNB200 may transmit the above-mentioned activation command or deactivation command to UE100.
  • the communication device 501 is the UE 100, but the communication device 501 may be the gNB 200 or the AMF 300A.
  • the communication device 501 may be a gNB-DU or gNB-CU, which is a functional division unit of the gNB 200.
  • the communication device 501 may be one or more RUs (Radio Units) included in the gNB-DU.
  • the communication device 502 is the gNB 200, but the communication device 502 may be the UE 100 or the AMF 300A.
  • Communication device 502 may be a gNB-CU, gNB-DU, or RU.
  • the communication device 501 may be a remote UE, and the communication device 502 may be a relay UE.
  • operation flows are not limited to being implemented separately, but can be implemented by combining two or more operation flows. For example, some steps of one operation flow may be added to another operation flow, or some steps of one operation flow may be replaced with some steps of another operation flow. In each flow, it is not necessary to execute all steps, and only some steps may be executed.
  • the base station may be an NR base station (gNB)
  • the base station may be an LTE base station (eNB).
  • the base station may be a relay node such as an IAB (Integrated Access and Backhaul) node.
  • the base station may be a DU (Distributed Unit) of an IAB node.
  • the user device terminal device may be a relay node such as an IAB node, or may be an MT (Mobile Termination) of an IAB node.
  • a program that causes a computer to execute each process performed by a communication device may be provided.
  • the program may be recorded on a computer readable medium.
  • Computer-readable media allow programs to be installed on a computer.
  • the computer-readable medium on which the program is recorded may be a non-transitory recording medium.
  • the non-transitory recording medium is not particularly limited, but may be a recording medium such as a CD-ROM or a DVD-ROM.
  • the circuits that execute each process performed by the communication device may be integrated, and at least a portion of the communication device may be configured as a semiconductor integrated circuit (chip set, System on a chip (SoC)).
  • the terms “based on” and “depending on” refer to “based solely on” and “depending solely on,” unless expressly stated otherwise. ” does not mean. Reference to “based on” means both “based solely on” and “based at least in part on.” Similarly, the phrase “in accordance with” means both “in accordance with” and “in accordance with, at least in part.” Furthermore, “obtain/acquire” may mean obtaining information from among stored information, or may mean obtaining information from among information received from other nodes. Alternatively, it may mean obtaining the information by generating the information.
  • any reference to elements using the designations "first,” “second,” etc. used in this disclosure does not generally limit the amount or order of those elements. These designations may be used herein as a convenient way of distinguishing between two or more elements. Thus, reference to a first and second element does not imply that only two elements may be employed therein or that the first element must precede the second element in any way.
  • articles are added by translation, for example, a, an, and the in English, these articles are used in the plural unless the context clearly indicates otherwise. shall include things.
  • a communication device that communicates with another communication device in a mobile communication system using machine learning technology, a receiving unit that receives, from the other communication device, a setting message including a model used in machine learning processing, which is at least one of learning processing and inference processing, and additional information regarding the model;
  • a communication device comprising: a control unit that executes the machine learning process using the model based on the additional information.
  • the setting message includes a plurality of models including the model, and the additional information associated with each of the plurality of models individually or in common, according to any one of (1) to (3) above. communication equipment.
  • the additional information includes at least one of information indicating a use of the model and information indicating a type of input data to the model.
  • the additional information includes at least one of information indicating whether learning or relearning of the model is necessary, and information indicating whether learning or relearning of the model is possible. Communication device as described.
  • the control unit deploys the model in response to receiving the configuration message,
  • the communication device according to any one of (1) to (9) above, further including a transmitter that transmits a response message indicating that deployment of the model is completed to the other communication device.
  • the configuration message is a message for configuring the model in the user device
  • the receiving unit further receives an activation command for applying the set model from the another communication device
  • the control unit includes: deploying the model in response to receiving the message; The communication device according to any one of (1) to (11) above, wherein the deployed model is applied in response to receiving the activation command.
  • the receiving unit further receives a deletion message instructing deletion of the model set by the setting message,
  • the communication device according to any one of (1) to (13), wherein the control unit deletes the model set by the setting message in response to receiving the deletion message.
  • the receiving unit receives information indicating a method for transmitting the plurality of divided messages from the another communication device.
  • the communication device according to any one of (1) to (14) above.
  • Said another communication device is a core network device and said communication device is a base station, or said another communication device is a first base station and said communication device is a second base station (1) above.
  • the communication device according to any one of (15) to (15).
  • a communication method executed by a communication device that communicates with another communication device in a mobile communication system using machine learning technology comprising: receiving from the other communication device a configuration message including a model used in machine learning processing, which is at least one of learning processing and inference processing, and additional information regarding the model;
  • a communication method comprising: executing the machine learning process using the model based on the additional information.
  • Mobile communication system 100 UE 110: Receiving section 120: Transmitting section 130: Control section 131: CSI generating section 132: Location information generating section 140: GNSS receiver 200: gNB 210: Transmission unit 220: Receiving unit 230: Control unit 231: CSI generation unit 240: Backhaul communication unit 400: Location server 501: Communication device 502: Communication device A1: Data collection unit A2: Model learning unit A3: Model inference unit A4: Data processing unit A5: Combined learning unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

機械学習技術を用いる移動通信システムにおいて通信装置との通信を行う通信装置は、学習処理及び推論処理の少なくとも一方の機械学習処理で用いるモデルと、モデルに関する付加情報と、を含む設定メッセージを通信装置から受信する受信部と、上記付加情報に基づいて、上記モデルを用いて機械学習処理を実行する制御部と、を備える。

Description

通信装置及び通信方法
 本開示は、移動通信システムで用いる通信装置及び通信方法に関する。
 近年、移動通信システムの標準化プロジェクトである3GPP(Third Generation Partnership Project)(登録商標。以下同じ)において、人工知能(AI)技術、特に、機械学習(ML)技術を移動通信システムの無線通信(エアインターフェイス)に適用しようとする検討がされている。
 第1の態様に係る通信装置は、機械学習技術を用いる移動通信システムにおいて別の通信装置との通信を行う装置である。前記通信装置は、学習処理及び推論処理の少なくとも一方の機械学習処理で用いるモデルと、前記モデルに関する付加情報と、を含む設定メッセージを前記別の通信装置から受信する受信部と、前記付加情報に基づいて、前記モデルを用いて前記機械学習処理を実行する制御部と、を備える。
 第2の態様に係る通信方法は、機械学習技術を用いる移動通信システムにおいて別の通信装置との通信を行う通信装置が実行する方法である。前記通信方法は、学習処理及び推論処理の少なくとも一方の機械学習処理で用いるモデルと、前記モデルに関する付加情報と、を含む設定メッセージを前記別の通信装置から受信するステップと、前記付加情報に基づいて、前記モデルを用いて前記機械学習処理を実行するステップと、を有する。
実施形態に係る移動通信システムの構成を示す図である。 実施形態に係るUE(ユーザ装置)の構成を示す図である。 実施形態に係るgNB(基地局)の構成を示す図である。 データを取り扱うユーザプレーンの無線インターフェイスのプロトコルスタックの構成を示す図である。 シグナリング(制御信号)を取り扱う制御プレーンの無線インターフェイスのプロトコルスタックの構成を示す図である。 実施形態に係る移動通信システムにおけるAI・ML技術の機能ブロック構成を示す図である。 実施形態に係る各動作シナリオに係る動作の概要を示す図である。 実施形態に係る第1動作シナリオを示す図である。 実施形態に係るCSI-RSを削減する第1の例を示す図である。 実施形態に係るCSI-RSを削減する第2の例を示す図である。 実施形態に係る第1動作シナリオに係る第1動作例を示す動作フロー図である。 実施形態に係る第1動作シナリオに係る第2動作例を示す動作フロー図である。 実施形態に係る第1動作シナリオに係る第3動作例を示す動作フロー図である。 実施形態に係る第2動作シナリオを示す図である。 実施形態に係る第2動作シナリオに係る動作例を示す動作フロー図である。 実施形態に係る第3動作シナリオを示す図である。 実施形態に係る第3動作シナリオに係る動作例を示す動作フロー図である。 実施形態に係る能力情報又は負荷状況情報の通知について説明するための図である。 実施形態に係るモデルの設定について説明するための図である。 実施形態に係るモデル転送に関する第1動作例を示す図である。 実施形態に係るモデル及び付加情報を含む設定メッセージの一例を示す図である。 実施形態に係るモデル転送に関する第2動作例を示す図である。 実施形態に係る設定メッセージの分割送信に関する動作例を示す図である。 実施形態に係るモデル転送に関する第3動作例を示す図である。
 移動通信システムに機械学習技術を適用しようとする場合において、具体的にどのようにして機械学習処理を活用するかについての技術は未だ確立していない。
 そこで、本開示は、移動通信システムにおいて機械学習処理を活用することを可能とすることを目的とする。
 図面を参照しながら、実施形態に係る移動通信システムについて説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。
 (移動通信システムの構成)
 まず、実施形態に係る移動通信システムの構成について説明する。図1は、実施形態に係る移動通信システム1の構成を示す図である。移動通信システム1は、3GPP規格の第5世代システム(5GS:5th Generation System)に準拠する。以下において、5GSを例に挙げて説明するが、移動通信システムにはLTE(Long Term Evolution)システムが少なくとも部分的に適用されてもよい。或いは、移動通信システムには第6世代(6G)システムが少なくとも部分的に適用されてもよい。
 移動通信システム1は、ユーザ装置(UE:User Equipment)100と、5Gの無線アクセスネットワーク(NG-RAN:Next Generation Radio Access Network)10と、5Gのコアネットワーク(5GC:5G Core Network)20とを有する。以下において、NG-RAN10を単にRAN10と呼ぶことがある。また、5GC20を単にコアネットワーク(CN)20と呼ぶことがある。
 UE100は、移動可能な無線通信装置である。UE100は、ユーザにより利用される装置であればどのような装置であっても構わない。例えば、UE100は、携帯電話端末(スマートフォンを含む)やタブレット端末、ノートPC、通信モジュール(通信カード又はチップセットを含む)、センサ若しくはセンサに設けられる装置、車両若しくは車両に設けられる装置(Vehicle UE)、飛行体若しくは飛行体に設けられる装置(Aerial UE)である。
 NG-RAN10は、基地局(5Gシステムにおいて「gNB」と呼ばれる)200を含む。gNB200は、基地局間インターフェイスであるXnインターフェイスを介して相互に接続される。gNB200は、1又は複数のセルを管理する。gNB200は、自セルとの接続を確立したUE100との無線通信を行う。gNB200は、無線リソース管理(RRM)機能、ユーザデータ(以下、単に「データ」という)のルーティング機能、モビリティ制御・スケジューリングのための測定制御機能等を有する。「セル」は、無線通信エリアの最小単位を示す用語として用いられる。「セル」は、UE100との無線通信を行う機能又はリソースを示す用語としても用いられる。1つのセルは1つのキャリア周波数(以下、単に「周波数」と呼ぶ)に属する。
 なお、gNBがLTEのコアネットワークであるEPC(Evolved Packet Core)に接続することもできる。LTEの基地局が5GCに接続することもできる。LTEの基地局とgNBとが基地局間インターフェイスを介して接続されることもできる。
 5GC20は、AMF(Access and Mobility Management Function)及びUPF(User Plane Function)300を含む。AMFは、UE100に対する各種モビリティ制御等を行う。AMFは、NAS(Non-Access Stratum)シグナリングを用いてUE100と通信することにより、UE100のモビリティを管理する。UPFは、データの転送制御を行う。AMF及びUPFは、基地局-コアネットワーク間インターフェイスであるNGインターフェイスを介してgNB200と接続される。
 図2は、実施形態に係るUE100(ユーザ装置)の構成を示す図である。UE100は、受信部110、送信部120、及び制御部130を備える。受信部110及び送信部120は、gNB200との無線通信を行う通信部を構成する。UE100は、通信装置の一例である。
 受信部110は、制御部130の制御下で各種の受信を行う。受信部110は、アンテナ及び受信機を含む。受信機は、アンテナが受信する無線信号をベースバンド信号(受信信号)に変換して制御部130に出力する。
 送信部120は、制御部130の制御下で各種の送信を行う。送信部120は、アンテナ及び送信機を含む。送信機は、制御部130が出力するベースバンド信号(送信信号)を無線信号に変換してアンテナから送信する。
 制御部130は、UE100における各種の制御及び処理を行う。このような処理は、後述の各レイヤの処理を含む。制御部130は、少なくとも1つのプロセッサ及び少なくとも1つのメモリを含む。メモリは、プロセッサにより実行されるプログラム、及びプロセッサによる処理に用いられる情報を記憶する。プロセッサは、ベースバンドプロセッサと、CPU(Central Processing Unit)とを含んでもよい。ベースバンドプロセッサは、ベースバンド信号の変調・復調及び符号化・復号等を行う。CPUは、メモリに記憶されるプログラムを実行して各種の処理を行う。
 図3は、実施形態に係るgNB200(基地局)の構成を示す図である。gNB200は、送信部210、受信部220、制御部230、及びバックホール通信部240を備える。送信部210及び受信部220は、UE100との無線通信を行う通信部を構成する。バックホール通信部240は、CN20との通信を行うネットワーク通信部を構成する。gNB200は、通信装置の他の例である。
 送信部210は、制御部230の制御下で各種の送信を行う。送信部210は、アンテナ及び送信機を含む。送信機は、制御部230が出力するベースバンド信号(送信信号)を無線信号に変換してアンテナから送信する。
 受信部220は、制御部230の制御下で各種の受信を行う。受信部220は、アンテナ及び受信機を含む。受信機は、アンテナが受信する無線信号をベースバンド信号(受信信号)に変換して制御部230に出力する。
 制御部230は、gNB200における各種の制御及び処理を行う。このような処理は、後述の各レイヤの処理を含む。制御部230は、少なくとも1つのプロセッサ及び少なくとも1つのメモリを含む。メモリは、プロセッサにより実行されるプログラム、及びプロセッサによる処理に用いられる情報を記憶する。プロセッサは、ベースバンドプロセッサと、CPUとを含んでもよい。ベースバンドプロセッサは、ベースバンド信号の変調・復調及び符号化・復号等を行う。CPUは、メモリに記憶されるプログラムを実行して各種の処理を行う。
 バックホール通信部240は、基地局間インターフェイスであるXnインターフェイスを介して隣接基地局と接続される。バックホール通信部240は、基地局-コアネットワーク間インターフェイスであるNGインターフェイスを介してAMF/UPF300と接続される。なお、gNB200は、セントラルユニット(CU)と分散ユニット(DU)とで構成され(すなわち、機能分割され)、両ユニット間がフロントホールインターフェイスであるF1インターフェイスで接続されてもよい。
 図4は、データを取り扱うユーザプレーンの無線インターフェイスのプロトコルスタックの構成を示す図である。
 ユーザプレーンの無線インターフェイスプロトコルは、物理(PHY)レイヤと、媒体アクセス制御(MAC)レイヤと、無線リンク制御(RLC)レイヤと、パケットデータコンバージェンスプロトコル(PDCP)レイヤと、サービスデータアダプテーションプロトコル(SDAP)レイヤとを有する。
 PHYレイヤは、符号化・復号、変調・復調、アンテナマッピング・デマッピング、及びリソースマッピング・デマッピングを行う。UE100のPHYレイヤとgNB200のPHYレイヤとの間では、物理チャネルを介してデータ及び制御情報が伝送される。なお、UE100のPHYレイヤは、gNB200から物理下りリンク制御チャネル(PDCCH)上で送信される下りリンク制御情報(DCI)を受信する。具体的には、UE100は、無線ネットワーク一時識別子(RNTI)を用いてPDCCHのブラインド復号を行い、復号に成功したDCIを自UE宛てのDCIとして取得する。gNB200から送信されるDCIには、RNTIによってスクランブルされたCRCパリティビットが付加されている。
 NRでは、UE100は、システム帯域幅(すなわち、セルの帯域幅)よりも狭い帯域幅を使用できる。gNB200は、連続するPRBからなる帯域幅部分(BWP)をUE100に設定する。UE100は、アクティブなBWPにおいてデータ及び制御信号を送受信する。UE100には、例えば、最大4つのBWPが設定可能であってもよい。各BWPは、異なるサブキャリア間隔を有していてもよい。或いは、当該各BWPは、周波数が相互に重複していてもよい。UE100に対して複数のBWPが設定されている場合、gNB200は、下りリンクにおける制御によって、どのBWPを適用するかを指定できる。これにより、gNB200は、UE100のデータトラフィックの量等に応じてUE帯域幅を動的に調整し、UE電力消費を減少させる。
 gNB200は、例えば、サービングセル上の最大4つのBWPのそれぞれに最大3つの制御リソースセット(CORESET:control resource set)を設定できる。CORESETは、UE100が受信すべき制御情報のための無線リソースである。UE100には、サービングセル上で最大12個又はそれ以上のCORESETが設定されてもよい。各CORESETは、0乃至11又はそれ以上のインデックスを有してもよい。CORESETは、6つのリソースブロック(PRB)と、時間領域内の1つ、2つ、又は3つの連続するOFDMシンボルとにより構成されてもよい。
 MACレイヤは、データの優先制御、ハイブリッドARQ(HARQ:Hybrid Automatic Repeat reQuest)による再送処理、及びランダムアクセスプロシージャ等を行う。UE100のMACレイヤとgNB200のMACレイヤとの間では、トランスポートチャネルを介してデータ及び制御情報が伝送される。gNB200のMACレイヤはスケジューラを含む。スケジューラは、上下リンクのトランスポートフォーマット(トランスポートブロックサイズ、変調・符号化方式(MCS:Modulation and Coding Scheme))及びUE100への割当リソースブロックを決定する。
 RLCレイヤは、MACレイヤ及びPHYレイヤの機能を利用してデータを受信側のRLCレイヤに伝送する。UE100のRLCレイヤとgNB200のRLCレイヤとの間では、論理チャネルを介してデータ及び制御情報が伝送される。
 PDCPレイヤは、ヘッダ圧縮・伸張、及び暗号化・復号化等を行う。
 SDAPレイヤは、コアネットワークがQoS(Quality of Service)制御を行う単位であるIPフローとアクセス層(AS:Access Stratum)がQoS制御を行う単位である無線ベアラとのマッピングを行う。なお、RANがEPCに接続される場合は、SDAPが無くてもよい。
 図5は、シグナリング(制御信号)を取り扱う制御プレーンの無線インターフェイスのプロトコルスタックの構成を示す図である。
 制御プレーンの無線インターフェイスのプロトコルスタックは、図4に示したSDAPレイヤに代えて、無線リソース制御(RRC)レイヤ及び非アクセス層(NAS:Non-Access Stratum)を有する。
 UE100のRRCレイヤとgNB200のRRCレイヤとの間では、各種設定のためのRRCシグナリングが伝送される。RRCレイヤは、無線ベアラの確立、再確立及び解放に応じて、論理チャネル、トランスポートチャネル、及び物理チャネルを制御する。UE100のRRCとgNB200のRRCとの間にコネクション(RRCコネクション)がある場合、UE100はRRCコネクティッド状態にある。UE100のRRCとgNB200のRRCとの間にコネクション(RRCコネクション)がない場合、UE100はRRCアイドル状態にある。UE100のRRCとgNB200のRRCとの間のコネクションがサスペンドされている場合、UE100はRRCインアクティブ状態にある。
 RRCレイヤよりも上位に位置するNASは、セッション管理及びモビリティ管理等を行う。UE100のNASとAMF300AのNASとの間では、NASシグナリングが伝送される。なお、UE100は、無線インターフェイスのプロトコル以外にアプリケーションレイヤ等を有する。また、NASよりも下位のレイヤをAS(Access Stratum)と呼ぶ。
 (AI・ML技術の概要)
 次に、実施形態に係るAI・ML技術について説明する。図6は、実施形態に係る移動通信システム1におけるAI・ML技術の機能ブロック構成を示す図である。
 図6に示す機能ブロック構成は、データ収集部A1と、モデル学習部A2と、モデル推論部A3と、データ処理部A4とを有する。
 データ収集部A1は、入力データ、具体的には、学習用データ及び推論用データを収集し、学習用データをモデル学習部A2に出力し、推論用データをモデル推論部A3に出力する。データ収集部A1は、データ収集部A1が設けられる自装置におけるデータを入力データとして取得してもよい。或いは、データ収集部A1は、別の装置におけるデータを入力データとして取得してもよい。
 モデル学習部A2は、モデル学習を行う。具体的には、モデル学習部A2は、学習用データを用いた機械学習により学習モデルのパラメータを最適化し、学習済みモデルを導出(生成、更新)し、学習済みモデルをモデル推論部A3に出力する。例えば、 y=ax+bで考えると、a(傾き)及びb(切片)がパラメータであって、これらを最適化していくことが機械学習に相当する。一般的に、機械学習には、教師あり学習(supervised learning)、教師なし学習(unsupervised learning)、及び強化学習(reinforcement learning)がある。教師あり学習は、学習用データに正解データを用いる方法である。教師なし学習は、学習用データに正解データを用いない方法である。例えば、教師なし学習では、大量の学習用データから特徴点を覚え、正解の判断(範囲の推定)を行う。強化学習は、出力結果にスコアを付けて、スコアを最大化する方法を学習する方法である。
 モデル推論部A3は、モデル推論を行う。具体的には、モデル推論部A3は、学習済みモデルを用いて推論用データから出力を推論し、推論結果データをデータ処理部A4に出力する。例えば、 y=ax+bで考えると、xが推論用データであって、yが推論結果データに相当する。なお、「y=ax+b」はモデルである。傾き及び切片が最適化されたモデル、例えば「y=5x+3」は学習済みモデルである。ここで、モデルの手法(approach)は様々であり、線形回帰分析、ニューラルネットワーク、決定木分析などがある。上記の「y=ax+b」は線形回帰分析の一種と考えることができる。モデル推論部A3は、モデル学習部A2に対してモデル性能フィードバックを行ってもよい。
 データ処理部A4は、推論結果データを受け取り、推論結果データを利用する処理を行う。
 移動通信システムにおいて無線通信に機械学習技術を適用する場合、図6に示すような機能ブロック構成をどのように配置するのかが問題になる。各実施形態の説明では、UE100とgNB200との無線通信を主として想定する。この場合、図6の各機能ブロックを、UE100及びgNB200にどのように配置するのかが問題になる。また、各機能ブロックの配置が決まったうえで、gNB200からUE100に対して各機能ブロックをどのように制御・設定するのかが問題になる。
 図7は、実施形態に係る各動作シナリオに係る動作の概要を示す図である。図7において、UE100及びgNB200のうち、一方が第1通信装置に相当し、他方が第2通信装置に相当する。
 ステップS1において、UE100は、モデル学習に関する制御データをgNB200に送信又はgNB200から受信する。制御データは、RRCレイヤ(すなわち、レイヤ3)のシグナリングであるRRCメッセージであってもよい。或いは、当該制御データは、MACレイヤ(すなわち、レイヤ2)のシグナリングであるMAC CE(Control Element)であってもよい。或いは、当該制御データは、PHYレイヤ(すなわち、レイヤ1)のシグナリングである下りリンク制御情報(DCI)であってもよい。下りリンクシグナリングは、UE個別シグナリングであってもよい。或いは、当該下りリンクシグナリングは、ブロードキャストシグナリングであってもよい。制御データは、人工知能又は機械学習に特化した制御層(例えばAI/MLレイヤ)における制御メッセージであってもよい。
 (第1動作シナリオ)
 図8は、実施形態に係る第1動作シナリオを示す図である。第1動作シナリオでは、データ収集部A1、モデル学習部A2、及びモデル推論部A3をUE100(例えば、制御部130)に配置し、データ処理部A4をgNB200(例えば、制御部230)に配置する。すなわち、モデル学習及びモデル推論をUE100側で行う。
 第1動作シナリオでは、UE100からgNB200へのチャネル状態情報(CSI)フィードバックに機械学習技術を導入する。UE100からgNB200へ送信(フィードバック)されるCSIは、UE100とgNB200との間の下りリンクのチャネル状態を示す情報である。CSIには、チャネル品質インジケータ(CQI)、プリコーディング行列インジケータ(PMI)、及びランクインジケータ(RI)のうち少なくとも1つが含まれる。gNB200は、UE100からのCSIフィードバックに基づいて例えば下りリンクスケジューリングを行う。
 gNB200は、下りリンクのチャネル状態をUE100が推定するための参照信号を送信する。このような参照信号は、例えば、CSI参照信号(CSI-RS)であってもよい。或いは、このような参照信号は、復調参照信号(DMRS)であってもよい。第1動作シナリオの説明では、参照信号がCSI-RSであるものとする。
 第1に、モデル学習において、UE100(受信部110)は、第1リソースを用いてgNB200からの第1参照信号を受信する。そして、UE100(モデル学習部A2)は、第1参照信号を含む学習用データを用いて、参照信号からCSIを推論するための学習済みモデルを導出する。第1動作シナリオの説明では、このような第1参照信号をフルCSI-RSと称することがある。
 例えば、UE100(CSI生成部131)は、gNB200から受信部110が受信した受信信号(CSI-RS)を用いてチャネル推定を行い、CSIを生成する。UE100(送信部120)は、生成されたCSIをgNB200に送信する。モデル学習部A2は、受信信号(CSI-RS)とCSIとのセットを学習用データとして複数用いてモデル学習を行い、受信信号(CSI-RS)からCSIを推論するための学習済みモデルを導出する。
 第2に、モデル推論において、UE100(受信部110)は、第1リソースよりも少ない第2リソースを用いてgNB200からの第2参照信号を受信する。そして、UE100(モデル推論部A3)は、学習済みモデルを用いて、第2参照信号を含む推論用データから、CSIを推論結果データとして推論する。第1動作シナリオの説明では、このような第2参照信号を部分的なCSI-RS又はパンクチャされたCSI-RSと称することがある。
 例えば、UE100(モデル推論部A3)は、gNB200から受信部110が受信した受信信号(CSI-RS)を推論用データとして用いるとともに、学習済みモデルを用いて、当該受信信号(CSI-RS)からCSIを推論する。UE100(送信部120)は、推論されたCSIをgNB200に送信する。
 これにより、UE100は、gNB200から受信した少ないCSI-RS(部分的なCSI-RS)から、正確な(完全な)CSIをgNB200にフィードバックすることが可能になる。例えば、gNB200は、オーバーヘッド削減のために意図時にCSI-RSを削減(パンクチャ)可能になる。また、無線状況が悪化し、一部のCSI-RSが正常に受信できない状況にUE100が対応可能になる。
 図9は、実施形態に係るCSI-RSを削減する第1の例を示す図である。第1の例では、gNB200は、CSI-RSを送信するアンテナポートの数を削減する。例えば、gNB200は、UE100がモデル学習を行うモードにおいて、アンテナパネルの全アンテナポートからCSI-RSを送信する。一方、UE100がモデル推論を行うモードにおいて、gNB200は、CSI-RSを送信するアンテナポートの数を削減し、アンテナパネルの半分のアンテナポートからCSI-RSを送信する。なお、アンテナポートは、リソースの一例である。これにより、オーバーヘッドを削減し、アンテナポートの利用効率を改善できるとともに、消費電力の削減効果を得ることができる。
 図10は、実施形態に係るCSI-RSを削減する第2の例を示す図である。第2の例では、gNB200は、CSI-RSを送信する無線リソース、具体的には、時間周波数リソースの数を削減する。例えば、gNB200は、UE100がモデル学習を行うモードにおいて、所定の時間周波数リソースを用いてCSI-RSを送信する。一方、UE100がモデル推論を行うモードにおいて、gNB200は、所定の時間周波数リソースよりも少ない量の時間周波数リソースを用いてCSI-RSを送信する。これにより、オーバーヘッドを削減し、無線リソースの利用効率を改善できるとともに、消費電力の削減効果を得ることができる。
 次に、第1動作シナリオに係る第1動作例について説明する。本第1動作例では、gNB200は、モデル学習を行うモード(以下、「学習モード」とも称する)とモデル推論を行うモード(以下、「推論モード」とも称する)との間のモード切り替えを通知する切り替え通知を、制御データとしてUE100に送信する。UE100は、切り替え通知を受信し、学習モードと推論モードとの間のモード切り替えを行う。これにより、学習モードと推論モードとの間のモード切り替えを適切に行うことが可能になる。切り替え通知は、UE100にモードを設定する設定情報であってもよい。或いは、当該切り替え通知は、UE100にモード切り替えを指示する切り替えコマンドであってもよい。
 本第1動作例では、UE100は、モデル学習が完了した際に、モデル学習が完了したことを示す完了通知を、制御データとしてgNB200に送信する。gNB200は、完了通知を受信する。これにより、gNB200は、UE100側でモデル学習が完了したことを把握できる。
 図11は、実施形態に係る第1動作シナリオに係る第1動作例を示す動作フロー図である。本フローは、UE100がgNB200のセルとのRRC接続を確立した後に行われてもよい。なお、以下の動作フロー図において、省略可能なステップを破線で示している。
 ステップS101において、gNB200は、推論モード時の入力データパターン、例えば、推論モード時のCSI-RSの送信パターン(パンクチャパターン)を、制御データとしてUE100に通知又は設定してもよい。例えば、gNB200は、推論モード時にCSI-RSを送信する又は送信しないアンテナポート及び/又は時間周波数リソースをUE100に通知する。
 ステップS102において、gNB200は、学習モードを開始させるための切り替え通知をUE100に送信してもよい。
 ステップS103において、UE100は、学習モードを開始する。
 ステップS104において、gNB200は、フルCSI-RSを送信する。UE100は、フルCSI-RSを受信し、受信したCSI-RSに基づいてCSIを生成する。学習モードにおいて、UE100は、受信したCSI-RSとこれに対応するCSIとを用いて教師あり学習を行うことができる。UE100は、自身の通信環境ごと、例えば、受信品質(RSRP・RSRQ・SINR)及び/又は移動速度ごとに、学習結果(学習済みモデル)を導出及び管理してもよい。
 ステップS105において、UE100は、生成したCSIをgNB200に送信(フィードバック)する。
 その後、ステップS106において、UE100は、モデル学習が完了した際に、モデル学習が完了した旨の完了通知をgNB200に送信する。UE100は、学習済みモデルの導出(生成、更新)が完了した時に完了通知をgNB200に送信してもよい。ここで、UE100は、自身の通信環境(例えば、移動速度、受信品質)ごとに、学習を完了したことを通知してもよい。この場合、UE100は、当該通知に、どの通信環境での完了通知なのかを示す情報を含める。
 ステップS107において、gNB200は、学習モードから推論モードへ切り替えるための切り替え通知をUE100に送信する。
 ステップS108において、UE100は、ステップS107の切り替え通知の受信に応じて、学習モードから推論モードへ切り替える。
 ステップS109において、gNB200は、部分的なCSI-RSを送信する。UE100は、部分的なCSI-RSを受信すると、学習済みモデルを用いて、受信したCSI-RSからCSIを推論する。UE100は、通信環境ごとに管理する学習済みモデルのうち、自身の通信環境に対応する学習済みモデルを選択し、選択した学習済みモデルを用いてCSIの推論を行ってもよい。
 ステップS110において、UE100は、推論したCSIをgNB200に送信(フィードバック)する。
 ステップS111において、UE100は、モデル学習が必要と自身で判断した場合、モデル学習が必要である旨の通知を制御データとしてgNB200に送信してもよい。例えば、UE100は、自身が移動した時、自身の移動速度が変わった時、自身における受信品質が変わった時、自身が在圏するセルが変わった時、自身が通信に用いる帯域幅部分(BWP)が変わった場合、推論結果の精度が担保できなくなったとみなして、当該通知をgNB200に送信する。
 次に、第1動作シナリオに係る第2動作例について説明する。本第2動作例は、上述の動作例と併用されてもよい。本第2動作例では、gNB200は、モデル学習の完了条件を示す完了条件通知を、制御データとしてUE100に送信する。UE100は、完了条件通知を受信し、完了条件通知に基づいてモデル学習の完了を判定する。これにより、UE100がモデル学習の完了を適切に判定できる。完了条件通知は、UE100にモデル学習の完了条件を設定する設定情報であってもよい。完了条件通知は、学習モードへの切り替えを通知(指示)する切り替え通知に含まれていてもよい。
 図12は、実施形態に係る第1動作シナリオに係る第2動作例を示す動作フロー図である。
 ステップS201において、gNB200は、モデル学習の完了条件を示す完了条件通知を、制御データとしてUE100に送信する。完了条件通知は、次の完了条件情報のうち少なくとも1つを含んでもよい。
 ・正解データに対する許容誤差範囲:
 例えば、通常のCSIフィードバック算出法を用いて生成されたCSIと、モデル推論により推論されるCSIとの誤差の許容範囲である。UE100は、ある程度学習が進んだ段階で、その時点での学習済みモデルを用いてCSIを推論し、これを正しいCSIと比較し、誤差が許容範囲であることに基づいて学習完了と判定できる。
 ・学習用データ数:
 学習に用いたデータの数であり、例えば、CSI-RSの受信数が学習用データ数に相当する。UE100は、学習モードにおけるCSI-RSの受信数が、通知(設定)された学習用データ数に達したことに基づいて学習完了と判定できる。
 ・学習試行数:
 学習用データによりモデル学習を行った回数である。UE100は、学習モードにおける学習回数が、通知(設定)された回数に達したことに基づいて学習完了と判定できる。
 ・出力スコア閾値:
 例えば、強化学習におけるスコアである。UE100は、当該スコアが、通知(設定)されたスコアに達したことに基づいて学習完了と判定できる。
 UE100は、学習完了と判定するまで、フルCSI-RSに基づく学習を継続する(ステップS203、S204)。
 ステップS205において、UE100は、モデル学習が完了したと判定した際に、モデル学習が完了した旨の完了通知をgNB200に送信してもよい。
 次に、第1動作シナリオに係る第3動作例について説明する。本第3動作例は、上述の動作例と併用されてもよい。CSIフィードバックの精度を高めたいような場合、学習用データ及び推論用データとして、CSI-RSだけではなく、他の種別のデータ、例えば、物理下りリンク共有チャネル(PDSCH)の受信特性などを利用可能である。本第3動作例では、gNB200は、少なくとも学習用データとして用いるデータの種別を指定するデータ種別情報を、制御データとしてUE100に送信する。すなわち、gNB200は、学習用データ・推論用データを何にするのか(入力データの種類)をUE100に指定する。UE100は、データ種別情報を受信し、指定された種別のデータを用いてモデル学習を行う。これにより、UE100が適切なモデル学習を行うことができる。
 図13は、実施形態に係る第1動作シナリオに係る第3動作例を示す動作フロー図である。
 ステップS301において、UE100は、どの種別の入力データをUE100が機械学習で取り扱い可能かを示す能力情報を制御データとしてgNB200に送信してもよい。ここで、UE100は、入力データの精度など、付随する情報を更に通知してもよい。
 ステップS302において、gNB200は、データ種別情報をUE100に送信する。データ種別情報は、入力データの種別をUE100に設定する設定情報であってもよい。ここで、入力データの種別は、CSIフィードバックについて、受信品質及び/又はUE移動速度であってもよい。受信品質は、参照信号受信電力(RSRP)、参照信号受信品質(RSRQ)、信号対干渉雑音比(SINR)、ビット誤り率(BER)、ブロック誤り率(BLER)、アナログ/デジタル変換器出力波形などであってもよい。
 なお、後述のUEポジショニングを想定した場合、入力データの種別は、GNSS(Global Navigation Satellite System)の位置情報(緯度・経度・高度)、RFフィンガープリント(セルID及びその受信品質など)、受信信号の到来角(AoA)、アンテナ毎の受信レベル・受信位相・受信時間差(OTDOA)、往復時間(Roundtrip time)、無線LAN(Local Area Network)等の近距離無線の受信情報であってもよい。
 なお、gNB200は、入力データの種別を、学習用データ及び推論用データでそれぞれ独立して指定してもよい。gNB200は、入力データの種別を、CSIフィードバック及びUEポジショニングでそれぞれ独立して指定してもよい。
 (第2動作シナリオ)
 次に、第2動作シナリオについて、第1動作シナリオとの相違点を主として説明する。第1動作シナリオにおいて、下りリンクの参照信号(すなわち、下りリンクのCSI推定)に関して主として説明した。第2動作シナリオでは、上りリンクの参照信号(すなわち、上りリンクのCSI推定)に関して説明する。第2動作シナリオの説明では、上りリンクの参照信号がサウンディング参照信号(SRS)であるものとするが、上りリンクのDMRS等であってもよい。
 図14は、実施形態に係る第2動作シナリオを示す図である。第2動作シナリオでは、データ収集部A1、モデル学習部A2、モデル推論部A3、及びデータ処理部A4をgNB200(例えば、制御部230)に配置する。すなわち、モデル学習及びモデル推論をgNB200側で行う。
 第2動作シナリオでは、gNB200がUE100からのSRSに基づいて行うCSI推定に機械学習技術を導入する。そのため、gNB200(例えば、制御部230)は、UE100から受信部220が受信したSRSに基づいてCSIを生成するCSI生成部231を有する。このCSIは、UE100とgNB200との間の上りリンクのチャネル状態を示す情報である。gNB200(例えば、データ処理部A4)は、SRSに基づいて生成したCSIに基づいて例えば上りリンクスケジューリングを行う。
 第1に、モデル学習において、gNB200(受信部220)は、第1リソースを用いてUE100からの第1参照信号を受信する。そして、gNB200(モデル学習部A2)は、第1参照信号を含む学習用データを用いて、参照信号(SRS)からCSIを推論するための学習済みモデルを導出する。第2動作シナリオの説明では、このような第1参照信号をフルSRSと称することがある。
 例えば、gNB200(CSI生成部231)は、UE100から受信部220が受信した受信信号(SRS)を用いてチャネル推定を行い、CSIを生成する。モデル学習部A2は、受信信号(SRS)とCSIとのセットを学習用データとして複数用いてモデル学習を行い、受信信号(SRS)からCSIを推論するための学習済みモデルを導出する。
 第2に、モデル推論において、gNB200(受信部220)は、第1リソースよりも少ない第2リソースを用いてUE100からの第2参照信号を受信する。そして、UE100(モデル推論部A3)は、学習済みモデルを用いて、第2参照信号を含む推論用データから、CSIを推論結果データとして推論する。第2動作シナリオの説明では、このような第2参照信号を部分的なSRS又はパンクチャされたSRSと称することがある。SRSのパンクチャパターンについては、第1動作シナリオと同様なパターンを利用できる(図9、図10参照)。
 例えば、gNB200(モデル推論部A3)は、UE100から受信部220が受信した受信信号(SRS)を推論用データとして用いるとともに、学習済みモデルを用いて、当該受信信号(SRS)からCSIを推論する。
 これにより、gNB200は、UE100から受信した少ないSRS(部分的なSRS)から、正確な(完全な)CSIを生成することが可能になる。例えば、UE100は、オーバーヘッド削減のために意図時にSRSを削減(パンクチャ)可能になる。また、無線状況が悪化し、一部のSRSが正常に受信できない状況にgNB200が対応可能になる。
 このような動作シナリオにおいては、上述の第1動作シナリオの動作における「CSI-RS」を「SRS」に、「gNB200」を「UE100」に、「UE100」を「gNB200」にそれぞれ読み替えることが可能である。
 また、第2動作シナリオでは、gNB200は、第1参照信号(フルSRS)及び第2参照信号(部分的なSRS)のうちUE100に送信させる参照信号の種別を指示する参照信号種別情報を、制御データとしてUE100に送信する。UE100は、参照信号種別情報を受信し、gNB200から指定されたSRSをgNB200に送信する。これにより、適切なSRSをUE100に送信させることができる。
 図15は、実施形態に係る第2動作シナリオに係る動作例を示す動作フロー図である。
 ステップS501において、gNB200は、UE100にSRS送信設定を行う。
 ステップS502において、gNB200は、学習モードを開始する。
 ステップS503において、UE100は、ステップS501での設定に従ってフルSRSをgNB200に送信する。gNB200は、フルSRSを受信し、チャネル推定用のモデル学習を行う。
 ステップS504において、gNB200は、学習済みモデルに推論用データとして入力するSRSの送信パターン(パンクチャパターン)を特定し、特定したSRS送信パターンをUE100に設定する。
 ステップS505において、gNB200は、推論モードへ遷移し、学習済みモデルを用いたモデル推論を開始する。
 ステップS506において、UE100は、ステップS504でのSRS送信設定に従い、部分的なSRSを送信する。gNB200は、当該SRSを推論用データとして学習済みモデルに入力してチャネル推定結果を得ると、当該チャネル推定結果を用いてUE100の上りリンクスケジューリング(例えば、上りリンク送信ウェイト等の制御)を行う。なお、gNB200は、学習済みモデルによる推論精度が悪化した場合、フルSRSを送信するようUE100に再設定してもよい。
 (第3動作シナリオ)
 次に、第3動作シナリオについて、第1及び第2動作シナリオとの相違点を主として説明する。第3動作シナリオは、連合学習(Federated learning)を用いてUE100の位置推定(いわゆる、UEポジショニング)を行う実施形態である。図16は、実施形態に係る第3動作シナリオを示す図である。このような連合学習の適用例では、次の手順が行われる。
 第1に、ロケーションサーバ400は、UE100にモデルを送信する。
 第2に、UE100は、UE100にあるデータを用いてUE100(モデル学習部A2)側でモデル学習を行う。UE100にあるデータは、例えば、UE100がgNB200から受信するポジショニング参照信号(PRS)及び/又はGNSS受信機140の出力データである。UE100にあるデータは、PRSの受信結果及び/又はGNSS受信機140の出力データに基づいて位置情報生成部132が生成する位置情報(緯度、経度を含む)を含んでもよい。
 第3に、UE100は、学習結果である学習済みモデルをUE100(モデル推論部A3)で適用するとともに、学習済みモデルに含まれる変数パラメータ(以下、「学習済みパラメータ」とも称する)をロケーションサーバ400に送信する。上述の例では、最適化されたa(傾き)及びb(切片)が学習済みパラメータに相当する。
 第4に、ロケーションサーバ400(連合学習部A5)は、複数のUE100から学習済みパラメータを収集し、これらを統合する。ロケーションサーバ400は、統合により得られた学習済みモデルをUE100へ送信してもよい。ロケーションサーバ400は、統合により得られた学習済みモデルと、UE100からの測定報告とに基づいて、UE100の位置を推定可能である。
 第3動作シナリオでは、gNB200は、学習済みパラメータをUE100が送信する送信トリガ条件を設定するトリガ設定情報を、制御データとしてUE100に送信する。UE100は、トリガ設定情報を受信し、設定された送信トリガ条件が満たされた際に学習済みパラメータをgNB200(ロケーションサーバ400)に送信する。これにより、UE100が適切なタイミングで学習済みパラメータを送信できる。
 図17は、実施形態に係る第3動作シナリオに係る動作例を示す動作フロー図である。
 ステップS601において、gNB200は、UE100が学習するベースのモデルを通知してもよい。ここで、ベースのモデルは、過去に学習済みのモデルであってもよい。gNB200は、上述のように、入力データを何にするのかのデータ種別情報をUE100に送信してもよい。
 ステップS602において、gNB200は、UE100にモデル学習を指示し、学習済みパラメータの報告タイミング(トリガ条件)を設定する。設定される報告タイミングは、周期的なタイミングであってもよい。或いは、当該報告タイミングは、学習の習熟度が条件を満たしたことをトリガ(すなわち、イベントトリガ)とするタイミングであってもよい。
 周期的なタイミングの場合、gNB200は、例えばタイマ値をUE100に設定する。UE100は、学習を開始(ステップS603)した時にタイマを開始し、満了したら学習済みパラメータをgNB200(ロケーションサーバ400)に報告する(ステップS604)。或いは、gNB200は、報告する無線フレーム又は時刻をUE100に指定してもよい。当該無線フレームは、絶対値、例えば、SFN=512といったように指定されてもよい。当該無線フレームは、モジュロ演算により算出されてもよい。例えば、gNB200は、Nを設定値として、UE100が「SFN mod N=0」となるSFNで学習済みパラメータを報告する(ステップS604)。
 イベントトリガの場合、gNB200は、上述のような完了条件をUE100に設定する。UE100は、当該完了条件が満たされた際に学習済みパラメータをgNB200(ロケーションサーバ400)に報告する(ステップS604)。UE100は、例えば、モデル推論の精度が、前回送信済モデルよりも良くなった時に、学習済みパラメータの報告をトリガしてもよい。ここで、UE100は、オフセットを導入し、「今回精度>前回精度+オフセット」時にトリガしてもよい。UE100は、例えば、学習用データをN回以上入力した(学習した)時に、学習済みパラメータの報告をトリガしてもよい。このようなオフセット及び/又はNの値は、gNB200からUE100に設定されてもよい。
 ステップS604において、UE100は、報告タイミングの条件が満たされた時、その時点での学習済みパラメータをネットワーク(gNB200)に報告する。
 ステップS605において、ネットワーク(ロケーションサーバ400)は、複数のUE100から報告された学習済みパラメータを統合する。
 (その他の動作シナリオ)
 上述の各動作シナリオにおいて、UE100とgNB200との間の通信について主として説明したが、上述の各動作シナリオ動作をgNB200とAMF300Aとの通信(すなわち、基地局・コアネットワーク間の通信)に応用してもよい。gNB200からAMF300Aに対して、上述の制御データをNGインターフェイス上で送信してもよい。或いは、AMF300AからgNB200に対して、上述の制御データをNGインターフェイス上で送信してもよい。AMF300AとgNB200との間で、連合学習(Federated learning)の実行要求及び/又は連合学習の学習結果をやり取りしてもよい。上述の各動作シナリオ動作をgNB200と別のgNB200との通信(すなわち、基地局間の通信)に応用してもよい。gNB200から別のgNB200に対して、上述の制御データをXnインターフェイス上で送信してもよい。gNB200と別のgNB200との間で、連合学習の実行要求及び/又は連合学習の学習結果をやり取りしてもよい。上述の各動作シナリオ動作をUE100と別のUE100との通信(すなわち、ユーザ装置間の通信)に応用してもよい。UE100から別のUE100に対して、上述の制御データをサイドリンク上で送信してもよい。UE100と別のUE100との間で、連合学習の実行要求及び/又は連合学習の学習結果をやり取りしてもよい。以下の実施形態においても同様である。
 (モデル転送に関する動作の概要)
 次に、実施形態に係るモデル転送に関する動作について説明する。以下の実施形態の説明において、ある通信装置から別の通信装置に対してモデル転送(モデル設定)を行うことを想定する。
 (1)能力情報又は負荷状況情報の通知
 図18は、実施形態に係る能力情報又は負荷状況情報の通知について説明するための図である。
 (1.1)機械学習技術を用いる移動通信システム1において通信装置502との通信を行う通信装置501は、学習用データを用いて学習済みモデルを導出する学習処理(すなわち、モデル学習)、及び学習済みモデルを用いて推論用データから推論結果データを推論する推論処理(すなわち、モデル推論)のうち、少なくとも一方の機械学習処理(「AI/ML処理」とも称する)を実行する制御部530と、通信装置501が機械学習処理に利用可能な処理容量及び/又は記憶容量(メモリ容量)に関する情報要素を含むメッセージを通信装置502に送信する送信部520と、を備える。
 これにより、通信装置502は、通信装置501が機械学習処理に利用可能な処理容量及び/又は記憶容量に関する情報要素を含むメッセージに基づいて、通信装置501に対するモデルの設定及び/又は設定変更を適切に行うことができる。
 (1.2)上記(1.1)において、上記情報要素は、通信装置501における機械学習処理に関する実行能力を示す情報要素であってもよい。
 (1.3)上記(1.2)において、通信装置501は、上記情報要素を含むメッセージの送信を要求する送信要求を通信装置502から受信する受信部510をさらに備えてもよい。送信部520は、送信要求の受信に応じて、上記情報要素を含むメッセージを通信装置502に送信してもよい。
 (1.4)上記(1.2)又は(1.3)において、制御部530は、機械学習処理を実行するためのプロセッサ531及び/又はメモリ532を含み、上記情報要素は、プロセッサ531の能力及び/又はメモリ532の能力を示す情報を含んでもよい。
 (1.5)上記(1.2)乃至(1.4)のいずれかにおいて、上記情報要素は、推論処理の実行能力を示す情報を含んでもよい。
 (1.6)上記(1.2)乃至(1.5)のいずれかにおいて、上記情報要素は、学習処理の実行能力を示す情報を含んでもよい。
 (1.7)上記(1.1)において、上記情報要素は、通信装置501における機械学習処理に関する負荷状況を示す情報要素であってもよい。
 (1.8)上記(1.7)において、通信装置501は、上記情報要素を含むメッセージの送信を要求又は設定する情報を通信装置502から受信する受信部510をさらに備えてもよい。送信部520は、受信部510が情報を受信したことに応じて、上記情報要素を含むメッセージを通信装置502に送信してもよい。
 (1.9)上記(1.7)又は(1.8)において、送信部520は、負荷状況を示す値が閾値条件を満たしたことに応じて、又は周期的に、上記情報要素を含むメッセージを通信装置502に送信してもよい。
 (1.10)上記(1.7)乃至(1.9)のいずれかにおいて、制御部530は、機械学習処理を実行するためのプロセッサ531及び/又はメモリ532を含み、上記情報要素は、プロセッサ531の負荷状況及び/又はメモリ532の負荷状況を示す情報を含んでもよい。
 (1.11)上記(1.1)乃至(1.10)のいずれかにおいて、送信部520は、上記情報要素と、上記情報要素と対応付けられたモデル識別子と、を含むメッセージを通信装置502に送信し、モデル識別子は、機械学習におけるモデルを識別する識別子であってもよい。
 (1.12)上記(1.1)乃至(1.11)のいずれかにおいて、通信装置501は、メッセージの送信後において、機械学習処理に用いるモデルを別の通信装置502から受信する受信部510をさらに備えてもよい。
 (1.13)上記(1.1)乃至(1.12)のいずれかにおいて、通信装置502が基地局(gNB200)又はコアネットワーク装置(例えばAMF300A)であって、通信装置501がユーザ装置(UE100)であってもよい。
 (1.14)上記(1.13)において、通信装置502が基地局であって、メッセージがRRCメッセージであってもよい。
 (1.15)上記(1.13)において、通信装置502がコアネットワーク装置であって、メッセージがNASメッセージであってもよい。
 (1.16)上記(1.1)乃至(1.12)のいずれかにおいて、通信装置502がコアネットワーク装置であって、通信装置501が基地局であってもよい。
 (1.17)上記(1.1)乃至(1.12)のいずれかにおいて、通信装置502が第1基地局であって、通信装置501が第2基地局であってもよい。
 (1.18)機械学習技術を用いる移動通信システム1において通信装置502との通信を行う通信装置501が実行する通信方法は、学習用データを用いて学習済みモデルを導出する学習処理、及び学習済みモデルを用いて推論用データから推論結果データを推論する推論処理のうち、少なくとも一方の機械学習処理を実行するステップと、通信装置501が機械学習処理に利用可能な処理容量及び/又は記憶容量に関する情報要素を含むメッセージを通信装置502に送信するステップと、を有する。
 (2)モデルの設定
 図19は、実施形態に係るモデルの設定について説明するための図である。
 (2.1)機械学習技術を用いる移動通信システム1において通信装置502との通信を行う通信装置501は、学習処理及び推論処理の少なくとも一方の機械学習処理で用いるモデルと、モデルに関する付加情報と、を含む設定メッセージを通信装置502から受信する受信部510と、上記付加情報に基づいて、上記モデルを用いて機械学習処理を実行する制御部530と、を備える。
 これにより、通信装置502から通信装置501に対してモデルを適切に設定することが可能になる。
 (2.2)上記(2.1)において、上記モデルは、推論処理で用いる学習済みモデルであってもよい。
 (2.3)上記(2.1)において、上記モデルは、学習処理で用いる未学習のモデルであってもよい。
 (2.4)上記(2.1)乃至(2.3)のいずれかにおいて、上記メッセージは、上記モデルを含む複数のモデルと、複数のモデルのそれぞれに個別に又は共通に対応付けられた付加情報と、を含んでもよい。
 (2.5)上記(2.1)乃至(2.4)のいずれかにおいて、上記付加情報は、上記モデルのインデックスを含んでもよい。
 (2.6)上記(2.1)乃至(2.5)のいずれかにおいて、上記付加情報は、上記モデルの用途を示す情報、及び上記モデルへの入力データの種別を示す情報のうち少なくとも1つを含んでもよい。
 (2.7)上記(2.1)乃至(2.6)のいずれかにおいて、上記付加情報は、上記モデルを適用するために必要な性能を示す情報を含んでもよい。
 (2.8)上記(2.1)乃至(2.7)のいずれかにおいて、上記付加情報は、上記モデルを適用する基準を示す情報を含んでもよい。
 (2.9)上記(2.1)乃至(2.8)のいずれかにおいて、上記付加情報は、上記モデルの学習又は再学習の要否、及び、上記モデルの学習又は再学習の可否を示す情報、のうち少なくとも1つを含んでもよい。
 (2.10)上記(2.1)乃至(2.9)のいずれかにおいて、制御部530は、メッセージの受信に応じて上記モデルを配備し、通信装置501は、上記モデルの配備が完了したことを示す応答メッセージを通信装置502に送信する送信部520をさらに備えてもよい。
 (2.11)上記(2.10)において、上記モデルの配備に失敗した場合、送信部520は、エラーメッセージを通信装置502に送信してもよい。
 (2.12)上記(2.1)乃至(2.11)のいずれかにおいて、メッセージは、上記モデルをユーザ装置に設定するメッセージであり、受信部510は、設定されたモデルを適用するアクティブ化コマンドを通信装置502からさらに受信し、制御部530は、メッセージの受信に応じて、上記モデルを配備し、アクティブ化コマンドの受信に応じて、配備されたモデルをアクティブ化してもよい。
 (2.13)上記(2.12)において、上記アクティブ化コマンドは、適用するモデルを示すインデックスを含んでもよい。
 (2.14)上記(2.1)乃至(2.13)のいずれかにおいて、受信部510は、設定メッセージにより設定されたモデルの削除を指示する削除メッセージをさらに受信し、制御部530は、削除メッセージの受信に応じて、設定メッセージにより設定されたモデルを削除してもよい。
 (2.15)上記(2.1)乃至(2.14)のいずれかにおいて、設定メッセージを分割して得られた複数の分割メッセージが通信装置502から送信される場合、受信部510は、複数の分割メッセージの送信方法を示す情報を通信装置502から受信してもよい。
 (2.16)上記(2.1)乃至(2.15)のいずれかにおいて、通信装置502が基地局又はコアネットワーク装置であって、通信装置501がユーザ装置であってもよい。
 (2.17)上記(2.16)において、通信装置502が基地局であって、メッセージがRRCメッセージであってもよい。
 (2.18)上記(2.16)において、通信装置502がコアネットワーク装置であって、メッセージがNASメッセージであってもよい。
 (2.19)上記(2.1)乃至(2.15)のいずれかにおいて、通信装置502がコアネットワーク装置であって通信装置501が基地局である、又は、通信装置502が第1基地局であって通信装置501が第2基地局であってもよい。
 (2.20)機械学習技術を用いる移動通信システム1において通信装置502との通信を行う通信装置501が実行する通信方法は、学習処理及び推論処理の少なくとも一方の機械学習処理で用いるモデルと、モデルに関する付加情報と、を含む設定メッセージを通信装置502から受信するステップと、上記付加情報に基づいて、上記モデルを用いて機械学習処理を実行するステップと、を有する。
 (モデル転送に関する第1動作例)
 図20は、実施形態に係るモデル転送に関する第1動作例を示す図である。以下の第1動作例乃至第3動作例で参照する図面において、必須ではない処理を破線で示している。また、以下の第1動作例乃至第3動作例において、通信装置501がUE100であるものとするが、通信装置501がgNB200又はAMF300Aであってもよい。以下の第1動作例乃至第3動作例において、通信装置502がgNB200であるものとするが、通信装置502がUE100又はAMF300Aであってもよい。
 図20に示すように、ステップS701において、gNB200は、機械学習処理に関する実行能力を示す情報要素を含むメッセージの送信を要求するための能力問合せメッセージをUE100に送信する。能力問合せメッセージは、機械学習処理に関する実行能力を示す情報要素を含むメッセージの送信を要求する送信要求の一例である。UE100は、能力問合せメッセージを受信する。但し、gNB200は、機械学習処理の実行を行う場合(実行を行うと判断した場合)に、当該能力問い合わせメッセージを送信してもよい。
 ステップS702において、UE100は、機械学習処理に関する実行能力(別の観点では、機械学習処理に関する実行環境)を示す情報要素を含むメッセージをgNB200に送信する。gNB200は、当該メッセージを受信する。当該メッセージは、RRCメッセージ、例えば、RRCの技術仕様で規定されている「UE Capability」メッセージ、又は新たに規定されるメッセージ(例えば、「UE AI Capability」メッセージ等)であってもよい。或いは、通信装置502がAMF300Aであって、当該メッセージがNASメッセージであってもよい。或いは、機械学習処理(AI/ML処理)を実行又は制御するための新たなレイヤが規定される場合、当該メッセージは、当該新たなレイヤのメッセージであってもよい。当該新たなレイヤを適宜「AI/MLレイヤ」と称する。
 機械学習処理に関する実行能力を示す情報要素は、次の情報要素(A1)乃至(A3)のうち少なくとも1つである。
 ・情報要素(A1)
 情報要素(A1)は、機械学習処理を実行するためのプロセッサの能力を示す情報要素及び/又は機械学習処理を実行するためのメモリの能力を示す情報要素である。
 機械学習処理を実行するためのプロセッサの能力を示す情報要素は、UE100がAIプロセッサを有しているか否かを示す情報要素であってもよい。当該プロセッサをUE100が有している場合、当該情報要素は、AIプロセッサ品番(型番)を含んでもよい。当該情報要素は、UE100がGPU(Graphics Processing Unit)を利用可能か否か、を示す情報要素であってもよい。或いは、当該情報要素は、機械学習処理をCPUで実行しなければならないか否かを示す情報要素であってもよい。機械学習処理を実行するためのプロセッサの能力を示す情報要素をUE100からgNB200に送信することにより、ネットワーク側で、例えばUE100がモデルとしてニューラルネットワークモデルを利用可能であるか否かを判定できる。機械学習処理を実行するためのプロセッサの能力を示す情報要素は、当該プロセッサのクロック周波数及び/又は並列実行可能数を示す情報要素であってもよい。
 機械学習処理を実行するためのメモリの能力を示す情報要素は、UE100のメモリのうち揮発性メモリ(例えば、RAM:Random Access Memory)のメモリ容量を示す情報要素であってもよい。或いは、当該情報要素は、UE100のメモリのうち不揮発性メモリ(例えば、ROM:Read Only Memory)のメモリ容量を示す情報要素であってもよい。或いは、当該情報要素は、これらの両方であってもよい。機械学習処理を実行するためのメモリの能力を示す情報要素は、モデル保存用メモリ、AIプロセッサ用メモリ、GPU用メモリなど、種別毎に規定されてもよい。
 情報要素(A1)は、推論処理(モデル推論)向けの情報要素として規定されてもよい。或いは、情報要素(A1)は、学習処理(モデル学習)向けの情報要素として規定されてもよい。或いは、情報要素(A1)は、推論処理向けの情報要素と学習処理向けの情報要素との両方が規定されてもよい。
 ・情報要素(A2)
 情報要素(A2)は、推論処理の実行能力を示す情報要素である。情報要素(A2)は、推論処理でサポートするモデルを示す情報要素であってもよい。当該情報要素は、ディープニューラルネットワークモデルのサポート可否を示す情報要素であってもよい。その場合、当該情報要素は、サポート可能なニューラルネットワークの層数(段数)を示す情報、サポート可能なニューロン数(層当たりのニューロン数であってもよい)を示す情報、サポート可能なシナプス数を示す情報(層当たり又はニューロン当たりの入力又は出力シナプス数であってもよい)のうち、少なくとも1つを含んでもよい。
 情報要素(A2)は、推論処理の実行に要する実行時間(応答時間)を示す情報要素であってもよい。或いは、情報要素(A2)は、推論処理の同時実行数(例えば、いくつの推論処理を並列実行できるか)を示す情報要素であってもよい。或いは、情報要素(A2)は、推論処理の処理容量を示す情報要素であってもよい。例えば、ある標準のモデル(標準のタスク)の処理負荷が1ポイントと決まっている場合、推論処理の処理容量を示す情報要素は、自身の処理容量が何ポイントなのかを示す情報であってもよい。
 ・情報要素(A3)
 情報要素(A3)は、学習処理の実行能力を示す情報要素である。情報要素(A3)は、学習処理でサポートする学習アルゴリズムを示す情報要素であってもよい。当該情報要素が示す学習アルゴリズムとしては、教師あり学習(例えば、線形回帰、決定木、ロジスティック回帰、k近傍法、サポートベクターマシンなど)、教師なし学習(例えば、クラスタリング、k平均法、主成分分析など)、強化学習、深層学習がある。UE100が深層学習をサポートする場合、当該情報要素は、サポート可能なニューラルネットワークの層数(段数)を示す情報、サポート可能なニューロン数(層当たりのニューロン数であってもよい)を示す情報、サポート可能なシナプス数を示す情報(層当たり又はニューロン当たりの入力又は出力シナプス数であってもよい)のうち、少なくとも1つを含んでもよい。
 情報要素(A3)は、学習処理の実行に要する実行時間(応答時間)を示す情報要素であってもよい。或いは、情報要素(A3)は、学習処理の同時実行数(例えば、いくつの学習処理を並列実行できるか)を示す情報要素であってもよい。或いは、情報要素(A3)は、学習処理の処理容量を示す情報要素であってもよい。例えば、ある標準のモデル(標準のタスク)の処理負荷が1ポイントと決まっている場合、学習処理の処理容量を示す情報要素は、自身の処理容量が何ポイントなのかを示す情報であってもよい。なお、同時実行数については、一般的に学習処理の方が推論処理よりも処理負荷が高いため、推論処理との同時実行数(例えば推論処理2つと学習処理1つ)というような情報であってもよい。
 ステップS703において、gNB200は、ステップS702で受信したメッセージに含まれる情報要素に基づいて、UE100に設定(配備)するモデルを決定する。当該モデルは、UE100が推論処理で用いる学習済みモデルであってもよい。或いは、当該モデルは、UE100が学習処理で用いる未学習のモデルであってもよい。
 ステップS704において、gNB200は、ステップS703で決定したモデルを含むメッセージをUE100に送信する。UE100は、当該メッセージを受信し、当該メッセージに含まれるモデルを用いて機械学習処理(学習処理及び/又は推論処理)を行う。ステップS704の具体例については、次の第2動作例で説明する。
 (モデル転送に関する第2動作例)
 図21は、実施形態に係るモデル及び付加情報を含む設定メッセージの一例を示す図である。設定メッセージは、gNB200からUE100に送信されるRRCメッセージ、例えば、RRCの技術仕様で規定されている「RRC Reconfiguration」メッセージ、又は新たに規定されるメッセージ(例えば、「AI Deployment」メッセージ又は「AI Reconfiguration」メッセージ等)であってもよい。或いは、設定メッセージは、AMF300AからUE100に送信されるNASメッセージであってもよい。或いは、機械学習処理(AI/ML処理)を実行又は制御するための新たなレイヤが規定される場合、当該メッセージは、当該新たなレイヤのメッセージであってもよい。
 図21の例では、設定メッセージは、3つのモデル(Model#1乃至#3)を含む。各モデルは、設定メッセージのコンテナとして含まれている。但し、設定メッセージは、1つのモデルのみを含んでいてもよい。設定メッセージは、付加情報として、3つのモデル(Model#1乃至#3)のそれぞれに対応して個別に設けられた3つの個別付加情報(Info#1乃至#3)と、3つのモデル(Model#1乃至#3)に共通に対応付けられた共通付加情報(Meta-Info)と、をさらに含む。個別付加情報(Info#1乃至#3)のそれぞれは、対応するモデルに固有の情報を含む。共通付加情報(Meta-Info)は、設定メッセージ内のすべてのモデルに共通の情報を含む。
 図22は、実施形態に係るモデル転送に関する第2動作例を示す図である。
 ステップS711において、gNB200は、モデル及び付加情報を含む設定メッセージをUE100に送信する。UE100は、設定メッセージを受信する。設定メッセージは、次の情報要素(B1)乃至(B6)のうち少なくとも1つを含む。
 ・(B1)モデル
 「モデル」は、UE100が推論処理で用いる学習済みモデルであってもよい。或いは、「モデル」は、UE100が学習処理で用いる未学習のモデルであってもよい。設定メッセージにおいて、「モデル」がカプセル化(コンテナ化)されていてもよい。「モデル」がニューラルネットワークモデルである場合、「モデル」は、層数(段数)、層毎のニューロン数、及び各ニューロン間のシナプス(重み付け)などで表現されてもよい。例えば、行列の組み合わせで学習済(又は未学習)のニューラルネットワークモデルが表現されてもよい。
 1つの設定メッセージに複数の「モデル」が含まれていてもよい。その場合、複数の「モデル」は、リスト形式で設定メッセージに含まれていてもよい。複数の「モデル」は、同一の用途で設定されてもよく、それぞれ異なる用途で設定されてもよい。モデルの用途の詳細については後述する。
 ・(B2)モデルインデックス
 「モデルインデックス」は、付加情報(例えば、個別付加情報)の一例である。「モデルインデックス」は、モデルに付されるインデックス(インデックス番号)である。後述のアクティブ化コマンド及び削除メッセージでは、「モデルインデックス」でモデルを指定できる。モデルの設定変更が行われる場合にも、「モデルインデックス」でモデルを指定できる。
 ・(B3)モデル用途
 「モデル用途」は、付加情報(個別付加情報又は共通付加情報)の一例である。「モデル用途」は、モデルを適用する機能を指定する。例えば、モデルを適用する機能には、例えば、CSIフィードバック、ビーム管理(ビーム推定、オーバーヘッド・レイテンシ削減、ビーム選択精度改善)、ポジショニング、変調・復調、符号化・復号(CODEC)、パケット圧縮がある。モデル用途の内容及びそのインデックス(識別子)が3GPPの技術仕様書で予め規定され、「モデル用途」はインデックスで指定されてもよい。例えば、CSIフィードバックは用途インデックス#A、ビーム管理は用途インデックス#Bというように、モデル用途及びそのインデックス(識別子)が規定される。UE100は、「モデル用途」が指定されたモデルを、指定された用途に対応する機能ブロックに配備する。なお、「モデル用途」は、モデルの入力データ及び出力データを指定する情報要素であってもよい。
 ・(B4)モデル実行要件
 「モデル実行要件」は、付加情報(例えば、個別付加情報)の一例である。「モデル実行要件」は、当該モデルを適用(実行)するために必要な性能(要求性能)、例えば処理遅延(要求レイテンシ)を示す情報要素である。
 ・(B5)モデル選択基準
 「モデル選択基準」は、付加情報(個別付加情報又は共通付加情報)の一例である。UE100は、「モデル選択基準」で指定された基準が満たされたことに応じて、対応するモデルを適用(実行)する。「モデル選択基準」は、UE100の移動速度であってもよい。その場合、「モデル選択基準」は、「低速移動」又は「高速移動」といった速度範囲で指定されてもよい。或いは、「モデル選択基準」は、移動速度の閾値で指定されてもよい。「モデル選択基準」は、UE100で測定される無線品質(例えば、RSRP/RSRQ/SINR)であってもよい。その場合、「モデル選択基準」は、無線品質の範囲で指定されてもよい。或いは、「モデル選択基準」は、無線品質の閾値で指定されてもよい。「モデル選択基準」は、UE100の位置(緯度/経度/高度)であってもよい。「モデル選択基準」として、逐次ネットワークからの通知(後述のアクティブ化コマンド)に従うことを設定してもよい。或いは、「モデル選択基準」は、UE100の自律的な選択を指定してもよい。
 ・(B6)学習処理の要否
 「学習処理の要否」は、対応するモデルに対する学習処理(又は再学習)の要否又は可否を示す情報要素である。学習処理が必要な場合、学習処理に用いるパラメータ種別がさらに設定されてもよい。例えば、CSIフィードバックの場合、CSI-RS及びUE移動速度をパラメータとして用いるというように設定される。学習処理が必要な場合、学習処理の方法、例えば、教師あり学習、教師なし学習、強化学習、又は深層学習がさらに設定されてもよい。学習処理を、モデルの設定後にすぐに実行するか否かがさらに設定されてもよい。すぐに実行しない場合、後述のアクティブ化コマンドにより学習実行が制御されてもよい。例えばFederated learningの場合、UE100の学習処理の結果をgNB200に通知するか否かがさらに設定されてもよい。UE100の学習処理の結果をgNB200に通知する必要がある場合、UE100は、学習処理実行後、学習済みモデル又は学習済みパラメータをカプセル化してRRCメッセージ等によりgNB200に送信してもよい。「学習処理の要否」を示す情報要素は、学習処理の要否に加え、対応するモデルをモデル推論のみに用いるか否かを示す情報要素であってもよい。
 ステップS712において、UE100は、ステップS711で設定されたモデルを配備可能(実行可能)か否かを判定する。UE100は、後述するモデルのアクティブ化時に当該判定を行ってもよく、後述するステップS713はアクティブ化時点におけるエラーを通知するメッセージであってもよい。また、配備時、アクティブ化時ではなく、モデル使用中(機械学習処理の実行中)に当該判定を行ってもよい。当該モデルを配備不能と判定された場合(ステップS712:NO)、すなわち、エラーが発生した場合、ステップS713において、UE100は、エラーメッセージをgNB200に送信する。エラーメッセージは、UE100からgNB200に送信されるRRCメッセージ、例えば、RRCの技術仕様で規定されている「Failure Information」メッセージ、又は新たに規定されるメッセージ(例えば、「AI Deployment Failure Information」メッセージ)であってもよい。エラーメッセージは、物理レイヤで規定されるUCI(Uplink Control Information)又はMACレイヤで規定されるMAC CE(Control Element)であってもよい。或いは、エラーメッセージは、UE100からAMF300Aに送信されるNASメッセージであってもよい。或いは、機械学習処理(AI/ML処理)を実行するための新たなレイヤ(AI/MLレイヤ)が規定される場合、当該メッセージは、当該新たなレイヤのメッセージであってもよい。
 エラーメッセージは、次の情報要素(C1)乃至(C3)の少なくとも1つを含む。
 ・(C1)モデルインデックス
 配備不能と判定されたモデルのモデルインデックスである。
 ・(C2)用途インデックス
 配備不能と判定されたモデルの用途インデックスである。
 ・(C3)エラー原因
 エラーの原因(cause)に関する情報要素である。「エラー原因」は、例えば、「未対応のモデル」、「処理容量超え」、「エラー発生のフェーズ」、又は「その他エラー」であってもよい。「未対応のモデル」は、例えば、ニューラルネットワークモデルにUE100が対応できない、又は指定された機能の機械学習処理(AI/ML処理)に対応できない等がある。「処理容量超え」は、例えば、過負荷(処理負荷やメモリ負荷が容量を超えたこと)、要求処理時間を満足できないこと、アプリケーション(上位レイヤ)の割込み処理又は優先処理のため等がある。「エラー発生のフェーズ」は、いつエラーが発生したのかを示す情報である。「エラー発生のフェーズ」は、配備(設定)時、アクティブ化時、運用時といった区分であってもよい。或いは、「エラー発生のフェーズ」は、推論処理時、学習処理時といった区分であってもよい。「その他エラー」は、その他の原因である。
 UE100は、エラーが発生した場合、対応するモデルを自動的に削除してもよい。UE100は、エラーメッセージがgNB200で受信されたことを確認したとき、例えば、下位レイヤでACKを受信したときに、当該モデルを削除してもよい。gNB200は、エラーメッセージをUE100から受信した場合、当該モデルが削除されたと認識してもよい。
 一方、ステップS711で設定されたモデルを配備可能と判定された場合(ステップS712:YES)、すなわち、エラーが発生しない場合、ステップS714において、UE100は、設定に従って当該モデルを配備する。「配備」とは、モデルを適用可能な状態にすることを意味してもよい。或いは、「配備」とは、モデルを実際に適用することを意味してもよい。前者の場合、モデルを配備しただけでは当該モデルが適用されずに、後述のアクティブ化コマンドにより当該モデルがアクティブ化された際に当該モデルが適用される。後者の場合、モデルを配備したら当該モデルを使用中の状態になる。
 ステップS715において、UE100は、モデル配備が完了したことに応じて、応答メッセージをgNB200に送信する。gNB200は、応答メッセージを受信する。UE100は、後述のアクティブ化コマンドによりモデルのアクティブ化が完了した際に応答メッセージを送信してもよい。応答メッセージは、UE100からgNB200に送信されるRRCメッセージ、例えば、RRCの技術仕様で規定されている「RRC Reconfiguration Complete」メッセージ、又は新たに規定されるメッセージ(例えば、「AI Deployment Complete」メッセージ)であってもよい。応答メッセージは、MACレイヤで規定されるMAC CEであってもよい。或いは、応答メッセージは、UE100からAMF300Aに送信されるNASメッセージであってもよい。或いは、機械学習処理(AI/ML処理)を実行するための新たなレイヤが規定される場合、当該メッセージは、当該新たなレイヤのメッセージであってもよい。
 ステップS716において、UE100は、無線環境の測定結果を含むRRCメッセージである測定報告メッセージをgNB200に送信してもよい。gNB200は、測定報告メッセージを受信する。
 ステップS717において、gNB200は、例えば測定報告メッセージに基づいて、アクティブ化するモデルを選択し、選択したモデルをアクティブ化するアクティブ化コマンド(選択コマンド)をUE100に送信する。UE100は、アクティブ化コマンドを受信する。アクティブ化コマンドは、DCI、MAC CE、RRCメッセージ、又はAI/MLレイヤのメッセージであってもよい。アクティブ化コマンドは、選択されたモデルを示すモデルインデックスを含んでもよい。アクティブ化コマンドは、UE100が推論処理を実施するのか、又はUE100が学習処理を実施するのかを指定する情報を含んでもよい。
 gNB200は、例えば測定報告メッセージに基づいて、非アクティブ化するモデルを選択し、選択したモデルを非アクティブ化する非アクティブ化コマンド(選択コマンド)をUE100に送信する。UE100は、非アクティブ化コマンドを受信する。非アクティブ化コマンドは、DCI、MAC CE、RRCメッセージ、又はAI/MLレイヤのメッセージであってもよい。非アクティブ化コマンドは、選択されたモデルを示すモデルインデックスを含んでもよい。UE100は、非アクティブ化コマンドを受信すると、指定されたモデルを削除せずに非アクティブ化(適用中止)してもよい。
 ステップS718において、UE100は、アクティブ化コマンドの受信に応じて、指定されたモデルを適用(アクティブ化)する。UE100は、配備したモデルの中から、アクティブ化されたモデルを用いて推論処理及び/又は学習処理を行う。
 その後、ステップS719において、gNB200は、モデルを削除するための削除メッセージをUE100に送信する。UE100は、削除メッセージを受信する。削除メッセージは、MAC CE、RRCメッセージ、NASメッセージ、又はAI/MLレイヤのメッセージであってもよい。削除メッセージは、削除するモデルのモデルインデックスを含んでもよい。UE100は、削除メッセージを受信すると、指定されたモデルを削除する。
 なお、gNB200からUE100に送信(転送)されるモデルのデータ量が大きい及び/又はモデルの数が多い場合、1つのメッセージにモデルを含めることが難しいことがある。そのため、gNB200は、モデルを含む設定メッセージを複数の分割メッセージに分割し、分割メッセージを順次送信してもよい。その場合、gNB200は、分割メッセージの送信方法をUE100に通知する。
 図23は、実施形態に係る設定メッセージの分割送信に関する動作例を示す図である。
 ステップS731において、gNB200は、モデル転送方法に関する情報を含むメッセージをUE100に送信する。UE100は、当該メッセージを受信する。当該メッセージは、「送信データのサイズ」、「送達完了までの時間」、「データの合計容量」、及び「送信方法、送信条件」のうち少なくとも1つの情報要素を含む。「送信方法、送信条件」は、「連続設定」、「周期(周期的、非周期的)設定」、「送信時刻と送信時間(例えば、毎日24:00~2時間)」、「条件付き送信(例えば、バッテリー懸念が無い時(例:充電時のみ)送信、又はリソースが空いている時のみ送信)」、「ベアラ、通信路、ネットワークスライスの指定」のうち、少なくとも1つの情報を含む。
 ステップS732において、UE100は、ステップS731でgNB200から通知されたデータ送信方法・送信条件について所望のものであるか判断し、所望のものでない場合は変更を希望する変更希望通知をgNB200に送信する。gNB200は、当該変更希望通知に応じて、ステップS731を再度実行してもよい。
 ステップS733,S734、・・・において、gNB200は、分割メッセージをUE100に送信する。UE100は、分割メッセージを受信する。gNB200は、このようなデータ送信中に、送信済みデータ量及び/又は残データ量を示す情報、例えば「送信済個数及び全体個数」又は「送信済割合(%)」を示す情報をUE100に送信してもよい。UE100は、自身の都合に応じて、分割メッセージの送信停止要求や送信再開要求をgNB200に送信してもよい。gNB200は、自身の都合に応じて、分割メッセージの送信停止通知や送信再開通知をUE100に送信してもよい。
 なお、gNB200は、モデル(設定メッセージ)のデータ量をUE100に通知し、UE100から承認が得られた場合のみ、当該モデルの送信を開始してもよい。例えば、UE100は、当該モデルが、自身の残りメモリ容量と比較して、当該モデルを配備可能な場合にOKを返し、配備不可能な場合はNGを返してもよい。上記その他の情報についても同様に、送信側と受信側のネゴシエーションがあってもよい。
 (モデル転送に関する第3動作例)
 本第3動作例において、UE100は、機械学習処理(AI/ML処理)の負荷状況をネットワークに通知する。これにより、ネットワーク(例えばgNB200)は、通知された負荷状況に基づいて、UE100にあとどれくらいのモデルを配備可能か(又はアクティブ化可能か)を判断できる。本第3動作例は、上述のモデル転送に関する第1動作例を前提としなくてもよい。或いは、本第3動作例は、当該第1動作例を前提としてもよい。
 図24は、実施形態に係るモデル転送に関する第3動作例を示す図である。
 ステップS751において、gNB200は、AI/ML処理負荷状況の情報提供の要求又はAI/ML処理負荷状況の報告の設定を含むメッセージをUE100に送信する。UE100は、当該メッセージを受信する。当該メッセージは、MAC CE、RRCメッセージ、NASメッセージ、又はAI/MLレイヤのメッセージであってもよい。AI/ML処理負荷状況の報告の設定は、報告トリガ(送信トリガ)を設定する情報、例えば、「Periodic」又は「Event triggered」を含んでもよい。「Periodic」は、報告の周期を設定し、UE100は当該周期で報告を行う。「Event triggered」は、UE100におけるAI/ML処理負荷状況を示す値(処理負荷値及び/又はメモリ負荷値)と比較される閾値を設定し、UE100は、当該値が当該閾値の条件を満たしたことに応じて報告を行う。ここで、閾値は、モデル毎に設定されてもよい。例えば、当該メッセージにおいて、モデルインデックスと閾値とが対応付けられていてもよい。
 ステップS752において、UE100は、AI/ML処理負荷状況を示す情報を含むメッセージ(報告メッセージ)をgNB200に送信する。当該メッセージは、RRCメッセージ、例えば、「UE Assistance Information」メッセージ又は「Measurement Report(測定報告)」メッセージであってもよい。或いは、当該メッセージは、新たに規定されるメッセージ(例えば、「AI Assistance Information」メッセージ)であってもよい。当該メッセージは、NASメッセージであってもよい。或いは、当該メッセージは、AI/MLレイヤのメッセージであってもよい。
 当該メッセージは、「処理負荷状況」及び/又は「メモリ負荷状況」を含む。「処理負荷状況」は、処理能力(プロセッサの能力)の何パーセントを使用しているか、又は残り何パーセントが使用可能かであってもよい。或いは、「処理負荷状況」は、上述のように負荷をポイントで表現し、何ポイントを使用しているか、残り何ポイントが使用可能かを通知してもよい。UE100は、「処理負荷状況」をモデル毎に通知してもよい。例えば、UE100は、「モデルインデックス」と「処理負荷状況」とのセットを少なくとも1つ当該メッセージに含めてもよい。「メモリ負荷状況」は、メモリ容量、メモリ使用量、又はメモリ残量であってもよい。UE100は、モデル保存用メモリ、AIプロセッサのメモリ、GPU用メモリなど、「メモリ負荷状況」を種別毎に通知してもよい。
 ステップS752において、UE100は、例えば処理負荷が高い又は効率が悪いなどの理由で特定のモデルの使用を中止したい場合、モデルの設定削除又は非アクティブ化を希望するモデルを示す情報(モデルインデックス)を当該メッセージに含めてもよい。UE100は、自身の処理負荷が危なくなった時に、アラート情報を当該メッセージに含めてgNB200に送信してもよい。
 ステップS753において、gNB200は、ステップS752でUE100から受信したメッセージに基づいて、モデルの設定変更などを判定し、モデル設定変更のためのメッセージをUE100に送信する。当該メッセージは、MAC CE、RRCメッセージ、NASメッセージ、又はAI/MLレイヤのメッセージであってもよい。gNB200は、上述のアクティブ化コマンド又は非アクティブ化コマンドをUE100に送信してもよい。
 (その他の実施形態)
 上述のように、モデル転送に関する第1動作例乃至第3動作例で参照した図面において、必須ではない処理を破線で示している。また、当該第1動作例乃至第3動作例において、通信装置501がUE100であるものとしたが、通信装置501がgNB200又はAMF300Aであってもよい。通信装置501は、gNB200の機能分割単位である、gNB-DUやgNB-CUであってもよい。或いは、通信装置501は、gNB-DUに1つ以上具備されるRU(Radio Unit)であってもよい。当該第1動作例乃至第3動作例において、通信装置502がgNB200であるものとしたが、通信装置502がUE100又はAMF300Aであってもよい。通信装置502は、gNB-CU、gNB-DU、又はRUであってもよい。また、サイドリンク中継を想定し、通信装置501が遠隔UE(Remote UE)であってもよく、通信装置502が中継UE(Relay UE)であってもよい。
 上述の各動作フローは、別個独立に実施する場合に限らず、2以上の動作フローを組み合わせて実施可能である。例えば、1つの動作フローの一部のステップを他の動作フローに追加してもよいし、1つの動作フローの一部のステップを他の動作フローの一部のステップと置換してもよい。各フローにおいて、必ずしもすべてのステップを実行する必要は無く、一部のステップのみを実行してもよい。
 上述の実施形態において、基地局がNR基地局(gNB)である一例について説明したが基地局がLTE基地局(eNB)であってもよい。また、基地局は、IAB(Integrated Access and Backhaul)ノード等の中継ノードであってもよい。基地局は、IABノードのDU(Distributed Unit)であってもよい。ユーザ装置(端末装置)は、IABノード等の中継ノードでもよく、IABノードのMT(Mobile Termination)であってもよい。
 通信装置(例えば、UE100又はgNB200)が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROM又はDVD-ROM等の記録媒体であってもよい。また、通信装置が行う各処理を実行する回路を集積化し、通信装置の少なくとも一部を半導体集積回路(チップセット、SoC:System on a chip)として構成してもよい。
 本開示で使用されている「に基づいて(based on)」、「に応じて(depending on)」という記載は、別段に明記されていない限り、「のみに基づいて」、「のみに応じて」を意味しない。「に基づいて」という記載は、「のみに基づいて」及び「に少なくとも部分的に基づいて」の両方を意味する。同様に、「に応じて」という記載は、「のみに応じて」及び「に少なくとも部分的に応じて」の両方を意味する。また、「取得する(obtain/acquire)」は、記憶されている情報の中から情報を取得することを意味してもよく、他のノードから受信した情報の中から情報を取得することを意味してもよく、又は、情報を生成することにより当該情報を取得することを意味してもよい。「含む(include)」、「備える(comprise)」、及びそれらの変形の用語は、列挙する項目のみを含むことを意味せず、列挙する項目のみを含んでもよいし、列挙する項目に加えてさらなる項目を含んでもよいことを意味する。また、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。さらに、本開示で使用されている「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。本開示において、例えば、英語でのa,an,及びtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。
 以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
 本願は、日本国特許出願第2022-069118号(2022年4月19日出願)の優先権を主張し、その内容の全てが本願明細書に組み込まれている。
(付記)
 上述の実施形態に関する特徴について付記する。
(1)
 機械学習技術を用いる移動通信システムにおいて別の通信装置との通信を行う通信装置であって、
 学習処理及び推論処理の少なくとも一方の機械学習処理で用いるモデルと、前記モデルに関する付加情報と、を含む設定メッセージを前記別の通信装置から受信する受信部と、
 前記付加情報に基づいて、前記モデルを用いて前記機械学習処理を実行する制御部と、を備える
 通信装置。
(2)
 前記モデルは、前記推論処理で用いる学習済みモデルである
 上記(1)に記載の通信装置。
(3)
 前記モデルは、前記学習処理で用いる未学習のモデルである
 上記(1)に記載の通信装置。
(4)
 前記設定メッセージは、前記モデルを含む複数のモデルと、前記複数のモデルのそれぞれに個別に又は共通に対応付けられた前記付加情報と、を含む
 上記(1)乃至(3)のいずれかに記載の通信装置。
(5)
 前記付加情報は、前記モデルのインデックスを含む
 上記(1)乃至(4)のいずれかに記載の通信装置。
(6)
 前記付加情報は、前記モデルの用途を示す情報、及び前記モデルへの入力データの種別を示す情報のうち少なくとも1つを含む
 上記(1)乃至(5)のいずれかに記載の通信装置。
(7)
 前記付加情報は、前記モデルを適用するために必要な性能を示す情報を含む
 上記(1)乃至(6)のいずれかに記載の通信装置。
(8)
 前記付加情報は、前記モデルを適用する基準を示す情報を含む
 上記(1)乃至(7)のいずれかに記載の通信装置。
(9)
 前記付加情報は、前記モデルの学習又は再学習の要否、及び、前記モデルの学習又は再学習の可否を示す情報、のうち少なくとも1つを含む
 上記(1)乃至(8)のいずれかに記載の通信装置。
(10)
 前記制御部は、前記設定メッセージの受信に応じて前記モデルを配備し、
 前記通信装置は、前記モデルの配備が完了したことを示す応答メッセージを前記別の通信装置に送信する送信部をさらに備える
 上記(1)乃至(9)のいずれかに記載の通信装置。
(11)
 前記モデルの配備に失敗した場合、前記送信部は、エラーメッセージを前記別の通信装置に送信する
 上記(10)に記載の通信装置。
(12)
 前記設定メッセージは、前記モデルをユーザ装置に設定するメッセージであり、
 前記受信部は、前記設定されたモデルを適用するアクティブ化コマンドを前記別の通信装置からさらに受信し、
 前記制御部は、
  前記メッセージの受信に応じて、前記モデルを配備し、
  前記アクティブ化コマンドの受信に応じて、前記配備されたモデルを適用する
 上記(1)乃至(11)に記載の通信装置。
(13)
 前記アクティブ化コマンドは、適用するモデルを示すインデックスを含む
 上記(12)に記載の通信装置。
(14)
 前記受信部は、前記設定メッセージにより設定された前記モデルの削除を指示する削除メッセージをさらに受信し、
 前記制御部は、前記削除メッセージの受信に応じて、前記設定メッセージにより設定された前記モデルを削除する
 上記(1)乃至(13)のいずれかに記載の通信装置。
(15)
 前記設定メッセージを分割して得られた複数の分割メッセージが前記別の通信装置から送信される場合、前記受信部は、前記複数の分割メッセージの送信方法を示す情報を前記別の通信装置から受信する
 上記(1)乃至(14)のいずれかに記載の通信装置。
(16)
 前記別の通信装置が基地局又はコアネットワーク装置であって、前記通信装置がユーザ装置である
 上記(1)乃至(15)のいずれかに記載の通信装置。
(17)
 前記別の通信装置が前記基地局であって、前記メッセージがRRCメッセージである
 上記(16)に記載の通信装置。
(18)
 前記別の通信装置が前記コアネットワーク装置であって、前記メッセージがNASメッセージである
 上記(16)に記載の通信装置。
(19)
 前記別の通信装置がコアネットワーク装置であって前記通信装置が基地局である、又は、前記別の通信装置が第1基地局であって前記通信装置が第2基地局である
 上記(1)乃至(15)のいずれかに記載の通信装置。
(20)
 機械学習技術を用いる移動通信システムにおいて別の通信装置との通信を行う通信装置が実行する通信方法であって、
 学習処理及び推論処理の少なくとも一方の機械学習処理で用いるモデルと、前記モデルに関する付加情報と、を含む設定メッセージを前記別の通信装置から受信することと、
 前記付加情報に基づいて、前記モデルを用いて前記機械学習処理を実行することと、を有する
 通信方法。
1   :移動通信システム
100 :UE
110 :受信部
120 :送信部
130 :制御部
131 :CSI生成部
132 :位置情報生成部
140 :GNSS受信機
200 :gNB
210 :送信部
220 :受信部
230 :制御部
231 :CSI生成部
240 :バックホール通信部
400 :ロケーションサーバ
501 :通信装置
502 :通信装置
A1  :データ収集部
A2  :モデル学習部
A3  :モデル推論部
A4  :データ処理部
A5  :連合学習部

Claims (20)

  1.  機械学習技術を用いる移動通信システムにおいて別の通信装置との通信を行う通信装置であって、
     学習処理及び推論処理の少なくとも一方の機械学習処理で用いるモデルと、前記モデルに関する付加情報と、を含む設定メッセージを前記別の通信装置から受信する受信部と、
     前記付加情報に基づいて、前記モデルを用いて前記機械学習処理を実行する制御部と、を備える
     通信装置。
  2.  前記モデルは、前記推論処理で用いる学習済みモデルである
     請求項1に記載の通信装置。
  3.  前記モデルは、前記学習処理で用いる未学習のモデルである
     請求項1に記載の通信装置。
  4.  前記設定メッセージは、前記モデルを含む複数のモデルと、前記複数のモデルのそれぞれに個別に又は共通に対応付けられた前記付加情報と、を含む
     請求項1に記載の通信装置。
  5.  前記付加情報は、前記モデルのインデックスを含む
     請求項1に記載の通信装置。
  6.  前記付加情報は、前記モデルの用途を示す情報、及び前記モデルへの入力データの種別を示す情報のうち少なくとも1つを含む
     請求項1に記載の通信装置。
  7.  前記付加情報は、前記モデルを適用するために必要な性能を示す情報を含む
     請求項1に記載の通信装置。
  8.  前記付加情報は、前記モデルを適用する基準を示す情報を含む
     請求項1に記載の通信装置。
  9.  前記付加情報は、前記モデルの学習又は再学習の要否、及び、前記モデルの学習又は再学習の可否を示す情報、のうち少なくとも1つを含む
     請求項1に記載の通信装置。
  10.  前記制御部は、前記設定メッセージの受信に応じて前記モデルを配備し、
     前記通信装置は、前記モデルの配備が完了したことを示す応答メッセージを前記別の通信装置に送信する送信部をさらに備える
     請求項1に記載の通信装置。
  11.  前記モデルの配備に失敗した場合、前記送信部は、エラーメッセージを前記別の通信装置に送信する
     請求項10に記載の通信装置。
  12.  前記設定メッセージは、前記モデルをユーザ装置に設定するメッセージであり、
     前記受信部は、前記設定されたモデルを適用するアクティブ化コマンドを前記別の通信装置からさらに受信し、
     前記制御部は、
      前記メッセージの受信に応じて、前記モデルを配備し、
      前記アクティブ化コマンドの受信に応じて、前記配備されたモデルを適用する
     請求項1に記載の通信装置。
  13.  前記アクティブ化コマンドは、適用するモデルを示すインデックスを含む
     請求項12に記載の通信装置。
  14.  前記受信部は、前記設定メッセージにより設定された前記モデルの削除を指示する削除メッセージをさらに受信し、
     前記制御部は、前記削除メッセージの受信に応じて、前記設定メッセージにより設定された前記モデルを削除する
     請求項1に記載の通信装置。
  15.  前記設定メッセージを分割して得られた複数の分割メッセージが前記別の通信装置から送信される場合、前記受信部は、前記複数の分割メッセージの送信方法を示す情報を前記別の通信装置から受信する
     請求項1に記載の通信装置。
  16.  前記別の通信装置が基地局又はコアネットワーク装置であって、前記通信装置がユーザ装置である
     請求項1乃至15のいずれか1項に記載の通信装置。
  17.  前記別の通信装置が前記基地局であって、前記メッセージがRRCメッセージである
     請求項16に記載の通信装置。
  18.  前記別の通信装置が前記コアネットワーク装置であって、前記メッセージがNASメッセージである
     請求項16に記載の通信装置。
  19.  前記別の通信装置がコアネットワーク装置であって前記通信装置が基地局である、又は、前記別の通信装置が第1基地局であって前記通信装置が第2基地局である
     請求項1乃至15のいずれか1項に記載の通信装置。
  20.  機械学習技術を用いる移動通信システムにおいて別の通信装置との通信を行う通信装置が実行する通信方法であって、
     学習処理及び推論処理の少なくとも一方の機械学習処理で用いるモデルと、前記モデルに関する付加情報と、を含む設定メッセージを前記別の通信装置から受信することと、
     前記付加情報に基づいて、前記モデルを用いて前記機械学習処理を実行することと、を有する
     通信方法。
PCT/JP2023/015485 2022-04-19 2023-04-18 通信装置及び通信方法 WO2023204211A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-069118 2022-04-19
JP2022069118 2022-04-19

Publications (1)

Publication Number Publication Date
WO2023204211A1 true WO2023204211A1 (ja) 2023-10-26

Family

ID=88419882

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/015485 WO2023204211A1 (ja) 2022-04-19 2023-04-18 通信装置及び通信方法

Country Status (1)

Country Link
WO (1) WO2023204211A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021177867A1 (en) * 2020-03-03 2021-09-10 Telefonaktiebolaget Lm Ericsson (Publ) Determining location information about a drone
US20210328630A1 (en) * 2020-04-16 2021-10-21 Qualcomm Incorporated Machine learning model selection in beamformed communications
US20210345134A1 (en) * 2018-10-19 2021-11-04 Telefonaktiebolaget Lm Ericsson (Publ) Handling of machine learning to improve performance of a wireless communications network
WO2022013104A1 (en) * 2020-07-13 2022-01-20 Telefonaktiebolaget Lm Ericsson (Publ) Managing a wireless device that is operable to connect to a communication network
WO2022013095A1 (en) * 2020-07-13 2022-01-20 Telefonaktiebolaget Lm Ericsson (Publ) Managing a wireless device that is operable to connect to a communication network
WO2022034259A1 (en) * 2020-08-11 2022-02-17 Nokia Technologies Oy Communication system for machine learning metadata
US20220053474A1 (en) * 2020-08-11 2022-02-17 Charter Communications Operating, Llc Apparatus and methods for resource message segmentation in wireless networks
WO2022060923A1 (en) * 2020-09-16 2022-03-24 Intel Corporation Non-realtime services for ai/ml

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210345134A1 (en) * 2018-10-19 2021-11-04 Telefonaktiebolaget Lm Ericsson (Publ) Handling of machine learning to improve performance of a wireless communications network
WO2021177867A1 (en) * 2020-03-03 2021-09-10 Telefonaktiebolaget Lm Ericsson (Publ) Determining location information about a drone
US20210328630A1 (en) * 2020-04-16 2021-10-21 Qualcomm Incorporated Machine learning model selection in beamformed communications
WO2022013104A1 (en) * 2020-07-13 2022-01-20 Telefonaktiebolaget Lm Ericsson (Publ) Managing a wireless device that is operable to connect to a communication network
WO2022013095A1 (en) * 2020-07-13 2022-01-20 Telefonaktiebolaget Lm Ericsson (Publ) Managing a wireless device that is operable to connect to a communication network
WO2022034259A1 (en) * 2020-08-11 2022-02-17 Nokia Technologies Oy Communication system for machine learning metadata
US20220053474A1 (en) * 2020-08-11 2022-02-17 Charter Communications Operating, Llc Apparatus and methods for resource message segmentation in wireless networks
WO2022060923A1 (en) * 2020-09-16 2022-03-24 Intel Corporation Non-realtime services for ai/ml

Similar Documents

Publication Publication Date Title
JP7432758B2 (ja) 無線インテリジェントコントローラのe2ポリシーへのユーザ機器ごとの制御の追加
EP2826277B1 (en) Hierarchical network and interference management
CN113302956A (zh) 用于管理波束故障检测的用户设备和基站
WO2021121585A1 (en) Methods for cascade federated learning for telecommunications network performance and related apparatus
CN111819881A (zh) 服务质量(qos)拥塞控制处理
JP7279186B2 (ja) Nr v2xにおけるサイドリンクチャネルと関連した情報を送信する方法及び装置
US20230370181A1 (en) Communication device predicted future interference information
EP3855839A1 (en) Method and apparatus for distribution and synchronization of radio resource assignments in a wireless communication system
EP3714624B1 (en) Location aware scheduling
CN114788348A (zh) 使用基于机器学习的模型执行切换的通信设备、基础设施设备和方法
CN111742518B (zh) 确定或指示网络中的服务小区操作状态的方法和设备
US20170201366A1 (en) Carrier Aggregation inter eNB activation
WO2022008287A1 (en) Technique for activating secondary radio link control entities for packet duplication
JP2020502881A (ja) ユーザプレーン切替えのためのネットワークノードおよびネットワークノードにおける方法
US11818806B2 (en) ML model training procedure
US20210321385A1 (en) Method and device for reporting channel state information in nr v2x
WO2023204211A1 (ja) 通信装置及び通信方法
WO2023204210A1 (ja) 通信装置及び通信方法
WO2024096045A1 (ja) 通信方法
WO2024019163A1 (ja) 通信方法及び通信装置
WO2024019167A1 (ja) 通信方法
WO2023163044A1 (ja) 通信制御方法及び通信装置
US20220346108A1 (en) Controlling Traffic and Interference in a Communications Network
US20230422284A1 (en) Wireless communication measurement reporting
US20240172108A1 (en) Cell activation based on received indication

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23791859

Country of ref document: EP

Kind code of ref document: A1